Sua IA está em conformidade com o EU AI Act? O ‘risco residual’ pode ser um desafio regulatório e de conformidade

Por: Fernanda Sabatine

O Regulamento de IA da UE (EU AI Act) é um marco, mas uma análise recente aponta para uma lacuna crítica que pode impactar empresas de tecnologia e os direitos dos cidadãos. A questão está no “risco residual”.

O que é isso? Mesmo após aplicar todas as medidas de segurança, um sistema de IA de alto risco, como os usados em reconhecimento facial ou segurança de infraestruturas, ainda pode apresentar riscos. O AI Act exige que este risco seja “aceitável”, mas falha em definir o que “aceitável” realmente significa.

Esta ambiguidade, é destacada na tese de Alberto Marcelli da Tilburg University. O artigo destaca uma lacuna significativa: a falta de critérios harmonizados e quantificáveis para definir o que é um ‘risco residual aceitável’ em sistemas de IA de alto risco. Embora o Artigo 9(5) da EU AI Act exija que esses riscos sejam minimizados, a ausência de diretrizes claras gera incerteza jurídica e inconsistências na avaliação de conformidade entre os Estados-Membros. Isso não apenas dificulta a vida dos provedores de IA, mas também pode comprometer a proteção de direitos fundamentais.

Pontos para reflexão:

Incerteza Jurídica e Fragmentação: Desenvolvedores de IA enfrentam um alvo móvel, sem saber quais benchmarks de segurança serão suficientes para a aprovação regulatória.

Fiscalização Inconsistente (Fragmentação): Um sistema de IA considerado seguro em um país da UE pode ser barrado em outro, fragmentando o mercado digital.

O Caso Clearview AI: O artigo usa o exemplo da Clearview AI para ilustrar como sistemas de alto risco podem operar com riscos não resolvidos devido a essas lacunas regulatórias, levantando sérias preocupações sobre privacidade e direitos humanos.

Ameaças a Direitos Fundamentais: Tecnologias como as de reconhecimento biométrico podem perpetuar vieses e discriminação, mesmo após mitigações, afetando desproporcionalmente grupos vulneráveis. O caso Clearview AI é um exemplo prático desses desafios.

A pesquisa sugere olhar para outros regulamentos da UE, como o GDPR e o MDR, em busca de modelos para criar padrões mais claros e harmonizados.

À medida que a IA se integra cada vez mais em setores críticos, como saúde, segurança e justiça, garantir que os riscos residuais sejam adequadamente gerenciados e regulamentados é fundamental para construir confiança e proteger a sociedade. A segurança jurídica e a coerência regulatória são essenciais para fomentar a inovação responsável.

Para empresas que desenvolvem ou implementam IA de alto risco, navegar nesta “zona cinzenta” é um desafio estratégico. Como podemos equilibrar inovação com a proteção de direitos fundamentais sem benchmarks regulatórios claros?

Especialista em Privacidade de Dados Pessoais, Segurança da Informação e Políticas/Gestão de IA 

Linkedin: https://www.linkedin.com/in/fernanda-sabatine-55090b254/

COMPARTILHE:

POSTS

Mais recentes

Quando a Inteligência Artificial Assume o Controle: Segurança, Automação e Continuidade dos Negócios

Com a inteligência artificial assumindo papéis centrais na automação dos negócios, cresce também a dependência de modelos algorítmicos para processos críticos e decisões operacionais. Mas essa evolução tecnológica traz consigo um novo conjunto de riscos que vão além da performance: falhas, manipulações ou interrupções em sistemas de IA podem comprometer a continuidade do negócio de forma profunda e silenciosa. Neste artigo, exploramos como segurança da informação, governança de IA e resiliência organizacional precisam caminhar juntas para garantir que o avanço da automação não se torne um ponto cego.

Leia mais »