Por: Fernanda Sabatine
O Regulamento de IA da UE (EU AI Act) é um marco, mas uma análise recente aponta para uma lacuna crítica que pode impactar empresas de tecnologia e os direitos dos cidadãos. A questão está no “risco residual”.
O que é isso? Mesmo após aplicar todas as medidas de segurança, um sistema de IA de alto risco, como os usados em reconhecimento facial ou segurança de infraestruturas, ainda pode apresentar riscos. O AI Act exige que este risco seja “aceitável”, mas falha em definir o que “aceitável” realmente significa.
Esta ambiguidade, é destacada na tese de Alberto Marcelli da Tilburg University. O artigo destaca uma lacuna significativa: a falta de critérios harmonizados e quantificáveis para definir o que é um ‘risco residual aceitável’ em sistemas de IA de alto risco. Embora o Artigo 9(5) da EU AI Act exija que esses riscos sejam minimizados, a ausência de diretrizes claras gera incerteza jurídica e inconsistências na avaliação de conformidade entre os Estados-Membros. Isso não apenas dificulta a vida dos provedores de IA, mas também pode comprometer a proteção de direitos fundamentais.
Pontos para reflexão:
Incerteza Jurídica e Fragmentação: Desenvolvedores de IA enfrentam um alvo móvel, sem saber quais benchmarks de segurança serão suficientes para a aprovação regulatória.
Fiscalização Inconsistente (Fragmentação): Um sistema de IA considerado seguro em um país da UE pode ser barrado em outro, fragmentando o mercado digital.
O Caso Clearview AI: O artigo usa o exemplo da Clearview AI para ilustrar como sistemas de alto risco podem operar com riscos não resolvidos devido a essas lacunas regulatórias, levantando sérias preocupações sobre privacidade e direitos humanos.
Ameaças a Direitos Fundamentais: Tecnologias como as de reconhecimento biométrico podem perpetuar vieses e discriminação, mesmo após mitigações, afetando desproporcionalmente grupos vulneráveis. O caso Clearview AI é um exemplo prático desses desafios.
A pesquisa sugere olhar para outros regulamentos da UE, como o GDPR e o MDR, em busca de modelos para criar padrões mais claros e harmonizados.
À medida que a IA se integra cada vez mais em setores críticos, como saúde, segurança e justiça, garantir que os riscos residuais sejam adequadamente gerenciados e regulamentados é fundamental para construir confiança e proteger a sociedade. A segurança jurídica e a coerência regulatória são essenciais para fomentar a inovação responsável.
Para empresas que desenvolvem ou implementam IA de alto risco, navegar nesta “zona cinzenta” é um desafio estratégico. Como podemos equilibrar inovação com a proteção de direitos fundamentais sem benchmarks regulatórios claros?
Especialista em Privacidade de Dados Pessoais, Segurança da Informação e Políticas/Gestão de IA
Linkedin: https://www.linkedin.com/in/fernanda-sabatine-55090b254/