Por Enio Klein
A crescente adoção de tecnologias baseadas em inteligência artificial (IA) trouxe desafios regulatórios globais, levando governos a desenvolverem legislações que garantam a inovação responsável e a proteção dos direitos fundamentais. No Brasil, o Projeto de Lei 2338/2023, de autoria do senador Rodrigo Pacheco, busca estabelecer diretrizes para o uso seguro da IA. O texto já foi aprovado pelo Senado Federal, mas ainda precisa passar pela Câmara dos Deputados antes de seguir para sanção presidencial. Paralelamente, a União Europeia avançou significativamente com o AI Act, um dos marcos regulatórios mais abrangentes sobre o tema.
Embora ambas as legislações compartilhem o objetivo de mitigar riscos associados à IA, suas abordagens são substancialmente diferentes. Enquanto o AI Act já traz em sua estrutura a regulamentação detalhada e trabalha o uso das ferramentas de IA, o PL 2338/2023 ainda é subjetivo e tem uma perspectiva mais voltada para as ferramentas em si, deixando lacunas quanto à sua aplicação prática e fiscalização.
Classificação de Risco: Estrutura Regulamentada vs. Definições Subjetivas
Uma das principais diferenças entre o AI Act e o PL 2338/2023 está na classificação de risco dos sistemas de IA. O AI Act categoriza os sistemas de IA em quatro níveis:
- Risco inaceitável (proibido) – Exemplo: sistemas de pontuação social.
- Alto risco – Exemplo: IA aplicada a segurança pública, infraestrutura crítica e saúde.
- Risco limitado – Exemplo: chatbots e deepfakes, que exigem transparência ao usuário.
- Risco mínimo – Exemplo: IA em videogames e filtros de spam (não regulamentada).
Essa estrutura permite que a União Europeia regule o uso da IA com regras já estabelecidas, impondo obrigações específicas para cada nível de risco.
O PL 2338/2023, por outro lado, não define com clareza os critérios para a classificação dos sistemas de IA. Sua abordagem, voltada mais para as ferramentas do que para seu impacto e uso, pode gerar incertezas jurídicas para empresas e desenvolvedores. Além disso, o texto ainda não estabelece quais sanções seriam aplicadas a sistemas que descumpram as normas, enquanto o AI Act já prevê penalidades severas para infrações.
Autoridade Reguladora: Estruturas Diferentes para Fiscalização
Outra diferença importante entre as legislações está na autoridade reguladora responsável pela fiscalização. O AI Act cria o AI Office, um órgão específico da Comissão Europeia dedicado exclusivamente ao monitoramento do cumprimento da lei. Além disso, os países membros da União Europeia contarão com suas próprias autoridades nacionais de IA para supervisionar as aplicações da regulamentação.
No Brasil, o PL 2338/2023 propõe que a Autoridade Nacional de Proteção de Dados (ANPD) atue na supervisão da IA. No entanto, a ANPD já possui atribuições complexas relacionadas à Lei Geral de Proteção de Dados (LGPD) e pode não ter capacidade operacional e técnica para assumir essa nova responsabilidade com eficiência. Essa falta de estrutura específica pode tornar a regulamentação brasileira menos eficaz, enquanto a UE já dispõe de uma infraestrutura regulatória robusta e descentralizada para fiscalizar o cumprimento das normas.
Reconhecimento Facial e Biometria: Um Ponto de Conflito
O uso de reconhecimento facial e tecnologias biométricas é um dos temas mais controversos em ambas as legislações. O AI Act impõe restrições rigorosas ao uso de reconhecimento facial em espaços públicos, permitindo seu uso apenas em situações excepcionais, como investigações criminais graves e buscas por pessoas desaparecidas. Além disso, qualquer aplicação dessa tecnologia requer autorização prévia de uma autoridade judicial ou administrativa independente.
No PL 2338/2023, por outro lado, não há uma delimitação clara sobre os limites para o uso do reconhecimento facial e outras formas de biometria. Isso pode abrir margem para vigilância em massa e possíveis violações de privacidade. Sem uma estrutura regulatória específica, o Brasil corre o risco de implementar políticas mais permissivas ou inconsistentes, tornando-se vulnerável a abusos por parte de órgãos públicos e empresas privadas.
Transparência e Responsabilidade: Abordagem Pragmática vs. Subjetividade
Embora tenham abordagens distintas, o AI Act e o PL 2338/2023 compartilham preocupações sobre transparência e responsabilização. Ambos estabelecem que usuários devem ser informados quando estão interagindo com sistemas de IA, como em chatbots ou deepfakes, e exigem que desenvolvedores garantam mecanismos de auditoria para decisões automatizadas.
No entanto, enquanto o AI Act já traz regras claras e punições para descumprimentos, o PL 2338/2023 ainda carece de regulamentação detalhada sobre esses aspectos. A subjetividade do texto brasileiro faz com que questões essenciais, como auditoria e responsabilização por decisões algorítmicas, fiquem indefinidas. Isso pode comprometer a segurança jurídica e a proteção dos direitos fundamentais dos cidadãos.
Conclusão: Caminhos Diferentes para um Mesmo Objetivo
Tanto o AI Act quanto o PL 2338/2023 buscam regulamentar a inteligência artificial para garantir que seu uso seja seguro e alinhado com princípios éticos. No entanto, enquanto o AI Act já traz em sua estrutura a regulamentação necessária e estabelece diretrizes sobre o uso da IA, o PL 2338/2023 ainda é subjetivo e se concentra mais nas ferramentas, sem detalhar completamente as regras de aplicação.
A União Europeia aposta em um modelo altamente estruturado, com classificações de risco, sanções e mecanismos de fiscalização bem definidos. Já o Brasil ainda precisa amadurecer sua legislação, garantindo que a regulamentação da IA não apenas controle as ferramentas utilizadas, mas também estabeleça diretrizes concretas sobre seu uso. A experiência europeia pode servir como referência para que o PL 2338/2023 evolua para uma regulamentação mais robusta, proporcionando segurança jurídica e incentivando a inovação responsável.
Apesar da aprovação no Senado Federal, o PL 2338/2023 ainda precisa passar pela Câmara dos Deputados antes de seguir para sanção presidencial. Até lá, ainda há espaço para ajustes que tornem a regulamentação brasileira mais clara, eficiente e alinhada às melhores práticas internacionais.