Por Enio Klein
A governança da inteligência artificial (IA) emergiu como um dos grandes desafios contemporâneos para governos ao redor do mundo. À medida que a tecnologia avança com velocidade vertiginosa, os formuladores de políticas enfrentam a difícil tarefa de equilibrar dois imperativos muitas vezes conflitantes: garantir a segurança e a ética no uso da IA por meio de regulação, e, ao mesmo tempo, fomentar seu desenvolvimento para não perder competitividade global. Neste sentido, o Index Report 2025, produzido pela Universidade de Stanford nos Estados Unidos, nos mostra que essa corrida regulatória e estratégica está em pleno curso. O relatório nos oferece ainda um panorama abrangente sobre o avanço das políticas públicas em IA. O documento revela uma movimentação intensa tanto no campo regulatório quanto no fomento à inovação, com destaque para iniciativas em países como Estados Unidos, China, França e Arábia Saudita.
Nos Estados Unidos, a produção legislativa cresceu de forma significativa ao nível estadual — de apenas uma lei sobre IA em 2016, o número saltou para 131 em 2024. Enquanto isso, o governo federal multiplicou a quantidade de regulamentos e agências envolvidas no tema, mostrando uma descentralização típica de sistemas federativos. A preocupação com segurança digital também se refletiu em leis específicas sobre deepfakes, que passaram a existir em 24 estados americanos. Paralelamente, o impulso ao desenvolvimento tecnológico se intensificou. Países anunciaram grandes pacotes de investimentos: a China criou um fundo de US$ 47,5 bilhões para semicondutores, a França comprometeu-se com € 117 bilhões, e a Arábia Saudita lançou o ambicioso projeto “Transcendence” com orçamento de US$ 100 bilhões. Esses investimentos são acompanhados por iniciativas multilaterais, como a criação de institutos internacionais de segurança em IA após a Cúpula de Seul, estabelecendo um esforço de governança cooperativa entre grandes potências. Destaca-se nesse caso a participação do Japão, um dos signatários do acordo, se comprometeu a estabelecer seu próprio “Instituto de Segurança da IA”.
O Japão é apontado como um dos líderes globais em inovação em inteligência artificial, com elevado número de patentes concedidas e forte adoção de robótica industrial. O relatório não aborda diretamente a legislação japonesa, mas fontes externas mostram que o Japão tem adotado uma abordagem regulatória mais flexível, priorizando a inovação e o desenvolvimento tecnológico. Em maio deste ano, o “Projeto de Lei sobre a Promoção da Pesquisa, Desenvolvimento e Utilização de Tecnologias Relacionadas à Inteligência Artificial” (Japan AI Bill) foi aprovado pelo Parlamento Japonês. O projeto visa acelerar a inovação doméstica em IA, abordando riscos sociais e éticos emergentes sem impor obrigações regulatórias diretas ou penalidades severas. A única exigência prevista para entidades privadas é a cooperação com iniciativas lideradas pelo governo.
Chama atenção, contudo, a lacuna global: a maioria dos esforços se concentra em regular ou financiar a IA, mas poucos países estão, de fato, investindo sistematicamente na formação de pessoas e construção de infraestrutura crítica. A capacitação em larga escala, o acesso a recursos computacionais e a democratização das tecnologias continuam sendo barreiras reais — sobretudo em países em desenvolvimento.
Nesse cenário global, o Brasil avança pelo menos em duas frentes. No nível federal, o Projeto de Lei 2338/2023 busca estabelecer um marco regulatório para o uso ético e seguro da IA. A proposta parte de princípios como a centralidade da pessoa humana, o respeito aos direitos fundamentais e a promoção da inovação responsável. Também assegura mecanismos importantes de proteção, como o direito à explicação de decisões automatizadas e a possibilidade de contestação de resultados gerados por sistemas inteligentes. Já a experiência estadual de Goiás acrescenta uma perspectiva relevante ao debate. Com a sanção da Lei Complementar n.º 205/2025, o estado optou por uma política centrada no fomento ao ecossistema de IA. A lei prioriza a formação de talentos, apoio à pesquisa aplicada, incentivo fiscal a startups e o estímulo ao uso de software livre. Além disso, propõe uma governança participativa, com envolvimento da academia, setor produtivo e sociedade civil. Trata-se de uma abordagem propositiva que complementa os aspectos regulatórios do PL federal ao enfatizar a construção de capacidades locais. Esse modelo goiano é particularmente valioso num país marcado por desigualdades regionais. Ao dar protagonismo a estados no desenvolvimento tecnológico, o Brasil amplia suas chances de formar polos de inovação distribuídos e resilientes — um contraponto ao risco de concentração de capacidades em poucas regiões metropolitanas.
Embora o Brasil esteja entre os países com maior número de graduados em tecnologia da informação, o relatório de Stanford destaca desafios relacionados à retenção de talentos e à infraestrutura digital. A falta de conectividade de alta velocidade, data centers acessíveis e energia limpa são obstáculos ainda presentes. Outro fator de atenção é a percepção pública. O relatório aponta ainda que, na América Latina, especialmente no Brasil, caiu a confiança da população em relação à proteção de dados por empresas que utilizam IA. A construção de uma governança legítima não depende apenas de boas leis ou investimentos — exige também diálogo com a sociedade e transparência nas ações dos setores público e privado.
A experiência internacional, somada às iniciativas em curso no Brasil, sinaliza que o futuro da governança da IA exige mais do que urgência regulatória. É necessário promover uma integração estratégica entre regulação, fomento, capacitação e participação social. Iniciativas como o PL 2338/2023 e a Lei de Goiás mostram que o país está atento às exigências do novo tempo tecnológico. O desafio agora é fazer dessas iniciativas um projeto nacional consistente — inclusivo, ambicioso e sustentável