Por Enio Klein
O Projeto de Lei nº 2.338/2023, que regulamenta o uso da Inteligência Artificial (IA) no Brasil, traz implicações importantes para o cidadão comum, especialmente no que diz respeito à segurança de dados, privacidade e proteção contra fraudes. A análise desse documento, sob essa perspectiva, revela pontos cruciais:
1. Proteção do Cidadão Contra o Uso Abusivo da IA
O projeto classifica os sistemas de IA conforme graus de risco, definindo regras mais rígidas para aqueles que afetam direitos fundamentais. Isso inclui sistemas usados no setor financeiro e bancário, garantindo que:
- Decisões automatizadas devem ser explicáveis: Isso significa que se um banco negar um empréstimo ou bloquear uma conta com base em IA, o cidadão tem o direito de saber o motivo e contestar a decisão.
- Supervisão humana obrigatória em IA de alto risco. Para evitar erros ou injustiças, qualquer decisão tomada por um sistema de IA bancário precisa ser revisável por humanos.
- Direito à privacidade e proteção de dados pessoais. As instituições financeiras que utilizam IA devem seguir a Lei Geral de Proteção de Dados (LGPD), garantindo que os dados dos usuários não sejam compartilhados sem consentimento.
2. Segurança de Dados e Proteção Contra Fraudes
O cidadão que usa aplicativos bancários ou fintechs está constantemente exposto a ameaças de segurança cibernética e fraudes digitais. O projeto exige que:
- Incidentes de segurança sejam reportados às autoridades: Se um banco ou fintech sofrer um vazamento de dados, ele será obrigado a notificar os clientes e órgãos reguladores.
- Usuários vulneráveis tenham proteção especial: Pessoas idosas, crianças ou cidadãos sem alfabetização digital devem ter acesso a informações claras e acessíveis sobre como a IA afeta suas operações financeiras.
- Direito à identificação de conteúdo gerado por IA: Caso um sistema automatizado gere alguma decisão sobre crédito ou investimentos, o cidadão deve ser informado de que não foi uma pessoa real que tomou aquela decisão.
3. Responsabilidade das Instituições Financeiras
Historicamente, consumidores vítimas de fraudes bancárias acabam sendo responsabilizados pelo próprio sistema financeiro e pela mídia. O PL busca equilibrar essa relação ao:
- Definir responsabilidade compartilhada. Se um cidadão for vítima de fraude bancária por falha de um sistema de IA, a instituição financeira pode ser responsabilizada, não apenas o usuário.
- Exigir transparência nos algoritmos usados para análise de crédito e segurança bancária: O banco não pode simplesmente bloquear uma conta alegando “segurança”, sem fornecer explicações adequadas.
- Impor regras rigorosas sobre IA de risco excessivo, proibindo sistemas que possam manipular o comportamento das pessoas para obter vantagem financeira.
4. O Desafio da Implementação
Apesar dessas garantias, o projeto ainda levanta preocupações:
- Burocracia e alto custo de conformidade podem afastar pequenas fintechs, beneficiando apenas os grandes bancos que podem arcar com as exigências regulatórias.
- Dificuldade na fiscalização: Se não houver uma estrutura eficaz para fiscalizar o uso da IA no setor financeiro, as proteções ao consumidor podem ficar apenas no papel.
- Possível resistência das instituições financeiras, que podem pressionar para suavizar regras de transparência e explicabilidade.
Conclusão
O PL nº 2.338/2023 representa um avanço na proteção dos direitos do cidadão comum frente ao uso da IA no setor bancário e financeiro. No entanto, sua eficácia dependerá da implementação prática das regras e da capacidade dos órgãos reguladores de garantir que bancos e fintechs cumpram suas obrigações. Para o consumidor, isso significa mais segurança, transparência e direitos de contestação, mas também o desafio de fiscalizar e exigir o cumprimento dessas garantias.