Por Enio Klein
Vivemos um tempo em que os meios de acesso ao conhecimento estão se transformando radicalmente. O conteúdo que antes se materializava em livros, enciclopédias, jornais e arquivos físicos agora é digitalizado, extraído, recombinado — e, muitas vezes, desmaterializado. A própria noção de cultura parece estar passando por um processo de compressão, onde o que importa é a essência informacional, e não mais sua forma, história ou contexto.
Esse fenômeno se intensifica à medida que modelos de inteligência artificial são treinados com volumes colossais de dados. Para alimentar esses sistemas, vale tudo: documentos, artigos, dissertações, e cada vez mais, livros. Não como leitura, mas como fonte de dados brutos. A qualidade textual, o estilo e a profundidade editorial desses conteúdos os tornam insumos valiosos para a construção de sistemas que “parecem pensar”. Mas aqui começa o dilema: quando se digitaliza tudo em nome da eficiência, o que exatamente estamos perdendo?
Existe uma diferença fundamental entre preservar conhecimento e apenas extrair utilidade dele. Quando os dados de um livro são isolados do seu contexto, seu projeto gráfico, sua temporalidade e seu papel cultural, resta apenas o esqueleto informacional — que pode ser útil, mas já não carrega a mesma identidade. É como transformar uma biblioteca em um smoothie de frases. E ainda que isso seja juridicamente possível, é legítimo culturalmente? É aceitável eticamente?
Tenho defendido que inovação precisa caminhar com responsabilidade. E que a inteligência artificial — como toda tecnologia — carrega escolhas humanas em cada etapa. Escolhas sobre o que usar, como usar e de quem usar. Quando esses sistemas são alimentados por conteúdo criado por autores reais, muitas vezes sem consentimento ou reconhecimento, o debate não pode se encerrar no argumento do “uso transformador”. É preciso ir além da legalidade: é preciso discutir legitimidade, justiça e propósito.
A tecnologia não precisa seguir o caminho mais rápido. Precisa seguir o caminho mais certo. Isso significa construir modelos baseados em governança, em critérios claros de uso de dados, em respeito à autoria e à cultura. O que parece apenas um dilema técnico — digitalizar ou não, usar ou não — é, na verdade, uma questão de visão de mundo. Estamos criando ferramentas para facilitar a vida humana ou apenas extraindo da humanidade o que é convertível em lucro e desempenho?
O mais irônico é que muitas dessas tecnologias se dizem voltadas à democratização do conhecimento. Mas será mesmo democrático extrair o saber produzido coletivamente ao longo de séculos sem diálogo com quem o produziu? Será transformador usar livros como insumo e depois transformá-los em cinzas, como resíduos?
A inteligência artificial pode — e deve — nos ajudar a avançar. Mas esse avanço só será sustentável se respeitar as camadas de significado que tornam o conhecimento humano tão rico. O futuro não pode ser construído sobre as cinzas da memória. Que a eficiência nunca nos faça esquecer do valor daquilo que não pode ser simplesmente comprimido em um conjunto de dados.