Por: Victor Hugo Germano (membro do comitê de AI da PUC angels)
Com inteligência avançada e mais acessível, o Deep Seek R1 impressiona ao alcançar 90% de precisão em testes e traz soluções que ajudam a “ensinar” outras IA menores
No último domingo, 21, pesquisadores da China lançaram o Deep Seek R1, um modelo de inteligência artificial que já está sendo comparado ao GPT-4, o mais recente da OpenAI. O sistema chamou atenção porque atingiu resultados impressionantes, como 90% de acerto em raciocínio matemático, tarefas de codificação e até resolução de problemas científicos. Além disso, ele foi desenvolvido com algumas ideias bem criativas, como “pensar em voz alta” e “ensinar” versões menores e mais simples de si mesmo.
Mas o que faz do Deep Seek R1 tão especial? O time por trás do projeto destacou três grandes estratégias: o uso de uma técnica chamada Chain of Thought (ou Cadeia de Pensamento), aprendizado por reforço, que permite ao modelo se corrigir sozinho, e a destilação de modelos, que cria versões menores e mais baratas para rodar em computadores comuns.
Como a “Cadeia de Pensamento” melhora respostas
Imagine que, em vez de só responder diretamente uma pergunta, a IA explica como chegou à resposta, etapa por etapa, como se estivesse “pensando em voz alta”. Isso é o que faz a Cadeia de Pensamento, uma técnica que ajuda tanto o modelo a raciocinar melhor quanto os pesquisadores a identificar onde ele pode estar errando.
Por exemplo, em um problema de matemática, o Deep Seek R1 não entrega apenas o resultado final, mas descreve todo o cálculo que levou até a solução. Isso é útil porque, se houver um erro, ele estará visível no processo, e o modelo pode aprender a corrigi-lo.
Além disso, o Deep Seek R1 consegue “avaliar” suas próprias respostas. Se algo não parece certo, o modelo se dá uma segunda chance de reavaliar e ajustar os passos. Essa abordagem aumentou a precisão em testes complexos: ele atingiu mais de 85% de acerto em tarefas que envolvem lógica e resolução de problemas, superando até mesmo sistemas como o GPT-4 em algumas categorias.
Aprendizado por reforço
Outro diferencial do Deep Seek R1 é o uso do aprendizado por reforço. Essa técnica funciona como o aprendizado de um bebê: ao tentar andar, ele cai várias vezes, mas, a cada tentativa, ajusta seus movimentos até conseguir ficar de pé. O mesmo acontece com essa IA: em vez de receber diretamente a resposta certa, ela experimenta diferentes possibilidades e ajusta suas respostas para se aproximar do melhor resultado possível.
Os pesquisadores compararam essa abordagem ao método usado pela Tesla em seus carros autônomos, que aprendem a dirigir sozinhos ao explorar o ambiente. No caso do Deep Seek R1, os resultados mostram que o modelo, com o tempo, supera IAs que não aprendem dessa forma.
Enquanto o GPT-4 mantém uma taxa de acerto estática em torno de 80%, o Deep Seek R1 conseguiu ultrapassar os 90% de precisão em testes contínuos, com potencial para melhorar ainda mais.
Para garantir que o modelo não “aprenda errado”, os pesquisadores implementaram limites no quanto ele pode mudar de uma tentativa para outra, evitando instabilidades — algo comum em sistemas que aprendem por tentativa e erro.
IA mais acessível: como o Deep Seek R1 ensina “versões menores”
Um dos maiores problemas de IAs avançadas, como o GPT-4 e o Deep Seek R1, é que elas são gigantes e caras de rodar. Com 671 bilhões de parâmetros, o Deep Seek R1 precisa de milhares de placas de vídeo poderosas e servidores caros para funcionar. Mas, para tornar o modelo mais acessível, os pesquisadores usaram uma técnica chamada destilação.
Na prática, o Deep Seek R1 funciona como um professor: ele cria exemplos e “ensina” versões menores a realizar tarefas de maneira semelhante. Um bom exemplo disso foi o uso da Cadeia de Pensamento para treinar um modelo menor, chamado LLaMA 3, da Meta, que tem apenas 7 bilhões de parâmetros. Mesmo sendo menor, esse modelo conseguiu manter um desempenho quase idêntico ao original em tarefas específicas, como resolução de problemas matemáticos.
Curiosamente, as versões menores — treinadas com essa técnica de destilação — apresentaram até melhores resultados que o próprio modelo maior em algumas áreas, como codificação e raciocínio científico. Isso foi possível porque a destilação permite às IAs menores focar em habilidades específicas, deixando de lado tarefas mais amplas.
Essa inovação torna a inteligência artificial mais acessível para empresas, startups e até pesquisadores com menos recursos financeiros, já que é possível rodar essas versões compactas em computadores mais simples.
O que esperar do Deep Seek R1?
Com resultados impressionantes e soluções criativas, o Deep Seek R1 promete ser uma alternativa poderosa aos modelos atuais de IA. Ele combina precisão, aprendizado contínuo e acessibilidade, se destacando em um mercado dominado por empresas como OpenAI e Anthropic.
Além de ser uma demonstração de tecnologia de ponta, o projeto também busca democratizar o acesso à IA. Ao permitir que modelos menores sejam tão eficazes quanto os grandes, ele pode transformar áreas como ensino, pesquisa e automação, alcançando um público maior.
Se o modelo continuar evoluindo, é provável que ele se consolide como uma das IAs mais importantes da atualidade, trazendo benefícios tanto para grandes empresas quanto para usuários comuns.
Fonte: exame.