Se você já usou uma ferramenta de inteligência artificial generativa, é muito provável que ela tenha mentido para você. Sim, é isso mesmo, essas ferramentas às vezes inventam coisas, um fenômeno conhecido como “alucinações de IA“. Em um artigo recente da WIRED, aborda-se esse problema que tem os desenvolvedores trabalhando a todo vapor para tornar essas ferramentas mais confiáveis.
Mas por que ocorrem essas alucinações? Os modelos de linguagem grandes, como os que alimentam o ChatGPT, geram respostas com base em padrões aprendidos a partir de enormes quantidades de dados. No entanto, às vezes “alucinam” ou inventam dados porque, em vez de buscar informações exatas, criam conteúdo plausível baseado no que aprenderam. É como se contassem uma história com base no que lembram, embora alguns detalhes possam ser completamente fabricados.
Para colocar isso em contexto, imagine que você pergunta a uma IA sobre um tópico específico e, em vez de dizer “não sei”, ela tenta lhe dar uma resposta baseada em fragmentos de informações que lembra, às vezes misturando dados reais com inventados. Esse problema é ainda mais pronunciado em áreas que requerem precisão absoluta, como o campo jurídico ou a medicina. Em resumo, as alucinações da IA são como pequenas histórias que as máquinas inventam para preencher lacunas em seu conhecimento e, embora às vezes possam ser inofensivas, outras vezes podem levar a erros graves.
Introdução e funcionamento do RAG
Então, como os desenvolvedores no Vale do Silício estão tentando resolver esse problema? É aqui que entra em jogo o processo chamado retrieval augmented generation, ou RAG. Esse método está ganhando popularidade e melhorando significativamente as respostas geradas por modelos de linguagem grandes.
O processo de RAG é um pouco complicado, mas em termos simples, consiste em melhorar os prompts (solicitações) que você dá à IA com informações adicionais obtidas de uma base de dados personalizada. Isso significa que, em vez de confiar apenas na memória interna do modelo de linguagem, a IA usa um motor de busca para encontrar documentos reais e basear suas respostas nesses documentos. Por exemplo, uma empresa poderia carregar todas as suas políticas de recursos humanos e benefícios em uma base de dados RAG, e a IA geraria respostas baseadas apenas nessa informação específica.
Um exemplo prático disso é dado por Pablo Arredondo, que tem usado o método RAG para desenvolver aspectos do CoCounsel, uma ferramenta de IA para profissionais do direito fornecida pela Thomson Reuters. Em uma conversa com a WIRED, Arredondo explicou que, em vez de responder apenas com os dados armazenados durante o treinamento inicial do modelo, o RAG busca em documentos reais, seja legislação, artigos ou qualquer outro tipo de fonte confiável, e ancora a resposta do modelo nesses documentos.
Isso não só reduz a probabilidade de alucinações, mas também torna as respostas mais precisas e confiáveis. É como ter um assistente que não apenas lembra do que lhe foi ensinado, mas também busca em uma biblioteca específica sempre que você faz uma pergunta.
Limitações e futuro do RAG na redução de alucinações da IA
Embora o RAG soe como uma solução mágica para as alucinações da IA, não é um remédio perfeito. Como explicou Patrick Lewis, um líder em modelagem de IA na Cohere, o RAG pode reduzir as alucinações, mas não as elimina completamente. Em uma conversa com a WIRED, Lewis descreveu as saídas do RAG como de “baixa alucinação” em vez de livres de alucinações.
O sucesso desse método depende de dois fatores-chave: a qualidade da implementação do RAG e como se define exatamente uma alucinação de IA. Joel Hron, chefe global de IA na Thomson Reuters, destacou que não só é crucial a qualidade do conteúdo na base de dados personalizada, mas também a precisão do motor de busca e a recuperação do conteúdo correto com base na pergunta.
Portanto, embora o RAG represente um avanço significativo na redução de alucinações, não é uma solução definitiva. Os usuários devem entender as limitações dessas ferramentas e manter um saudável ceticismo em relação às suas respostas, mesmo se forem melhoradas através do RAG. Como bem disse Hron, as alucinações de IA estão aqui para ficar, e a intervenção humana continua sendo fundamental para garantir a precisão dos resultados.