Si alguna vez has usado una herramienta de inteligencia artificial generativa, es muy probable que te haya mentido. Sí, así es, estas herramientas a veces inventan cosas, un fenómeno conocido como «alucinaciones de IA». En un artículo reciente de WIRED, se aborda este problema que tiene a los desarrolladores trabajando a toda máquina para hacer que estas herramientas sean más fiables.
Pero, ¿por qué ocurren estas alucinaciones? Los modelos de lenguaje grandes, como los que alimentan a ChatGPT, generan respuestas basadas en patrones aprendidos de enormes cantidades de datos. Sin embargo, a veces «alucinan» o inventan datos porque, en lugar de buscar información exacta, crean contenido plausible basado en lo que han aprendido. Es como si te contaran una historia basándose en lo que recuerdan, aunque algunos detalles puedan ser completamente fabricados.
Para ponerlo en contexto, imagina que le preguntas a una IA sobre un tema específico, y en lugar de decir «no lo sé», trata de darte una respuesta basada en fragmentos de información que recuerda, a veces mezclando datos reales con inventados. Este problema es aún más pronunciado en áreas que requieren precisión absoluta, como el ámbito legal o la medicina. En definitiva, que las alucinaciones de la IA son como pequeños cuentos que las máquinas se inventan para llenar los vacíos en su conocimiento, y aunque a veces pueden ser inofensivas, otras veces pueden llevar a errores graves.
Introducción y funcionamiento del RAG
Entonces, ¿cómo intentan resolver este problema los desarrolladores en Silicon Valley? Aquí es donde entra en juego el proceso llamado retrieval augmented generation, o RAG. Este método está ganando popularidad y mejorando significativamente las respuestas generadas por modelos de lenguaje grandes.
El proceso de RAG es un poco complicado, pero en términos simples, consiste en mejorar los prompts (solicitudes) que le das a la IA con información adicional obtenida de una base de datos personalizada. Esto significa que en lugar de confiar únicamente en la memoria interna del modelo de lenguaje, la IA utiliza un motor de búsqueda para encontrar documentos reales y basar sus respuestas en esos documentos. Por ejemplo, una empresa podría cargar todas sus políticas de recursos humanos y beneficios en una base de datos RAG, y la IA solo generaría respuestas basadas en esa información específica.
Un ejemplo práctico de esto lo da Pablo Arredondo, quien ha estado utilizando el método RAG para desarrollar aspectos de CoCounsel, una herramienta de IA para profesionales del derecho proporcionada por Thomson Reuters. En una conversación con WIRED, Arredondo explicó que, en lugar de responder únicamente con los datos almacenados durante el entrenamiento inicial del modelo, el RAG busca en documentos reales, ya sea legislación, artículos o cualquier otro tipo de fuente confiable, y ancla la respuesta del modelo a esos documentos.
Esto no solo reduce la probabilidad de alucinaciones, sino que también hace que las respuestas sean más precisas y confiables. Es como tener un asistente que no solo recuerda lo que le enseñaron, sino que también busca en una biblioteca específica cada vez que le haces una pregunta.
Limitaciones y futuro del RAG en la reducción de alucinaciones de la IA
Aunque el RAG suena como una solución mágica para las alucinaciones de la IA, no es un remedio perfecto. Como explicó Patrick Lewis, un líder en modelado de IA en Cohere, el RAG puede reducir las alucinaciones, pero no las elimina por completo. En una conversación con WIRED, Lewis describió las salidas del RAG como de «baja alucinación» en lugar de libres de alucinaciones.
El éxito de este método depende de dos factores clave: la calidad de la implementación del RAG y cómo se define exactamente una alucinación de IA. Joel Hron, jefe global de IA en Thomson Reuters, señaló que no solo es crucial la calidad del contenido en la base de datos personalizada, sino también la precisión del motor de búsqueda y la recuperación del contenido correcto en función de la pregunta.
Por lo tanto, aunque el RAG representa un avance significativo en la reducción de alucinaciones, no es una solución definitiva. Los usuarios deben entender las limitaciones de estas herramientas y mantener un sano escepticismo respecto a sus respuestas, incluso si han sido mejoradas a través del RAG. Como bien dijo Ho, las alucinaciones de IA están aquí para quedarse, y la intervención humana sigue siendo fundamental para garantizar la precisión de los resultados.