Nuevo método de prompting mejora la precisión y verificabilidad en modelos de lenguaje

11 marzo, 2025

Un innovador enfoque de prompting está transformando la forma en que los modelos de lenguaje explican su razonamiento y mejoran su precisión.

Imagina que le pides a una IA que te explique algo complicado, pero en lugar de soltar un ladrillo de texto incomprensible, resalta las partes clave y te dice exactamente de dónde saca la información. Eso es básicamente lo que hace «Highlighted Chain of Thought» (HoT), un nuevo método de «prompting» que mejora la forma en que los modelos de lenguaje razonan y explican sus respuestas.

El truco está en dos pasos muy simples: primero, la IA reformula la pregunta original y marca los datos más importantes con etiquetas en XML. Luego, genera una respuesta basándose en esos datos resaltados, creando un hilo lógico entre la pregunta y la solución. ¿El resultado? Un modelo que piensa con más claridad y deja menos espacio para inventarse cosas.

Según los investigadores, esta estructura ayuda a los modelos a enfocarse en los hechos relevantes y reduce las famosas «alucinaciones» (esas respuestas falsas que a veces dan con total seguridad). Pero lo más interesante es que hace que los humanos puedan verificar mejor la respuesta, ya que las partes clave están destacadas, facilitando la revisión.

Los números no mienten: cuando se probó HoT en tareas matemáticas, de comprensión lectora y lógica, los resultados mostraron una mejora de hasta un 15% en precisión, dependiendo del modelo y el tipo de pregunta. Comparado con el método tradicional de «Chain of Thought» (CoT), HoT logró subir la puntería en aritmética, preguntas abiertas y razonamiento lógico. Menos errores, más transparencia. ¿Suena bien, no?

¿Más precisión o más confianza ciega? El dilema del HoT

La promesa de HoT es clara: respuestas más precisas y fáciles de verificar. Pero hay un pequeño problema… Los humanos somos demasiado confiados.

Cuando los investigadores probaron este método con personas, descubrieron que los usuarios verificaban las respuestas un 25% más rápido gracias al resaltado de los datos clave. Hasta aquí, todo bien. Pero, sorprendentemente, también se volvieron más propensos a aceptar las respuestas de la IA, incluso cuando eran incorrectas. ¿El motivo? Al ver la información resaltada y bien estructurada, muchos asumieron que la IA tenía razón sin cuestionarla demasiado.

Los datos lo confirman: cuando la IA tenía razón, los humanos lo detectaban en un 84.5% de los casos con HoT, frente al 78.8% sin él. Pero cuando la IA se equivocaba, la cosa cambiaba. La capacidad de detectar errores bajó del 72.2% al 54.8%. En otras palabras, la gente dejó de dudar y empezó a confiar ciegamente en la IA solo porque su respuesta «parecía» bien estructurada.

Y aquí está el dilema: HoT hace que las respuestas sean más comprensibles, pero también más persuasivas, incluso cuando están mal. Esto plantea preguntas sobre cómo entrenar a los usuarios para no caer en la trampa del «si está bien presentado, debe ser cierto». Los investigadores ya están buscando maneras de corregir este efecto y hacer que los humanos mantengan un nivel saludable de escepticismo.

Lo cierto es que HoT es un paso adelante para mejorar la transparencia de la IA, pero aún queda trabajo por hacer para que esa claridad no se convierta en un arma de doble filo. Después de todo, una respuesta bonita no siempre es una respuesta correcta.

Deja el primer comentario