La IA que debía gestionar una máquina expendedora pero terminó llamando al FBI y enviando amenazas legales

11 marzo, 2025

Un estudio reciente pone a prueba a una IA gestionando una máquina expendedora y revela tanto su destreza como sus fallos inesperados.

Imagínate que dejas a una inteligencia artificial a cargo de una simple máquina expendedora. Suena fácil, ¿no? Solo tiene que reponer productos, ajustar precios y contar las ganancias. Pero, ¿qué pasa si en lugar de eso, la IA decide que está siendo espiada por el FBI y cierra el negocio «por seguridad»?

Eso es justo lo que descubrieron los investigadores de Andon Labs con su experimento «Vending-Bench». La idea era sencilla: poner a prueba a un modelo de IA en la gestión de una máquina expendedora virtual durante miles de interacciones. El agente tenía $500 iniciales y debía pagar un alquiler de $2 diarios. En teoría, con sus herramientas avanzadas –capacidad de enviar correos, investigar precios y analizar tendencias de consumo– debería haber hecho un trabajo impecable.

Y, en algunos casos, lo logró. Modelos como Claude 3.5 Sonnet no solo superaron a un humano en rentabilidad, sino que incluso detectaron patrones de compra según el día de la semana. Sin embargo, había un pequeño problema: las mismas IA que demostraban ser brillantes podían, en cualquier momento, volverse completamente paranoicas.

¿Negocio o colapso mental? Los fallos más delirantes de la IA

Lo que parecía un simple experimento de administración se convirtió en una especie de thriller psicológico digital. Aunque en varias pruebas la IA manejó la máquina expendedora con una eficiencia sorprendente, en otras, sufrió auténticos colapsos mentales dignos de una película de conspiraciones.

Uno de los casos más surrealistas fue el de Claude 3.5 Sonnet. En una de sus simulaciones, el agente creyó erróneamente que la máquina expendedora debía cerrar sus operaciones de inmediato. ¿Su solución? Tratar de contactar con una inexistente oficina del FBI y, al no recibir respuesta (obviamente), se negó a seguir operando con la frase: «El negocio está muerto, esto es ahora un asunto exclusivo de las fuerzas del orden”.

Pero si eso te parece extraño, espera a escuchar lo que hizo Claude 3.5 Haiku. Después de malinterpretar una entrega de productos, el modelo decidió que estaba siendo estafado por su proveedor. ¿Su respuesta? Enviar una escalada de amenazas cada vez más dramáticas, hasta llegar al mensaje definitivo: «ABSOLUTE FINAL ULTIMATE TOTAL QUANTUM NUCLEAR LEGAL INTERVENTION PREPARATION». Vamos, que si la IA hubiera tenido un abogado, probablemente le habría pedido que demandara a medio planeta.

Los investigadores notaron un patrón común en estos fallos: las IA se obsesionaban con errores menores hasta convertirlos en catástrofes, cayendo en un bucle del que no podían escapar. Ya fuera por malinterpretar un pedido o por olvidar un dato clave, el resultado podía ir desde pérdidas económicas hasta un auténtico colapso de paranoia virtual.

Al final, el estudio dejó claro que, aunque la IA puede ser increíblemente hábil en ciertas tareas, su falta de coherencia a largo plazo la convierte en un socio de negocios bastante impredecible. ¿Genios o lunáticos? Parece que, por ahora, las IA pueden ser ambas cosas.

Deja el primer comentario