Recientemente, investigadores en seguridad han descubierto una amenaza emergente para las cadenas de suministro de software: el slopsquatting, un término acuñado por el experto Seth Larson. Este fenómeno se produce cuando atacantes malintencionados crean paquetes dañinos bajo nombres ficticios, los cuales son frecuentemente sugeridos erróneamente por modelos de IA como ChatGPT o CodeLlama. A diferencia del conocido «typosquatting«, que se basa en errores tipográficos de bibliotecas existentes, el slopsquatting se alimenta de nombres de paquetes que simplemente no existen.
La inquietante realidad es que los modelos de IA generativa suelen proponer bibliotecas que no tienen una base real. Un estudio publicado en marzo de 2025 reveló que cerca del 20% de los fragmentos de código analizados, provenientes de 576.000 ejemplos de Python y JavaScript, contenían referencias a paquetes inexistentes. Incluso herramientas consolidadas como ChatGPT-4 presentan un 5 por ciento de tasas de «alucinación», mientras que modelos de código abierto como DeepSeek, WizardCoder o Mistral muestran porcentajes aún más altos. Aunque no se han evaluado modelos más recientes, el problema de las alucinaciones es persistente.
Patrones predecibles que facilitan los ataques
Lo alarmante de este tema es que el estudio indica que el 58% de los nombres de paquetes ficticios se repiten a través de consultas similares, lo que los convierte en objetivos atractivos para los atacantes. Según Socket, una empresa que se especializa en la seguridad del código abierto, estos patrones representan un «objetivo de ataque predecible». De los nombres alucinados, un 38% se asemejaba a paquetes reales, un 13% eran errores tipográficos, y el resto eran invenciones completas.
Para resguardarse de estos peligros, los investigadores sugieren varias estrategias: nunca adoptar nombres de paquetes sin antes verificarlos, especificar números de versión mediante archivos de bloqueo, implementar verificaciones de hash y probar siempre el código generado por IA en entornos aislados. Otra recomendación es reducir el parámetro de «temperatura«, que controla la aleatoriedad en la salida de la IA, lo que puede ayudar a mitigar las alucinaciones.
En un entorno donde muchos desarrolladores confían en el código generado por IA o lo procesan automáticamente, el slopsquatting representa un punto de entrada potencial para ataques. Es fundamental que los profesionales del desarrollo sean plenamente conscientes de esta amenaza y adopten acciones efectivas para salvaguardar sus proyectos y sistemas.

