El risc del slopsquatting en el codi generat per IA i com protegir-se

14 abril, 2025

Investigadors alerten sobre un nou risc en les cadenes de subministrament de programari a causa del slopsquatting, una tècnica que explota la generació de codi per IA.

Recentment, investigadors en seguretat han descobert una amenaça emergent per a les cadenes de subministrament de programari: el slopsquatting, un terme encunyat per l’expert Seth Larson. Aquest fenomen es produeix quan atacants malintencionats creen paquets danyosos sota noms ficticis, els quals són freqüentment suggerits erròniament per models d’IA com ChatGPT o CodeLlama. A diferència del conegut «typosquatting», que es basa en errors tipogràfics de biblioteques existents, el slopsquatting s’alimenta de noms de paquets que simplement no existeixen.

La inquietant realitat és que els models d’IA generativa solen proposar biblioteques que no tenen una base real. Un estudi publicat al març de 2025 va revelar que prop del 20% dels fragments de codi analitzats, provinents de 576.000 exemples de Python i JavaScript, contenien referències a paquets inexistents. Fins i tot eines consolidades com ChatGPT-4 presenten un 5 per cent de taxes d’«al·lucinació», mentre que models de codi obert com DeepSeek, WizardCoder o Mistral mostren percentatges encara més alts. Encara que no s’han avaluat models més recents, el problema de les al·lucinacions és persistent.

Patrons predecibles que faciliten els atacs

El preocupant d’aquest tema és que l’estudi indica que el 58% dels noms de paquets ficticis es repeteixen a través de consultes similars, cosa que els converteix en objectius atractius per als atacants. Segons Socket, una empresa que es especialitza en la seguretat del codi obert, aquests patrons representen un «objectiu d’atac previsible». Dels noms al·lucinats, un 38% s’assemblava a paquets reals, un 13% eren errors tipogràfics, i la resta eren invencions completes.

Per resguardar-se d’aquests perills, els investigadors suggereixen diverses estratègies: mai adoptar noms de paquets sense abans verificar-los, especificar números de versió mitjançant fitxers de bloqueig, implementar verificacions de hash i provar sempre el codi generat per IA en entorns aïllats. Una altra recomanació és reduir el paràmetre de «temperatura», que controla l’aleatorietat en la sortida de l’IA, cosa que pot ajudar a mitigar les al·lucinacions.

En un entorn on molts desenvolupadors confien en el codi generat per IA o el processen automàticament, el slopsquatting representa un punt d’entrada potencial per a atacs. És fonamental que els professionals del desenvolupament siguin plenament conscients d’aquesta amenaça i adoptin accions efectives per salvaguardar els seus projectes i sistemes.

DESCOBREIX MÉS SOBRE EL TEMA

Deixa el primer comentari