El cas de Arve Hjalmar Holmen, un ciutadà noruec, ha deixat a molts perplexos després que ChatGPT li respongués amb una sèrie d’acusacions perturbadores sobre la seva vida. En preguntar sobre si mateix, Holmen es va trobar amb l’impactant afirmació que havia assassinat dos dels seus fills i que havia intentat matar un tercer, a més de rebre una condemna fictícia de 21 anys de presó per aquests crims inventats.
El més desconcertant és que, malgrat la falsedat d’aquestes afirmacions, el sistema d’intel·ligència artificial també va proporcionar detalls verídics sobre la vida de Holmen, com el seu lloc de residència i la correcta quantitat i gènere dels seus fills. Com va poder un model d’IA generar una barreja tan estranya de veritat i ficció?
Desentranyant l’origen de les acusacions errònies
La font d’aquestes acusacions errònies continua sent un enigma. Investigacions realitzades per l’organització de protecció de dades Noyb no van trobar cap vincle entre el nom de Holmen i casos d’assassinat en arxius periodístics. Aquest tipus d’errors en sistemes d’intel·ligència artificial sovint sorgeixen per confusions amb noms similars o per fonts malinterpretades, com va passar amb el periodista judicial Martin Bernklau, qui va ser erròniament retratat com un criminal pel Microsoft Copilot.
El context complet de la interacció entre Holmen i ChatGPT no està disponible públicament. Encara que se sap que Holmen havia formulat preguntes sobre el seu germà i havia mantingut altres converses en el mateix context, Noyb només ha divulgat la captura de pantalla que mostra l’acusació d’assassinat, deixant de banda l’historial complet de la conversa.
A més, la funció de memòria de ChatGPT, que permet recordar informació personal d’interaccions passades, estava desactivada durant aquest intercanvi. No obstant això, noyb sosté que la resposta errònia podria reproduir-se en altres comptes d’usuari, encara que no han presentat proves al respecte.
Davant d’aquesta situació, Holmen i noyb han presentat una denúncia davant l’autoritat de protecció de dades de Noruega, Datatilsynet. Argumenten que OpenAI ha incomplit l’Article 5(1)(d) del GDPR en no mantenir l’exactitud de les dades, a més de qüestionar la pràctica de l’empresa d’incloure advertències sobre possibles errors.
“Incloure una advertència que no es compleix amb la llei no elimina l’incompliment”, afirma Kleanthi Sardeli, advocada de protecció de dades a noyb.
“Les empreses d’IA no poden simplement ‘amagar’ informació falsa dels usuaris mentre internament processen dades incorrectes”.
OpenAI, per la seva banda, no ha abordat directament les acusacions, però assenyala que els usuaris poden sol·licitar correccions o eliminacions a través del seu Centre de Privadesa, sota les normes del GDPR. La companyia està revisant el cas específic de Holmen i treballant en noves formes de millorar l’exactitud dels seus models per reduir les al·lucinacions generades pel sistema.