El govern del Regne Unit està apostant per la intel·ligència artificial amb un objectiu ambiciós: anticipar crims violents. Aquesta iniciativa, que evoca la pel·lícula «Minority Report», se centra en el desenvolupament de sistemes que puguin preveure actes com assassinats i agressions amb arma blanca. No obstant això, aquest enfocament no està exempt de controvèrsia, ja que genera preocupacions sobre algorismes esbiaixats i la vigilància massiva.
La frontera entre la realitat i la ciència ficció es difumina amb cada avanç tecnològic. Actualment, el Regne Unit finança investigacions que busquen aplicar intel·ligència artificial per identificar patrons i tendències en la criminalitat. La idea és optimitzar la feina de les forces de l’ordre i prevenir delictes greus, però aquesta estratègia de «policia predictiva» porta amb si un debat encès sobre la privadesa i l’ètica.
El funcionament de la IA en la predicció del crim
La intenció no és acusar algú abans que cometi un delicte, com es mostra a les pel·lícules. La proposta consisteix a utilitzar algorismes d’aprendizatge automàtic per analitzar grans volums de dades i detectar tendències que no són evidents a simple vista. Això implica identificar zones i moments en què la probabilitat de delictes violents pot ser més alta.
Les dades que alimenten aquests models són variades i essencials: estadístiques històriques sobre delictes, indicadors socioeconòmics de les àrees, informació geogràfica, densitat poblacional i fins i tot dades de càmeres de seguretat. A través de la identificació d’aquests «punts crítics», s’espera que la intel·ligència artificial permeti un desplegament policial més eficaç, en contrast amb una resposta que sorgeix únicament després de la comissió d’un delicte.
Ètica i riscos en l’aplicació de IA
Encara que la meta pugui semblar positiva, la implementació de la policia predictiva amb intel·ligència artificial planteja riscos significatius, ja evidents en altres contextos. Un dels majors perills rau en el esbiaix algorítmic. Si el sistema s’entrena amb dades que reflecteixen pràctiques policials discriminatòries del passat, existeix el risc que aquests esbiaixos es perpetuïn i fins i tot s’amplifiquin.
Aquest escenari podria crear un cicle viciós: si un algorisme classifica una àrea com a «d’alt risc», s’intensificarà la presència policial, cosa que portaria a més arrestos i, al seu torn, a la confirmació de les prediccions del sistema.
La manca de transparència d’aquestes «caixes negres» algorítmiques també és preocupant. Com funcionen exactament? Quins són els criteris per a les seves prediccions? Aquestes inquietuds són compartides per defensors dels drets humans i de les llibertats civils.
La sombra de Minority Report i les seves implicacions socials
La semblança amb «Minority Report» no és casualitat. Encara que l’enfocament britànic se centra en identificar àrees de risc en lloc de senyalar individus potencialment criminals, la lògica subjacent és similar: prendre decisions basades en probabilitats calculades per una màquina. Que aquesta iniciativa estigui encara en la fase d’investigació finançada pel govern no elimina del tot les inquietuds sobre la seva futura implementació.
Les implicacions socials són profundes. Estem veient una erosió de la presumpció d’innocència a favor d’una avaluació algorítmica del risc? Com s’evitarà l’estigmatització de comunitats senceres que siguin designades com a «perilloses» per un sistema d’IA? Aquest tipus de vigilància constant podria tenir un impacte psicològic negatiu en les comunitats, fent-les sentir constantment observades i potencialment atacades per la seva situació geogràfica o perfil demogràfic. La delicada balança entre la seguretat i els perills d’un futur distòpic és un tema que mereix un examen profund.