OpenAI, la companyia responsable de la popular intel·ligència artificial ChatGPT, està donant passos ferms per garantir que la seva tecnologia s’utilitzi de manera responsable. Amb l’objectiu de reduir els riscos associats a l’ús indegut de la seva API, OpenAI avalua implementar un procés de verificació d’identitat més rigorós.
Aquest canvi es produeix en un context on la firma busca no només millorar les seves mesures de seguretat, sinó també optimitzar l’accés a funcionalitats avançades dels seus models d’intel·ligència artificial. Recentment, OpenAI va haver de posposar el llançament del seu model més esperat, GPT-5, a causa de desafiaments relacionats amb la seva infraestructura, cosa que ha portat l’empresa a centrar-se en altres àrees crítiques, com la ciberseguretat.
Detalls de la nova verificació d’identitat
L’iniciativa coneguda com API Organization Verification es proposa com una solució innovadora que permetria als desenvolupadors desbloquejar l’accés a eines i models avançats. Segons la informació disponible, la verificació serà un procés àgil que prendrà només uns minuts i requerirà que els usuaris presentin una identificació vàlida emesa pel govern d’un dels països acceptats, que actualment són més de 200.
Un aspecte a considerar és que la verificació d’una organització només es podrà realitzar una vegada cada 90 dies. Això significa que aquells que ja hagin verificat la seva identitat per a una altra entitat hauran d’esperar per realitzar nous processos. Aquest enfocament busca evitar l’ús malintencionat de les APIs i protegir la propietat intel·lectual, ja que, com menciona OpenAI, “una petita minoria de desenvolupadors utilitza intencionadament les nostres APIs en violació de les nostres polítiques d’ús”.
Encara que l’empresa no ha fet un anunci oficial sobre la implementació d’aquesta nova mesura, s’espera que aviat es proporcionin més detalls sobre com funcionarà aquest procés i el seu impacte en la comunitat de desenvolupadors.