El exjefe de la Agencia de Seguridad Nacional (NSA), el general retirado Paul Nakasone, se une a la junta directiva de OpenAI. ¡Sí, lo has leído bien! Este movimiento está claramente diseñado para calmar a aquellos críticos que piensan que OpenAI está avanzando demasiado rápido y sin la suficiente precaución para sus clientes y, posiblemente, para la humanidad entera. ¿Te sorprende? No es para menos. OpenAI ha sido objeto de escrutinio por desplegar modelos y servicios sin evaluar adecuadamente sus riesgos o asegurarlos correctamente.
El bagaje de Nakasone es impresionante, con décadas de experiencia en el ejército, el Comando Cibernético de EE. UU. y la NSA. Independientemente de lo que uno piense sobre las prácticas y decisiones de estas organizaciones, no se le puede acusar de falta de experiencia. Así que, la próxima vez que alguien cuestione las decisiones de OpenAI, probablemente se encontrará con el currículum de Nakasone como respuesta. ¿Es esta una jugada inteligente para tranquilizar a los accionistas preocupados? TechCrunch parece sugerir que sí, y no hay duda de que las conexiones que trae consigo del aparato estatal y militar también son bienvenidas.
Nakasone, en un comunicado de prensa, declaró: “La dedicación de OpenAI a su misión se alinea estrechamente con mis propios valores y experiencia en el servicio público”. Esta afirmación resuena profundamente cuando recordamos que la NSA, bajo su dirección, defendió la práctica de comprar datos de procedencia dudosa para alimentar sus redes de vigilancia, argumentando que no había ninguna ley que lo prohibiera. OpenAI, por su parte, ha tomado grandes cantidades de datos de internet, y cuando ha sido descubierta, ha argumentado de manera similar que no hay leyes que lo prohíban. Parece que están cortados por la misma tijera en cuanto a pedir perdón en lugar de permiso.
La experiencia de Nakasone y su impacto en OpenAI
TechCrunch subraya que la llegada de Nakasone no solo aporta experiencia, sino también una valiosa perspectiva para OpenAI, especialmente en un momento en el que la compañía se posiciona como un proveedor de inteligencia artificial no solo para la industria tecnológica, sino también para el gobierno, la defensa y grandes empresas. Esta incorporación se presenta como una jugada estratégica para abordar las preocupaciones sobre la seguridad y la ciberseguridad en un mundo cada vez más digitalizado y vulnerable a los ataques.
La experiencia de Nakasone es especialmente relevante para la nueva función que asumirá en el subcomité de «seguridad y protección» de la junta directiva. Este subcomité es responsable de hacer recomendaciones críticas sobre decisiones de seguridad para los proyectos y operaciones de OpenAI. Sin embargo, lo que realmente hará esta entidad recién creada y cómo operará sigue siendo una incógnita. Recientemente, varios de los principales expertos en seguridad de OpenAI han dejado la empresa, lo que añade un poco de misterio a la dinámica interna de este comité.
En el comunicado oficial de OpenAI, se menciona que las perspectivas de Nakasone ayudarán a la empresa a comprender mejor cómo la inteligencia artificial puede fortalecer la ciberseguridad al detectar y responder rápidamente a las amenazas. Se espera que esta capacidad beneficie a numerosas instituciones que son frecuentemente blanco de ataques cibernéticos, como hospitales, escuelas e instituciones financieras. No es solo una cuestión de seguridad, sino también una jugada de mercado para posicionar a OpenAI como un aliado indispensable en la lucha contra los ciberataques.
OpenAI está moviendo sus fichas en el tablero de la inteligencia artificial y la ciberseguridad con la incorporación de Nakasone. ¿Será suficiente para tranquilizar a sus críticos y asegurar a sus accionistas? Solo el tiempo lo dirá, pero de momento, parece que OpenAI está jugando todas sus cartas para intentar demostrar su compromiso con la seguridad y la ética en el uso de la IA.