OpenAI crea comité de seguridad y entrena nueva IA

29 mayo, 2024

  • OpenAI forma un comité de seguridad para asesorar decisiones críticas.
  • Comienza el entrenamiento de un nuevo modelo de IA para superar al GPT-4.
  • Transparencia y seguridad en el desarrollo de la inteligencia artificial.
Ordenador con la tapa casi cerrada por privacidad.

OpenAI ha anunciado la creación de un comité de seguridad y su formación ha sido todo un tema de conversación. Este comité tendrá la tarea de asesorar al consejo de administración en decisiones críticas relacionadas con la seguridad y protección de sus proyectos. ¿Por qué es tan relevante este movimiento? Porque la empresa ha estado bajo el escrutinio público tras la salida de dos figuras clave: Jan Leike e Ilya Sutskever. Leike criticó a OpenAI por priorizar productos llamativos sobre la seguridad, lo que encendió un debate intenso sobre las prácticas de la empresa.

El nuevo comité está compuesto por figuras internas de la empresa, como el CEO Sam Altman y el presidente Bret Taylor, junto con otros expertos técnicos y en políticas. Además, incluye a miembros de la junta como Adam D’Angelo de Quora y Nicole Seligman, ex consejera general de Sony. La primera tarea del comité será evaluar y desarrollar los procesos de OpenAI en los próximos 90 días, para luego hacer públicas las recomendaciones adoptadas. Este paso busca garantizar que todas las medidas tomadas sean coherentes con la seguridad y la protección necesarias en el campo de la inteligencia artificial.

Entrenamiento del Nuevo Modelo de IA

OpenAI ha iniciado el entrenamiento de su próximo modelo de inteligencia artificial, el cual está destinado a superar al sistema GPT-4 que actualmente potencia su conocido ChatGPT. Este nuevo modelo, que se describe como un «modelo de frontera», promete llevar las capacidades de la inteligencia artificial a un nuevo nivel. Pero, ¿qué significa exactamente un modelo de frontera? Se refiere a los sistemas de IA más avanzados y poderosos, aquellos que están a la vanguardia de la tecnología y que se entrenan con vastos conjuntos de datos para generar texto, imágenes, videos y conversaciones humanas con una precisión impresionante.

A pesar de los recientes problemas internos y las críticas recibidas, OpenAI sostiene que sus modelos lideran la industria tanto en capacidad como en seguridad. La empresa ha subrayado su compromiso con la seguridad, afirmando que da la bienvenida a un debate robusto en este momento crucial. Aunque no se mencionó directamente la controversia en sus comunicaciones, la decisión de formar un comité de seguridad y el inicio del entrenamiento de este nuevo modelo indican un esfuerzo por abordar las preocupaciones y asegurar que los futuros desarrollos sean manejados con la debida responsabilidad.

La misión del comité recién formado no solo incluye evaluar los procesos actuales, sino también desarrollar nuevas salvaguardas para garantizar que el uso de estos modelos avanzados sea seguro. Se espera que en los próximos 90 días, el comité presente sus recomendaciones al consejo, las cuales serán compartidas públicamente en un esfuerzo por mantener la transparencia y fomentar la confianza en sus prácticas de seguridad y desarrollo.

Deja el primer comentario