Exempleados de los gigantes de la IA publican una Carta abierta alerta sobre riesgos ocultos de la IA.

6 junio, 2024

  • Empleados de IA piden protección para denunciantes.
  • Carta abierta alerta sobre riesgos ocultos de la IA.
  • Acusan falta de transparencia en empresas de inteligencia artificial.
Olho observando pessoas.

Un grupo de empleados actuales y anteriores de empresas prominentes de inteligencia artificial ha lanzado una advertencia contundente sobre la falta de supervisión de seguridad en la industria. En una carta abierta, estos trabajadores piden un «derecho a advertir sobre la inteligencia artificial», resaltando la necesidad de aumentar las protecciones para los denunciantes. Entre los firmantes se encuentran once empleados actuales y anteriores de OpenAI y dos de Google DeepMind, uno de los cuales también trabajó en Anthropic.

La carta señala que las empresas de IA poseen una cantidad sustancial de información no pública sobre las capacidades y limitaciones de sus sistemas, la adecuación de sus medidas de protección y los niveles de riesgo de diversos tipos de daño. Sin embargo, actualmente solo tienen obligaciones débiles de compartir esta información con los gobiernos y ninguna con la sociedad civil. Según los firmantes, no se puede confiar en que todas las empresas compartan voluntariamente esta información crucial.

OpenAI, en respuesta, defendió sus prácticas afirmando que cuenta con canales como una línea de atención para reportar problemas y que no lanzan nueva tecnología hasta que existen salvaguardias adecuadas. Por otro lado, Google no respondió inmediatamente a las solicitudes de comentarios. Un portavoz de OpenAI mencionó: «Estamos orgullosos de nuestro historial de proporcionar los sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo. Coincidimos en que es crucial un debate riguroso dada la importancia de esta tecnología y seguiremos colaborando con gobiernos, la sociedad civil y otras comunidades a nivel mundial».

Los temores sobre los posibles daños de la inteligencia artificial han existido durante décadas, pero el reciente auge de la IA ha intensificado estas preocupaciones y dejado a los reguladores tratando de ponerse al día con los avances tecnológicos. Aunque las empresas de IA han declarado públicamente su compromiso con el desarrollo seguro de la tecnología, investigadores y empleados han advertido sobre la falta de supervisión, señalando que las herramientas de IA pueden exacerbar los daños sociales existentes o crear nuevos.

Reacciones y consecuencias en el mundo de la IA

La carta abierta, que fue reportada por primera vez por el New York Times, pide mayores protecciones para los trabajadores en las empresas avanzadas de IA que deciden expresar sus preocupaciones sobre la seguridad. Los firmantes solicitan un compromiso con cuatro principios de transparencia y responsabilidad. Entre estos, destacan que las empresas no obliguen a los empleados a firmar acuerdos de no menosprecio que prohíban discutir públicamente los riesgos relacionados con la IA, y que exista un mecanismo para que los empleados puedan compartir preocupaciones de manera anónima con los miembros de la junta directiva.

«Mientras no haya una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores son de las pocas personas que pueden responsabilizarlas ante el público«, afirma la carta. Sin embargo, los amplios acuerdos de confidencialidad bloquean la posibilidad de expresar estas preocupaciones, excepto a las propias empresas que podrían no estar abordando adecuadamente estos problemas.

Empresas como OpenAI han adoptado tácticas agresivas para evitar que los empleados hablen libremente sobre su trabajo. Un informe de Vox de la semana pasada reveló que OpenAI obliga a los empleados que dejan la empresa a firmar documentos extremadamente restrictivos de no menosprecio y no divulgación, o de lo contrario, perderán toda su equidad acumulada. Sam Altman, CEO de OpenAI, se disculpó tras el informe, asegurando que cambiaría los procedimientos de salida de empleados.

La carta surge después de que dos empleados de alto nivel de OpenAI, el cofundador Ilya Sutskever y el investigador clave en seguridad Jan Leike, renunciaran el mes pasado. Tras su partida, Leike alegó que OpenAI había abandonado una cultura de seguridad en favor de productos llamativos. La carta abierta del martes refleja algunas de las afirmaciones de Leike, indicando que las empresas no muestran ninguna obligación de ser transparentes sobre sus operaciones.

El contenido de la carta y las reacciones subsiguientes ponen de manifiesto una creciente preocupación en la comunidad de IA sobre la falta de supervisión y las tácticas de intimidación contra los empleados que desean hablar sobre los riesgos. Esta situación subraya la necesidad urgente de establecer normas más estrictas y mecanismos de protección para quienes están en una posición de advertir sobre los peligros potenciales de la inteligencia artificial.

1 comentario

Deja tu comentario