El dilema de regular la IA: ¿Es posible controlar el poder de las grandes tecnológicas?

11 julio, 2024

La regulación de la inteligencia artificial se ha convertido en un tema candente mientras gobiernos y grandes tecnológicas luchan por encontrar un equilibrio entre la innovación y la seguridad. Casos emblemáticos como el de OpenAI y Microsoft muestran los desafíos y tensiones en este campo en rápida evolución. Pero, ¿es posible una regulación efectiva o estamos ante un engaño que oculta intereses económicos?

Un juez intentando domar un caballo desbocado que simula ser la IA.

Gobiernos de todo el mundo se apresuran a regular la inteligencia artificial (IA). Pero, ¿es realmente posible una regulación significativa en este campo? La IA es el nuevo salvaje oeste de la tecnología. Todos ven su enorme potencial (o beneficio) y enormes riesgos (para los negocios y la sociedad). Sin embargo, pocas personas entienden la IA, cómo usarla, controlarla o hacia dónde se dirige. Y aun así, los políticos desean regularla. ¿Estamos montados en un caballo desbocado que no podemos dirigir ni controlar, o podemos frenarlo mediante la regulación?

La IA generativa (gen-AI), especialmente los modelos de lenguaje grande (LLM), ha llegado para quedarse. Este es el inicio de un nuevo viaje: pero, ¿podemos realmente controlarlo? Las Big Tech controlan la gen-AI y su motor es el beneficio económico más que el beneficio del usuario. El caso de Microsoft y OpenAI es un claro ejemplo de los problemas y presiones que enfrentan todas las grandes tecnológicas profundamente invertidas en el desarrollo de IA.

OpenAI, fundada en 2015 como una empresa de investigación de inteligencia artificial sin fines de lucro, se ha transformado con el tiempo. En 2019, Microsoft invirtió mil millones de dólares en OpenAI, marcando un cambio significativo. La empresa, supervisada por un consejo de administración, tenía como misión desarrollar IA segura y beneficiosa. Sin embargo, las tensiones internas y las decisiones unilaterales, como el lanzamiento de ChatGPT por Sam Altman sin previo aviso al consejo, destacaron los desafíos de mantener el enfoque original.

La batalla entre el beneficio y la seguridad: El caso de OpenAI y Microsoft

La historia de OpenAI y Microsoft es un ejemplo perfecto de la lucha entre el beneficio y la seguridad en el desarrollo de IA. Sam Altman, uno de los cofundadores de OpenAI, tomó decisiones cruciales sin consultar al consejo de administración, lo que llevó a su despido en noviembre de 2023. Sin embargo, menos de una semana después, fue reinstalado, y poco después, Microsoft incrementó su inversión en la empresa.

Microsoft, un gigante tecnológico que necesita recuperar su inversión, enfrenta sus propios desafíos. En mayo de 2024, Microsoft publicó un informe titulado Informe de Transparencia de IA Responsable, destacando su enfoque centrado en el ser humano para las inversiones en IA. Este informe llegó poco después de que el CSRB criticara la cultura de seguridad de Microsoft, calificándola de inadecuada y requiriendo una revisión completa.

El caso del producto Recall de Microsoft, diseñado para capturar y almacenar capturas de pantalla frecuentes, causó una protesta pública y profesional, obligando a la empresa a cambiarlo a un modo predeterminado de desactivación. Este incidente ilustra los riesgos de seguridad y las controversias que pueden surgir cuando las empresas priorizan la recopilación de datos para entrenar sus modelos de IA sobre la seguridad y la privacidad de los usuarios.

Estas historias subrayan dos puntos fundamentales: Las Big Tech han identificado el potencial de la IA para aumentar los beneficios, pero aún no han aprendido cómo aprovechar ese potencial sin comprometer la seguridad y la privacidad de los usuarios. La búsqueda de beneficios podría venir a costa de los usuarios de IA, lo que subraya la necesidad urgente de una regulación eficaz.

Modelos de regulación: Monolítico vs. Específico

Existen dos modelos básicos de regulación: monolítico y específico. El modelo monolítico intenta proporcionar una regulación general que cubra todos los aspectos del tema para todas las organizaciones en todas las partes de la jurisdicción. El ejemplo clásico de esto es el GDPR de la Unión Europea. Por otro lado, el enfoque específico, utilizado por las agencias federales en los EE. UU., introduce regulaciones más relevantes para organizaciones específicas. Por ejemplo, la FCC regula las comunicaciones interestatales e internacionales, la SEC regula los mercados de capitales y la FTC protege a los consumidores.

Ambos modelos tienen sus fortalezas y debilidades. El GDPR, por ejemplo, a menudo se considera que ha fallado en su propósito principal de proteger la privacidad personal del abuso por parte de las grandes tecnológicas. Ilia Kolochenko, CEO de ImmuniWeb, va más allá y lo califica de «fundamentalmente roto». Aunque fue creado con buenas intenciones, su implementación ha llevado a pequeñas y medianas empresas a gastar tiempo y recursos en un cumplimiento pseudoeficaz, mientras que las grandes empresas no se ajustan a él.

Kolochenko prefiere el modelo de EE. UU., que proporciona una regulación más ágil y adaptada a los riesgos específicos de cada sector. Este enfoque permite una adaptación más rápida a las circunstancias cambiantes y un mejor apoyo para los usuarios finales. Sin embargo, no es perfecto, como lo demuestran las preocupaciones actuales sobre las reglas de divulgación de la SEC.

Un desafío importante es que las regulaciones son reactivas a las amenazas; estas existen antes de que la regulación sea considerada. En el caso de la IA, los modelos ya existen y los datos utilizados para entrenarlos ya han sido recopilados. Por lo tanto, regular un campo que se desarrolla tan rápidamente es como intentar atrapar un caballo desbocado. Aunque la regulación es esencial para minimizar los daños actuales y futuros, su efectividad será limitada si no puede adaptarse al ritmo de la evolución de la IA.

Deja el primer comentario