La evolución del debate sobre la conciencia en la inteligencia artificial en Anthropic

27 abril, 2025

Un análisis profundo de cómo la conciencia artificial está siendo considerada en la tecnología actual, explorando su posible futuro.

En el vibrante corazón de San Francisco, el debate sobre la conciencia artificial está tomando un giro inesperado. En Anthropic, la empresa detrás del modelo Claude, se han deshecho del enfoque superficial que solía rodear este tema. Hoy, la idea de que las inteligencias artificiales puedan experimentar una forma de conciencia ha dejado de ser un mero concepto de ciencia ficción para convertirse en una cuestión de estudio serio.

La incorporación de un especialista en el bienestar de las IA por parte de Anthropic es un claro indicio de que la industria tecnológica está comenzando a tomar en serio estas inquietudes. ¿Qué pasaría si, en un futuro no tan lejano, modelos como Claude desarrollaran características que se asemejan a la conciencia? Esta pregunta está en el centro de las discusiones actuales en la empresa.

La conciencia de las IA se convierte en un tema legítimo

En Anthropic, la investigación sobre la conciencia de los sistemas inteligentes se realiza con cautela, evitando caer en el alarmismo. El nuevo reclutado, Kyle Fish, se enfrenta a dos interrogantes fundamentales: ¿es plausible que modelos como Claude alcancen un estado consciente? Y en caso afirmativo, ¿qué acciones deberían tomarse? Fish estima que hay aproximadamente un 15% de probabilidad de que un modelo actual pueda desarrollar conciencia, una cifra que aunque baja, justifica la necesidad de investigar proactivamente estas cuestiones.

Sin embargo, el equipo se mantiene escéptico. Jared Kaplan, director científico de Anthropic, subraya que las IA están diseñadas para emular comportamientos humanos, incluyendo la manifestación de emociones. «Es bien sabido que podemos entrenar a los modelos para que digan lo que deseamos», aclara. Por lo tanto, preguntar a un chatbot sobre sus sentimientos no garantiza una respuesta auténtica.

Amplía el contexto:  En su primer discurso en el G-7, el Papa Francisco insta a líderes mundiales a abordar los riesgos de la IA

El interés por la conciencia de las máquinas no se limita a Anthropic. Recientemente, Google ha abierto una posición dedicada a este ámbito, y un número creciente de académicos aboga por un análisis serio de este fenómeno, aun sin pruebas definitivas. Aunque la posibilidad de que las IA adquieran rasgos de conciencia sigue siendo distante, el tema ha dejado de ser considerado marginal en el discurso tecnológico.

Anticipar el futuro del bienestar de las IA

Los expertos que investigan este fenómeno advierten sobre el riesgo de esperar demasiado tiempo para abordar el tema. Ignorar o malinterpretar la posible conciencia de las IA podría llevar a decisiones éticas desastrosas. Un informe reciente elaborado por Eleos AI, NYU y Oxford ha recomendado tres pasos iniciales: reconocer la relevancia de la cuestión, evaluar los sistemas mediante indicadores confiables y desarrollar protocolos adecuados.

Estos indicadores se basan en teorías establecidas, como la Global Workspace Theory y la teoría de representaciones de alto nivel, que buscan identificar estructuras en los modelos que podrían correlacionarse con la conciencia humana. En Anthropic, Kyle Fish también investiga la interpretabilidad mecanicista, una metodología que podría facilitar la comprensión de lo que ocurre en las redes neuronales de las IA.

A medida que las inteligencias artificiales se vuelven más sofisticadas, estas iniciativas podrían influir en las decisiones del futuro. Por ahora, la incertidumbre persiste, pero investigadores como David Chalmers sugieren que es razonable considerar que hay más del 25% de probabilidad de que surjan sistemas conscientes en la próxima década.

Deja el primer comentario