Algo grande se está gestando en el mundo de la inteligencia artificial, y no, no es solo otra mejora incremental en los modelos existentes. Reflection AI ha salido de las sombras y ha irrumpido con una misión ambiciosa: construir sistemas de superinteligencia autónomos. Pero lo interesante aquí no es solo su objetivo, sino su enfoque. Mientras muchas empresas buscan rentabilidad inmediata, Reflection AI apuesta todo a una carta: resolver la programación autónoma como clave para desbloquear una inteligencia general superior.
La lógica detrás de su visión es simple pero revolucionaria. Si logran que un sistema se programe a sí mismo sin intervención humana, las demás tareas computacionales caerían como fichas de dominó. ¿Su método? Combinar aprendizaje por refuerzo con modelos de lenguaje avanzados, dándoles el mismo nivel de independencia estratégica que AlphaGo, aquel sistema que derrotó a los mejores jugadores humanos de Go.
Y hablando de AlphaGo, el equipo detrás de Reflection AI no es precisamente un grupo de aficionados. Entre sus filas hay mentes que han trabajado en algunos de los avances más impactantes de la IA, como AlphaZero y GPT-4. Con semejante historial, no es de extrañar que los inversores hayan sacado la chequera rápidamente: $130 millones de dólares en financiación y una valoración de $555 millones en tiempo récord. Entre los nombres que han apostado fuerte por este proyecto están Reid Hoffman, SV Angel, Alexandr Wang y hasta Nvidia.
El movimiento de Reflection AI marca un punto de inflexión en la industria. En lugar de enfocarse en aplicaciones comerciales a corto plazo, su estrategia es clara: ir directo hacia la superinteligencia sin desvíos. Pero no están solos en esta cruzada. Hay otra compañía con un objetivo similar y un líder con un pasado muy interesante.
La batalla por la IA del futuro: SSI y el cambio de rumbo de OpenAI
Si Reflection AI ya estaba sacudiendo el tablero, hay otro jugador que llegó antes y que también apuesta por la superinteligencia: Safe Superintelligence (SSI). Fundada por Ilya Sutskever, exjefe de investigación de OpenAI, esta empresa tiene una misión tan ambiciosa como críptica: construir una superinteligencia segura desde el primer momento.
Lo curioso de SSI no es solo su propósito, sino su modelo de negocio—o más bien, la falta de él. No tienen productos comerciales ni planes inmediatos de generar ingresos, pero eso no ha impedido que busquen una valoración de hasta $30.000 millones de dólares. Una cifra impresionante para una empresa que, de momento, no ha mostrado avances públicos.
Este enfoque contrasta con el giro que ha dado OpenAI, la empresa que Sutskever dejó atrás en mayo de 2024. Aunque OpenAI sigue mencionando la inteligencia artificial general (AGI) como su objetivo final, ha comenzado a cambiar su discurso. Ya no hablan de un salto repentino hacia la AGI, sino de una evolución gradual, algo que suena más como una estrategia de relaciones públicas que una revelación técnica.
Pero OpenAI no está sola en esta tendencia. Anthropic, otra gran compañía de IA, también ha suavizado su retórica, reemplazando términos como «AGI» con expresiones más ambiguas como «IA poderosa». Ambas empresas han optado por concentrarse en lo que llaman «modelos de razonamiento», usando aprendizaje por refuerzo para mejorar la capacidad de sus sistemas en matemáticas y programación.
Mientras tanto, hay otras startups que, aunque también surgen de exdirectivos de OpenAI, prefieren evitar cualquier mención a la superinteligencia. Un ejemplo es Thinking Machines Lab, la empresa de Mira Murati (ex-CTO de OpenAI), que está en plena negociación para recaudar $1.000 millones con una valoración de $9.000 millones. Su estrategia es más académica y colaborativa, enfocándose en transparencia y publicaciones científicas en lugar de promesas de una IA que lo solucione todo.
Lo que está claro es que la carrera por la inteligencia artificial está entrando en una nueva fase. Mientras algunos buscan construir la próxima gran revolución en IA sin atajos comerciales, otros están redefiniendo su narrativa para evitar el escepticismo.