Project Astra de Google trae Gemini Live que entiende 45 idiomas y más

3 marzo, 2025

Google revoluciona la forma de interactuar con su asistente de IA Gemini a través de su nueva actualización en el MWC 2023.

En el Mobile World Congress de este año, Google ha presentado dos novedades emocionantes para su asistente Gemini, que ahora se llama Gemini Live. Y lo mejor es que entiende 45 idiomas.

La magia ocurre con la nueva actualización de Gemini 2.0 Flash, diseñada específicamente para dispositivos móviles. Olvídate de cambiar la configuración de idioma cada vez que quieras hablar en otra lengua. Simplemente, comienza a hablar en el idioma que desees y Gemini Live te seguirá el ritmo. Esta característica ya está disponible, así que ¡a probarla!

Nuevas funciones revolucionarias

Pero eso no es todo. Este mes, Google lanzará la opción de entrada de video en vivo, un avance impresionante que forma parte del ambicioso Project Astra. ¿Recuerdas el evento I/O donde se mostró a alguien usando unas gafas inteligentes conversando con un asistente de IA? Ese mismo concepto está llegando a tu smartphone. Aunque el proyecto sigue siendo un prototipo de investigación, la funcionalidad de video estará al alcance de la mano en la app.

Además, Gemini también tendrá una función de compartición de pantalla. Esto significa que podrás hablar de lo que ves en tu teléfono, como elegir unos jeans nuevos, mientras el asistente te ayuda en tiempo real. Esta combinación promete transformar la manera en que interactuamos con la tecnología móvil.

Por ahora, estas características visuales estarán disponibles exclusivamente para dispositivos Pixel y Samsung. Así que, si eres usuario de alguna de estas marcas, prepárate para disfrutar.

La competencia en el mundo de los asistentes inteligentes

El objetivo de los grandes nombres en inteligencia artificial es hacer que sus asistentes sean cada vez más inteligentes y útiles. Por ejemplo, OpenAI ha introducido un asistente llamado Operator, capaz de ayudarte a comprar en línea usando un modo de voz avanzado. Aunque OpenAI ha prometido funciones visuales similares a las de Google, todavía no las ha lanzado.

Por su parte, Meta ha lanzado su propio asistente visual a través de las Ray-Ban Meta Glasses, que permiten interactuar con el entorno mientras te haces preguntas. Sin embargo, este servicio todavía no está disponible en la Unión Europea. Así que la competencia está que arde.

Deja el primer comentario