MADRID, 18 (Portaltic/EP)
Google ha mostrado algunas de las capacidades que ofrecerá su prototipo de asistente universal de Inteligencia Artificial (IA) Proyecto Astra que, ya sea integrado en un 'smartphone' o en unas gafas inteligentes, podrá responder cualquier pregunta de los usuarios teniendo en cuenta el entorno que les rodea y sus acciones en tiempo real.
El gigante tecnológico presentó Proyecto Astra de la mano de Google DeepMind en el marco de su evento anual Google I/O 2024. En ese momento, indicó que se trataba de un futuro asistente universal multimodal construido a partir de Gemini, que ve el mundo a través de la cámara del 'smartphone' para que el usuario pueda preguntar sobre él.
La pasada semana, Google anunció la nueva versión de su modelo de lenguaje de gran tamaño Gemini 2.0, que integra mejoras en la latencia y el rendimiento, entre otras novedades. Está actualmente disponible con el modelo experimental Gemini 2.0 Flash, que duplica la velocidad de Gemini 1.5 y que ofrece mejoras en características multimodales, y ya se ha integrado en el Proyecto Astra.
En este marco, la tecnológica ha compartido sus avances en el Proyecto Astra y algunas de las capacidades que ofrecerá el asistente multimodal, tanto a través de un 'smartphone' como integrado en unas gafas inteligentes.
En el caso de Proyecto Astra en un 'smartphone' Pixel, el usuario interactúa con el asistente mediante comandos de voz y la cámara, con lo que es capaz de comprender tanto las imágenes del entorno en tiempo real, como los comentarios y solicitudes que los el usuario realiza en voz alta.
Para ello, basta con que el usuario enfoque la cámara sobre lo que quiera obtener información, por ejemplo, un monumento en la calle, un plato de comida o un electrodoméstico, y pregunte al mismo tiempo cuestiones relacionadas. Así, el asistente podría ofrecer ayuda con datos relevantes sobre el monumento, detallar los ingredientes con los que se ha preparado el plato de comida o explicar qué programa es más idóneo para lavar una determinada prenda en la lavadora.
Las respuestas del asistente se muestran tanto escritas en la pantalla del 'smartphone' como mediante respuesta de voz, para una conversación fluida con el usuario.
Asimismo, el asistente también puede realizar búsquedas o recomendaciones relacionadas con, por ejemplo, una lista de restaurantes anotados en una hoja, simplemente con enfocar dicha lista, así como recordar información para ofrecérsela al usuario de forma rápida y sencilla posteriormente.
PROYECTO ASTRA INTEGRADO EN GAFAS INTELIGENTES
En el caso de Proyecto Astra integrado en unas gafas inteligentes, el asistente ofrecerá las mismas capacidades que con el 'smartphone', pero de forma más cómoda ya que, a través de cámaras incluidas en las gafas, mire donde mire el usuario, el asistente estará viendo lo mismo sin necesidad de utilizar el teléfono.
Así, este formato permite utilizar el asistente en cualquier momento mediante comandos de voz, independientemente de la actividad que se esté llevando a cabo. Según ejemplifica Google, sería posible utilizarlo mientras el usuario monta en bici, para responder cuestiones sobre dudas en la ruta o lugares cercanos en tiempo real, basados en la ubicación del momento.
Proyecto Astra es, por el momento, un prototipo de asistente de IA universal aún en desarrollo, por lo que estas son algunas de las funciones que Google planea ofrecer a los usuarios en el futuro.
|