Project Astra es la visión de Google sobre el futuro de la IA
En la demo vemos cómo una usuaria interactúa con este asistente a través de su cámara del móvil, la voz y unas gafas inteligentes
OpenAI puso el listón muy alto con la llegada de ChatGPT, dando paso a una nueva era de la inteligencia artificial generativa. Al cabo de unos meses, la industria tecnológica se ha puesto patas arriba, y los máximos exponentes de una carrera por la supervivencia de las empresas en este campo incluyen a grandes compañías como Microsoft, Meta o Google, entre otras tantas.
Si bien Google despertó tarde con Bard y más adelante con Gemini, la compañía sigue su curso ofreciéndonos nuevos productos y servicios enfocados en el uso de la inteligencia artificial como base. Durante la última presentación del Google I/O, la compañía nos mostró, además de todos sus nuevos modelos de Gemini, un pequeño ápice de su visión sobre el futuro de los asistentes con IA. Bajo estas líneas te contamos todo sobre Project Astra, el asistente más innovador de la compañía.
Project Astra es la visión que tiene Google sobre los asistentes con IA del futuro
Si has visto alguna vez la película de 'Her', te habrás dado cuenta que el protagonista (interpretado por Joaquin Phoenix) interactúa de forma muy humana y natural con una inteligencia artificial general y multipropósito que se encuentra muy integrada en la vida de este protagonista.
Si bien el trascurso de la película y su final nos dan a entender una perspectiva preocupante sobre el uso de esta tecnología, lo cierto es que esta es un poco la meta que tienen las grandes compañías en torno al uso de la IA, es decir, una inteligencia artificial general (AGI) con la que podamos interactuar sobre cualquier dispositivo y que nos pueda facilitar y ayudar en innumerables tareas de nuestro día a día.
Para Google, su visión sobre el futuro de la IA pasa por Project Astra, un asistente impulsado por inteligencia artificial que puede responder e interactuar con todo nuestro entorno mediante la ayuda de una cámara y un dispositivo que logre procesar esa interacción en base al modelo de lenguaje interno.
Este dispositivo puede ser tanto un teléfono móvil, como unas gafas inteligentes (¿recuerdas Google Glasses?), tablet, Smart TV, ordenador, o cualquier otro dispositivo. Esta inteligencia artificial estaría al tanto del contexto de la conversación y nuestro alrededor en todo momento, haciendo uso de las capacidades del dispositivo y ofreciendo sus respuestas en base al LLM (Large Language Model) que utilice para su funcionamiento.
Tal y como podemos ver en el vídeo mostrado durante la presentación, la usuaria interactúa con el asistente a través de la cámara de su móvil, dándole contexto en todo momento a la IA para que pueda interactuar además con el entorno y ofrecer respuestas ágiles y coherentes.
En la segunda mitad del vídeo, vemos que suelta el móvil y utiliza unas gafas inteligentes con cámara incorporada, continuando la conversación a través de este nuevo dispositivo. Google Glasses tenía un problema: su software y el hecho de que salieran al mercado en un momento en el que no estábamos preparados para ello. Sin embargo, con la ayuda de la IA, el panorama ha cambiado por completo, por lo que es muy posible que este tipo de dispositivos comiencen a frecuentar las calles en un futuro no muy lejano.
Algunas de las capacidades que se muestran aparecerán próximamente en los servicios de Google, así como en la app de Gemini para dispositivos móviles que llegaría más adelante durante este año. Con Project Astra, Google quiere que esa interacción que vemos en la película de 'Her' esté más cerca de lo que creemos. De momento conocemos poco sobre ello, por lo que esperemos que durante los próximos meses sepamos más novedades en torno a esa visión que Google nos tiene preparada.
Imagen de portada | Google
Más información | Google
En Genbeta | Google tiene 11 cursos gratis para aprender machine learning desde cero y en castellano
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario