Gemini ahora puede ver tu pantalla y responder en tiempo real
Gemini ahora puede ver tu pantalla y responder en tiempo real
Google ha comenzado a implementar nuevas funciones de inteligencia artificial en tiempo real para Gemini Live, permitiendo que la IA "vea" la pantalla del usuario o utilice la cámara del smartphone para responder preguntas en tiempo real. Según el portavoz de Google, Alex Joseph, estas características están llegando gradualmente a los suscriptores del plan Google One AI Premium. Las nuevas funciones de Gemini están basadas en Project Astra, una tecnología de visión en tiempo real que Google presentó hace casi un año. Una de las capacidades ya activas permite a Gemini interpretar lo que aparece en la pantalla del teléfono, mientras que la otra le permite analizar y responder sobre lo que ve a través de la cámara en vivo. Usuarios de Reddit han reportado que la función apareció en dispositivos Xiaomi, y Google ha publicado un video demostrando su uso en un caso práctico: elegir el color de pintura adecuado para una pieza de cerámica recién esmaltada. El lanzamiento de estas funciones posiciona a Google a la vanguardia de la IA asistencial, superando a Amazon Alexa Plus y a Apple Siri, que aún no han alcanzado este nivel de interacción visual. Mientras tanto, Samsung Bixby sigue siendo una alternativa menor, aunque sus dispositivos integran Gemini como asistente predeterminado.