Todas las gafas de Google funcionarán con el sistema operativo Android XR, que debutó en el Auriculares Samsung Galaxy XR en octubre.
Fundamentalmente, las gafas de Google se basarán en el modelo Gemini AI de la compañía, que actualmente es un modelo mucho mejor que Meta AI. Gemini podría llegar a ser la mayor ventaja de Google, junto con un profundo conocimiento contextual de las personas que usan Gmail, Google Photos, Google Docs, Tasks, Notes y otros productos de Google.
Google también cuenta con servicios líderes en la industria que podrían mejorar las gafas de Google: Google Translate y Google Maps, por ejemplo. En el anuncio, Google demostró una función de traducción en tiempo real disponible a través de subtítulos en pantalla o mediante traducción de audio a través de los parlantes. Como usuario de la función Live Translate de Ray-Ban Meta, puedo decirle que los subtítulos son mucho mejores, porque las traducciones de audio a menudo se reproducen cuando usted o la otra persona están hablando, por lo que entiende incluso menos que sin la traducción.


