Resumen creado por Smart Answers AI
En resumen:
- Macworld informa que Apple está integrando la IA Gemini de Google en Siri, aportando siete mejoras importantes que incluyen una memoria conversacional mejorada y capacidades de tareas de agente.
- Las características esperadas incluyen respuestas objetivas precisas, narración de historias, apoyo emocional, reserva de viajes, creación de documentos y sugerencias proactivas para los usuarios de Apple.
- El lanzamiento comienza con iOS 26.4 en primavera, y se lanzarán funciones adicionales en la WWDC en junio, manteniendo la privacidad a través del procesamiento en el dispositivo.
Hace un par de días, Apple y Google confirmaron informes generalizados y anunciaron que la próxima renovación de Siri se basará en la plataforma Gemini AI de Google. Apple ha luchado por construir su propia tecnología de inteligencia artificial, por lo que esta medida parece ser un atajo sensato hacia “nuevas experiencias innovadoras” para sus usuarios.
En el momento del anuncio, las empresas comentaron sólo en términos generales sobre la naturaleza de la asociación, pero un nuevo informe de The Information, un sitio generalmente confiable, ha revelado siete nuevas características que se cree que llegarán a Siri como resultado del aporte de Google. Además de algunos detalles adicionales que pueden tranquilizar a los fans de Apple que están preocupados por la googleación de sus productos.
Basando sus predicciones en el testimonio de una “persona que ha estado involucrada en el proyecto” y una “persona familiarizada con las conversaciones de asociación” (separada, por implicación), The Information publicó esta semana un examen detallado (se requiere suscripción) de cómo funcionará el acuerdo. En general, esto enfatiza cierto grado de continuidad: las interfaces de los productos Siri y Apple en general no se verán ni se comportarán simplemente como Google Gemini. Apple podrá ajustar Gemini para que funcione como quiera o pedirle a Google que haga ajustes. Los prototipos actuales ni siquiera cuentan con la marca de Google, aunque no está claro si Google estará contento de que siga siendo así una vez que el proyecto se lance al público.
Del mismo modo, las fuentes son optimistas en el ámbito de la privacidad. «Para mantener el compromiso de privacidad de Apple», explican, «la IA basada en Gemini se ejecutará directamente en los dispositivos Apple o en su sistema de nube privada… en lugar de ejecutarse en los servidores de Google».
Hasta ahora todo es prometedor. Pero la clave es lo que Gemini puede ofrecerle a Apple que Siri aún no puede lograr. Las siguientes nuevas características y mejoras están en camino, según las fuentes de The Information:
- Responda las “preguntas sobre hechos” con mayor precisión, de manera conversacional y citando la fuente.
- contar historias
- Brinde apoyo emocional completo y conversacional, «como cuando un cliente le dice al asistente de voz que se siente solo o desanimado».
- Tareas agentes como reservar viajes.
- Otro tipo de tareas “como crear un documento de Notas con una receta de cocina o información sobre las principales causas de la drogadicción”
- Recuerde conversaciones pasadas y utilícelas como contexto para comprender con mayor precisión nuevos comandos.
- Sugerencias proactivas, como salir temprano de casa para evitar el tráfico.
No todas estas funciones llegarán al mismo tiempo, indica The Information. Se espera que algunos se lancen en primavera, probablemente con iOS 26.4, mientras que otros (específicamente los dos últimos elementos de la lista anterior) no se anunciarán hasta la WWDC en junio.
Dado el tiempo que hemos esperado para que se lance Siri 2.0, un período de tiempo de entre dos y cinco meses antes de que obtengamos un lote de nuevas funciones probablemente sea mejor de lo que esperaban la mayoría de los fanáticos de Apple. Mire este espacio para obtener más actualizaciones a medida que se acerca el lanzamiento.

