Apple Intelligence: Filtradas todas las novedades de IA que llegan con iOS 26
Aunque este año la WWDC no estará centrada exclusivamente en la inteligencia artificial, Apple sí aprovechará el evento para anunciar importantes avances en Apple Intelligence. Según el reconocido periodista Mark Gurman, estas son las funciones clave que llegarán próximamente al ecosistema de la compañía.
Apple ha desarrollado nuevas versiones de sus modelos de lenguaje generativo, con capacidades mucho mayores que las anteriores. Actualmente, la compañía trabaja con modelos de 3.000, 7.000, 33.000 y hasta 150.000 millones de parámetros.
El modelo de 150.000 millones es el más avanzado y funciona desde la nube, permitiendo razonamientos complejos similares a los de OpenAI o Google. Por su parte, los modelos más ligeros están diseñados para operar de forma local en dispositivos como iPhone y Mac.
Por primera vez, los desarrolladores podrán integrar los modelos de Apple en sus propias aplicaciones. Esto permitirá ofrecer funciones como resúmenes de texto, sugerencias de escritura o herramientas creativas similares a Genmoji.
Sin embargo, solo se podrá acceder a los modelos locales, mientras que los modelos basados en la nube seguirán siendo exclusivos de Apple, al menos por ahora.
La app Traducir se expande de forma notable. A partir de iOS 26, la traducción se integrará en mensajes de texto, llamadas telefónicas e incluso conversaciones en vivo a través de los AirPods. Esta función promete ser una de las más útiles para los usuarios, especialmente frente a las soluciones que ya ofrece Android.
Genmoji, el generador de emojis con IA de Apple, recibirá una divertida mejora: fusionar dos emojis estándar para crear uno completamente nuevo. Una función creativa que seguramente ganará popularidad en redes sociales y chats.
La app Atajos dará un salto importante con IA integrada. Gracias a Apple Intelligence, será posible crear automatizaciones mediante lenguaje natural, lo que facilitará la creación de flujos de trabajo personalizados para cada usuario.
Una de las novedades más esperadas es un modo de ahorro de batería gestionado por aprendizaje automático. Este sistema aprenderá de los hábitos del usuario para ajustar el consumo energético en tiempo real. Se espera que debute con el iPhone 17 Air, que contará con una batería más pequeña.
Apple ha reestructurado su asistente de codificación Swift Assist, que ahora usará modelos LLM de terceros como Claude de Anthropic. Esto permitirá que Xcode se ponga al nivel de otros entornos de desarrollo que ya integran inteligencia artificial.
Aunque Apple trabaja en una nueva versión de Siri impulsada por modelos de lenguaje, esta no se presentará en la WWDC 2025. El asistente rediseñado, conocido internamente como “LLM Siri”, se espera para 2026, con mayor control de aplicaciones y contexto personal.
Apple ha mantenido conversaciones con Google para integrar los modelos Gemini como alternativa a ChatGPT, especialmente en funciones como Siri o las Writing Tools. Sin embargo, el acuerdo está en pausa, probablemente debido al caso antimonopolio del DOJ contra Google. Cualquier anuncio en este sentido llegaría más adelante.
Dos proyectos clave de Apple Intelligence han sido aplazados: una versión renovada de Calendario con programación inteligente y una IA médica llamada Mulberry para la app Salud. Ambos desarrollos se lanzarán con iOS 27 y macOS 27 en 2026.