📺 ¡Descuentos televisores! ¡Ofertas especiales para vivir el Mundial como nunca! [ Saber más ]
Google ha dejado claro que quiere cambiar la forma en la que entendemos Android. Ya no lo presenta solo como un sistema operativo para abrir apps, recibir notificaciones y movernos entre pantallas, sino como una capa inteligente capaz de actuar en nombre del usuario.
Durante The Android Show: I/O Edition 2026, la compañía ha presentado Gemini Intelligence, una nueva integración profunda de IA en Android, y ha adelantado los Googlebook, una nueva categoría de portátiles diseñados alrededor de Gemini y basados en una plataforma que combina lo mejor de Android y ChromeOS.
Android quiere dejar de ser solo un sistema operativo
La idea central de Google es sencilla: el usuario no debería tener que saltar constantemente entre aplicaciones para completar tareas pequeñas, repetitivas o tediosas. En lugar de eso, Android debería entender el contexto, conectar información entre apps y ejecutar acciones con menos intervención manual.
Ese cambio llega bajo el paraguas de Gemini Intelligence, que Google describe como una nueva generación de funciones proactivas impulsadas por IA dentro de Android. No se trata simplemente de abrir Gemini como una app independiente, sino de integrar sus capacidades en el propio sistema para que pueda ayudar en tareas reales del día a día.
Por ejemplo, Google mostró cómo Gemini puede analizar información presente en un correo y convertirla en acciones concretas, como preparar una compra o rellenar elementos necesarios sin que el usuario tenga que copiar y pegar datos entre aplicaciones. Es un enfoque que convierte Android en algo más cercano a un asistente operativo que a una simple plataforma de apps.
Gemini Intelligence se integra en Android 17
Android 17 será la versión en la que esta visión empiece a tomar forma de manera más clara. Hasta ahora, muchas funciones de IA en móviles Android podían sentirse como añadidos puntuales: un botón aquí, una app allá, una función concreta dentro de una herramienta determinada.
Con Gemini Intelligence, Google quiere que la inteligencia artificial sea una capa más profunda del sistema. Esto significa que Android podrá interpretar mejor lo que ocurre en pantalla, entender relaciones entre apps y ofrecer acciones proactivas antes de que el usuario tenga que pedirlas paso a paso. ([WIRED][2])
La clave está en automatizar tareas de varios pasos. En lugar de abrir Gmail, copiar información, ir al navegador, buscar productos, añadirlos al carrito y revisar la compra, la IA puede encargarse de buena parte de ese proceso. El usuario mantiene el control, pero se ahorra la parte más mecánica.
Este planteamiento también abre la puerta a experiencias más personalizadas. Android podrá generar widgets mediante lenguaje natural, anticipar necesidades y adaptar funciones según el contexto, siempre con los controles de seguridad y privacidad que Google promete reforzar en esta nueva etapa.
Screen Reactions: grabar la pantalla y tu cara al mismo tiempo
Entre las novedades más llamativas de Android 17 aparece Screen Reactions, una función pensada especialmente para creadores de contenido y usuarios habituales de redes sociales.
La herramienta permite grabar al mismo tiempo la pantalla del móvil y la cara del usuario, algo útil para vídeos de reacción, tutoriales, comentarios de apps o contenido para plataformas como Instagram, TikTok o YouTube Shorts.
Hasta ahora, hacer este tipo de vídeos solía requerir aplicaciones de terceros o edición posterior. Con Screen Reactions, Android incorpora esa posibilidad directamente en el sistema, reduciendo pasos y facilitando la creación rápida de contenido.
No es una función revolucionaria por sí sola, pero sí encaja muy bien con el nuevo objetivo de Google: quitar fricción a tareas que millones de usuarios ya hacen a diario.
Más protección contra llamadas falsas del banco
Google también ha aprovechado el evento para hablar de seguridad. Android 17 incorporará nuevas protecciones frente a intentos de fraude, incluyendo llamadas que suplantan a entidades bancarias.
La detección se realiza en el propio dispositivo, lo que permite analizar señales sospechosas sin enviar el contenido de la llamada a servidores externos. Según Google, estas defensas forman parte de una estrategia más amplia para proteger al usuario cuando la IA empieza a realizar más tareas en su nombre.
Este punto es importante. Si Android va a convertirse en un sistema más proactivo, también necesita más controles, más transparencia y mejores barreras frente a abusos. Google parece consciente de que la confianza será clave para que los usuarios acepten delegar tareas en Gemini.
Googlebook: el portátil de Google pensado para la era de la IA
La gran sorpresa de hardware ha sido Googlebook, una nueva categoría de portátiles que llega para ocupar el espacio que durante años han ocupado los Chromebook, aunque con una filosofía más ambiciosa.
Los Googlebook estarán basados en una plataforma que fusiona elementos de Android y ChromeOS. El sistema se ha conocido durante meses como Aluminium OS, aunque Google todavía no lo presenta necesariamente como el nombre comercial definitivo.
La idea es ofrecer un portátil con acceso al ecosistema de apps de Android, herramientas de escritorio heredadas de ChromeOS y una integración mucho más profunda con Gemini. En otras palabras, no sería simplemente un Chromebook con más IA, sino una nueva generación de equipos donde la inteligencia artificial forma parte del diseño desde el principio.
Google trabaja con fabricantes como Acer, ASUS, Dell, HP y Lenovo para lanzar los primeros Googlebook, cuya llegada está prevista para otoño de 2026.
Magic Pointer: un cursor que entiende lo que hay en pantalla
Una de las funciones más interesantes de los Googlebook será Magic Pointer, un cursor impulsado por IA que puede ofrecer acciones contextuales según el contenido sobre el que se sitúa.
La idea es que el puntero deje de ser simplemente una flecha para seleccionar elementos y se convierta en una herramienta inteligente. Si el usuario pasa el cursor sobre una imagen, un producto o un elemento concreto, el sistema puede sugerir acciones relacionadas con ese contenido.
Por ejemplo, al colocar el cursor sobre un sofá en una imagen, el sistema podría ofrecer una vista previa en realidad aumentada para ver cómo quedaría en el salón. En otros contextos, podría sugerir resumir texto, buscar información, extraer datos o ejecutar acciones relacionadas con lo que aparece en pantalla.
Es una de esas funciones que, bien implementadas, pueden cambiar bastante la forma de trabajar en un portátil. En lugar de depender siempre de menús, clic derecho o búsquedas manuales, el sistema intenta anticipar qué puede querer hacer el usuario.
Glowbar: una señal visual de que la IA está trabajando
Los Googlebook también contarán con un elemento visual llamado Glowbar, una barra luminosa que se activa cuando la IA está procesando información o realizando alguna tarea.
Puede parecer un detalle menor, pero tiene sentido en un equipo donde Gemini tendrá más presencia. Si la IA está trabajando en segundo plano, el usuario necesita algún tipo de indicación clara para saber que el sistema está pensando, procesando o ejecutando una acción.
La Glowbar no parece buscar un efecto llamativo sin más, sino aportar una señal visual sencilla dentro de una experiencia donde la IA deja de ser una ventana concreta y pasa a formar parte del propio equipo.
Android Auto se rediseña con Material 3 e Immersive Navigation
Google también ha anunciado novedades importantes para Android Auto, que recibirá una actualización visual basada en Material 3 Expressive. El rediseño introduce animaciones más fluidas, widgets personalizables y una interfaz más moderna para el salpicadero del coche.
Una de las mejoras más destacadas será Immersive Navigation en Google Maps. Esta función ofrecerá una vista 3D del entorno, destacando edificios, semáforos, señales de stop y orientación por carriles para ayudar en cruces complicados.
Es una mejora especialmente útil en grandes ciudades, donde las indicaciones tradicionales a veces no bastan para entender con claridad qué carril tomar o cuándo girar. Google quiere que la navegación sea más visual, más anticipada y más fácil de interpretar de un vistazo.
Android Auto también ampliará sus capacidades multimedia y de productividad, con más integración de Gemini y nuevas funciones pensadas para coches compatibles con Google built-in.
Rambler: Gboard limpiará tus dictados en tiempo real
Otra novedad curiosa es Rambler, una función de Gboard impulsada por IA que mejora el dictado por voz en tiempo real.
Cuando hablamos, solemos usar muletillas, pausas, repeticiones o frases incompletas. Rambler se encarga de limpiar el texto automáticamente, eliminando expresiones como “eh”, “mmm” o repeticiones, y convirtiendo el dictado en frases más pulidas.
La función puede ser especialmente útil para quienes responden mensajes largos por voz, toman notas rápidas o usan el móvil como herramienta de trabajo. En lugar de transcribir exactamente todo lo que dices, Gboard intentará interpretar mejor la intención y convertirla en un texto más natural.
Aquí también se aprecia la nueva dirección de Google: la IA no aparece como una función espectacular y aislada, sino como una capa que mejora pequeñas tareas cotidianas.
Quick Share también se abre al iPhone
Google ha confirmado además que Quick Share será compatible con AirDrop, facilitando el envío de archivos entre Android y dispositivos Apple.
La función comenzó en los Pixel 10 y se irá extendiendo a otros fabricantes, incluidos Samsung y OnePlus. El objetivo es que enviar una foto, un vídeo o un documento desde un móvil Android a un iPhone sea mucho más directo que hasta ahora.
Durante años, AirDrop ha sido una de las ventajas más visibles del ecosistema Apple. Que Android pueda comunicarse con él mediante Quick Share reduce una barrera importante para usuarios que conviven con móviles, tablets y ordenadores de distintas marcas.
No convertirá Android y iOS en ecosistemas abiertos de golpe, pero sí elimina una fricción muy habitual en el día a día.
Android entra en una nueva etapa
Lo presentado por Google en The Android Show: I/O Edition 2026 marca un cambio de enfoque bastante claro. Android ya no quiere limitarse a ser el sistema donde viven tus apps. Quiere convertirse en una capa inteligente que entiende lo que haces, conecta servicios y ejecuta tareas con menos intervención manual.
Gemini Intelligence es el centro de esa estrategia. En móviles, promete automatizar tareas, mejorar el dictado, ayudar a crear contenido y reforzar la seguridad. En portátiles, los Googlebook quieren llevar esa misma lógica a un formato más productivo, con funciones como Magic Pointer y una integración más profunda entre Android, ChromeOS y Gemini.
El reto para Google será enorme. Automatizar tareas entre apps suena muy bien, pero exige precisión, privacidad, transparencia y mucho control por parte del usuario. Si la compañía consigue equilibrar comodidad y confianza, Android 17 puede ser uno de los saltos más importantes del sistema en años.