Los usuarios podrán encontrar un pantalón, un mueble o la decoración perfecta para su cocina solo describiendo lo que necesitan. Así funciona
Luego de haber expandido AI Mode a más de 180 países de habla hispana, Google anunció una actualización en las funcionalidades de la herramienta: ahora permitirá explorar visualmente mediante descripciones conversacionales. Es decir, que los usuarios podrán describir lo que imaginan —como si se lo contaran a un amigo— y obtener como resultado imágenes y productos relacionados de forma natural.
Por ejemplo, si buscas inspiración para decorar un dormitorio con un “estilo maximalista”, AI Mode te mostrará imágenes que se ajustan a esa “sensación visual”, y podrás seguir preguntando “¿más tonos oscuros?”, “¿más contraste?” o “¿ideas con estampados llamativos?”, sin tener que aplicar filtros manuales.
Más aún: puedes empezar la búsqueda aportando una imagen (subiéndola o tomando una foto) y luego “conversar” con AI Mode sobre lo que ves.
Facilita la búsqueda de productos para comprar
Si quieres comprar algo que has visto, basta con describirlo. Por ejemplo: “jeans tipo barrel que no sean muy holgados”, y AI Mode te presentará opciones visuales comprables. Si una prenda te gusta, puedes ir directamente al sitio del vendedor.
Para ello, Google cuenta con un Gráfico de compras de más de 50 mil millones de listados de productos, que te ayuda a ver productos de tiendas de todo el mundo, desde grandes minoristas hasta tiendas locales, cada una con detalles como reseñas, últimas ofertas, colores y disponibilidad. «Solo verás los resultados de compra más recientes, ya que cada hora se actualizan más de 2 mil millones de esas fichas de producto en Google», explica la empresa.
La tecnología de Lens y el poder de Gemini 2.5
Para lograr esta nueva funcionalidad, Google combina su experiencia en búsqueda visual —con Lens e Image Search— con las capacidades multimodales del modelo Gemini 2.5 para interpretar tanto lenguaje como imágenes.
Lo más relevante es que utiliza una técnica llamada “visual search fan-out”: en lugar de simplemente reconocer el sujeto principal de una imagen, genera múltiples consultas sobre detalles secundarios, contexto, objetos adicionales y matices visuales para dar respuestas más completas.
Esto permite que no sólo importe el objeto principal, sino también su entorno y relaciones visuales.
Además, la nueva modalidad se integra de forma multimodal: puedes combinar texto más imagen, seguir preguntando sobre lo que ves en una imagen, y ajustar tu búsqueda de forma progresiva.

Modelo de funcionamiento de Google AI Mode
Por el momento, esta experiencia visual conversacional está siendo desplegada en inglés en EE. UU. para usuarios de AI Mode.
Artículo original por Noelia Fraguela | 02 Octubre 2025 | Marketing4eCommerce