Google presentó este miércoles Gemini 2.0, el último modelo de IA de la compañía y el “más capaz” hasta el momento, diseñado en la era de los agentes autónomos de IA. Los nuevos avances multimodales “permiten construir agentes que pueden pensar, recordar y tomar acciones guiados por las personas”, indicó en un comunicado.
Basados en todos los adelantos de Gemini 1.0 -lanzado hace un año-, Gemini 2.0 mejora su rendimiento, e incluye nuevas capacidades, como “la generación nativa de imágenes y audio multilingüe y el uso nativo de herramientas inteligentes, que se conectan directamente a productos de Google como el Buscador y hasta puede ejecutar código”.
“Estas funciones hacen posible construir agentes que pueden pensar, recordar, planificar e incluso tomar acciones”, recalca.
De esta forma, Gemini 2.0 impulsará nuevas experiencias de IA en todos los productos de Google, haciéndolos más útiles e intuitivos.
Gemini 2.0: las actualizaciones presentadas hoy por Google
- Gemini 2.0 Flash: esta es la primera versión experimental de los modelos 2.0 que pueden crear o editar imágenes o generar texto en diferentes tonos. Estará disponible para usuarios de Gemini Advanced y desarrolladores en Al Studio y Vertex Al. Más información aquí.
- Proyecto Astra: Google compartió las actualizaciones de su prototipo de investigación de lo que puede ser un asistente universal de IA. Potenciado por Gemini 2.0, Astra combina imágenes, videos y voz en una línea de tiempo de eventos para conversaciones más naturales y una recuperación de información eficiente. Más información aquí.
- Proyecto Mariner: un nuevo prototipo de investigación temprana basado en Gemini 2.0. Mariner reimagina cómo las personas interactúan con la web, combinando las capacidades de comprensión multimodal de Gemini con la interacción web para automatizar tareas y tomar acciones en tu nombre. Más detalles aquí.
- Proyecto Jules: la compañía está explorando cómo agentes de IA pueden apoyar de forma más directa a los desarrolladores. Jules es un agente de código experimental impulsado por IA al que se le puede delegar tareas, como resolver errores y desafíos de codificación. Por el momento, este prototipo estará disponible para un grupo selecto de personas. Más información en aquí.
- Deep Research: se trata de una nueva capacidad para los usuarios de Gemini Advanced que utiliza la IA para explorar temas complejos en nombre de quién lo esté ejecutando, y le proporcione hallazgos en un informe completo. Más información en Esto es Google.
- Nuevas funciones de Android potenciadas por IA que mejoran la accesibilidad, la creatividad y la productividad. Estas innovaciones incluyen descripciones de imágenes más detalladas, toma de notas inteligente, transferencia de archivos sin problemas mediante códigos QR y capacidades mejoradas de escaneo de documentos. Toda la información aquí.