Google ha presentado Gemini 1.5, la siguiente generación de su modelo de inteligencia artificial, que introduce una nueva arquitectura con la que puede realizar tareas complejas más rápido al tiempo que ofrece un rendimiento mejorado y capacidades de comprensión y razonamiento mejorados.
Gemini 1.5 funciona con la arquitectura Mixture-of-Experts (MoE), que divide el modelo en pequeñas redes neuronales que actúan como “expertas” y se activan de manera selectiva dependiendo del tipo de información introducida.
MIRA: Hackers vinculados a gobiernos de Rusia, Corea del Norte e Irán usan ChatGPT
Esto permite que Gemini 1.5 pueda aprender tareas complejas con mayor rapidez manteniendo la calidad, mientras su entrenamiento se vuelve más eficiente, como explica Google en su blog oficial.
La compañía ha anunciado que primero lanzará Gemini 1.5 Pro, la variante de tamaño mediano. Está optimizado para escalar en una amplia gama de tareas y funciona a un nivel similar a Gemini 1.0 Ultra (Gemini Advanced), el más grande de Google hasta la fecha.
Gemini 1.5 Pro introduce como novedad la comprensión de contextos largos. Viene con una ventana de contexto estándar de 128.000 tokens, si bien un grupo limitado de desarrolladores y clientes empresariales podrán probarlo con una ventana contextual de hasta un millón de tokens a través de AI Studio y Vertex AI, con el objetivo de mejorar la latencia y la experiencia de usuario y reducir los requisitos computaciones antes de generalizarlo.
Con esa ventana de contexto de un millón de tokens, Gemini 1.5 Pro puede procesar grandes cantidades de información de una sola vez, incluida una hora de vídeo, once horas de audio, bases de código con más de 30.000 líneas de código o más de 700.000 palabras.
Todo esto se traduce en que el modelo tiene capacidades de mejoradas de compresión y razonamiento; analiza, clasifica y resume grandes cantidades de contenido dentro de un mensaje determinado, como apuntan desde Google. Asimismo, puede realizar tareas de resolución de problemas más relevantes en bloques de código más largos.