Google lanza Gemini 1.5 Pro con mejoras de rendimiento y otros avances
El nuevo modelo de próxima generación: Gemini 1.5 es un paso más en el desarrollo del modelo de lenguaje presentado por Google a finales del año pasado. El primer modelo Gemini 1.5 que se lanza para pruebas iniciales es el Gemini 1.5 Pro. Es un modelo multimodal de tamaño mediano, optimizado para escalar en una amplia gama de tareas y funciona a un nivel similar al 1.0 Ultra, nuestro modelo más grande hasta la fecha.
También introduce una característica experimental innovadora en la comprensión de contextos prolongados. En este sentido, Gemini 1.5 Pro viene con una ventana de contexto estándar de 128,000 tokens. A partir de hoy, un grupo limitado de desarrolladores y clientes empresariales pueden probarlo a través de AI Studio y Vertex AI en vista previa privada.
Mejor comprensión y razonamiento
Gemini 1.5 Pro puede realizar tareas de comprensión y razonamiento altamente sofisticadas para diferentes modalidades como:
Analizar con precisión una biblioteca de código completa en un solo mensaje, sin la necesidad de ajustar el modelo, incluida la comprensión y el razonamiento sobre pequeños detalles que un desarrollador podría pasar por alto fácilmente, como errores.
Razonar documentos muy extensos, desde comparar detalles de contratos hasta resumir y analizar temas y opiniones en informes de analistas, estudios de investigación o incluso una serie de libros.
Analizar y comparar contenido a lo largo de horas de video, como encontrar detalles específicos en imágenes deportivas u obtener información detallada de resúmenes de reuniones en video que respalden preguntas y respuestas precisas.
Permitir que los chatbots mantengan conversaciones largas sin olvidar detalles, incluso durante tareas complejas o muchas interacciones de seguimiento.
Habilitar experiencias hiper personalizadas incorporando información relevante del usuario en el mensaje, sin la complejidad de ajustar un modelo.