La startup francesa Mistral AI firmó un asociación a largo plazo con Microsoft desarrollar nueva tecnología de IA generativa y competir con gigantes de la industria como OpenAI y Anthropic. De esta forma, Microsoft tendrá una participación menor en la empresa de IA, que fue creada hace 10 meses y ya está valorado en 2.000 millones de euros.
El acuerdo permite a Mistral AI acceder a la infraestructura de IA de Azure para acelerar el desarrollo y la implementación de sus modelos de lenguajes grandes (LLM) de próxima generación. Gracias a ello, la startup acaba de lanzar al mercado dos nuevos productos: un modelo de lenguaje llamado Mistral grandediseñado para competir con modelos como GPT-4 y Claude 2 en habilidades de razonamiento avanzadas; y Le Chat Mistral, un nuevo asistente conversacional multilingüe basado en los modelos Mistral, aún en versión beta.
Así funciona Mistral Grande
Mistral Grande es un modelo de lenguaje avanzado (LLM) que actualmente está disponible a través de Plateforme y también estará disponible en Azure, “nuestro primer socio de distribución”según explica la misma startup.
La herramienta funciona a través de una API de pago y puede realizar tareas complejas de razonamiento multilingüe, incluida la comprensión, transformación y generación de código de texto. Estos son algunas de sus capacidades:
- Habla con fluidez inglés, francés, español, alemán e italiano a nivel nativo, con una comprensión matizada de la gramática y el contexto cultural.
- Su ventana contextual de 32.000 tokens le permite recuperar información precisa de documentos grandes.
- Su seguimiento preciso de las instrucciones permite a los desarrolladores diseñar sus políticas de moderación (de hecho, se utilizó para configurar la moderación a nivel del sistema de le Chat).
- Es de forma nativa capaz de realizar llamadas a funciones. Esto, junto con el modo de salida restringido, implementado en Plateforme, permite el desarrollo de aplicaciones y la modernización de la pila de tecnología a escala.
Acerca de Le Chat
Junto con Mistral Large, la startup presentó Le Chat, a asistente de chat en versión beta Para trabajar podemos utilizar Mistral Large, Mistral Small o un modelo llamado Mistral Next, diseñado para ser breve y conciso.
Como ya explicamos, Mistral grande es el nuevo modelo de lenguaje insignia diseñado para competir con modelos líderes como GPT-4. Mistral Pequeñopor otro lado, es un modelo optimizado en términos de latencia, coste y velocidad de procesamiento, lo que lo convierte en una solución intermedia. Finalmente, Mistral siguiente Es un prototipo conciso que pretende ser breve y directo en sus respuestas.
Asociación con Microsoft
La asociación entre Mistral AI y Microsoft se basa en tres pilares:
- Microsoft apoyará a Mistral AI con la infraestructura de supercomputación Azure AI. ofreciendo el mejor rendimiento y escalamiento para cargas de trabajo de inferencia y entrenamiento de IA para los modelos emblemáticos de Mistral AI.
- Ambas empresas pondrán el Modelos premium de Mistral AI disponibles para los clientes a través de modelos como servicio (MaaS) en el catálogo de modelos de Estudio de IA de Azure y Aprendizaje automático de Azure. Además de los modelos OpenAI, el catálogo de modelos ofrece una selección diversa de modelos comerciales y de código abierto. La infraestructura optimizada para IA de Azure y las capacidades de nivel empresarial brindan a Mistral AI oportunidades adicionales para promover, vender y distribuir sus modelos a clientes de Microsoft en todo el mundo.
- Investigación y desarrollo de IA: Microsoft y Mistral AI explorarán la colaboración en torno a formación de modelos especialmente diseñados para clientes seleccionados, incluidas las cargas de trabajo del sector público europeo.
Mistral AI: del código abierto a la API de pagos
Mistral AI fue fundada en mayo 2023 por Arturo Mensch (ex ingeniero de DeepMind, el laboratorio de investigación de Google), Guillaume Lampe y Timothée Lacroix, (ex investigadores científicos del Meta) y batió el récord de recolección, alcanzando el estatus de Unicornio en un periodo de 7 meses.
La puesta en marcha funciona a través de grandes modelos de lenguaje (LLM) que requieren mucha potencia de procesamiento informático, al igual que OpenAI, aunque la principal diferencia con este último es que Mistral Históricamente se ha centrado en prototipos de código abierto. De hecho, apenas 4 meses después de su nacimiento, la startup francesa lanzó su primer modelo de lenguaje open source capaz de crear aplicaciones, chatbots y generadores de imágenes, Mistral 7B, y lo puso a disposición de los desarrolladores.
Esto no es así. El nuevo lanzamiento de la startup, Mistral Large, funciona a través de un API de pago con precios basados en el uso. El costo actual es de $8 por millón de tokens de entrada y $24 por millón de tokens de salida, donde la tokenización representa pequeños fragmentos de palabras en el ámbito de la inteligencia artificial del lenguaje.
Mistral AI admite ventanas contextuales de 32.000 tokens de forma predeterminada, lo que le permite procesar más de 20.000 palabras en inglés. Mistral Large es capaz de procesar inglés, francés, español, alemán e italiano.
En comparación, GPT-4 Turbo, con una ventana de contexto de 128.000 tokens, tiene un precio de 10 dólares por millón de tokens de entrada y 30 dólares por millón de tokens de salida. Esto hace que Mistral Large sea 1,25 veces más económico que el GPT-4 Turbo.
Foto: ChatGPT.
Mantente informado de las noticias más relevantes en nuestro canal Telegrama