Mistral continue son petit bonhomme de chemin dans l’IA, et cette fois, la startup française ne vise pas seulement à générer du texte qui sonne bien. Avec Magistral, son tout nouveau modèle axé sur le raisonnement, l’idée est de passer à un autre niveau : celui de l’intelligence explicable.
Disponible en deux versions, Magistral Small, open source, et Magistral Medium, pensé pour les entreprises, ce nouveau modèle ne se contente pas de sortir une réponse. Il explique comment il y arrive, étape par étape, dans un raisonnement visible, traçable, et dans plusieurs langues. Autrement dit, fini les réponses magiques sorties du chapeau. Ici, on voit les coulisses.
Et Mistral ne s’arrête pas là : codage, logique, finance, droit, le modèle veut s’imposer là où la rigueur compte. Il promet aussi des réponses jusqu’à 10 fois plus rapides grâce à un mode « Flash Answers » intégré dans Le Chat. Bref, une IA qui pense vite, bien, et qui ne cache pas ses calculs.
Deux versions, deux usages
Mistral propose son nouveau modèle sous deux formes. Magistral Small est disponible gratuitement en open source. Il peut être intégré localement ou dans des solutions sur mesure, comme l’ont déjà fait plusieurs entreprises et institutions. Pour celles qui ont des besoins plus poussés, il existe Magistral Medium, accessible dans Le Chat ou via API sur La Plateforme, avec une couche d’optimisation pour les tâches complexes.
Les deux modèles sont compatibles avec des contextes longs et plusieurs langues, y compris le français. Et comme les précédents modèles de Mistral, ils sont pensés pour être facilement intégrés dans des outils métiers.
Le raisonnement, noir sur blanc
C’est la vraie nouveauté ici. Magistral ne se contente pas de sortir une réponse finale. Il affiche les étapes du raisonnement, avec un découpage logique du cheminement intellectuel. Un peu comme si l’IA pensait à voix haute, mais sans partir dans des justifications floues.
Mistral appelle ça un « Tree of Thought » (un arbre de pensée) : chaque réponse est construite à partir d’un ensemble de sous-étapes visibles, ce qui permet de comprendre comment le modèle est arrivé à sa conclusion. Pour les utilisateurs, c’est un moyen de mieux faire confiance à l’IA, ou au contraire de détecter des erreurs plus facilement.
Codage, logique, finance, droit…
Ce modèle n’est pas là pour discuter de météo ou inventer des histoires de dragons. Mistral vise clairement les usages pro, là où un raisonnement rigoureux est indispensable. Le modèle est capable de :
- résoudre des problèmes de logique ou de mathématiques,
- écrire du code et expliquer chaque ligne,
- analyser des cas concrets en droit ou finance,
- ou encore justifier des choix techniques dans un projet.
On est loin du simple chatbot qui répond à la volée. Ici, l’objectif est de rendre l’IA utile dans des environnements critiques, où les erreurs coûtent cher.
Des réponses plus rapides dans Le Chat
En parallèle, Mistral a ajouté un nouveau mode dans Le Chat, son interface maison : les Flash Answers. Concrètement, certaines réponses sont désormais générées en moins d’une seconde, sans perdre en pertinence.
Ce mode s’appuie sur un traitement parallèle du prompt, une sorte d’optimisation interne qui coupe les temps d’attente. Pratique pour les questions rapides, ou quand on n’a pas besoin de justifications détaillées.
En résumé
Avec Magistral, Mistral montre qu’il ne suffit pas de générer une réponse correcte. Il faut aussi être capable de montrer comment on y arrive. Et c’est probablement là que se jouera la prochaine étape de l’IA : moins d’effet waouh, plus de transparence et de contrôle.
Source : Mistral