Small 3.1, le petit modèle de Mistral AI est très costaud !

paultensor
Lecture en 1 min
À propos des liens affiliés : Sur ce site, certains liens sont affiliés. Cela signifie que si vous cliquez et effectuez un achat, je peux recevoir une petite commission, sans frais supplémentaires pour vous. Je m’engage à recommander uniquement des produits et services que j’ai testés ou qui reflètent des standards de qualité élevés. Ces contributions me permettent de maintenir ce site et de continuer à partager du contenu qui vous est utile. Merci pour votre confiance et votre soutien !

La pépite française de l’intelligence artificielleintelligence artificielle (IA), MistralMistral AI, vient se frotter à nouveau à OpenAI et GoogleGoogle en dévoilant son nouveau modèle Mistral Small 3.1. Selon Mistral AI, ce modèle open-source serait plus performant, plus rapide et polyvalent que ses concurrents. Alors que Google vient de présenter Gemma 3, une IA frugale en énergieénergie et limitée à 27 milliards de paramètres au maximum, Small 3.1 dispose seulement de 24 milliards de paramètres. Le modèle se veut multimodal et multilingue.

Petit mais très costaud

L’IA est également étonnamment rapide, elle saurait générer 150 jetonsjetons par seconde et peut accepter à 128 000 jetons, tout comme Gemma 3. Une telle vitessevitesse est en général associée à un très petit modèle doté de moins de 10 milliards de paramètres. Là encore, comme Gemma 3, Small 3.1 est conçu pour fonctionner à partir de ressources limitées. Il serait capable de tourner en utilisant un seul GPUGPU RTX 4090. Le modèle open-source est disponible sur Hugging Face.

 

Partager cet article