Mistral Large
Mistral 7B est un puissant modèle de langage avec 73B de paramètres qui surpasse les autres modèles sur divers benchmarks. Il peut être facilement affiné pour différentes tâches et est disponible sous la licence Apache 2.0.
Listé dans les catégories:
Outils de développementOpen SourceIntelligence artificielleDescription
Mistral 7B est un modèle de langage de 73 milliards de paramètres qui surpasse Llama 2 13B sur tous les benchmarks et se rapproche des performances de CodeLlama 7B sur le code tout en restant performant dans les tâches en anglais. Il utilise l'attention Groupedquery GQA pour une inférence plus rapide et l'attention Sliding Window SWA pour gérer des séquences plus longues à moindre coût.
Comment utiliser Mistral Large?
Téléchargez Mistral 7B sous la licence Apache 2.0 et utilisez-le n'importe où, y compris localement avec l'implémentation de référence. Déployez-le sur n'importe quel cloud (AWS, GCP, Azure) en utilisant le serveur d'inférence vLLM et skypilot. Utilisez-le sur HuggingFace pour finetuner sur n'importe quelle tâche.
Fonctionnalités principales de Mistral Large:
1️⃣
Surpasse Llama 2 13B sur tous les benchmarks
2️⃣
Approche les performances de CodeLlama 7B sur le code
3️⃣
Utilise l'attention Groupedquery GQA pour une inférence plus rapide
4️⃣
Utilise l'attention Sliding Window SWA pour gérer des séquences plus longues
5️⃣
Facile à finetune sur n'importe quelle tâche
Pourquoi pourrait-il être utilisé Mistral Large?
# | Cas d'utilisation | Statut | |
---|---|---|---|
# 1 | Finetuning pour chat | ✅ | |
# 2 | Modèle Mistral 7B Instruct pour instruction | ✅ |
Développé par Mistral Large?
L'équipe Mistral AI est fière de présenter Mistral 7B, le modèle de langage le plus puissant de sa taille à ce jour. Ils ont travaillé dur pour offrir un modèle performant et facile à utiliser pour la communauté.