OpenAI a rendu publique la série de modèles GPT-OSS (gpt-oss-120b / gpt-oss-20b) sous licence Apache 2.0. Il s’agit du premier modèle à poids ouverts présenté depuis GPT-2, il y a 6 ans, avec le potentiel de bouleverser le marché à la fois en matière de performances et d’efficacité.
🧠 Caractéristiques clés
- Modèle 20B : architecture Mixture of Experts (MoE)
• 4 experts activés sur 128 → réduction du coût d’inférence tout en maintenant les performances
• prise en charge de FlashAttention, 128k tokens, avec YaRN - Modèle 20B : exécutable même dans un environnement GPU de 16 Go (y compris Apple Silicon)
📊 Principales performances de benchmark (sur GPT-OSS-120B)
- MMLU : 90,0 % (niveau similaire à o4-mini)
- AIME mathématiques : 97,9 % (parmi les meilleurs en maths + outils)
- Codeforces Elo : 2622 (également très bien classé en code)
- HealthBench : performances supérieures à GPT-4o
- MMMLU (14 langues) : 81,3 % → excellentes capacités de raisonnement multilingue
💡 Usage pratique & écosystème
- Le modèle 120B peut tourner sur un seul GPU H100 80GB
- Le modèle 20B peut fonctionner en temps réel même dans un environnement 16GB
- Compatible immédiatement avec HuggingFace, vLLM, Ollama, etc.
🔐 Sécurité & responsabilité
- Renforcement de la cohérence du raisonnement basé sur le RL
- Introduction de Deliberative Alignment
- Ne génère pas de sorties à haut risque, même en cas de mauvais usage intentionnel
Pendant quelque temps, les moqueries du style « ClosedAI » devraient donc se calmer. Je l’ai testé rapidement, et il se débrouille aussi très bien en coréen.
Aucun commentaire pour le moment.