31 points par haebom 2025-08-06 | Aucun commentaire pour le moment. | Partager sur WhatsApp

OpenAI a rendu publique la série de modèles GPT-OSS (gpt-oss-120b / gpt-oss-20b) sous licence Apache 2.0. Il s’agit du premier modèle à poids ouverts présenté depuis GPT-2, il y a 6 ans, avec le potentiel de bouleverser le marché à la fois en matière de performances et d’efficacité.

🧠 Caractéristiques clés

  • Modèle 20B : architecture Mixture of Experts (MoE)
     • 4 experts activés sur 128 → réduction du coût d’inférence tout en maintenant les performances
     • prise en charge de FlashAttention, 128k tokens, avec YaRN
  • Modèle 20B : exécutable même dans un environnement GPU de 16 Go (y compris Apple Silicon)

📊 Principales performances de benchmark (sur GPT-OSS-120B)

  • MMLU : 90,0 % (niveau similaire à o4-mini)
  • AIME mathématiques : 97,9 % (parmi les meilleurs en maths + outils)
  • Codeforces Elo : 2622 (également très bien classé en code)
  • HealthBench : performances supérieures à GPT-4o
  • MMMLU (14 langues) : 81,3 % → excellentes capacités de raisonnement multilingue

💡 Usage pratique & écosystème

  • Le modèle 120B peut tourner sur un seul GPU H100 80GB
  • Le modèle 20B peut fonctionner en temps réel même dans un environnement 16GB
  • Compatible immédiatement avec HuggingFace, vLLM, Ollama, etc.

🔐 Sécurité & responsabilité

  • Renforcement de la cohérence du raisonnement basé sur le RL
  • Introduction de Deliberative Alignment
  • Ne génère pas de sorties à haut risque, même en cas de mauvais usage intentionnel

Pendant quelque temps, les moqueries du style « ClosedAI » devraient donc se calmer. Je l’ai testé rapidement, et il se débrouille aussi très bien en coréen.

https://huggingface.co/openai/gpt-oss-120b

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.