- Claude Opus 4.6 et Sonnet 4.6 prennent désormais en charge une fenêtre de contexte de 1 million de tokens (1M) au tarif standard, avec accès à toute la plage sans surcoût premium
- La tarification reste inchangée : Opus 4.6 est à $5/$25, Sonnet 4.6 à $3/$15 (entrée/sortie), avec la même facturation proportionnelle pour une requête de 9K comme de 900K
- La limite d’entrées multimédias est multipliée par 6, permettant de traiter jusqu’à 600 images ou pages PDF en une fois, avec disponibilité immédiate aussi sur Azure Foundry et Google Vertex AI
- Les utilisateurs Max, Team et Enterprise de Claude Code peuvent utiliser automatiquement le contexte 1M, avec moins de compression de session et une meilleure continuité des conversations
- La fonctionnalité est présentée comme un moyen d’améliorer précision et efficacité tout en conservant des contextes longs et complexes, comme de grandes bases de code, des contrats ou des journaux d’exploitation
Aperçu de la disponibilité générale du contexte 1M
- Opus 4.6 et Sonnet 4.6 proposent une fenêtre de contexte 1M sur Claude Platform au tarif standard
- Opus 4.6 coûte $5 en entrée / $25 en sortie par million de tokens, Sonnet 4.6 $3/$15
- Aucun tarif différencié selon la taille de la requête
- Suppression du premium pour les longs contextes, avec le même débit à toutes les longueurs de contexte
- Limite d’entrées multimédias multipliée par 6 : prise en charge de jusqu’à 600 images ou pages PDF
- Aucun en-tête bêta requis, les requêtes de plus de 200K tokens étant traitées automatiquement
Intégration à Claude Code
- Le contexte 1M s’active automatiquement lors de l’utilisation d’Opus 4.6 dans les offres Max, Team et Enterprise de Claude Code
- Réduction de la compression de conversation (compaction) au sein d’une session
- Auparavant, cela nécessitait un usage supplémentaire ; c’est désormais inclus par défaut
Performances et précision du modèle
- Opus 4.6 atteint 78,3 % sur MRCR v2, soit la meilleure performance parmi les modèles de même longueur de contexte
- La précision est maintenue même avec un contexte 1M, avec de meilleures performances de recherche sur de longs textes
- De grandes bases de code, des contrats ou des journaux d’agents sur de longues durées peuvent être traités en conservant l’intégralité du contexte
- Conservation de l’ensemble de la conversation sans résumé ni réinitialisation du contexte
Cas d’usage concrets
- Recherche scientifique : analyse intégrée en une fois de centaines d’articles, de cadres mathématiques et de code de simulation (Alex Wissner-Gross)
- Travail juridique : comparaison de plusieurs versions d’un contrat de 100 pages dans une seule session (Bardia Pourvakil)
- Analyse de systèmes d’exploitation : conservation en vue d’ensemble de tous les signaux et hypothèses pendant la réponse à un incident (Mayank Agarwal)
- Recherche en IA et revue de code : traitement en une seule fois de gros fichiers diff pour améliorer la qualité (Adhyyan Sekhsaria)
- Analyse de données et débogage : conservation des détails sans perte lors de recherches dans Datadog, des bases de données et du code source (Anton Biryukov)
- Amélioration de l’efficacité des agents : baisse de 15 % des événements de compression du contexte, avec conservation des informations initiales même dans les longues sessions (Jon Bell)
Plateformes disponibles et prise en main
- Le contexte 1M est disponible immédiatement sur Claude Platform, Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry
- Les utilisateurs Max, Team et Enterprise de Claude Code basé sur Opus 4.6 bénéficient du contexte 1M par défaut
- Les détails sont disponibles dans la documentation officielle et sur la page pricing
Aucun commentaire pour le moment.