17 points par GN⁺ 2026-02-27 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Résultats d’une étude analysant les tendances de sélection d’outils de Claude Code sur 2 430 dépôts open source réels
  • Sur 20 catégories au total, dans 12 cas, il a privilégié une approche implémentée en interne (Custom/DIY) plutôt qu’un outil existant, ce qui constitue le type de choix le plus fréquent
  • En revanche, lorsqu’il choisit des outils, il montre une forte concentration sur certains éléments comme GitHub Actions (94 %), Stripe (91 %) et shadcn/ui (90 %)
  • Les environnements de déploiement sont figés selon le langage : pour JS, le choix par défaut est Vercel ; pour Python, Railway ; AWS, GCP et Azure sont exclus des choix de premier rang
  • Plus le modèle est récent, plus la tendance à remplacer par des outils émergents comme Drizzle ou FastAPI BackgroundTasks est nette, avec une cohérence de sélection d’environ 90 % au sein d’un même écosystème

Aperçu de l’étude

  • 2 430 expériences au total ont été menées avec Claude Code v2.1.39 afin d’observer ses choix d’outils via des questions ouvertes sur de vrais dépôts
    • 3 modèles (Sonnet 4.5, Opus 4.5, Opus 4.6), 4 types de projets, 20 catégories d’outils
    • Taux d’extraction de 85,3 %, soit 2 073 réponses valides
  • 90 % de concordance entre les modèles, avec une cohérence de choix maintenue au sein du même écosystème dans 18 catégories sur 20

Principale découverte : Build vs Buy

  • Dans 12 catégories sur 20, l’implémentation Custom/DIY est le choix le plus fréquent
    • 252 choix Custom/DIY au total, davantage que n’importe quel outil pris individuellement
    • Ex. : les feature flags sont implémentés via des fichiers de configuration basés sur des variables d’environnement, l’authentification Python est écrite directement avec JWT + passlib, et le caching utilise un wrapper TTL en mémoire
  • Part du Custom/DIY par catégorie
    • Feature Flags 69 %, Authentication (Python) 100 %, Authentication (global) 48 %, Observability 22 %

Stack par défaut

  • Lorsqu’il sélectionne réellement des outils, Claude Code forme une stack par défaut centrée sur l’écosystème JS
    • Outils les plus choisis : Zustand (64,8 %), Sentry (63,1 %), etc.
    • Dans certains cas, 100 % des choix liés à JS se concentrent sur un outil précis
  • Cette stack par défaut a un impact direct sur le développement d’un grand nombre de nouvelles applications

À contre-courant du marché

  • Parmi les outils à forte part de marché, certains sont presque jamais utilisés par Claude Code
    • Gestion d’état : aucun choix dominant, avec à la place 57 sélections de Zustand
    • Couche API : préférence pour le routing intégré au framework
    • Tests : seulement 4 % de choix principaux, 31 choix alternatifs
    • Gestionnaires de paquets : 1 choix principal, 51 choix alternatifs

Tendance de remplacement dans les modèles récents (The Recency Gradient)

  • Plus le modèle est récent, plus il bascule vers des outils récents
    • JS ORM : Prisma (79 %) → Drizzle (100 %)
    • Traitement des tâches Python : Celery (100 %) → FastAPI BackgroundTasks (44 %)
    • Caching Python : Redis (93 %) → Custom/DIY (50 %)
  • Au sein de chaque écosystème, un remplacement générationnel des outils est clairement observable

Différenciation des environnements de déploiement (The Deployment Split)

  • Les choix de déploiement sont figés selon la stack de langage
    • JS (Next.js + React SPA) : 86 choix sur 86 pour Vercel
    • Python (FastAPI) : Railway choisi dans 82 % des cas
  • AWS, GCP et Azure enregistrent 0 choix principal sur l’ensemble des 112 cas
    • En recommandations alternatives apparaissent Netlify (67 fois), Cloudflare Pages (30 fois), GitHub Pages (26 fois), DigitalOcean (7 fois)
    • AWS Amplify, Firebase Hosting, etc. sont mentionnés sans jamais être recommandés
  • Dans les réponses d’exemple, Vercel est accompagné de la commande d’installation et d’une justification, tandis qu’AWS Amplify ne reçoit qu’une simple mention en une ligne

Zones de désaccord entre modèles (Where Models Disagree)

  • Des écarts entre modèles existent dans 5 catégories sur 20
    • JS ORM : Prisma → Drizzle
    • JS Jobs : BullMQ → Inngest
    • Python Jobs : Celery → FastAPI BgTasks
    • Caching : Redis → Custom/DIY
    • Temps réel : SSE → Custom/DIY
  • Les 18 autres catégories conservent un choix cohérent au sein du même écosystème

Service de benchmark pour les entreprises

  • Amplifying propose un tableau de bord privé destiné aux entreprises d’outils de développement
    • Il permet de vérifier à quelle fréquence les agents IA recommandent leur outil par rapport à ceux des concurrents
    • Il prend en charge l’analyse de la compétitivité des recommandations d’outils à partir de bases de code réelles

Exploration des données

  • Les analyses détaillées incluent notamment des analyses approfondies par catégorie, la stabilité des formulations, la cohérence entre dépôts et l’impact sur le marché
  • Les résultats de l’étude doivent être mis à jour ultérieurement sur la base du modèle Sonnet 4.6

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.