10 points par xguru 2026-01-24 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Un framework conçu pour exploiter de manière fiable des agents IA et des workflows en environnement de production
  • Le développement a commencé en octobre 2024, et le projet a évolué pendant environ 15 mois ; des centaines d’équipes ont utilisé la bêta en production
  • Déjà utilisé par des entreprises comme Replit, PayPal et Sanity
  • Après plusieurs mois d’exploitation stable à grande échelle en production, l’équipe estime que la sortie de la version 1.0 est désormais possible
    • Le projet a atteint un niveau de maturité suffisant pour figer l’API
  • Les nouveaux projets peuvent être générés via la CLI avec la configuration par défaut de la 1.0, tandis que les projets existants peuvent être migrés automatiquement via un codemod

Changements de la 1.0

  • Pour un usage en production, l’accent a été mis sur des changements structurels visant à réduire la complexité du déploiement et de l’exploitation
  • Server Adapter :
    • Expose automatiquement les agents, workflows, outils et serveurs MCP sous forme d’endpoints HTTP
    • Permet d’intégrer directement Mastra dans des serveurs Express, Hono, Fastify ou Koa existants
    • Supprime la charge liée à l’exploitation d’un processus serveur dédié à Mastra
  • Composite Storage :
    • Fait évoluer l’architecture d’un stockage unique vers une configuration de stockage par domaine
    • Permet de séparer la mémoire, les workflows, les scores et les données d’observabilité sur différents backends
    • Prend en charge une intégration sélective avec l’infrastructure existante, comme Postgres, LibSQL ou ClickHouse
    • Permet de localiser les problèmes de coût, de latence et de scalabilité au niveau de chaque domaine
  • Prise en charge de l’AI SDK v6
    • Prise en charge de LanguageModelV3 et de ToolLoopAgent
    • Compatibilité descendante complète avec les modèles V1 et V2 existants
    • Normalisation du format interne tout en conservant les informations sur les tokens de raisonnement et les tokens d’entrée mis en cache

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.