5 points par xguru 5 시간 전 | 1 commentaires | Partager sur WhatsApp
  • Harnais d’agents open source tout-en-un qui décompose automatiquement et traite en parallèle, via une orchestration de sous-agents, des tâches complexes de recherche, de développement ou de génération de contenu durant de quelques minutes à plusieurs heures
  • Réécriture complète ne partageant aucun code avec la v1 (framework Deep Research), construite sur LangGraph et LangChain
  • Système de skills extensible : des Agent Skills basés sur des fichiers Markdown sont fournis par défaut pour la recherche, les rapports, les slides, les pages web et la génération d’images/vidéos, avec possibilité d’ajouter, remplacer et combiner des skills personnalisés
  • Les skills utilisent un chargement progressif et ne sont injectés dans le contexte qu’au moment nécessaire, pour un fonctionnement efficace même avec des modèles sensibles au nombre de tokens
  • Fournit un environnement d’exécution sandbox indépendant par tâche — un véritable environnement informatique avec système de fichiers (uploads/workspace/outputs), exécution shell et consultation d’images
    • AioSandboxProvider exécute des conteneurs Docker isolés, tandis que LocalSandboxProvider désactive par défaut le bash de l’hôte
  • Mémoire long terme : stockage persistant local, entre sessions, du profil utilisateur, des préférences et de la stack technique, avec prise en charge du saut automatique des éléments en doublon
  • Context Engineering : contexte isolé par sous-agent, résumés des tâches terminées, déport des résultats intermédiaires vers le système de fichiers, et Strict Tool-Call Recovery pour éviter de dépasser la fenêtre de contexte
  • Intégration de 6 canaux de messagerie instantanée : Telegram, Slack, Feishu/Lark, WeChat, WeCom, DingTalk — démarrage automatique sans IP publique, avec possibilité d’assigner des agents personnalisés par utilisateur selon le canal
  • Prise en charge de l’extension de serveurs MCP (y compris les flux de jetons OAuth), avec intégration directe possible depuis le terminal Claude Code via le skill claude-to-deerflow
  • Configuration terminée en environ 2 minutes grâce à l’assistant interactif make setup, avec prise en charge de divers fournisseurs de LLM comme OpenAI, OpenRouter, vLLM, Codex CLI et Claude Code OAuth
  • Tracing simultané avec LangSmith et Langfuse, et utilisation possible comme bibliothèque sans service HTTP grâce à l’Embedded Python Client
  • Licence MIT

1 commentaires

 
xguru 5 시간 전

Il y a un an, pour la version 1.0, c’était publié sous le nom de https://fr.news.hada.io/topic?id=20886
Avec la 2.0, tout a été entièrement réécrit, donc tout a changé.