12 points par xguru 4 일 전 | 1 commentaires | Partager sur WhatsApp
  • Agent de codage IA minimaliste développé par l’équipe Princeton·Stanford à l’origine de SWE-bench et SWE-agent
  • Agent d’ingénierie logicielle IA ultraléger d’environ 100 lignes de code Python, fonctionnant sans énormes fichiers de configuration ni monorepo
  • Utilise uniquement bash comme outil et reste compatible avec n’importe quel modèle, même sans interface de tool-calling du LLM
  • Plus de 74 % sur le benchmark SWE-bench verified, avec le même niveau également observé avec Gemini 3 Pro
  • Exécute chaque action de façon indépendante via subprocess.run, ce qui évite d’avoir besoin d’une session shell persistante ; lors d’un passage à Docker, la simplicité se limite à remplacer par docker exec
  • Structure d’historique entièrement linéaire : la trajectoire et les messages transmis au LLM sont identiques, ce qui la rend idéale pour le débogage et le fine-tuning
  • Prend en charge le déploiement dans divers environnements sandboxés, notamment en local, Docker/Podman, Singularity/Apptainer, Bubblewrap, Contree
  • Prend en charge tous les modèles via litellm, openrouter, portkey, avec compatibilité /completion, /response et interleaved thinking
  • Adopté chez Meta, NVIDIA, IBM, Essential AI, Nebius, Anyscale, Princeton·Stanford et d’autres
  • Démarre bien plus vite que Claude Code et peut servir de baseline pour évaluer les performances propres du LLM sans surapprentissage au scaffold de l’agent
  • Fournit un CLI (mini), l’inférence par lots, un navigateur de trajectoires et des bindings Python (DefaultAgent, LitellmModel, LocalEnvironment)
  • Licence MIT

1 commentaires

 
ragingwind 3 일 전

Le développement direct d’agents devient plus simple, désormais.