L’ère des usines à code et le futur du SRE
(article.keeban.io)À l’origine, c’était un modeste texte que je n’avais partagé qu’avec mon entourage, mais comme les retours ont été plutôt bons, je le partage aussi sur Geeknews pour entendre les idées et points de vue d’autres personnes. Si cela vous semble être un article promotionnel, n’hésitez pas à me le signaler !
Résumé
- Les fondements du software engineering sont en train d’être restructurés par la montée fulgurante de l’IA et de l’automatisation. Cette transformation a atteint un niveau irréversible, et les pratiques ainsi que les workflows existants sont en train d’être réévalués en profondeur
- La condition dans laquelle l’IA remplacerait complètement les développeurs humains traditionnels dans l’industrie n’est pas simplement que l’IA écrive mieux le code que les humains, mais qu’une capacité de production autonome de l’IA soit supérieure à la combinaison humain + IA. Cet avenir n’arrivera pas si vite
- Les workflows centrés sur l’humain, les best practices et les modèles de collaboration existants (
TDD, système Git/PR, etc.) doivent être réexaminés à l’ère de l’IA - Ce qu’on peut créer facilement avec le vibe coding n’offre, par définition, que peu d’avantage concurrentiel. Dans les projets sérieux, même avec l’automatisation par l’IA, des processus d’ingénierie fins (gestion du contexte des LLM, automatisation de la validation, gestion du code, etc.) restent essentiels
- Grâce à l’IA, tout le monde peut désormais créer du logiciel, mais l’exploitation réelle des services (SRE/DevOps) reste difficile à automatiser. Vercel/Supabase deviennent coûteux à grande échelle, AWS/Kubernetes sont complexes, et configurer la supervision et les alertes est encore plus difficile
- Plus l’IA accélère l’écriture du code, plus la charge SRE/DevOps/exploitation augmente au contraire. Ce domaine est stateful, le coût des hallucinations y est élevé, et il nécessite le traitement de métriques/logs en temps réel, ce qui se prête mal à une résolution par les seuls LLM
- Intégrer un agent LLM dans une instance EC2 pour le laisser exploiter le système de manière autonome revient à peu près à donner à un LLM de simples instantanés de caméra pour lui demander de faire de la conduite autonome : c’est une idée irréaliste, et une approche plus fondamentale est nécessaire
- Comme pour les niveaux 2→4→5 de la conduite autonome, l’« exploitation autonome » des services nécessite elle aussi une approche technique distincte, un « modèle système », avec des éléments tels que le sensing (logs/métriques) et un world model (architecture virtuelle/simulation de trafic)
Aucun commentaire pour le moment.