1 points par brainer 1 시간 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Le codage par IA récent permet de produire rapidement du « code qui s’exécute », mais ne parvient pas encore à créer automatiquement le « bon produit » attendu par l’utilisateur

  • L’auteur voit principalement deux causes à cela

    • le manque de bon sens / de connaissances implicites de l’IA
    • dans l’apprentissage fondé sur le RLVR, une structure où il est plus facile de récompenser le « succès d’exécution du code » que le « bon code / bon produit »
  • Il cite comme exemples l’hallucination autour du MacBook Pro du roi Sejong, un test de station de lavage auto et l’échec de génération d’images de salles de classe / d’élèves coréens, pour montrer que même les modèles les plus récents peuvent manquer des bizarreries qu’un humain repère immédiatement

  • Si la récompense du RLVR appliqué au code est trop centrée sur l’exécution, les LLM peuvent produire un excès de try-except, de fallback et de logique défensive, accumulant ainsi de la dette technique

  • Aux échecs de go, il suffit de gagner ; mais dans le logiciel, l’enjeu n’est pas que « ça tourne à peu près », c’est de créer un produit que les gens veulent et pour lequel ils sont prêts à payer

  • Dans la perspective d’AJI (Artificial Jagged Intelligence) de Karpathy, les points faibles actuels de l’IA se situent du côté du « taste », du sens du produit et du bon sens implicite

  • Anthropic considère aussi que le design et le « taste » restent encore largement pris en charge par les humains, même si les frontières sont en cours de renégociation à mesure que les modèles progressent

  • L’auteur estime qu’à mesure que les modèles passent de GPT-5.4 à GPT-5.5, cet écart va progressivement se réduire

  • À terme, si l’IA acquiert un niveau de sensibilité et de jugement difficile à distinguer de celui d’un humain, elle pourra réussir le test de Turing, et ce moment pourra être considéré comme l’arrivée de l’AGI

Résumé :
Le problème du codage par IA n’est pas qu’elle « ne sait pas coder », mais qu’elle est optimisée pour produire des résultats exécutables sans savoir quel produit les humains veulent réellement. Le rôle actuel des humains est de compenser ce qui manque encore à l’IA en matière de bon sens, de « taste » et de jugement produit.

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.