qwertypotter 25 일 전 | commentaire parent | dans: Le culte du vibe coding est insensé (bramcohen.com)

Il vaudrait mieux considérer le dogfooding non pas comme une exclusivité, mais comme du « dog pudding ».

 

C’est affreux… Il doit bien y avoir quelque chose de similaire chez nous aussi, non… ?

 

Moi, en ce moment, j’utilise surtout Codex, mais comme je testais aussi quelques autres trucs, j’ai relancé Claude Code…
J’ai l’impression que la consommation de tokens s’est accélérée, non -.- ? C’était un bout de code sans importance, donc ça m’a vraiment surpris.

 

J’aimerais beaucoup que cela évolue avec l’ajout de davantage d’outils pouvant fonctionner de manière plus sûre.

 

Le positionnement, très opportun, comme « backend pour les agents IA » est intéressant. Si on demande à un agent de faire tout le développement full-stack, le gaspillage de tokens risque d’être important, donc j’ai l’impression que ça peut être un peu plus rapide.

Cela dit, la vraie question, c’est... est-ce que c’est vraiment mieux que Supabase MCP ? J’ai l’impression que tout l’enjeu est de savoir jusqu’où l’automatisation pour les agents peut progresser.

 

Compte tenu de l’ampleur des fonctionnalités prises en charge et des exigences de sécurité dans le navigateur, j’estime qu’on peut presque considérer les navigateurs modernes comme des systèmes d’exploitation à eux seuls.
Mais quand même, leur consommation de mémoire est vraiment excessive.

 

Ah, j’ai cru au départ que c’était une actualité ou une information, donc je l’ai lu, mais comme le contenu me paraissait un peu étrange, j’ai laissé un commentaire en me demandant si c’était une pub. Merci pour votre réponse sérieuse.

 

C’est bien. Les personnes qui font du front-end et du design commencent souvent en préparant ce genre de choses à l’avance.

 

Le « taux de victoire » est l’élément clé.
Avec une simple prédiction du mot suivant, on n’arrive même pas à produire des phrases vraiment utiles, encore moins à faire correctement du code ou des maths.
Ce genre de technique date des années 60 à 70.

(À proprement parler, ce ne sont même pas des mots.)

 

C’est un peu ça aussi, oui.
Mais au fond, le modèle lui-même n’est finalement qu’une fonction d’entrée/sortie.
En supposant qu’on dispose d’un harnais approprié et d’une boucle d’agent, il semble alors juste de dire que le modèle atteint l’objectif.

 

Je n’ai jamais affirmé dans le texte original que l’IA pouvait remplacer l’ensemble de l’expertise. Moi non plus, je ne le pense pas...

 

Je suis l’administrateur.
GeekNews vise à partager des actualités et des informations sous diverses formes, et les articles rédigés directement par les utilisateurs sont également autorisés dans une certaine mesure.
Cependant, lorsqu’un même utilisateur publie de façon répétée un domaine spécifique, des restrictions peuvent être appliquées selon les critères en vigueur.
Ce cas également est en cours d’examen et d’ajustement conformément à ces critères.
Certaines mesures peuvent ne pas être visibles depuis l’extérieur.

 

gpt 3 : prédiction du mot suivant -> correct
gpt 3 et les modèles basés sur les transformeurs qui ont suivi : prédiction du mot suivant -> correct.
AlphaGo, AlphaZero, MuZero, ... : prédiction du coup suivant -> correct.
Modèle visant à atteindre un objectif (spécifique) -> correct.

Il n’y a rien d’erroné dans ce qui a été dit.

 

L’ensemble de l’expertise n’est pas remplaçable, non ? Le processus même de création du terme est étrange.

 

C’est confus. Vous plaisantez, ou bien est-ce qu’une nouvelle méthode ou technologie est apparue sans que je le sache ??

 

AlphaGo aussi ne prédit-il pas le coup suivant calculé comme ayant la probabilité de victoire la plus élevée ?????

 

Peut-on résumer cela ainsi : « la prédiction du token suivant » est une description exacte au niveau de l’implémentation, mais incomplète comme manière d’expliquer les capacités ou la finalité du modèle ?

 

Alors, je pense qu’il faudrait trouver un terrain d’entente avec un modèle qui prédit mieux 😄

 

Hum… je me dis qu’il est possible que mon texte ait été perçu autrement que je ne l’avais voulu. Si vous avez eu l’impression, à la lecture de ce message, que je minimisais la valeur technique des LLM, je m’en excuse.

Cela dit, l’intention de ce texte était de retirer l’emballage excessif et la mystification pour regarder les choses avec sang-froid. C’est pourquoi, personnellement, l’expression « un modèle qui atteint des objectifs » me donne l’impression de participer à cette mystification. Au fond, qu’il s’agisse d’un logiciel classique ou d’un modèle, les deux servent aussi à atteindre un certain « objectif ».

J’aimerais donc, par curiosité personnelle, vous reposer la question : l’expression que vous avez employée est-elle vraiment plus exacte d’un point de vue technique ?

 

On a l’impression que tout finit par devenir une pub pour Analytics. Ça paraît plausible, mais au final ça reste une publicité, et j’ai aussi l’impression que l’administrateur de hada.io laisse un peu trop ça à l’abandon.