J’ai l’impression que ce texte a été écrit en n’envisageant que des scénarios trop optimistes, alors qu’aucun n’est simple.
Il arrive souvent que l’effort et le temps nécessaires pour gagner seulement 1 %, de 90 % à 91 %, soient plus importants que ceux requis pour atteindre les 90 % au départ.
Personnellement, plus que l’arrivée d’une IA puissante, ce qui m’inquiète davantage, c’est que les gens accordent de plus en plus une immense confiance à des résultats d’IA auxquels ils ne devraient pas se fier.
Même ici, dans de courts commentaires, il y a des gens qui écrivent d’une façon telle qu’on ne comprend pas eux-mêmes ce qu’ils veulent dire, et d’autres qui disent : « J’ai demandé à une IA et voilà ce qu’elle m’a répondu », comme si c’était forcément vrai.
On dirait qu’il faut continuer à réfléchir à la meilleure manière de bien l’utiliser. Je pense qu’abandonner l’IA pour développer, c’est prendre peu à peu du retard.
L’auteur de cet article utilisait déjà de bonnes méthodes, mais malgré cela, je pense qu’il faut encore réfléchir à la façon de mieux exploiter l’IA.
(Il y a simplement encore beaucoup d’essais et d’erreurs...)
Elle a bien repris les diffusions, mais elle a changé de nom pour Hoshino Rina et montre simplement ses contributions open source indépendantes en stream.
Récemment, elle travaillait à faire en sorte que Spout2, une appli ? bibliothèque ? de diffusion en direct, fonctionne bien sous Linux.
Personnellement, j’ai l’impression qu’avec seulement des connaissances en CS, il n’y a pas une si grande différence.
Ou alors c’est peut-être parce que la façon dont je l’utilise actuellement me donne l’impression de faire du pair programming avec un collègue qui tape extrêmement vite et écrit tout le code à ma place...
Si l’on fait l’effort d’analyser et de comprendre le code qu’il produit, cela devrait aller.
Le compilateur relève d’un concept un peu différent : comme il génère de l’assembleur de manière déterministe sur la base de règles, une fois le problème vérifié il ne se reproduit généralement pas ensuite. Mais les LLM relèvent d’un domaine probabiliste, donc il reste une possibilité que le problème se reproduise.
Peut-être qu’avec les progrès de cette précision probabiliste, on se rapprochera des 100 %, mais si la demande en langage naturel elle-même est imprécise, le résultat finira lui aussi par l’être ; au fond, j’ai l’impression qu’un bon livrable final dépend malgré tout de l’humain.
Au final, quand on développe en profondeur, il arrive forcément un moment où il faut comprendre ce qu’il y a à l’intérieur des couches d’abstraction
l’écart entre les prompts en langage naturel et le code généré est trop grand, donc il semble difficile, à partir du prompt, d’entrer à l’intérieur de la couche d’abstraction du LLM
À l’heure actuelle, on transmet au LLM, via un prompt, le concept de la spécification qu’on avait en tête, puis on relit le code produit pour le vérifier
ça se rapproche davantage d’une revue de code écrit par quelqu’un d’autre, donc je n’ai pas vraiment l’impression d’entrer à l’intérieur de l’abstraction
Je le savais déjà avant même que cette annonce n’apparaisse.
Parce que j’avais déjà reçu une alerte de ma montre indiquant une suspicion d’hypertension… snif snif
Je dois faire de l’exercice. Tout le monde.
Moi aussi, je m’inquiète pour les profils juniors qui côtoient les LLM depuis leurs années d’études. J’ai aussi l’impression que le vivier de recrutement junior s’est un peu dégradé, mais c’est encore difficile à prouver…
L’auteur continue d’utiliser les LLM de manière limitée pour certaines tâches (environ 40 %)
À en juger par ce qui est écrit ci-dessus, il semble que l’auteur ne défende pas non plus l’idée d’abandonner complètement l’IA.
Merci ! Je vais le lire avec attention.
Ce titre putaclic est agaçant.
J’ai l’impression que ce texte a été écrit en n’envisageant que des scénarios trop optimistes, alors qu’aucun n’est simple.
Il arrive souvent que l’effort et le temps nécessaires pour gagner seulement 1 %, de 90 % à 91 %, soient plus importants que ceux requis pour atteindre les 90 % au départ.
Personnellement, plus que l’arrivée d’une IA puissante, ce qui m’inquiète davantage, c’est que les gens accordent de plus en plus une immense confiance à des résultats d’IA auxquels ils ne devraient pas se fier.
Même ici, dans de courts commentaires, il y a des gens qui écrivent d’une façon telle qu’on ne comprend pas eux-mêmes ce qu’ils veulent dire, et d’autres qui disent : « J’ai demandé à une IA et voilà ce qu’elle m’a répondu », comme si c’était forcément vrai.
On dirait qu’il faut continuer à réfléchir à la meilleure manière de bien l’utiliser. Je pense qu’abandonner l’IA pour développer, c’est prendre peu à peu du retard.
L’auteur de cet article utilisait déjà de bonnes méthodes, mais malgré cela, je pense qu’il faut encore réfléchir à la façon de mieux exploiter l’IA.
(Il y a simplement encore beaucoup d’essais et d’erreurs...)
J’ai l’impression que le cours de l’action va encore monter.....
Elle a bien repris les diffusions, mais elle a changé de nom pour Hoshino Rina et montre simplement ses contributions open source indépendantes en stream.
Récemment, elle travaillait à faire en sorte que Spout2, une appli ? bibliothèque ? de diffusion en direct, fonctionne bien sous Linux.
C’est assez étonnant qu’il y ait eu une mise à jour, quelle qu’elle soit.
Personnellement, j’ai l’impression qu’avec seulement des connaissances en CS, il n’y a pas une si grande différence.
Ou alors c’est peut-être parce que la façon dont je l’utilise actuellement me donne l’impression de faire du pair programming avec un collègue qui tape extrêmement vite et écrit tout le code à ma place...
J’ai l’impression que c’est Claude qui fait 100 % du boulot ? C’est quoi ce délire ?
Je ne sais pas si c’est un rapport ou un roman. Il y a dix ans, c’était clairement de la science-fiction.
Waouh... il bénéficie d’un support pendant vraiment longtemps.
Si l’on fait l’effort d’analyser et de comprendre le code qu’il produit, cela devrait aller.
Le compilateur relève d’un concept un peu différent : comme il génère de l’assembleur de manière déterministe sur la base de règles, une fois le problème vérifié il ne se reproduit généralement pas ensuite. Mais les LLM relèvent d’un domaine probabiliste, donc il reste une possibilité que le problème se reproduise.
Peut-être qu’avec les progrès de cette précision probabiliste, on se rapprochera des 100 %, mais si la demande en langage naturel elle-même est imprécise, le résultat finira lui aussi par l’être ; au fond, j’ai l’impression qu’un
bonlivrable final dépend malgré tout de l’humain.Au final, quand on développe en profondeur, il arrive forcément un moment où il faut comprendre ce qu’il y a à l’intérieur des couches d’abstraction
l’écart entre les prompts en langage naturel et le code généré est trop grand, donc il semble difficile, à partir du prompt, d’entrer à l’intérieur de la couche d’abstraction du LLM
À l’heure actuelle, on transmet au LLM, via un prompt, le concept de la spécification qu’on avait en tête, puis on relit le code produit pour le vérifier
ça se rapproche davantage d’une revue de code écrit par quelqu’un d’autre, donc je n’ai pas vraiment l’impression d’entrer à l’intérieur de l’abstraction
Appareils compatibles
Apple Watch Series 9 et modèles ultérieurs, ou Apple Watch Ultra 2 et modèles ultérieurs.
Je le savais déjà avant même que cette annonce n’apparaisse.
Parce que j’avais déjà reçu une alerte de ma montre indiquant une suspicion d’hypertension… snif snif
Je dois faire de l’exercice. Tout le monde.
J’ai l’impression qu’OpenAI ne sait toujours pas vraiment quelle direction prendre.
C’est juste le retour de Ddiyong Broadcast, non ? Mais c’est quoi cette équipe sans Hongcheol…
Kimi, annonce de Kimi K2.5, un modèle agentique visuel open source SOTA
Consultez également la version avec résumé IA
Moi aussi, je m’inquiète pour les profils juniors qui côtoient les LLM depuis leurs années d’études. J’ai aussi l’impression que le vivier de recrutement junior s’est un peu dégradé, mais c’est encore difficile à prouver…