J’ai l’impression qu’on peut désormais progresser bien plus vite qu’avant sur des technologies qu’on n’avait jamais utilisées ou dans des domaines qu’on n’avait jamais explorés.
https://ruby-news.kr/articles/…
Un résumé de mon côté pour le service que je développe. C’est une traduction, donc c’est similaire, mais GeekNews est un peu mieux structuré et plus agréable à lire.
D’après mon expérience avec Claude Code, j’ai eu moins l’impression qu’un agent développait à ma place que celle d’externaliser uniquement la partie du processus de développement où l’on tape effectivement le code.
La conception doit souvent être faite par un humain, et les consignes doivent être données de façon suffisamment détaillée pour que n’importe qui puisse les suivre telles quelles, donc c’était assez différent de ce que j’avais entendu.
Cela dit, je l’utilise avec satisfaction. Même si ça ne réduit pas énormément ma charge de travail, le fait de pouvoir faire autre chose ou donner des instructions à une autre IA pendant qu’elle travaille m’a aidé à gagner du temps.
Si vous utilisez Claude Code, je vous recommande d’inclure dans le prompt des mots-clés d’inférence prédéfinis comme think deeply ou ultrathink, puis de passer en plan mode avec Shift+Tab pour travailler ainsi.
Si les LLM sont vraiment devenus utiles mais que quelqu’un les dénigre et les évite volontairement sans même les avoir essayés, le problème vient de cette personne,
mais la qualité actuelle des services grand public est à un niveau où ils sont difficiles à utiliser.
J’ai essayé les modèles payants de services connus comme Perplexity, GPT ou Gemini, mais au final ils se valent tous.
Même quand on cherche soi-même les sources, qu’on ajoute des liens et qu’on leur mâche le travail avec les données nécessaires, ils ne les lisent même pas correctement, inventent du contenu et répètent seulement des affirmations erronées.
Ils ont aussi tous une forme d’entêtement absurde : une fois qu’ils commencent à soutenir une affirmation fausse, il devient impossible de les corriger. Il est simplement plus rapide de jeter toute la conversation et de recommencer de zéro.
Honnêtement, c’est agaçant de se chamailler avec un truc pareil. Ça ne comprend pas ce qu’on lui dit.
Pendant ce temps-là, il est plus rapide d’aller chercher soi-même la documentation, de trouver la réponse et de corriger directement.
J’ai aussi essayé plusieurs services de type Copilot pour en choisir un, mais j’ai fini par tous les abandonner.
Ils sont bons pour des tâches au niveau du snippet, mais il est difficile d’en attendre davantage. Dans ce cas, à quoi bon partager ses données et utiliser un service connecté à un Internet d’une lenteur exaspérante ? Autant enregistrer quelques snippets de plus.
Ceux qui disent avoir eu une bonne expérience, je ne sais pas quels services ils ont utilisés ni pour des tâches de quelle complexité.
Quand VisiCalc, Lotus 1-2-3 et ce genre de choses sont sortis, il y avait encore des gens qui faisaient leurs calculs au boulier ou à la calculatrice... Il existe un décalage temporel plus grand qu’on ne le pense dans la manière dont le grand public perçoit concrètement ces évolutions.
Pour des points mineurs, certaines entreprises utilisent des applications d’authentification push comme DUO (connexion à Okta/Jira, approbation des pull requests, etc.), donc j’imagine que sur ce type d’OS non officiel, il y aurait des restrictions d’installation et d’utilisation. Bien sûr, on peut contourner le problème en utilisant deux téléphones, mais...
C’est vrai hier comme aujourd’hui.
De façon similaire, en portant une bibliothèque de codecs sur ARM, j’ai commencé par dérouler un à un les kernels écrits en SSE, et une fois tout déroulé et avec seulement la version scalaire restante, quand j’ai lancé des benchmarks en conditions réelles, l’écart de performances était significatif.
J’ai l’impression qu’on peut désormais progresser bien plus vite qu’avant sur des technologies qu’on n’avait jamais utilisées ou dans des domaines qu’on n’avait jamais explorés.
C’est quoi ce...
Manger, ça cale.
On en est à dire des évidences.
https://github.com/smtg-ai/claude-squad
Cela semble également similaire à cet open source.
La réalité
Pro & Max : pas assez de tokens, même pour faire tourner une seule session
API à la consommation : tu crois vraiment pouvoir encaisser ça ?
https://ruby-news.kr/articles/…
Un résumé de mon côté pour le service que je développe. C’est une traduction, donc c’est similaire, mais GeekNews est un peu mieux structuré et plus agréable à lire.
Il doit probablement y avoir des options incluses.
C’est génial !
ce sont ces phrases qui m'ont marqué~
Ça donne l'impression de « prendre ce qu'on ferait tranquillement sur 5 jours, retirer une journée et essayer de le faire de façon plus intensive ».
Je pense qu'il existe sans doute des types d'organisations où cela pourrait être mis en place, haha..
D’après mon expérience avec Claude Code, j’ai eu moins l’impression qu’un agent développait à ma place que celle d’externaliser uniquement la partie du processus de développement où l’on tape effectivement le code.
La conception doit souvent être faite par un humain, et les consignes doivent être données de façon suffisamment détaillée pour que n’importe qui puisse les suivre telles quelles, donc c’était assez différent de ce que j’avais entendu.
Cela dit, je l’utilise avec satisfaction. Même si ça ne réduit pas énormément ma charge de travail, le fait de pouvoir faire autre chose ou donner des instructions à une autre IA pendant qu’elle travaille m’a aidé à gagner du temps.
Si vous utilisez Claude Code, je vous recommande d’inclure dans le prompt des mots-clés d’inférence prédéfinis comme
think deeplyouultrathink, puis de passer en plan mode avec Shift+Tab pour travailler ainsi.Mdr
Si les LLM sont vraiment devenus utiles mais que quelqu’un les dénigre et les évite volontairement sans même les avoir essayés, le problème vient de cette personne,
mais la qualité actuelle des services grand public est à un niveau où ils sont difficiles à utiliser.
J’ai essayé les modèles payants de services connus comme Perplexity, GPT ou Gemini, mais au final ils se valent tous.
Même quand on cherche soi-même les sources, qu’on ajoute des liens et qu’on leur mâche le travail avec les données nécessaires, ils ne les lisent même pas correctement, inventent du contenu et répètent seulement des affirmations erronées.
Ils ont aussi tous une forme d’entêtement absurde : une fois qu’ils commencent à soutenir une affirmation fausse, il devient impossible de les corriger. Il est simplement plus rapide de jeter toute la conversation et de recommencer de zéro.
Honnêtement, c’est agaçant de se chamailler avec un truc pareil. Ça ne comprend pas ce qu’on lui dit.
Pendant ce temps-là, il est plus rapide d’aller chercher soi-même la documentation, de trouver la réponse et de corriger directement.
J’ai aussi essayé plusieurs services de type Copilot pour en choisir un, mais j’ai fini par tous les abandonner.
Ils sont bons pour des tâches au niveau du snippet, mais il est difficile d’en attendre davantage. Dans ce cas, à quoi bon partager ses données et utiliser un service connecté à un Internet d’une lenteur exaspérante ? Autant enregistrer quelques snippets de plus.
Ceux qui disent avoir eu une bonne expérience, je ne sais pas quels services ils ont utilisés ni pour des tâches de quelle complexité.
On va donc vieillir plus vite.
On pensait généralement que la vitesse de rotation ralentissait peu à peu, donc c’est un sacré retournement de situation.
Je suis moi aussi passé de pip à uv, et franchement rien que pour la vitesse, ça vaut le coup de changer.
L’époque du Covid, quand on travaillait 6 heures par jour, me manque 😢
Quand VisiCalc, Lotus 1-2-3 et ce genre de choses sont sortis, il y avait encore des gens qui faisaient leurs calculs au boulier ou à la calculatrice... Il existe un décalage temporel plus grand qu’on ne le pense dans la manière dont le grand public perçoit concrètement ces évolutions.
« Si on renonce à respirer pendant une heure, le taux de survie baisse. »
« La satiété augmente au moment des repas. »
Pour des points mineurs, certaines entreprises utilisent des applications d’authentification push comme DUO (connexion à Okta/Jira, approbation des pull requests, etc.), donc j’imagine que sur ce type d’OS non officiel, il y aurait des restrictions d’installation et d’utilisation. Bien sûr, on peut contourner le problème en utilisant deux téléphones, mais...
C’est vrai hier comme aujourd’hui.
De façon similaire, en portant une bibliothèque de codecs sur ARM, j’ai commencé par dérouler un à un les kernels écrits en SSE, et une fois tout déroulé et avec seulement la version scalaire restante, quand j’ai lancé des benchmarks en conditions réelles, l’écart de performances était significatif.
Ah… donc les informations sont dans
.env, et c’est.env.schemaqui les lit.