Pocket occupait, je pense, une place symbolique parmi les services de sauvegarde de lecture, mais il va donc s’arrêter. C’est dommage.

 
humblebee 2025-05-23 | commentaire parent | dans: Anthropic lance Claude 4 (anthropic.com)

Il est écrit qu’il a effectué du refactoring sans interruption pendant 7 heures ; si la qualité est au rendez-vous, on peut même imaginer un niveau de prestation externalisée haut de gamme qu’un développeur lui confie en partant du bureau, puis révise le lendemain 😂

 

On tient au maximum avec la vectorisation NumPy, et si ça ne suffit pas, on branche un GPU et on passe à CuPy ou Torch ; si ça ne suffit toujours pas, on écrit du natif avec Cython… mais à mon avis, mieux vaut éviter le natif autant que possible. C’est difficile.

 

En substance, c’est une défaite totale d’Apple.

 

Tant que l’on respecte bien les délais et les exigences, au moment de coder, qu’on ait utilisé l’IA ou qu’on ait joué les durs en n’utilisant même pas d’IDE et seulement le Bloc-notes, ce n’est pas très important.

 

Je vous ai envoyé un e-mail. Merci.

 

C’est encore une fonctionnalité optionnelle, et il est très probable que le multithreading reste une option. ( l’activer, faire une installation séparée, etc. )
Moi non plus je n’utilise pas beaucoup Type, et je pense que je n’emploierai le free-threading que de manière très limitée à cause des enjeux de performance.

 

Mais quel avenir ont-ils donc entrevu pour faire un tel choix…

 

L’une des grandes raisons de la popularité de Python, c’est justement qu’il n’était pas nécessaire de prendre en compte ce genre de considérations liées au multithreading. S’il faut aller jusque-là, cela risque de devenir un langage que le grand public ne pourra plus utiliser facilement.

 

Le free threading de Python, ça n’a vraiment pas l’air d’être une mince affaire. Ça donne l’impression d’ouvrir la boîte de Pandore. Il y a un risque que toutes sortes de bugs de synchronisation jusque-là cachés se mettent à proliférer. Et en plus, qu’ils n’explosent qu’occasionnellement à l’exécution. Les problèmes déjà pénibles en développement multithread pourraient maintenant devenir un vrai sujet aussi en Python. Rien qu’en regardant la famille du C, l’utilisation de fonctions qui ne sont pas thread-safe poserait immédiatement problème.

 

Il y en avait déjà un autrefois. M Editor, par exemple…
https://www.edm2.com/index.php/Microsoft_Editor

 

Oh... !

 

Quand je considérais ça comme une simple nouvelle technologie, je ne la regardais qu’avec une curiosité mêlée d’intérêt,
mais maintenant que des employeurs s’en servent réellement pour procéder à des embauches et à des baisses de salaire, je ne me sens pas vraiment bien à ce sujet..

 

J’ai l’impression qu’on est encore dans une phase de transition, donc toutes sortes de péripéties continuent de se produire.
Ça pourrait s’améliorer à l’avenir, ou rester comme ça durablement, donc ce sera intéressant de voir comment tout cela évolue, haha.

 

Oups... on dirait que 9to5mac bloque complètement l’accès des bots.
J’ai donc fait un résumé manuel. Je continue à ajuster le prompt, mais pour l’instant il fait environ 4�000 caractères (800 tokens).

 

J’ai contribué à la traduction personnalisée, au chargeur de fichiers Excel, aux listes virtuelles, etc. J’espère qu’il sera aussi largement utilisé en Corée. ^^

 

J’utilise Gemini sur GitHub pour faire relire des PR, et ça m’arrive assez souvent exactement ce genre de cas.
Par exemple, il me dit d’ajouter exactement la ligne juste au-dessus en prétendant que j’utilise une valeur sans vérification de null, alors qu’il y a déjà une vérification de null à la ligne juste au-dessus.

 

On ne peut pas forcément tout écrire dans un prompt — les connaissances de contexte qu’une personne acquiert naturellement en travaillant, les habitudes de travail, les résultats attendus et leur format.
Et même si c’était possible, je me dis aussi qu’au lieu de recourir à une IA complexe comme un LLM, il serait peut-être plus réaliste d’automatiser cela avec des algorithmes traditionnels d’avant le deep learning.

 

C’est assez drôle
Indépendamment de l’erreur, la qualité des résumés de GeekNews est bonne, donc je suis toujours curieux de connaître le prompt

 

À l’usage, le vibe coding et les agents de codage ont clairement des côtés pratiques, mais pour que ce soit vraiment pratique, il faut envoyer des prompts extrêmement précis, et selon la nature du projet, il y en a beaucoup pour lesquels ça ne fonctionne pas très bien dès le départ. Quand les fonctionnalités sont proprement découpées en petits morceaux simples, comme sur un serveur web en architecture MSA, ça travaille bien, mais si on essaie de corriger avec l’IA des modules imbriqués dans un gros monolithe, avec beaucoup de dépendances et une logique complexe, il faut établir un plan de tâches très rigoureux et envoyer des prompts très soignés.