Il semble que le 505studio du lien latpeed soit mobeah (https://x.com/mobeahmi). Il n’y aurait probablement pas eu de gros problème s’il l’avait simplement publié en disant qu’il l’avait traduit lui-même.

 

S'il n'y a pas des choses comme React ou Vue,
même si on implémente la même fonctionnalité, il faut écrire du code plus complexe, non ?
Surtout quand on gère des pop-ups, ne serait-ce que passer une prop devient bien plus compliqué en pur JavaScript.
Si même quelque chose d'aussi simple rend le code complexe, alors
les fonctionnalités vraiment complexes deviennent difficiles à implémenter.

 

https://godotengine.org/article/godot-showcase-dogwalk/
Une interview sur le blog de Godot, et

https://studio.blender.org/blog/our-workflow-with-blender-and-godot/
un article très intéressant sur la manière dont l’équipe de développement de Blender a mis en place son workflow avec Godot et géré les ressources, que je recommande vivement.

 

https://drive.google.com/file/d/…

Regardez simplement ici sans saisir de numéro.

 

La personne qui a écrit cet article est-elle bien M. Ahn Kwang-seop, représentant de l’entreprise ThreeBlocks.ai ?

 

Pourquoi collectez-vous les numéros de téléphone ?

 

J’aimerais bien le voir, mais le fait de devoir saisir son numéro pour l’obtenir me fait hésiter.

 

Les États-Unis sont tellement vastes que ce genre d’initiative semble possible. C’est intéressant.

 

C’est une bonne nouvelle, haha. J’espère qu’ils ajouteront vite la prise en charge de CUDA pour qu’on puisse aussi faire de l’entraînement à haute vitesse sur Mac~ !

 

Au final, il identifie précisément à l’avance le problème de la manière de fusionner les branches divergentes, puis termine carrément le développement.

 

Autant que les fondamentaux, la présence ou non d’un prototype aussi…
La manière de référencer les fonctions d’ordre supérieur créées aussi…

 

C’est une complexité inévitable. Ce n’est plus un simple HTML basé sur des templates comme avant.

 

Avec un runtime CPU utilisé uniquement pour de l’inférence simple, la situation est un peu meilleure, mais avec les services LLM qu’on demande aujourd’hui, le trafic augmente, la capacité aussi, donc quand on fait le calcul des coûts, ça donne envie de jurer lol

 

Il y a beaucoup de remarques auxquelles on s'identifie.
Les commentaires sont bons aussi, mais quand quelqu'un les organise et les formule ainsi, autrement dit quand il pose le cadre, j'ai l'impression que cela devient plus abouti à travers les objections, le soutien et les compléments qu'on y apporte.

P.-S. Je vois souvent ces derniers temps l'expression « technologie ennuyeuse » ; en anglais, c'est donc boring technology.

 

> À l’inverse, pour des tâches où il s’agit simplement de « faire en sorte que ça fonctionne », utiliser l’IA peut être efficace.

Ce n’est pas propre aux développeurs, mais comme il existe des personnes aux profils très variés, j’ai l’impression que, parmi ceux qui se retrouvent développeurs un peu par hasard et qui n’aiment pas ou redoutent d’écrire ou de lire du code, plus l’état d’esprit est de privilégier le « tant que ça marche » au détriment d’une lecture structurée et systématique ou d’une vision orientée maintenance, plus la dépendance à l’IA, voire une confiance aveugle envers elle, semble forte. Enfin, c’est peut-être juste mon impression.

 

Il existe des paquets dont les dépendances pytorch+cuda ne diffèrent que par la version… c’est assez hallucinant.
Et alors qu’ils n’ont quasiment aucune fonctionnalité, chaque petit daemon installe près de 2 Go de dépendances..

 

Moi aussi, par nécessité, je construis une solution RAG en utilisant 4 GPU H100, ces fameux modèles si difficiles à obtenir. Mais quand on prend en compte non seulement l’investissement matériel direct, mais aussi la facture d’électricité, les coûts d’une solution de refroidissement et le reste, je me suis souvent dit qu’il valait largement mieux simplement appeler une API.

J’ai moi aussi commencé par faire des tests avec Ollama, puis après avoir constaté que cela ne couvrait même pas correctement 3 utilisateurs simultanés, je suis immédiatement passé à vLLM et, tant bien que mal, j’ai mis en place une configuration de solution RAG. Mais rien que pour cela, en partant de l’hypothèse de 10 utilisateurs simultanés, il faut déjà utiliser presque à fond 2 GPU H100. J’ouvre aussi les tâches d’embedding et de recherche avec vLLM, et même avec 4 H100, c’est vraiment très juste. Pourtant, chaque carte dispose d’environ 90 Go de VRAM.

Bien sûr, je ne m’y connais pas vraiment en IA, et comme j’essaie juste de faire quelque chose qui réponde aux besoins de mon service tout en respectant tant bien que mal les règles de sécurité internes, je fonce un peu tête baissée... Mais je me demande si c’est vraiment la bonne approche. C’était ChatGPT Enterprise, non ? Franchement, je trouve que c’est un prix incroyablement avantageux.

 

J’avais moi aussi une idée similaire, mais j’avais du mal à la formuler.
« Modèle mental » est un nom tout à fait approprié. Je devrais l’utiliser de temps en temps.

 

150 dollars de l’heure ? Rien qu’à partir de là, le contrôle des variables part en vrille, mdr hahaha