> À l’inverse, pour des tâches où il s’agit simplement de « faire en sorte que ça fonctionne », utiliser l’IA peut être efficace.
Ce n’est pas propre aux développeurs, mais comme il existe des personnes aux profils très variés, j’ai l’impression que, parmi ceux qui se retrouvent développeurs un peu par hasard et qui n’aiment pas ou redoutent d’écrire ou de lire du code, plus l’état d’esprit est de privilégier le « tant que ça marche » au détriment d’une lecture structurée et systématique ou d’une vision orientée maintenance, plus la dépendance à l’IA, voire une confiance aveugle envers elle, semble forte. Enfin, c’est peut-être juste mon impression.
Il existe des paquets dont les dépendances pytorch+cuda ne diffèrent que par la version… c’est assez hallucinant.
Et alors qu’ils n’ont quasiment aucune fonctionnalité, chaque petit daemon installe près de 2 Go de dépendances..
Moi aussi, par nécessité, je construis une solution RAG en utilisant 4 GPU H100, ces fameux modèles si difficiles à obtenir. Mais quand on prend en compte non seulement l’investissement matériel direct, mais aussi la facture d’électricité, les coûts d’une solution de refroidissement et le reste, je me suis souvent dit qu’il valait largement mieux simplement appeler une API.
J’ai moi aussi commencé par faire des tests avec Ollama, puis après avoir constaté que cela ne couvrait même pas correctement 3 utilisateurs simultanés, je suis immédiatement passé à vLLM et, tant bien que mal, j’ai mis en place une configuration de solution RAG. Mais rien que pour cela, en partant de l’hypothèse de 10 utilisateurs simultanés, il faut déjà utiliser presque à fond 2 GPU H100. J’ouvre aussi les tâches d’embedding et de recherche avec vLLM, et même avec 4 H100, c’est vraiment très juste. Pourtant, chaque carte dispose d’environ 90 Go de VRAM.
Bien sûr, je ne m’y connais pas vraiment en IA, et comme j’essaie juste de faire quelque chose qui réponde aux besoins de mon service tout en respectant tant bien que mal les règles de sécurité internes, je fonce un peu tête baissée... Mais je me demande si c’est vraiment la bonne approche. C’était ChatGPT Enterprise, non ? Franchement, je trouve que c’est un prix incroyablement avantageux.
J’avais moi aussi une idée similaire, mais j’avais du mal à la formuler.
« Modèle mental » est un nom tout à fait approprié. Je devrais l’utiliser de temps en temps.
J’adore vraiment Django ! Moi aussi, je lui suis redevable à bien des égards et j’en suis très reconnaissant. Django est peut-être un peu moins populaire qu’avant. Mais en y réfléchissant, est-ce que Django a vraiment déjà eu une période où il était particulièrement hot ? Je crois qu’il continuera longtemps à être un framework aimé pour sa stabilité et sa constance !
C’était exactement ce dont j’avais besoin et que j’étais en train de développer, mais ils l’ont fait à ma place... J’utilise Claude Code Max, et c’est un logiciel dont j’avais vraiment besoin pour développer plusieurs projets en même temps.
Je ne peux qu’être assez d’accord sur le problème du gaspillage d’espace disque...
J’exploite AKS, et chaque fois que je vois une appli Python avec une image de conteneur qui dépasse 1 Go, j’ai mal à la tête.
Pour l’instant, je récupère juste le Dockerfile, je réduis moi-même la taille puis je remets en ligne, et si je n’arrive pas à descendre sous les 500 Mo, j’abandonne tout simplement lol
Waouh... ! Le premier projet sur lequel je l’ai utilisé, c’était parce que c’était du Python...
Le temps a bien passé !
J’aimerais bien pouvoir retravailler dans un environnement où je peux l’utiliser à nouveau :) haha
Je devrais peut-être en faire un petit projet perso...
> À l’inverse, pour des tâches où il s’agit simplement de « faire en sorte que ça fonctionne », utiliser l’IA peut être efficace.
Ce n’est pas propre aux développeurs, mais comme il existe des personnes aux profils très variés, j’ai l’impression que, parmi ceux qui se retrouvent développeurs un peu par hasard et qui n’aiment pas ou redoutent d’écrire ou de lire du code, plus l’état d’esprit est de privilégier le « tant que ça marche » au détriment d’une lecture structurée et systématique ou d’une vision orientée maintenance, plus la dépendance à l’IA, voire une confiance aveugle envers elle, semble forte. Enfin, c’est peut-être juste mon impression.
Il existe des paquets dont les dépendances
pytorch+cudane diffèrent que par la version… c’est assez hallucinant.Et alors qu’ils n’ont quasiment aucune fonctionnalité, chaque petit daemon installe près de 2 Go de dépendances..
Moi aussi, par nécessité, je construis une solution RAG en utilisant 4 GPU H100, ces fameux modèles si difficiles à obtenir. Mais quand on prend en compte non seulement l’investissement matériel direct, mais aussi la facture d’électricité, les coûts d’une solution de refroidissement et le reste, je me suis souvent dit qu’il valait largement mieux simplement appeler une API.
J’ai moi aussi commencé par faire des tests avec Ollama, puis après avoir constaté que cela ne couvrait même pas correctement 3 utilisateurs simultanés, je suis immédiatement passé à vLLM et, tant bien que mal, j’ai mis en place une configuration de solution RAG. Mais rien que pour cela, en partant de l’hypothèse de 10 utilisateurs simultanés, il faut déjà utiliser presque à fond 2 GPU H100. J’ouvre aussi les tâches d’embedding et de recherche avec vLLM, et même avec 4 H100, c’est vraiment très juste. Pourtant, chaque carte dispose d’environ 90 Go de VRAM.
Bien sûr, je ne m’y connais pas vraiment en IA, et comme j’essaie juste de faire quelque chose qui réponde aux besoins de mon service tout en respectant tant bien que mal les règles de sécurité internes, je fonce un peu tête baissée... Mais je me demande si c’est vraiment la bonne approche. C’était ChatGPT Enterprise, non ? Franchement, je trouve que c’est un prix incroyablement avantageux.
J’avais moi aussi une idée similaire, mais j’avais du mal à la formuler.
« Modèle mental » est un nom tout à fait approprié. Je devrais l’utiliser de temps en temps.
150 dollars de l’heure ? Rien qu’à partir de là, le contrôle des variables part en vrille, mdr hahaha
J’adore vraiment Django ! Moi aussi, je lui suis redevable à bien des égards et j’en suis très reconnaissant. Django est peut-être un peu moins populaire qu’avant. Mais en y réfléchissant, est-ce que Django a vraiment déjà eu une période où il était particulièrement hot ? Je crois qu’il continuera longtemps à être un framework aimé pour sa stabilité et sa constance !
À la base, les fabricants de composants qui produisent l’équipement prennent rarement bien en charge Lua ou Python. Du C, à la rigueur ?
La personne qui a écrit ce post a cliqué pour pondre des Shorts génériques, puis s’est fait suspendre, c’est ça ? mdr
Je l’utilise beaucoup pour le développement web amateur.
Mesurer l’« impact de l’IA » sur la productivité des développeurs open source expérimentés
() => ❤️
C’était exactement ce dont j’avais besoin et que j’étais en train de développer, mais ils l’ont fait à ma place... J’utilise Claude Code Max, et c’est un logiciel dont j’avais vraiment besoin pour développer plusieurs projets en même temps.
Joyeux anniversaire à Django !
La traduction coréenne se trouve ci-dessous.
https://roy-jung.github.io/250701-history-of-js/
J’aurais aimé qu’on montre par des chiffres à quel point c’est nettement amélioré, performant et précis.
Je me demande en quoi la Corée est différente.
Je ne peux qu’être assez d’accord sur le
problème du gaspillage d’espace disque...J’exploite AKS, et chaque fois que je vois une appli Python avec une image de conteneur qui dépasse 1 Go, j’ai mal à la tête.
Pour l’instant, je récupère juste le Dockerfile, je réduis moi-même la taille puis je remets en ligne, et si je n’arrive pas à descendre sous les 500 Mo, j’abandonne tout simplement lol
Waouh... ! Le premier projet sur lequel je l’ai utilisé, c’était parce que c’était du Python...
Le temps a bien passé !
J’aimerais bien pouvoir retravailler dans un environnement où je peux l’utiliser à nouveau :) haha
Je devrais peut-être en faire un petit projet perso...
Comparer Claude 3 au moment où Claude 4 est déjà sorti, ce n'est pas presque de l'arnaque...?