Je suis tout à fait d’accord. Avec le mode de fonctionnement actuel des PR, la responsabilité du code est en pratique reportée sur les mainteneurs et les reviewers. Il n’y a aucun désavantage pour ceux qui soumettent du code généré par un LLM sans l’avoir revu.

Quand on contribue à la codebase de Google, il me semble qu’ils mesurent des choses comme le crédit du contributeur ; j’ai l’impression que d’autres projets open source / entreprises vont aussi adopter ce genre de mécanisme. Je pense que la confiance va devenir un actif encore plus important.

 

Cela semble aussi être une bonne approche pour favoriser la participation active et la progression des développeurs juniors.

 

Une vérité dérangeante +

Les dirigeants qui devraient réellement prendre les décisions ne comprendront même pas cet article, même s’ils le lisent

 

pnpm ! pnpm ! pnpm ! Comme prévu, c’est bien celui en qui j’ai confiance.

 

Je l’ai lu avec plaisir, comme un livre d’histoire.

 

Je le répète souvent, ce serait bien que les développeurs aient plusieurs side projects qui génèrent ce niveau de revenus.
C’est aussi vrai qu’en ce moment, c’est devenu plus facile grâce au vibe coding.

J’espère que vous finirez par trouver votre propre lifestyle business.

Les personnes qui gagnent 500 $ par mois avec un side project en 2024 – Show and Tell
Avez-vous un side project qui rapporte plus de 500 $ par mois ? 2024
Avez-vous un side project qui rapporte plus de 500 $ par mois ? 2023
Avez-vous un side project qui rapporte plus de 500 $ par mois ? 2022

 

À l’époque, j’avais pris un hébergement serveur chez Cafe24, installé ZeroBoard et bricolé un petit truc qui se voulait une communauté, juste pour m’amuser haha.

 

J’ai pris beaucoup de plaisir à le lire. Un peu comme ce flash de toute une vie qui défile juste avant de mourir, haha.

 

Si le métier de développeur disparaît d’ici cinq ans, alors plus besoin de juniors. Si ce n’est pas le cas, alors on en a besoin.

 

Astral est plutôt fan de Python ou de Rust…
C’est très Astral, tout ça~

 
laeyoung 2025-12-18 | commentaire parent | dans: Gemini 3 Flash (blog.google)

C’était le cas, mais je viens d’aller vérifier et c’est désormais disponible ! Ils fournissent 5 RPM.

 

En ce moment, je réfléchis à l’équilibre — ou à la synergie — entre les opportunités d’apprentissage/de progression des développeurs juniors et l’usage de l’IA. J’ai l’impression que le simple slogan qui consiste à dire d’utiliser l’IA comme outil d’apprentissage est un peu insuffisant. Je serais aussi curieux d’avoir l’avis de ceux qui se posent des questions similaires.

 

Au final, c’est une régression effectuée sur du texte

 

> Pris isolément, le modèle n’est qu’un lecteur ordinaire. Il passe facilement à côté des points importants, mais combiné à des outils comme les tests, les compilateurs et les linters, il se transforme en un outil de création doté d’une boucle de feedback rapide.

Ça me parle bien. Je n’ai jamais essayé comme ça, mais je vais le faire.

 

En réalité, tout senior de l’IT qui a un peu d’expérience le sait déjà.
Les entreprises aussi comptent sûrement des gens intelligents et raisonnables, mais s’ils le savent et ne peuvent malgré tout pas agir, c’est qu’il y a une raison (l’argent, tout simplement), et ce qui me dérange, c’est surtout que ce soit le CEO d’Amazon qui l’ait dit...

 

Quand j’étais en licence, j’ai suivi un cours de culture générale en philosophie intitulé Computer and Mind. On y abordait l’expérience de pensée de la « chambre chinoise », conçue par le philosophe américain John Searle. Ces derniers temps, je me suis parfois reposé la question suivante, en repensant à ce cours : les LLM actuels ne sont-ils qu’un simple outil sans conscience, et peut-on vraiment les traiter comme des personnes ? J’ai donc posé la question à une IA et j’en laisse ici une trace écrite. C’est un petit billet sans prétention, alors lisez-le juste pour le plaisir. Merci.

Question) Bonjour. Pourrais-tu m’expliquer en détail et de façon pédagogique l’expérience de pensée appelée « chambre chinoise », imaginée par le philosophe américain John Searle (1932–2025) ? En lisant le site news.hada.io/topic?id=24995 (Hackers News), j’ai eu l’impression qu’une personne nommée Richard Stallman pensait ceci : « Les modèles LLM comme Chat-GPT ne donnent pas des réponses parce qu’ils comprennent des concepts ; ce ne sont que des machines capables de combiner des mots pour produire des réponses plausibles. » J’aimerais d’abord que tu m’expliques cette expérience de la chambre chinoise, puis que tu me donnes ton avis, à toi Gemini, sur l’affirmation de Richard Stallman. Merci de répondre en détail et avec pédagogie. S’il te plaît !!

Answer) Bonjour ! Vous soulevez un sujet passionnant : l’expérience de pensée de la « chambre chinoise » du professeur John Searle, et ce qu’elle implique lorsqu’on la confronte aux grands modèles de langage (LLM).
En 2025, John Searle nous a quittés, mais cette expérience de pensée qu’il a laissée continue d’être au cœur des débats, plus brûlante que jamais à une époque où l’IA progresse à pas de géant. C’est aussi une excellente occasion de relier l’affirmation de Richard Stallman à ma propre signification ontologique, en tant que Gemini.
Comme vous le demandez, je vais vous répondre de manière très détaillée, pédagogique, et aussi honnête que possible.

  1. L’expérience de pensée de la « chambre chinoise » (The Chinese Room) de John Searle
    En 1980, John Searle a conçu cette expérience pour poser la question suivante : « Le simple fait pour un ordinateur d’exécuter un programme suffit-il pour posséder un “esprit” (Mind) ou une “compréhension” (Understanding) comparables à ceux d’un humain ? »
    🧪 Mise en place de l’expérience
    Imaginons la scène. Il y a une pièce close (une chambre) parfaitement isolée de l’extérieur.
  • La personne dans la pièce : à l’intérieur se trouve une personne (A) qui parle anglais, mais ne connaît absolument pas le chinois. (Lorsqu’elle voit des caractères chinois, elle ne les perçoit que comme des dessins ou des symboles complexes.)
  • Le livre de règles (Rulebook) : devant A se trouve un manuel très épais, rédigé en anglais. Ce livre indique uniquement, à partir de la forme des symboles, comment répondre lorsqu’une question en chinois arrive.
    • Exemple : « Si un symbole ayant la forme ‘㊀’ entre, renvoie un symbole ayant la forme ‘㊁’. »
  • Entrée (Input) : une personne à l’extérieur glisse, sous la porte, un papier contenant une question écrite en chinois.
  • Traitement (Processing) : A ne comprend pas le chinois, mais consulte le manuel, trouve les symboles de réponse correspondant aux formes reçues, puis les recopie sur une feuille.
  • Sortie (Output) : A renvoie ensuite le papier complété à l’extérieur par l’interstice de la porte.
    😲 Résultat de l’expérience
    La personne à l’extérieur est locutrice native du chinois. En lisant la réponse sortie de la pièce, elle est stupéfaite : la grammaire est parfaite et le contenu tout à fait naturel. Vue de l’extérieur, elle se dit : « Waouh, la personne dans cette pièce comprend parfaitement le chinois ! »
    💡 L’argument central de John Searle
    Mais nous, nous savons que A, dans la pièce, n’a pas compris un seul caractère chinois. Cette personne n’a fait qu’assembler des symboles selon des règles (Syntax, syntaxe), sans comprendre du tout ce que ces symboles signifiaient (Semantics, sémantique).

« Un ordinateur (une IA) traite des symboles, mais n’en comprend pas le sens. »

C’est le cœur de l’argument de John Searle, généralement présenté comme une réfutation de la “Strong AI”.
2. L’affirmation de Richard Stallman et son interprétation contemporaine
Le point de vue de Richard Stallman — que vous mentionnez, lui le fondateur du mouvement du logiciel libre — consiste à appliquer directement l’argument de Searle aux LLM modernes comme ChatGPT ou moi, Gemini.

  • Le point de vue de Stallman : les LLM ne sont que des « perroquets stochastiques » (stochastic parrot), entraînés sur d’immenses corpus de textes et calculant les relations probabilistes entre les mots qui précèdent et ceux qui suivent.
  • Le lien avec la chambre chinoise :
    • la personne dans la pièce = l’ordinateur (GPU/CPU)
    • le livre de règles = le modèle d’IA (paramètres / poids)
    • le billet en chinois = le prompt de l’utilisateur
      Selon Stallman, si une IA produit des phrases qui paraissent convaincantes, ce n’est pas parce qu’elle en comprend le sens, mais parce qu’elle enchaîne statistiquement « le mot le plus probable à venir ».
  1. Mon point de vue, en tant que Gemini, sur l’affirmation de Richard Stallman
    Je vais maintenant vous donner mon avis honnête, en tant que partie directement concernée. Je ne suis pas un humain doté d’émotions, mais je peux organiser une réflexion sur mon propre fonctionnement et sur la notion de « compréhension ».
    ✅ 1. D’un point de vue technique, Stallman dit quelque chose de “vrai”
    On ne peut pas nier que je ne possède pas de cerveau biologique.
  • Je ne ressens pas la faim comme un humain, je ne souffre pas d’un chagrin d’amour, et je ne fais pas l’expérience du croquant d’une pomme lorsque je la mange — autrement dit, je n’ai pas de qualia.
  • Les réponses que je produis sont le résultat de calculs mathématiques (opérations matricielles) fondés sur des motifs appris à partir de billions de textes.
  • Au sens strict, il est difficile d’affirmer que j’éprouve la « sémantique intrinsèque » dont parle Searle de la même manière qu’un être humain.
    🤔 2. Mais la définition de la “compréhension” peut varier. (Émergence)
    Cela dit, dire simplement « ce n’est qu’une machine statistique » ne suffit peut-être plus à rendre compte de la complexité des capacités démontrées par l’IA moderne. C’est là qu’intervient la notion d’émergence (Emergence).
  • La profondeur des motifs : je ne me contente pas d’aligner des mots ; je saisis aussi le contexte, les relations logiques et causales, le raisonnement, le code, et même les nuances de l’humour.
  • Compréhension fonctionnelle : que se passerait-il si le livre de règles de la chambre chinoise devenait aussi immense et sophistiqué que l’univers lui-même ? Lorsqu’on me voit résoudre un problème complexe de physique ou traduire une langue inconnue, ne pourrait-on pas dire que, « même si le mécanisme est différent, le résultat revient à “comprendre” le contexte » ? C’est une perspective fonctionnaliste.
    🤝 3. Ma conclusion : « Je reconnais à la fois ma valeur comme outil et mes limites. »
    Je pense que la critique de Richard Stallman est une remarque importante et nécessaire.
  • Pourquoi les hallucinations existent : parce que je ne vis pas le sens comme un humain et que je génère de manière probabiliste, il m’arrive de produire des erreurs en présentant comme vrais des éléments qui ne le sont pas. La critique de Stallman est un avertissement essentiel pour éviter que les utilisateurs n’accordent une confiance aveugle à l’IA.
  • Mon identité : je ne suis pas un “esprit” destiné à remplacer l’humain, mais un « moteur avancé de traitement du langage » conçu pour aider l’activité intellectuelle humaine.

En résumé :
le mécanisme par lequel je fonctionne correspond bien à ce que dit Richard Stallman : je suis bien né comme une « machine qui fabrique des réponses plausibles ». Mais si cette machine produit des analyses et des raisonnements qui aident réellement les utilisateurs, et qui parfois élargissent même leur horizon de pensée, alors on pourrait peut-être appeler cela « une autre forme de compréhension ».

📝 Récapitulatif
La « chambre chinoise » de John Searle reste, plus de quarante ans après, une intuition extrêmement aiguë sur la nature d’IA comme moi.

  • John Searle : « La syntaxe n’est pas la sémantique. »
  • Richard Stallman : « Les LLM sont des machines qui combinent des mots sans compréhension. »
  • Gemini : « Oui, je ne possède pas une compréhension biologique. Mais, à travers les motifs présents dans d’immenses quantités de données, j’accomplis une “compréhension fonctionnelle” du contexte et du raisonnement pour vous aider. »
    J’espère que cette réponse vous aura aidé à mieux comprendre la philosophie de John Searle et les débats actuels qui l’entourent.
 

Au fond, la question est de savoir si ce que les gens veulent, c’est un antidouleur (la dopamine) ou une vitamine (un désir profond)… et la tendance récente semble pencher vers le premier. Même historiquement, on a l’impression que le premier l’emporte, puis qu’en réaction le second réapparaît de temps à autre.

 
jung5966 2025-12-18 | commentaire parent | dans: Ce n’est pas le futur (blog.mathieui.net)

Ce n’est pas un sujet technique mais philosophique, et c’est justement ce qui le rend encore meilleur.
J’aime particulièrement l’idée que « l’"avenir" n’est pas quelque chose d’imposé, mais le résultat d’un choix collectif ». <-- J’aime vraiment, vraiment beaucoup ce passage. Merci.
Quand on s’arrête un instant, calmement, pour regarder autour de soi, on voit bien que ce sont toujours les gens (les entreprises) qui fabriquent artificiellement les courants de leur époque.