1. « Génère des réponses sans se soucier de leur véracité »
  2. « Un logiciel privateur dont l’utilisateur ne peut pas obtenir l’exécutable ou le code source »
  3. « Le fait d’effectuer les calculs sur le serveur d’autrui porte atteinte à la liberté informatique de l’utilisateur »

Selon cette définition, cela revient pratiquement à dire qu’il ne faut utiliser aucun service qui passe par le cerveau de quelqu’un d’autre sans passer par mes propres mains, y compris les métiers de service avec des employés, les services cloud, voire même le téléphone.

Pour le point 1, absolument tout ce qui existe dans la réalité peut produire une sortie indépendamment de la vérité. Même un système conçu avec l’intention de produire une réponse exacte peut échouer à le faire. C’est ce qu’on appelle une « erreur ».

Point 2. Si affirmer qu’on ne peut utiliser un système qu’à condition de pouvoir obtenir l’exécutable ou le code source revient à dire qu’il faut connaître son principe interne pour l’utiliser, alors toute personne n’ayant pas étudié la physique, l’électronique et le génie électrique devrait immédiatement lâcher son smartphone et son ordinateur. Cela revient à dire qu’on ne devrait pas utiliser la géolocalisation sans avoir appris la théorie de la relativité. Stallman possède-t-il au moins les plans détaillés dans la tête du coiffeur qui lui coupe les cheveux ?

Suivant la logique du point 3, cette personne est un doctrinaire qui ne fait confiance à la pensée de personne. Puisque toute pensée d’autrui et toute conclusion qui en découle porteraient atteinte à la liberté de « moi » de penser par moi-même.

On peut dire qu’il ne faut pas conclure trop vite que l’IA générative possède réellement une intelligence, mais les raisonnements forcés qui accompagnent cette idée, eux, sont tout simplement du bullshit.

 

Qu’est-ce que le savoir…

 

Si l’intelligence artificielle ne peut finalement pas avoir d’âme, pourquoi son intelligence devrait-elle nécessairement ressembler à l’intelligence humaine qui cherche la vérité ? Même une grande partie de ce que nous appelons activité intellectuelle repose sur le mensonge et les hallucinations. Dans la société moderne, les êtres humains aussi influencent la vie des autres par des mensonges, parce qu’ils ne perçoivent pas les phénomènes tels qu’ils sont (ou volontairement).

 

En fait, je n’ai jamais pensé une seule fois que Stallman aimerait les LLM mdr

 

En Corée aussi, les trottinettes ont envahi les trottoirs et provoquent le même type de problème de société, donc on peut imaginer que les robots de livraison fassent de même. Cela dit, ils roulent lentement et il est peu probable qu’ils soient abandonnés illégalement, donc ils semblent préférables aux trottinettes… J’ai l’impression que la priorité reste de réglementer les trottinettes.

 

La première leçon est déjà tellement importante.
C’est exactement ce que je ressens très fortement en ce moment haha

 

Je pense un peu la même chose aussi... Déjà, la Linux Foundation en fait beaucoup trop.
Ils récupèrent aussi des projets abandonnés comme Servo....

 

Anthropic fait don de MCP et crée l’Agentic AI Foundation

Les commentaires de Hacker News sont compilés ici, n’hésitez pas à les consulter également.

 

Vu comme ça, l’avenir paraît plus positif haha

 

Je viens de le lire, et ça ressemble à une réaction fondée sur une méfiance envers MCP lui-même.
La nuance, c’est plutôt : « Même si c’est beaucoup utilisé maintenant, combien de temps est-ce que ça va durer ? »

Mais à partir du moment où Google et OpenAI prennent en charge MCP, je pense que ce genre d’opposition relève surtout d’une opposition par inertie.
Au début, moi aussi, je n’aimais pas trop ça, parce que ça me semblait être un simple jeu de mots sans grande différence avec le Function Calling, mais en voyant les entreprises s’uniformiser autour de ça, je me suis dit que ça donnerait du sens dès la phase d’apprentissage.
Je trouve quand même étonnant qu’il y ait encore des gens qui se contentent juste de s’y opposer.

 

Il y avait tellement de bons passages, et tant de phrases pleines de discernement, que cela m’a arraché une exclamation d’admiration. J’ai aussi beaucoup apprécié que les phrases principales soient mises en gras.

"Avoir raison sur le moment vaut bien moins que la réalité à long terme de construire quelque chose avec des collègues prêts à coopérer."

"Il faut faire preuve de concentration stratégique, et l’énergie dépensée sur ce qu’on ne peut pas changer est une énergie volée à ce qu’on peut changer."

Il y avait aussi beaucoup d’idées utiles à appliquer non seulement au travail, mais aussi à la vie. Merci pour ce très bon article.

"Le code est une note stratégique destinée à des inconnus qui en assureront la maintenance à 2 heures du matin pendant une panne ; il doit donc optimiser la compréhensibilité."

"L’élan crée de la clarté, tandis que la paralysie de l’analyse ne produit rien."

 

Pourquoi cette réaction, au juste ?
Vu de l’extérieur, sans bien connaître le sujet, j’avais plutôt l’impression que :

  1. ils allaient peut-être le standardiser
  2. ils le publient ?

C’était ce que je ressentais, donc je me demande pourquoi certains réagissent comme s’ils s’en débarrassaient.

 

Il comprendra peut-être la leçon une fois qu’il se sera fait pirater, voilà tout.

 

À mes yeux, ça ressemble vraiment à un dossier refilé à la Linux Foundation... La réaction sur HN semble similaire aussi.

 

C’est le genre de choses qu’on aimerait raconter à ses neveux et nièces, mais qui ne sortent pas si facilement une fois qu’on a la parole haha

 

Le propriétaire du blog du lien n°29, c’est Gary Marcus, un type qui donne un peu l’impression d’être un charlatan et qui répète sans arrêt que les progrès de l’IA stagnent ; le fait que Gemini prévoie qu’il sera toujours exactement le même dans 10 ans, c’est vraiment trop drôle lol

 

C’est juste un jeu, en fait..

 
  1. Rumeur d’une acquisition d’OpenAI par IBM

C’est celle qui m’a le plus marqué, haha

 

Après avoir lu cet article, j’ai essayé d’intégrer PGlite de manière expérimentale dans mon projet. Clairement, pour des tests simples, c’était vraiment rapide et très pratique. J’en attends beaucoup pour la suite.