La courbe d’évolution de mon salaire est à 0 % depuis cinq ans.

 

C’est difficile à généraliser, mais c’est certainement l’outil le plus efficace pour convaincre la direction.

 

Le fait d’effectuer des calculs sur le serveur d’un tiers devrait être refusé, car cela porte atteinte à la liberté informatique de l’utilisateur.

N’est-ce pas alors une position qui consiste à rejeter non seulement les LLM, mais aussi tous les services cloud et les services externes… ? La traduction est-elle erronée ?

 

J’ai l’impression d’avoir lu cet article il y a très longtemps… mais c’était à nouveau un texte motivant pour me remotiver. Merci de l’avoir mis en ligne.

 

Croire qu’en codant avec un modèle de langage, la machine va comme par magie produire toute seule des expressions proches du matériel, c’est franchement abusé.
Plus il y a de contraintes, mieux on travaille à l’intérieur de ces contraintes.

 

De nos jours, pour qu’une intervention ait vraiment du sens, j’ai l’impression qu’elle devrait surtout tourner autour de conseils sur l’IA, mais je trouve dommage que l’essence même des présentations devienne de plus en plus confortable et s’efface peu à peu.

 

Je me suis de nouveau rendu compte à quel point il est difficile de déléguer le travail.

 

Cela dit, plusieurs mainteneurs n'ont-ils pas quitté le projet ?

 

Il n’existe qu’un seul livre sur le sujet en coréen, mais malheureusement, comme la manière d’utiliser Rust dans le noyau Linux a connu plusieurs changements cassants, il n’est plus du tout compatible avec les noyaux actuels. Ce serait vraiment bien qu’il soit mis à jour via GitHub ou d’autres canaux similaires.

 

Même si l’IA écrit le code, la responsabilité du service incombe malgré tout au développeur. Je me demande s’il peut vraiment assumer la responsabilité d’un code qu’il ne comprend pas lui-même.

 

Malgré cela, je pense qu’il existe des indicateurs de mesure pertinents. En particulier, il serait encore plus efficace qu’une personne soit responsable de deux métriques opposées. Du point de vue SRE, on peut se réjouir d’avoir réduit le nombre d’incidents, mais si, à force d’être trop prudent avant chaque déploiement, les mises en production prennent du retard, le développement de fonctionnalités peut ralentir. Et du point de vue Dev, on peut se réjouir d’avoir livré beaucoup de fonctionnalités, mais cela peut aussi augmenter le nombre d’incidents.

Je pense aussi que des métriques comme la latence p99, le taux de réussite des réponses, le coût par requête, le MTTR ou le nombre d’incidents sont de bons indicateurs qu’il est difficile de manipuler. (Bien sûr, ils peuvent malgré tout être détournés, mais j’ai l’impression que le fait de les suivre et de les gérer apporte plus d’avantages que d’inconvénients...)

 

Alors ce graphique risque probablement d’être fortement biaisé.

Loi de Goodhart : « Dès qu’un indicateur devient un objectif, il cesse d’être un bon indicateur. »

 

D’ordinaire, je trouvais que mettre en avant des résultats en pourcentage n’avait pas beaucoup de sens, et j’ai l’impression que cet article vient parachever ma réflexion.

Plutôt que de dire « j’ai contribué à une hausse de 5 % du chiffre d’affaires », je pense qu’il faut dire de combien il a augmenté sur une période donnée, et à quel point cette hausse s’est accélérée par rapport à la situation avant sa propre contribution.

 

C’est vraiment un excellent contenu.

 

???: C'est du blanc.

 

Vu comme ça, toutes les couleurs paraissent jolies.

 

Je pense moi aussi qu’il est souhaitable que les entreprises, à la mesure des profits qu’elles tirent du marché, contribuent en retour au marché et à la société qui a rendu possible le développement technologique.

Les grandes lignes fondamentales de l’IA générative sont déjà publiques, et j’estime que les éléments qu’OpenAI ne publie pas relèvent du secret commercial de l’entreprise. Quand une entreprise ou une technologie contribue à nouveau à la société, cela apparaît en surface comme une expression de gratitude et un message de coexistence, mais en pratique j’y vois un réinvestissement dans le marché au service de la croissance durable de l’entreprise. Sous cet angle, il serait souhaitable que les entreprises de l’IA contribuent à l’éducation ou aux infrastructures sociales avec l’argent qu’elles gagnent, plutôt que d’exiger qu’elles publient intégralement les copies d’une IA qui constitue pratiquement un de leurs actifs. N’est-ce pas, en quelque sorte, ignorer les bénéfices des œufs d’or de l’oie aux œufs d’or et exiger qu’on lui ouvre d’abord le ventre ? Des œufs d’or, il peut en sortir autant qu’on veut. Il suffit d’en partager les bénéfices ; si l’on exige absolument qu’on livre aussi l’oie, qui voudra encore en élever une ?

On sait déjà comment fonctionne l’IA, comme on connaît l’électromagnétisme. Un smartphone n’intègre pas seulement les connaissances de base en électromagnétisme, mais aussi des technologies qui relèvent de secrets industriels que chaque entreprise ne peut pas divulguer. Je ne comprends donc pas qu’on refuse de respecter cet aspect et qu’on fasse de l’IA générative un bouc émissaire, comme dans une chasse aux sorcières.

Les réponses qui m’ont été faites m’ont amené à chercher beaucoup de choses et à réfléchir à de nombreux points. Merci.

 

Merci :)