Voir apparaître dans Windows des notifications publicitaires impossibles à désactiver, c'est le même genre de sensation que lorsque Samsung a mis de la publicité dans les applications par défaut des téléphones Galaxy.
Je pense qu’il faut vraiment réfléchir sérieusement aux deux aspects.
Pour faire fonctionner une entreprise, il faut des développeurs, et nous traversons actuellement une période où il est difficile pour les développeurs juniors de trouver un emploi.
Officiellement, on met cela sur le dos de l’IA, mais après les recrutements massifs pendant la période du Covid, les entreprises ont surtout vu leur masse salariale augmenter davantage que leurs succès proportionnels. Elles réduisent donc leurs embauches en raison de cette charge. Dans ce contexte, comme l’usage des LLM commence à montrer une efficacité au moins équivalente au fait de confier certaines tâches à des développeurs juniors, je pense que le marché de l’emploi s’est encore davantage contracté.
Mais, comme c’est aussi écrit dans l’article, il faut des développeurs juniors pour qu’ils puissent ensuite devenir des développeurs seniors.
Si on ne recrute pas au niveau junior, on ne peut tout simplement pas faire émerger de développeurs seniors.
Malgré tout, je pense qu’il faut un important travail d’ajustement dans ce processus.
Dans les grandes entreprises, c’est sans doute moins problématique parce que les processus sont mieux structurés, mais lorsqu’un développeur junior arrive, on le forme généralement en lui confiant non pas le cœur de l’activité, mais plutôt des tâches annexes (des tâches internes pour lesquelles l’échec reste acceptable).
En revanche, du point de vue d’un développeur senior, moins l’organisation est structurée, plus il est difficile d’accompagner un développeur junior.
Et, ironiquement, pour bien utiliser un LLM, il est plus avantageux d’avoir déjà des connaissances dans le domaine ; ce n’est pas parce qu’on est développeur débutant qu’on obtiendra la même efficacité.
En réalité, il est impossible de remplacer tout le travail de développement par des employés juniors. Des personnes exceptionnellement brillantes pourraient peut-être s’en sortir d’une manière ou d’une autre, même sans développeur senior. Mais si tout le travail commence alors à se concentrer sur cette personne, pourra-t-elle vraiment tenir le rythme ?
Autrement dit, il faut recruter à la fois des développeurs seniors et juniors, avec une politique d’embauche flexible qui tienne compte à la fois de la productivité et de la masse salariale de l’entreprise.
Je comprends l’argument selon lequel l’engouement autour des LLM est excessif, et je suis aussi d’accord sur le fait que leur mode de fonctionnement n’est pas un raisonnement comme la déduction ou l’induction. Mais l’intelligence artificielle et l’intelligence ne sont pas synonymes, non ? Le vrai problème, ce ne sont pas plutôt les gens qui les confondent ou les anthropomorphisent ?
À ma connaissance, que ce soit sous Windows ou Linux, Chrome fonctionne en mode sandbox. Donc... même si quelqu’un créait un exploit via JavaScript ou autre pour attaquer une vulnérabilité, cela n’affecterait pas réellement l’OS.
Mais en mode conteneur, il faudra probablement activer le mode privileged pour pouvoir utiliser cette fonctionnalité.
Bien sûr, on peut indiquer qu’il faut activer ce mode, mais pour ma part, je considérais que le conteneur était lui-même une sandbox. Un peu comme une sorte de fenêtre qu’on ouvre et qu’on ferme facilement, si vous voulez...
C’est pourquoi Chromium et VS Code basé sur Electron sont configurés pour fonctionner dans un mode sans sandbox.
Autrement dit, cela peut être risqué dans l’hypothèse où Chromium et VS Code auraient des vulnérabilités, et qu’un attaquant soit capable de créer un exploit en les utilisant.
Je me demandais pourquoi l'absence de mode sandbox était considérée comme un point d'attention en matière de sécurité.
Est-ce que cela signifie que Docker ne fournit pas de fonctionnalité de sandboxing pour les processus internes ? Et que, de ce fait, le conteneur n'a pas d'autre choix que de s'exécuter en root, avec le risque que, même dans un environnement isolé par Docker, un malware puisse s'infiltrer dans les volumes mappés avec l'hôte ? Ou bien cela veut-il dire que les fichiers créés par l'utilisateur dans le système de fichiers interne de Docker peuvent ne pas être sûrs ?
Vous semblez vous tromper sur beaucoup de points, à commencer par dire que les LLM ne sont pas de l’intelligence artificielle.
On dirait que vous êtes enfermé dans votre propre monde.
Et puis, si les LLM ne sont pas de l’intelligence artificielle, il faut bien nous dire ce que c’est. Vous dites qu’il suffit d’avoir fait des études de premier cycle pour le savoir, non ?
Alors, vous croyez que ces entreprises vont dépenser des dizaines de milliards pour débaucher des talents simplement parce qu’elles n’ont pas d’expérience ? Les meilleures connaissances que vous pensez avoir leur seraient sans doute inutiles.
Si l’objectif d’une organisation est de relever son plancher de performance, j’admets qu’une organisation par rôles, comme une équipe composée uniquement de développeurs web front-end ou une équipe de développeurs d’apps, est pertinente.
Mais pour une équipe ou une organisation qui vise un niveau d’excellence plus élevé, se structurer par rôles présente forcément des limites.
Comme le dit le texte, faut-il vraiment que les planificateurs, designers, PM et ingénieurs se répartissent chacun leur travail et avancent comme sur un tapis roulant d’usine ? Cela amène à se poser la question. L’idéal n’est pas un travail typique de simple « responsable » chargé de quelques tâches précises, mais une forme d’organisation où des membres ayant chacun leur spécialité se réunissent, définissent ensemble un objectif commun, et où l’ensemble des membres se soutient mutuellement.
Dans beaucoup d’entreprises, l’organisation se construit sous forme de task forces, via des spin-offs ou la constitution d’équipes. Mais là aussi, comme on ne fait que regrouper des personnes (des rôles), cela peut produire un renforcement négatif — par exemple : « j’essaie de faire quelque chose, mais l’entreprise ne m’aide pas ; autant abandonner » — et l’on risque alors de ne perdre que les talents les plus importants, comme les key members. C’est pourquoi une organisation orientée par objectif a elle aussi absolument besoin du soutien actif d’une organisation par rôles.
Les LLM ne sont pas de l’intelligence artificielle
Il suffit d’avoir étudié l’IA au niveau licence pour savoir que les LLM ne sont pas intelligents ; le problème, c’est d’avoir mordu à ce coup marketing monté par un juif sans diplôme de lycée.
Les absurdités actuelles dans l’industrie des LLM font penser à Nikola, qui a escroqué les gens avec son camion à hydrogène.
Une entreprise incapable de fabriquer une pile à combustible à hydrogène, qui n’a produit que la coque d’un camion électrique à hydrogène avant de faire faillite pour escroquerie, et un juif sans diplôme de lycée incapable de créer de l’intelligence, qui fabrique juste un chatbot LLM et fait tout un spectacle en prétendant que c’est de l’intelligence : c’est du même niveau.
Les États-Unis n’ont plus désormais la capacité d’assurer correctement des technologies clés dans aucun domaine et sont tombés au rang d’un pays qui n’a d’autre raison d’exister que comme arnaque de type Ponzi au niveau de Madoff, attirant de l’argent par le seul marketing via SBS.
À l’avenir, le seul domaine de l’IA réellement rentable sera sans aucun doute la Computer Vision AI, et c’est elle qui déterminera les guerres futures et la puissance militaire.
Or, dans le domaine de la Computer Vision AI, la Chine monte en flèche à la première place mondiale et se développe comme puissance hégémonique.
Si, comme aux États-Unis, les investissements massifs centrés sur les LLM explosent en bulle, il est désormais très probable que les États-Unis perdent le leadership de l’IA au profit de la Chine.
Dans les sociétés occidentales, les investissements actuels dans les LLM portés par une majorité de wordcels sont en train de se heurter à un mur ; leurs mérites et leurs torts seront méthodiquement disséqués par des capitalistes qui examinent tout à la loupe, et l’onde de choc pourrait se propager à des domaines connexes comme la Computer Vision AI, avec un risque important de contraction de l’industrie de l’IA pendant un certain temps.
À l’inverse, la Chine, où l’État pilote la recherche et développement, a de fortes chances d’être relativement à l’abri de cette bulle de l’IA venue des États-Unis.
Par conséquent, cette surchauffe d’investissement dans les LLM pourrait bien devenir le facteur qui fixe les États-Unis dans un statut de puissance de second rang.
L’ingénierie du contexte — donner des consignes intelligemment avec le What + Why !
Et en plus, il a éclairci de façon limpide de nombreux points que je me demandais au quotidien :)
Je suis à la fois désolé et reconnaissant de pouvoir consulter gratuitement des informations d’une telle qualité !!!!
Comme Ubuntu appartient à la famille Debian, vous pouvez aussi utiliser facilement apt et autres outils. Au final, j’ai trouvé Debian meilleure que l’image de base Ubuntu.
Voir apparaître dans Windows des notifications publicitaires impossibles à désactiver, c'est le même genre de sensation que lorsque Samsung a mis de la publicité dans les applications par défaut des téléphones Galaxy.
Mais non, vous n’avez pas à vous excuser... haha. Merci beaucoup pour ces paroles trop flatteuses.
Je pense qu’il faut vraiment réfléchir sérieusement aux deux aspects.
Pour faire fonctionner une entreprise, il faut des développeurs, et nous traversons actuellement une période où il est difficile pour les développeurs juniors de trouver un emploi.
Officiellement, on met cela sur le dos de l’IA, mais après les recrutements massifs pendant la période du Covid, les entreprises ont surtout vu leur masse salariale augmenter davantage que leurs succès proportionnels. Elles réduisent donc leurs embauches en raison de cette charge. Dans ce contexte, comme l’usage des LLM commence à montrer une efficacité au moins équivalente au fait de confier certaines tâches à des développeurs juniors, je pense que le marché de l’emploi s’est encore davantage contracté.
Mais, comme c’est aussi écrit dans l’article, il faut des développeurs juniors pour qu’ils puissent ensuite devenir des développeurs seniors.
Si on ne recrute pas au niveau junior, on ne peut tout simplement pas faire émerger de développeurs seniors.
Malgré tout, je pense qu’il faut un important travail d’ajustement dans ce processus.
Dans les grandes entreprises, c’est sans doute moins problématique parce que les processus sont mieux structurés, mais lorsqu’un développeur junior arrive, on le forme généralement en lui confiant non pas le cœur de l’activité, mais plutôt des tâches annexes (des tâches internes pour lesquelles l’échec reste acceptable).
En revanche, du point de vue d’un développeur senior, moins l’organisation est structurée, plus il est difficile d’accompagner un développeur junior.
Et, ironiquement, pour bien utiliser un LLM, il est plus avantageux d’avoir déjà des connaissances dans le domaine ; ce n’est pas parce qu’on est développeur débutant qu’on obtiendra la même efficacité.
En réalité, il est impossible de remplacer tout le travail de développement par des employés juniors. Des personnes exceptionnellement brillantes pourraient peut-être s’en sortir d’une manière ou d’une autre, même sans développeur senior. Mais si tout le travail commence alors à se concentrer sur cette personne, pourra-t-elle vraiment tenir le rythme ?
Autrement dit, il faut recruter à la fois des développeurs seniors et juniors, avec une politique d’embauche flexible qui tienne compte à la fois de la productivité et de la masse salariale de l’entreprise.
Je comprends l’argument selon lequel l’engouement autour des LLM est excessif, et je suis aussi d’accord sur le fait que leur mode de fonctionnement n’est pas un raisonnement comme la déduction ou l’induction. Mais l’intelligence artificielle et l’intelligence ne sont pas synonymes, non ? Le vrai problème, ce ne sont pas plutôt les gens qui les confondent ou les anthropomorphisent ?
Eliza avec un jeu de données plus volumineux
À ma connaissance, que ce soit sous Windows ou Linux, Chrome fonctionne en mode sandbox. Donc... même si quelqu’un créait un exploit via JavaScript ou autre pour attaquer une vulnérabilité, cela n’affecterait pas réellement l’OS.
Mais en mode conteneur, il faudra probablement activer le mode
privilegedpour pouvoir utiliser cette fonctionnalité.Bien sûr, on peut indiquer qu’il faut activer ce mode, mais pour ma part, je considérais que le conteneur était lui-même une sandbox. Un peu comme une sorte de fenêtre qu’on ouvre et qu’on ferme facilement, si vous voulez...
C’est pourquoi Chromium et VS Code basé sur Electron sont configurés pour fonctionner dans un mode sans sandbox.
Autrement dit, cela peut être risqué dans l’hypothèse où Chromium et VS Code auraient des vulnérabilités, et qu’un attaquant soit capable de créer un exploit en les utilisant.
Je me demandais pourquoi l'absence de mode sandbox était considérée comme un point d'attention en matière de sécurité.
Est-ce que cela signifie que Docker ne fournit pas de fonctionnalité de sandboxing pour les processus internes ? Et que, de ce fait, le conteneur n'a pas d'autre choix que de s'exécuter en root, avec le risque que, même dans un environnement isolé par Docker, un malware puisse s'infiltrer dans les volumes mappés avec l'hôte ? Ou bien cela veut-il dire que les fichiers créés par l'utilisateur dans le système de fichiers interne de Docker peuvent ne pas être sûrs ?
Vous semblez vous tromper sur beaucoup de points, à commencer par dire que les LLM ne sont pas de l’intelligence artificielle.
On dirait que vous êtes enfermé dans votre propre monde.
Et puis, si les LLM ne sont pas de l’intelligence artificielle, il faut bien nous dire ce que c’est. Vous dites qu’il suffit d’avoir fait des études de premier cycle pour le savoir, non ?
Alors, vous croyez que ces entreprises vont dépenser des dizaines de milliards pour débaucher des talents simplement parce qu’elles n’ont pas d’expérience ? Les meilleures connaissances que vous pensez avoir leur seraient sans doute inutiles.
Wow, ça a vraiment beaucoup changé.
Je ne sais pas si l’approche de git-review est bonne, mais je suis d’accord sur le fait que les revues de PR basées sur GitHub sont épouvantables..
Pourquoi est-ce toujours des comptes fantômes qui écrivent ce genre de commentaire ?
Si l’objectif d’une organisation est de relever son plancher de performance, j’admets qu’une organisation par rôles, comme une équipe composée uniquement de développeurs web front-end ou une équipe de développeurs d’apps, est pertinente.
Mais pour une équipe ou une organisation qui vise un niveau d’excellence plus élevé, se structurer par rôles présente forcément des limites.
Comme le dit le texte, faut-il vraiment que les planificateurs, designers, PM et ingénieurs se répartissent chacun leur travail et avancent comme sur un tapis roulant d’usine ? Cela amène à se poser la question. L’idéal n’est pas un travail typique de simple « responsable » chargé de quelques tâches précises, mais une forme d’organisation où des membres ayant chacun leur spécialité se réunissent, définissent ensemble un objectif commun, et où l’ensemble des membres se soutient mutuellement.
Dans beaucoup d’entreprises, l’organisation se construit sous forme de task forces, via des spin-offs ou la constitution d’équipes. Mais là aussi, comme on ne fait que regrouper des personnes (des rôles), cela peut produire un renforcement négatif — par exemple : « j’essaie de faire quelque chose, mais l’entreprise ne m’aide pas ; autant abandonner » — et l’on risque alors de ne perdre que les talents les plus importants, comme les key members. C’est pourquoi une organisation orientée par objectif a elle aussi absolument besoin du soutien actif d’une organisation par rôles.
Les LLM ne sont pas de l’intelligence artificielle
Il suffit d’avoir étudié l’IA au niveau licence pour savoir que les LLM ne sont pas intelligents ; le problème, c’est d’avoir mordu à ce coup marketing monté par un juif sans diplôme de lycée.
Les absurdités actuelles dans l’industrie des LLM font penser à Nikola, qui a escroqué les gens avec son camion à hydrogène.
Une entreprise incapable de fabriquer une pile à combustible à hydrogène, qui n’a produit que la coque d’un camion électrique à hydrogène avant de faire faillite pour escroquerie, et un juif sans diplôme de lycée incapable de créer de l’intelligence, qui fabrique juste un chatbot LLM et fait tout un spectacle en prétendant que c’est de l’intelligence : c’est du même niveau.
Les États-Unis n’ont plus désormais la capacité d’assurer correctement des technologies clés dans aucun domaine et sont tombés au rang d’un pays qui n’a d’autre raison d’exister que comme arnaque de type Ponzi au niveau de Madoff, attirant de l’argent par le seul marketing via SBS.
À l’avenir, le seul domaine de l’IA réellement rentable sera sans aucun doute la Computer Vision AI, et c’est elle qui déterminera les guerres futures et la puissance militaire.
Or, dans le domaine de la Computer Vision AI, la Chine monte en flèche à la première place mondiale et se développe comme puissance hégémonique.
Si, comme aux États-Unis, les investissements massifs centrés sur les LLM explosent en bulle, il est désormais très probable que les États-Unis perdent le leadership de l’IA au profit de la Chine.
Dans les sociétés occidentales, les investissements actuels dans les LLM portés par une majorité de wordcels sont en train de se heurter à un mur ; leurs mérites et leurs torts seront méthodiquement disséqués par des capitalistes qui examinent tout à la loupe, et l’onde de choc pourrait se propager à des domaines connexes comme la Computer Vision AI, avec un risque important de contraction de l’industrie de l’IA pendant un certain temps.
À l’inverse, la Chine, où l’État pilote la recherche et développement, a de fortes chances d’être relativement à l’abri de cette bulle de l’IA venue des États-Unis.
Par conséquent, cette surchauffe d’investissement dans les LLM pourrait bien devenir le facteur qui fixe les États-Unis dans un statut de puissance de second rang.
L’ingénierie du contexte — donner des consignes intelligemment avec le What + Why !
Et en plus, il a éclairci de façon limpide de nombreux points que je me demandais au quotidien :)
Je suis à la fois désolé et reconnaissant de pouvoir consulter gratuitement des informations d’une telle qualité !!!!
Le nom de l’image Docker est
lancard/xwindow-korean.Comme c’est du Wayland, j’ai changé le nom du dépôt en https://github.com/lancard/xwindow-korean ~
Comme Ubuntu appartient à la famille Debian, vous pouvez aussi utiliser facilement
aptet autres outils. Au final, j’ai trouvé Debian meilleure que l’image de base Ubuntu.Rust a beau avoir l’air pas mal, j’ai l’impression que c’est la seule langue que j’hésite à adopter à cause de son fandom toxique (?)