L’IA va se heurter à la violence, et rien de bon n’en sortira
(thealgorithmicbridge.com)- La violence contre la technologie, née du mouvement luddite à l’époque de la révolution industrielle, renaît aujourd’hui à travers des attaques visant l’IA et les datacenters
- Des cas réels de violence se multiplient, comme l’attaque au cocktail Molotov contre le domicile du CEO d’OpenAI Sam Altman, une fusillade visant un datacenter et des menaces de mort proférées par un militant anti-IA
- Plus une technologie est impossible à détruire physiquement, plus la colère tend à se retourner contre les humains qui l’ont créée
- L’industrie de l’IA, en répétant que les emplois seront remplacés et l’avenir incertain, attise le désespoir et la colère du public
- Si ce cercle vicieux se poursuit, la violence de l’ère de l’IA risque de conduire à un effondrement au sein même de la société humaine
La vulnérabilité de la technologie et la violence humaine
- Le métier à tisser (loom) est une structure délicate, facilement brisée selon l’humidité ou la tension, symbole de la révolution industrielle et outil sophistiqué façonné par la main humaine
- Une structure où des pièces reliées par le bois et le fil peuvent faire s’effondrer l’ensemble à la moindre fissure ou au moindre relâchement
- Il a constitué la base de l’industrie textile et est présenté comme le point de départ d’une évolution technologique menant ensuite aux usines, aux infrastructures énergétiques et aux datacenters
- Le datacenter est décrit comme une structure géante faite de béton, d’acier et de cuivre, comparée à un « métier à tisser » moderne doté de redondances et de systèmes de sécurité
- Il est protégé par des serrures biométriques, des clôtures électrifiées et des gardes armés, et conçu pour qu’une panne unique n’arrête pas l’ensemble
- Les algorithmes qu’il abrite n’existent pas comme des équipements physiques, mais comme des motifs numériques distribués dans le monde entier
- Il est souligné qu’au-delà de la destruction physique, il est impossible d’arrêter les algorithmes et la superintelligence (superintelligence) eux-mêmes
- La superintelligence est décrite comme quelque chose qui « sort de sa boîte », une entité que l’être humain ne peut plus contrôler
- Certains vont jusqu’à prôner le bombardement de datacenters pour l’empêcher, et l’on cite un cas où les gardiens de la révolution iranienne ont menacé de détruire le campus Stargate d’OpenAI
- Même à mesure que la technologie progresse, la vulnérabilité physique de l’être humain, elle, ne change pas, d’où l’avertissement final : la cible des attaques ne sera pas la technologie, mais les personnes
Répétition historique : des luddites à l’ère de l’IA
- Le texte évoque l’affaire de 1812 en Angleterre, où le propriétaire d’une filature William Horsfall a été abattu par le militant luddite George Mellor
- Horsfall se vantait de réprimer les travailleurs, et Mellor fut pendu
- L’épisode est présenté comme un exemple historique de violence lorsque le progrès technologique menace la survie humaine
- En parallèle, le texte mentionne l’attaque au cocktail Molotov contre le domicile de Sam Altman, CEO d’OpenAI, à San Francisco en 2026
- L’assaillant était Daniel Alejandro Moreno-Gama, 20 ans, actuellement détenu
- Altman et sa famille n’ont pas été blessés, mais l’affaire est présentée comme le début d’une violence directe contre les dirigeants technologiques
- On y trouve aussi le cas du domicile du conseiller municipal d’Indianapolis Ron Gibson, visé par 13 coups de feu accompagnés du message « NO DATA CENTERS »
- Gibson soutenait la construction d’un datacenter dans la région ; ni lui ni son fils n’ont été blessés
- En 2025, un militant anti-IA ayant proféré des menaces de mort contre le bureau d’OpenAI à San Francisco a également été arrêté
- Ces événements montreraient que la colère contre l’IA et les datacenters se transforme en violence dirigée contre des êtres humains
- Plus les cibles technologiques sont inaccessibles, plus la colère se reporte sur des cibles humaines
Le lien entre désespoir et violence
- Le fait que les dirigeants des entreprises d’IA répètent que « l’IA remplacera les emplois » est présenté comme un facteur qui attise la colère du public
- Beaucoup ont le sentiment que « c’est vous qui avez créé cette époque d’incertitude », ce qui nourrit une réaction émotionnelle
- La friction qui mène à la violence est forte, mais si un désespoir partagé se diffuse, cette friction peut disparaître
- Lorsque les gens ont le sentiment d’être exclus de l’avenir, c’est-à-dire de perdre leurs moyens de subsistance et d’être remplacés par la technologie, la violence risque de devenir réelle
- Cela peut conduire à un choix extrême : « vivre ou tuer »
- La plus grande erreur de l’industrie de l’IA est décrite comme le fait d’avoir annoncé un remplacement généralisé des emplois sans transition sûre
- Des déclarations du type « nous créons une technologie qui va bouleverser en profondeur le travail de bureau » se répètent et amplifient l’anxiété sociale
- Ce type de discours autoréférentiel est critiqué parce qu’il donne au contraire une impression déshumanisée et psychopathique
La haine envers l’IA et la logique du bouc émissaire
- Les gens feraient de l’IA le bouc émissaire de tous les problèmes sociaux, en mêlant vrais problèmes et affirmations mensongères pour exprimer leur colère
- Par exemple, des problèmes réels comme le vol de données sont mentionnés au même titre que de fausses affirmations comme l’épuisement des ressources en eau
- Les entreprises elles-mêmes rejettent la responsabilité des licenciements sur l’IA afin d’échapper à la critique sociale
- En insistant elles-mêmes sur l’image d’une technologie dangereuse et puissante, les entreprises du secteur de l’IA alimentent leur propre défiance et la peur du public
- Une réaction du type « si l’IA est si dangereuse, pourquoi devrions-nous en subir les dommages ? » naît alors naturellement
- La violence contre Altman ne peut en aucun cas être justifiée, mais la possibilité qu’elle se poursuive demeure
- Les incidents récents sont interprétés comme des signes avant-coureurs
Le cercle vicieux qu’il faut stopper
- Des effets secondaires de l’IA comme les troubles mentaux, l’addiction, le chômage et le recul de l’alphabétisation ont déjà été signalés
- Il faut arrêter cette dynamique avant que cette anxiété sociale ne dégénère en violence
- La conclusion affirme que le progrès technologique ne doit pas évoluer dans une direction qui menace la dignité et la sécurité humaines
Aucun commentaire pour le moment.