- Meta Platforms a officiellement annoncé qu’elle ne signerait pas le code de conduite sur l’intelligence artificielle de l’Union européenne (UE)
- Joel Kaplan, responsable mondial des politiques publiques chez Meta, a souligné que ce code constituait une réglementation excessive qui freine l’innovation et la croissance
- Ce code vise à fournir des lignes directrices en matière de transparence et de sécurité pour se conformer à l’AI Act (adopté en 2024)
- La Commission européenne a publié la semaine dernière la version finale du code de conduite pour les modèles d’IA à usage général, et chaque entreprise peut décider librement de le signer ou non
- Outre Meta, des entreprises comme ASML et Airbus ont participé à une lettre demandant le report de son application, tandis qu’OpenAI a indiqué son intention d’adhérer au code de conduite
Pourquoi Meta rejette le code de conduite européen sur l’IA
- Meta Platforms a officiellement annoncé avoir décidé de ne pas signer le code de conduite sur l’intelligence artificielle de l’Union européenne
- Son responsable mondial des politiques publiques, Joel Kaplan, a déclaré que « l’Europe s’engage sur la mauvaise voie en matière d’IA »
- Kaplan affirme que ce code crée une incertitude juridique pour les développeurs de modèles et introduit des mesures excessives allant au-delà du champ de l’AI Act
- Ce code de conduite vise à préciser les exigences de transparence et de sécurité de l’AI Act, adopté l’an dernier, et doit entrer en vigueur le mois prochain
Aperçu du code de conduite européen sur l’IA
- La Commission européenne a publié la version finale du code de conduite pour les modèles d’IA à usage général
- Chaque entreprise peut décider librement de signer ou non le code
- L’objectif du code est de fournir un framework de conformité à l’AI Act et de garantir la transparence et la sécurité des technologies d’IA
Réactions du secteur et principaux enjeux
- Kaplan, chez Meta, a critiqué un texte qu’il juge sur-réglementé, estimant qu’il constituera un obstacle majeur au développement des modèles d’IA et à la croissance des activités en Europe
- Certaines grandes entreprises, dont ASML et Airbus, ont affiché une position critique en signant une lettre demandant un report de deux ans de sa mise en œuvre
- À l’inverse, OpenAI a officiellement indiqué son intention de participer au code de conduite européen
Changement à la tête des politiques publiques mondiales de Meta
- Joel Kaplan a été nommé responsable mondial des politiques publiques de Meta au début de 2025
- Il avait auparavant occupé le poste de vice-président chargé de la politique américaine chez Facebook et travaillé dans l’administration de George W. Bush
2 commentaires
L’explication du premier projet de l’EU AI Act par Latham & Watkins, mentionnée dans le commentaire Hacker News ci-dessous
European Commission Releases First Draft of General-Purpose AI Code of Practice
Principaux points du projet d’EU AI Act
Transparence
Respect du droit d’auteur
Text and Data Mining (TDM)
Transparence sur le respect du droit d’auteur
Classification des risques systémiques
Cadre de gestion des risques systémiques
Avis sur Hacker News
Meta n’est pas la seule : 40 entreprises européennes ont aussi demandé à l’UE un report de deux ans, au motif que la mise en œuvre de l’AI Act manque de clarté ; ce code of practice constitue une référence volontaire et reste plus large que la loi elle-même ; l’UE a laissé entendre qu’une participation volontaire à ce cadre pourrait alléger la pression réglementaire ; Meta, toutefois, estime que cela présente peu d’intérêt concret puisqu’elle sera de toute façon régulée sur tous les plans ; un point important du texte est que le fournisseur du modèle pourrait être tenu responsable même si un partenaire en fait un usage inapproprié ; c’est une exigence très difficile pour l’open source ; par exemple, les fournisseurs de GPAI sont censés mettre en place des dispositifs raisonnables pour prévenir les violations du droit d’auteur, et il leur est aussi recommandé d’indiquer contractuellement que leurs partenaires doivent respecter ces garde-fous ; pour plus de détails, voir l’analyse de Latham & Watkins
En lisant la citation, on comprend mieux le contexte dans lequel l’UE a prévu une exception autorisant l’utilisation, sans licence, de contenus protégés par le droit d’auteur comme données d’entraînement ; même si l’application sera difficile, je trouve que l’équilibre recherché est plutôt élégant
Cette référence me paraît raisonnable ; même pour les modèles d’IA open source, on peut intégrer dans la licence une clause du type « prendre les mesures appropriées pour éviter de générer de manière répétée des résultats identiques ou similaires à des contenus protégés par le droit d’auteur » ; on parle ici du droit européen, pas du droit américain, et la notion de « raisonnable » est interprétée par les juges en mettant en balance les intérêts des deux parties, pas par une simple lecture littérale
C’est vraiment frustrant de voir qu’on se met à réglementer si vite une industrie naissante alors qu’on ne sait encore rien de la manière dont le marché va évoluer
Je ne trouve pas cette référence excessive si elle vise à empêcher la diffusion de modèles capables de reproduire directement un grand nombre d’œuvres protégées ; ce ne serait pas acceptable non plus pour un logiciel classique, donc il n’y a pas de raison que les modèles d’IA bénéficient d’une exception juste parce que ce sont des modèles d’IA
Le passage selon lequel le fournisseur du modèle serait responsable aussi des abus commis par ses partenaires ne figure pas dans le texte même de la loi[0], mais dans le chapitre copyright du Code of Practice ; cela dit, ce Code n’ajoute pas d’exigences à la loi, il donne surtout des exemples de la manière dont on peut s’y conformer ; par exemple, la loi exige le respect d’un opt-out lisible par machine sans préciser comment faire, et le code cite robots.txt comme exemple ; les éléments liés au copyright sont précisés dans la mesure 1.4 : a) prendre des mesures techniques pour éviter que le modèle ne reproduise des contenus contrefaisants, b) indiquer clairement dans les conditions d’utilisation ou la documentation que les usages portant atteinte au droit d’auteur ne sont pas autorisés ; pour les modèles open source, il suffit d’en informer dans la documentation ; ce Code of Practice ne s’applique qu’en cas de signature volontaire, et le fait qu’un tiers prenne mon modèle puis signe ne crée pas de responsabilité pour moi ; c’est un peu comme publier un plugin Photoshop sous GPL sans que cela oblige à publier le code source de Photoshop ; la loi prévoit plusieurs exceptions pour l’open source ; si Meta s’y oppose, c’est apparemment parce que l’EU AI Office ne reconnaît pas Meta AI comme open source, ce qui l’empêcherait de bénéficier de ces exceptions ; pour les textes exacts, voir le lien vers la législation et le lien vers le Code of Practice
J’admets que la seule réaction de Meta suffit à me faire penser, avec un certain biais, que cette loi sur l’IA contient probablement quelque chose dont on a réellement besoin ; je ne sais pas exactement ce qu’elle contient, mais c’est ce que ça m’inspire
L’« AI Code of Practice » se compose de trois chapitres, consultables ici ainsi que dans l’historique des brouillons ; je n’ai pas encore lu le texte intégral, je connais surtout l’AI Act précédent (artificialintelligenceact.eu) ; j’imagine que Meta vise surtout le chapitre 2, sur le droit d’auteur, notamment parce qu’il entre en conflit avec la pratique consistant à crawler sans autorisation des contenus protégés ; on ne sait toujours pas clairement si cela relève vraiment du « fair use »
Ce n’est pas parce qu’une entreprise est « mauvaise » que ce qu’elle dit est nécessairement faux
Pour ceux qui veulent un résumé des lignes directrices, on peut le consulter ici ; clairement, c’est une réglementation lourde, et à première vue elle semble surtout avantager les grands détenteurs de droits, les avocats et les bureaucrates
Ces régulations risquent au final de devenir un piège pour les entreprises européennes ; dès qu’on dépasse une certaine taille, le poids réglementaire augmente brutalement, si bien que, pour les PME et startups européennes de l’IA, franchir le seuil de croissance devient presque inquiétant ; à l’inverse, les big tech américaines et chinoises peuvent innover bien plus vite, améliorer leurs niveaux en IA et renforcer leur capital, puis entrer sur le marché européen avec des produits mieux aboutis et des moyens financiers bien supérieurs, ce qui peut faire pencher la vraie concurrence en leur faveur
L’Europe n’a jamais vraiment su faire émerger une industrie de l’IA, et pourtant elle veut réglementer l’ensemble du secteur avec un niveau de détail excessif ; on a l’impression d’une réglementation pour la réglementation ; j’espérais un tournant après le rapport Draghi sur la compétitivité de l’UE, mais je suis très déçu de voir que l’UE n’a absolument pas changé de cap ; cela me fait perdre confiance dans la politique européenne
Vous parlez de quelque chose de « lourd », mais j’aimerais savoir concrètement ce qui vous paraît si contraignant
Les règles de l’UE ont parfois eu le pouvoir d’imposer leurs standards au monde entier, comme avec les politiques de cookies ; en général, pour qu’une minorité impose ses exigences à la majorité, il faut que le coût de la conformité soit inférieur au coût du refus ; mais l’IA est différente : l’enjeu est trop grand et personne ne s’arrêtera ; l’IA ne pourra jamais être stoppée, sauf peut-être par une guerre nucléaire
Les risques potentiels de l’IA sont énormes, depuis les armes automatisées jusqu’à une AGI malveillante ; l’Allemagne porte encore le traumatisme des mitrailleuses automatisées de l’époque de la division entre RFA et RDA, et l’Ukraine subit elle aussi un choc psychologique majeur face à la guerre des drones ; les risques concrets de l’IA sont bien réels ; la régulation et le droit sont indispensables
Le résultat de la loi sur les cookies, c’est surtout que les gens se retrouvent harcelés par des pop-ups sans fin ; sans uBlock, naviguer sur le web devient pénible ; le suivi des utilisateurs s’est déplacé côté serveur, et la protection réelle de la vie privée ne s’est pas améliorée ; il y a trop d’argent en jeu, donc l’industrie contourne facilement ce type de réglementation mal conçue
Je suis surpris de voir autant de commentaires qui adhèrent spontanément à la régulation européenne ; suis-je le seul à considérer, au fond, que la régulation européenne est excessive et mal conçue ?
Jusqu’ici, l’Europe n’a jamais produit de politique capable de casser le monopole des big tech américaines ; la plupart des utilisateurs européens dépendent toujours de Google, Meta et Amazon ; l’objectif de l’UE ne semble pas être de s’opposer frontalement aux entreprises américaines, mais plutôt d’imposer un minimum de bienséance et de protéger certains intérêts de sécurité nationale ; c’est une position peut-être trop policée, mais fondamentalement rationnelle
S’il s’agit de protéger les citoyens, je me demande en quoi une réglementation stricte serait forcément une mauvaise chose
Qualifier cela d’« aveugle » revient à supposer que vous avez raison et que ceux qui ne sont pas d’accord le sont seulement parce qu’ils ne savent pas ; comme vous dites vous-même que vous le « supposez au fond », c’est un peu vous critiquer vous-même
En réalité, j’ai l’impression qu’il y a beaucoup trop d’avis extérieurs qui cherchent à rabaisser l’Europe
Le problème, c’est justement de « supposer au fond » ; au lieu de partir de cette hypothèse, mieux vaut lire les textes concernés et se forger sa propre opinion ; je proposerais à chacun d’avoir son propre point de vue, plutôt que de simplement reprendre celui de multinationales transnationales
J’ai peur que l’UE finisse par coller des pop-ups aux LLM comme elle l’a fait à tous les sites web
Internet a toujours été rempli de pop-ups et de dark patterns destinés à capter l’attention ; ce qui est curieux, c’est qu’on ne semble s’indigner que des pop-ups qui donnent aux utilisateurs la possibilité de refuser le tracking
Ce n’est pas l’UE qui a rendu les pop-ups obligatoires, ce sont les entreprises ; les sites web pourraient très bien réduire, voire éviter, la collecte de données, et n’auraient alors pas besoin de pop-up ; au lieu de cela, ils ont sacrifié l’expérience utilisateur pour introduire des pop-ups inutiles, d’où le chaos actuel ; à l’inverse, les sites qui ne collectent rien, comme le blog de Fabien Sanglard, n’ont aucun pop-up ; l’erreur de l’UE a été de ne pas anticiper ce type de détournement, et le résultat est effectivement très mauvais
On peut très bien faire sans pop-ups, mais tout le monde se contente d’imiter les grandes entreprises ; l’imitation passe avant l’expérience utilisateur
Je déteste vraiment ces pop-ups ; voir cette situation perdurer montre à quel point les responsables avancent lentement
Je suppose que l’objectif est de freiner la croissance de Meta ; si l’on en croit son post LinkedIn, Meta affirme au contraire s’inquiéter de l’impact sur la croissance des entreprises européennes, en expliquant que « cette sur-réglementation risque de freiner le développement et le déploiement de modèles d’IA de frontière en Europe, ainsi que les entreprises européennes qui veulent bâtir leur activité au-dessus de ces modèles »
Quand Meta dit qu’elle « partage les inquiétudes d’autres entreprises », cela signifie surtout qu’elle utilise l’argument qui l’arrange sur le moment pour faire sa propre communication ; en réalité, elle ne se soucie ni de l’intérêt général ni de celui des autres entreprises, elle veut seulement collecter plus de données et vendre plus de publicité
En parcourant le Code of Practice lui-même, on ne voit rien de particulièrement excessif ni d’assimilable à un « abus de pouvoir » ; au fond, il s’agit simplement d’exiger que les fournisseurs de modèles agissent de manière transparente, ce qui entre en conflit avec la manière dont Meta a l’habitude de fonctionner
Le post LinkedIn de Kaplan n’indique absolument pas quels éléments précis de la politique posent problème ; même l’expression « freiner la croissance » pourrait en réalité désigner quelque chose d’assez modeste, comme l’obligation d’opt-in pour introduire de nouvelles fonctionnalités
L’environnement mondial devient de plus en plus polarisé, et j’estime que Meta a sa part de responsabilité dans l’amplification du mécontentement et des conflits ; un jour, j’aimerais aller en Europe et pouvoir y utiliser librement des LLM open source
J’espère que cette discussion ne va pas dériver vers l’idée que « s’il y a de la régulation, le développement de l’IA s’arrête » ; il faut aussi accorder une vraie valeur à la protection du droit d’auteur et à la provenance de l’information