- Google a introduit dans les résultats de recherche des résumés générés par l’IA (AI Overviews), qui puisent souvent dans le contenu des sites et ont pour effet de leur retirer du trafic
- Les exploitants de sites ne disposent en pratique que d’options extrêmes, comme le blocage des extraits (
max-snippet:0, nosnippet) ou un blocage partiel (data-nosnippet), ce qui les place dans un dilemme sans issue
- Côté utilisateur, il n’existe que des solutions d’évitement limitées et imparfaites, comme la désactivation dans Search Labs, des paramètres d’URL ou des extensions
- Les autorités de régulation de l’UE et du Royaume-Uni enquêtent actuellement sur le caractère anticoncurrentiel de Google AI Overviews et sur les préjudices causés aux éditeurs, et envisagent des mesures comme le partage de trafic ou un opt-out équitable
- Pour le moment, la seule réponse réellement applicable pour les éditeurs est
max-snippet:0, mais son défaut majeur est de faire baisser le taux de clic, d’où les critiques visant la conception en dark pattern de Google
Le problème des résumés IA de Google (AI Overviews)
- Récemment, Google a introduit dans les résultats de recherche des résumés IA (SGE: Search Generative Experience) générés automatiquement par l’IA
- Cette fonctionnalité vise à améliorer l’expérience utilisateur en analysant le contenu principal des sites web pour l’afficher directement sous forme de résumé
- Mais de nombreux propriétaires de sites web se retrouvent confrontés au fait que les utilisateurs consomment uniquement le contenu résumé sans visiter le site d’origine
- Cela se traduit au final par une baisse du trafic organique des sites web
L’impact des résumés IA de Google
- Les résumés IA résument automatiquement le contenu des sites web sans le consentement de leurs propriétaires et l’affichent en haut des résultats de recherche
- Les utilisateurs ont de plus en plus tendance à se contenter du résumé sans cliquer vers le site d’origine
- En conséquence, l’efficacité des stratégies SEO traditionnelles diminue, au détriment des exploitants de sites
Comment les webmasters peuvent réagir
- 1.
max-snippet:0
<meta name="robots" content="max-snippet:0">
- Bloque tous les extraits et résumés IA, si bien que les résultats de recherche n’affichent plus que le titre + l’URL
- Inconvénient : cela peut faire fortement baisser le taux de clic (CTR)
- À ce stade, c’est la méthode la plus efficace, mais pas une solution parfaite
- 2.
nosnippet
<meta name="robots" content="nosnippet">
- Produit le même effet que
max-snippet:0, en supprimant totalement la description et le résumé dans les résultats de recherche
- Les résultats peuvent alors devenir plus monotones et moins attractifs
- Empêche les résumés IA, mais peut entraîner une baisse de la visibilité dans la recherche
- 3.
data-nosnippet
<span data-nosnippet>…</span>
- Permet d’exclure sélectivement certains contenus
- Mais Google peut toujours utiliser d’autres textes pour ses résumés, ce qui empêche tout contrôle total
- Applicable à des éléments HTML (
span, div, section)
- 4. Alternatives côté utilisateur (n’affectent que le compte personnel)
- Opt-out Search Labs : les utilisateurs connectés peuvent désactiver “AI Overviews and more”
- Cela ne s’applique qu’au compte utilisateur et n’a aucun effet sur la manière dont les autres voient le site web
- Modificateurs d’URL : ajouter
&udm=14, -AR, -noai à la requête de recherche
- Extensions de navigateur : il est possible d’utiliser des outils comme Bye Bye Google AI
- Ils peuvent cesser de fonctionner lors des mises à jour de Google
- Hack Reddit : une méthode consistant à ajouter des grossièretés pour contourner les résumés IA a été proposée
- Une rustine temporaire peu pratique
- Sur iOS, on peut désactiver l’affichage de Gemini dans l’application Google, utiliser l’onglet Web, ou recourir à des navigateurs alternatifs comme Safari ou DuckDuckGo
- 5. Un espoir réglementaire : les enquêtes de l’UE et du Royaume-Uni
- UE
- Independent Publishers Alliance, Movement for an Open Web, Foxglove Legal et d’autres ont déposé une plainte antitrust auprès de la Commission européenne
- Ils affirment qu’AI Overviews entraîne un usage abusif des contenus, une fuite du trafic et l’absence d’opt-out équitable
- Royaume-Uni
- La Competition and Markets Authority (CMA) enquête sur un possible frein à la concurrence causé par les résumés IA et sur les préjudices subis par les éditeurs
- Elle étudie notamment l’affichage obligatoire des sources, le partage de trafic et des limites à l’auto-préférence de Google
Le fond du problème
- Le dilemme des éditeurs : s’ils ne bloquent pas les extraits, l’IA exploite leur contenu et provoque une perte de trafic ; s’ils les bloquent, ils perdent en visibilité dans la recherche
- Manque de contrôle pour les utilisateurs : les alternatives sont contraignantes, incomplètes et incohérentes
- Critique du dark pattern : la conception structurelle de Google est considérée comme un design manipulateur qui force les éditeurs à renoncer à quelque chose d’important
- C’est un exemple typique de dark pattern imposant aux éditeurs un choix défavorable
Conclusion
- Tant que les régulateurs n’imposeront pas de changement, la seule option actuelle des éditeurs reste
max-snippet:0, au prix d’une grave perte de visibilité
- Les propriétaires de sites web doivent choisir de façon injuste entre bloquer les résumés IA et perdre en visibilité
- La politique de Google constitue une structure de choix forcé sans issue, c’est-à-dire un dark pattern typique
- Les futures décisions des régulateurs européens et britanniques sont le seul espoir de faire évoluer la situation, mais elles n’apporteront pas de solution immédiate
3 commentaires
À ce sujet, il peut être utile de lire aussi l’article La fin de l’ère du SEO ? Le début de l’optimisation marketing pour les agents IA.
Quand on regarde Reddit sur les sujets liés au SEO, on voit pas mal de posts où les gens disent que, même si la visibilité sur Google reste la même, le trafic a beaucoup baissé à cause du zero-click, et expriment leur inquiétude à ce sujet.
> Considéreriez-vous cela comme une fonctionnalité équitable — ou comme un exemple classique de conception de dark pattern ? Dites-le-nous dans les commentaires.
Le texte dit vraiment de laisser un commentaire, mais il ne semble pas y avoir de fonction de commentaires sur le site.
Si c’est un article écrit par une IA pour expliquer comment bloquer l’IA, c’est tout de même assez contradictoire.
Commentaire Hacker News
J’ai l’impression qu’on assiste depuis des décennies, dans tous les secteurs, à la généralisation du phénomène des « portails/courtiers ». Une couche tierce s’interpose entre consommateurs et producteurs, ce qui a simplifié la vie des deux côtés, mais dont on dépend désormais. Quand on commande sur Amazon, on ne parle plus directement au vendeur, et quand on commande à manger, on ne paie plus directement le restaurant. Sur le web aussi, quand on cherche de l’information, on n’a plus à gérer le style propre à chaque auteur, la navigation, les pubs, etc. Du point de vue des propriétaires de contenus, cette structure réduit les visites sur les pages et nuit aux revenus publicitaires et, contrairement à Amazon ou aux applis de livraison, les pertes pub liées aux résumés Google ne sont pas compensées. Comme l’essentiel des contenus en ligne vit de la publicité, et que Google dépend lui aussi de ses revenus publicitaires, il pousse malgré tout cette évolution parce qu’il estime ne pas avoir le choix pour l’avenir. Google semble uniquement concentré sur le fait de conserver sa place dans le futur
Le fait que Google ou d’autres IA aspirent et retraitent sans autorisation les contenus protégés de mon site produit logiciel me dérange. Mais si je les bloque, il devient presque impossible que mon contenu soit mentionné dans leurs résumés IA
Je ne comprends pas comment cette fonctionnalité de résumés IA n’est pas en train de cannibaliser les revenus futurs de Google. Google gagne de l’argent en envoyant du trafic vers des sites via la publicité, mais avec ce type de résumé il rend les sites eux-mêmes superflus. Dans ce cas, qui voudra encore créer un site sans visiteurs ?
J’ai configuré mon site personnel dans Apache pour bloquer l’indexation, les snippets, la traduction et l’indexation des images. Malgré cela, Internet Archive a quand même ignoré ces règles et aspiré le site, et n’a jamais donné suite à plusieurs demandes de suppression. J’utilise maintenant Anubis pour bloquer davantage de scraping. (C’est un journal public commencé en 2000, et je préfère qu’il ne soit pas trouvable par recherche)
robots.txt. Cette politique a changé plusieurs fois, mais ces dernières années ils respectent de nouveaurobots.txt. Voir la FAQD’une certaine manière, publier consiste à rendre quelque chose public afin que les gens aient une certaine liberté d’en faire usage. Cette liberté peut aider le site, ou non. Chaque fois qu’une grande plateforme comme Google change, les éditeurs de contenus ont toujours dû s’adapter. Les résumés IA ne sont qu’une évolution de plus dans ce mouvement
Dans le dernier paragraphe de ce billet de blog, il est écrit « laissez un commentaire », mais la zone de commentaires n’apparaît nulle part, donc je me demande si ce n’est pas du contenu généré par IA
Je me demande si cette fonctionnalité marche aussi chez Perplexity, OpenAI, Claude, etc.
Je pense que ce serait bénéfique pour tout le monde si Google citait clairement ses sources, comme Perplexity. Cela donnerait des liens et du crédit à l’original, tout en améliorant l’UX
À l’avenir, mon domaine d’expertise sera la manière d’optimiser les sites d’entreprise pour que les LLM les résument correctement. Il y aura besoin de contenus de guidage détaillés et fidèles de ce type
J’ai collé le titre et le domaine de cet article, et j’obtiens un résultat différent. Image de référence