C’est juste pour dire que ce genre de méthode existe, non..

 

Waouh... c’est impressionnant... vraiment. Que ce soit à ce point naturel...

 

On voit de temps à autre des cas de dommages causés par un trafic excessif provenant de services récemment connectés à des LLM, et cela semble en fait pouvoir être considéré aussi comme une mesure pour ce type de situation. Par exemple, quand on regarde la fonction de recherche web de ChatGPT, vu les caractéristiques de son pool d’utilisateurs, il y a largement matière à ce qu’un trafic excessif mais « non malveillant » se produise, et j’ai entendu dire que ces cas se filtrent facilement avec un simple filtrage par agent. Si c’est vraiment l’intention, cela ne fait au final que gaspiller les frais de serveurs d’OpenAI (et sa réputation ?)..

 

Et les informations sont vraiment très claires et faciles à assimiler...

 

Ce n’est pas une méthode très éthique. Et ce n’est pas non plus une solution de fond.

 

Article amusant ! C’est une méthode à laquelle je n’avais pas pensé, merci de l’avoir partagée !

 

Oh~ c'est prometteur.

 

Ces temps-ci, Google n’a pas seulement amélioré les performances de ses modèles de fondation, il excelle aussi dans la manière de les intégrer à ce type de services.

 

https://freederia.com/researcharchive/
C’est le site du scientifique IA.
Ce type d’orientation encouragera encore davantage la diversité des approches.

 

Quand les récompenses portent atteinte à l’autonomie d’une personne, elles nuisent à la motivation intrinsèque : cette idée me parle.

 

Je suis d’accord sur le fait que, qu’il s’agisse du User-Agent mentionné ou de la détection fondée sur l’IP évoquée dans le billet original, il est difficile d’affirmer qu’un accès est malveillant puisque les informations d’identification peuvent être maquillées. Un bot réellement malveillant s’y prendrait sans doute de manière plus subtile.
À mon avis, plutôt que ce type d’attaque, il serait plus réaliste comme « nudge » de proposer une API de crawling avec limitation de charge, afin d’autoriser les accès automatisés légitimes tout en protégeant les ressources du serveur. Haha

 

Franchement... c’est dingue... Même si ça devenait payant, la qualité est telle que je paierais pour l’utiliser.
Le fait d’écouter sous forme de podcast des sujets qui m’intéressent me permet d’assimiler les informations avec encore plus d’attention.
C’est vraiment excellent.

 

Je l’ai essayé, et c’est vraiment énorme....

Si je devais payer pour un seul service, je pense que je n’utiliserais que celui-là. Les services similaires vont probablement en subir fortement les conséquences.

 

Bien sûr, comme ce n’est pas un lieu public, c’était peut-être simplement un message posté sans trop y réfléchir.
Comme on peut aussi laisser un commentaire à la légère dans une communauté.
Je ne peux pas bloquer complètement les crawlers, donc l’idéal serait de ne même pas accepter les tentatives, mais je me demandais quelle était l’intention derrière le fait de chercher à provoquer.

 

C’est mon blog personnel, je n’ai pas le droit d’y écrire n’importe quoi ? 🤔

 

Comment gérez-vous les changements de version ?

 

Quel est le but de publier un tel article ?
Je pense qu’il y a très peu de chances que les entreprises qui font réellement tourner des crawlers lisent cet article et aillent jusqu’à l’exclure.
Alors, pour quels lecteurs cet article a-t-il été écrit ?
Est-ce un billet de présentation pour faire savoir aux autres personnes qui tiennent aussi un blog qu’il existe ce genre de méthode,
ou bien une provocation du style : mon blog est tellement sécurisé que, si vous pouvez, essayez donc de le crawler ?
Je suis vraiment curieux de savoir ce qu’on gagne à publier ce genre d’article

 

Donc, si un bot est identifié via son IP, l’idée est aussi de lui envoyer une bombe. haha
On sent bien la colère de l’auteur. haha