J’aime les deux outils. Ils ont des écosystèmes et des objectifs qui se recoupent en partie, mais ce ne sont pas exactement les mêmes outils, donc on ne devrait pas les juger selon leur niveau de difficulté. Avec vite, on peut écrire des scripts de manière très large et très fine. Stimulus ou Hotwire sont plutôt mieux adaptés pour minimiser le développement de scripts.
Récemment, j’ai déménagé et je me retrouve dans la situation où je dois nettoyer mes poubelles. Je trouvais ça trop sale à faire dans le jardin derrière chez moi, et en réfléchissant, je suis tombé sur un business assez particulier près de chez moi.
Un véhicule de nettoyage vient jusqu’à la maison, il suffit d’y mettre la poubelle, et à l’intérieur un équipement s’occupe automatiquement de tout bien laver. L’eau utilisée après le lavage est ensuite ramenée dans leurs locaux pour être retraitée avant d’être rejetée, donc j’imagine qu’en étant enregistrés comme entreprise environnementale, ils doivent aussi bien profiter d’avantages fiscaux.
Le nom de cette entreprise est happy cans. C’est une société locale de San Diego, mais j’imagine qu’il y en a probablement une comme ça dans chaque ville.
Je serais curieux d’avoir l’avis d’autres personnes qui l’ont réellement utilisé, mais personnellement je vois trop souvent des coquilles dans les articles (par exemple des phrases qui se terminent alors qu’il manque un mot), donc à ce niveau de qualité, je ne pense pas continuer à l’utiliser. C’est un service dont j’attendais beaucoup, pourtant…
Je voulais trouver davantage de sources, mais l’article Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions cité comme référence dans l’original semble avoir été retiré, ou en tout cas je ne peux pas en vérifier le contenu.
Ce qui me laisse aussi un peu perplexe dans le corps du texte, c’est le passage : « Pensez aux publications Reddit, aux discussions de communauté ou aux fils d’experts. Ce type de contenu entre-t-il dans le top 10 de Google sur des requêtes commerciales ? Presque jamais. En revanche, Reddit dominait les positions 15 à 40. » Or, juste en dessous, le graphique “Top 10 Websites” de Perplexity montre précisément Reddit en première position avec 46,7 %. Cela donne une impression de légère contradiction. L’effet de la recommandation personnalisée joue peut-être, mais empiriquement aussi, il arrivait souvent que des résultats Reddit remontent assez haut dans Google.
Par ailleurs, il est exact qu’à partir du 12 septembre, Google a modifié le fonctionnement du paramètre de requête num=100 dans ses résultats de recherche pour qu’il ne renvoie plus que 10 résultats[^1]. Cela a sans doute provoqué une confusion passagère pour les outils SEO, mais certains estiment que cela reste un problème contournable, soit en payant 10 requêtes au lieu d’une seule, soit via des requêtes plus précises[^2]. À l’inverse, il existe aussi l’hypothèse selon laquelle la baisse du trafic de citations Reddit dans ChatGPT pourrait plutôt s’expliquer par une modification interne des spécifications du modèle chez OpenAI le 12 septembre[^3].
L’idée est bonne, mais en voyant les images d’exemple, ça a l’air vraiment très lent à l’usage... Je pensais que c’était une appli node.js, donc j’ai été surpris de voir que c’était en Rust.
Et le fait de demander une installation via un long script d’installation bizarre ne me plaît pas non plus. Quand je pense qu’il faudrait trouver comment le désinstaller puis l’enlever petit à petit à la main, ça ne me donne pas envie de l’installer.
Pour l’instant, ce n’est peut-être qu’un léger inconfort, mais si ça continue comme ça, les contenus qu’une IA amplifie et reproduit à grande échelle finiront eux aussi par se limiter à ce qui figure dans le top 10. Au bout du compte, les données hors classement seront rapidement reléguées à l’arrière-plan en termes d’accessibilité, ce qui nuira à la diversité. En forçant un peu le trait, on pourrait même se retrouver avec une forme d’« inceste » des contenus IA, provoquant une sorte de maladie génétique des données.
C’est peut-être une imagination complètement farfelue, mais quand on pense qu’un très grand nombre de personnes n’accèdent qu’à une zone restreinte de données via l’intelligence artificielle, et que les données produites par l’intelligence artificielle retournent ensuite alimenter l’apprentissage de cette même intelligence artificielle, mon intuition me dit simplement que ce n’est pas une bonne direction.
Bien sûr, on ne peut pas non plus complètement ignorer le problème du trafic excessif généré par l’IA.
Quand OpenAI a dit qu’il achèterait des puces AMD en échange de stock-options (?), l’action a fortement grimpé, mais à l’inverse, si des nouvelles sortent sur une détérioration des résultats d’OpenAI ou un ralentissement de sa croissance, je n’arrive pas du tout à imaginer jusqu’où l’impact se propagerait ensemble. On dirait qu’un peu comme lors des subprimes en 2008, les big tech comme les entreprises d’IA sont toutes couplées entre elles.
Pour ajouter ce que je sais : lorsqu’on faisait une recherche Google avec une URL, on pouvait entrer le paramètre de requête "num=100" pour récupérer d’un coup les 100 premiers résultats. Mais Google a récemment supprimé cette possibilité, donc on ne peut désormais récupérer que les 10 premiers résultats.
Le problème, c’est que les SaaS liés au SEO utilisaient cette fonction pour afficher à quelle position apparaissait un mot-clé donné dans Google, mais maintenant qu’on n’obtient plus que jusqu’à la 10e place, l’affichage des classements est cassé. Et deuxièmement, comme le dit l’article, lorsque les systèmes d’IA effectuent une recherche web puis récupèrent le contenu, ils ne voient eux aussi que les 10 premiers résultats ; du coup, on ne trouve plus que des pages comme Wikipédia ou, dans notre cas, NamuWiki, et des contenus pourtant essentiels comme ceux de Reddit ne remontent plus.
Il est assez courant que des runtimes comme Python, Java, C#, Go, etc. définissent une interface standard pour les drivers de base de données.
Mais avec Node, même entre drivers visant pourtant SQLite, l’exécution des statements diffère entre execute() et exec(), si bien que remplacer simplement un driver impose déjà quelques modifications.
Ce n’est pas fréquent, mais quand on change de base de données, c’est aussi assez contraignant.
Si on part de MySQL puis qu’on décide de passer à PostgreSQL, par exemple parce qu’on n’aime pas ce que fait Oracle ou parce qu’on a absolument besoin d’une extension PostgreSQL,
avec une interface standard comme JDBC, il suffit surtout de valider le SQL ; dans l’écosystème Node, l’effet de bord, c’est qu’il faut refaire toute la logique d’appel à la base de données.
+On m’a recommandé d’essayer de créer une bibliothèque, mais avoir une interface commune standard facilite vraiment la création d’une bibliothèque.
Dans mon entreprise, on utilise Java, et comme notre framework interne doit prendre en charge MySQL, DB2, Oracle et MSSQL, le standard JDBC nous a beaucoup aidés pour la maintenance des adaptateurs propres à chaque base de données.
Après l’arrêt de Google Reader, je suis passé à Feedly, puis je ne l’ai presque pas utilisé pendant près de 10 ans. Récemment, je l’ai ressorti un peu du placard et je m’en sers à nouveau, et j’ai découvert qu’il y avait encore aujourd’hui divers services qui sortaient. Je ne le savais pas.
Cela veut dire que des IA comme ChatGPT font une recherche Google pour trouver des résultats sur le web, puis n’utilisent que ces résultats..? Donc si Google ne l’indique pas, c’est exclu des résultats...?
J’aime les deux outils. Ils ont des écosystèmes et des objectifs qui se recoupent en partie, mais ce ne sont pas exactement les mêmes outils, donc on ne devrait pas les juger selon leur niveau de difficulté. Avec vite, on peut écrire des scripts de manière très large et très fine. Stimulus ou Hotwire sont plutôt mieux adaptés pour minimiser le développement de scripts.
Récemment, j’ai déménagé et je me retrouve dans la situation où je dois nettoyer mes poubelles. Je trouvais ça trop sale à faire dans le jardin derrière chez moi, et en réfléchissant, je suis tombé sur un business assez particulier près de chez moi.
Un véhicule de nettoyage vient jusqu’à la maison, il suffit d’y mettre la poubelle, et à l’intérieur un équipement s’occupe automatiquement de tout bien laver. L’eau utilisée après le lavage est ensuite ramenée dans leurs locaux pour être retraitée avant d’être rejetée, donc j’imagine qu’en étant enregistrés comme entreprise environnementale, ils doivent aussi bien profiter d’avantages fiscaux.
Le nom de cette entreprise est happy cans. C’est une société locale de San Diego, mais j’imagine qu’il y en a probablement une comme ça dans chaque ville.
C’est désormais le vrai py(3,14)thon.
Je serais curieux d’avoir l’avis d’autres personnes qui l’ont réellement utilisé, mais personnellement je vois trop souvent des coquilles dans les articles (par exemple des phrases qui se terminent alors qu’il manque un mot), donc à ce niveau de qualité, je ne pense pas continuer à l’utiliser. C’est un service dont j’attendais beaucoup, pourtant…
J’ai vu quelque chose de similaire sur not by AI auparavant aussi. L’expression « maladie génétique des données » est assez originale haha
C’est terriblement effrayant ;
Je voulais trouver davantage de sources, mais l’article Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions
cité comme référence dans l’original semble avoir été retiré, ou en tout cas je ne peux pas en vérifier le contenu.
Ce qui me laisse aussi un peu perplexe dans le corps du texte, c’est le passage : « Pensez aux publications Reddit, aux discussions de communauté ou aux fils d’experts. Ce type de contenu entre-t-il dans le top 10 de Google sur des requêtes commerciales ? Presque jamais. En revanche, Reddit dominait les positions 15 à 40. » Or, juste en dessous, le graphique “Top 10 Websites” de Perplexity montre précisément Reddit en première position avec 46,7 %. Cela donne une impression de légère contradiction. L’effet de la recommandation personnalisée joue peut-être, mais empiriquement aussi, il arrivait souvent que des résultats Reddit remontent assez haut dans Google.
Par ailleurs, il est exact qu’à partir du 12 septembre, Google a modifié le fonctionnement du paramètre de requête
num=100dans ses résultats de recherche pour qu’il ne renvoie plus que 10 résultats[^1]. Cela a sans doute provoqué une confusion passagère pour les outils SEO, mais certains estiment que cela reste un problème contournable, soit en payant 10 requêtes au lieu d’une seule, soit via des requêtes plus précises[^2]. À l’inverse, il existe aussi l’hypothèse selon laquelle la baisse du trafic de citations Reddit dans ChatGPT pourrait plutôt s’expliquer par une modification interne des spécifications du modèle chez OpenAI le 12 septembre[^3].Je suis d’accord avec l’idée que l’AEO devient important, mais l’affirmation selon laquelle « si vous n’entrez pas dans le top 10 des résultats Google, vous disparaissez complètement des moteurs IA, y compris ChatGPT » me paraît peu étayée.
[^1]: https://searchengineland.com/google-search-rank-and-position-tracking-…
[^2]: https://locomotive.agency/blog/…
[^3]: https://sherwood.news/markets/…
L’idée est bonne, mais en voyant les images d’exemple, ça a l’air vraiment très lent à l’usage... Je pensais que c’était une appli node.js, donc j’ai été surpris de voir que c’était en Rust.
Et le fait de demander une installation via un long script d’installation bizarre ne me plaît pas non plus. Quand je pense qu’il faudrait trouver comment le désinstaller puis l’enlever petit à petit à la main, ça ne me donne pas envie de l’installer.
Pour l’instant, ce n’est peut-être qu’un léger inconfort, mais si ça continue comme ça, les contenus qu’une IA amplifie et reproduit à grande échelle finiront eux aussi par se limiter à ce qui figure dans le top 10. Au bout du compte, les données hors classement seront rapidement reléguées à l’arrière-plan en termes d’accessibilité, ce qui nuira à la diversité. En forçant un peu le trait, on pourrait même se retrouver avec une forme d’« inceste » des contenus IA, provoquant une sorte de maladie génétique des données.
C’est peut-être une imagination complètement farfelue, mais quand on pense qu’un très grand nombre de personnes n’accèdent qu’à une zone restreinte de données via l’intelligence artificielle, et que les données produites par l’intelligence artificielle retournent ensuite alimenter l’apprentissage de cette même intelligence artificielle, mon intuition me dit simplement que ce n’est pas une bonne direction.
Bien sûr, on ne peut pas non plus complètement ignorer le problème du trafic excessif généré par l’IA.
Quand OpenAI a dit qu’il achèterait des puces AMD en échange de stock-options (?), l’action a fortement grimpé, mais à l’inverse, si des nouvelles sortent sur une détérioration des résultats d’OpenAI ou un ralentissement de sa croissance, je n’arrive pas du tout à imaginer jusqu’où l’impact se propagerait ensemble. On dirait qu’un peu comme lors des subprimes en 2008, les big tech comme les entreprises d’IA sont toutes couplées entre elles.
Pour ajouter ce que je sais : lorsqu’on faisait une recherche Google avec une URL, on pouvait entrer le paramètre de requête "num=100" pour récupérer d’un coup les 100 premiers résultats. Mais Google a récemment supprimé cette possibilité, donc on ne peut désormais récupérer que les 10 premiers résultats.
Le problème, c’est que les SaaS liés au SEO utilisaient cette fonction pour afficher à quelle position apparaissait un mot-clé donné dans Google, mais maintenant qu’on n’obtient plus que jusqu’à la 10e place, l’affichage des classements est cassé. Et deuxièmement, comme le dit l’article, lorsque les systèmes d’IA effectuent une recherche web puis récupèrent le contenu, ils ne voient eux aussi que les 10 premiers résultats ; du coup, on ne trouve plus que des pages comme Wikipédia ou, dans notre cas, NamuWiki, et des contenus pourtant essentiels comme ceux de Reddit ne remontent plus.
Il est assez courant que des runtimes comme Python, Java, C#, Go, etc. définissent une interface standard pour les drivers de base de données.
Mais avec Node, même entre drivers visant pourtant SQLite, l’exécution des statements diffère entre
execute()etexec(), si bien que remplacer simplement un driver impose déjà quelques modifications.Ce n’est pas fréquent, mais quand on change de base de données, c’est aussi assez contraignant.
Si on part de MySQL puis qu’on décide de passer à PostgreSQL, par exemple parce qu’on n’aime pas ce que fait Oracle ou parce qu’on a absolument besoin d’une extension PostgreSQL,
avec une interface standard comme JDBC, il suffit surtout de valider le SQL ; dans l’écosystème Node, l’effet de bord, c’est qu’il faut refaire toute la logique d’appel à la base de données.
+On m’a recommandé d’essayer de créer une bibliothèque, mais avoir une interface commune standard facilite vraiment la création d’une bibliothèque.
Dans mon entreprise, on utilise Java, et comme notre framework interne doit prendre en charge MySQL, DB2, Oracle et MSSQL, le standard JDBC nous a beaucoup aidés pour la maintenance des adaptateurs propres à chaque base de données.
Quelqu’un avait appelé ça le codage augmenté (Augmented Coding), puis le terme a rapidement disparu.
Après l’arrêt de Google Reader, je suis passé à Feedly, puis je ne l’ai presque pas utilisé pendant près de 10 ans. Récemment, je l’ai ressorti un peu du placard et je m’en sers à nouveau, et j’ai découvert qu’il y avait encore aujourd’hui divers services qui sortaient. Je ne le savais pas.
Cela veut dire que des IA comme ChatGPT font une recherche Google pour trouver des résultats sur le web, puis n’utilisent que ces résultats..? Donc si Google ne l’indique pas, c’est exclu des résultats...?
Ça rappelle quelqu’un de cette entreprise de messagerie récemment au cœur d’une controverse...
Faire autant d’efforts pour une console qui ne prend en charge que 7 jeux, c’est vraiment génial.
Les vieux briscards de l’émulation… impressionnant.
C’était récemment l’un des pires buts contre son camp, mais ils ont fini par retrouver leurs esprits, même tardivement.
Pourquoi les transactions d’investissement croisées entre OpenAI, Nvidia et AMD suscitent l’inquiétude du secteur
OpenAI sait conclure des deals