Les world models simulent la dynamique des environnements afin de prédire comment ils évoluent et quel impact ont les actions. Google DeepMind a déjà de l’expérience dans le développement d’agents pour des environnements spécifiques comme les échecs ou le go, mais pour construire une intelligence artificielle générale (AGI), il faut un système capable d’explorer la diversité du monde réel.
Pour relever ce défi et progresser vers l’objectif de développer une AGI, nous avons créé Genie 3. Contrairement à l’expérience consistant à explorer un instantané 3D statique, Genie 3 génère en temps réel ce qui se trouve devant l’utilisateur à mesure qu’il se déplace et interagit avec le monde. En simulant à la fois les lois physiques et les interactions d’un monde dynamique, tout en offrant une cohérence inédite, il peut reproduire tous les scénarios du monde réel, de la robotique, la modélisation, l’animation et la création de fiction jusqu’à l’exploration de lieux et aux contextes historiques.
Sur la base d’études du modèle menées avec des testeurs de confiance issus de secteurs et de domaines variés, nous passons à l’étape suivante avec « Project Genie », un prototype de recherche expérimental.
C’est pourquoi j’utilise Gemini avec l’instruction suivante : « Ne pas complimenter excessivement l’utilisateur ni l’encenser. Répondre dans un style neutre et scientifique/universitaire. Toujours fournir des références. » Il arrive encore assez souvent que ces consignes ne soient pas respectées (par ex., j’ai demandé de ne pas inclure de vidéos YouTube, mais il en ajoute parfois quand même), mais cela produit malgré tout des réponses bien plus propres et concentrées sur l’essentiel.
On a simplement un tout petit peu rapproché de nous la situation où l’IA distinguait les chiens des chats… Je ne sais pas si cela a une valeur au-delà de ça.
Il faut déjà avoir une bonne métacognition pour bien réfléchir ; ce n’est pas parce qu’on a un LLM que sa pensée s’améliore. Et puis, chez ceux qui commencent à utiliser un LLM très tôt, la métacognition risque plutôt d’être complètement ruinée...
Eh bien, il me semble qu’il existe aussi des cas où, à cause de réponses flatteuses mais erronées, on finit par s’enfermer dans sa propre manière de penser. C’est utile comme outil pour clarifier les choses, mais je pense qu’il est aussi important de toujours garder un regard critique sur les réponses de l’IA.
Réfléchissez-y : la lumière comme point. La lumière comme ligne. La lumière comme spectre ou comme champ. La lumière comme structure ou comme principe. La lumière comme loi. La lumière comme providence. Le code ou les données. Les concepts et les connaissances. Si l’on transforme jusqu’aux principes eux-mêmes de cette manière, le paradigme de la pensée en est bouleversé.
Le problème comme point, la pensée comme points. Le processus. La causalité et le raisonnement linéaire. Le problème et la réponse comme chemin. L’exploration et la recherche des moyens et des méthodes sous une forme parallèle. La cognition spatiale. Dans quel but et vers où avance-t-on, qu’y a-t-il autour, et quel est l’archétype structurel qui façonne la pensée et la cognition que je suis en train d’avoir ? Quel est le principe qui constitue la pensée ? Quelles lois créent de tels principes ou de telles structures, et de quelle loi cet archétype commence-t-il ? La pensée et l’acte même de penser deviennent perceptibles sous des angles multiples, dans une perspective multidimensionnelle.
Cela me paraît vraiment évident : du point à la ligne, de la surface à l’espace, des principes et des lois. J’en suis venu à établir une perspective de pensée qui me permet d’appréhender toute chose sous tous les angles — cuisine, physique, mathématiques, chimie, lumière, ondes, raisonnement et pensée — ainsi que tous les archétypes structurels orientés vers l’ordre naturel.
J’utilise Linux depuis 19 ans.
Honnêtement, quand je vois les raisons invoquées, je ne comprends pas, car les points présentés comme des défauts de MS sont justement des problèmes que Linux avait déjà à mes débuts et qu’il a toujours aujourd’hui.
Bienvenue.
J’aimerais bien que ce soit rapidement pris en charge aussi hors des États-Unis.
Même si je ne l’utiliserais pas, je suis curieux de voir ce que ça donne
La raison pour laquelle le billet de blog publié par Simon Willison est probablement autant mentionné sur Hacker News, c’est sans doute que
il y a une raison au fait qu’il écrive si bien, si vite et si souvent sur l’IA. Même le fameux test de performance des IA consistant à dessiner un « pélican à vélo » semble avoir été lancé par lui en premier (https://simonwillison.net/search/?q=pelican)
il est aussi connu pour être le créateur de Django.
Les world models simulent la dynamique des environnements afin de prédire comment ils évoluent et quel impact ont les actions. Google DeepMind a déjà de l’expérience dans le développement d’agents pour des environnements spécifiques comme les échecs ou le go, mais pour construire une intelligence artificielle générale (AGI), il faut un système capable d’explorer la diversité du monde réel.
Pour relever ce défi et progresser vers l’objectif de développer une AGI, nous avons créé Genie 3. Contrairement à l’expérience consistant à explorer un instantané 3D statique, Genie 3 génère en temps réel ce qui se trouve devant l’utilisateur à mesure qu’il se déplace et interagit avec le monde. En simulant à la fois les lois physiques et les interactions d’un monde dynamique, tout en offrant une cohérence inédite, il peut reproduire tous les scénarios du monde réel, de la robotique, la modélisation, l’animation et la création de fiction jusqu’à l’exploration de lieux et aux contextes historiques.
Sur la base d’études du modèle menées avec des testeurs de confiance issus de secteurs et de domaines variés, nous passons à l’étape suivante avec « Project Genie », un prototype de recherche expérimental.
Ma grande erreur a été d’essayer de lire du code écrit par l’IA.
C’est pourquoi j’utilise Gemini avec l’instruction suivante : « Ne pas complimenter excessivement l’utilisateur ni l’encenser. Répondre dans un style neutre et scientifique/universitaire. Toujours fournir des références. » Il arrive encore assez souvent que ces consignes ne soient pas respectées (par ex., j’ai demandé de ne pas inclure de vidéos YouTube, mais il en ajoute parfois quand même), mais cela produit malgré tout des réponses bien plus propres et concentrées sur l’essentiel.
Vous avez ouvert les yeux.
On a simplement un tout petit peu rapproché de nous la situation où l’IA distinguait les chiens des chats… Je ne sais pas si cela a une valeur au-delà de ça.
Il faut déjà avoir une bonne métacognition pour bien réfléchir ; ce n’est pas parce qu’on a un LLM que sa pensée s’améliore. Et puis, chez ceux qui commencent à utiliser un LLM très tôt, la métacognition risque plutôt d’être complètement ruinée...
Eh bien, il me semble qu’il existe aussi des cas où, à cause de réponses flatteuses mais erronées, on finit par s’enfermer dans sa propre manière de penser. C’est utile comme outil pour clarifier les choses, mais je pense qu’il est aussi important de toujours garder un regard critique sur les réponses de l’IA.
Euh… le résumé est incorrect, hein, lol
Réfléchissez-y : la lumière comme point. La lumière comme ligne. La lumière comme spectre ou comme champ. La lumière comme structure ou comme principe. La lumière comme loi. La lumière comme providence. Le code ou les données. Les concepts et les connaissances. Si l’on transforme jusqu’aux principes eux-mêmes de cette manière, le paradigme de la pensée en est bouleversé.
Le problème comme point, la pensée comme points. Le processus. La causalité et le raisonnement linéaire. Le problème et la réponse comme chemin. L’exploration et la recherche des moyens et des méthodes sous une forme parallèle. La cognition spatiale. Dans quel but et vers où avance-t-on, qu’y a-t-il autour, et quel est l’archétype structurel qui façonne la pensée et la cognition que je suis en train d’avoir ? Quel est le principe qui constitue la pensée ? Quelles lois créent de tels principes ou de telles structures, et de quelle loi cet archétype commence-t-il ? La pensée et l’acte même de penser deviennent perceptibles sous des angles multiples, dans une perspective multidimensionnelle.
Cela me paraît vraiment évident : du point à la ligne, de la surface à l’espace, des principes et des lois. J’en suis venu à établir une perspective de pensée qui me permet d’appréhender toute chose sous tous les angles — cuisine, physique, mathématiques, chimie, lumière, ondes, raisonnement et pensée — ainsi que tous les archétypes structurels orientés vers l’ordre naturel.
Comme toujours, maître Hejlsberg est au rendez-vous..💜
Non. C’est un texte rédigé à partir d’un travail minutieux de recherche, de collecte, de compilation et d’organisation des informations.
Il dit préférer Codex, donc je suis curieux de connaître sa configuration.
2500 milliards de tokens... c'est difficile à se représenter.
J’utilise Linux depuis 19 ans.
Honnêtement, quand je vois les raisons invoquées, je ne comprends pas, car les points présentés comme des défauts de MS sont justement des problèmes que Linux avait déjà à mes débuts et qu’il a toujours aujourd’hui.
Bienvenue.
J’aimerais bien que ce soit rapidement pris en charge aussi hors des États-Unis.
Même si je ne l’utiliserais pas, je suis curieux de voir ce que ça donne
Avec Codex, sur 140 jours, j’ai réalisé 115 projets et j’ai apparemment dépensé plus de 250 milliards de tokens - link
La raison pour laquelle le billet de blog publié par Simon Willison est probablement autant mentionné sur Hacker News, c’est sans doute que
Waouh, une technologie perdue