- Gemini 3 de Google a évolué au-delà du simple chatbot conversationnel pour devenir une IA de type collègue numérique capable d’effectuer de vraies tâches comme écrire du code, naviguer sur le web et manipuler des fichiers
- Présenté en même temps, Antigravity est un outil agentique qui accède à l’ordinateur de l’utilisateur pour écrire des programmes de manière autonome, et qui demande des validations ou de l’aide via un système Inbox
- Gemini 3 exécute, selon les consignes de l’utilisateur, des tâches allant de la création de sites web à l’analyse de données et à la rédaction d’articles académiques, en montrant une capacité de recherche de niveau PhD
- Des erreurs subsistent, mais elles relèvent surtout de différences de jugement ou de compréhension, ce qui rapproche l’outil d’un « coéquipier IA » collaborant avec l’humain
- L’article insiste sur le fait que nous passons « de l’ère des chatbots à celle des collègues numériques », où l’humain ne corrige plus seulement les erreurs de l’IA, mais devient le gestionnaire qui pilote son travail
L’arrivée de Gemini 3 et trois ans de transformation
- Google Gemini 3, apparu environ trois ans après le lancement de ChatGPT, illustre la vitesse des progrès de l’IA
- À l’époque de GPT-3.5 en 2022, l’IA en était surtout à générer de simples paragraphes ou poèmes
- En 2025, Gemini 3 est capable de coder et concevoir directement des jeux interactifs
- Gemini 3 a créé, à la demande de l’utilisateur, un jeu réellement jouable appelé “Candy-Powered FTL Starship Simulator”
- Cela montre le passage d’une IA qui se contentait autrefois de décrire du texte à une IA qui implémente directement le code et l’interface
Antigravity et l’IA agentique
- Avec Gemini 3, Google a présenté un outil pour développeurs nommé Antigravity
- Un système comparable à Claude Code ou OpenAI Codex, capable d’accéder à l’ordinateur de l’utilisateur pour écrire du code de façon autonome
- Antigravity introduit le concept d’Inbox : quand l’IA a besoin d’une validation ou d’aide pendant une tâche, elle envoie une notification à l’utilisateur
- L’utilisateur donne des consignes en anglais, et l’IA les exécute sous forme de code
- Par exemple, elle a analysé les fichiers d’articles de la newsletter de l’auteur pour générer automatiquement un site web résumant des prédictions liées à l’IA
- L’IA effectue des recherches web, exécute du code, teste dans le navigateur et empaquette le résultat pour un déploiement sur Netlify
Gemini 3 comme IA collaborative
- Pendant l’exécution d’une tâche, Gemini 3 partage de manière transparente son avancement en sollicitant l’approbation de l’utilisateur
- L’utilisateur examine et modifie les propositions de l’IA dans un cadre collaboratif
- L’expérience se rapproche ainsi d’une forme de « gestion d’IA »
- L’IA n’est pas parfaite, mais ses erreurs relèvent surtout de différences de jugement ou de malentendus sur l’intention, avec très peu de problèmes d’hallucination au sens classique
- La collaboration avec Gemini 3 ressemble davantage à la gestion d’un membre d’équipe qu’à une simple saisie de prompt, ce qui souligne un mode d’interaction plus riche
Capacités de recherche et évaluation « niveau PhD »
- Gemini 3 a réalisé des tâches d’analyse de jeux de données de recherche et de rédaction académique
- Il a restauré et nettoyé un ancien fichier de données de crowdfunding, puis mené de nouvelles analyses
- Il a rédigé un article de 14 pages sur le thème de la création d’entreprise et de la stratégie business
- L’IA formule des hypothèses originales, réalise des analyses statistiques et crée ses propres métriques pour mesurer, par exemple, l’originalité des idées
- Le résultat montrait un niveau comparable à celui d’un étudiant de troisième cycle, même si certaines méthodes statistiques et développements théoriques restaient insuffisants
- Avec des consignes supplémentaires, la qualité s’améliore fortement
- L’auteur estime qu’une « intelligence de niveau PhD n’est plus très loin »
La transition vers le collègue numérique
- Gemini 3 se présente comme une IA partenaire capable de raisonner et d’agir, accessible à des milliards de personnes dans le monde
- Rien n’indique un ralentissement des progrès de l’IA, tandis que la montée des modèles agentiques et l’importance de la capacité à gérer l’IA deviennent de plus en plus visibles
- L’auteur écrit que « l’ère des chatbots est en train de laisser place à celle des collègues numériques »
- L’humain ne se contente plus de corriger les erreurs de l’IA : il devient le manager qui orchestre son travail
- Enfin, Gemini 3 a aussi démontré une capacité créative au-delà du texte, en générant une image de couverture de blog uniquement à partir de code
- Cela dit, accorder à une IA l’accès à un ordinateur comporte des risques de sécurité, et il faut donc rester prudent
1 commentaires
Avis Hacker News
Chaque fois que je vois ce genre d’article, il y a toujours un point qui manque — la question « est-ce bon, est-ce exact ? »
edgeDetect(image), selon le modèle ça passait ou nonJe trouve intéressant que jusqu’ici, notre manière d’interagir avec l’IA soit restée majoritairement centrée sur une boîte de texte
Le problème des hallucinations existe toujours
À propos de la question « est-ce une intelligence de niveau doctorat ? », en tant qu’étudiant en master/doctorat, j’ai une impression proche
Les progrès de Google se font non seulement côté logiciel, mais aussi côté matériel
Gemini 3 est impressionnant, mais j’ai toujours l’impression qu’il reste dans les limites de la littérature existante
La date de sortie de GPT-3, c’était juin 2020, et ChatGPT était en version 3.5
On entend depuis longtemps que le human in the loop évolue, passant de l’humain qui corrige les erreurs de l’IA à l’humain qui pilote l’IA
Je me demande si exécuter directement sur un système local des outils comme Claude Code ou Antigrav est vraiment sûr