Ça sort à chaque trimestre.
Il y avait déjà clairement beaucoup d’IA au moment de YC’s Requests for Startups - Summer 2025,
mais cette année, on a l’impression que l’application de l’IA s’est encore davantage rapprochée des secteurs verticaux et de l’entreprise.
Ceux qui ont déjà migré ailleurs (sur Codeberg, par exemple) doivent sans doute se dire, en voyant cette affaire, qu’ils ont vraiment bien fait de partir.
Sur le benchmark ClawEval, le modèle Pro a enregistré un taux de réussite de 63,8 %, en tête parmi les modèles open source
Par rapport à Anthropic Claude Opus 4.6, Google Gemini 3.1 Pro et OpenAI GPT-5.4, il obtient des résultats équivalents avec 40 à 60 % de tokens en moins
MiMo-V2.5 ("Omni") est un modèle spécialisé multimodal natif, qui traite de manière intégrée la vision, l’audio et le texte
MiMo-V2.5-Pro ("Agent") est spécialisé dans la cohérence à long horizon (long-horizon coherence) et l’ingénierie logicielle complexe
Le modèle Pro a obtenu 1581 points sur le benchmark GDPVal-AA (Elo), dépassant Kimi K2.6 et GLM 5.1
Alors que de nombreux modèles « open » incluent des politiques d’« Acceptable Use » restrictives, MiMo-V2.5 est publié sous licence MIT
Aucune approbation requise : distribution commerciale possible sans autorisation explicite de Xiaomi
Liberté de poursuite de l’entraînement : possibilité de faire du fine-tuning sur ses propres données puis de publier les poids dérivés
Usage commercial illimité : pas de plafond de revenus ni de limite sur le nombre d’utilisateurs, comme on en voit souvent dans les licences communautaires
Chef de projet : Fuli Luo (ancien membre clé de DeepSeek)
> « La valeur d’un modèle ne se mesure pas à son classement, mais aux problèmes qu’il résout »
Je l’utilisais souvent pour partager des timelapses pris lors de rencontres de jeux de société.
Récemment, avec le partage de type AirDrop entre Galaxy et Pixel, son utilité est devenue un peu plus floue.
Cela dit, pour envoyer vers un ordinateur de bureau, c’est toujours très bien.
Mitchell Hashimoto a même écrit dans un commentaire sur HN que cela l’avait vraiment fait pleurer, alors je suis allé voir https://x.com/mitchellh/status/2049213597419774026
Il paraît qu’il est l’utilisateur GitHub n°1299 et qu’il s’est inscrit en février 2008.
On dirait bien que GitHub a pas mal de problèmes en ce moment. Il y a même quelques heures, un post intitulé GitHub connaît actuellement une panne a été publié.
Dans la liste de sélection des modèles, il n’y a pas de LLM local comme ollama.
Dans la description de Warp, il est indiqué que les conversations en langage naturel doivent être saisies en « anglais », donc je ne sais pas si cela signifie qu’il n’y a pas de fonction de traduction automatique du coréen.
Même en appliquant ce genre de choses, j’ai l’impression que ça n’aide pas beaucoup au moment de coder en pratique… C’est sans doute parce que le développement ici a un niveau de difficulté où il s’agit surtout de lancer un agent avec un plan Codex, haha
On dirait que, en Corée, le recrutement est vraiment l’un des grands casse-tête. Si on fait le mauvais choix, on ne peut même pas licencier facilement… (à ce sujet, je crois savoir qu’il y a pas mal de fondateurs qui finissent en procès;;;). Même pour les startups qui doivent être agressives, on se retrouve finalement dans une situation où il faut faire un choix prudent.
Dans Comment gérer plusieurs entreprises à 10 k$ de MRR avec une stack à 20 $/mois, il semblait que ceci était possible :
'L’astuce clé de Copilot : Microsoft facture par requête et non par token, et une « requête » correspond à une seule saisie dans la boîte de chat. Même si l’agent analyse l’ensemble du codebase pendant 30 minutes et modifie des centaines de fichiers, cela ne coûte qu’environ 0,04 $'
.. donc maintenant, c’est bloqué.
Moi aussi, j’ai mis un peu de tout dans le même sac, dans le même esprit que ce que disait Osmani,
et comme ce sujet est arrivé pendant que je développais une appli, j’ai un peu précipité les choses,
mais je me dis qu’au lieu de se contenter d’en parler, Osmani aurait peut-être mieux fait d’intégrer ce qu’il racontait dans Google Anti-Gravity.
C’est pareil pour Kapasi : maintenant, au lieu de vraiment construire quelque chose, ils balancent juste un texte vite fait et s’arrêtent là… bof, quoi !
C’est bien, mais après avoir utilisé un terminal classique, je trouve ça trop saccadé, donc j’ai fini par ne plus m’en servir.
Plus le modèle est performant, plus la charge de conception des harnais diminue.
Ça sort à chaque trimestre.
Il y avait déjà clairement beaucoup d’IA au moment de YC’s Requests for Startups - Summer 2025,
mais cette année, on a l’impression que l’application de l’IA s’est encore davantage rapprochée des secteurs verticaux et de l’entreprise.
Ceux qui ont déjà migré ailleurs (sur Codeberg, par exemple) doivent sans doute se dire, en voyant cette affaire, qu’ils ont vraiment bien fait de partir.
J’ai apporté les corrections.
Merci. Il faut le corriger.
M. Noh Seong-hun → M. Kim Seong-hyeon.
VentureBeat l’a testé, et apparemment c’est plutôt bien adapté à OpenClaw.
https://venturebeat.com/ai/…
> « La valeur d’un modèle ne se mesure pas à son classement, mais aux problèmes qu’il résout »
Qu’est-ce qui vous paraît absurde au juste ?
Pfff... c’est vraiment absurde, cette logique selon laquelle un LLM volerait mes données personnelles...
Je l’utilisais souvent pour partager des timelapses pris lors de rencontres de jeux de société.
Récemment, avec le partage de type AirDrop entre Galaxy et Pixel, son utilité est devenue un peu plus floue.
Cela dit, pour envoyer vers un ordinateur de bureau, c’est toujours très bien.
Mitchell Hashimoto a même écrit dans un commentaire sur HN que cela l’avait vraiment fait pleurer, alors je suis allé voir
https://x.com/mitchellh/status/2049213597419774026
Il paraît qu’il est l’utilisateur GitHub n°1299 et qu’il s’est inscrit en février 2008.
On dirait bien que GitHub a pas mal de problèmes en ce moment. Il y a même quelques heures, un post intitulé GitHub connaît actuellement une panne a été publié.
Je l’ai installé sur Windows pour y jeter un œil.
Même en appliquant ce genre de choses, j’ai l’impression que ça n’aide pas beaucoup au moment de coder en pratique… C’est sans doute parce que le développement ici a un niveau de difficulté où il s’agit surtout de lancer un agent avec un plan Codex, haha
Il y a un an, je recommandais vivement Claude, mais en ce moment, je recommande vivement l’app Codex.
On dirait que, en Corée, le recrutement est vraiment l’un des grands casse-tête. Si on fait le mauvais choix, on ne peut même pas licencier facilement… (à ce sujet, je crois savoir qu’il y a pas mal de fondateurs qui finissent en procès;;;). Même pour les startups qui doivent être agressives, on se retrouve finalement dans une situation où il faut faire un choix prudent.
https://www.warp.dev/blog/warp-is-now-open-source
Dans Comment gérer plusieurs entreprises à 10 k$ de MRR avec une stack à 20 $/mois, il semblait que ceci était possible :
'L’astuce clé de Copilot : Microsoft facture par requête et non par token, et une « requête » correspond à une seule saisie dans la boîte de chat. Même si l’agent analyse l’ensemble du codebase pendant 30 minutes et modifie des centaines de fichiers, cela ne coûte qu’environ 0,04 $'
.. donc maintenant, c’est bloqué.
Son seul avantage, c’était son prix bas, et tout le reste n’était que des inconvénients ; on dirait qu’il n’y a plus de raison de l’utiliser.
Moi aussi, j’ai mis un peu de tout dans le même sac, dans le même esprit que ce que disait Osmani,
et comme ce sujet est arrivé pendant que je développais une appli, j’ai un peu précipité les choses,
mais je me dis qu’au lieu de se contenter d’en parler, Osmani aurait peut-être mieux fait d’intégrer ce qu’il racontait dans Google Anti-Gravity.
C’est pareil pour Kapasi : maintenant, au lieu de vraiment construire quelque chose, ils balancent juste un texte vite fait et s’arrêtent là… bof, quoi !
https://github.com/hang-in/tunaFlow