Ah, OpenBMB, je me demandais bien où j’avais déjà entendu ce nom : c’était l’équipe qui a créé le modèle MiniCPM-o.
Le modèle MiniCPM-o est un modèle omni dans le style de GPT 4o, et ses performances étaient vraiment très bonnes.
Comme on parle de mesh, je me suis d’abord demandé si c’était similaire à Tailscale, mais c’est un peu différent.
Ce n’est pas un modèle P2P comme Tailscale, mais une architecture qui passe par le réseau edge de Cloudflare,
donc des fonctions de sécurité comme les politiques Gateway ou le DLP sont appliquées automatiquement,
et la possibilité d’appeler des services privés avec une simple ligne de fetch() dans le SDK Workers/Agents, c’est ça la vraie différence.
Moi, je vais simplement continuer à utiliser Tailscale..
La qualité de l’application desktop de codex était tellement bonne que je n’ai utilisé que Codex pendant un moment, mais il va falloir que je redonne sa chance à Claude Code.
Même sur le site Q&A de Microsoft, quand on y entre puis qu’on appuie sur retour, ça se met à boucler à l’infini ; j’aimerais vraiment que ce genre de sites soit corrigé.
Qu’il y ait une redirection ou non, du point de vue de l’utilisateur, si on appuie sur retour, on doit pouvoir quitter la page.
Sur ces sites, il faut toujours maintenir le bouton retour enfoncé pour remonter de plus de deux niveaux.
On dirait que cela va changer pour qu’on ne puisse en bénéficier qu’en prouvant qu’il n’y a pas une forte utilisation sur d’autres appareils et qu’on n’est pas en train d’utiliser des jeux, des téléchargements ou d’autres activités du même genre.
Il est certes facile de configurer un LLM local avec ollama, mais il paraît que les appels d’outils ont de fortes chances d’échouer selon le modèle open source. Cela viendrait de la combinaison de règles internes assez souples dans ollama et de problèmes de parseur d’appels d’outils propres à chaque modèle.
Le vrai problème fondamental des LLM locaux, c’est qu’il faut du matériel coûteux pour faire tourner des modèles de taille moyenne à grande. Un Mac Studio 32 Go coûte autour de 3,5 millions de wons, et un GB10 environ 5 à 6 millions, donc c’est lourd à assumer pour un particulier qui voudrait en acheter un par simple loisir (?). Pour les LLM locaux, il faut se contenter de petits modèles, et pour les modèles moyens à grands, en dehors du cloud il n’y a pas vraiment d’alternative.
Parlez-vous d’un hub financier comme d’un groupe spécifique, tel qu’un réseau juif, ou bien de simples hubs d’intermédiation comme Hong Kong ou Singapour ?
Il faut considérer que des structures comme SWIFT ou la compensation des paiements sont en réalité aux mains des grandes puissances.
Plutôt que de leur faire contrepoids, elles tendent plutôt à être utilisées comme des outils par les acteurs les plus puissants.
Sous cet angle, j’ai l’impression que cet article aussi donne naturellement le sentiment de devenir, conformément à son intention initiale, un outil au service des plus puissants.
Mon nouvel opérateur bloquait les ports 80 et 443, donc je contourne ça avec un Cloudflare Tunnel.
Sans ça, j’aurais presque payé les pénalités de résiliation pour changer d’opérateur.
Le problème chronique de Claude Code, vous ne l’avez apparemment jamais rencontré. Même sur Reddit, ça fait constamment polémique.Pour moi, codex a offert une meilleure expérience.
Ah, OpenBMB, je me demandais bien où j’avais déjà entendu ce nom : c’était l’équipe qui a créé le modèle MiniCPM-o.
Le modèle MiniCPM-o est un modèle omni dans le style de GPT 4o, et ses performances étaient vraiment très bonnes.
Jetez aussi un œil à la vidéo de démo de MiniCPM-o.
Comme c’est un modèle qui m’avait beaucoup satisfait, j’attends aussi beaucoup de ce nouveau modèle de clonage vocal.
Si c’est gratuit et que la sécurité est au rendez-vous, je l’utiliserai forcément haha
Quand je vois ce genre de choses, j’ai une idée assez claire de la direction dans laquelle le devops va évoluer.
Une légende...
Dans les deux cas, il faut du HITL. (du moins jusqu’à aujourd’hui)
Pitié, évitez de sortir des trucs du genre Ralph Loop.
Oui, bon… rien qu’en cherchant
OPENAI_API_KEYsur GitHub, on tombe déjà sur un paquet de cas du même genre…Ah, d'accord. Alors je vais simplement me contenter du statique haha
Chez quel opérateur êtes-vous pour qu’ils aient bloqué les ports ?
Ce n’est pas l’inverse ? Le senior est moins bon que prévu.
À l’usage, on a l’impression que ça va vite devenir insupportable.
Un ingénieur AWS signale que les performances de PostgreSQL ont chuté de moitié sous Linux 7.0 – il se pourrait que la correction ne soit pas simple
C’est cette partie qui m’inquiète.
Comme on parle de mesh, je me suis d’abord demandé si c’était similaire à Tailscale, mais c’est un peu différent.
Ce n’est pas un modèle P2P comme Tailscale, mais une architecture qui passe par le réseau edge de Cloudflare,
donc des fonctions de sécurité comme les politiques Gateway ou le DLP sont appliquées automatiquement,
et la possibilité d’appeler des services privés avec une simple ligne de
fetch()dans le SDK Workers/Agents, c’est ça la vraie différence.Moi, je vais simplement continuer à utiliser Tailscale..
La qualité de l’application desktop de codex était tellement bonne que je n’ai utilisé que Codex pendant un moment, mais il va falloir que je redonne sa chance à Claude Code.
Même sur le site Q&A de Microsoft, quand on y entre puis qu’on appuie sur retour, ça se met à boucler à l’infini ; j’aimerais vraiment que ce genre de sites soit corrigé.
Qu’il y ait une redirection ou non, du point de vue de l’utilisateur, si on appuie sur retour, on doit pouvoir quitter la page.
Sur ces sites, il faut toujours maintenir le bouton retour enfoncé pour remonter de plus de deux niveaux.
On dirait que cela va changer pour qu’on ne puisse en bénéficier qu’en prouvant qu’il n’y a pas une forte utilisation sur d’autres appareils et qu’on n’est pas en train d’utiliser des jeux, des téléchargements ou d’autres activités du même genre.
Il est certes facile de configurer un LLM local avec ollama, mais il paraît que les appels d’outils ont de fortes chances d’échouer selon le modèle open source. Cela viendrait de la combinaison de règles internes assez souples dans ollama et de problèmes de parseur d’appels d’outils propres à chaque modèle.
Le vrai problème fondamental des LLM locaux, c’est qu’il faut du matériel coûteux pour faire tourner des modèles de taille moyenne à grande. Un Mac Studio 32 Go coûte autour de 3,5 millions de wons, et un GB10 environ 5 à 6 millions, donc c’est lourd à assumer pour un particulier qui voudrait en acheter un par simple loisir (?). Pour les LLM locaux, il faut se contenter de petits modèles, et pour les modèles moyens à grands, en dehors du cloud il n’y a pas vraiment d’alternative.
Ah, enfin !!! Tous ces médias qui faisaient ce genre de trucs méritent de se prendre un gros retour de bâton.
Parlez-vous d’un hub financier comme d’un groupe spécifique, tel qu’un réseau juif, ou bien de simples hubs d’intermédiation comme Hong Kong ou Singapour ?
Il faut considérer que des structures comme SWIFT ou la compensation des paiements sont en réalité aux mains des grandes puissances.
Plutôt que de leur faire contrepoids, elles tendent plutôt à être utilisées comme des outils par les acteurs les plus puissants.
Sous cet angle, j’ai l’impression que cet article aussi donne naturellement le sentiment de devenir, conformément à son intention initiale, un outil au service des plus puissants.
Mon nouvel opérateur bloquait les ports 80 et 443, donc je contourne ça avec un Cloudflare Tunnel.
Sans ça, j’aurais presque payé les pénalités de résiliation pour changer d’opérateur.