Je suis d’accord.
Jusqu’ici, il y avait un décalage entre mon ressenti réel et les réactions de la communauté, ce qui me donnait une impression d’incohérence.
Ne pas avoir renouvelé mon abonnement annuel a vraiment été un coup de génie.
Quitte à payer au tarif multiplié par 27x d’Opus pour l’utiliser, autant prendre directement l’offre API de Claude.
En regardant ses autres publications, on voit qu’il s’intéresse à l’OSINT et aux CTF, donc il semble avoir un intérêt pour la cybersécurité, et il a fait la première release avec un énorme commit unique. En voyant cela, on peut aussi se dire qu’il a énormément fait de vibe coding dans le dépôt d’origine, puis l’a découpé en de nombreux commits, et qu’au moment de le publier tel quel c’était un peu gênant, donc il les a peut-être fusionnés en un seul. Vu aussi que son handle GitHub est h4ckfOr0day, il y a une sorte de tradition de publier avec des comptes jetables pour ce genre d’outils, comme pour l’OSINT ou d’autres approches pas tout à fait conventionnelles.
Il faudra construire la confiance autour de cet open source, mais il ne semble pas y avoir d’intention particulière derrière.
Dans le cas des modèles les plus récents, comme leur mode d’implémentation interne n’est pas détaillé, il semble que lors de la phase de recherche documentaire on se soit appuyé sur des modèles antérieurs, et il est très probable que tous les modèles sortis après GPT-5 aient hérité d’une architecture MoE. C’est parce que les modèles open source parallèles sont construits sur une structure MoE. Dans le cas des modèles closed récents, l’architecture n’est pas rendue publique, donc il ne s’agit pas d’une règle officielle confirmée.
Depuis la version 3.5, j’ai toujours utilisé Claude comme modèle principal, mais à partir de la 5.5, j’ai commencé à utiliser GPT comme modèle principal. Franchement, c’est vraiment pas mal.
Inspiré de Remotion, c’est un outil presque similaire, mais qui supprime React et permet de tout créer directement en HTML.
Pour l’instant, comme nous sommes une petite entreprise, nous utilisons simplement Remotion.
Remotion n’est gratuit que jusqu’à 3 personnes, donc pour une structure un peu plus grande, HyperFrames semble être une bonne option.
C’est ce que je fais en ce moment. En revanche, la politique de sandbox de Codex CLI est beaucoup trop stricte, donc dès que j’essaie de lui confier aussi le build et les tests, ça devient vraiment peu pratique.
Il n’y a plus qu’à appliquer la bibliothèque OAuth écrite par l’IA de Cloudflare
et à créer à peu près un drive, un calendrier, un chat et de la visioconférence, et on a une solution de suite bureautique qui tourne sur l’infrastructure de Cloudflare !
Les deux s’expriment vraiment n’importe comment, et ça me tape sur les nerfs. Cela dit, ils sont tous les deux paresseux, ils oublient même une partie de ce qu’on leur demande de faire.
Je suis d’accord.
Jusqu’ici, il y avait un décalage entre mon ressenti réel et les réactions de la communauté, ce qui me donnait une impression d’incohérence.
Ne pas avoir renouvelé mon abonnement annuel a vraiment été un coup de génie.
Quitte à payer au tarif multiplié par 27x d’Opus pour l’utiliser, autant prendre directement l’offre API de Claude.
Je l’ai mis dès le premier jour où le badge est sorti haha. J’aimerais qu’il y ait plus de produits comme Tailscale.
Je me suis fait rembourser depuis longtemps...
Il semble que ce soit un outil créé par u/Total_Nectarine_3623.
https://www.reddit.com/r/ClaudeAI/s/9VO1vzO2zp
En regardant ses autres publications, on voit qu’il s’intéresse à l’OSINT et aux CTF, donc il semble avoir un intérêt pour la cybersécurité, et il a fait la première release avec un énorme commit unique. En voyant cela, on peut aussi se dire qu’il a énormément fait de vibe coding dans le dépôt d’origine, puis l’a découpé en de nombreux commits, et qu’au moment de le publier tel quel c’était un peu gênant, donc il les a peut-être fusionnés en un seul. Vu aussi que son handle GitHub est h4ckfOr0day, il y a une sorte de tradition de publier avec des comptes jetables pour ce genre d’outils, comme pour l’OSINT ou d’autres approches pas tout à fait conventionnelles.
Il faudra construire la confiance autour de cet open source, mais il ne semble pas y avoir d’intention particulière derrière.
C’est vrai.
Dans le cas des modèles les plus récents, comme leur mode d’implémentation interne n’est pas détaillé, il semble que lors de la phase de recherche documentaire on se soit appuyé sur des modèles antérieurs, et il est très probable que tous les modèles sortis après GPT-5 aient hérité d’une architecture MoE. C’est parce que les modèles open source parallèles sont construits sur une structure MoE. Dans le cas des modèles closed récents, l’architecture n’est pas rendue publique, donc il ne s’agit pas d’une règle officielle confirmée.
Parmi les principaux modèles de frontière qui utilisent le MoE, cela veut-il dire que GPT-5.5 n’utilise pas le MoE ?
Avis perso : depuis que Cloudflare a commencé à parler de lancer un meshnet, voilà ce qu’on entend
Wouaaaaaaah, énorme !!!!!!!
Depuis la version 3.5, j’ai toujours utilisé Claude comme modèle principal, mais à partir de la 5.5, j’ai commencé à utiliser GPT comme modèle principal. Franchement, c’est vraiment pas mal.
Inspiré de Remotion, c’est un outil presque similaire, mais qui supprime React et permet de tout créer directement en HTML.
Pour l’instant, comme nous sommes une petite entreprise, nous utilisons simplement Remotion.
Remotion n’est gratuit que jusqu’à 3 personnes, donc pour une structure un peu plus grande, HyperFrames semble être une bonne option.
Au contraire, j’ai l’impression qu’avec Opus 4.6 et 4.7, le coréen commence à devenir bizarre lol
C’est ce que je fais en ce moment. En revanche, la politique de sandbox de Codex CLI est beaucoup trop stricte, donc dès que j’essaie de lui confier aussi le build et les tests, ça devient vraiment peu pratique.
Tailscale, c’est l’amour. C’est le meilleur !
Et si on utilisait Claude uniquement pour la planification et Codex uniquement pour l'exécution ?
outil de chèvre..
Je ne sais pas pourquoi il étale une telle connerie après en avoir fait une, je ne comprends vraiment pas la culture de Twitter.
Il n’y a plus qu’à appliquer la bibliothèque OAuth écrite par l’IA de Cloudflare
et à créer à peu près un drive, un calendrier, un chat et de la visioconférence, et on a une solution de suite bureautique qui tourne sur l’infrastructure de Cloudflare !
Les deux s’expriment vraiment n’importe comment, et ça me tape sur les nerfs. Cela dit, ils sont tous les deux paresseux, ils oublient même une partie de ce qu’on leur demande de faire.