J’avais testé ça il y a quelques mois pour voir si je pouvais l’utiliser, mais au final ça demandait bien plus de ressources GPU que prévu et c’était aussi nettement plus lent, donc c’était difficile à adopter pour une petite entreprise. Même avec 2 GPU A10, les recherches prenaient entre 30 secondes et 1 minute, c'était fou,,
En lisant l’article original, il est indiqué que « seul l’IMSI a été modifié », mais dans le résumé de GeekNews, il est écrit que l’IMSI non plus n’a pas été modifié. Je pense qu’il s’agit d’une erreur lors de la rédaction du résumé.
Cela dit, ils comptaient vraiment se contenter de ne changer que l’IMSI tout en affirmant malgré tout que c’était sûr ? Là, c’est vraiment hallucinant.
J’aimerais qu’il y ait au moins une sanction exemplaire, du niveau d’un démantèlement. En alternance pour les trois opérateurs... Franchement, ces problèmes de sécurité deviennent épuisants. Et on a l’impression que leur manière de réagir devient de plus en plus effrontée au fil du temps.
Comme vous le dites, il semble qu’il faille soit continuer à injecter du contexte, soit condenser le contexte puis repartir dans un nouveau chat. On dirait qu’il n’y a pas d’autre choix que de continuer à surveiller et à pousser régulièrement.
C’est une belle initiative.
J’ai fait partie de la première génération de développeurs de jeux.
Avant l’arrivée d’Unreal, il allait de soi que les studios
développaient leur propre moteur,
et c’était justement là leur avantage concurrentiel.
Le développement du moteur consistait en grande partie à créer des outils
à partir du core, du kernel, du rendu et des autres entrées/sorties.
À l’époque, j’étais en charge des outils de particules, de son, de couches et d’objets,
et notre équipe comptait 7 personnes, mais en réunissant tout,
je crois qu’on dépassait facilement la vingtaine d’outils.
Puis, à partir du moment où Unreal est arrivé et que les jeux produits à la chaîne
se sont mis à déferler, ils n’ont plus investi dans le développement de moteurs.
Je crois que beaucoup de gens se sont alors mis à leur compte et ont créé leur entreprise.
C’était il y a déjà 27 ans.
Moi aussi, j’ai pris de l’âge entre-temps et je travaille désormais sur autre chose que les jeux.
Cela me rappelle avec nostalgie cette époque où je faisais du travail bas niveau sur le core
en fonction de la carte graphique, avec des modes directx et opengl distincts.
Je suis d’accord, mais il me semble que l’essentiel n’est pas tant la « conception de systèmes » que la « résolution de problèmes complexes par la conception de systèmes ».
Je pense que les tâches faciles deviennent encore plus faciles, tandis que les tâches difficiles continuent de devenir plus difficiles.
Je cherche quelqu’un pour relire du vibe coding IA. Tout est déjà fait, il faudrait juste corriger légèrement les erreurs qui apparaissent. Ce type de demande de prestation existe déjà, alors qu’il est plus rapide de repartir de zéro.
Je pense qu’aller jusqu’à envisager de le faire soi-même, c’était sans doute un peu excessif… mais il est vrai que, dans un système de gestion des connaissances, le fait de devoir s’inquiéter de la durée de vie du produit à cause d’une solution externe est un vrai problème.
Je l’ai d’abord vécu avec Evernote (bon, ce n’est pas mort non plus haha), et pour Obsidian aussi, même si en self-hosted on peut résoudre le problème de synchronisation, tout le monde n’est pas capable de faire ça, donc ça reste bel et bien un problème…
Et puis, concernant l’article lui-même… on a presque l’impression qu’il est en train de préparer une startup, non ? 😂
C’est impressionnant sur le papier, mais au fond c’est simplement un problème causé par une injection de prompt combinée au fait que le MCP dispose de beaucoup trop de permissions.
Du coup, on a l’impression que cela sert surtout à promouvoir un outil permettant de contrôler de l’extérieur les permissions du MCP.
Ce serait bien de différencier les permissions que le MCP peut utiliser entre les prompts saisis depuis l’extérieur et ceux saisis uniquement en interne.
J’avais testé ça il y a quelques mois pour voir si je pouvais l’utiliser, mais au final ça demandait bien plus de ressources GPU que prévu et c’était aussi nettement plus lent, donc c’était difficile à adopter pour une petite entreprise. Même avec 2 GPU A10, les recherches prenaient entre 30 secondes et 1 minute, c'était fou,,
En lisant l’article original, il est indiqué que « seul l’IMSI a été modifié », mais dans le résumé de GeekNews, il est écrit que l’IMSI non plus n’a pas été modifié. Je pense qu’il s’agit d’une erreur lors de la rédaction du résumé.
Cela dit, ils comptaient vraiment se contenter de ne changer que l’IMSI tout en affirmant malgré tout que c’était sûr ? Là, c’est vraiment hallucinant.
J’aimerais qu’il y ait au moins une sanction exemplaire, du niveau d’un démantèlement. En alternance pour les trois opérateurs... Franchement, ces problèmes de sécurité deviennent épuisants. Et on a l’impression que leur manière de réagir devient de plus en plus effrontée au fil du temps.
Waouh… on n’est pas face à une arnaque à l’échelle nationale ? Vous devriez sans doute en informer un média.
Comme vous le dites, il semble qu’il faille soit continuer à injecter du contexte, soit condenser le contexte puis repartir dans un nouveau chat. On dirait qu’il n’y a pas d’autre choix que de continuer à surveiller et à pousser régulièrement.
C’est une belle initiative.
J’ai fait partie de la première génération de développeurs de jeux.
Avant l’arrivée d’Unreal, il allait de soi que les studios
développaient leur propre moteur,
et c’était justement là leur avantage concurrentiel.
Le développement du moteur consistait en grande partie à créer des outils
à partir du core, du kernel, du rendu et des autres entrées/sorties.
À l’époque, j’étais en charge des outils de particules, de son, de couches et d’objets,
et notre équipe comptait 7 personnes, mais en réunissant tout,
je crois qu’on dépassait facilement la vingtaine d’outils.
Puis, à partir du moment où Unreal est arrivé et que les jeux produits à la chaîne
se sont mis à déferler, ils n’ont plus investi dans le développement de moteurs.
Je crois que beaucoup de gens se sont alors mis à leur compte et ont créé leur entreprise.
C’était il y a déjà 27 ans.
Moi aussi, j’ai pris de l’âge entre-temps et je travaille désormais sur autre chose que les jeux.
Cela me rappelle avec nostalgie cette époque où je faisais du travail bas niveau sur le core
en fonction de la carte graphique, avec des modes directx et opengl distincts.
Bon courage...
Du point de vue de la conception système
N’est-ce pas parce qu’on l’ajoute sans vraiment le prendre en compte dans le prompting ?
Le problème, c’est qu’on gère mal les conséquences du vibe coding.
Waouh..?
J’utilise bolt.new, et j’aimerais bien comparer avec celui-ci pour voir ce qu’il vaut.
MDR
Je suis d’accord, mais il me semble que l’essentiel n’est pas tant la « conception de systèmes » que la « résolution de problèmes complexes par la conception de systèmes ».
Je pense que les tâches faciles deviennent encore plus faciles, tandis que les tâches difficiles continuent de devenir plus difficiles.
Frissons mdr
Je cherche quelqu’un pour relire du vibe coding IA. Tout est déjà fait, il faudrait juste corriger légèrement les erreurs qui apparaissent. Ce type de demande de prestation existe déjà, alors qu’il est plus rapide de repartir de zéro.
Je pense qu’aller jusqu’à envisager de le faire soi-même, c’était sans doute un peu excessif… mais il est vrai que, dans un système de gestion des connaissances, le fait de devoir s’inquiéter de la durée de vie du produit à cause d’une solution externe est un vrai problème.
Je l’ai d’abord vécu avec Evernote (bon, ce n’est pas mort non plus haha), et pour Obsidian aussi, même si en self-hosted on peut résoudre le problème de synchronisation, tout le monde n’est pas capable de faire ça, donc ça reste bel et bien un problème…
Et puis, concernant l’article lui-même… on a presque l’impression qu’il est en train de préparer une startup, non ? 😂
Haha haha
> Je pense que les articles qui disent en gros « n'apprenez pas l'info » passent à côté du vrai sens.
La traduction est vraiment bien sortie, c'est étonnant haha
Il y a vraiment des gens qui font le n°1, en vrai..?
Fx - outil de traitement JSON en ligne de commande
Quand il a été présenté il y a environ 5 ans, la version était 15.0 ; elle en est maintenant à 36.0.
C’est impressionnant sur le papier, mais au fond c’est simplement un problème causé par une injection de prompt combinée au fait que le MCP dispose de beaucoup trop de permissions.
Du coup, on a l’impression que cela sert surtout à promouvoir un outil permettant de contrôler de l’extérieur les permissions du MCP.
Ce serait bien de différencier les permissions que le MCP peut utiliser entre les prompts saisis depuis l’extérieur et ceux saisis uniquement en interne.