Soudain… je me suis souvenu du lecteur de musique que j’avais créé il y a 20 ans. C’était à l’époque où ce fichu lecteur de musique par défaut était remplacé par Rhythmbox… les tags ID3 coréens des mp3 s’affichaient en caractères illisibles, alors j’avais envoyé un patch en amont, mais ils ne l’ont pas accepté… à force de patcher, ça m’a saoulé, alors je me rappelle l’avoir créé moi-même… https://github.com/iolo/liteamp
Je mets mon MacBook en veille pour dormir, puis soudain, en pleine nuit, l’écran s’allume et toute la chambre est illuminée. Ça m’est arrivé souvent de me réveiller à cause de ça et de simplement l’éteindre complètement. Ça fait polémique depuis un moment déjà, et pourtant c’est toujours là...
L’utilisation de Link dans Next.js fait polémique, car pour prendre en charge React Server Components, des URL du type ?_rsc=1ip3i sont générées et traitées. On entend aussi dire que les coûts liés au CDN ont explosé, et l’équipe de développement de Next.js serait au courant du problème, mais on ne sait pas encore de quelle manière ni quand il sera résolu.
Je suis assez d’accord avec ce constat. J’en fais d’ailleurs déjà un peu l’expérience en pratique…
Et je me demande aussi comment cet aspect va évoluer en fonction des changements de performance des modèles.
C’est tellement vrai que ça m’a fait tiquer immédiatement. Les gens qui ne connaissent pas le code disent « waouh » quand ils font du vibe coding, mais ceux qui connaissent le code se demandent plutôt : « pourquoi ? comme ça ? ».
C’est une mauvaise analogie. Comme une calculatrice scientifique ou Excel, les résultats d’une calculatrice d’ingénierie sont exacts en fonction des valeurs saisies. Si l’IA produisait exactement le résultat anticipé par l’utilisateur, ce ne serait pas une technologie si différente de tant de nouvelles technologies apparues jusqu’ici. C’est aussi la raison pour laquelle les inquiétudes autour de la sécurité et des hallucinations grandissent avec le temps. Autrement dit, l’IA générative ne se contrôle pas. Il faut comprendre les limites actuelles des LLM et les utiliser là où c’est approprié.
Je suis actuellement abonné à l’offre Pro. C’est peut-être parce que je l’ai relativement peu utilisé, mais jusqu’à présent je n’ai jamais atteint de limite sur Perplexity, Comet compris. J’ai même l’impression que c’est plus souple que prévu.
Comme le plan d’abonnement n’indique pas de ratelimit, il est difficile d’en être certain.
Pour l’instant, on dirait qu’ils ont proposé la bêta différemment de Pro Max.
C’est une impression personnelle, mais comme vous l’avez dit, c’est peut-être parce que c’est une période de test : le nombre de requêtes ne semble pas vraiment avoir d’importance. J’ai même vérifié qu’il était possible de lancer 12 navigateurs virtuels en parallèle d’un seul coup et de faire tourner les tâches. C’est assez impressionnant.
Quand vous l’avez testé, y avait-il une limite d’utilisation des requêtes pour cet agent Comet ? Ou bien, comme avec d’autres outils, est-ce que pendant la période de test le nombre de requêtes n’avait pas d’importance ? Il me semble me souvenir qu’il y avait quelque chose comme Pro-Max, donc je me permets de vous poser la question.
Je pense que c’est une question de méthode et de technologie. Ceux qui disent qu’il ne faut tout simplement pas utiliser l’IA et qu’il faut faire du hand-coding « organique », c’est un peu comme ceux qui diraient que la vraie voie, ce n’est pas d’utiliser une calculatrice scientifique ni les fonctions d’Excel, mais de sortir un boulier ou de tout faire à la main.
Soudain… je me suis souvenu du lecteur de musique que j’avais créé il y a 20 ans. C’était à l’époque où ce fichu lecteur de musique par défaut était remplacé par Rhythmbox… les tags ID3 coréens des mp3 s’affichaient en caractères illisibles, alors j’avais envoyé un patch en amont, mais ils ne l’ont pas accepté… à force de patcher, ça m’a saoulé, alors je me rappelle l’avoir créé moi-même…
https://github.com/iolo/liteamp
On a fait ça d'une banalité pendant 2,5 ans ?!
Je mets mon MacBook en veille pour dormir, puis soudain, en pleine nuit, l’écran s’allume et toute la chambre est illuminée. Ça m’est arrivé souvent de me réveiller à cause de ça et de simplement l’éteindre complètement. Ça fait polémique depuis un moment déjà, et pourtant c’est toujours là...
L’utilisation de
Linkdans Next.js fait polémique, car pour prendre en charge React Server Components, des URL du type?_rsc=1ip3isont générées et traitées. On entend aussi dire que les coûts liés au CDN ont explosé, et l’équipe de développement de Next.js serait au courant du problème, mais on ne sait pas encore de quelle manière ni quand il sera résolu.Je suis assez d’accord avec ce constat. J’en fais d’ailleurs déjà un peu l’expérience en pratique…
Et je me demande aussi comment cet aspect va évoluer en fonction des changements de performance des modèles.
J'ai entendu dire que Rust avait été créé pour développer Servo... J'espère vraiment que Servo réussira bien.
C’est tellement vrai que ça m’a fait tiquer immédiatement. Les gens qui ne connaissent pas le code disent « waouh » quand ils font du vibe coding, mais ceux qui connaissent le code se demandent plutôt : « pourquoi ? comme ça ? ».
On peut s’en servir. Mais on ne pourra pas le créer.
Le projet Hurd me revient sans arrêt à l’esprit… c’est juste une illusion de ma part, n’est-ce pas ?
Le post HN est plus savoureux que l’article lui-même.
L’état des commentaires est affligeant.
Alors, cela veut-il dire qu’on ne pourra jamais conduire une voiture tant qu’on n’en aura pas compris toute la structure interne ?
C’est une mauvaise analogie. Comme une calculatrice scientifique ou Excel, les résultats d’une calculatrice d’ingénierie sont exacts en fonction des valeurs saisies. Si l’IA produisait exactement le résultat anticipé par l’utilisateur, ce ne serait pas une technologie si différente de tant de nouvelles technologies apparues jusqu’ici. C’est aussi la raison pour laquelle les inquiétudes autour de la sécurité et des hallucinations grandissent avec le temps. Autrement dit, l’IA générative ne se contrôle pas. Il faut comprendre les limites actuelles des LLM et les utiliser là où c’est approprié.
Je suis actuellement abonné à l’offre Pro. C’est peut-être parce que je l’ai relativement peu utilisé, mais jusqu’à présent je n’ai jamais atteint de limite sur Perplexity, Comet compris. J’ai même l’impression que c’est plus souple que prévu.
Comme le plan d’abonnement n’indique pas de ratelimit, il est difficile d’en être certain.
Pour l’instant, on dirait qu’ils ont proposé la bêta différemment de Pro Max.
https://perplexity.ai/help-center/en/…
C’est une impression personnelle, mais comme vous l’avez dit, c’est peut-être parce que c’est une période de test : le nombre de requêtes ne semble pas vraiment avoir d’importance. J’ai même vérifié qu’il était possible de lancer 12 navigateurs virtuels en parallèle d’un seul coup et de faire tourner les tâches. C’est assez impressionnant.
Oh, le fait que ça fonctionne sur termux, c’est une excellente nouvelle.
Quand vous l’avez testé, y avait-il une limite d’utilisation des requêtes pour cet agent Comet ? Ou bien, comme avec d’autres outils, est-ce que pendant la période de test le nombre de requêtes n’avait pas d’importance ? Il me semble me souvenir qu’il y avait quelque chose comme Pro-Max, donc je me permets de vous poser la question.
On dirait qu’ils sont convaincus de pouvoir battre Kernel et apparaître en première page de Google.
Rien que le nom est déjà mal barré…
Je pense que c’est une question de méthode et de technologie. Ceux qui disent qu’il ne faut tout simplement pas utiliser l’IA et qu’il faut faire du hand-coding « organique », c’est un peu comme ceux qui diraient que la vraie voie, ce n’est pas d’utiliser une calculatrice scientifique ni les fonctions d’Excel, mais de sortir un boulier ou de tout faire à la main.
Ça ne s’applique pas dans Safari, apparemment.