Alors, cela veut-il dire qu’on ne pourra jamais conduire une voiture tant qu’on n’en aura pas compris toute la structure interne ?

 

C’est une mauvaise analogie. Comme une calculatrice scientifique ou Excel, les résultats d’une calculatrice d’ingénierie sont exacts en fonction des valeurs saisies. Si l’IA produisait exactement le résultat anticipé par l’utilisateur, ce ne serait pas une technologie si différente de tant de nouvelles technologies apparues jusqu’ici. C’est aussi la raison pour laquelle les inquiétudes autour de la sécurité et des hallucinations grandissent avec le temps. Autrement dit, l’IA générative ne se contrôle pas. Il faut comprendre les limites actuelles des LLM et les utiliser là où c’est approprié.

 

Je suis actuellement abonné à l’offre Pro. C’est peut-être parce que je l’ai relativement peu utilisé, mais jusqu’à présent je n’ai jamais atteint de limite sur Perplexity, Comet compris. J’ai même l’impression que c’est plus souple que prévu.
Comme le plan d’abonnement n’indique pas de ratelimit, il est difficile d’en être certain.
Pour l’instant, on dirait qu’ils ont proposé la bêta différemment de Pro Max.

https://perplexity.ai/help-center/en/…

C’est une impression personnelle, mais comme vous l’avez dit, c’est peut-être parce que c’est une période de test : le nombre de requêtes ne semble pas vraiment avoir d’importance. J’ai même vérifié qu’il était possible de lancer 12 navigateurs virtuels en parallèle d’un seul coup et de faire tourner les tâches. C’est assez impressionnant.

 

Oh, le fait que ça fonctionne sur termux, c’est une excellente nouvelle.

 

Quand vous l’avez testé, y avait-il une limite d’utilisation des requêtes pour cet agent Comet ? Ou bien, comme avec d’autres outils, est-ce que pendant la période de test le nombre de requêtes n’avait pas d’importance ? Il me semble me souvenir qu’il y avait quelque chose comme Pro-Max, donc je me permets de vous poser la question.

 

On dirait qu’ils sont convaincus de pouvoir battre Kernel et apparaître en première page de Google.

 

Rien que le nom est déjà mal barré…

 

Je pense que c’est une question de méthode et de technologie. Ceux qui disent qu’il ne faut tout simplement pas utiliser l’IA et qu’il faut faire du hand-coding « organique », c’est un peu comme ceux qui diraient que la vraie voie, ce n’est pas d’utiliser une calculatrice scientifique ni les fonctions d’Excel, mais de sortir un boulier ou de tout faire à la main.

 
zabefofoon 2025-08-01 | commentaire parent | dans: Liquid Glass implémenté en CSS (atlaspuplabs.com)

Ça ne s’applique pas dans Safari, apparemment.

 

Je pense qu’actuellement le vibe coding n’en est encore qu’à ses débuts, et qu’il deviendra d’ici un ou deux ans une méthodologie de développement mature. De la même manière que le devops devient de l’aidevops, je pense que cela évoluera vers l’aiagile ou le vibeagile.

 

Merci pour cette lecture.
Je suis un peu déçu, car cela semble conforme aux attentes..

 

Je suis d’accord avec l’idée que, techniquement, il y a un effet wow, mais que du point de vue du produit, cela reste encore flou.

  1. La vitesse d’exécution de l’agent est bien trop lente, et en même temps, ses performances ne sont pas assez fiables pour qu’on puisse lui faire confiance, le laisser travailler et l’oublier.
  2. Il semble impossible de choisir le modèle, donc la plupart des tâches paraissent sans doute être effectuées avec le modèle maison de Perplexity, mais les hallucinations sont bien trop fréquentes.
    Ex. : quand on lui demande de lire une page d’actualités Naver et de résumer, pour chaque journal, la tonalité de ses articles sur les négociations tarifaires, il invente la tonalité de journaux qu’il n’a pas lus en se basant sur des « préjugés préalablement appris sur l’orientation de chaque média », puis répond comme si c’était réel.
  3. Pour lui faire exécuter correctement ce type de travail, il faut du prompt engineering ainsi que des vérifications/corrections répétées, et le coût d’attention que cela demande semble supérieur au bénéfice qu’on pourrait tirer de l’automatisation via Comet.
  4. On voit bien les difficultés techniques auxquelles ils ont dû se heurter pendant le développement, donc il y a des aspects intéressants à observer de ce point de vue en tant que « développeur », mais en tant que produit...
 

Vivo est un fabricant chinois de smartphones.

 

En allant voir ce repo GitHub, j’ai remarqué que le README est disponible en anglais et en chinois. C’est peut-être un projet créé en Chine ? On dirait bien~

 

Même sans l’appliquer au logiciel principal, l’IA fait gagner énormément de temps dans les programmes de test ou au démarrage d’un projet.

Même en mettant de côté le fait qu’elle puisse écrire du code, je pense que les fonctions d’assistant ont changé du tout au tout depuis l’adoption de l’IA. À mon avis, nous sommes désormais dans une époque où l’IA n’est plus une option, mais une nécessité.

 

Ça fonctionne bien dans termux, et pour les miniatures d’images, elles s’affichent dans copyparty en appuyant sur la touche g après avoir installé libjpeg-turbo et Pillow. Maintenant, quand je transfère des fichiers du téléphone vers le PC, je n’aurai plus besoin d’utiliser Quick Share ni le serveur web intégré de Python. Après yt-dlp, c’est le deuxième programme vraiment utile que j’ai installé dans termux.

 

Il semble qu’il arrive parfois que des entreprises se retrouvent en difficulté parce que le coût par utilisateur d’un service réel utilisant l’IA diffère de celui des services existants. Le plus gros problème semble être que ce modèle diffère des schémas de service traditionnels mentionnés plus haut.

 

On dirait une blague. Dès la vidéo de démonstration, la personne est du genre à tout remplir de blagues...

 

Il y a un truc bizarre en bas à gauche du serveur de démo. « Activate Windows »
Moi, j’utilise macOS…

 

https://naildrivin5.com/blog/2025/…

Je pense qu’il faut corriger avec ce lien.