J’ai fait la mise à niveau avec ce produit Technojoy et, après deux mois d’utilisation, le SSD est tombé en panne pour une raison inconnue. Je n’ai pas pu obtenir de SAV séparé et j’y ai laissé des plumes. Je laisse ce retour à titre de référence.

Après réflexion, j’utilise maintenant un produit iBoff, et pour l’instant je n’ai pas encore rencontré de gros problème.

 
nuremberg 2025-07-17 | commentaire parent | dans: Joyeux 20e anniversaire à Django (djangoproject.com)

Depuis que j’utilise Django, j’ai le sentiment que ma carrière s’est complètement améliorée, donc je lui en suis très reconnaissant en tant qu’utilisateur. J’ai aussi contribué à Django à quelques reprises, et j’espère qu’il continuera à être aimé pendant longtemps haha

 

C’était exactement ce qu’il me fallait en ce moment....

>Outil CLI exclusivement pour macOS

😭😭😭😭😭😭

 

Oh, c'est pas mal. J'avais déjà fait ça par le passé avec la commande rename, mais rien que le fait de pouvoir prévisualiser et d'avoir la prise en charge de l'annulation, ce serait vraiment pratique.

 

La 2.5 est sortie depuis un bon moment déjà, alors pourquoi parler de la 1.5 ?

 

Je pense que les développeurs y adhéreraient davantage s’il y avait des résultats de benchmark à l’appui. Un usage excessif des frameworks rendra certes un site plus lent, mais personnellement j’ai plus souvent vu, du point de vue des transitions entre les pages d’un site, des sites faits en code vanilla être plus lents que des sites utilisant un framework bien optimisé. Bien sûr, s’il s’agit d’un site composé uniquement de données statiques, n’avoir que du HTML + CSS sera peut-être plus rapide, mais je ne sais pas vraiment si les sites basés uniquement sur des données statiques sont encore courants aujourd’hui.

 

Peut-on collecter des données personnelles sans consentement ?

 

Il suffirait juste de permettre l’utilisation des GPU Nvidia sur macOS… haha.

 

> Les développeurs pensent que l’IA les a rendus plus rapides,
comme la recherche avec l’IA s’est accélérée et permet d’obtenir une meilleure qualité, est-ce qu’au final, pour un même travail, on n’obtient pas simplement un résultat d’un niveau un peu supérieur ? Peut-être que les développeurs ont le sentiment que, pour développer en visant la qualité du résultat final, il est plus rapide d’y parvenir avec l’aide de l’IA que d’y arriver seul.
Je me dis aussi que, s’ils ne l’avaient pas utilisée dès le départ, ils auraient implémenté avec les seules connaissances qu’ils avaient déjà, et que c’est peut-être pour cela qu’on a cette impression.

 

Le fait de collecter des numéros me met très mal à l’aise. Il n’y a même aucune explication sur la manière dont ils seront utilisés.

 

Le problème, plus grave encore que les utilisateurs eux-mêmes, ce sont les bots d’IA qui vous tombent dessus à la vitesse de l’éclair dès que vous laissez un commentaire sur les réseaux sociaux, dans les médias ou sur YouTube alignés avec un parti politique donné.

 

Je pense que vous avez défini de manière trop large le niveau de raisonnement requis pour les tâches traitées par ces 300 utilisateurs. Si l’objectif est vraiment de couvrir de la culture générale très basique jusqu’aux articles de recherche ou à des sujets avancés, alors cette approche se tient. Mais si l’on considère le niveau réel des tâches à traiter en entreprise, la plupart pourraient probablement être gérées avec un modèle d’environ 30B accompagné de RAG. À force de vouloir s’appuyer sur toutes les pondérations d’un socle open source pour obtenir un haut niveau de raisonnement et de fonctionnalités, n’avez-vous pas fini par dimensionner l’ensemble de façon excessive ?? Et je pense aussi qu’il serait plus pertinent de séparer en fonctions distinctes le traitement immédiat d’un côté, et la recherche/exploration documentaire de l’autre.
Pour la plage de tokens visée par le KV cache pour 300 utilisateurs simultanés, si l’on part sur quelque chose comme 20 000 tokens quantifiés par utilisateur, cela devrait déjà laisser une marge confortable ; là aussi, c’est peut-être surestimé... ??
À moins que ces 300 personnes ne soient toutes des doctorants en train de rédiger des articles scientifiques, il me semble qu’en visant un niveau de raisonnement de lycéen avec un modèle de 14 à 30B, puis en configurant l’exploration de divers documents internes via une logique RAG avec un CoT adapté, on pourrait probablement monter un projet pilote à un coût raisonnable.

 

allwehear.com
Vous pouvez consulter le résumé audio sur le site ci-dessus.

 

darknamer devrait généralement suffire, mais pour les cas où les performances sont importantes, celui-ci sera probablement un meilleur choix.

 

Ah, oui, haha, moi non plus je n’avais pas l’intention de contredire ce que disait jhk0530.
Moi aussi, je pense que même si le site demande des informations personnelles, il n’y aurait pas de problème si la personne précisait bien qu’il s’agit d’elle-même en publiant,
au contraire, comme ce n’est pas indiqué, ça me met encore plus mal à l’aise.

 

Ah, mon intention n’était pas de parler du contenu du lien (qui implique une collecte de données personnelles), mais plutôt du fait d’avoir posté le lien. Merci pour l’explication.

 

Je n’ai pas dit que je n’avais jamais vu des personnes publier des textes externes en faisant comme si ce n’était pas les leurs,
mais dans ce cas, le problème semble être que vous avez collecté des informations personnelles en prétendant ne pas être vous-même.