Au final, j’ai l’impression que l’essentiel dépend de la manière dont la personne qui l’utilise réfléchit et s’en sert.
Il y a certes davantage de risques de se laisser entraîner sans y penser, dans un environnement où l’on se contente de tout lui confier sans réfléchir, mais si on l’utilise bien, on peut apprendre et développer bien plus vite et plus précisément qu’avant.
En revanche, j’aimerais qu’on définisse rapidement un nouveau cadre et de nouvelles méthodes exemplaires d’apprentissage, différents des approches traditionnelles d’apprentissage et d’acquisition d’expérience, pour mieux guider celles et ceux qui débutent.
Comme la page d’installation demandait une adresse e-mail, j’ai cru que c’était un repo privé, mais en fait c’est un repo public.
Vous pouvez passer par le lien ci-dessous.
Dans Codex, l’activation du mode /fast permet une vitesse de tokens jusqu’à 1,5× plus rapide, tout en conservant le même modèle et le même niveau d’intelligence. Dans l’API, cela correspond à Priority Processing.
Priority Processing coûte 2× le prix du standard
Les requêtes dépassant la fenêtre de contexte standard de 272K sont facturées au double du tarif
Qu’est-ce que c’est, je commence à manquer de vocabulaire.
Je me retrouve assis là à chercher « émergent », « slop », « attribution des sources », « effet de cadrage », « explosion cambrienne ».
Je me disais que j’allais peut-être essayer qmd, alors j’ai demandé à une IA de se renseigner ; elle m’a dit que la partie embeddings était correcte, mais que la prise en charge du coréen pour BM25 et l’expansion de requêtes était mauvaise, donc elle le déconseille...
La dernière fois que j’ai essayé un fine-tuning via un agent, il semblait que des problèmes de surapprentissage survenaient fréquemment selon les données ; je me demande si ce notebook permettrait cette fois-ci de le faire avec une combinaison LoRA/QLoRA.
Je n’irai même pas jusqu’à espérer qu’on valorise la simplicité. En réalité, il arrive même qu’on soit promu pour avoir réparé les dégâts causés en compliquant inutilement les choses.
Si la personne qui est montée en poste est capable d’évaluer ce genre de choses, tout va bien. Mais comme, au départ, ce n’est pas le cas, ce genre de contribution n’est pas évalué correctement, et du coup ces personnes-là ne peuvent pas monter...
C’est un cercle vicieux...
Du point de vue de l’entreprise, j’ai l’impression que c’est en réussissant comme ingénieur équilibré et en montant en responsabilité qu’on peut aussi défendre les bons principes d’ingénierie et être un bon ingénieur.
Vu le type d’entreprise que c’est, on pourrait presque appeler ça du dogfooding, haha.
J’étais en train de construire un truc comme ça, mais visiblement, tout le monde finit par avoir les mêmes idées.. haha
Cette atmosphère de croissance et de remise en question à travers le WDD (Wife Driven Development)...
Au final, j’ai l’impression que l’essentiel dépend de la manière dont la personne qui l’utilise réfléchit et s’en sert.
Il y a certes davantage de risques de se laisser entraîner sans y penser, dans un environnement où l’on se contente de tout lui confier sans réfléchir, mais si on l’utilise bien, on peut apprendre et développer bien plus vite et plus précisément qu’avant.
En revanche, j’aimerais qu’on définisse rapidement un nouveau cadre et de nouvelles méthodes exemplaires d’apprentissage, différents des approches traditionnelles d’apprentissage et d’acquisition d’expérience, pour mieux guider celles et ceux qui débutent.
Je l’ai lu à ma femme, et elle l’a trouvé très drôle...
Quelqu’un a avancé l’idée que c’est peut-être sa femme qui l’a amené à atteindre un tel niveau.
Le point 2. Les valeurs par défaut raisonnables me donnent l’impression que je devrais aussi réfléchir sur moi-même.
Le texte principal comme les réponses sont étonnamment négatifs. On dirait que personne ici n’a même essayé d’utiliser Claude Code..
La raison pour laquelle les développeurs n'arrivent pas à avoir de relation amoureuse
C’est juste du RAG, non ?
Quand on cherche nanoclaw,
nanoclaw.netapparaît toujours sous git.On dirait qu’un développeur d’outil de triche a triché et s’est fait prendre. Haha.
Comme la page d’installation demandait une adresse e-mail, j’ai cru que c’était un repo privé, mais en fait c’est un repo public.
Vous pouvez passer par le lien ci-dessous.
https://github.com/ArtemXTech/personal-os-skills/…
Ça a l’air vraiment très intéressant, je vais essayer de l’appliquer.
MDRRRR
Qu’est-ce que c’est, je commence à manquer de vocabulaire.
Je me retrouve assis là à chercher « émergent », « slop », « attribution des sources », « effet de cadrage », « explosion cambrienne ».
Pourquoi il y a autant de trucs qui meurent en ce moment ?
Je me disais que j’allais peut-être essayer qmd, alors j’ai demandé à une IA de se renseigner ; elle m’a dit que la partie embeddings était correcte, mais que la prise en charge du coréen pour BM25 et l’expansion de requêtes était mauvaise, donc elle le déconseille...
La dernière fois que j’ai essayé un fine-tuning via un agent, il semblait que des problèmes de surapprentissage survenaient fréquemment selon les données ; je me demande si ce notebook permettrait cette fois-ci de le faire avec une combinaison LoRA/QLoRA.
Je n’irai même pas jusqu’à espérer qu’on valorise la simplicité. En réalité, il arrive même qu’on soit promu pour avoir réparé les dégâts causés en compliquant inutilement les choses.
Si la personne qui est montée en poste est capable d’évaluer ce genre de choses, tout va bien. Mais comme, au départ, ce n’est pas le cas, ce genre de contribution n’est pas évalué correctement, et du coup ces personnes-là ne peuvent pas monter...
C’est un cercle vicieux...
Du point de vue de l’entreprise, j’ai l’impression que c’est en réussissant comme ingénieur équilibré et en montant en responsabilité qu’on peut aussi défendre les bons principes d’ingénierie et être un bon ingénieur.