Waouh... il y a même des sous-titres en coréen dans la vidéo.
Le contenu est bon aussi...
C’est un autre sujet, mais le monde est vraiment devenu formidable. On vit à une époque où l’on peut aussi suivre des cours du MIT en coréen via Internet.
J’ai l’impression qu’il s’agit surtout de dire qu’il ne faut pas négliger les tests e2e, mais je serais curieux de savoir ce que les autres en pensent.
Comme il est écrit qu’il s’agit d’une réécriture complète de co(lab), j’ai d’abord pensé qu’il s’agissait d’améliorer avec Google la stabilité du cloud pour l’exécution des fichiers ipynb, mais en réalité cela n’a absolument aucun lien : c’est un projet de développement de l’équipe Blackboard.
Cela dit, le fait qu’un OOPIF accessible puisse être installé via npx semble malgré tout être une expérience importante.
C’est peut-être parce que c’est un langage AI-native(?) ?
Comme ce n’est pas un langage conçu pour être écrit directement par des humains, la longueur réelle du code n’a pas vraiment d’importance,
et j’ai l’impression que l’idée, c’est plutôt de mesurer le temps de compilation d’un prompt destiné à implémenter une certaine fonctionnalité… haha
Je pensais que l’attribution se faisait automatiquement, mais en fait il faut simplement les enregistrer manuellement.
J’utilise Caddy, donc je ne vois pas vraiment de raison de passer à ça.
C’est tellement performant que ça en devient inquiétant. Je ne pense pas qu’il soit bon d’en devenir trop dépendant… Il faut qu’il y ait des concurrents.
Je réfléchis à des choses similaires en ce moment, donc j’ai écrit hier un billet de blog sur la dette cognitive, et on dirait que beaucoup de gens se posent les mêmes questions.
Référence : pilote ANE hors arborescence d’Asahi Linux
(Curiosité)
Si c'est vrai, pourquoi aurait-il fallu faire toute cette mise en scène ?
Waouh... il y a même des sous-titres en coréen dans la vidéo.
Le contenu est bon aussi...
C’est un autre sujet, mais le monde est vraiment devenu formidable. On vit à une époque où l’on peut aussi suivre des cours du MIT en coréen via Internet.
J’ai l’impression qu’il s’agit surtout de dire qu’il ne faut pas négliger les tests e2e, mais je serais curieux de savoir ce que les autres en pensent.
Comment faut-il évaluer la compréhension du code ? Faut-il la mesurer en proposant, par exemple, des quiz basés sur la base de code interne ?
« Ce qui est terminé, c’est la saisie au clavier, pas l’ingénierie. »
Je suis d’accord. Haha
Comme il est écrit qu’il s’agit d’une réécriture complète de co(lab), j’ai d’abord pensé qu’il s’agissait d’améliorer avec Google la stabilité du cloud pour l’exécution des fichiers ipynb, mais en réalité cela n’a absolument aucun lien : c’est un projet de développement de l’équipe Blackboard.
Cela dit, le fait qu’un OOPIF accessible puisse être installé via npx semble malgré tout être une expérience importante.
C’est peut-être parce que c’est un langage AI-native(?) ?
Comme ce n’est pas un langage conçu pour être écrit directement par des humains, la longueur réelle du code n’a pas vraiment d’importance,
et j’ai l’impression que l’idée, c’est plutôt de mesurer le temps de compilation d’un prompt destiné à implémenter une certaine fonctionnalité… haha
Ils consolident clairement leur place de numéro un incontesté.
C’est génial.
Comme cela ne s’accorde pas très bien avec les worktrees d’un même projet, je ne l’utilise pas.
Je pensais que l’attribution se faisait automatiquement, mais en fait il faut simplement les enregistrer manuellement.
J’utilise Caddy, donc je ne vois pas vraiment de raison de passer à ça.
J’utilisais déjà ça avec docker + traefik + mkcert, mais utiliser ça a l’air plus pratique.
C’est tellement performant que ça en devient inquiétant. Je ne pense pas qu’il soit bon d’en devenir trop dépendant… Il faut qu’il y ait des concurrents.
On disait déjà beaucoup de bien d’Anthropic, et ils font encore mieux. J’ai l’impression qu’ils stimulent énormément toutes les autres entreprises.
Je réfléchis à des choses similaires en ce moment, donc j’ai écrit hier un billet de blog sur la dette cognitive, et on dirait que beaucoup de gens se posent les mêmes questions.
Intéressant. Avez-vous des projets d’évolution pour la suite ?
Waouh, hahaha
C’est vrai… dès qu’on utilise un encodeur de vision, même un modèle 1B bouffe 9 Go de VRAM.