- OpenAI avait initialement prévu de lancer son modèle à poids ouverts la semaine prochaine, mais a annoncé reporter sa sortie afin de mener des tests de sécurité supplémentaires et un examen des zones à haut risque
- Sam Altman a indiqué qu’"il n’est pas encore certain du temps que cela prendra exactement"
- Il a expliqué qu’une fois les poids (weights) du modèle rendus publics, il n’est plus possible de les retirer, d’où la nécessité d’une approche prudente
- OpenAI affirme avoir confiance dans le fait que la communauté pourra produire diverses innovations grâce à ce modèle, mais souligne que, comme il s’agit d’une première pour OpenAI, l’entreprise veut suivre la procédure correctement
- Enfin, il a réitéré son excuse sincère et son appel à la prudence, en déclarant : "Désolé, ce n’est pas une bonne nouvelle. Nous travaillons vraiment très dur"
2 commentaires
Encore se faire avoir~
Avis Hacker News
Partage le lien https://nitter.space/sama/status/1943837550369812814
Je ne sais pas si c’est une coïncidence que la sortie du modèle open weight d’OpenAI ait soudainement été reportée juste après l’arrivée d’un excellent modèle open weight comme Kimi K2, annoncé aujourd’hui
Lien de présentation de Kimi K2
Quand OpenAI le sortira, il faudra que cela fasse monter le niveau de tout le secteur d’un cran
Je ne pense pas qu’un modèle à poids publics de qualité moyenne puisse suffire
xAI a une avance considérable dans l’accumulation de puissance de calcul et a creusé un grand écart sur des tests d’intelligence comme ARC, HLE, etc.
Ce qu’OpenAI vise, ce n’est pas la compétition open source, c’est la victoire dans la compétition tout court
Je trouve que c’est une assez grosse actualité
Je pense que la mention des « tests de sécurité » pour les LLM relève du marketing
Les voitures, les avions et les ascenseurs subissent de vrais tests de sécurité, mais les LLM, c’est différent
Même si le résultat produit par un LLM ne plaît pas à son fabricant, personne n’en meurt pour autant
Ce qu’ils appellent « tests de sécurité », au fond, consiste surtout à vérifier jusqu’où le LLM va dire des choses qu’ils n’aiment pas
Il peut aussi pousser une personne en crise de santé mentale vers le suicide, ou défendre de façon convaincante l’idée extrême qu’une race ou un groupe précis serait la cause du problème et qu’il faudrait l’éliminer
Les mots ne tuent pas directement, mais ils peuvent clairement conduire à la mort
Et au-delà de cela, il existe aussi des risques liés à l’usage d’outils
À mon avis, au niveau technologique actuel, il est impossible de les rendre réellement sûrs
Mon hobby, c’est de transformer le cynisme en argent
Je vais sur Polymarket, je cherche des événements sur la société et la technologie qui me rendraient heureux et optimiste, puis je parie une petite somme (de l’argent de poche) sur le fait qu’ils n’arriveront pas
Par exemple, il y a un pari sur le fait qu’OpenAI publie ou non un modèle open source à poids ouverts avant septembre, et il se négocie actuellement à 81 %
Le mois dernier, OpenAI n’a rien publié non plus, le cessez-le-feu n’a pas vraiment été un cessez-le-feu, et les indicateurs climatiques se sont aggravés, ce qui m’a rapporté une dizaine de dollars
On ne peut pas couvrir totalement le désespoir d’exister, mais on peut au moins en atténuer un peu la douleur
Si je gagne, je gagne de l’argent (bénéfice), et si je perds, c’est qu’il s’est passé quelque chose de positif pour la société (bénéfice)
À chaque fois qu’il se passe quelque chose de politiquement déprimant, il gagne quelques centaines de dollars
Je pensais que la crypto était déjà finie depuis le boom de l’IA
Si vous avez besoin d’aide, adressez-vous à un centre spécialisé dans l’addiction au jeu ou à un médecin »
Je fais davantage confiance à Deepseek et à Qwen (Alibaba) qu’aux entreprises américaines de l’IA
J’ai vraiment l’impression que l’industrie américaine de l’IA ne fait qu’engloutir de l’argent et des ressources de calcul
Même après des milliards investis, elle n’a pas grand-chose à montrer
Deepseek a été développé avec seulement 5 millions de dollars et a présenté plusieurs nouvelles méthodes d’entraînement
En plus, ils ont publié à la fois le modèle et le code en FLOSS
Les entreprises américaines, elles, sont toutes fermées
Les sociétés américaines de l’IA ressemblent à des vautours qui cherchent à s’entretuer
Les avis divergent entre mauvaise compréhension et désinformation délibérée
Même en supposant qu’il n’y ait pas eu de malveillance, je voudrais dire, pour avoir déjà entraîné de grands modèles, qu’il est absurde de parler du coût total en ne regardant que celui d’un seul entraînement
Le coût des expériences ratées, des entraînements supplémentaires et des innombrables autres tentatives est lui aussi considérable
Le fait que R2 ne soit toujours pas sorti après six mois me paraît significatif
On obtient parfois un résultat impressionnant, mais personne ne prête attention au coût des échecs
En travaillant dans l’industrie de l’IA, j’ai beaucoup lu les articles de recherche de Google ; ils ont grandement contribué aux progrès du secteur, et je leur suis reconnaissant d’avoir publié des modèles sous licence commerciale
C’est probablement parce que le résultat est inférieur au modèle K2 annoncé aujourd’hui
Aucun ingénieur sérieux ne dirait que c’est à cause de la « sécurité »
Avec des méthodes comme l’ablation, même un entraînement de sécurité appliqué a posteriori devient inefficace
K2 compte 1 trillion de paramètres et son téléchargement approche déjà le téraoctet
Impossible de faire tourner ça sur mon ordinateur portable
Je pense qu’en local, la taille idéale se situe autour de 20B
Mistral Small 3.x ou certains modèles Gemma 3 en sont de bons exemples
Ça tourne très bien avec moins de 32 Go de RAM et les performances sont bonnes
J’espère sincèrement qu’OpenAI en sortira un d’une taille comparable
Il faut se souvenir que, comme le montrent les cas de fine-tuning non censuré des modèles Llama, les contraintes de sécurité peuvent être retirées facilement
En pratique, ce n’est qu’un théâtre sécuritaire complètement inutile
La communauté sait déjà depuis longtemps comment retirer facilement toutes les protections
Dire « c’est nouveau aussi pour nous » ne ressemble pas à cette entreprise
Je suis sincèrement curieux de savoir pourquoi OpenAI veut publier un modèle à poids ouverts