1 points par GN⁺ 2025-07-13 | 2 commentaires | Partager sur WhatsApp
  • OpenAI avait initialement prévu de lancer son modèle à poids ouverts la semaine prochaine, mais a annoncé reporter sa sortie afin de mener des tests de sécurité supplémentaires et un examen des zones à haut risque
  • Sam Altman a indiqué qu’"il n’est pas encore certain du temps que cela prendra exactement"
  • Il a expliqué qu’une fois les poids (weights) du modèle rendus publics, il n’est plus possible de les retirer, d’où la nécessité d’une approche prudente
  • OpenAI affirme avoir confiance dans le fait que la communauté pourra produire diverses innovations grâce à ce modèle, mais souligne que, comme il s’agit d’une première pour OpenAI, l’entreprise veut suivre la procédure correctement
  • Enfin, il a réitéré son excuse sincère et son appel à la prudence, en déclarant : "Désolé, ce n’est pas une bonne nouvelle. Nous travaillons vraiment très dur"

2 commentaires

 
ng0301 2025-07-13

Encore se faire avoir~

 
GN⁺ 2025-07-13
Avis Hacker News
  • Partage le lien https://nitter.space/sama/status/1943837550369812814

  • Je ne sais pas si c’est une coïncidence que la sortie du modèle open weight d’OpenAI ait soudainement été reportée juste après l’arrivée d’un excellent modèle open weight comme Kimi K2, annoncé aujourd’hui
    Lien de présentation de Kimi K2
    Quand OpenAI le sortira, il faudra que cela fasse monter le niveau de tout le secteur d’un cran
    Je ne pense pas qu’un modèle à poids publics de qualité moyenne puisse suffire

    • J’ai l’impression qu’OpenAI concentre actuellement toutes ses ressources sur l’objectif de dépasser Grok 4
      xAI a une avance considérable dans l’accumulation de puissance de calcul et a creusé un grand écart sur des tests d’intelligence comme ARC, HLE, etc.
      Ce qu’OpenAI vise, ce n’est pas la compétition open source, c’est la victoire dans la compétition tout court
    • En revanche, je me demande pourquoi il n’y a presque aucune discussion sur K2 sur Hacker News
      Je trouve que c’est une assez grosse actualité
    • Le timing paraît d’autant plus frappant qu’OpenAI a récemment annoncé qu’il allait publier le meilleur modèle open source
    • J’ai l’impression que depuis GPT-4, tous les modèles d’OpenAI sont nettement en retard sur la dynamique du marché
  • Je pense que la mention des « tests de sécurité » pour les LLM relève du marketing
    Les voitures, les avions et les ascenseurs subissent de vrais tests de sécurité, mais les LLM, c’est différent
    Même si le résultat produit par un LLM ne plaît pas à son fabricant, personne n’en meurt pour autant
    Ce qu’ils appellent « tests de sécurité », au fond, consiste surtout à vérifier jusqu’où le LLM va dire des choses qu’ils n’aiment pas

    • Un LLM peut facilement expliquer à quelqu’un de prendre des médicaments qui interagissent mal
      Il peut aussi pousser une personne en crise de santé mentale vers le suicide, ou défendre de façon convaincante l’idée extrême qu’une race ou un groupe précis serait la cause du problème et qu’il faudrait l’éliminer
      Les mots ne tuent pas directement, mais ils peuvent clairement conduire à la mort
      Et au-delà de cela, il existe aussi des risques liés à l’usage d’outils
    • Dans ce contexte, « sécurité » veut souvent dire empêcher des propos susceptibles de vexer quelqu’un ou de devenir un problème de relations publiques
    • Je pense aussi que c’est du marketing, mais pour la raison inverse
      À mon avis, au niveau technologique actuel, il est impossible de les rendre réellement sûrs
    • Cela sert davantage à protéger les fournisseurs de LLM que les utilisateurs
  • Mon hobby, c’est de transformer le cynisme en argent
    Je vais sur Polymarket, je cherche des événements sur la société et la technologie qui me rendraient heureux et optimiste, puis je parie une petite somme (de l’argent de poche) sur le fait qu’ils n’arriveront pas
    Par exemple, il y a un pari sur le fait qu’OpenAI publie ou non un modèle open source à poids ouverts avant septembre, et il se négocie actuellement à 81 %
    Le mois dernier, OpenAI n’a rien publié non plus, le cessez-le-feu n’a pas vraiment été un cessez-le-feu, et les indicateurs climatiques se sont aggravés, ce qui m’a rapporté une dizaine de dollars
    On ne peut pas couvrir totalement le désespoir d’exister, mais on peut au moins en atténuer un peu la douleur

    • En pariant ainsi, on gagne dans tous les cas
      Si je gagne, je gagne de l’argent (bénéfice), et si je perds, c’est qu’il s’est passé quelque chose de positif pour la société (bénéfice)
    • Un de mes amis appelle aussi ça « couvrir l’humanité »
      À chaque fois qu’il se passe quelque chose de politiquement déprimant, il gagne quelques centaines de dollars
    • Je suis surpris qu’il y ait encore des gens qui utilisent les cryptomonnaies
      Je pensais que la crypto était déjà finie depuis le boom de l’IA
    • « Les jeux d’argent peuvent rendre dépendant, alors jouez de manière responsable et uniquement si vous avez plus de 18 ans
      Si vous avez besoin d’aide, adressez-vous à un centre spécialisé dans l’addiction au jeu ou à un médecin »
  • Je fais davantage confiance à Deepseek et à Qwen (Alibaba) qu’aux entreprises américaines de l’IA
    J’ai vraiment l’impression que l’industrie américaine de l’IA ne fait qu’engloutir de l’argent et des ressources de calcul
    Même après des milliards investis, elle n’a pas grand-chose à montrer
    Deepseek a été développé avec seulement 5 millions de dollars et a présenté plusieurs nouvelles méthodes d’entraînement
    En plus, ils ont publié à la fois le modèle et le code en FLOSS
    Les entreprises américaines, elles, sont toutes fermées
    Les sociétés américaines de l’IA ressemblent à des vautours qui cherchent à s’entretuer

    • Il y a énormément de controverse autour de ces 5 millions de dollars de coût de développement de Deepseek
      Les avis divergent entre mauvaise compréhension et désinformation délibérée
      Même en supposant qu’il n’y ait pas eu de malveillance, je voudrais dire, pour avoir déjà entraîné de grands modèles, qu’il est absurde de parler du coût total en ne regardant que celui d’un seul entraînement
      Le coût des expériences ratées, des entraînements supplémentaires et des innombrables autres tentatives est lui aussi considérable
      Le fait que R2 ne soit toujours pas sorti après six mois me paraît significatif
      On obtient parfois un résultat impressionnant, mais personne ne prête attention au coût des échecs
    • En réalité, la plupart des modèles de Google sont open source
      En travaillant dans l’industrie de l’IA, j’ai beaucoup lu les articles de recherche de Google ; ils ont grandement contribué aux progrès du secteur, et je leur suis reconnaissant d’avoir publié des modèles sous licence commerciale
    • Les 5 millions de dollars correspondent au coût en temps d’un seul entraînement sur GPU
    • Tu dis que les entreprises américaines de l’IA ne font que consommer de l’argent et du calcul, mais en réalité elles dévorent aussi littéralement des livres
    • Ce chiffre ne reflétait-il pas en fait seulement le prix des GPU ?
  • C’est probablement parce que le résultat est inférieur au modèle K2 annoncé aujourd’hui
    Aucun ingénieur sérieux ne dirait que c’est à cause de la « sécurité »
    Avec des méthodes comme l’ablation, même un entraînement de sécurité appliqué a posteriori devient inefficace

    • Personnellement, j’espère que le modèle open weight qu’OpenAI publiera sera bien plus petit que K2
      K2 compte 1 trillion de paramètres et son téléchargement approche déjà le téraoctet
      Impossible de faire tourner ça sur mon ordinateur portable
      Je pense qu’en local, la taille idéale se situe autour de 20B
      Mistral Small 3.x ou certains modèles Gemma 3 en sont de bons exemples
      Ça tourne très bien avec moins de 32 Go de RAM et les performances sont bonnes
      J’espère sincèrement qu’OpenAI en sortira un d’une taille comparable
  • Il faut se souvenir que, comme le montrent les cas de fine-tuning non censuré des modèles Llama, les contraintes de sécurité peuvent être retirées facilement

  • En pratique, ce n’est qu’un théâtre sécuritaire complètement inutile
    La communauté sait déjà depuis longtemps comment retirer facilement toutes les protections

    • À chaque fois que je vois ce genre d’affirmation, je repense immédiatement au moment où « Open »AI refusait de publier GPT2 XL en disant qu’il était « trop puissant »
  • Dire « c’est nouveau aussi pour nous » ne ressemble pas à cette entreprise

  • Je suis sincèrement curieux de savoir pourquoi OpenAI veut publier un modèle à poids ouverts