- Une PR a été publiée dans le projet
llama.cpp pour « doubler la vitesse de WASM »
- Optimisation des fonctions de produit scalaire (
dot product) qX_K_q8_K et qX_0_q8_0 à l’aide d’instructions SIMD
- La majeure partie du code (99 %) a été générée automatiquement par « DeepSeek-R1 »
- DeepSeek-R1 met 3 à 5 minutes pour traiter le prompt
Performances de génération de code de DeepSeek-R1
- L’auteur de la PR a utilisé DeepSeek-R1 pour générer et améliorer le code d’optimisation, et n’a rédigé lui-même que les tests et les prompts
- Les prompts utilisés sont disponibles ici
- DeepSeek-R1 a montré une excellente chaîne de raisonnement lors de l’optimisation de
llm_groq.py
Comparaison des performances : DeepSeek-R1 vs OpenAI o1
- La même tâche a aussi été exécutée avec OpenAI o1, mais le résultat de DeepSeek-R1 est supérieur
- Processus de réflexion sur l’optimisation de
model_map dans l’exemple de code :
- Il a d’abord jugé que
model_map était nécessaire
- Puis il a envisagé de le construire dynamiquement à partir de la réponse de l’API
- Il a finalement conclu que supprimer
model_map était la meilleure solution
Conclusion
- DeepSeek-R1 montre d’excellentes performances en génération et optimisation automatiques de code
- L’optimisation de
llama.cpp via SIMD dans WASM améliore fortement les performances
- Si la PR est intégrée, la vitesse d’exécution des applications basées sur WebAssembly devrait nettement progresser
4 commentaires
J’ai fait tourner deepseek r1 14b, 30b et 70b avec ollama ; le raisonnement global est bon, mais il y a pas mal de petites erreurs. R1 est vraiment excellent.
J’ai essayé la version distillée 8b, mais les performances en coréen étaient en baisse.
On dirait que cela produit des résultats significatifs pour la génération de code.
Avis Hacker News
DeepSeek-R1 a écrit 99 % du code d’une PR de llama.cpp. C’est un exemple qui montre que l’IA peut apporter une contribution majeure au développement
DeepSeek-R1-Distill-Qwen-32B tourne sur un laptop via Ollama, avec environ 20 Go de RAM nécessaires
Le fait que DeepSeek-R1 ait écrit 99 % du code de la PR llama.cpp constitue une étape marquante
Il a été demandé à DeepSeek de convertir du code ARM SIMD en code WASM, ce qui aide à l’optimisation du code
L’affirmation selon laquelle les LLM ne sont pas utiles pour coder est erronée
Des tests e2e ont été écrits avec o1 Pro et Deepseek R1, et Deepseek a produit de meilleurs tests
En plus de convertir ARM NEON en SIMD, Xuan-Son a demandé de développer une nouvelle approche
Le plugin
llm_groq.pya été réécrit avec DeepSeek R1, en utilisantdeepseek-r1-distill-llama-70b, un modèle affiné à partir de LlamaIl est possible que l’AGI arrive dans quelques mois, et l’entraînement se déroulera en trois étapes