- Un outil web permettant de vérifier quels modèles d’IA une machine locale peut réellement exécuter
- Il estime les performances matérielles via l’API WebGPU du navigateur, et les résultats peuvent différer des spécifications réelles
- Pour chaque modèle, il affiche notamment les besoins mémoire, la vitesse de traitement des tokens, la longueur de contexte et une note d’exécution (S~F)
- Il inclut les principaux modèles open source et commerciaux comme Qwen, Llama, Gemma, Mistral, DeepSeek, GPT-OSS
- Il permet d’évaluer rapidement la faisabilité d’une exécution locale de l’IA et peut servir de référence utile pour les développeurs et les chercheurs
Présentation du service
- CanIRun.ai est un site web qui permet d’explorer les modèles d’IA pouvant être exécutés en local
- En ouvrant le site dans leur navigateur, les utilisateurs peuvent consulter la liste des modèles compatibles en fonction des performances de leur système
- Les résultats sont estimés via l’API WebGPU et peuvent différer des performances réelles du matériel
- Chaque modèle est classé selon une note de performance (S~F), ce qui permet de comprendre intuitivement sa faisabilité d’exécution et son efficacité
Système de notation des modèles
- Les notes sont réparties en S, A, B, C, D, F, S correspondant à l’exécution la plus fluide
- Exemple : sur une NVIDIA GeForce RTX 4070 12GB
- Qwen 3.5 9B, Llama 3.1 8B, entre autres, sont affichés en S(90/100) et peuvent s’exécuter de manière fluide
- Phi-4 14B est noté A(70/100) et « fonctionne bien »
- GPT-OSS 20B, Mistral Small 3.1 24B, entre autres, sont notés D(34~39/100) et considérés comme « presque impossibles à exécuter »
- D’autres modèles comme Gemma 3 27B, Qwen 3 32B et la plupart des modèles de 27B et plus sont indiqués en F(0/100) comme « trop lourds »
Sources des données et base technique
- Les données des modèles sont collectées depuis llama.cpp, Ollama et LM Studio
- Chaque page de modèle affiche en détail des éléments comme l’utilisation mémoire, la longueur de contexte, la vitesse des tokens et le type d’architecture (Dense/MoE)
Intérêt pratique
- Fournit une référence concrète aux développeurs, chercheurs et utilisateurs open source qui souhaitent exécuter directement des modèles d’IA en local
- Aide à définir une stratégie adaptée de choix et de déploiement des modèles en comparant leur taille et leur efficacité face aux performances GPU
- Son fonctionnement dans le navigateur permet un test immédiat sans installation, ce qui constitue l’un de ses principaux atouts
Aucun commentaire pour le moment.