40 points par GN⁺ 2026-03-14 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Un outil web permettant de vérifier quels modèles d’IA une machine locale peut réellement exécuter
  • Il estime les performances matérielles via l’API WebGPU du navigateur, et les résultats peuvent différer des spécifications réelles
  • Pour chaque modèle, il affiche notamment les besoins mémoire, la vitesse de traitement des tokens, la longueur de contexte et une note d’exécution (S~F)
  • Il inclut les principaux modèles open source et commerciaux comme Qwen, Llama, Gemma, Mistral, DeepSeek, GPT-OSS
  • Il permet d’évaluer rapidement la faisabilité d’une exécution locale de l’IA et peut servir de référence utile pour les développeurs et les chercheurs

Présentation du service

  • CanIRun.ai est un site web qui permet d’explorer les modèles d’IA pouvant être exécutés en local
    • En ouvrant le site dans leur navigateur, les utilisateurs peuvent consulter la liste des modèles compatibles en fonction des performances de leur système
    • Les résultats sont estimés via l’API WebGPU et peuvent différer des performances réelles du matériel
  • Chaque modèle est classé selon une note de performance (S~F), ce qui permet de comprendre intuitivement sa faisabilité d’exécution et son efficacité

Système de notation des modèles

  • Les notes sont réparties en S, A, B, C, D, F, S correspondant à l’exécution la plus fluide
    • Exemple : sur une NVIDIA GeForce RTX 4070 12GB
    • Qwen 3.5 9B, Llama 3.1 8B, entre autres, sont affichés en S(90/100) et peuvent s’exécuter de manière fluide
    • Phi-4 14B est noté A(70/100) et « fonctionne bien »
    • GPT-OSS 20B, Mistral Small 3.1 24B, entre autres, sont notés D(34~39/100) et considérés comme « presque impossibles à exécuter »
    • D’autres modèles comme Gemma 3 27B, Qwen 3 32B et la plupart des modèles de 27B et plus sont indiqués en F(0/100) comme « trop lourds »

Sources des données et base technique

  • Les données des modèles sont collectées depuis llama.cpp, Ollama et LM Studio
  • Chaque page de modèle affiche en détail des éléments comme l’utilisation mémoire, la longueur de contexte, la vitesse des tokens et le type d’architecture (Dense/MoE)

Intérêt pratique

  • Fournit une référence concrète aux développeurs, chercheurs et utilisateurs open source qui souhaitent exécuter directement des modèles d’IA en local
  • Aide à définir une stratégie adaptée de choix et de déploiement des modèles en comparant leur taille et leur efficacité face aux performances GPU
  • Son fonctionnement dans le navigateur permet un test immédiat sans installation, ce qui constitue l’un de ses principaux atouts

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.