- Darkbloom est un réseau d’inférence IA distribuée qui relie des Mac Apple Silicon inactifs pour exécuter des calculs d’IA sur des appareils personnels, sans cloud centralisé
- Il supprime la structure à triple marge entre fabricants de GPU, fournisseurs cloud et fournisseurs d’API, permettant jusqu’à 70 % de réduction des coûts
- Toutes les requêtes sont chiffrées de bout en bout, empêchant les opérateurs de voir les données des utilisateurs, avec une confiance assurée par une chaîne d’attestation fondée sur le matériel de sécurité d’Apple
- Il propose une API compatible OpenAI prenant en charge les mêmes fonctions que les SDK existants, comme le chat, la génération d’images et la reconnaissance vocale
- Les opérateurs conservent 95 à 100 % des revenus et peuvent obtenir des revenus en USD via leurs Mac inactifs, sans autre coût supplémentaire que l’électricité
Réseau personnel d’inférence IA utilisant des Mac inactifs
- Darkbloom est un réseau d’inférence IA distribuée développé par Eigen Labs, qui connecte des Mac Apple Silicon inactifs pour exécuter des calculs d’IA
- Aujourd’hui, les calculs d’IA passent par une structure à trois niveaux de marge allant des fabricants de GPU aux hyperscalers, puis aux fournisseurs d’API et enfin aux utilisateurs finaux ; Darkbloom supprime cette chaîne et permet jusqu’à 70 % d’économies
- Les opérateurs du réseau ne peuvent pas voir les données des utilisateurs, et toutes les requêtes sont traitées avec un chiffrement de bout en bout
- L’API est compatible OpenAI et prend en charge les fonctions de chat, génération d’images et reconnaissance vocale de la même manière que les SDK existants
- Les opérateurs conservent 95 à 100 % des revenus, avec presque aucun coût supplémentaire en dehors de l’électricité
Fonctionnalités pour les utilisateurs
- Le coût marginal quasi nul du matériel inutilisé permet de répercuter directement les économies sur les prix pour les utilisateurs
- Une API compatible OpenAI fournit les fonctions de chat, génération d’images et conversion voix-texte
- Toutes les requêtes sont transmises avec un chiffrement de bout en bout
Fonctionnalités pour les propriétaires de matériel
- Les utilisateurs disposant d’un Mac Apple Silicon peuvent exécuter de l’inférence IA pendant les périodes d’inactivité et obtenir des revenus en USD
- Les opérateurs conservent 100 % des revenus d’inférence, tandis que le coût de l’électricité se situe entre $0.01 et $0.03 par heure
- Le reste correspond au bénéfice net
Problème structurel du marché des calculs d’IA
- Le marché actuel des calculs d’IA suit une structure à triple marge : fabricants de GPU → fournisseurs cloud → entreprises d’IA → utilisateurs finaux
- À cause de cela, l’utilisateur final paie plus de 3 fois le coût réel du silicium
- Dans le même temps, plus de 100 millions d’appareils Apple Silicon restent inactifs plus de 18 heures par jour en moyenne
- En connectant ces ressources de calcul inutilisées, il devient possible d’exploiter des actifs distribués à la manière d’Airbnb ou Uber
- Darkbloom transforme ces Mac inactifs en nœuds d’inférence IA afin de remplacer l’infrastructure centralisée
Problème de confiance et défis à résoudre
- Le problème central d’un réseau de calcul distribué est la fiabilité
- Les utilisateurs doivent faire traiter leurs données sur les appareils d’un tiers inconnu, ce qui rend insuffisante une simple sécurité fondée sur des conditions d’utilisation
- Sans confidentialité vérifiable (Verifiable Privacy), l’inférence distribuée est impossible
Approche technique de Darkbloom
-
Suppression des voies d’accès
- Suppression de toutes les voies logicielles permettant à l’opérateur d’accéder aux données
- L’ensemble est composé de quatre couches indépendantes, chacune pouvant être vérifiée
-
Couche de chiffrement
- Les requêtes sont chiffrées sur l’appareil de l’utilisateur avant transmission
- Le Coordinator ne fait que router du texte chiffré, et seule la clé matérielle du nœud cible peut le déchiffrer
-
Couche matérielle
- Chaque nœud possède une clé générée dans le matériel de sécurité d’Apple
- La vérification repose sur une chaîne d’attestation (attestation chain) issue de l’Apple Root CA
-
Couche d’exécution
- Le processus d’inférence est verrouillé au niveau du système d’exploitation
- Connexion de débogueur et inspection mémoire bloquées
- L’opérateur ne peut pas extraire les données du processus en cours d’exécution
-
Couche de sortie
- Toutes les réponses peuvent être vérifiées via la signature de ce matériel
- Toute la chaîne d’attestation est publique et peut être vérifiée indépendamment par n’importe qui
-
En conséquence, l’opérateur exécute l’inférence sans voir les données
- Les prompts sont chiffrés avant transmission
- Le Coordinator les route sans pouvoir en lire le contenu
- Le Provider déchiffre et exécute dans un environnement isolé vérifié
- La chaîne d’attestation est publique, ce qui garantit la transparence
Détails d’implémentation
-
API compatible OpenAI
- Compatibilité totale avec les SDK OpenAI existants
- Il suffit de changer l’URL de base pour utiliser le même code
- Streaming, Function Calling, Image Generation et Speech-to-Text sont tous pris en charge
- Fonctions prises en charge
- Streaming : basé sur SSE, format OpenAI
- Image Generation : FLUX.2 on Metal
- Speech-to-Text : Cohere Transcribe
- Large MoE : prise en charge de modèles allant jusqu’à 239B paramètres
Résultats de comparaison des coûts
- Le coût marginal quasi nul du matériel inutilisé permet une baisse des prix
- Aucun abonnement ni minimum d’utilisation
- Environ 50 % moins cher que OpenRouter
| Modèle | Entrée | Sortie | OpenRouter | Réduction |
|---|---|---|---|---|
| Gemma 4 26B4B | $0.03 | $0.20 | $0.40 | 50% |
| Qwen3.5 27B | $0.10 | $0.78 | $1.56 | 50% |
| Qwen3.5 122B MoE | $0.13 | $1.04 | $2.08 | 50% |
| MiniMax M2.5 239B | $0.06 | $0.50 | $1.00 | 50% |
- Génération d’images : $0.0015/image (50 % de moins que Together.ai)
- Reconnaissance vocale : $0.001/minute (50 % de moins que AssemblyAI)
- Frais de plateforme 0 %, les opérateurs conservent 100 % des revenus
Rentabilité pour les opérateurs
- Fournir un appareil Apple Silicon permet d’obtenir des revenus en USD
- Aucun coût supplémentaire en dehors de l’électricité, avec 100 % des revenus conservés
- Installation via CLI prise en charge, application de barre de menus macOS en cours de développement
-
Méthode d’installation
- Téléchargement du binaire provider via commande terminal et enregistrement comme service launchd
-
Aucune dépendance, mise à jour automatique, exécution en arrière-plan
- macOS 14 ou version ultérieure, Apple Silicon uniquement
-
Revenus estimés
- Possibilité d’estimer les revenus sur la base d’un fonctionnement de 18 heures par jour
- Les revenus réels varient selon la demande du réseau et la popularité des modèles
Recherche et catalogue de modèles
- Un article de recherche explique en détail l’architecture, le modèle de menace, l’analyse de sécurité et le modèle économique
- Il traite d’une architecture d’inférence privée fondée sur la vérification matérielle
- Lien de téléchargement du PDF
-
Modèles disponibles
- Gemma 4 26B : dernier modèle multimodal MoE de Google, 4B de paramètres actifs
- Qwen3.5 27B : modèle de raisonnement haute qualité (distillation de Claude Opus)
- Qwen3.5 122B MoE : 10B de paramètres actifs, qualité maximale par token
- MiniMax M2.5 239B : modèle de code SOTA, 100 tok/s sur Mac Studio
- Cohere Transcribe : conformer 2B, conversion voix-texte de tout premier niveau
Aucun commentaire pour le moment.