- Utilise les modèles Gemma 4 de Google entièrement sur l’appareil via WebGPU, pour s’en servir comme assistant IA personnel résidant dans le navigateur
- Aucune clé API, aucun cloud, aucun transfert de données externe : toute l’inférence est traitée en local et les données ne quittent pas l’appareil
- Prend en charge des comportements de type agent : lecture de la page visitée, clic sur des boutons, saisie dans des formulaires, exécution de JavaScript et questions-réponses sur le site
- Choix entre deux modèles, Gemma 4 E2B (~500MB) et E4B (~1.5GB), mis en cache après la première exécution pour réutilisation
- Prend en charge la quantification q4f16 et un contexte de 128K (
onnx-community/gemma-4-E2B-it-ONNX, onnx-community/gemma-4-E4B-it-ONNX)
- Fournit 6 outils intégrés
read_page_content : lecture du texte/HTML de la page ou selon un sélecteur CSS
take_screenshot : capture de la page visible en PNG
click_element / type_text / scroll_page : manipulation du DOM basée sur des sélecteurs CSS
run_javascript : exécution de JS avec accès complet au DOM dans le contexte de la page
- Architecture en 3 couches : Offscreen Document + Service Worker + Content Script
- L’offscreen document héberge le modèle avec
@huggingface/transformers + WebGPU et exécute la boucle d’agent
- Le service worker gère le routage des messages ainsi que les captures d’écran et l’exécution JS
- Le content script injecte l’icône gem et une surcouche de chat en shadow DOM
- Les paramètres permettent la commutation de modèle, le toggle Thinking, la limite supérieure de la boucle d’appel d’outils, la réinitialisation de l’historique des conversations et la désactivation par site
- Le répertoire
agent/ est sans dépendances et peut être isolé en bibliothèque indépendante sur la base des interfaces ModelBackend et ToolExecutor
- Nécessite Chrome avec prise en charge de WebGPU / licence Apache-2.0 / implémentation basée sur TypeScript
Aucun commentaire pour le moment.