- Les grandes entreprises de l’IA basculent vers un modèle économique fondé sur les revenus publicitaires et développent des assistants IA centrés sur le matériel qui collectent toutes les informations visuelles et sonores autour de l’utilisateur
- Cette IA toujours active (always-on) est conçue pour reconnaître les conversations quotidiennes de l’utilisateur même sans mot d’activation vocal, accumuler du contexte sur le long terme et fournir une aide proactive
- Mais dans une structure où ces données sont envoyées vers les serveurs d’entreprises publicitaires, le risque peut surgir à tout moment si les politiques de protection de la vie privée changent
- À l’inverse, dans une architecture de local on-device inference (edge inference), les données ne quittent pas physiquement l’appareil, ce qui permet une garantie de sécurité au niveau de l’architecture, et non des politiques
- Comme l’IA la plus utile sera en même temps la technologie la plus intime, une transition vers une IA locale qui n’envoie pas les données à l’extérieur est indispensable
Une industrie des assistants IA devenue structurellement dépendante de la publicité
- OpenAI a introduit la publicité dans ChatGPT, présenté comme un changement structurel pour l’ensemble du secteur
- En 2025, OpenAI a acquis la startup hardware de Jony Ive, io, pour 6,5 milliards de dollars et développe un petit appareil IA sans écran
- Toutes les grandes entreprises d’assistants IA fonctionnent grâce aux revenus publicitaires et fabriquent du matériel qui observe en permanence l’environnement
- Lorsque ces deux éléments entrent en collision, seule la local on-device inference (local inference) est présentée comme une solution pour empêcher l’abus des données
Le caractère inévitable d’une IA toujours active
- Les assistants vocaux existants ne fonctionnaient qu’après un mot d’activation (wake word) comme « Hey Siri » ou « OK Google »
- Mais dans les conversations de la vie réelle, on n’a pas toujours le temps d’utiliser un mot d’activation, d’où le besoin d’une IA de compréhension contextuelle naturelle
- La prochaine génération d’assistants perçoit en continu l’environnement de l’utilisateur à l’aide de multiples capteurs, notamment audio, vision, détection de présence et wearables
- La vraie question n’est donc pas de savoir si une IA toujours active va apparaître, mais qui contrôle ces données
- Aujourd’hui, ce contrôle est entre les mains des entreprises publicitaires
Les politiques sont des promesses, l’architecture est une garantie
- Les entreprises mettent en avant le « chiffrement des données », l’« anonymisation » ou l’idée que cela serait « sans lien avec la publicité », mais dans une architecture de traitement cloud, une confiance totale est impossible
- L’utilisateur doit faire confiance aux politiques présentes et futures de l’entreprise, à ses employés internes, à ses fournisseurs externes, aux demandes des gouvernements et même à des partenaires publicitaires non divulgués
- OpenAI précise qu’il « ne vend pas les données aux annonceurs », mais il existe le précédent de Google, qui a utilisé Gmail pendant 13 ans pour le ciblage publicitaire
- Les politiques peuvent changer, l’architecture non
- Dans une architecture de traitement local, les données ne peuvent physiquement pas sortir
- Les appels API, la télémétrie distante et l’envoi de données d’usage anonymisées deviennent impossibles
- Bien plus sensibles que des e-mails, les flux audio et vidéo du domicile englobent l’ensemble de la vie privée d’une personne
- Comme le montrent les cas d’Amazon — suppression du traitement vocal local, projets de liaison avec la publicité, accès de Ring accordé aux forces de l’ordre —, les architectures centralisées révèlent leurs risques
La maturité des technologies d’edge inference
- Par le passé, on opposait souvent l’argument selon lequel « les modèles locaux manquent de performances », mais ce n’est plus le cas aujourd’hui
- La pipeline IA complète — reconnaissance vocale en temps réel, mémoire sémantique, raisonnement conversationnel, synthèse vocale — peut désormais fonctionner sur des appareils domestiques
- Sans bruit de ventilateur, avec un achat matériel unique et sans transmission externe des données
- Cela est rendu possible par les progrès de la compression des modèles, des moteurs d’inférence open source et de silicium plus efficace, avec une amélioration annuelle du rapport performance/consommation
- Dans des tests réalisés en conditions réelles à domicile, le problème n’est pas la taille du modèle ni son manque de performances, mais la difficulté de compréhension du contexte
- Il faut donc un modèle économique centré sur la vente de matériel et de logiciels,
- où le fabricant conçoit une structure dans laquelle l’accès aux données est physiquement impossible
Pourquoi l’IA locale est nécessaire, et conclusion
- L’IA la plus utile sera aussi la technologie qui traite les informations les plus privées
- La seule manière de la maintenir en sécurité est une conception structurelle qui empêche toute transmission des données vers l’extérieur
- Les politiques, les promesses ou les changements de paramètres ne suffisent pas à protéger les utilisateurs ; il faut un blocage au niveau de l’architecture
- Avec la formule « Choose local. Choose edge. », le texte appelle à construire une IA qui n’envoie pas les données à l’extérieur
1 commentaires
Réactions sur Hacker News
Le discours marketing semble assez absurde quand on voit que le produit mis en avant par cette entreprise est un appareil IA toujours allumé et toujours à l’écoute
Même si tout fonctionne uniquement sur du matériel local, il n’y a aucune raison que chaque instant de nos vies soit enregistré et analysé
Je me demande aussi si c’est acceptable que des conversations privées en famille ou des moments impliquant des mineurs soient conservés
Je m’inquiète aussi du consentement des invités, ainsi que de la capacité à préserver les garanties de confidentialité en cas de vol, de mandat judiciaire de l’État ou de fusion-acquisition
Si un tribunal l’ordonne, les données finiront forcément par être remises d’une manière ou d’une autre
Pour préserver une véritable confidentialité, il faut que l’information n’existe pas du tout
J’aimerais qu’on légifère dans le sens d’une protection comparable à celle des informations contenues dans le cerveau d’une personne, mais en réalité on va dans la direction inverse
Mais il est hors de question que des informations sortent sans mon autorisation, qu’elles puissent être extraites facilement physiquement, ou qu’on puisse y accéder en usurpant mon identité
Si ces conditions sont remplies, je pense que cela ne porterait pas non plus atteinte à la vie privée des autres
Il vise des personnes soucieuses de leur vie privée, alors que ce sont justement elles qui pointeront ce genre de problème en premier
Au final, les gens qui ne se préoccupent pas de la confidentialité utiliseront simplement quelque chose comme Google
Moi aussi j’avais envie de fabriquer un appareil IA strictement local, mais j’ai repoussé ça par flemme
Cela dit, je pense que ce genre d’appareil pourrait être suffisamment utile pour changer la vie de personnes neurodivergentes
Il semble plutôt s’agir d’un système qui traite en temps réel puis n’effectue que les actions utiles pour aider l’utilisateur à atteindre ses objectifs
Je suis d’accord sur le fait que les grandes entreprises de l’IA évoluent selon une logique centrée sur les revenus publicitaires
Une IA présente en permanence dans la maison peut difficilement éviter les problèmes de confidentialité
Comme dans The Entire History of You de Black Mirror ou The Truth of Fact, the Truth of Feeling de Ted Chiang, on a l’impression que même les espaces privés finiront remplis de surveillance
Dans cette trajectoire, ceux qui refusent la technologie risquent d’être de plus en plus rejetés vers les marges de la société
Je ne suis pas d’accord avec l’idée que « l’avenir toujours allumé est inévitable »
Il suffit d’utiliser de l’open source, de payer pour des services qui n’exploitent pas les données, et de soutenir des startups éthiques
Je pense qu’il faut un Mobile Linux pour remplacer Android
Le contrôle total des appareils et des logiciels doit appartenir aux individus, pas aux entreprises
Il ne faut pas se laisser piéger par le confort des services gratuits : il faut voter avec son argent
Les gens finissent donc par choisir le statu quo
Le terme « conscience du contexte » n’est au fond qu’un autre mot pour surveillance
Les gens finiront par trouver normal d’avoir un petit Big Brother dans leur poche
Mais la plupart des gens se contentent de se résigner et se satisfont de petites solutions individuelles
J’ai moi-même participé à des travaux sur la législation en matière de vie privée, mais rien ne s’est passé à cause de l’indifférence générale
Même sans automatisation par LLM, la surveillance est déjà une réalité
Même si cela fonctionne en local, un assistant toujours à l’écoute reste une atteinte à la vie privée
Des amis de passage trouveraient probablement désagréable de savoir que leurs conversations pourraient être enregistrées
Sans speaker diarization (séparation des locuteurs) parfaite, on ne pourra jamais être serein avec ce type de système
Tous les membres de la famille partagent le même pool de mémoire, ce qui reste un problème de confidentialité non résolu
À l’avenir, ils comptent essayer un marquage mémoire individuel via des modèles STT basés sur l’identification du locuteur
Le produit est censé sortir à la fin de l’année, mais il n’y a même pas de photo de l’objet réel
Le design du site web semble aussi bâclé, et l’entreprise donne l’impression de manquer de moyens
Au final, je crains que ce type d’appareil ne soit détourné par des hackers comme une machine de propagande anti-vie-privée
Ils ont publié de vraies photos dans leur billet sur le prototypage
Plus que l’insertion explicite de publicité, le plus dangereux, c’est le biais implicite de recommandation à l’intérieur du modèle
En posant la même question à ChatGPT, Claude et Perplexity, le taux de recoupement des 5 premières recommandations n’est que d’environ 40 %
Il n’y a presque aucune corrélation non plus avec le classement des résultats Google
Au final, les produits qui nous sont recommandés dépendent des décisions internes opaques du modèle
Je ne comprends pas l’attrait pour les assistants IA toujours allumés
Au-delà de la vie privée, j’ai l’impression que ce type d’appareil affaiblirait ma capacité à garder la main sur ma propre vie
Un assistant à la demande qui ne s’active qu’en cas de besoin me semblerait utile, mais une automatisation excessive peut au contraire atrophier la pensée humaine
Cela pourrait devenir une mer de drones de surveillance emballés comme des « amis IA »
Au lieu d’avancer ensemble, chacun court dans sa roue pour s’emparer de son propre morceau de fromage
Le scénario satirique d’interaction IA où l’on demande s’il y a des œufs et où le voisin apparaît avec des œufs est intéressant
La scène où une IA entraînée sur des données conversationnelles finit progressivement par compléter les phrases des humains, puis bascule finalement dans un mode narration silencieuse, est marquante
C’est dommage que l’article ne mentionne pas Anthropic
L’entreprise construit actuellement les meilleurs agents orientés programmation, et c’était le cœur de l’assistant OpenClaw
Un smart speaker toujours à l’écoute présente un risque pour la vie privée bien plus élevé qu’un OpenClaw utilisé de manière intentionnelle