4 points par GN⁺ 2026-02-23 | 1 commentaires | Partager sur WhatsApp
  • Les grandes entreprises de l’IA basculent vers un modèle économique fondé sur les revenus publicitaires et développent des assistants IA centrés sur le matériel qui collectent toutes les informations visuelles et sonores autour de l’utilisateur
  • Cette IA toujours active (always-on) est conçue pour reconnaître les conversations quotidiennes de l’utilisateur même sans mot d’activation vocal, accumuler du contexte sur le long terme et fournir une aide proactive
  • Mais dans une structure où ces données sont envoyées vers les serveurs d’entreprises publicitaires, le risque peut surgir à tout moment si les politiques de protection de la vie privée changent
  • À l’inverse, dans une architecture de local on-device inference (edge inference), les données ne quittent pas physiquement l’appareil, ce qui permet une garantie de sécurité au niveau de l’architecture, et non des politiques
  • Comme l’IA la plus utile sera en même temps la technologie la plus intime, une transition vers une IA locale qui n’envoie pas les données à l’extérieur est indispensable

Une industrie des assistants IA devenue structurellement dépendante de la publicité

  • OpenAI a introduit la publicité dans ChatGPT, présenté comme un changement structurel pour l’ensemble du secteur
    • En 2025, OpenAI a acquis la startup hardware de Jony Ive, io, pour 6,5 milliards de dollars et développe un petit appareil IA sans écran
  • Toutes les grandes entreprises d’assistants IA fonctionnent grâce aux revenus publicitaires et fabriquent du matériel qui observe en permanence l’environnement
  • Lorsque ces deux éléments entrent en collision, seule la local on-device inference (local inference) est présentée comme une solution pour empêcher l’abus des données

Le caractère inévitable d’une IA toujours active

  • Les assistants vocaux existants ne fonctionnaient qu’après un mot d’activation (wake word) comme « Hey Siri » ou « OK Google »
  • Mais dans les conversations de la vie réelle, on n’a pas toujours le temps d’utiliser un mot d’activation, d’où le besoin d’une IA de compréhension contextuelle naturelle
  • La prochaine génération d’assistants perçoit en continu l’environnement de l’utilisateur à l’aide de multiples capteurs, notamment audio, vision, détection de présence et wearables
  • La vraie question n’est donc pas de savoir si une IA toujours active va apparaître, mais qui contrôle ces données
  • Aujourd’hui, ce contrôle est entre les mains des entreprises publicitaires

Les politiques sont des promesses, l’architecture est une garantie

  • Les entreprises mettent en avant le « chiffrement des données », l’« anonymisation » ou l’idée que cela serait « sans lien avec la publicité », mais dans une architecture de traitement cloud, une confiance totale est impossible
    • L’utilisateur doit faire confiance aux politiques présentes et futures de l’entreprise, à ses employés internes, à ses fournisseurs externes, aux demandes des gouvernements et même à des partenaires publicitaires non divulgués
  • OpenAI précise qu’il « ne vend pas les données aux annonceurs », mais il existe le précédent de Google, qui a utilisé Gmail pendant 13 ans pour le ciblage publicitaire
  • Les politiques peuvent changer, l’architecture non
  • Dans une architecture de traitement local, les données ne peuvent physiquement pas sortir
    • Les appels API, la télémétrie distante et l’envoi de données d’usage anonymisées deviennent impossibles
  • Bien plus sensibles que des e-mails, les flux audio et vidéo du domicile englobent l’ensemble de la vie privée d’une personne
  • Comme le montrent les cas d’Amazon — suppression du traitement vocal local, projets de liaison avec la publicité, accès de Ring accordé aux forces de l’ordre —, les architectures centralisées révèlent leurs risques

La maturité des technologies d’edge inference

  • Par le passé, on opposait souvent l’argument selon lequel « les modèles locaux manquent de performances », mais ce n’est plus le cas aujourd’hui
  • La pipeline IA complète — reconnaissance vocale en temps réel, mémoire sémantique, raisonnement conversationnel, synthèse vocale — peut désormais fonctionner sur des appareils domestiques
    • Sans bruit de ventilateur, avec un achat matériel unique et sans transmission externe des données
  • Cela est rendu possible par les progrès de la compression des modèles, des moteurs d’inférence open source et de silicium plus efficace, avec une amélioration annuelle du rapport performance/consommation
  • Dans des tests réalisés en conditions réelles à domicile, le problème n’est pas la taille du modèle ni son manque de performances, mais la difficulté de compréhension du contexte
  • Il faut donc un modèle économique centré sur la vente de matériel et de logiciels,
    • où le fabricant conçoit une structure dans laquelle l’accès aux données est physiquement impossible

Pourquoi l’IA locale est nécessaire, et conclusion

  • L’IA la plus utile sera aussi la technologie qui traite les informations les plus privées
  • La seule manière de la maintenir en sécurité est une conception structurelle qui empêche toute transmission des données vers l’extérieur
  • Les politiques, les promesses ou les changements de paramètres ne suffisent pas à protéger les utilisateurs ; il faut un blocage au niveau de l’architecture
  • Avec la formule « Choose local. Choose edge. », le texte appelle à construire une IA qui n’envoie pas les données à l’extérieur

1 commentaires

 
GN⁺ 2026-02-23
Réactions sur Hacker News
  • Le discours marketing semble assez absurde quand on voit que le produit mis en avant par cette entreprise est un appareil IA toujours allumé et toujours à l’écoute
    Même si tout fonctionne uniquement sur du matériel local, il n’y a aucune raison que chaque instant de nos vies soit enregistré et analysé
    Je me demande aussi si c’est acceptable que des conversations privées en famille ou des moments impliquant des mineurs soient conservés
    Je m’inquiète aussi du consentement des invités, ainsi que de la capacité à préserver les garanties de confidentialité en cas de vol, de mandat judiciaire de l’État ou de fusion-acquisition

    • Le problème fondamental, juridiquement, c’est que tant que l’information existe, elle reste accessible
      Si un tribunal l’ordonne, les données finiront forcément par être remises d’une manière ou d’une autre
      Pour préserver une véritable confidentialité, il faut que l’information n’existe pas du tout
      J’aimerais qu’on légifère dans le sens d’une protection comparable à celle des informations contenues dans le cerveau d’une personne, mais en réalité on va dans la direction inverse
    • Je verrais ce type d’appareil d’un bon œil s’il pouvait fonctionner comme une aide-mémoire humaine
      Mais il est hors de question que des informations sortent sans mon autorisation, qu’elles puissent être extraites facilement physiquement, ou qu’on puisse y accéder en usurpant mon identité
      Si ces conditions sont remplies, je pense que cela ne porterait pas non plus atteinte à la vie privée des autres
    • Le marketing de ce produit paraît étrange
      Il vise des personnes soucieuses de leur vie privée, alors que ce sont justement elles qui pointeront ce genre de problème en premier
      Au final, les gens qui ne se préoccupent pas de la confidentialité utiliseront simplement quelque chose comme Google
    • En pratique, il est probable qu’un tel appareil n’enregistre pas toutes les conversations, mais qu’il traite l’audio via l’ASR (reconnaissance automatique de la parole) avant d’exécuter uniquement les commandes nécessaires
      Moi aussi j’avais envie de fabriquer un appareil IA strictement local, mais j’ai repoussé ça par flemme
      Cela dit, je pense que ce genre d’appareil pourrait être suffisamment utile pour changer la vie de personnes neurodivergentes
    • En réalité, rien dans la description du produit n’indique explicitement que les conversations sont stockées
      Il semble plutôt s’agir d’un système qui traite en temps réel puis n’effectue que les actions utiles pour aider l’utilisateur à atteindre ses objectifs
  • Je suis d’accord sur le fait que les grandes entreprises de l’IA évoluent selon une logique centrée sur les revenus publicitaires
    Une IA présente en permanence dans la maison peut difficilement éviter les problèmes de confidentialité
    Comme dans The Entire History of You de Black Mirror ou The Truth of Fact, the Truth of Feeling de Ted Chiang, on a l’impression que même les espaces privés finiront remplis de surveillance
    Dans cette trajectoire, ceux qui refusent la technologie risquent d’être de plus en plus rejetés vers les marges de la société

  • Je ne suis pas d’accord avec l’idée que « l’avenir toujours allumé est inévitable »
    Il suffit d’utiliser de l’open source, de payer pour des services qui n’exploitent pas les données, et de soutenir des startups éthiques
    Je pense qu’il faut un Mobile Linux pour remplacer Android
    Le contrôle total des appareils et des logiciels doit appartenir aux individus, pas aux entreprises
    Il ne faut pas se laisser piéger par le confort des services gratuits : il faut voter avec son argent

    • Même si un contrôle total est possible, comme sur un Android rooté, l’utilisateur moyen est gêné parce que des applications essentielles comme celles des banques ne fonctionnent plus
    • Le Linux mobile existe déjà, mais les appareils compatibles sont rares et les performances sont inférieures
      Les gens finissent donc par choisir le statu quo
  • Le terme « conscience du contexte » n’est au fond qu’un autre mot pour surveillance
    Les gens finiront par trouver normal d’avoir un petit Big Brother dans leur poche

    • En réalité, tout le monde parle déjà de surveillance
      Mais la plupart des gens se contentent de se résigner et se satisfont de petites solutions individuelles
      J’ai moi-même participé à des travaux sur la législation en matière de vie privée, mais rien ne s’est passé à cause de l’indifférence générale
    • Les sociétés de marketing ont déjà accès à d’immenses volumes de données utilisateur
      Même sans automatisation par LLM, la surveillance est déjà une réalité
  • Même si cela fonctionne en local, un assistant toujours à l’écoute reste une atteinte à la vie privée
    Des amis de passage trouveraient probablement désagréable de savoir que leurs conversations pourraient être enregistrées
    Sans speaker diarization (séparation des locuteurs) parfaite, on ne pourra jamais être serein avec ce type de système

    • D’après le blog technique de Juno Labs, ils expérimentent actuellement une architecture mémoire au niveau de la famille
      Tous les membres de la famille partagent le même pool de mémoire, ce qui reste un problème de confidentialité non résolu
      À l’avenir, ils comptent essayer un marquage mémoire individuel via des modèles STT basés sur l’identification du locuteur
    • Je me demande s’il ne serait pas possible de traiter les données sous une forme chiffrée et illisible pour les humains
  • Le produit est censé sortir à la fin de l’année, mais il n’y a même pas de photo de l’objet réel
    Le design du site web semble aussi bâclé, et l’entreprise donne l’impression de manquer de moyens
    Au final, je crains que ce type d’appareil ne soit détourné par des hackers comme une machine de propagande anti-vie-privée

    • Ils disent que la première version sera un prototype réalisé avec impression 3D et fabrication de PCB en petite série
      Ils ont publié de vraies photos dans leur billet sur le prototypage
    • S’ils finalisent le design et produisent hors de Chine, le premier lancement sera probablement retardé ou limité à une version alpha
    • Au final, ça risque de n’être que du vaporslop (un produit qui n’existe qu’en vapeur et en impression)
  • Plus que l’insertion explicite de publicité, le plus dangereux, c’est le biais implicite de recommandation à l’intérieur du modèle
    En posant la même question à ChatGPT, Claude et Perplexity, le taux de recoupement des 5 premières recommandations n’est que d’environ 40 %
    Il n’y a presque aucune corrélation non plus avec le classement des résultats Google
    Au final, les produits qui nous sont recommandés dépendent des décisions internes opaques du modèle

    • Certains réagissent en disant que « les recommandations diffèrent selon les LLM » revient finalement à dire que « les gens ont des opinions différentes »
  • Je ne comprends pas l’attrait pour les assistants IA toujours allumés
    Au-delà de la vie privée, j’ai l’impression que ce type d’appareil affaiblirait ma capacité à garder la main sur ma propre vie
    Un assistant à la demande qui ne s’active qu’en cas de besoin me semblerait utile, mais une automatisation excessive peut au contraire atrophier la pensée humaine

    • Quelqu’un plaisante en disant qu’au fond, les gens veulent une vie façon Downton Abbey sans domestiques humains
    • Comme dans WALL·E, l’être humain finit toujours par pencher du côté de la facilité
    • Certains estiment que la solitude des sociétés occidentales crée une demande émotionnelle pour ce type de produit
      Cela pourrait devenir une mer de drones de surveillance emballés comme des « amis IA »
    • L’IA est une technologie extraordinaire, mais on voit en ce moment beaucoup de logique du type mettre de l’IA partout comme solution en quête de problème
    • Au final, c’est la logique de la concurrence et de la possession qui renforce cette tendance
      Au lieu d’avancer ensemble, chacun court dans sa roue pour s’emparer de son propre morceau de fromage
  • Le scénario satirique d’interaction IA où l’on demande s’il y a des œufs et où le voisin apparaît avec des œufs est intéressant
    La scène où une IA entraînée sur des données conversationnelles finit progressivement par compléter les phrases des humains, puis bascule finalement dans un mode narration silencieuse, est marquante

    • Quelqu’un répond qu’il faudrait en faire une nouvelle
    • La blague continue avec « Apple a acheté ces données de micro-expressions pour 2 milliards de dollars »
    • L’expression « vodka périmée » donne aussi l’impression d’être un symbole de l’enshittification
  • C’est dommage que l’article ne mentionne pas Anthropic
    L’entreprise construit actuellement les meilleurs agents orientés programmation, et c’était le cœur de l’assistant OpenClaw

    • Mistral aussi, même si les résultats restent limités pour l’instant, développe activement des assistants IA
    • Nous nous sommes concentrés sur les assistants IA matériels
      Un smart speaker toujours à l’écoute présente un risque pour la vie privée bien plus élevé qu’un OpenClaw utilisé de manière intentionnelle