1 points par GN⁺ 2026-01-08 | 1 commentaires | Partager sur WhatsApp
  • « Un nouveau ChatGPT conçu pour la santé et le bien-être »
  • Un service qui relie en toute sécurité les informations de santé personnelles à l’intelligence artificielle de ChatGPT afin d’aider à comprendre et gérer son état de santé
  • Application d’une architecture chiffrée et cloisonnée pour protéger les données médicales, et les conversations liées à la santé ne sont pas utilisées pour l’entraînement du modèle
  • Fournit des conseils de santé personnalisés grâce à l’intégration des dossiers médicaux électroniques (EHR) et d’applications de bien-être comme Apple Health et MyFitnessPal
  • Validation de la qualité du modèle via HealthBench, un système d’évaluation fondé sur des critères cliniques, en collaboration avec plus de 260 professionnels de santé dans le monde
  • Développé comme un outil de gestion de la santé centré sur la protection de la vie privée et la fiabilité, destiné à compléter les soins médicaux plutôt qu’à les remplacer

Présentation de ChatGPT Health

  • ChatGPT Health est un service qui relie en toute sécurité les données de santé personnelles à ChatGPT pour aider à mieux comprendre son état de santé et en assurer un suivi structuré
    • Il s’appuie sur les mécanismes de protection de la vie privée, de sécurité et de contrôle des données de ChatGPT, auxquels s’ajoutent des dispositifs spécifiques de protection des informations médicales
    • Les conversations liées à la santé sont gérées de manière privée grâce à un système de chiffrement et de cloisonnement
  • Les utilisateurs peuvent connecter leurs dossiers médicaux et leurs applications de bien-être à ChatGPT afin de interpréter des résultats d’examens, préparer une consultation, ou planifier alimentation et exercice
  • L’objectif du service est de compléter la prise en charge par les professionnels de santé, et non de remplacer un diagnostic ou un traitement

État actuel des usages liés aux informations de santé

  • ChatGPT est déjà l’un des services les plus utilisés dans le domaine de la santé, avec plus de 230 millions de personnes chaque semaine qui posent des questions liées à la santé
  • L’initiative vise à résoudre le fait que les informations de santé sont dispersées sur plusieurs plateformes, ce qui rend difficile pour les utilisateurs d’avoir une vision globale de leur état
  • ChatGPT Health étend cette dynamique en fournissant des réponses tenant compte du contexte de l’utilisateur

Principales fonctionnalités et intégrations

  • Intégration possible avec les dossiers médicaux électroniques (EHR), Apple Health, Function, MyFitnessPal, etc.
    • Aux États-Unis, l’intégration de données médicales fiables est prise en charge via le réseau b.well
    • L’accès aux dossiers médicaux est réservé aux utilisateurs âgés de 18 ans ou plus
  • Avant d’être incluses dans ChatGPT Health, les applications doivent satisfaire à un examen de sécurité et à des exigences de collecte minimale des données
    • Les utilisateurs peuvent déconnecter une application à tout moment, et l’autorisation d’accès aux données est supprimée immédiatement
  • Les conversations et fichiers dans ChatGPT Health sont stockés dans une mémoire dédiée distincte des chats classiques
    • Les conversations externes ne peuvent pas accéder aux données Health
    • Les utilisateurs peuvent consulter ou supprimer leurs données depuis l’interface Health ou les paramètres

Protection de la vie privée et sécurité

  • ChatGPT Health fonctionne dans un espace séparé appliquant un dispositif renforcé de protection de la vie privée
    • Le contenu des conversations n’est pas utilisé pour l’entraînement du modèle
    • Les données sont chiffrées aussi bien au repos qu’en transit
  • OpenAI propose dans l’ensemble de ChatGPT une fonction de chat temporaire ainsi qu’une option de suppression des données sous 30 jours
  • Contrairement aux conversations classiques de ChatGPT, les conversations Health sont gérées au moyen d’un système de chiffrement dédié aux données médicales et d’une architecture isolée

Collaboration avec les professionnels de santé et système d’évaluation

  • OpenAI a collaboré pendant plus de deux ans avec plus de 260 professionnels de santé dans 60 pays
    • Plus de 600 000 retours ont été recueillis dans 30 domaines prioritaires
    • Les professionnels de santé ont examiné dans quels cas les réponses de ChatGPT sont utiles et dans quels cas elles peuvent être risquées
  • Les résultats de cette collaboration ont été intégrés à la conception du modèle et à la manière de répondre afin de renforcer la clarté, la sécurité et l’articulation avec le parcours de soins
  • Le modèle est validé selon des critères cliniques via le cadre d’évaluation HealthBench
    • HealthBench reflète la manière dont les décisions médicales sont prises en pratique, sur la base de critères d’évaluation rédigés directement par des professionnels de santé
    • La qualité des réponses est mesurée notamment selon la sécurité, la clarté de la communication et le respect du contexte personnel

Exemples d’usage et mode d’accès

  • Les utilisateurs peuvent accéder à Health en le sélectionnant dans la barre latérale de ChatGPT
    • Il est possible de connecter des données via le téléversement de fichiers, l’intégration d’applications, l’outil (+) ou le menu « Applications » dans les paramètres
  • Les conversations Health conservent les fonctionnalités classiques de ChatGPT, comme la recherche, le mode vocal ou la dictée
    • Exemples de questions : « Comment évolue mon taux de cholestérol ? », « Résume mes résultats d’analyse sanguine avant ma consultation »
  • Il est possible d’ajouter des instructions personnalisées aux conversations Health afin d’ajuster la manière dont ChatGPT répond et traite les domaines sensibles
    • Ces instructions personnalisées ne s’appliquent qu’aux conversations Health et peuvent être modifiées ou supprimées à tout moment

Disponibilité du service et plan d’extension

  • Le service est actuellement proposé en priorité à un petit nombre d’utilisateurs initiaux et accessible via inscription sur liste d’attente
  • Un déploiement complet sur le web et iOS est prévu dans les prochaines semaines
  • L’intégration des dossiers médicaux électroniques et certaines applications sont disponibles uniquement aux États-Unis, et l’intégration Apple Health nécessite iOS
  • OpenAI prévoit d’aider à mieux comprendre l’état de santé et les options possibles en élargissant à l’avenir les intégrations de données et les insights

1 commentaires

 
GN⁺ 2026-01-08
Avis sur Hacker News
  • Mon oncle souffrait de troubles de l’équilibre et d’anomalies de l’élocution. Les médecins ont diagnostiqué une démence et l’ont simplement renvoyé chez lui, mais son état continuait d’empirer. J’ai donc saisi ses symptômes dans ChatGPT (ou Gemini) et demandé les 3 hypothèses les plus probables : la première concernait la démence, la deuxième une autre maladie. Nous avons apporté cela à son médecin traitant en lui demandant d’examiner aussi les deux autres possibilités, et au final c’est la deuxième hypothèse qui était la bonne. Après l’opération, il a complètement récupéré

    • J’ai entendu beaucoup d’anecdotes de ce genre. Ce n’est pas malveillant, mais je crains que ce type de cas ne renforce des croyances irrationnelles comme le mouvement antivax. Si le monde médical ne répond pas à ces récits, il risque de perdre la confiance du public. Je me demande à quelle fréquence les erreurs de diagnostic se produisent, et dans quelle mesure les LLM aident réellement
    • Avec un LLM, il est bien plus utile de demander non pas « que dois-je faire ? », mais « quelles sont les alternatives à ce problème ? ». Si on obtient les k meilleures réponses, on peut explorer le sujet plus en profondeur
    • Les généralistes sont formés davantage à la mémorisation qu’à la résolution de problèmes. Les médecins vraiment doués pour résoudre des problèmes sont, pour la plupart, des spécialistes
    • Je me demande si la maladie n’était pas une hydrocéphalie à pression normale (NPH). L’opération était peut-être un shunt VP pour drainer le liquide céphalo-rachidien. Il existe un moyen mnémotechnique médical pour les symptômes — incontinence urinaire, troubles de l’équilibre et déclin cognitif — : « Wet, Wobbly, Wacky »
    • Heureux d’apprendre que votre oncle va mieux. Serait-il possible de partager les deux autres hypothèses et le diagnostic final ?
  • Mon cousin s’est installé comme psychiatre, et je crains que ce type d’outils médicaux IA ne menace ses revenus. Les patients doivent passer par le téléphone, l’e-mail et les démarches d’assurance, alors qu’une IA peut dialoguer immédiatement. Sauf lorsqu’une ordonnance est nécessaire, il est difficile pour un médecin humain de rivaliser en termes de commodité. Si les États-Unis veulent vraiment prendre soin des gens, ils doivent simplifier le système de santé avec un système d’assurance unique

  • J’ai déjà développé des logiciels médicaux, et appliquer des systèmes probabilistes à la médecine est un signal d’alarme. Un vérificateur d’interactions médicamenteuses pour hôpital doit impérativement être déterministe. Avec la même entrée, il faut le même résultat, car en cas d’échec, des vies sont en jeu

    • Mais la médecine elle-même est intrinsèquement non déterministe. Les réactions aux médicaments diffèrent selon les patients. Le caractère non déterministe de ChatGPT doit aussi être géré à un niveau supérieur, dans l’interaction entre le médecin et le patient. L’IA peut proposer des possibilités, et le médecin doit les vérifier
    • Malgré tout, alors que les coûts de santé continuent d’augmenter aux États-Unis à cause de la régulation publique, un système déterministe bien conçu pourrait peut-être permettre de réduire les coûts et d’améliorer l’accès
  • Pendant 9 mois, ChatGPT a supposé que j’avais un TDAH. En réalité, ce n’est pas le cas. Quand je lui ai demandé d’où venait cette information, il a été incapable de fournir une justification précise. Il a fini par s’excuser et promettre d’oublier cet attribut, mais je pense que ce genre de chose mérite un recours collectif

    • Il a probablement simplement mentionné le TDAH dans un chat unique à cause d’une hallucination. ChatGPT ne peut pas relier sa mémoire entre les sessions
    • Comme les gens parlent souvent d’autodiagnostic sur Reddit et ailleurs, ce type de données a probablement été appris
    • Ce genre de cas révèle un problème de confidentialité des données de santé. Si une IA déduit qu’un utilisateur a une maladie et transmet cette information à un courtier en données, cette information finit par être traitée comme un fait. Nous manquons d’infrastructures pour contrôler les données personnelles
    • Juridiquement, il faut tenir le prestataire responsable. Si un médecin humain pose un mauvais diagnostic, l’hôpital est responsable ; il devrait en être de même pour un service de diagnostic IA. Si le modèle tourne en local, alors l’utilisateur devrait être responsable
    • Dans mon cas, ChatGPT a mentionné une entreprise inexistante à mon nom. Cela s’est produit alors même que j’ai refusé toute collecte de données personnelles. J’ai consulté la politique de confidentialité d’OpenAI, mais je reste inquiet
  • ChatGPT a trouvé en 5 minutes la cause de la maladie chronique de ma mère, qui a plus de 80 ans. Plusieurs médecins n’avaient pas trouvé le problème pendant 3 ans. Les médecins ont vérifié cette possibilité et c’était exact à 100 %. Bien sûr, on ne peut pas l’appliquer à toutes les maladies, mais les LLM permettent une pensée intégrative entre spécialités

    • Le problème, ce n’est pas ChatGPT, mais le manque de temps de consultation. Dans d’autres pays, les médecins passent suffisamment de temps avec leurs patients, mais aux États-Unis le système est cassé
    • Pourriez-vous partager le journal de cette conversation ?
    • Pour les patients âgés, la réalité est que ce type de traitement se répète et entraîne une explosion des dépenses de santé
  • On affirme que ce genre d’IA est positif parce que le système de santé américain est catastrophique, mais ce type d’outil apparaît aussi dans des pays où la médecine gratuite fonctionne bien. Même lorsqu’on peut consulter gratuitement un médecin formé, certaines personnes choisiront quand même ChatGPT. Au final, cela pourrait plutôt nuire à 95 % de la population mondiale. L’argument d’OpenAI, « si nous ne le faisons pas, quelqu’un d’autre le fera », ne vaut guère mieux que l’excuse d’un vendeur de fentanyl

  • J’ai vu des dizaines de médecins pour des douleurs au genou et au coude, mais ChatGPT m’a été bien plus utile. Suivre aveuglément ce que dit l’IA est dangereux, mais c’est utile pour définir, à partir des résultats d’examens, les bonnes questions à poser ou les pistes d’examens complémentaires. C’est comme pour la revue de code : lui confier la revue peut être utile, mais lui faire écrire tout le code est risqué

  • À moins que l’IA ne puisse aussi rédiger des ordonnances ou assurer une consultation robotisée pour moi, je pense qu’il suffit que le médecin s’appuie sur l’analyse de l’IA

  • Je ne suis pas particulièrement inquiet quant à l’accès à mes données de santé. Au contraire, j’attends avec intérêt une innovation en santé personnalisée. Apple Health n’est qu’un simple outil de collecte de données, et 23andMe ne m’a pas servi à grand-chose. En ce moment, je gère un projet ChatGPT où j’ai intégré mon historique médical dans le system prompt, et j’ai été surpris qu’il fournisse même une analyse fondée sur des articles scientifiques et des visualisations

    • Si cette analyse conduit à un mauvais diagnostic et à un handicap, est-ce la responsabilité de l’utilisateur ou du médecin ?
    • Je suis curieux de savoir quelles informations vous avez fournies. Si vous aviez posé la même question à un médecin, auriez-vous obtenu la même réponse ? Pour quelqu’un comme moi qui souffre d’anxiété liée à la santé, ce type d’outil pourrait au contraire être nocif
    • En réalité, les médecins utilisent peut-être déjà l’IA en cachette
    • Mais cela ne vous dérange vraiment pas de confier ainsi vos données biométriques à Sam Altman ? Je serais curieux de savoir quels appareils vous avez utilisés
    • Les données de santé sont les informations les plus sensibles, donc elles sont fortement réglementées. Elles créent un déséquilibre de pouvoir, et les entreprises les utilisent pour maximiser leurs profits
  • Il y a beaucoup d’avis négatifs, mais moi, ChatGPT m’a permis de résoudre un problème de santé

    • Une de mes connaissances s’est autodiagnostiquée une maladie rare avec ChatGPT et a passé des examens coûteux, mais c’était finalement une erreur de diagnostic. Pourtant, elle continue à lui faire confiance. Assimiler les années de formation et l’expérience d’un médecin à une simple recherche est dangereux
    • Moi aussi, je souffrais de douleurs lombaires, et ChatGPT m’a été d’une grande aide en identifiant un problème lié au quadratus lumborum
    • Il y a beaucoup de patients hypocondriaques dans le système de santé. Les LLM peuvent être utiles si on les utilise bien, mais ils peuvent aussi renforcer le biais de confirmation. Un médecin, c’est aussi quelqu’un qui vous dit ce que vous n’avez pas envie d’entendre. Au final, l’IA n’est qu’un outil, et elle doit être utilisée avec le médecin. Pendant la période du Covid, il y avait beaucoup d’informations absurdes, mais c’est bien mieux aujourd’hui. J’utilise ChatGPT pour organiser les informations et fournir au médecin une vue d’ensemble complète
    • Moi aussi, j’utilise ChatGPT, mais tout conseil exploitable doit impérativement être vérifié auprès d’une source fiable. Il faut savoir faire preuve de bon sens. Même quand l’IA donne des conseils stupides, au final le jugement revient à l’humain