Avec ChatGPT Health, OpenAI franchit une nouvelle étape dans l’extension de son assistant conversationnel. Présenté début janvier, ce nouvel espace dédié à la santé et au bien-être ne se limite pas à fournir des réponses contextualisées à des questions médicales générales. Il permet, de manière optionnelle, de connecter et d’exploiter des données personnelles sensibles : dossiers médicaux, résultats d’analyses, documents cliniques, mais aussi données issues d’applications et d’objets de suivi de santé.
ChatGPT devient une interface d’agrégation et de raisonnement sur des données de santé, c’est-à-dire l’une des catégories d’informations les plus critiques sur les plans juridique, éthique et cyber.
Un usage déjà massif, désormais formalisé
OpenAI ne part pas de zéro. Selon l’éditeur, plus de 230 millions de personnes utilisent chaque semaine ChatGPT pour des questions liées à la santé ou au bien-être, avant même l’existence de ChatGPT Health. L’entreprise reconnaît ainsi un usage installé, parfois informel, qu’elle cherche désormais à canaliser dans un cadre dédié, présenté comme plus sûr et plus contrôlé.
La promesse affichée est claire : ChatGPT Health n’a pas vocation à poser des diagnostics ni à se substituer à un professionnel de santé. L’outil se positionne comme un assistant de compréhension, capable d’aider à interpréter des résultats, à préparer une consultation ou à mieux appréhender un parcours de soins. Une ligne de prudence que l’éditeur répète à plusieurs reprises dans sa documentation officielle.
Un espace “santé” techniquement isolé
Conscient de la sensibilité du sujet, OpenAI insiste sur l’architecture retenue. ChatGPT Health repose sur un environnement distinct au sein de la plateforme. Les conversations, fichiers, connexions à des applications tierces et éléments de “mémoire” liés à la santé sont séparés du reste des usages de ChatGPT.
Autre point mis en avant : les contenus de ChatGPT Health — discussions, documents importés, données connectées et mémoires associées — ne sont pas utilisés pour entraîner les modèles d’IA. OpenAI affirme vouloir rompre avec l’ambiguïté qui entoure parfois l’usage des données dans les services d’IA générative, en particulier lorsqu’il s’agit d’informations médicales.
Sur le plan de la sécurité, l’éditeur évoque des mécanismes de chiffrement et des couches de protection “spécifiquement conçues” pour cet espace santé. Peu de détails techniques sont rendus publics à ce stade, mais le discours marque une volonté de compartimentation forte, comparable à une logique de cloisonnement par “tenant”.
La donnée connectée, angle mort de la gouvernance
Un point, plus discret dans la communication officielle, mérite toutefois l’attention. Supprimer une conversation ChatGPT Health ne supprime pas automatiquement les données issues des applications ou sources connectées. Ces connexions doivent être gérées séparément par l’utilisateur.
Ce détail est loin d’être anodin. Il illustre un risque bien connu en cybersécurité : la confusion entre l’interface visible (le chat) et la réalité des flux de données en arrière-plan.
Un lancement hors Europe qui n’a rien d’anodin
ChatGPT Health est lancé de manière progressive, mais exclut pour l’instant l’Union européenne, le Royaume-Uni et la Suisse. Ce choix s’explique difficilement par de simples considérations techniques.
En Europe, la donnée de santé est encadrée par un empilement réglementaire exigeant. Le RGPD classe ces informations parmi les “catégories particulières de données”, dont le traitement est en principe interdit sauf exceptions strictement encadrées. À cela s’ajoutent désormais le règlement sur l’intelligence artificielle (AI Act), avec ses obligations spécifiques pour les systèmes à risque, et le règlement sur l’Espace européen des données de santé (EHDS), entré en vigueur en 2025, qui redéfinit les conditions de circulation et de réutilisation des données médicales.
Dans ce contexte, le lancement d’un service d’IA conversationnelle capable d’agréger et d’interpréter des données de santé personnelles pose des questions de conformité structurelles, bien au-delà d’une simple adaptation juridique.
La question de la confiance, plus que celle de l’innovation
Plusieurs organisations spécialisées dans la protection de la vie privée rappellent que la donnée de santé ne tolère ni approximation ni flou contractuel. Aux États-Unis notamment, des experts soulignent que l’usage de services non directement couverts par certains cadres sectoriels peut entraîner un changement de régime de protection, sans que l’utilisateur en mesure pleinement les conséquences. Autrement dit, la question n’est pas seulement de savoir si l’IA “se trompe”, mais où vont les données, comment elles sont stockées, et sous quel cadre juridique elles continuent d’exister.
Au même moment, Claude for Healthcare fait son apparition. Là où OpenAI structure un usage personnel et conversationnel de la donnée de santé, Anthropic semble viser une intégration plus directe de l’IA dans les chaînes de valeur et les systèmes de santé existants, avec des exigences accrues en matière de conformité et de normalisation — une évolution qui, dans les deux cas, soulève néanmoins des questions structurantes de gouvernance et de sécurité des données.








