HEALTHTECHIN THE LOOPMEDTECHTHE PROMPT

Avec ChatGPT Health, OpenAI revoit ses règles de traitement des données sensibles

📩 Pour nous contacter: redaction@fw.media

Avec le lancement de ChatGPT Health, OpenAI entend répondre à un usage déjà massif de son outil dans le champ de la santé. Chaque semaine, plus de 230 millions de personnes utilisent ChatGPT pour poser des questions liées à leur santé ou à leur bien-être, faisant de ce domaine l’un des principaux cas d’usage de l’IA conversationnelle.

Fidji Simo, Vice Présidente d’OpenAI, et CEO en charge du produit, partage un témoignage personnel à ce sujet: hospitalisée l’an dernier pour un calcul rénal compliqué d’une infection, elle explique avoir interrogé ChatGPT sur un antibiotique qui s’apprêtait à lui être administré. L’outil a alors signalé un risque de réactivation d’une infection grave antérieure, un élément qui n’était pas apparu immédiatement dans le dossier médical.

« L’interne en charge n’avait qu’environ cinq minutes par patient lors de ses tournées, et les dossiers médicaux ne sont pas organisés de manière à rendre ce type de risque évident », explique-t-elle.

Face à cet usage croissant, OpenAI a fait le choix de créer un espace santé strictement séparé du reste de ChatGPT. Les conversations, fichiers et applications connectées y sont stockés dans un environnement distinct, doté de mémoires dédiées et d’une isolation renforcée. Les échanges au sein de ChatGPT Health ne sont par conséquent pas utilisés pour entraîner les modèles fondamentaux.

OpenAI prend acte que la santé impose une rupture dans la manière dont une IA généraliste traite, stocke et valorise les données. L’entreprise a ainsi développé une architecture spécifique intégrant le chiffrement des données au repos et en transit, un chiffrement supplémentaire dédié aux informations de santé, des contrôles explicites de suppression, ainsi que la possibilité de déconnecter à tout moment les sources externes. Reste à savoir comment elle valorisera le service.

La décision de ne pas utiliser les données de ChatGPT Santé pour l’entraînement n’est pas anecdotique et ouvre un précédent pour d’autres domaines à haute sensibilité, notamment les domaines juridique, financier ou de ressources humaines, où la réutilisation des conversations pose des questions comparables en matière de responsabilité, de confidentialité et de confiance.

Jusqu’ici, la doctrine implicite des IA généralistes reposait sur une mutualisation maximale des usages afin d’améliorer en continu les performances des modèles. Ce renoncement partiel à l’optimisation suggère désormais l’émergence d’une IA à géométrie variable, capable d’adapter ses mécanismes internes à la criticité des domaines couverts.

Une dynamique qui pourrait rebattre les cartes face aux solutions d’intelligence artificielle spécialisées par verticale et qui pose en creux, une question stratégique : jusqu’où OpenAI acceptera de compartimenter ses usages, et quels domaines décidera-t-elle ou non d’adresser à l’avenir.

Suivez nous:
Bouton retour en haut de la page