- De plus en plus de jeunes femmes font davantage confiance à un diagnostic fourni par l’IA qu’à une consultation médicale.
- Derrière ces décisions, le coût des soins pèse lourd.
- Pourtant, les études montrent que l’IA a des performances limitées en matière de diagnostic.
Elles s’en remettent à des chatbots pour interpréter un mal de tête ou une douleur abdominale. Une nouvelle enquête, menée par la marque de bien-être intime INTIMINA auprès de 3.000 femmes en Europe, révèle que 36 % des 20-29 ans déclarent faire davantage confiance à un diagnostic fourni par une intelligence artificielle (IA) qu’à une consultation en personne. Un chiffre qui interroge, alors même que des études scientifiques sur le sujet appellent à la prudence.
L’IA, nouveau réflexe santé des jeunes
Pour de nombreuses jeunes femmes, l’IA est devenue un filtre avant la consultation, rapporte le site Parents, qui relaye l'enquête. Ainsi, 34 % des 20-29 ans l’utilisent pour évaluer la gravité de leurs symptômes, soit presque deux fois plus que les plus de 40 ans. Plus inquiétant, 40 % se disent prêtes à transmettre des données très sensibles, comme des photos de symptômes ou leur historique sexuel, pour obtenir une réponse gratuite. Derrière ces décisions, le coût des soins pèse lourd : la moitié des femmes interrogées ont déjà évité un rendez-vous médical pour des raisons financières, et 40 % attendent que les symptômes s’aggravent avant de se procurer un traitement. Ce qui n’est pas sans conséquence : parmi celles qui s’auto-diagnostiquent, 13 % constatent ensuite un problème plus difficile à traiter et 9 % des symptômes plus fréquents.
Chaque jour, 40 millions d’utilisateurs réguliers de l’IA conversationnelle ChatGPT l’interrogent sur des questions de santé, affirmait son développeur OpenAI en janvier. Pourtant, les capacités réelles de ces outils restent discutées. Une récente étude britannique menée par l’Université d’Oxford a évalué près de 1.300 participants confrontés à dix scénarios médicaux courants (maux de tête après une soirée arrosée, épuisement chez une jeune maman...). Résultat : les utilisateurs de chatbots n’ont identifié correctement leur problème qu’environ une fois sur trois, et seuls 45 % ont choisi la bonne conduite à tenir, des scores comparables à un simple moteur de recherche. "Malgré tout l’engouement, l’IA n’est tout simplement pas prête à assumer le rôle du médecin", affirme Rebecca Payne, coautrice de l’étude, dans un communiqué. Elle prévient : "Les patients doivent savoir qu’interroger un grand modèle de langage sur leurs symptômes peut être dangereux".
"Traduire le jargon médical en langage courant"
L’IA peut toutefois avoir une utilité en matière de santé. Dans un récent billet paru dans Pourquoi Docteur, le Dr Jean-François Lemoine expliquait qu’elle peut aider à "traduire le jargon médical en langage courant" et à préparer une consultation. Mais l’outil doit être utilisé "avec discernement". Le risque majeur reste celui de la "fausse assurance". "Or, en médecine, une information vraie en général peut être fausse pour vous", rappelle-t-il. Conclusion : ces technologies peuvent informer, mais "aucune IA ne doit être utilisée pour décider seule s’il faut consulter ou non".


