La recherche a révélé que près de la moitié des conseils médicaux fournis par l'IA présentent des problèmes, Grok étant le pire, OpenAI poursuivant toujours son expansion dans le domaine médical

robot
Création du résumé en cours

Selon une étude récemment publiée dans BMJ Open, environ 50 % des réponses de cinq grands chatbots IA en matière de santé présentent des problèmes, dont près de 20 % sont jugées « fortement problématiques ». Bloomberg souligne que cette recherche révèle des risques systémiques liés à l’application de l’IA en médecine, ce qui est particulièrement ironique alors qu’OpenAI et Anthropic étendent simultanément leur présence dans le domaine médical.
(Précédent contexte : Ne confiez pas votre dossier médical à un chatbot ? La mise en jeu de la vie privée sous l’ambition médicale de ChatGPT)
(Complément d’information : Une étude de l’Université de Californie sur le phénomène de « brouillard cérébral IA » : 14 % des salariés sont devenus fous à cause des agents et de l’automatisation, avec 40 % envisageant de démissionner)

Table des matières de cet article

Toggle

  • Grok affiche les pires performances, ChatGPT n’est pas en reste
  • Plus l’IA paraît sûre, plus le risque est élevé
  • OpenAI et Anthropic : la recherche freine, le commerce accélère
  • Faire confiance à l’IA, mais avec des conditions

Plus de 230 millions de personnes interrogent chaque semaine ChatGPT sur des questions de santé et de médecine, mais près de la moitié des réponses peuvent comporter des erreurs. Selon une étude publiée cette semaine dans la revue médicale BMJ Open, des chercheurs américains, canadiens et britanniques ont évalué systématiquement cinq plateformes : ChatGPT, Gemini, Meta AI, Grok et DeepSeek, en leur soumettant chacune 10 questions couvrant cinq catégories médicales.

Les résultats sont moins optimistes : environ 50 % des réponses sont considérées comme problématiques, dont près de 20 % comme « fortement problématiques ».

Grok affiche les pires performances, ChatGPT n’est pas en reste

Bloomberg rapporte que les performances varient considérablement selon les plateformes, mais aucune ne passe le test. En termes de taux de réponse aux questions, Grok arrive en tête avec 58 %, ce qui en fait la plateforme la moins performante ; ChatGPT suit de près avec un taux de 52 % ; Meta AI affiche 50 %.

Les chercheurs ont observé que, pour les questions fermées et celles relatives aux vaccins ou au cancer, les chatbots donnent des réponses relativement meilleures ; en revanche, leur performance chute nettement pour les questions ouvertes ou dans des domaines comme les cellules souches ou la nutrition. De plus, dans l’étude, seules deux refus de répondre ont été enregistrés, toutes provenant de Meta AI (ce qui, dans une certaine mesure, montre que le fait de savoir qu’on ne devrait pas répondre peut constituer un avantage rare).

Ce qui est encore plus inquiétant, c’est que ces IA donnent souvent des réponses pleines d’assurance, avec un ton affirmatif et sans réserve. Les chercheurs insistent particulièrement : aucun chatbot, dans aucune situation, ne peut fournir une liste complète et précise de références. Cela signifie que, même si l’IA semble « argumentée », les sources qu’elle cite sont souvent inaccessibles ou inexistantes.

Plus l’IA paraît sûre, plus le risque est élevé

Les chercheurs écrivent dans leur rapport que ces systèmes peuvent générer des « réponses qui semblent autoritaires, mais qui peuvent en réalité comporter des défauts », soulignant ainsi « des limitations majeures dans leur comportement lors de la communication en santé et médecine avec le public » et la « nécessité de réévaluer leur déploiement ».

Bloomberg cite également l’avertissement de l’équipe de recherche : en l’absence d’éducation publique et de mécanismes de régulation, le déploiement massif de chatbots représente le plus grand risque, en favorisant la propagation et la diffusion d’informations médicales erronées.

À titre de comparaison, une autre étude publiée dans JAMA indique que le taux d’échec de l’IA dans des cas de diagnostic préliminaire dépasse 80 %. L’Université d’Oxford a également lancé en février 2026 un avertissement, appelant à une prise de conscience des risques systémiques liés à l’utilisation de chatbots pour fournir des conseils médicaux.

OpenAI et Anthropic : la recherche freine, le commerce accélère

Le moment de publication de cette étude est particulièrement dramatique. Il y a seulement quelques mois, en janvier 2026, OpenAI a lancé en grande pompe ChatGPT Health, une fonctionnalité permettant aux utilisateurs de se connecter à des dossiers médicaux électroniques, des dispositifs portables et des applications de santé, tout en proposant une version professionnelle pour les médecins. OpenAI a annoncé que 40 millions de personnes consultaient chaque jour des informations de santé via ChatGPT.

Simultanément, Anthropic a également annoncé le lancement de Claude for Healthcare, certifié HIPAA, pour pénétrer officiellement le marché médical.

Ces plateformes, dépourvues de licences médicales ou de capacités de jugement clinique, s’étendent à une vitesse impressionnante dans le secteur de la santé. La tension entre ces résultats de recherche et cette expansion commerciale révèle un vide réglementaire : il n’existe actuellement aucune ligne de défense claire entre la promotion commerciale des outils IA en médecine et leur sécurité réelle.

Faire confiance à l’IA, mais avec des conditions

Ce n’est pas la première fois que les applications médicales de l’IA sont pointées du doigt, mais chaque étude rappelle la même chose : en essence, les chatbots sont des modèles linguistiques qui excellent à donner l’impression d’avoir « raison », plutôt que de garantir la précision. Le problème, c’est que lorsque des utilisateurs, souvent anxieux pour leur santé, sollicitent ces outils, le fait qu’ils paraissent « crédibles » peut déjà influencer leurs décisions.

Alors qu’OpenAI, Anthropic et d’autres poursuivent leur immersion dans le domaine médical, la vitesse de la régulation et de l’éducation du public ne suit manifestement pas le rythme de l’expansion technologique. Avant d’établir des barrières claires, cette étude peut nous rappeler que l’IA peut être une porte d’entrée vers des informations de santé, mais ne doit pas en être la fin.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler