Avec ses AI Overviews, Google ambitionne de transformer la recherche en ligne en fournissant des réponses instantanées générées par intelligence artificielle. Mais lorsque ces résumés touchent à la santé, le dispositif soulève de sérieuses inquiétudes. Plusieurs réponses médicales jugées trompeuses, voire dangereuses, ont récemment contraint le géant du web à intervenir en urgence.
Placés tout en haut des résultats de recherche, les AI Overviews compilent et reformulent des contenus issus de multiples sources. Le problème ? En matière de santé, le contexte est essentiel. Or, comme l’a révélé The Guardian, certaines réponses liées aux analyses sanguines du foie affichaient des « valeurs normales » sans tenir compte de facteurs clés comme l’âge, le sexe, l’origine ethnique ou la méthode de prélèvement.
Des spécialistes ont alerté sur le caractère « dangereux » et « alarmant » de ces informations : des patients atteints de pathologies hépatiques sérieuses pouvaient croire, à tort, que leurs résultats étaient rassurants, au risque de retarder ou d’abandonner un suivi médical pourtant crucial.
Face à la polémique, Google a supprimé plusieurs AI Overviews incriminés et reconnu publiquement le manque de contexte de certaines réponses. L’entreprise assure travailler à des améliorations globales et appliquer ses règles de modération lorsque nécessaire.
Cependant, ces résumés continuent parfois d’apparaître sous d’autres formulations de requêtes, laissant planer un doute sur la capacité réelle du système à éviter durablement les dérives, notamment dans le domaine médical.
La popularité de ces outils ne fait pourtant aucun doute. L’intérêt du public pour des réponses rapides sur la santé est immense, en particulier dans les zones où l’accès aux soins est limité. Lors du lancement de ChatGPT Health, OpenAI indiquait que plus de 230 millions d’utilisateurs hebdomadaires sollicitent déjà l’IA pour des questions liées au bien-être et à la santé.
À la différence des AI Overviews de Google, ChatGPT Health peut s’appuyer — avec l’accord de l’utilisateur — sur des données personnelles comme des dossiers médicaux ou des applications de suivi (Apple Santé, MyFitnessPal). Cette contextualisation améliore la pertinence des réponses, sans pour autant éliminer totalement les risques d’erreurs ou d’« hallucinations » propres aux modèles d’IA.
L’affaire des AI Overviews rappelle une réalité essentielle : l’intelligence artificielle ne peut pas remplacer l’expertise médicale humaine, surtout lorsqu’elle s’exprime sans contexte clinique précis. Google, comme les autres acteurs de l’IA, devra renforcer drastiquement ses garde-fous s’il veut éviter que ses outils d’assistance ne deviennent des vecteurs de désinformation sanitaire.
À mesure que l’IA s’impose dans nos usages quotidiens, la santé apparaît plus que jamais comme un domaine où la prudence, la transparence et l’humilité technologique sont indispensables.
Placés tout en haut des résultats de recherche, les AI Overviews compilent et reformulent des contenus issus de multiples sources. Le problème ? En matière de santé, le contexte est essentiel. Or, comme l’a révélé The Guardian, certaines réponses liées aux analyses sanguines du foie affichaient des « valeurs normales » sans tenir compte de facteurs clés comme l’âge, le sexe, l’origine ethnique ou la méthode de prélèvement.
Des spécialistes ont alerté sur le caractère « dangereux » et « alarmant » de ces informations : des patients atteints de pathologies hépatiques sérieuses pouvaient croire, à tort, que leurs résultats étaient rassurants, au risque de retarder ou d’abandonner un suivi médical pourtant crucial.
Face à la polémique, Google a supprimé plusieurs AI Overviews incriminés et reconnu publiquement le manque de contexte de certaines réponses. L’entreprise assure travailler à des améliorations globales et appliquer ses règles de modération lorsque nécessaire.
Cependant, ces résumés continuent parfois d’apparaître sous d’autres formulations de requêtes, laissant planer un doute sur la capacité réelle du système à éviter durablement les dérives, notamment dans le domaine médical.
La popularité de ces outils ne fait pourtant aucun doute. L’intérêt du public pour des réponses rapides sur la santé est immense, en particulier dans les zones où l’accès aux soins est limité. Lors du lancement de ChatGPT Health, OpenAI indiquait que plus de 230 millions d’utilisateurs hebdomadaires sollicitent déjà l’IA pour des questions liées au bien-être et à la santé.
À la différence des AI Overviews de Google, ChatGPT Health peut s’appuyer — avec l’accord de l’utilisateur — sur des données personnelles comme des dossiers médicaux ou des applications de suivi (Apple Santé, MyFitnessPal). Cette contextualisation améliore la pertinence des réponses, sans pour autant éliminer totalement les risques d’erreurs ou d’« hallucinations » propres aux modèles d’IA.
L’affaire des AI Overviews rappelle une réalité essentielle : l’intelligence artificielle ne peut pas remplacer l’expertise médicale humaine, surtout lorsqu’elle s’exprime sans contexte clinique précis. Google, comme les autres acteurs de l’IA, devra renforcer drastiquement ses garde-fous s’il veut éviter que ses outils d’assistance ne deviennent des vecteurs de désinformation sanitaire.
À mesure que l’IA s’impose dans nos usages quotidiens, la santé apparaît plus que jamais comme un domaine où la prudence, la transparence et l’humilité technologique sont indispensables.



Technologies




Gemini de Google au cœur du nouveau Siri : Apple revoit sa stratégie IA pour relancer son assistant vocal




