Vincent Verschoore
- 4/4/2026 - La gestion inepte de la santé publique par une administration corrompue au service du grand capital a pour effet direct l'inaccessibilité médicale. Sauf bien sûr pour les nantis ayant accès à la santé privée et les privilégiés ayant les numéros directs de responsables hospitaliers, mais pour la majorité le simple fait d'obtenir un avis médical relève du parcours du combattant, et la qualité de l'avis éventuel semble de plus en plus relever du jeu de hasard.
Face à cela, l'IA est une alternative qui semble accessible, gratuite ou presque, immédiate, et de qualité comparable en termes de diagnostics. Elle ne délivre malheureusement pas d'ordonnances donc le traitement reste impossible sans passer par le racket médical, mais ça permet au moins d'avancer.
Un récent article du MIT Technology Review explore l'émergence rapide des outils de santé basés sur l'IA, comme Copilot Health de Microsoft, Health AI d'Amazon et ChatGPT Health d'OpenAI. Ces chatbots spécialisés visent à connecter les dossiers médicaux des utilisateurs pour répondre à leurs questions de santé.
Cette tendance répond à une forte demande, car de nombreuses personnes peinent à accéder aux soins médicaux traditionnels. Des études préliminaires suggèrent que ces modèles pourraient fournir des recommandations sûres et utiles, mais les experts appellent à une évaluation plus rigoureuse et indépendante.
Dominic King de Microsoft et Karan Singhal d'OpenAI expliquent que les progrès de l'IA générative et l'immense demande des utilisateurs (50 millions de questions de santé par jour sur Copilot) ont accéléré leur développement. Les chatbots sont vus comme une solution pour améliorer l'accès aux soins, notamment le triage, en aidant les utilisateurs à déterminer la nécessité d'une consultation médicale.
Cependant, une étude de Mount Sinai a montré que ChatGPT Health pouvait parfois recommander trop de soins pour des troubles bénins ou ne pas identifier correctement les urgences.
Malgré les désistements des entreprises qui précisent que leurs outils ne sont pas destinés au diagnostic ou au traitement, les experts craignent que les utilisateurs les emploient à ces fins.
Les entreprises mènent leurs propres tests, comme HealthBench d'OpenAI, mais ces évaluations ont des limites. Par exemple, un utilisateur non expert pourrait mal interpréter les informations ou ne pas poser les bonnes questions, même si l'IA elle-même est performante.
Idéalement, des tests contrôlés avec des utilisateurs humains devraient être menés avant le déploiement généralisé. Google, par exemple, a testé son chatbot médical AMIE dans une étude rigoureuse, montrant des diagnostics aussi précis que ceux des médecins, mais ne prévoit pas de le rendre public tant que les questions d'équité, de justesse et de sécurité ne sont pas pleinement résolues.
Les experts insistent sur l'importance des évaluations par des tiers indépendants pour garantir l'impartialité et éviter les angles morts. Bien qu'OpenAI soutienne ces initiatives, la complexité et le coût de telles évaluations représentent un défi. Personne ne s'attend à une IA parfaite, les médecins eux-mêmes faisant des erreurs. Un chatbot accessible, même imparfait, pourrait être une amélioration pour ceux qui ont un accès limité aux soins.
Faisant moi-même partie des gens sans accès direct à la médecine, j'ai testé la capacité de certaines IA non spécialisées sur l'interprétation d'une prise de sang à large spectre, et c'est en effet très pertinent, selon l'avis d'une connaissance médecin urgentiste à la retraite. Le problème, ensuite, est l'accès aux produits nécessaires, mais le poids du réel (l'absence de disponibilité médicale) ainsi que l'arrivée prochaine de nombreux brevets dans le domaine public (donc de génériques) devrait faciliter les choses, quitte à être obligé de se soigner "illégalement", le comble de l'absurde.
On doit bien sûr se poser la question de comment en est-on arrivé là, dans un pays qui regorge de fonctionnaires coûteux et inutiles.





