광고환영

광고문의환영

En Corée du Sud, l’IA médicale gagne les hôpitaux mais bute sur une question décisive : qui paie quand l’algorithme se trompe ?

Une adoption rapide, freinée par une angoisse très humaine

En Corée du Sud, l’intelligence artificielle médicale n’appartient déjà plus au registre des promesses futuristes. Dans les grands hôpitaux de Séoul, de Busan ou de Daegu, elle s’installe dans les services d’imagerie, s’invite dans l’analyse des électrocardiogrammes, résume des dossiers médicaux et commence même à assister la rédaction de certains comptes rendus cliniques. Selon les données récemment mises en avant dans le débat public coréen, près d’un médecin sur deux dit avoir déjà utilisé, d’une façon ou d’une autre, un outil d’IA dans son activité. Le chiffre impressionne. Il dit à quel point le pays, souvent présenté comme l’un des laboratoires mondiaux du numérique, pousse désormais ses pions dans la santé.

Mais ce mouvement, qui pourrait sembler irrésistible, avance en réalité avec le frein à main partiellement serré. Car la principale inquiétude des praticiens sud-coréens n’est pas tant la performance brute des outils que la question de la responsabilité juridique. Autrement dit : si l’IA aide à poser un diagnostic, à prioriser des cas ou à proposer une conduite thérapeutique, qui porte la faute si l’issue est mauvaise ? Le médecin ? L’hôpital ? L’entreprise qui a conçu le logiciel ? Dans un secteur où la confiance et la responsabilité ne sont pas des variables abstraites mais des questions de vie, de mort et de contentieux, cette incertitude suffit à refroidir même les établissements les plus innovants.

Pour un lectorat francophone, la scène peut rappeler des débats déjà connus en Europe autour des voitures autonomes, des décisions automatisées de l’administration ou des plateformes numériques. La différence, ici, est d’une tout autre intensité : il ne s’agit ni de recommandation d’achat ni d’optimisation logistique, mais du soin. En médecine, l’erreur ne se mesure pas seulement en points de productivité perdus. Elle se compte en examens inutiles, en diagnostics tardifs, en complications, parfois en drames. La Corée du Sud, qui a l’habitude d’adopter vite les technologies grand public, découvre que l’hôpital impose un autre tempo, plus prudent, plus lourd et plus politique.

Le débat coréen mérite donc l’attention au-delà de l’Asie. Il éclaire un dilemme qui traverse aussi les systèmes de santé européens et africains : comment profiter d’outils capables de soulager des équipes sous tension, sans créer une médecine où chacun se renvoie la faute dès qu’un algorithme intervient ? Derrière la fascination pour l’innovation, c’est une bataille de normes, de procédures et de confiance qui se joue.

Dans les hôpitaux coréens, l’IA s’insère d’abord comme assistant, pas comme remplaçant

Le premier malentendu serait d’imaginer des établissements où des machines diagnostiquent seules à la place des praticiens. Ce n’est pas le paysage décrit par les professionnels sud-coréens. Dans l’immense majorité des cas, l’IA agit aujourd’hui comme un outil d’aide. En radiologie, par exemple, elle signale des anomalies suspectes sur une radio du thorax, attire l’attention sur des nodules, classe des images en fonction de leur urgence ou aide à repérer des éléments que l’œil humain, épuisé par la cadence, pourrait manquer. Elle ne remplace pas la signature du radiologue ; elle intervient en amont, en appui, comme un second regard algorithmique.

Le même mouvement se retrouve en pathologie numérique, en cardiologie ou dans les unités de soins critiques. Des logiciels analysent des lames numérisées, détectent des troubles du rythme, interprètent certains signaux physiologiques et contribuent à alerter plus tôt lorsqu’un patient risque de se dégrader. Dans un pays où les grands centres hospitaliers absorbent une masse considérable de patients et où les équipes subissent elles aussi la fatigue administrative, ces outils sont perçus comme des leviers d’efficacité. Leur force n’est pas de « penser » comme un médecin, mais de repérer très vite des motifs répétitifs dans d’énormes volumes de données.

La nouveauté, plus récente, tient à l’essor de l’IA générative. Ici, l’enjeu n’est pas seulement la lecture d’images ou de signaux biologiques, mais la production de texte et la synthèse d’information. Un système peut préparer un brouillon de dossier médical à partir d’une consultation, résumer des échanges avec le patient, reformuler des explications thérapeutiques dans un langage plus accessible, ou aider à organiser les informations dispersées dans le dossier. Cela peut sembler secondaire face au prestige du diagnostic assisté, mais pour beaucoup de praticiens, c’est précisément là que réside l’un des gains les plus concrets : réduire le temps englouti par la paperasse.

Cette promesse parle bien au-delà de la Corée. En France comme en Belgique, au Québec comme en Afrique de l’Ouest francophone, les médecins répètent depuis des années que la bureaucratie clinique grignote le temps du soin. Si une IA permet de libérer quelques minutes par patient pour expliquer un résultat, détailler un traitement ou rassurer une famille, la valeur n’est pas seulement technique ; elle devient relationnelle. Or c’est aussi là que le débat devient plus subtil : plus l’outil s’intègre au geste médical ordinaire, plus la frontière entre assistance et décision devient difficile à tracer.

Pourquoi la peur du contentieux pèse plus lourd que l’enthousiasme technologique

Ce qui ressort fortement du débat sud-coréen, c’est que la méfiance des médecins ne se réduit pas à un réflexe corporatiste ou à une hostilité de principe envers la technologie. Beaucoup reconnaissent l’utilité potentielle de ces outils. Mais ils savent aussi que, dans la pratique, la responsabilité finale du soin leur revient presque toujours. Si l’IA n’a pas signalé une lésion, et que le médecin ne l’a pas vue non plus, l’argument « le logiciel s’est trompé » ne constitue pas une protection évidente. À l’inverse, si l’algorithme multiplie les fausses alertes et pousse à des examens supplémentaires inutiles, c’est encore le praticien qui devra justifier les décisions prises.

Cette asymétrie est au cœur du problème. L’IA promet de partager une part de la charge cognitive, mais elle ne partage pas clairement la charge judiciaire. Le médecin se retrouve dans une position paradoxale : s’il suit trop aveuglément l’outil, il peut être accusé de s’être déresponsabilisé ; s’il ne le suit pas, on pourra lui reprocher d’avoir ignoré une aide disponible. C’est le scénario du piège parfait pour des professionnels déjà exposés à une forte pression sociale et à des attentes élevées en matière de sécurité. Dans un tel cadre, la prudence n’est pas un conservatisme, c’est une stratégie de survie.

Les systèmes d’IA générative ajoutent une couche de complexité. Contrairement à un dispositif plus limité, programmé pour une fonction précise, ces outils peuvent produire des réponses plausibles mais inexactes, sans toujours rendre transparent le cheminement qui y conduit. Dans le langage du secteur, on parle d’« hallucinations ». Pour un journaliste, cela évoque les limites bien connues des modèles conversationnels ; pour un médecin, cela signifie autre chose : la possibilité qu’un texte bien formulé masque une erreur de fond. Si chaque phrase doit être vérifiée ligne à ligne, le gain de temps s’érode. Si elle ne l’est pas et qu’un problème survient, la responsabilité individuelle redevient écrasante.

Il faut ajouter à cela une donnée propre à la médecine contemporaine : le poids émotionnel du dommage. On peut corriger un bug dans un service numérique après coup. On ne répare pas de la même manière un retard de diagnostic en oncologie, une complication cardiologique non anticipée ou une information clinique mal transmise. Les praticiens coréens, comme leurs homologues européens, savent que l’acceptabilité de l’erreur est quasi nulle lorsqu’un logiciel intervient dans la chaîne de soins. Le prestige du mot « intelligence » ne suffit pas à dissiper ce risque. Au contraire, il peut nourrir de faux espoirs chez les directions d’hôpitaux, les investisseurs ou parfois les patients.

Le vide réglementaire n’est pas total, mais il reste trop flou pour rassurer

La Corée du Sud ne part pas de zéro. Les autorités sanitaires ont déjà développé des cadres d’autorisation pour les logiciels médicaux et les dispositifs fondés sur l’IA. Des entreprises locales ont obtenu des homologations pour des usages ciblés, notamment dans l’imagerie ou l’analyse de signaux biologiques. Vu d’Europe, le pays apparaît même comme l’un des marchés asiatiques les plus avancés dans la structuration de la santé numérique. La puissance de son écosystème technologique, le poids de ses grands centres hospitaliers universitaires et l’appétit de ses start-up en font un terrain particulièrement dynamique.

Le problème, pourtant, n’est pas tant l’autorisation d’entrer sur le marché que la manière dont la responsabilité est répartie une fois l’outil réellement utilisé au lit du patient. Une homologation ne dit pas tout sur la conduite à tenir en cas d’erreur, sur le niveau de vigilance attendu du praticien, sur le type de documentation à conserver, ni sur la façon dont un juge appréciera un litige. En d’autres termes, le droit du produit et le droit de la responsabilité médicale n’avancent pas toujours au même rythme. L’outil peut être validé par l’administration et rester juridiquement anxiogène pour celui qui s’en sert.

Un autre point délicat concerne les systèmes qui apprennent, se mettent à jour et changent au fil du temps. Les dispositifs médicaux classiques fonctionnent sur des versions relativement stables. L’IA, elle, peut évoluer plus vite, avec de nouveaux jeux de données, des ajustements d’algorithmes, des améliorations de performance… ou de nouvelles zones de fragilité. Cela soulève des questions très concrètes : faut-il revalider l’outil à chaque mise à jour importante ? Quels journaux de bord conserver ? Quel protocole suivre pour vérifier que l’amélioration annoncée ne crée pas un biais inédit sur certains profils de patients ? Ces interrogations ne relèvent pas seulement de l’ingénierie. Elles conditionnent la confiance des établissements et des soignants.

Le débat coréen converge donc vers une demande de clarification fine, presque artisanale, des règles d’usage. Non pas un grand discours abstrait sur l’innovation, mais des protocoles détaillés : dans quels cas l’IA peut-elle être utilisée seule comme aide de tri ? Quand une double lecture humaine est-elle obligatoire ? Quelle information faut-il donner au patient ? Comment consigner dans le dossier qu’un avis algorithmique a été pris en compte ? Pour des systèmes de santé habitués à standardiser les procédures, cette exigence peut sembler fastidieuse. Elle est pourtant le passage obligé si l’on veut éviter que l’innovation reste confinée aux présentations en congrès et aux communiqués d’entreprises.

La question des données de santé, un sujet explosif bien au-delà de Séoul

À la responsabilité médicale s’ajoute un autre terrain miné : celui des données personnelles. Une IA médicale performante se nourrit de masses considérables d’informations sensibles : comptes rendus, imagerie, antécédents, résultats biologiques, parfois données génétiques. Or ces informations touchent à ce que les individus ont de plus intime. En Corée du Sud comme en Europe, leur usage ne peut pas être banalisé au nom de l’efficacité. Chaque fois qu’un établissement recourt à un service externe, à une solution hébergée dans le cloud ou à un prestataire spécialisé, resurgissent les mêmes interrogations : où vont les données, qui y accède, sous quelle forme sont-elles pseudonymisées, et à quelles fins secondaires peuvent-elles servir ?

Ce point est particulièrement sensible avec l’IA générative, car certains outils grand public ont habitué les utilisateurs à saisir des informations dans des interfaces apparemment simples sans toujours mesurer les implications de sécurité. Dans un hôpital, un tel relâchement serait explosif. C’est pourquoi la tendance en Corée semble aller vers un encadrement plus strict au niveau des institutions, avec validation interne, procédures dédiées et limitation des usages improvisés par les praticiens. Ce réflexe peut sembler bureaucratique, mais il est probablement indispensable : on ne gère pas un dossier médical comme on rédige un courriel ou une note de réunion.

Pour les lecteurs d’Afrique francophone, la question résonne différemment mais tout aussi fortement. De Dakar à Abidjan, de Casablanca à Kigali pour les espaces multilingues connectés à la francophonie, les systèmes de santé cherchent eux aussi à numériser davantage tout en renforçant la souveraineté sur les infrastructures et les données. L’attrait pour les solutions importées est réel, surtout lorsqu’elles promettent de compenser le manque de spécialistes. Mais la dépendance à des plateformes étrangères pose des questions économiques, juridiques et stratégiques. Qui contrôle l’architecture ? Qui monétise l’expertise issue des données locales ? Qui assume le risque quand un service tombe ou quand un modèle n’a pas été entraîné sur des populations comparables ?

La Corée du Sud, pourtant technologiquement puissante, montre que même un pays bien équipé ne règle pas ces sujets d’un claquement de doigts. Le mythe d’une adoption fluide et sans friction de l’IA en santé se heurte partout à la même réalité : le numérique médical n’est pas seulement un marché, c’est une infrastructure de confiance. Et cette confiance ne se décrète ni par la publicité, ni par l’effet de mode.

Du point de vue des patients, entre promesse d’égalité et nouveau malaise

Pour les patients sud-coréens, l’IA médicale porte une promesse très séduisante : celle d’une médecine plus rapide, plus homogène et potentiellement moins dépendante des disparités entre établissements. Dans les disciplines où les experts expérimentés sont rares, un outil capable d’aider à détecter plus tôt une anomalie ou à hiérarchiser les urgences peut jouer un rôle de filet de sécurité. On comprend aisément l’argument. Dans beaucoup de pays, les inégalités territoriales se creusent, les délais s’allongent, et l’idée qu’un logiciel puisse soutenir la qualité des soins dans des zones moins dotées n’a rien de fantasque.

Mais cette promesse s’accompagne d’une anxiété nouvelle. Le patient peut accepter qu’un médecin hésite, explique, reformule, cherche un second avis. Il lui est plus difficile d’accepter qu’un système opaque ait orienté la décision sans qu’il sache vraiment comment. Dans des sociétés très numérisées comme la Corée du Sud, le public n’est pas hostile à la technologie ; il y est même largement acculturé. Pourtant, lorsqu’il s’agit de santé, l’exigence d’explication remonte immédiatement. Qui a décidé ? Sur quelles bases ? Mon cas ressemble-t-il aux données ayant servi à entraîner le système ? Mon âge, mon sexe, mon profil clinique ou social introduisent-ils un biais ?

Ce besoin de compréhension n’est pas un luxe de société riche. Il touche au consentement même du patient. En Europe, on parlerait volontiers de droit à l’information et de transparence du soin. En Afrique francophone aussi, la relation avec le praticien repose largement sur la confiance personnelle, parfois plus encore que sur l’institution. Si l’IA s’interpose sans pédagogie, elle peut fragiliser le lien thérapeutique au lieu de le renforcer. Or le soin ne se réduit pas à la pertinence statistique d’une suggestion ; il implique une parole, un cadre, une responsabilité assumée.

Dans cette perspective, la Corée offre un cas d’école. Le pays peut faire la démonstration qu’une adoption raisonnable de l’IA est possible à condition de ne pas vendre aux patients une fiction de neutralité parfaite. Les algorithmes peuvent aider, parfois beaucoup, mais ils ne dissolvent ni l’incertitude médicale ni l’obligation d’expliquer. Plus la machine prend de place dans l’organisation du travail hospitalier, plus l’humain doit devenir lisible dans la décision finale.

Ce que la Corée du Sud annonce au reste du monde médical

Au fond, ce qui se joue aujourd’hui en Corée du Sud dépasse le seul marché coréen de la health tech. Le pays se trouve à un carrefour que d’autres systèmes de santé rejoindront tôt ou tard. D’un côté, la pression est immense pour gagner du temps, améliorer les parcours de soins, réduire les erreurs évitables et absorber une demande croissante. De l’autre, la médecine ne peut pas adopter l’IA comme un simple outil bureautique amélioré. Elle a besoin de règles, de traçabilité, de standards professionnels, de garanties de sécurité et d’une doctrine claire sur la responsabilité.

La leçon est précieuse pour les décideurs francophones. Ni l’enthousiasme techno-solutionniste, si présent dans certains salons professionnels, ni le rejet de principe ne constituent une politique de santé. Il faut une voie plus exigeante : former les soignants, évaluer les outils sur le terrain, documenter leurs biais, protéger les données, définir les conditions d’usage et prévoir à l’avance les mécanismes de responsabilité. En somme, faire ce que les grandes innovations médicales ont toujours exigé, de l’imagerie aux biothérapies : construire un cadre avant que les incidents ne l’imposent dans la douleur.

Pour la Corée, cette bataille est aussi symbolique. Le pays, vitrine mondiale de la Hallyu, des semi-conducteurs et de l’hyperconnectivité, aime apparaître à l’avant-garde. Mais l’avant-garde en santé ne se mesure pas seulement au nombre d’algorithmes déployés. Elle se mesure à la capacité de les intégrer sans sacrifier ni les droits des patients ni la sérénité des praticiens. Dans ce domaine, le leadership ne consistera pas à aller le plus vite, mais à montrer comment aller vite sans perdre le contrôle.

Le débat coréen rappelle finalement une vérité presque classique, que les sociétés numériques redécouvrent à intervalles réguliers : l’innovation la plus décisive n’est pas toujours l’outil lui-même, mais l’institution capable de l’apprivoiser. Les médecins sud-coréens n’expriment pas seulement une peur corporatiste ; ils signalent l’endroit exact où la modernisation peut se briser. Tant que la question « qui répond devant le patient et devant le juge ? » restera floue, l’IA médicale progressera, certes, mais à pas comptés. Et c’est peut-être une bonne nouvelle : dans un hôpital, la prudence n’est pas l’ennemie du progrès. Elle en est souvent la condition.


Source: Original Korean article - Trendy News Korea

Enregistrer un commentaire

0 Commentaires