
Un signal fort venu de Corée du Sud
En Corée du Sud, pays souvent présenté comme un laboratoire grandeur nature des usages numériques, une enquête publiée le 15 avril par la Fondation de la presse coréenne alerte sur une évolution lourde de conséquences: la santé n’échappe plus à la logique de la conversation automatisée. Selon cette étude, 58,3% des adultes sud-coréens âgés de 20 à 60 ans estiment que la recherche d’informations de santé ou le conseil médical via une intelligence artificielle générative peut se substituer, au moins en partie, à une consultation en face à face avec un médecin ou un praticien de médecine coréenne traditionnelle. Dans le détail, 53,9% jugent ce remplacement possible dans une certaine mesure, et 4,4% à un niveau important.
Pris isolément, ce chiffre peut impressionner. Il ne signifie pas que la majorité de la population souhaite se passer des médecins, ni que les patients renonceront massivement à l’hôpital ou au cabinet. Il indique en revanche un basculement de perception. L’IA n’est plus simplement considérée comme un moteur de recherche amélioré, ni comme un gadget technologique réservé aux plus technophiles. Elle est désormais perçue, par une part substantielle du public, comme un acteur crédible de l’orientation sanitaire, voire comme une alternative à une partie de l’échange médical.
Le phénomène mérite d’être observé de près depuis la France comme depuis les pays d’Afrique francophone. Car la Corée du Sud ne produit pas seulement des tendances culturelles, de la K-pop aux séries qui triomphent sur les plateformes. Elle anticipe aussi souvent des transformations sociales plus profondes: numérisation des gestes du quotidien, accélération des usages mobiles, intégration rapide des outils conversationnels dans la vie courante. Quand Séoul donne à voir une nouvelle relation à l’information, il est rarement inutile de s’y arrêter.
Dans le domaine de la santé, l’enjeu dépasse de loin l’innovation. Il touche à ce qui fait tenir un système de soins: la confiance. Non pas seulement la confiance dans les hôpitaux, dans les médicaments ou dans les professionnels, mais la confiance dans la chaîne même qui produit, transmet et vérifie l’information médicale. À partir du moment où un patient a le sentiment qu’une réponse générée en quelques secondes vaut autant, ou presque, qu’un échange clinique, c’est toute l’architecture de l’autorité sanitaire qui se trouve déplacée.
Cette question n’est pas coréenne au sens étroit du terme. Elle est mondiale. Mais en Corée du Sud, où la rapidité d’adoption des technologies est particulièrement forte et où la circulation de l’information numérique structure déjà très fortement les comportements, elle apparaît avec une netteté singulière. C’est ce qui rend cette enquête particulièrement précieuse: elle documente moins un simple goût pour la nouveauté qu’un trouble plus profond face à la fiabilité de l’information médicale.
Pourquoi les patients se tournent vers l’IA avant le médecin
Pour comprendre ce mouvement, il faut d’abord reconnaître une réalité simple: l’IA conversationnelle répond à des besoins concrets. Elle est disponible à toute heure, n’impose ni déplacement ni salle d’attente, accepte les reformulations, tolère les questions jugées embarrassantes et fournit des réponses dans une langue souvent plus accessible que le jargon médical. Pour un patient inquiet, hésitant à consulter, ou simplement perdu devant des symptômes flous, cet accès immédiat à une forme de tri intellectuel peut sembler rassurant.
Beaucoup d’usagers ne cherchent d’ailleurs pas un diagnostic au sens strict. Ils veulent savoir si leur symptôme paraît grave, vers quelle spécialité se diriger, s’il faut consulter en urgence, comment comprendre un résultat d’examen ou distinguer l’essentiel de l’accessoire. Dans cet usage préparatoire, l’IA fonctionne comme une antichambre numérique du soin. Elle peut donner l’illusion d’un entretien personnalisé avant même le premier rendez-vous.
La situation parlera à de nombreux lecteurs francophones. En France, malgré l’excellence du système hospitalier et le maillage des professionnels, les délais d’obtention de rendez-vous, la difficulté à trouver un médecin traitant dans certains territoires, ou encore la saturation des urgences nourrissent déjà des stratégies de contournement informationnel. Dans plusieurs pays d’Afrique francophone, les obstacles sont parfois d’une autre nature — éloignement géographique, coût de la consultation, inégalités territoriales, rareté de certaines spécialités — mais le réflexe est comparable: avant de consulter, on se renseigne, on compare, on demande autour de soi, et désormais, on interroge aussi la machine.
À cela s’ajoute un facteur plus intime: la relation à la parole médicale. Dans bien des contextes, le temps du médecin est compté. Or un patient n’arrive pas au cabinet comme une page blanche. Il vient avec ses peurs, ses lectures, ses discussions familiales, parfois son historique de recherche. Quand il a le sentiment de ne pas pouvoir poser toutes ses questions en consultation, l’outil conversationnel gagne en attractivité. Il ne remplace pas l’examen clinique, mais il remplit un vide ressenti, celui d’une disponibilité sans friction.
C’est ici que réside l’ambivalence. L’IA apparaît moins comme un concurrent frontal du médecin que comme la réponse à une frustration contemporaine: celle de naviguer seul dans une masse d’informations médicales complexes, contradictoires et parfois anxiogènes. Si elle séduit, ce n’est pas uniquement parce qu’elle serait performante. C’est aussi parce qu’elle se présente comme plus patiente, plus pédagogique et plus accessible que les circuits traditionnels de l’information sanitaire.
Le vrai sujet: l’explosion de la défiance informationnelle
L’autre enseignement majeur de l’enquête sud-coréenne est sans doute là. Les répondants ne manifestent pas seulement une ouverture envers la technologie; ils expriment une profonde fragilité face à l’environnement informationnel. Selon l’étude, 85,8% des adultes interrogés disent avoir déjà eu le sentiment que des informations de santé étaient inexactes ou exagérées. Et 76,8% déclarent avoir déjà été désorientés par des contenus contradictoires.
Ces chiffres sont considérables. Ils dessinent un paysage où l’abondance ne produit pas nécessairement de la clarté. On n’est plus dans la rareté de l’information, mais dans l’excès et dans la concurrence permanente entre récits. Le patient lit un article, regarde une vidéo, consulte un forum, tombe sur le témoignage d’un influenceur, puis obtient d’une IA un résumé rédigé avec assurance. À la fin de ce parcours, il est plus informé en quantité, mais pas forcément mieux orienté.
C’est l’un des paradoxes les plus marquants de notre époque numérique. La démocratisation de l’accès au savoir n’a pas mécaniquement renforcé la confiance. Elle a au contraire ouvert un marché de la crédibilité où se mélangent informations scientifiques, vulgarisations approximatives, conseils commerciaux, récits individuels et contenus franchement trompeurs. La santé, parce qu’elle touche à la peur, à l’urgence et à l’intime, est un terrain particulièrement vulnérable.
La France l’a constaté de façon aiguë durant la pandémie de Covid-19, lorsque les débats sur les traitements, les vaccins, les effets secondaires ou les protocoles ont souvent circulé plus vite que les mises au point scientifiques. De Dakar à Abidjan, de Casablanca à Bruxelles, les réseaux sociaux ont également montré à quel point une rumeur sanitaire peut franchir les frontières linguistiques et culturelles à grande vitesse. Dans ce contexte, l’IA n’invente pas la désinformation: elle s’insère dans un écosystème déjà saturé, et peut parfois lui donner une forme plus lisible, donc plus persuasive.
Le danger n’est pas seulement qu’une réponse soit fausse. Il est qu’elle paraisse suffisamment cohérente pour être crue. Une IA générative produit des phrases fluides, structurées, calmes, souvent dénuées des hésitations qui caractérisent les échanges humains. Or, en médecine, l’assurance du ton n’est pas une preuve de justesse. Une réponse séduisante peut être inadaptée à un cas particulier, négliger un facteur de risque, ignorer une interaction médicamenteuse ou sous-estimer l’urgence d’une situation.
Autrement dit, la crise actuelle n’est pas une crise du volume d’informations, mais une crise de hiérarchisation. À qui faire confiance quand plusieurs sources paraissent plausibles? Comment départager une explication scientifiquement établie d’une affirmation simplement bien formulée? L’enquête coréenne pointe là une question essentielle pour toutes les démocraties numériques: plus les outils deviennent simples d’usage, plus la compétence critique devient indispensable.
Ce que l’IA peut faire — et ce qu’elle ne peut pas assumer
Il faut ici éviter deux excès symétriques. Le premier consisterait à diaboliser toute utilisation de l’IA en santé, comme si le simple fait d’interroger un assistant conversationnel relevait de l’irresponsabilité. Le second serait de considérer qu’une bonne synthèse textuelle équivaut à un acte médical. Entre les deux, il existe un espace d’usage réel, utile, mais strictement encadré par les limites de l’outil.
L’IA peut aider à comprendre un vocabulaire, reformuler un compte-rendu, rappeler des précautions générales, orienter vers une spécialité, résumer des recommandations ou suggérer de consulter rapidement face à certains signaux d’alerte. Pour des patients peu familiers du langage médical, elle peut jouer un rôle de traduction cognitive. Pour des proches aidants, elle peut contribuer à préparer des questions avant une consultation. Et dans des contextes où l’information institutionnelle est difficile à lire ou dispersée, elle peut apporter un premier niveau de clarification.
Mais elle ne procède ni à un examen clinique, ni à une palpation, ni à une auscultation, ni à une appréciation de l’état général d’un patient. Elle ne voit pas un essoufflement, une pâleur, une confusion, un regard douloureux, une posture inhabituelle, des signes de déshydratation ou la manière dont un symptôme évolue au fil de la journée. Elle ne porte pas non plus la responsabilité médico-légale d’une décision de traitement. Or la médecine n’est pas seulement affaire de connaissances abstraites; elle repose sur l’interprétation de signes, sur le contexte, sur l’incertitude et sur la responsabilité.
Un même symptôme peut recouvrir des réalités radicalement différentes. Une toux peut signaler une irritation bénigne comme une infection sévère. Une douleur abdominale peut relever d’un trouble digestif passager comme d’une urgence chirurgicale ou gynécologique. Une fatigue peut s’expliquer par le stress, mais aussi par une anémie, un trouble endocrinien, une infection ou un effet secondaire médicamenteux. L’outil conversationnel excelle à présenter des scénarios possibles; le clinicien, lui, doit trancher, hiérarchiser le risque et agir.
C’est précisément pour cette raison que la relation médecin-patient ne peut être réduite à la livraison d’une “bonne réponse”. La consultation n’est pas un quiz dont il suffirait de deviner la solution. C’est un processus de décision, avec ses doutes, ses vérifications et ses conséquences. Une société qui oublierait cette distinction prendrait le risque de confondre la qualité rédactionnelle d’une machine avec la prudence concrète d’un jugement médical.
Les chercheurs cités par l’enquête sud-coréenne soulignent d’ailleurs que l’essor de l’IA générative transforme en profondeur les usages de l’information de santé tout en faisant surgir, en parallèle, des problèmes d’exactitude, de fiabilité, de protection des données sensibles et de risque lié à une substitution à la consultation spécialisée. Cette observation a le mérite de la mesure: il ne s’agit pas d’interdire l’outil, mais d’en rappeler les frontières de sécurité.
Une relation médecin-patient sous tension
L’impact de cette évolution sur la relation de soin mérite une attention particulière. Depuis plusieurs années déjà, les praticiens reçoivent des patients qui arrivent en consultation avec un “pré-diagnostic” trouvé en ligne, un traitement qu’ils souhaitent obtenir, ou au contraire une peur nourrie par des lectures alarmantes. L’IA intensifie ce phénomène en donnant une cohérence immédiate à des informations jusqu’ici éparses. Le patient ne vient plus seulement avec des captures d’écran ou des liens: il arrive avec une narration déjà construite de son propre cas.
Ce déplacement n’est pas forcément négatif. Un patient mieux informé peut poser de meilleures questions, comprendre plus vite les options thérapeutiques et participer plus activement à la décision. Dans les systèmes de santé contemporains, l’autonomie du patient est une valeur importante. Le problème commence quand l’information préalable n’est plus un support de dialogue, mais une source de méfiance. Si la parole du médecin est perçue comme une opinion parmi d’autres, susceptible d’être mise en balance avec celle d’un assistant conversationnel, alors l’échange clinique se fragilise.
En France, le sujet renvoie à une tension bien connue entre l’exigence de transparence et la crise de l’autorité. Le vieux modèle paternaliste — “faites-moi confiance, je sais” — n’est plus tenable, et c’est tant mieux. Mais le modèle inverse, dans lequel toutes les sources se vaudraient au nom de l’horizontalité numérique, est tout aussi problématique. La médecine ne peut pas fonctionner correctement si l’expertise devient une option décorative.
Dans plusieurs sociétés d’Afrique francophone, la difficulté peut être encore plus vive lorsque s’entremêlent médecine conventionnelle, conseils communautaires, recours aux guérisseurs, commerce informel des produits de santé et circulation de contenus viraux sur les messageries mobiles. L’IA conversationnelle pourrait alors être perçue comme un nouvel arbitre, supposément neutre et moderne. Mais sa neutralité est toute relative: elle dépend des données sur lesquelles elle a été entraînée, des formulations de l’utilisateur et des garde-fous techniques mis en place.
La relation médecin-patient se joue donc désormais sur deux scènes en même temps: dans le cabinet et en amont, dans l’espace numérique. Ce que le patient lit avant la consultation influence ce qu’il entendra ensuite. Ce qu’il n’a pas compris ou ce qu’il croit avoir compris façonne son degré d’adhésion au diagnostic. En ce sens, l’enjeu n’est pas seulement médical; il est aussi médiatique, éducatif et civique.
Le cas coréen, miroir des sociétés hyperconnectées
La Corée du Sud offre un terrain d’observation particulièrement éclairant parce qu’elle conjugue plusieurs caractéristiques: un très haut niveau de connectivité, une culture de l’instantanéité, une forte familiarité avec les plateformes numériques et une grande vitesse d’appropriation des innovations. Le pays a souvent été en avance sur des usages ensuite banalisés ailleurs. Il n’est donc pas surprenant que le débat sur l’IA médicale y apparaisse de manière aussi frontale.
Pour un lectorat francophone, il faut aussi rappeler qu’en Corée, la frontière symbolique entre expertise institutionnelle, information médiatique et innovation technologique est souvent traversée à grande vitesse. Ce n’est pas une spécificité absolue, mais une intensification. Dans un tel contexte, la crédibilité d’un outil peut monter très vite, surtout s’il répond à un besoin concret et réduit les frictions du quotidien. Là encore, la question n’est pas de savoir si la Corée serait “en retard” ou “en avance” sur le reste du monde, mais ce qu’elle révèle de notre avenir proche.
Les lecteurs français connaissent déjà ce mécanisme dans d’autres domaines. Les plateformes de streaming ont modifié notre rapport aux œuvres; les applications de mobilité ont changé notre perception du temps d’attente; les services bancaires mobiles ont transformé les habitudes de paiement. En santé, la bascule est plus délicate parce que l’objet n’est pas un loisir ni un service de confort, mais le corps, la douleur, la vulnérabilité et parfois l’urgence vitale.
L’analogie européenne la plus juste serait peut-être celle de l’automédication informationnelle. De la même manière qu’on peut être tenté, dans une pharmacie, de choisir un produit sans consulter lorsqu’on pense reconnaître un problème banal, on peut être tenté, face à une IA, de se satisfaire d’une réponse plausible et de différer la visite médicale. Le gain perçu — du temps, de l’argent, du confort — peut l’emporter sur la prudence. Mais ce calcul devient risqué dès lors qu’un symptôme n’est pas aussi anodin qu’il en a l’air.
La leçon coréenne est donc double. D’une part, l’IA répond à une demande réelle de simplification de l’information médicale. D’autre part, cette demande prospère sur un déficit de confiance préexistant. Ce n’est pas la machine, à elle seule, qui fragilise le lien de soin. Elle occupe l’espace laissé par une information jugée confuse, par des consultations parfois trop courtes, et par une difficulté croissante des institutions à parler clairement aux citoyens.
Que faire: restaurer la confiance plutôt que céder à l’illusion
Face à ce constat, la tentation serait grande d’opposer frontalement médecins et intelligence artificielle, comme si l’un devait forcément remplacer l’autre. Ce serait une erreur de diagnostic. Le cœur du problème n’est pas la technologie en soi, mais l’environnement de confiance dans lequel elle s’insère. Si les patients se tournent vers l’IA, c’est aussi parce qu’ils cherchent une parole intelligible, accessible et disponible. Autrement dit, la réponse ne peut pas être seulement technique ou réglementaire; elle doit aussi être communicationnelle.
La première urgence consiste à mieux distinguer information générale et décision médicale individualisée. Une société bien informée n’est pas une société où chacun aurait réponse à tout depuis son téléphone; c’est une société où chacun sait ce qu’un outil peut faire, ce qu’il ne peut pas faire, et à partir de quel moment un professionnel doit reprendre la main. Cette pédagogie est essentielle, dans les écoles comme dans les médias, sur les plateformes comme dans les salles d’attente.
La deuxième priorité est de renforcer la lisibilité des sources fiables. En santé, la qualité ne suffit pas; encore faut-il qu’elle soit trouvable, compréhensible et partageable. Trop d’informations institutionnelles restent écrites dans une langue administrative, technique ou désincarnée, alors que les contenus trompeurs prospèrent précisément parce qu’ils sont simples, émotionnels et immédiatement appropriables. Si la parole médicale veut reconquérir de la crédibilité, elle doit aussi apprendre à mieux se faire entendre.
La troisième piste concerne la consultation elle-même. Le temps médical est rare, mais l’explication est devenue centrale. Un patient qui comprend pourquoi un diagnostic est retenu, pourquoi une hypothèse est écartée, pourquoi un examen est demandé ou non, sera moins dépendant des récits concurrents. Il ne s’agit pas de transformer chaque médecin en influenceur, mais de reconnaître qu’une part de la confiance se joue désormais dans la capacité à expliciter.
Enfin, il faut affirmer un principe simple: en matière de santé, la commodité ne peut pas devenir la mesure ultime de la vérité. Qu’un outil soit rapide, disponible ou agréable d’usage ne garantit ni sa pertinence clinique ni sa sécurité. L’IA a sans doute vocation à s’installer durablement dans le parcours informationnel des patients. Mais si elle doit y trouver sa place, ce ne peut être qu’en auxiliaire, jamais en substitut de la responsabilité médicale.
L’enquête sud-coréenne agit comme un révélateur. Elle ne raconte pas seulement l’ascension d’une technologie; elle met au jour la fragilité d’un lien social fondamental, celui qui unit l’information, l’expertise et la confiance. Pour les sociétés francophones, de Paris à Cotonou, de Lyon à Abidjan, le message est clair: l’avenir de la santé ne se jouera pas seulement dans les algorithmes, mais dans notre capacité collective à reconstruire des repères crédibles. À défaut, le risque n’est pas seulement de demander trop à l’IA. C’est de ne plus savoir à qui confier, vraiment, notre vulnérabilité.
0 Commentaires