Avril 2026 Par Clotilde de GASTINES Réflexions

L’utilisation de l’intelligence artificielle dans les outils numériques de santé peut-elle réduire les inégalités sociales de santé ? Pour explorer cette question, des chercheurs du Centre de Recherche Approches Sociales de la Santé (CRISS-ULB) ont choisi d’analyser un cas pratique : le développement d’une application destinée aux personnes souffrant de douleurs antérieures du genou[1] qui est co-construite avec des développeurs, des professionnels de santé, des patients et des patients potentiels.

smiling female doctor meeting mature male patient in the clinic, providing professional care and consultation, creating a positive and supportive healthcare environment.

“AIM²”- lire “AIM au carré”- est le nom de baptême de ce projet de recherche. C’est l’acronyme de “Artificial Intelligence to improve Motivation and reduce Mental load in digital care” – traduit littéralement “Utiliser l’intelligence artificielle pour améliorer la motivation et réduire la charge mentale dans l’utilisation des outils numériques de santé”. Sous la supervision de la professeure de santé publique Céline Mahieu, trois chercheur.euses en Santé publique – Olivier Mugema, Simon Elst et Laura Solar assurent le suivi scientifique du projet. Celui-ci comporte deux volets de recherche : le premier est consacré aux professionnels de santé, le second aux patients. Il bénéficie des financements d’Innoviris, le fonds de recherche et développement de la Région Bruxelles-Capitale.
 
Les premiers résultats intermédiaires semblent montrer quil faut des renégociations constantes pour faire de l’IA un outil d’équité dans la collaboration transdisciplinaire social-santé. Rencontre avec Olivier Mugema et Simon Elst.

 Education Santé : Pouvez-vous nous présenter le CRISS ?

photo olivier

Olivier Mugema : Le CRISS s’intéresse aux dimensions sociales, organisationnelles et relationnelles de la santé. Nous travaillons sur les inégalités sociales de santé, la collaboration interprofessionnelle, et sur la façon dont les innovations technologiques transforment les pratiques de soins.

Notre approche de santé publique part d’un constat : 40% de la population belge est en situation de vulnérabilité numérique. Plutôt que d’imposer la technologie, nous adoptons une démarche participative où patients vulnérables, professionnels de santé et développeurs co-construisent ensemble les outils. Nous explorons deux questions centrales : (1) Sous quelles conditions l’IA peut-elle réduire les inégalités sociales de santé au lieu de les aggraver ? et (2) Comment préserver l’alliance thérapeutique et la dimension humaine des soins dans un contexte de numérisation croissante ? L’enjeu est de faire de l’IA un véritable partenaire dans les soins, accessible et équitable pour tous.

ES : Aujourd’hui peut-on encore parler de fracture numérique ?
 
O.M. : Aujourd’hui, parler de fracture numérique ne se limite plus à opposer ceux qui ont accès à internet et ceux qui ne l’ont pas. C’est devenu une réalité bien plus complexe. Notre projet de recherche montre que c’est une fracture en 3 dimensions.
 
– Une fracture d’usage : Beaucoup de personnes utilisent du numérique, mais de façon limitée ou contrainte, ou purement fonctionnelle. Quelqu’un peut utiliser une application pour prendre un rendez-vous, mais pas pour comprendre ou gérer sa santé.
 
– Une fracture de compréhension : la compréhension d’un problème de santé nécessite souvent une formation médicale. Elle permet de faire des hypothèses fiables sur la manière dont la pathologie peut évoluer. Avoir accès à l’information ne signifie pas que vous pouvez l’utiliser. L’IA peut fournir de l’information, par exemple « vous avez un cancer ». Mais sans accompagnement humain, elle risque de noyer le patient sous une masse d’informations anxiogènes qu’il ne peut pas traiter seul.
 
– Une fracture relationnelle : certaines personnes discutent avec un médecin, un kiné, leur entourage, d’autres sont seules face à l’écran. L’IA est un soutien quand le lien n’existe pas ou plus. Il faut vraiment y faire attention.

Les résultats préliminaires issus des premiers focus groups vous ont permis de dessiner trois types de positionnements par rapport à l’IA tant chez les patients que chez les professionnels. Pouvez-vous nous les décrire ?
 
O.M. : Notre collègue Laura Solar, qui est actuellement en repos de maternité, a dessiné trois idéotypes de patients :
– le « Selective Distancing » : ce patient évalue l’IA avec prudence et recul. Il n’est ni opposé ni enthousiaste, mais pose des conditions : il veut garder le contrôle, maintenir le contact humain avec son soignant, et comprendre comment l’outil fonctionne. Il accepte l’aide technologique uniquement si elle respecte sa relation thérapeutique ;
 
– le « Connected Pragmatist » : ce patient adopte l’IA de manière utilitaire et fonctionnelle. Il recherche l’efficacité et le gain de temps. Il fait confiance aux outils numériques pour gérer son parcours de soins (prises de rendez-vous, suivi de traitement), mais reste attentif à ce que cela simplifie réellement sa vie quotidienne ;
 
– le « Techno Reflective Explorer » : il a conscience du souci éthique et des enjeux de confidentialité. Il estime qu’il faut challenger l’IA – la dompter d’une certaine façon.
 
Et nous avons aussi fait émerger trois idéotypes de professionnels :
 
– les protecteurs du lien thérapeutique : ils ont un attachement à la relation humaine et une adoption très sélective. Ils ne sont pas contre l’IA, mais leur appréciation est modulable ;
 
– les adopteurs conditionnels : ils sont pragmatiques en quête d’efficacité mais sous des conditions strictes ;
 
– les protecteurs de l’équité ou sentinelles de l’équité : ils appliquent une vigilance particulière aux inégalités sociales de santé.

Est-ce que ces idéotypes existaient dans la littérature auparavant ?

photo simon

Simon Elst : Non, ils ont émergé des focus group. Ces catégories sont un outil de travail pour le raisonnement, pour simplifier une réalité complexe. Les différents profils ne correspondent pas à des personnes réelles, donc ce sont plutôt des grandes tendances qu’on essaie de résumer.
Par ailleurs, cette typologie n’est pas figée : un même professionnel peut incarner les trois, par exemple en fonction du contexte ou de l’enjeu, de la difficulté de l’enjeu au moment de la rencontre avec le patient et de la posture du patient.
 
O.M. : Ces idéotypes montrent que l’inclusion dépasse la fracture numérique, on est au-delà de la question de la capacité à utiliser les outils et à en disposer, mais aussi de qu’est-ce qui va faire que quelqu’un va être enclin à l’utiliser, par exemple par rapport à des questions éventuellement éthiques sur l’utilisation des données de santé ?
On a longtemps associé la relation de soin à un modèle plus vertical, centré sur le savoir médical du médecin. On n’est plus dans cette situation. Actuellement, le médecin qui rencontre les patients, dit : « Vous avez un problème, vous avez une pathologie que je peux nommer, mais pour le soin et la guérison, j’ai besoin de votre coopération ». C’est un travail en duo. Finalement, ça renforce l’alliance thérapeutique qui autrefois relevait davantage de l’incantation.

Dans quelles conditions l’utilisation de l’intelligence artificielle dans les soins de santé réduit ou en tout cas n’aggrave pas les inégalités sociales de santé ?
 
O.M. : Sur le papier ces outils automatisés paraissent très bien. Mais à l’usage, les patients s’interrogent et interpellent les professionnels et les développeurs. Pour moi, c’est une question fondamentale. Si nos gouvernements, si nos élus poussent à ce que de l’argent public soient investis dans les outils numériques, ça pose une question de santé publique spécifique sur l’inclusion de tous les publics et la prise en compte des inégalités sociales de santé.
 
S.E. : Cette dimension est pensée dans le projet avec l’articulation entre les 3 acteurs de la recherche : une start-up qui s’occupe du développement, la faculté des sciences de la motricité qui aborde les aspects cliniques (orientés kinésithérapie). Et puis nous qui venons avec ce volet plutôt sociologique, social et professionnel. Et ce qui est intéressant dans le projet, c’est que même au sein de l’équipe de recherche, on voit dans les dialogues entre les 3 acteurs qu’on a tous des perspectives différentes, des langages différents, des priorités différentes.
 
Au sein du projet, il est évident que personne n’a la volonté de concevoir des applications qui manqueraient d’accessibilité ou qui ne toucheraient pas le plus grand nombre. Mais après, dans la façon d’apporter des réponses, l’interdisciplinarité est essentielle et il faut un volet spécifique pour adresser ces questions-là.

Quelles sont les effets du numérique et de l’IA sur la relation patient-médecin ?

O.M. : L’IA ne remplacera jamais la relation des soins, mais ce que l’on découvre, c’est qu’elle transforme cette relation et parfois, la fragilise si cette relation est mal intégrée.
Quand les patients arrivent en consultation après avoir consulté Google ou ChatGPT, les professionnels ont parfois l’impression de passer plus de temps à désamorcer qu’à soigner. Mais on peut aussi voir le côté positif, et se dire qu’un outil bien accompagné offre une autonomie accrue aux patients.
 
S.E. : Dans les focus group, certains médecins disaient : « Moi, je ne suis pas contre le fait que le patient arrive avec un outil d’intelligence artificielle, parce que parfois ça permet d’ouvrir la discussion, le patient me challenge. Il faut que je sois prêt à répondre aux questions ».
On espère que notre recherche permettra de produire des repères solides pour concevoir des outils numériques qui n’aggravent pas les inégalités sociales de santé.
 
Notre contribution vie à informer les décideurs et le public, les cadres de régulation, poser des balises sur l’équité, la responsabilité, l’intégration dans le système de soins. Pour devenir acceptable et équitable, l’IA ne peut pas être imposée de manière descendante. Les patients vulnérables comme les professionnels expriment le même besoin : être impliqués dans la conception des outils. C’est ce que nous appelons la ‘co-construction’, seule approche qui permettra de faire de l’IA un partenaire dans les soins plutôt qu’un facteur d’exclusion.

[1] Ces douleurs sont liées à l’usure du corps chez les sportifs et aussi dans les populations défavorisées, en surpoids, et exposées à des pénibilités physiques au travail, ce qui permet de définir un profil de patients potentiels.