Un mensuel au service
des intervenants francophones
en promotion de la santé

Numéro 357

Santé publique : cédera ou cédera pas sous le poids des données massives ?


La santé publique, comme tant d'autres secteurs, est percutée de plein fouet par le phénomène Big data  en tous genres qu'il charrie. La médecine, l'épidémiologie ou encore la prévention intègrent bon an mal an ce nouvel outil, la santé publique pourrait bien être en train de changer de visage. Mais alors, est-il possible que nous ne la reconnaissions plus ? Cette question était au cœur d'une journée d'échanges organisée par le groupe de recherche DataSanté le 26 avril dernier à Nantes (France), au cours de laquelle sont intervenus une dizaine de chercheurs québécois et français.

 

Le Big data désigne les quantités faramineuses de données générées par nos activités numériques. Tellement nombreuses qu'on n'essaie même plus de les compter. A ce stade, il importe plus de savoir quoi en faire. Combien parmi elles sont susceptibles d'être exploitées à des fins sanitaires ? Beaucoup assurément, toutes peut-être. Certaines semblent pouvoir servir à mieux dépister une maladie génétique ou à prévoir l'évolution d'une épidémie, d'autres à suivre les effets d'une campagne de prévention ou à influencer les comportements plus ou moins favorables à la santé. Cela n'a pas échappé aux organisateurs de la journée de réflexion intitulée « Données massives et santé publique », membres du programme scientifique DataSanté (voir encadré), qui écrivent : « Les discours favorables des acteurs publics projettent l'élaboration de nouveaux plans de prévention en santé, des traitements mieux ciblés pour les patients et l'ouverture de voies de recherche insoupçonnées en santé publique ». Certes, mais cela ne risque-t-il pas d'ébranler les murs de la santé publique ? Si tel est le cas, quel sera son nouveau socle ? Ses méthodes et ses pratiques devront-elles être reconfigurées ?

 

Contre les épidémies

Une cinquantaine de personnes sont réunies dans l'amphithéâtre violet et rouge. Lara Khoury, de l'Université McGill, vient de présenter le système québécois de collecte de données des infections liées aux soins de santé et de divulgation des informations à la population. C'est au tour du Dr Paul Véron de prendre le micro pour montrer comment le Big data participe à la lutte contre les épidémies. « Jusqu'ici, dit-il, les dispositifs mis en place - obligations vaccinales, mises en quarantaine, messages de prévention, système de déclaration obligatoire de certaines maladies - émanaient de la puissance publique. » Mais alors que des données issues des requêtes des internautes concernant la grippe, des discussions sur les réseaux sociaux ou du trafic aérien sont générées en grand nombre, ceux qui les possèdent commencent à investir ce champ en élaborant des outils d'analyse pour identifier la naissance d'un foyer épidémique ou détecter de nouvelles souches virales en circulation. Le service Google Flu, imaginé par le géant de la Silicon Valley en 2008, ne cache pas son ambition de participer au contrôle des épidémies, et plus si affinité (avec les fabricants de vaccins notamment). C'était sans compter les critiques sur son algorithme jugé peu fiable, qui a finalement sonné le glas du service en 2015. Mais la boîte de Pandore est ouverte et il va de soi que d'autres outils du même genre sont soit déjà opérationnels, soit sur les rails.

 

La médecine prédictive, recto-verso

Avec la mise au point du séquençage haut-débit, la prévention des maladies génétiques, en particulier celles dites rares en raison de leur faible prévalence (moins d'une personne sur 2000), connaît depuis quelques années des avancées considérables. La composition de tout ou partie du génome devenant accessible, il est désormais possible de rechercher toute une série de variants génétiques et, ce faisant, de mettre à jour pour chaque individu des prédispositions vis-à-vis de cancers, de maladies cardiovasculaires, etc. Est-ce pourtant souhaitable en toutes circonstances ? Rien n'est moins sûr. Le Dr Sandra Mercier, généticienne médicale, rappelle qu'une variation génétique peut être bénigne, voire protectrice. Qui plus est, l'interprétation  clinique des données génomiques évolue rapidement et il est certain que les résultats des tests de certains patients changeront avec le temps. Mieux vaut donc appréhender ces tests (pré-conceptionnels ou récréatifs) pour ce qu'ils sont, c'est-à-dire des outils de médecine prédictive à manier avec prudence et éthique, loin de tout « déterminisme génétique », tout en préservant l'autonomie des individus et en respectant le droit de ne pas savoir.

 

Questions de droit

Sans nier les avancées considérables permises par ces technologies en matière de dépistage et de connaissance des risques, Emmanuelle Rial-Sebbag, directrice de recherche à l'Inserm*, a tenu à souligner la difficile intégration, en France, de la génomique dans le champ de la santé publique. De fait, si l'utilisation de ces données à des fins de dépistage ciblé est autorisée dans ce pays, elle ne l'est pas (encore) pour le dépistage de masse, preuve que les résistances à l'égard des données massives sont fortes, et les représentations quant à leur potentiel de nuisance à l'égard des politiques de santé publique bien vivaces. Pour Ma'n H. Zawati, qui dirige le Centre de génomique et de politiques de l'Université MacGill, la convergence de bases de données génomiques, de réseaux et d'intelligence artificielle devrait bientôt permettre aux médecins de recontacter leurs patients en cas de changement de signification d'un test génétique. « Un devoir de recontacter le patient pourrait exister dans le futur », prévoit-il. Avec quelles conséquences sur la relation médecin-patient et la vie de la personne concernée … ? Voilà la question sur laquelle est restée l'assemblée à la fin de la matinée.

 

Montrez voir votre panier...

La seconde partie de la journée était consacrée à discuter les nouvelles frontières de la santé publique et plus particulièrement le renouvellement des champs de la nutrition et de l'éducation alimentaire. David Buckeridge, épidémiologiste à l'Université MacGill, a rapporté les résultats d'un travail visant à affiner la connaissance des habitudes de consommation alimentaire de la population à l'échelle d'un bassin de vie à partir des données issues du scan des aliments achetés en magasin et des cartes de fidélité des clients. « La plupart des causes de décès prématurés sont liées à la nutrition, or nous manquons cruellement de données sur ce sujet », a-t-il justifié. Par exemple, les données extraites permettent d'étudier quels produits remplacent les sodas après une campagne de prévention incitant à en consommer moins. Et de conclure que le facteur limitant pour ce genre d'étude n'est pas de collecter les données, généralement existantes et accessibles (moyennant finances éventuelles), mais bien de posséder les méthodes d'analyse qui souvent manquent encore.

 

Nouvelle norme ?

L'exposé suivant par Marine Friant-Perrot, juriste à l'Université de Nantes, remettait en cause l'idée selon laquelle les grandes quantités de données disponibles concernant la composition des aliments mais aussi les comportements alimentaires des individus, représentent systématiquement un gain pour la santé et une aide à la décision. Et de relever, d'une part « une surresponsabilité des personnes dans la gestion de leur alimentation et de leur mode de vie, alors que 90% de ce que nous mangeons est déterminé par l'environnement alimentaire », d'autre part « une captation par le secteur marchand du discours nutritionnel et de prévention de l'obésité et du surpoids », avec à la clé la création d'une nouvelle norme alimentaire née dans le giron du Big data. Un constat partagé par Margo Bernelin, juriste elle aussi, dont les travaux sur les textes de loi en lien avec la santé publique indiquent que la collecte de données est devenue une finalité en soi, et non plus un outil au service de la santé publique, et que de grandes entreprises investies dans l'hébergement de données sont entrées dans un rôle d'acteurs normatifs. Pour sûr, la santé publique n'a pas fini de trembler.

 

DataSanté, kesako ?

Initié en 2017 pour une durée de cinq ans, DataSanté est un programme de recherche visant à étudier les questions - éthiques, juridiques, médicales, mathématiques - soulevées par l'utilisation des données massives dans le champ de la santé et l'émergence de la médecine personnalisée. Soutenu par l'Université de Nantes et la Région des Pays de la Loire, il s'appuie sur un réseau interdisciplinaire d'une cinquantaine d'experts en recherche biomédicale (juristes, philosophes, médecins, bio-informaticiens, etc.) De la construction des données aux transformations de la médecine en passant par la mise au point des algorithmes, leurs travaux couvrent tout le spectre de la transformation à l'oeuvre. Colloques et ateliers sont régulièrement organisés pour partager et faire avancer les réflexions. Leurs contenus, ainsi qu'une série de vidéos à caractère pédagogique, sont consultables en ligne : https://www.data-sante.fr/portail-video/

 

×
×