Tribune de Yves de Montcheuil, VP Marketing de Talend
Les big data font désormais partie du panorama de très nombreux secteurs d’activité. Si les principales innovations qui ont vu le jour ont concerné majoritairement le domaine du marketing, d’autres usages commencent à émerger dans une multitude de secteurs. Par exemple, tout l’écosystème de l’industrie automobile – depuis les constructeurs jusqu’aux conducteurs, en passant par les concessionnaires, les garagistes et les fournisseurs de contenus mobiles – est concerné par l’exploitation des big data.
Un autre secteur est aujourd’hui à la pointe de la création de ces nouveaux usages : la santé. A l’instar de l’automobile, ces innovations sont liées à un autre phénomène à l’origine de la croissance des big data : l’internet des objets.
La presse s’est largement fait l’écho de la palette de nouveautés dans le domaine du « Quantified Self » ou de la quantification de soi : santé connectée, hygiène de vie et entretien du corps, surveillance de l’évolution d’une pathologie, etc. Ce phénomène prend sa source dans le principe simple qu’on ne peut améliorer que ce que l’on peut mesurer.
Dans le passé, le seul indicateur mesuré régulièrement par les individus était le poids. Mais depuis deux ans, on assiste à une véritable explosion du nombre de dispositifs connectés qui nous permettent de mesurer notre rythme cardiaque, notre niveau de stress, les calories brulées, la distance parcourue lors d’un jogging, etc. Combinée à des applications mobiles qui collectent ces données et les présentent de manière conviviale, ces dispositifs offrent une image précise de notre état de santé. Et grâce aux big data, tout un chacun est en mesure de comparer ses propres données avec celles d’autres utilisateurs, afin de se situer par rapport au reste de la population.
Au-delà de la quantification de soi : les pathologies et la recherche
Si la vague du Quantified Self s’adresse en premier lieu aux personnes en bonne santé, les big data n’oublient pas ceux qui souffrent de pathologies, notamment le diabète ou les problèmes cardiaques. Dans ce domaine également, les progrès récents sont spectaculaires. L’objectif étant d’améliorer le confort de vie des patients, ainsi que le suivi de la pathologie et de la qualité du traitement. Par exemple, il existe aujourd’hui trois types de stimulateurs cardiaques (« pacemakers ») : si le dispositif de base régule l’activité cardiaque, d’autres plus évolués récupèrent des données, consultables par le cardiologue lors des consultations.
La dernière génération de pacemakers est même connectée : ils envoient en temps réel à l’hôpital ou au médecin des données qui permettent de réagir rapidement en cas d’anomalie ou tout au moins de contrôler à distance l’état de santé du malade. Même si le service n’existe pas encore, on peut imaginer aisément que dans un avenir proche, le médecin sera en mesure d’envoyer une ambulance s’il détecte un problème en temps réel.
Dans le même esprit, les nouveaux lecteurs de glycémie utilisés dans le cadre des traitements contre le diabète permettent bien sûr de mesurer le taux de glucose du patient, mais également de réguler les injections d’insuline via un contrôle régulier supervisé par le médecin. Là encore, les dispositifs permettent de collecter des données, de les analyser et de les présenter de manière intelligible, et en croisant ces informations avec d’autres, de détecter d’éventuelles anomalies, tout en améliorant les modèles et les algorithmes d’analyse au fil de l’eau.
De son côté, la recherche médicale a de tous temps été basée sur l’analyse d’importants volumes de données. Les tests cliniques sont des études scientifiques permettant de mesurer l’efficacité et la tolérance d’un médicament en conditions réelles, en comparant la réaction des patients soumis ou non au traitement. Il est aujourd’hui possible de réaliser des tests sans obliger le « cobaye » à s’enfermer trois jours dans un hôpital : la mesure du rythme cardiaque, de la température du corps, etc. peut être réalisée à distance, ce qui forme un plus pour le confort des patients et rend même l’étude plus réaliste puisque les patients peuvent vaquer à leurs occupations habituelles.
Enfin, on a beaucoup parlé récemment des limites du système mis en place par Google pour détecter des pandémies (« Google Flu »). Un article du Guardian a jeté un pavé dans la mare des big data en démontrant les limites d’un système basé uniquement sur les recherches des internautes. Si l’idée était intéressante, la réalisation du projet s’est révélée quelque peu simpliste. En revanche, d’autres initiatives aux Etats-Unis et en France sont basées sur la réalité du terrain et tirent parti d’informations remontées par les professionnels de santé. Elles prouvent surtout que la collecte des données est une chose et leur analyse en est une autre.
Ceci traduit l’un des plus importants débats concernant l’analytique : bien que les machines soient très utiles pour traiter des volumes de données qui ne cessent de croître, toute la valeur ajoutée de l’analyse provient principalement du travail des experts métiers, qui, maîtrisant toutes les subtilités d’un domaine particulier, sont les seuls capables de dégager de ces masses innombrables de données une véritable connaissance.
Plus d’informations : www.talend.com
Lectures du moment, tribunes d'experts, management et entrepreneuriat...
Comprendre l'économie durable pour s'y investir