L’utilisation des données numériques dans la lutte contre le Covid-19 est sujette à controverse, comme le montre le débat autour de l’application « StopCovid ». Selon la société de gestion Robeco, des droits numériques solides peuvent cependant contribuer à améliorer la santé publique, et non pas agir comme des obstacles à celle-ci.
Dans la crise sanitaire actuelle, les droits numériques sont mis à rude épreuve. D’un côté, les applications de traçage des individus contaminés peuvent sauver des vies et favoriser le déconfinement, ce qui aidera à son tour l’économie. D’un autre côté, la confidentialité des données personnelles est menacée en cas d’utilisation inappropriée.
On pourrait avancer que la protection de la vie privée peut être sacrifiée au nom du droit à la santé. Mais, comme l’a souligné l’ONG AccessNow spécialisée dans ces questions, des droits numériques solides peuvent en réalité améliorer la santé publique : si ces droits ne sont pas correctement protégés, les gens refuseront en effet l’utilisation volontaire des applications de traçage alors que celles-ci ne pourront être efficaces que si elles deviennent généralisées. Les gouvernements se retrouveront donc incapables de mettre en place des outils de santé numériques efficaces.
Problèmes liés aux droits numériques
Il existe aussi des problèmes moins évidents. Les données de santé font partie des données les plus sensibles : il est donc primordial de les protéger. Leur traçage par les autorités peut être nécessaire pour répondre à la progression d’une épidémie, mais une gestion inappropriée de ces données peut susciter de la méfiance et une moindre utilisation des outils numériques.
Un autre sujet important concerne la surveillance. Les gouvernements peuvent profiter de cette crise pour généraliser la mise en place d’outils de surveillance potentiellement controversés. La reconnaissance faciale, par exemple, est d’ores et déjà utilisée pour surveiller, suivre et contrôler les déplacements pendant la pandémie. La Chine y recourt massivement pour repérer les individus contaminés et identifier les personnes qui ne portent pas de masques. Ces pratiques risquent néanmoins d’enfreindre sérieusement le droit humain élémentaire de respect de la vie privée, sans bénéfice clair pour les populations.
Censure et désinformation
Les entreprises du secteur technologique reçoivent de plus en plus de commandes des gouvernements qui cherchent à restreindre l’accès aux services et à désorganiser les réseaux. Ces perturbations ont pour conséquence de limiter des droits tels que la liberté d’expression, d’empêcher l’accès aux services d’urgence, de santé et de paiement, et de réduire les contacts avec la famille et les proches.
Parfois, ces commandes constituent un autre risque de violation des droits humains lorsqu’elles restreignent la libre circulation de l’information en période électorale, ou quand elles ciblent des régions, des quartiers ou des groupes ethniques particuliers. C’est ainsi que dans le contexte actuel de crise, des autorités chinoises, iraniennes et même américaines tentent de contrôler les informations qui sont diffusées sur les réseaux sociaux par des journalistes ou des responsables de santé.
D’un autre côté, on peut également observer que de nombreuses fausses informations circulent sur le traitement du Covid. En réaction, les grandes plateformes comme Facebook, Google et Twitter orientent les consommateurs vers des sources fiables, par exemple les sites des autorités de santé.
Les entreprises ont un rôle à jouer
Une bonne gestion des enjeux numériques peut permettre aux entreprises de se démarquer, alors qu’en l’absence de cadre réglementaire satisfaisant, ils peuvent constituer un risque : les problématiques liées à la confidentialité, la cybersécurité ou les répercussions sociales de l’IA peuvent en effet nuire à leurs activités.
Ces risques peuvent être évalués non seulement par la solidité des politiques éditoriales et de sécurité des informations, mais aussi par les processus et les résultats en matière de violations et de sanctions. Certaines sociétés sont plus transparentes que d’autres en la matière, alors que la protection des données, la cybersécurité ou les risques sociaux de l’intelligence artificielle sont souvent difficiles à quantifier en termes de revenus ou de facteurs de coûts. D’autres risques comme les biais d’algorithme conduisent à des discriminations ou au non-respect de la vie privée. L’efficacité de la gouvernance d’entreprise en la matière de droits numériques doivent donc aussi être prise en compte. Les entreprises doivent par exemple améliorer les connaissances au niveau du conseil d’administration, ou être transparentes en cas de problèmes ou de violations des droits.
S’il est évident qu’une application capable de suivre et de limiter la propagation du Covid-19 est une bonne idée, son succès dépendra avant tout du degré de protection des droits humains : des politiques et des processus qui respecteront ces droits dans un monde de plus en plus digitalisé sont donc nécessaires.