Reconnaissance faciale et droits de l’Homme : l’ONU sonne l’alerte Abonnés
Le Haut-Commissariat de l’ONU aux droits de l’homme (HCDH) a demandé en urgence un moratoire sur certains systèmes d’intelligence artificielle comme la reconnaissance faciale. Une alerte salutaire, à l’heure où la crise sanitaire a justifié un usage frénétique de technologies de contrôle, mais qui a peu de chance d’être suivie d’effets.

Entre les escadrons de drones, les systèmes d’analyse de flux vidéo pour vérifier le port du masque, le traçage numérique et plus récemment le pass sanitaire, la crise sanitaire a été une formidable opportunité pour une classe politique fascinée par l’efficacité du contrôle social à la chinoise. Une dynamique cependant antérieure à l’apparition du Covid-19, mais qui a poussé l’Organisation des nations unies (ONU) à tirer la sonnette d’alarme. La semaine dernière, le Haut-Commissariat de l’ONU a publié un rapport dans lequel il appelle à « instaurer de toute urgence, [des] garde-fous ou un moratoire sur la vente et l’utilisation des systèmes d’intelligence artificielle (IA) », qui constituent un « risque grave d’atteinte aux droits de l’homme ».
Selon la Haute-commissaire des droits de l’homme Michelle Bachelet, « les technologies d'intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques s'ils sont utilisés sans prendre en compte suffisamment la manière dont ils affectent les droits humains. […] Plus les risques pour les droits de l’homme sont élevés, plus les obligations légales relatives à l’utilisation des technologies de l’IA devraient être strictes » a-t-elle conclu avant d’enjoindre la planète à agir : « Puisque l’évaluation et la prise en compte des risques peuvent prendre un certain temps, les États devraient imposer des moratoires sur l’utilisation des technologies potentiellement à haut risque. »
Litanie de libertés bafouées
L’objectif du rapport commandé par le Conseil des droits de l’homme était de mettre en lumière la manière dont « l’IA, y compris le profilage, la prise de décision automatisée et d’autres technologies d’apprentissage automatique, affecte le droit de la population à la vie privée et d’autres droits, notamment les droits à la santé, à l’éducation, à la liberté de mouvement, à la liberté de réunion pacifique et d’association, et à la liberté d’expression ». Une litanie de libertés bafouées...
Contenu réservé aux abonnés
Pour le consulter, vous devez vous connecter ou vous abonner.
Thèmes abordés

Alors qu’Elon Musk temporise son rachat de Twitter en raison d’un nombre excessif de faux comptes, un audit réalisé sur les followers de Joe Biden démontre que près de la moitié d’entre eux sont ne sont pas authentiques. Un problème très récurrent sur Twitter, que le PDG de Tesla pourrait bien utiliser pour revoir son offre à la baisse.
Thèmes abordés

L'Organisation mondiale de la santé (OMS) a publié une étude censée montrer que le nombre de décès associés à la pandémie et à ses conséquences sanitaires serait largement sous-estimé, notamment en Afrique. Basée sur des modèles mathématiques et sur des présupposés douteux, elle ne dévoile en réalité pas grand chose.
Thèmes abordés

La Finlande, au coeur de l’actualité en raison de sa volonté de rejoindre l’OTAN à la faveur du conflit russo-ukrainien, est aussi un terrain d’expérimentation du développement d’outils très avancés de collectes des données numériques des habitants. Une approche qui se veut proactive, en partenariat avec le Forum économique mondial dans le cadre du « centre pour la quatrième révolution industrielle » de Davos qui semble ainsi mettre en application certains principes du Great Reset.
Thèmes abordés

Les nombreuses images montrant le confinement brutal dont sont victimes les habitants de Shangai — y compris les expatriés — entraînent de nombreuses réactions d’indignation. Même sur place, où les habitants se révoltent généralement assez peu, l’idée que ces mesures sont politiques et non sanitaires fait désormais son chemin, alors que Pékin redoute de vivre une situation similaire d’ici quelques jours.