Technologie

Le visage des temps modernes

Thibault Grandjean • grandjean.thibault@gmail.com

© ra2 studio – stock.adobe.com, ©Pixel-Shot – stock.adobe.com,
©AFP, ©Andrey Popov – stock.adobe.com, © 2021 Freewrite Store

Depuis quelques années, la reconnaissance faciale automatique par ordinateur a quitté les laboratoires pour s’immiscer dans notre vie quotidienne. Aussi effrayante que fascinante, cette technologie fait craindre l’émergence d’une société de surveillance généralisée, où nos moindres faits et gestes seraient scrutés par des caméras omniprésentes. Pourtant, à y regarder de plus près, le tableau serait bien plus nuancé…

 

En cette année 2021, difficile d’échapper à la série phare de Netflix, Lupin, dans l’ombre d’Arsène, où Omar Sy campe un personnage inspiré du gentleman-cambrioleur créé par Maurice Leblanc. Impossible, se dit-on, que cet homme aux mille visages qu’est Arsène Lupin puisse exister aujourd’hui, dans nos sociétés où l’on compte tant de caméras de surveillance. Et pourtant, lors de son évasion de la prison de la Santé, Arsène Lupin trompe un système qui n’est pas sans rappeler nos temps modernes: le service d’anthropométrie, également appelé Bertillonnage, ancêtre de la biométrie.

Mis au point en 1875 par Alphonse Bertillon, ce système soumettait les criminels à une série de mesures corporelles afin de les identifier: largeur de la tête, longueur de l’oreille droite, du pied gauche, etc. Basé sur l’improbabilité statistique que 2 personnes partagent exactement les mêmes mesures, et accompagné de photographies sous toutes les coutures, il permettait à la police de garder un suivi des prévenus et autres condamnés.

Presque 150 ans plus tard, en 2017, à Londres, la police teste un tout nouveau système de reconnaissance faciale lors du carnaval de Notting Hill, qui attire près d’un million de visiteurs sur 2 jours. But de la manœuvre: reconnaître automatiquement dans cette foule d’éventuels suspects recherchés par les services de police. Malheureusement, les résultats de l’expérience n’auraient guère effrayé Arsène Lupin: 35 faux-positifs, et l’arrestation d’un innocent.

Cet échec criant vient mettre en lumière le manque de précision d’un dispositif que d’aucuns présentent pourtant comme le futur outil d’une société de surveillance généralisée, où chacun de nos gestes serait décortiqué numériquement. Ainsi, de l’autre côté du globe, en Chine, le gouvernement utilise massivement la reconnaissance faciale pour l’encadrement de sa population. La société Amazon vend à la police américaine son logiciel Rekognition, en vantant une précision de plus de 90%. Le logiciel de reconnaissance automatique de visage de Facebook atteint 96% de réussite. Comment de tels écarts peuvent alors co-exister ?

Un système de reconnaissance faciale, par définition, n’est jamais sûr à 100% que tel visage repéré dans la foule correspond à telle personne

Pour le comprendre, il faut revenir au mode de fonctionnement de la technologie de la reconnaissance faciale. Celle-ci se fait en plusieurs étapes. La première consiste, pour un système, à détecter un ou plusieurs visages, présents dans une image ou une séquence vidéo. Au final, les algorithmes en charge de cette tâche fonctionnent de façon assez similaire à notre propre cerveau. Ils ont appris à reconnaître plusieurs traits généraux qui vont toujours ensemble: les yeux, le nez, la bouche. Une fois le visage localisé, le système va extraire un modèle géométrique fait de milliers de points, qu’on nomme un gabarit. La relation entre chaque point est censée être unique pour chacun d’entre nous, au même titre que nos empreintes digitales qui se ressemblent sans jamais être les mêmes. Enfin, ce gabarit peut être comparé à d’autres, présents dans une base de données, afin d’établir une éventuelle correspondance.

 
Des finalités différentes

La reconnaissance faciale est un continuum technologique, qui se situe entre 2 extrêmes. Le premier relève de l’authentification d’une personne. Autrement dit, on cherche à vérifier que cette dernière est bien celle qu’elle prétend être. Le système compare son visage à un gabarit pré-enregistré. En raison de sa fiabilité, cette technique est de plus en plus présente dans notre quotidien. En 2017 par exemple, Apple, rapidement imité par ses concurrents, propose aux détenteurs d’iPhone de le déverrouiller d’un simple regard. Le système compare en une seconde le visage présenté à celui enregistré dans la mémoire du téléphone. Dans les aéroports, comme celui de Bruxelles, des portiques de sécurités comparent notre visage à celui contenu dans notre carte d’identité ou notre passeport. En Europe, une telle pratique tend d’ailleurs à se généraliser, depuis un accord entre les différents membres de l’espace Schengen datant de 2018.

Depuis 2017, Apple propose d’utiliser la  reconnaissance faciale pour le déverrouillage de l’iPhone

Vérification par reconnaissance faciale VeriScan au moment de l’embarquement

L’autre extrémité du spectre de la reconnaissance faciale se trouve du côté de l’identification. Elle consiste à identifier une personne au milieu d’un groupe, via des photos ou des caméras de vidéosurveillance. Dans ce cas, le système compare les visages filmés, parfois en temps réel, à ceux contenus dans une base de données, et cherche à établir une correspondance. On peut alors le coupler à un fichier de personnes recherchées, et ainsi identifier ces personnes, suivre leurs déplacements, et dresser une liste de leurs contacts. La police de nombreuses villes et pays réclame l’essai et l’adoption de ces dispositifs, vus comme le Graal en termes d’identification et de surveillance. Pourtant, leur fiabilité est loin d’avoir été pleinement démontrée, bien au contraire, au vu du piètre bilan de la police londonienne.

Ce manque de fiabilité tient au contraste qu’il existe entre les conditions optimales de l’authentification d’une personne, et la réalité si nuancée de la vie de tous les jours. Lorsqu’une personne passe un portique «intelligent» à l’aéroport, elle se trouve dans des conditions idéales: à bonne distance, de face, sans obstruction et sans ombre qui fausseraient les résultats. Mais lorsqu’une caméra de surveillance capte le visage d’une personne, cette dernière regarde rarement en sa direction. Qui plus est la météo, ainsi que le moment de la journée où est prise l’image vont grandement influencer la luminosité. Le port de lunettes, de chapeau ou de masque peut également constituer des obstacles. Pour que l’image puisse être analysée par l’ordinateur, celui-ci va d’abord devoir procéder à une rotation artificielle du visage, ainsi qu’une correction de la luminosité avant d’établir un gabarit. Gabarit qui, du coup, ne sera qu’une approximation, d’autant plus que les caméras de surveillance disposent souvent d’une résolution médiocre, pour ne pas surcharger le serveur.

Un système de reconnaissance faciale, par définition, n’est donc jamais sûr à 100% que tel visage repéré dans la foule correspond à telle personne. Il ne fait qu’établir des comparaisons, qui déclenchent une alerte lorsqu’un certain seuil est franchi. À charge alors de la personne derrière les écrans de déterminer si cette comparaison est plausible ou non.

En conditions réelles, les performances de la reconnaissance faciale chutent rapidement

Un sexisme bien ancré

Dès lors, on comprend bien que les différents obstacles rencontrés par le système en conditions réelles diminuent drastiquement le taux de réussite. D’autant plus qu’il semblerait que nous ne sommes pas tous égaux face à la technologie. Une étude de 2019, en particulier, a fait grand bruit. Menée par un chercheur du Massachusetts Institute of Technology, elle a montré que les systèmes commerciaux comme Rekognition d’Amazon n’étaient surtout fiables que face à des hommes blancs. Confrontés à des personnes de couleur ou des femmes, les résultats chutaient notablement. Face à des femmes noires, le taux d’échec pouvait atteindre 35% ! Dans une autre étude, les chercheurs ont montré que ce même système d’Amazon avait confondu des sénateurs noirs américains avec des criminels recherchés.

Les machines, que nombre d’entre nous voient comme impartiales car dénuées d’émotions, se révèlent ainsi être sexistes et racistes. Mais en réalité, cela n’est guère étonnant quand on considère leur mode de fonctionnement. Les progrès réalisés ces dernières années en termes de reconnaissance faciale sont largement dus, d’une part, à l’intelligence artificielle et à une technique qu’on nomme le Deep Learning, et d’autre part à l’émergence des réseaux sociaux. Grâce à ces derniers, des millions de photos, et donc de visages, sont devenus publiques sur Internet. Une manne pour les chercheurs en intelligence artificielle, qui ont pu ainsi établir d’immenses bases de données afin d’entraîner leurs algorithmes. Ceux-ci sont basés sur des réseaux de neurones artificiels qui cherchent à établir des points communs entre toutes les images qu’on leur présente. Mais en réalité, ces algorithmes sont tout sauf intelligents. Là où un enfant reconnaît un être humain après en avoir vu quelques-uns, ce sont des milliers que les algorithmes doivent analyser pour parvenir à les catégoriser en tant que tels.

Et si le nombre d’images est important, leur qualité l’est tout autant. Il est indispensable que ces images reflètent la réalité dans toute sa diversité. Si on cherche à faire comprendre à un algorithme ce qu’est un visage, mais en le nourrissant uniquement d’images d’hommes blancs, il y a fort peu de chances qu’il parvienne à analyser correctement la photographie d’une femme, a fortiori celle d’une femme noire, asiatique ou sud-américaine. Au final, les biais de la machines sont les biais de pensée des programmeurs. Jusqu’à récemment, il ne leur était visiblement jamais venu à l’idée que si les données n’étaient représentatives que d’une moitié de l’humanité, le programme serait incapable d’en reconnaître l’autre moitié. 

Émotions et pseudo-sciences

La plupart des compagnies à l’origine de ces algorithmes disent travailler à corriger ces erreurs pour rendre leurs machines plus efficaces. Mais les limites de la reconnaissance faciale ne sont pas uniquement techniques. Elles sont également éthiques. Entre ces 2 extrêmes que sont l’authentification et l’identification, il existe tout un panel d’expérimentations, dont certaines semblent tout droit sorties d’un mauvais film.

Dans les années 1970 et 1980, Paul Ekman, un psychologue de renom, a établi une série d’expériences censées démontrer que certaines émotions comme la joie, la tristesse, le dégoût, la peur ou encore la surprise sont universelles, et que ces émotions présentent des expressions faciales caractéristiques. Aujourd’hui, cependant, de plus en plus de scientifiques contestent le protocole de ces expériences. Cela n’a, bien sûr, pas empêché des sociétés comme Amazon de s’emparer des travaux d’Ekman, pour tenter de déceler les émotions de leurs consommateurs afin d’orienter leurs achats. Sauf qu’elles ne prennent que les résultats qui les arrangent. En effet, aucun chercheur n’a un jour affirmé que nos visages exprimaient systématiquement les émotions qui nous habitent, et encore moins en public. Mais il y a pire.

En septembre 2019, 4 chercheurs ont demandé à Wiley, un grand éditeur de journaux scientifiques, le retrait d’un article portant sur des algorithmes entraînés à distinguer les visages de personnes appartenant à la minorité Ouïghour, persécutée par le gouvernement chinois. En 2017, des chercheurs de l’Université de Stanford ont utilisé un système de reconnaissance faciale afin de prédire l’orientation sexuelle des participants. Et en mai 2020, l’Université de Harrisburg en Pennsylvanie, aux États-Unis, a déclaré que leurs chercheurs avaient développé un logiciel de reconnaissance faciale «non raciste» (sic) capable de prédire avec 80% de réussite si une personne avait des chances de devenir un criminel.

Toutes ces études montrent que le développement technologique ne peut faire l’économie d’une réflexion éthique, afin de déterminer si l’orientation qui leur est donnée est seulement compatible avec le monde dans lequel nous souhaitons vivre. En Europe, le Règlement Général pour la Protection des Données, le fameux RGPD, stipule que nos visages sont des données biométriques, sensibles, et donc que leur protection est tout sauf accessoire. Difficile, en effet, de lui donner tort.

  

Techno-Zoom

Marre des écrans sur lesquels nous passons l’essentiel de nos journées ? Et si vous remontiez le temps, pour revenir à l’époque des bonnes vieilles machines à écrire ? Fondée en 2014, la société AstroHaus s’était donnée pour but de fabriquer une machine à écrire 2.0 débarrassée des distractions d’Internet, afin que l’utilisateur ne se concentre que sur une seule tâche: écrire. Ainsi est née Freewrite, une drôle de machine à écrire portative, dotée d’un clavier mécanique et d’un écran à encre électronique, comme celui d’une liseuse, et donc dépourvu de rétro-éclairage. Pas de navigateur Internet, pas de dictionnaire, le clavier ne dispose même pas de flèches pour naviguer dans le texte. La seule concession à la modernité consiste en une connexion wi-fi afin de sauvegarder automatiquement vos écrits dans le Cloud, et une batterie capable de durer plusieurs semaines. Vous l’aurez compris, cette machine est destinée à écrire, et non à éditer un document. Et si vous avez besoin d’un modèle de poche, AstroHaus a sorti depuis peu le modèle Traveler, moitié moins grand qu’un ordinateur portable. Comptez quand même près de 500 euros. La concentration a un prix.

https://getfreewrite.com

Share This