IA

Au fait, c’est quoi une intelligence artificielle ?

Thibault GRANDJEAN • grandjean.thibault@gmail.com

© alphaspirit – stock.adobe.com, © Framestock – stock.adobe.com, © Vesuvius challenge, © Adidas, © StockPhotoPro – stock.adobe.com

Pour certains, l’IA est la technologie la plus dangereuse de notre temps. Pour d’autres, elle est une bulle qui va faire pschitt, comme elle l’a déjà fait par le passé. Pour d’autres encore, elle est une technologie totale, créatrice de croissance économique et émancipatrice de l’être humain. Mais à la fin, de quoi parle-t-on exactement ?

 
Voici ce que répond ChatGPT lorsqu’on lui demande ce qu’est une intelligence artificielle: «Une intelligence artificielle (IA) est un ensemble de théories, de méthodes et de technologies visant à créer des systèmes capables de réaliser des tâches normalement associées à l’intelligence humaine. Ces tâches incluent la compréhension du langage naturel, la reconnaissance des formes et des images, la prise de décision, la résolution de problèmes et l’apprentissage.»

Cette déclaration est suivie de définitions plus techniques, de questions éthiques qu’elle suscite, ainsi que d’exemples d’applications, comme l’analyse d’image, la détection de fraude bancaire, les véhicules autonomes ou encore les chatbots. Si cette réponse semble un peu bateau, et décidément trop fade au regard des passions qu’elle déclenche, c’est sans doute parce qu’elle dit si peu de choses de ce qu’est véritablement une IA, de son fonctionnement, de ses faiblesses, ou de ses origines.

«Bien avant l’informatique, on se posait déjà des questions sur la manière dont les humains réfléchissent, et s’il était possible de reproduire artificiellement cette façon de fonctionner, raconte Benoît Frenay, professeur en IA à l’Université de Namur. Bien qu’elle ne se nommât pas encore de cette manière, les débuts de l’IA moderne se situent en 1943, lorsque McCulloch et Pitts élaborent les premiers neurones artificiels.»

Lorsqu’on tente de reproduire la réflexion humaine, quoi de plus évident, en effet, que de tenter d’en simuler son premier composant, le neurone ? Depuis ces débuts, les chercheurs en IA ont exploré différentes logiques, et certaines sont encore utilisées couramment, comme par exemple dans le système GPS, ou le filtre anti-spam. Mais les neurones artificiels sont redevenus, depuis quelques années, particulièrement tendance, avec l’apparition de ce qu’on appelle le deep learning.

Calculs en série

Bien plus sommaires que les nôtres, les neurones artificiels n’ont gardé de l’original qu’une seule fonction: ils émettent un signal en fonction des informations qu’ils ont reçues. Et pour comprendre comment ils fonctionnent, prenons l’exemple d’une petite machine chargée de prédire si, oui ou non, vous regarderez le match de ce soir à la télévision. Pour se décider, elle a besoin de plusieurs informations: êtes-vous présent ce soir chez vous ? S’agit-il d’un match de votre équipe préférée ? Vos amis sont-ils disponibles pour le regarder avec vous ? etc. De plus, chacune de ces informations se voit attribuer un poids, c’est-à-dire une importance relative: peu importe en effet qu’il s’agisse d’un match important pour vous, alors même que vous êtes absent pour cause de rendez-vous avec votre moitié. Mais peut-être aussi que du temps passé avec vos ami.e.s est au fond plus important que les clubs présents sur le terrain… Une fois toutes ces informations combinées, le neurone peut établir une prédiction.

S’il s’agit là d’un système particulièrement rudimentaire, augmenter significativement le nombre de neurones permet de traiter un grand nombre d’informations, et ainsi réaliser de nombreuses prédictions ou tâches de façon automatique: «Ces neurones artificiels sont connectés les uns aux autres, et organisés en couches, décrit Benoît Frenay. Prenons l’exemple d’une analyse d’image: la première couche reçoit les données brutes de chaque pixel: sa couleur, sa luminosité, son emplacement dans l’image, etc. Chaque neurone va calculer une certaine valeur, qui va être combinée aux autres et être transmise à la couche supérieure, et ainsi de suite. Petit à petit, les différentes couches vont reconnaître des motifs, jusqu’à la dernière qui doit déterminer ce que représente l’image.»

Bien sûr, le réseau de neurones ne «sait» pas ce qu’est l’image, et encore moins du premier coup. Comme nous, il doit être entraîné à réaliser la tâche demandée. «Pour cela, on utilise des données que l’on connaît déjà, développe le chercheur. Imaginons que je veuille utiliser un réseau de neurones pour détecter si une image contient un chat ou un chien. Je vais lui soumettre plusieurs milliers d’images de chats et de chiens. À chaque fois, si la prédiction est erronée ou s’il n’est pas assez confiant, on va faire ce qu’on appelle une rétropropagation. L’information fait machine arrière, afin de déterminer l’importance relative qu’a eu chaque connexion entre deux neurones dans la décision finale. Chaque connexion est ensuite adaptée (renforcée ou affaiblie) pour améliorer la réponse du réseau de neurones. Puis on recommence et ainsi de suite, jusqu’à ce que la proposition de la machine soit exacte: «ceci est l’image d’un chat» si l’image contient un chat (et vice versa). Mais à aucun moment la machine ne décide seule de la manière d’apprendre. Toutes les procédures de calcul, de propagation et rétropropagation de l’information, sont établies par des algorithmes que nous, en tant que spécialistes en IA, concevons.»

Quelle intelligence ?

Tout l’intérêt de ces machines apprenantes, selon le Pr  Frenay, réside dans leur capacité à traiter des sommes d’informations trop importantes pour l’être humain. «Selon l’objectif, elles peuvent être utilisées pour trier et explorer une masse de données de façon à trouver des liens. Elles peuvent aussi remplir une tâche donnée, comme reconnaître une image qu’elles n’ont jamais vue. Ainsi, une caméra embarquée dans une voiture capable de reconnaître des objets ou des animaux peut en déclencher bien plus rapidement que moi le freinage d’urgence.»

Si les réseaux de neurones sont devenus extrêmement populaires, c’est en raison de leur capacité à apprendre à partir de n’importe quelles données. Grâce à vos données personnelles et un historique de visionnage détaillé, l’IA de Netflix peut ainsi vous proposer des séries parfaitement adaptées à vos goûts. Après avoir visionné quantité d’images médicales, des systèmes dans les hôpitaux sont devenus capables de repérer automatiquement des embolies pulmonaires, ce qui représente un gain de temps considérable dans un contexte d’urgence. Et via l’analyse de quantités de textes, de nombreuses entreprises sont désormais dotées de chatbots capables de répondre à la plupart de nos questions les plus basiques 24 h sur 24.

Face à de telles prouesses, il est cependant important de rester lucide: «Ces machines donnent l’impression d’avoir affaire à quelque chose d’intelligent, une illusion renforcée par le terme même d’intelligence artificielle, estime Benoît Frenay. De la même manière, les réseaux de neurones font référence à un cerveau, alors qu’en réalité, ce qui s’y passe est très éloigné de notre biologie.»

D’autant plus que les réseaux de neurones sont opaques, et qu’il est difficile de savoir ce qu’ils apprennent réellement. L’un des exemples les plus connus est celui du husky: un réseau de neurones est chargé de reconnaître l’animal sur une image. Très vite, il réussit sa tâche à la perfection, jusqu’à ce qu’on lui présente une image jamais vue: celle d’un husky se promenant dans la rue. Là, le système donne une réponse négative. Et pour cause: plutôt que les chiens, il n’avait appris à reconnaître que la neige présente sur chaque image ayant servi pour l’entraînement. «L’exemple prête à sourire, mais cela peut être plus insidieux, insiste le Pr Frenay. Tout comme la neige est présente sur toutes les images, il est arrivé qu’un système reconnaisse le bruit typique de l’image produite par un appareil médical pour en déduire la pathologie associée, et non la pathologie elle‑même.»

En d’autres termes, les données utilisées pour entraîner ces machines sont cruciales. Le système ne connaissant du monde que ce qui lui est fourni, ces dernières vont alors jouer un rôle très puissant de norme. «Les données doivent être représentatives de ce qui va être utilisé par la machine, avertit Benoît Frenay. Par exemple, une chercheuse, Timnit Gebru, a montré il y a quelques années (1) que les systèmes de reconnaissance faciale marchaient très bien pour les hommes blancs, beaucoup moins pour les visages de femmes ou de personnes racisées. Pourquoi ? Parce que dans les filières informatiques américaines de l’époque, les hommes blancs sont surreprésentés. Donc la machine n’a jamais été confrontée à des visages féminins, ou des peaux de différentes couleurs.»

Un automatisme douteux

Les humains, même ceux de bonne volonté, sont pétris de préjugés, plus ou moins racistes, sexistes, et xénophobes. Il n’est donc pas surprenant que ces défauts se retrouvent dans les machines qu’ils conçoivent, et les exemples en la matière sont légion. Malheureusement, le problème se pose avec d’autant plus d’urgence que ces systèmes automatisés se répandent dans la société à grande échelle, avec de moins en moins de garde-fous humains. «En théorie, lorsqu’une machine émet une prédiction, elle doit émettre également une mesure de confiance de cette prédiction, éclaire Benoît Frenay. Mais il peut arriver que la machine soit mal calibrée et donc bien trop confiante. Ce qui va induire en erreur son utilisateur.»

Dès lors, comment faire pour mettre à disposition du public des IA dignes de confiance ? «C’est une des grandes questions sur lesquelles travaillent beaucoup de chercheurs, y compris en Wallonie et via l’institut Trail, explique Benoît Frenay. Jusqu’il y a peu, trop de gens travaillaient en silo. D’un côté, les informaticiens concevaient les IA, et de l’autre, les utilisateurs ou les chercheurs d’autres disciplines cherchaient à travailler avec l’IA, sans trop comprendre comment elle fonctionne. Aujourd’hui, on essaie de décloisonner un peu tout cela, pour que les chercheurs se parlent entre eux. Par exemple, en collaborant avec des juristes, nous nous sommes rendus compte qu’un certain nombre de questions qu’ils se posaient n’étaient même pas traitées par nos systèmes.» Discuter, se confronter à l’autre, douter… Autant de notions qui ne sont pas (encore) automatisables. 

(1)    https://gs.ajl.org (en anglais)

 

UN PEU D’HISTOIRE

Les IA comportent de nombreux biais sexistes et racistes, en raison de la façon dont elles ont été entraînées, voire conçues. Régulièrement, la presse se fait écho de différentes histoires où des machines ont été discriminantes envers des personnes racisées. Ainsi, les algorithmes de reconnaissance faciale fonctionnent très bien pour les visages blancs, beaucoup moins pour les personnes noires. La reconnaissance automatique des visages est une technologie récente, mais l’histoire, elle, semble se répéter au cours des années: alors que les photographies couleurs sont accessibles au grand public depuis les années 1930, il a fallu attendre les années 1990 pour que les peaux noires puissent être capturées avec autant de nuances et de reliefs que les peaux blanches. La cause: la photo qui servait d’étalon pour la fabrication des bobines représentait une femme blanche, dénommée Shirley. Et si vous êtes un amateur de cinéma, vous aurez sans doute constaté que dans les anciens films, les acteurs noirs transpirent souvent beaucoup. Cela était dû à la chaleur des spots braqués sur eux, car les pellicules étaient bien moins sensibles à la couleur de peau des acteurs.

L. Roth, Canadian journal of Communication, 2009

L’acteur Sidney Poitier en 1950


01

NEWS IA

Une IA pour déchiffrer les papyrus d’Herculanum

La ville d’Herculanum, détruite par l’éruption du Vésuve en l’an 79 de notre ère, est moins connue que sa «grande sœur», Pompéi. Pendant plus de 1 700 ans, une gangue volcanique y a conservé une collection inestimable de papyrus, alors rangés dans une bibliothèque. Malheureusement, la lave en fusion a transformé ces derniers en charbon de bois. Toute tentative de les dérouler les transforme en poussière. Depuis des années, des équipes de recherche rivalisent d’ingéniosité pour tenter de lire le contenu de ces papyrus sans les ouvrir, notamment grâce à des CT-scan, mais sans succès. Car contrairement à d’autres papyrus déjà déchiffrés de cette manière, les lettres ont été tracées grâce à du carbone et non du métal, et le contraste est trop faible pour y discerner quoi que ce soit. En combinant les scanners à un modèle d’apprentissage automatique, de récents travaux ont permis une grande avancée. En effet, des scientifiques ont remarqué des zones craquelées signalant la présence de l’encre. En entraînant des modèles de reconnaissance automatique sur ces zones, ils ont pu déchiffrer 2 000 caractères d’un texte probablement écrit par le philosophe Philodème, qui parlait du plaisir. Si cette technique venait à se généraliser, elle changerait complètement le travail des papyrologues du monde entier.

02

Des arbitres virtuels

Si vous avez regardé l’Euro de football en juin dernier, peut-être avez-vous remarqué comme un petit électrocardiogramme en bas à droite de l’écran, représentant les vibrations du ballon. Ce dernier contenait en effet des senseurs capables de donner sa localisation et son mouvement, 500 fois par seconde ! Cet outil faisait partie du VAR pour Video assistant referees (ou assistants-arbitre vidéo), un système d’IA semi-automatique venu épauler les arbitres en chair et en os. Il comprenait également un ensemble de 10 caméras, capable de tracer en temps réel 29 points sur le corps de chaque joueur. Cette technologie devait notamment permettre d’aider l’arbitre à déterminer si l’un des joueurs se trouvait en position de hors-jeu (un joueur est considéré hors-jeu si n’importe quelle partie de son corps se trouve au-delà de la ligne virtuelle constituée par le dernier défenseur de l’équipe adverse au départ du ballon). Alors que cette règle est soumise à l’appréciation de l’arbitre, l’utilisation du VAR doit permettre d’accélérer les décisions tout en les rendant plus justes. Le football, comme les autres sports, repose de plus en plus sur une collecte toujours plus massive
de données devant servir à l’amélioration de la performance des joueurs.

   S. Kulkarni, Nature 2024

03

Ce que les gens font vraiment avec l’IA

Lorsque ChatGPT a été lancé il y a bientôt 2 ans, nombre de techno-prophètes nous ont vendu cet outil comme le futur du travail, capable de prendre en charge toutes nos tâches les plus rébarbatives, et ainsi augmenter notre productivité. Mais aujourd’hui, qu’en est-il vraiment ? En analysant un million de requêtes ChatGPT, une étude montre que le premier usage (et de loin) qu’en font les utilisateurs concerne en fait la créativité: ils demandent à la machine des fictions, de la poésie ou ont des conversations sous forme de jeu de rôle. Et ces dernières sont d’autant plus importantes lorsqu’elles sont à caractère sexuel, au point d’en faire le 2e usage le plus populaire. Une utilisation qui fait dire aux auteurs que nous commençons à intégrer les IA dans nos vies comme des ami.e.s, des amant.e.s, ou encore des thérapeutes. Et cette question ne concerne pas seulement ChatGPT. Character.ai, un site qui vous permet d’entretenir une conversation avec un bot inspiré d’un personnage fictif, comme Drago Malefoy dans Harry Potter, compte 475 bots thérapeutes. Le plus connu, Psychologist, totalise 154 millions de conversations ! Cet usage des IA doit plus que jamais être pris au sérieux par les autorités de régulation.

   Longpre et. Al, ArXiv, 2024

Share This