Essaim de robots de type «e-puck», conçus pour la recherche.

IA

Plus forts à plusieurs: la robotique en essaim

Thibault GRANDJEAN • grandjean.thibault@gmail.com

© Mauro Birattari, IRIDIA-ULB, © Marco Dorigo, IRIDIA-ULB, Carnegie Mellon University, © Framestock -stock.adobe.com, © ImageFlow – stock.adobe.com, © A6K

En raison des progrès combinés de la miniaturisation et de la puissance de calcul, les robots arrivent peu à peu dans notre quotidien. Mais alors que de nombreuses firmes nous promettent des androïdes ultra-sophistiqués, boostés à l’intelligence artificielle, d’autres branches de la robotique profitent également du boom actuel de l’IA. Plus discrètes, moins tape-à-l’œil, mais sans doute, un jour, tout aussi efficaces

 
La science-fiction a saturé nos imaginaires de robots androïdes, capables de prouesses individuelles souvent supérieures à celles d’un être humain. Et le monde actuel de la Tech semble prendre le même chemin. Des robots à notre image, plus forts, plus rapides, plus précis… Et cela, en dépit des problèmes que posent une telle conception: ces robots sont coûteux à produire, et donc à remplacer, même en partie, en cas de défaillance. Sans parler des problèmes de sécurité: quelles seraient les conséquences d’une prise de contrôle malveillante de tels robots ?

Un nouveau nom semble même avoir été trouvé pour vendre ces robots équipés des dernières puces d’intelligence artificielle: Physical AI, pour IA Physique, c’est-à-dire capable d’interagir avec le monde qui l’entoure. Au Consumer Electronic Show 2026, le grand salon d’électronique grand public qui se tient chaque année à Las Vegas, les Physical AI étaient partout.

Et pourtant, il existe d’autres manières de concevoir des robots. Regardez les fourmis. Chacune d’entre elles a peut-être des aptitudes limitées. Mais collectivement, elles sont capables de comportements particulièrement élaborés, comme une recherche très efficace de nourriture, la construction d’une fourmilière résistant aux conditions climatiques, et même… de construire des ponts ! Le tout, sans aucune intelligence supérieure aux commandes. Et si une fourmi vient à manquer, la colonie poursuit son existence, imperturbablement.

C’est ce mode de fonctionnement qui a inspiré une discipline de la robotique, que l’on appelle la robotique en essaim. Elle se base sur des robots rudimentaires qui obéissent à des règles simples mais qui, ensemble, peuvent faire preuve d’un comportement complexe.

1. Expérience menée avec des robots e-pucks …

2. … pour accéder de façon coordonnée dans des lieux difficilement accessibles.

Une intelligence de groupe

Longtemps, ces robots sont restés une branche relativement méconnue de la robotique, dont Marco Dorigo, directeur de l’IRIDIA, le laboratoire d’Intelligence Artificielle de l’ULB, est un des pionniers: «Certains spectacles de drones, par exemple, ont pu donner l’impression que les essaims de robots sont désormais sortis des laboratoires, mais en réalité il n’en est rien, explique le chercheur. Dans ces cas-là, les robots sont soit pilotés à distance, soit programmés à l’avance. Or, dans notre domaine, l’autonomie de chaque robot est essentielle, car c’est elle qui permet l’émergence de comportements collectifs, qui sont très difficiles à obtenir en contrôlant ou en programmant les robots individuellement

Dans un essaim, chaque robot interagit localement avec ses voisins et avec le contexte environnemental, ce qui peut conférer au système une grande flexibilité et une forte capacité d’adaptation à son environnement . En outre, la redondance entre les robots fait qu’aucun n’est essentiel au fonctionnement de l’ensemble, ce qui renforce la résistance de l’essaim aux défaillances et aux tentatives d’intrusion malveillante.

Toutes ces propriétés rendent les essaims de robots particulièrement intéressants pour des domaines comme la construction, réputés difficiles à automatiser, notamment en raison des imprévus et des conditions dangereuses, ou l’exploration de zones difficiles d’accès, comme des zones de décombres par exemple. Et ce d’autant plus qu’il est possible de combiner différents types de robots, comme des drones volants à des robots terrestres, démultipliant ainsi les possibilités.

Les essaims de robots, dont les recherches ont débuté dans les années 1990, sont désormais capables de comportements assez sophistiqués, qui émergent de manière complètement décentralisée. Mais en dépit de ces succès, cette branche particulière de la robotique n’est, pour l’instant, jamais vraiment sortie des laboratoires. «Lorsqu’on cherche à concevoir des comportements collectifs auto-organisés pour des essaims de robots, chaque robot reste autonome. Il est donc très difficile de prévoir ou de calculer à l’avance le comportement du groupe dans son ensemble. Les chercheurs doivent alors s’appuyer sur de nombreux essais et ajustements successifs, un processus long et contraignant, qui rend ces comportements difficiles à modifier une fois les robots déployés sur le terrain, dévoile Mary Katherine Heinrich, chercheuse qualifiée FNRS à l’IRIDIA. L’un de nos projets actuels, intitulé “Self-Organizing Nervous Systems for Robot Swarms”, vise précisément à contourner ce problème

L’explosion de l’IA

Selon les 2 chercheurs, le récent boom de l’industrie de l’IA est en train de changer la donne, et rapproche un peu plus leurs recherches du monde réel. «Aujourd’hui, il est possible d’envisager la construction de robots assez puissants, capables d’embarquer une quantité significative d’intelligence, dévoile Mary Katherine Heinrich. En conséquence, de nombreux projets de recherche tentent de tirer parti de ces nouveaux outils. Mais cela pose de nombreuses questions, car la robotique en essaim s’est jusqu’à présent appuyée sur des robots dotés d’une intelligence relativement simple et d’une autonomie limitée. Or, ces nouveaux outils sont tout sauf simples et les conséquences de cette complexité accrue au sein des essaims de robots restent encore largement inexplorées.»

«Pendant longtemps, notre champ de recherche s’est heurté à 2 grandes limitations, le logiciel et le matériel, ajoute Marco Dorigo. Les robots ont ainsi longtemps été extrêmement limités par leur capacité à reconnaître leur environnement, et à agir en conséquence. Or, le boom récent de l’IA s’est accompagné de l’arrivée sur le marché de nouveaux outils très puissants, notamment basés sur les grands modèles de langage (Large Language Model en anglais ou LLM) qui ont en grande partie levé cette limitation. En ce qui concerne le matériel, nos robots n’ont bien sûr pas l’agilité et les capacités d’animaux, et c’est encore un grand pas à franchir, mais nous sommes bien plus proche d’une application à nos recherches que nous ne l’avons jamais été

Les LLM, par leur versatilité, pourraient notamment permettre à un essaim de robots de mieux faire face à une situation non prévue, et donc non programmée, ce qui est actuellement une des grandes difficultés de la discipline. Une solution actuellement testée par l’équipe du Pr Dorigo: «Nous avons mené une expérience où les robots étaient dotés d’un LLM, précise-t-il. Et leur programmation spécifiait qu’en cas d’obstacle à leur mission, ils devaient faire appel au LLM afin que ce dernier génère du code informatique et ainsi les reprogrammer directement. De plus, à chaque fois qu’un robot recevait de l’aide, ce programme était automatiquement transféré à ses voisins. Il s’agit ici d’un premier pas vers une véritable autonomie des robots, même si, pour le moment, ils ne sont pas encore capables de trouver une solution à tous les problèmes possibles et n’ont été testés que sur des exemples relativement simples.»

Le revers de la complexité

Plus un robot est intelligent, plus ce dernier a de possibilités d’action, et donc de possibilités que quelque chose ne se déroule pas comme prévu. Aussi, afin d’ajouter une couche de sécurité, les chercheurs de l’IRIDIA travaillent actuellement sur un système utilisant la blockchain. Selon cette technologie, chaque participant à un réseau est également un gardien des actions du réseau. Lorsqu’un participant réalise une action, cette dernière est immédiatement inscrite dans les registres de chaque participant. Théoriquement, cette technique rend impossible la falsification des actions d’un robot.

« Notre idée est la suivante: chaque robot dispose d’une certaine somme de jetons, qu’il dépense lorsqu’il intente une action, développe le Pr Dorigo. L’essaim juge alors de l’utilité de cette action, et le robot ne récupère ses jetons que si cette action a été utile pour le groupe. Dès lors, si quelqu’un de mal intentionné prend le contrôle d’un robot et agit contre l’intérêt de l’essaim, son comportement sera jugé négativement. Très rapidement, il ne pourra plus agir car il sera à court de jetons.»

Cette technologie ouvrirait la voie à de nouvelles formes de coopération entre robots appartenant à des utilisateurs différents, reposant sur des principes économiques. «On peut ainsi imaginer différents robots appartenant à des personnes différentes s’engager dans une activité commune, avance le Pr Dorigo. La coordination nécessaire pourrait alors être assurée par des échanges de type économique, certains robots pouvant proposer ou “vendre” leurs services à d’autres robots.»

Des nuées de robots qui collaborent entre eux, et dont les comportements s’améliorent au fur et à mesure qu’ils explorent le monde… Si l’imagination s’enflamme au contact d’un tel futur, les questions qu’il pose sont, quant à elles, vertigineuses.
 
 

UN PEU D’HISTOIRE

LE PARADOXE DE MORAVEC 

En 1988, le roboticien et chercheur en Intelligence Artificielle Hans Moravec écrit: «Il est relativement facile de faire en sorte qu’un ordinateur soit capable de tâches difficiles pour un adulte, comme jouer aux échecs, ou réussir des tests d’intelligence, et difficile ou impossible de leur donner les compétences de mobilité et de perception d’un enfant de 1 an.» Ce paradoxe est à l’origine de nombreuses difficultés que rencontrent encore aujourd’hui la robotique et les recherches en intelligence artificielle en général. En effet, les actions que nous réalisons sans même y penser, comme reconnaître un visage parmi des inconnus, marcher, ou retrouver notre chemin dans une maison sont immensément compliquées à coder dans le comportement d’un robot. Et c’est bien parce que les chercheurs en IA ont longtemps pensé que ces compétences ne requièrent aucune intelligence, et ont fait des promesses démesurées quant à l’avenir de leurs machines que la recherche en IA a connu plusieurs hivers. Sans doute une leçon à méditer pour tous les spécialistes qui nous promettent bientôt des robots dans tous les foyers…

01

Faire breveter son image pour la protéger de l’IA

Le monde du cinéma est en ébullition face au déploiement parfois forcé de l’intelligence artificielle. Il y a quelques semaines, plusieurs acteurs et actrices français de doublage ont mis en demeure VoiceDub et Fish Audio, 2 entreprises basées aux États-Unis, de retirer de leurs catalogues des voix ressemblant étrangement aux leurs. Ils soupçonnent les entreprises de les avoir clonées par IA sans leur consentement. Connu·e·s pour être les doublures françaises de Julia Roberts, Angelina Jolie ou encore Richard Gere, ces actrices et acteurs estiment ainsi qu’on fait dire à leur voix des messages dont ils n’ont eu aucune connaissance, et qu’il s’agit d’un vol de leur identité et de leur outil de travail. Pour éviter ces désagréments, Matthew McConaughey, l’acteur principal du film Interstellar, a pris les devants: il a déposé des échantillons de sa voix et de son image auprès de l’Institut américain de la propriété intellectuelle, afin d’éviter une utilisation frauduleuse de son identité. 

02

L’IA dans le recrutement en Belgique

Ils sont classés «à haut risque» par l’AI Act, la législation européenne sur les algorithmes d’intelligence artificielle, et doivent à ce titre faire l’objet d’une vigilance particulière, et ne peuvent être utilisés sans être humain aux commandes. Il s’agit des systèmes d’IA utilisés au cours du processus de recrutement de nouveaux employés. D’après une longue étude, menée par l’ULiège et l’UHasselt, l’IA fait désormais partie du paysage des ressources humaines: 74% des recruteur·euse·s l’utilisent à au moins une étape du processus. Mais un système à 2 vitesses se dessine: l’IA est principalement mobilisée comme «super support administratif», en particulier pour les profils à forte affluence, l’expertise humaine restant privilégiée pour les profils de niche. Et 12 à 17% des recruteur·euse·s reconnaissent avoir déjà observé des résultats biaisés produits par l’IA, que ce soit en fonction de l’âge, des origines, etc. De façon plus préoccupante, alors que l’AI Act est entré en vigueur depuis plus d’un an, seulement 21% des organisations ont pris des mesures relatives aux législations sur l’IA, et 41% des recruteur·euse·s ne savent pas ce qu’il en est réellement.

    https://bit.ly/4s5oiZy

03

Un nouveau  supercalculateur dédié à l’IA pour l’ULB

Alors que la souveraineté numérique devient un enjeu central en Europe, L’ULB prend les devants en inaugurant un nouveau centre de données à Charleroi, dénommé A6K, majoritairement structuré autour de technologies open source. Ce centre de données, en plus d’héberger les systèmes d’information de l’Université, abrite également un supercalculateur de Tier-2, dénommé Lyra, spécifiquement dédié aux recherches liées à l’intelligence artificielle. Une grande originalité de ce supercalculateur réside en outre dans l’utilisation de nœuds de calcul virtualisés, sans entraîner de pertes en performance. Ces machines virtuelles, déployées sur les serveurs de calcul physiques, offrent une très grande agilité et une évolutivité continue dans le temps: les ressources de calcul peuvent ainsi être réorganisées rapidement pour répondre à l’évolution des besoins des scientifiques. De plus, ce supercalculateur est interconnecté avec les autres des universités de la Fédération Wallonie-Bruxelles, et ainsi accessible à l’ensemble des chercheurs et chercheuses des universités francophones de Belgique et membres du Consortium des équipements de calcul intensif (CECI).

Share This