• Pour y parvenir, des capteurs ultrasensibles sont intégrés et un nouvel algorithme permet de guider le robot avec des gestes simples, comme sur un smartphone.
• Un autre algorithme développé à l’Université de Hertfordshire permet aux robots de s’adapter de manière autonome à leur environnement et de prendre des décisions sans entraînement spécifique.
Fabriquer des robots mieux adaptés à leur environnement et capables de développer des réflexes de l’ordre de l’intuition pose de nombreux défis. « Il y a encore beaucoup à faire sur les capteurs de perception, à savoir la capacité d’ajouter de la peau électronique sur l’ensemble d’un robot pour qu’il dispose d’une sorte de sens du toucher », explique Maged Iskandar, chercheur à l’Institut de robotique et de mécatronique du Centre allemand pour l’aéronautique et l’astronautique. « Les peaux électroniques sont fragiles, sensibles aux impacts et aux forces importantes et elles ont besoin d’un réseau de fils sur l’ensemble du robot. » Or améliorer la sensibilité des robots permet à terme d’établir des interactions entre les hommes et les machines plus naturelles et intuitives, « de manière à ce que l’homme puisse transférer des commandes au robot simplement en le touchant ».
On peut entraîner plus facilement un robot : de la même manière que l’on touche un smartphone ou une tablette, on va pouvoir guider le robot avec nos doigts
Un guidage personne-machine plus intuitif
L’équipe dont fait partie Maged Iskandar a développé un algorithme qui, couplé à des capteurs ultrasensibles, permet au robot de détecter le niveau de pression exercé sur lui. « Les capteurs permettent de localiser et d’estimer les forces et l’algorithme va les interpréter, ce qui permet ensuite d’entraîner plus facilement un robot. De la même manière que l’on touche un smartphone ou une tablette, on va pouvoir guider le robot avec nos doigts. » Le chercheur vise, lors de la prochaine étape de ses travaux, à étendre cette sensibilité sur l’ensemble du robot afin d’améliorer la collaboration entre les robots et les humains dans les usines : « Si on veut que le robot exécute une tâche précise, on peut simplement lui indiquer en le touchant plutôt qu’en le programmant. C’est plus intuitif. »
Des robots s’adaptant à leurs environnements en autonomie
Au Royaume-Uni, à l’Université de Hertfordshire, l’enseignant en intelligence artificielle Daniel Polani a développé un algorithme, inspiré de la théorie du chaos, qui permet aux robots de fonctionner de manière plus intuitive et de prendre des décisions en s’appuyant sur leur environnement. « On parle d’intuition, mais le terme technique est l’autonomisation, explique le chercheur. Cela implique que le robot a conscience qu’il peut changer son environnement, c’est-à-dire qu’il prend note que ses actions ont un impact sur son environnement. » Il peut donc prendre ses propres décisions, dans le cas, par exemple, où il doit se relever après être tombé. « L’idée est qu’il puisse s’adapter à l’environnement, trouver des points d’appui, sans entraînement, car nous ne voulons pas de robot qui doive contenir cent mille programmes pour faire face à toutes les situations possibles. » Cet algorithme ouvre donc la voie à des robots capables de se remettre en marche de manière autonome après un incident. Pour le développer, les chercheurs ont notamment étudié les « modèles de motivation » robotiques qui imitent les processus décisionnels des humains et des animaux, même en l’absence de signaux de récompense clairs.
Des défis de compréhension de l’environnement encore nombreux
Pour Daniel Polani, « cet algorithme peut encore être amélioré car, pour l’heure, le modèle fonctionne dans des systèmes différentiels lisses », c’est-à-dire dans un environnement doux ou lisse. « Nous en sommes pour l’heure au stade de la simulation. Ensuite, il faut pouvoir implémenter l’algorithme dans le robot. Quand un robot évolue dans un environnement, il impacte son environnement et il faut intégrer l’évolution de l’environnement dans le processus. C’est une approche de la robotique encore insuffisamment développée. »
Le chercheur estime par ailleurs que la compréhension du langage est également une étape importante dans le fonctionnement des robots. « La question de la compréhension profonde est un challenge important pour l’amélioration des systèmes robotiques. En effet, si les grands modèles de langues (LLM) peuvent prétendre comprendre ce qu’on leur dit, les robots sont dans un environnement réel et ont besoin de contexte. »
Sources :
Intrinsic Motivation in Dynamical Control Systems (en anglais)