ON EDUQUE BIEN LES ROBOTS

L’usine nouvelle – Thierry LUCAS

On Eduque Bien Les Robots

Pour qu’un robot puisse véritablement s’adapter à une nouvelle tâche ou répondre à l’imprévu, le mieux est de lui donner les moyens de faire lui-même son apprentissage.

Une intelligence artificielle est capable de battre un champion au jeu de go, mais elle ne sait toujours pas plier une serviette pour la ranger dans l’armoire à linge. Car un robot, qu’il soit un pur logiciel ou un vrai robot qui agit physiquement, a beaucoup de mal à exécuter des tâches quotidiennes dans lesquelles l’être humain excelle. Il sait encore moins s’adapter à un travail pour lequel il n’a pas été programmé. Quant à gérer l’imprévu… Or si l’on veut véritablement introduire des robots partout, dans tous les ateliers de fabrication – y compris pour de petites séries – et jusqu’au sein des maisons de retraite et de nos foyers, il faudra bien leur apprendre à se débrouiller dans des situations par nature changeantes, voire imprévisibles. La solution passe par l’apprentissage. Autrement dit, mettre les robots au travail et leur donner les moyens d’acquérir de l’expérience, du savoir-faire, des réflexes…

Pour entrer en apprentissage, les robots bénéficient des avancées récentes de l’intelligence artificielle : réseaux de neurones, deep learning et autres algorithmes de type big data qui permettent à des machines d’apprendre par elles-mêmes. Mais nombre d’équipes de chercheurs, pour tenter d’assouplir le comportement des robots, commencent par s’inspirer des animaux et des êtres humains, en étudiant aussi bien les circuits neuronaux qui jouent un rôle dans l’apprentissage que la psychologie des jeunes enfants explorant leur environnement. L’objectif : en tirer des méthodes et des algorithmes utilisables par des machines. Ainsi, au laboratoire Etis de l’université de Cergy-Pontoise, l’équipe de neurocybernétique exploite de récents résultats en neurobiologie sur le rôle de certains neurones dans la navigation (le « GPS du cerveau »).

À l’Inria, l’équipe Flowers, en étudiant les mécanismes d’exploration des enfants, introduit dans des robots une « curiosité artificielle », source d’un apprentissage efficace : plutôt que de s’échiner à fabriquer un robot intelligent comme un adulte, mieux vaut lui donner les moyens d’apprendre comme un enfant… Les chercheurs disposent d’une panoplie de méthodes, qui va de l’enseignement très dirigé – montrer directement au robot les bons gestes – jusqu’à l’exploration supervisée ou complètement libre.

L’apprentissage par démonstration, dans lequel un opérateur guide le bras du robot, a été largement développé au Laboratoire d’algorithmes et systèmes d’apprentissage (Lasa) de l’École polytechnique fédérale de Lausanne (EPFL). L’enjeu n’est pas de lui faire enregistrer une trajectoire (une fonction que propose par exemple Baxter, le robot de Rethink Robotics), mais bien, après plusieurs démonstrations, qu’il sache généraliser de lui-même en s’adaptant à des situations proches.

Permettre au robot d’apprendre de ses erreurs est la méthode dite d’apprentissage par renforcement. Comme lors d’expérimentations avec des animaux, le robot reçoit une « récompense » (un signal positif) quand il agit correctement. « On ne comprend pas tout des mécanismes neuronaux des animaux. Mais on peut en tirer des principes que l’on cherche à appliquer aux robots », indique Benoît Girard, chercheur à l’Institut des systèmes intelligents et de robotique (Isir), à Paris. Dans le même laboratoire, Stéphane Doncieux est un adepte de l’apprentissage évolutionniste. Le robot explore son environnement librement, tandis que des algorithmes qui miment le processus de la sélection naturelle le guident vers la réalisation correcte d’une tâche.

Le deep learning, technique d’apprentissage automatique à partir de nombreux exemples (le champion numérique du jeu de go a été élevé au deep learning), est utilisé par de nombreuses équipes, par exemple pour permettre au robot d’identifier ce que voit sa caméra ou pour lui apprendre à saisir toutes sortes d’objets.

Il n’existe pas de méthode miracle, c’est la combinaison de plusieurs modes d’apprentissage qui pourra donner les meilleurs résultats. Le projet européen 3rd Hand, piloté par l’Inria, expérimente différentes voies – démonstration, essais-erreurs, détection de gestes, langage – pour apprendre à un bras de robot à coopérer au mieux avec un opérateur. Le projet soulève de multiples questions. Quelle est la meilleure méthode selon l’opération visée ? Comment le robot fait-il savoir qu’il a compris ou qu’il a besoin d’aide ? Peut-il adapter son comportement aux différents opérateurs avec qui il travaille ?

Enfin, il reste une autre voie aux robots du monde entier pour progresser : s’entraider. Dans le cadre du projet américain Robobrain, des robots s’entraînent sur une tâche et mettent en commun leurs connaissances. Un robot PR2 (université de Cornell) et un robot Baxter (université de Brown) ont ainsi partagé leur savoir-faire acquis dans l’art de manipuler une tasse à café. Pas facile quand les deux robots n’ont pas du tout la même anatomie… Mais il n’en faut pas plus pour que certains rêvent déjà d’un cloud de la robotique, où chaque engin irait puiser les logiciels dont il a besoin pour réaliser son travail.

Des technologies pour…

  • Créer des robots capables de s’adapter même à l’imprévu
  • Leur faire réaliser des opérations difficiles à programmer
  • Favoriser la collaboration entre robots et êtres humains

 

Peut-on enseigner la morale ?

Selon la première loi de la robo­tique édictée par Isaac Asimov, l’écrivain de science-fiction, un robot ne doit pas faire du mal à un être humain. Principe incontestable, mais d’application difficile : une machine devrait décider ce qui est bien ou mal, voire choisir un moindre mal. Pour s’autoriser ou s’interdire une action, le robot doit avoir connaissance des lois en vigueur, des normes éthiques généra­lement admises, des règles de comportement social… Il doit aussi savoir prendre en compte le contexte dans lequel il évolue. Et prévoir les conséquences de son acte pour en déduire s’il est conforme ou non à la « morale » qui lui aura été inculquée. Ces questions ne relèvent plus de la SF. Elles font désormais partie des thèmes étudiés dans les laboratoires de robotique, associés à des chercheurs en sciences humaines, et vont devenir cruciales pour les robots en interaction avec les humains (robots d’assistance, robots industriels collaboratifs…), mais aussi pour les véhicules autonomes. Le laboratoire de robotique de l’université Tufts (États-Unis) veut mettre au point des mécanismes qui permet­traient à un robot de dire non à un ordre donné par un humain.

 

Les voies de l’apprentissage :

Tirer parti de ses erreurs. Savoir capitaliser son expérience. Imiter ceux qui savent faire. Rebondir sur l’imprévu. S’acharner jusqu’au succès… Quand il s’agit d’apprendre ou de progresser, les bons principes font toujours recette, y compris chez les robots. Les équipes de chercheurs qui, à travers le monde, veulent inculquer aux robots la faculté d’apprendre n’ont pas besoin de chercher bien loin leur inspiration. En matière d’apprentissage et d’adaptation, on n’a pas fait mieux que l’être humain (en attendant l’homme augmenté qu’on nous promet). Ce qui a beaucoup progressé, en revanche, ce sont les techniques mathématiques et numériques qui, sous la forme de l’intelligence artificielle, s’efforcent d’implanter dans une machine une partie au moins des facultés d’apprentissage qui transforment les enfants en adultes autonomes, eux-mêmes toujours capables de s’améliorer (en théorie).

Réparer, coopérer ou cuisiner

Et pour voir si ça marche, rien de tel que de placer les robots dans les situations où l’être humain fait l’apprentissage plus ou moins rude de la vraie vie. Les jeunes enfants apprennent à descendre les escaliers en tombant parfois douloureusement. Ils acceptent aussi, parfois, qu’on les guide par la main. Les robots ont droit à ce genre d’expériences. Plus généralement, c’est en cumulant connaissances et exploration de leur univers que les robots font leur apprentissage. La palette de scénarios qu’on leur propose est très variée : réussir une omelette, saisir n’importe quel objet avec dextérité ou effectuer la maintenance d’une station spatiale. La rencontre et la coopération avec les êtres humains est aussi au programme, et ce n’est pas l’apprentissage le plus facile. Et pour que rien d’humain n’échappe aux robots, certains chercheurs se demandent si un bon sommeil réparateur ne serait pas très profitable à la progression de leurs compétences.

Écrire son autobiographie

Même les robots ont une histoire. En donnant au petit robot humanoïde Nao les moyens de se constituer une mémoire autobiographique – le souvenir de ses actes dûment datés et localisés –, une équipe de l’Inserm lui permet d’acquérir et de transmettre des connaissances. Par exemple : la procédure à suivre pour réparer un équipement électronique. L’idée serait de placer un tel robot dans la station spatiale internationale, pour servir de relais entre les équipages qui se succèdent.

S’inspirer du cerveau

Le système de navigation de Diya One, le robot mobile de services de Partnering Robotics, est inspiré de certaines fonctions identifiées dans une partie du cerveau (l’hippocampe). À partir des résultats obtenus par des neurobiologistes, les ingénieurs du laboratoire Etis (université de Cergy-Pontoise, CNRS , Ensea) ont construit des algorithmes du type réseau de neurones qui permettent au robot d’apprendre à s’orienter. Diya One est destiné aux services dans les bâtiments (qualité de l’air, efficacité énergétique…). Cofely, filiale d’Engie, est récemment devenue actionnaire de Partnering Robotics.

Comme un tâcheron

Un laboratoire de Google a fait travailler pendant plusieurs semaines jusqu’à quatorze robots en batterie pour leur faire effectuer un total de… 800 000 essais de saisie d’un objet. Divers types d’objets – rigides ou mous, lourds ou légers, opaques ou transparents… – étaient présentés devant la caméra qui guide chaque bras de robot. Un réseau de neurones était chargé d’extraire de cette masse d’essais les bonnes stratégies pour attraper un objet. Résultat : un système capable d’adapter sa méthode pour arriver à ses fins, y compris avec des objets qu’il n’a jamais vus auparavant.

Se confronter à la foule

Spencer a guidé des passagers en transit de la compagnie KLM à travers l’aéroport de Schiphol (Amsterdam). Ce qui suppose qu’il sait s’orienter, mais pas seulement. Spencer, pour être accepté, doit adapter son comportement au contexte et aux passagers qu’il convoie. Ne pas couper un groupe ou un couple, identifier le responsable d’un groupe, adapter sa vitesse aux personnes âgées et même respecter les règles culturelles quand on aborde une personne… Son apprentissage, piloté par l’Isir (CNRS /UPMC), s’est fait sur la base de règles extraites d’enquêtes sociologiques et de simulations.

Multiplier les erreurs

Son surnom est Brett, pour « Berkeley robot for the elimination of tedious tasks » : la vocation du PR2 est de remplacer l’homme dans les tâches fastidieuses. Pour lui apprendre à plier un linge, par exemple, des chercheurs de Berkeley lui ont mis une serviette entre les mains, pour qu’il se familiarise avec l’objet. Après quelques centaines de manipulations – et beaucoup de ratés –, le robot a finalement pu commencer le pliage. La méthode utilisée ici, du type « essais et erreurs », autrement appelée apprentissage par renforcement, consiste à donner au robot un signal positif (récompense) ou négatif (sanction) selon qu’il progresse ou non dans la réalisation de sa tâche.

En dormant

Le sommeil joue un rôle dans la manière dont les êtres humains consolident et restructurent leurs connaissances. Sur ce modèle, le projet européen Dream (Deferred restructuring of experience in autonomous machines), coordonné par l’Isir (CNRS /UPMC), propose à un robot de consolider ses expériences, en alternant des périodes actives où il explore son environnement et les tâches qu’on veut lui confier, avec des périodes de « sommeil » où il restructure les informations qu’il a emmagasinées à l’aide de diverses techniques de traitement de données (data mining, deep learning…).

Regarder des vidéos

Il y a de tout sur internet : des manuels d’utilisation, des vidéos de démonstration, des recettes… Un robot peut-il se servir de ces informations pour en déduire le programme qui lui permettra d’effectuer correctement une opération ? Préparer un plat simple (une omelette, un sandwich…) ou recharger une imprimante, par exemple. Ces deux scénarios ont servi de tests pour le projet européen RoboHow (université de Brême, EPFL, CNRS …), afin d’étudier comment des instructions très générales captées sur internet, associées à quelques démonstrations et périodes d’apprentissage, pouvaient permettre de programmer un robot semi-automatiquement.

En regardant les hommes tomber

Les robots humanoïdes ont un problème majeur : l’équilibre. Avant même d’accomplir une tâche quelconque, leur principale difficulté est de rester debout. Et la chute peut avoir des conséquences graves sur l’intégrité physique des coûteuses machines ou celle de leur entourage. Des chercheurs de Georgia Tech (États-Unis) ont mis au point un algorithme qui s’inspire de la manière dont les êtres humains amortissent la chute, en dissipant l’énergie via plusieurs points de contacts.

Se laisser guider par la main

Pour apprendre une nouvelle tâche à un robot sans le reprogrammer, pourquoi ne pas lui montrer directement ce qu’il doit faire ? Par exemple, en prenant littéralement le robot par la main (ici, une expérimentation menée à l’École polytechnique fédérale de Lausanne). Cette technique peut être utilisée pour lui enseigner une trajectoire définie. Mais elle devient un véritable apprentissage si, à partir d’un ensemble de démonstrations, elle permet au robot de généraliser et de trouver lui-même le moyen de réaliser une opération similaire.

Par accident

Ce robot à six pattes, testé à l’Inria, sait reprendre son chemin après un accident qui ne lui laisse que quatre pattes valides. Cette résilience, qui existe chez les animaux, la machine la doit à un algorithme qui, en quelques minutes et après quelques essais, permet au robot de réinventer lui même une démarche pour continuer à avancer.

 

 

IA : VISITE DISTANTE D’UN MUSÉE

AZKAR est un projet de recherche visant notamment une application culturelle permettant une visite de musée à distance.

Voici donc une petite vidéo test de ce projet avec la visite distante du Musée de la grande Guerre de Meaux depuis Kerpape ( Morbihan).

Si ce sujet vous intéresse, n’hésitez pas à aller consulter http://www.azkar.fr/  ou à vous abonner à la chaîne YouTube AZKAR Test !

VERS UNE ÈRE DE LA CYBER-DISSUASION ?

Source : the conversation – 16 Janvier 2017    

Face au constat d’une cybermenace persistante et durable, de nouveaux concepts émergent pour modéliser une réponse efficace. Parmi eux, la notion de cyber-dissuasion, évoquée par l’administration Obama, appelle à prendre le taureau par les cornes. Détour par The Conversation et les explications de l’universitaire Dorothy Dernning.

« Pendant des décennies, la dissuasion a contré avec efficacité la menace des armes nucléaires. Peut-on atteindre des résultats similaires contre les cyber-armes ? » Pour Dorothy Denning, professeure à la Naval Postgraduate School, école administrée par la marine américaine, cette question se doit d’être posée. La chercheuse met ainsi sur la table le concept de cyber-dissuasion (« cyber-detterence »). Utilisé par l’administration Obama, ce terme évoque une stratégie continue mise en place pour décourager, en amont, les potentiels cyber-attaquants.

La cybermenace est certes plus disséminée que la menace nucléaire, ses attaquants anonymes plus difficiles à débusquer, et ses effets moins littéralement catastrophiques. Il n’empêche qu’à l’ère de la cyber-dissuasion, le niveau de la menace justifierait d’enclencher un seuil de défense supplémentaire. C’est que le nombre de cyberattaques a augmenté de 1 300 % de 2005 à 2015 aux États-Unis, selon un rapport du Government Accountability Office, cité par Dorothy Denning.

Concrètement, trois grands types d’actions sont à mettre en œuvre. Le plus évident est l’amélioration des défenses de cybersécurité : développer des produits (hardware comme software) moins soumis aux failles, et répondre à l’urgence que représente la vulnérabilité de l’Internet des objets. Une deuxième priorité est le recours aux défenses dites « actives », autre terme employé au jargon militaire, comme les honeypots ou le scan régulier de ses systèmes, afin de repérer les menaces telles que le botnet Mirai. La mise en place de normes et d’accords internationaux, enfin, permettrait de dissuader un certain nombre d’attaques. À défaut – tâche impossible – de pacifier le cyberespace…

Si ce poste vous a intéressé, je vous invite à cliquer sur le lien suivant pour y trouver plus amples informations !

https://theconversation.com/cybersecuritys-next-phase-cyber-deterrence-67090