Voici un article intéressant sur la robotique ainsi que sur les failles présentes actuellement dues à leur développement et proposant ainsi un défi de recherche et d’innovation intéressant.

Effectivement, la formation contradictoire pousse le robot à suivre des ordres prédéfinis dans sa boutique d’image permettant à l’homme de le manipuler mais cette boutique d’images constitue une brèche pouvant être comblée par de la robustesse. Mais la robustesse donnée crée aussi d’autres problèmes tel que des blocages empêchant le robot d’avancer dans des endroits trop exigus.

Autant vous dire que c’est actuellement le serpent qui se mord la queue et qu’il va falloir travailler de manière à développer de nouveaux algorithmes permettant à ces robots de passer outre ces restrictions sans créer de nouvelles brèche.

Il s’agit donc là d’un défi d’avenir dont nous allons résoudre le problème (je n’en doute pas) dans un temps raisonnable.

L’emploi de robots mobiles autonomes dans les environnements de travail ouverts tels que les entrepôts suscite un intérêt croissant, surtout avec les contraintes posées par la pandémie mondiale. Et grâce aux progrès des algorithmes d’apprentissage profond et de la technologie des capteurs, les robots industriels deviennent plus polyvalents et moins coûteux.

Mais la sûreté et la sécurité restent deux préoccupations majeures en robotique. Et les méthodes actuelles utilisées pour traiter ces deux questions peuvent donner des résultats contradictoires, ont constaté des chercheurs de l’Institut des sciences et des technologies d’Autriche, du Massachusetts Institute of Technology et de la Technische Universitat Wien, en Autriche.

D’une part, les ingénieurs en apprentissage automatique doivent entraîner leurs modèles d’apprentissage profond sur de nombreux exemples naturels pour s’assurer qu’ils fonctionnent en toute sécurité dans différentes conditions environnementales. D’autre part, ils doivent entraîner ces mêmes modèles sur des exemples contradictoires pour s’assurer que les acteurs malveillants ne peuvent pas compromettre leur comportement avec des images manipulées.

Les chercheurs de l’IST d’Autriche, du MIT et de l’Université Technique de Vienne (TU Wien) expliquent dans un article intitulé « Adversarial Training is Not Ready for Robot Learning » (en français : La Formation Contradictoire N’Est Pas Prête Pour L’Apprentissage Des Robots) que la formation contradictoire peut avoir un impact négatif important sur la sécurité des robots. Leur article, qui a été accepté à la Conférence Internationale sur la Robotique et l’Automatisation (ICRA 2021), montre que le domaine a besoin de nouvelles façons d’améliorer la robustesse aux contradictions des réseaux neuronaux profonds utilisés en robotique sans réduire leur précision et leur sécurité.

La Formation Contradictoire

Les réseaux neuronaux profonds exploitent les régularités statistiques des données pour effectuer des tâches de prédiction ou de classification. Ils sont donc très efficaces pour les tâches de vision par ordinateur, telles que la détection d’objets. Mais la dépendance à l’égard des régularités statistiques rend les réseaux neuronaux sensibles aux exemples contradictoires.

Un exemple contradictoire est une image qui a été subtilement modifiée pour amener un modèle d’apprentissage profond à mal la classer. Cela se produit généralement en ajoutant une couche de bruit à une image normale. Chaque pixel de bruit modifie très légèrement les valeurs numériques de l’image, suffisamment pour être imperceptible à l’œil humain. Mais lorsqu’elles sont additionnées, les valeurs du bruit perturbent les modèles statistiques de l’image, ce qui amène ensuite un réseau neuronal à la confondre avec autre chose.

Les exemples et les attaques contradictoires sont devenus un sujet de discussion brûlant lors des conférences sur l’intelligence artificielle et la sécurité. Et l’on craint que les attaques contradictoires ne deviennent un grave problème de sécurité à mesure que l’apprentissage profond prend de l’importance dans les tâches physiques telles que la robotique et les voitures à conduite autonome. Cependant, le traitement des vulnérabilités contradictoire reste un défi.

L’une des méthodes de défense les plus connues est « l’entraînement contradictoire », un processus qui affine un modèle d’apprentissage profond préalablement formé sur des exemples contradictoires. Dans le cadre de l’entraînement contradictoire, un programme génère un ensemble d’exemples contradictoires qui sont mal classés par un réseau neuronal cible. Le réseau neuronal est ensuite réentraîné sur ces exemples et leurs étiquettes correctes. L’affinement du réseau neuronal sur de nombreux exemples contradictoires le rendra plus robuste contre les attaques adverses.

L’entraînement contradictoire entraîne une légère baisse de la précision des prédictions d’un modèle d’apprentissage profond. Mais cette dégradation est considérée comme un compromis acceptable pour la robustesse qu’elle offre contre les attaques adverses.

Dans les applications robotiques, cependant, l’entraînement contradictoire peut entraîner des effets secondaires indésirables.

« Dans de nombreux ouvrages sur l’apprentissage profond, l’apprentissage automatique et l’intelligence artificielle, on entend souvent dire que les réseaux neuronaux ne sont pas sûrs pour la robotique parce qu’ils sont vulnérables aux attaques contradictoires pour justifier une nouvelle méthode de vérification ou d’entraînement contradictoire », a déclaré Mathias Lechner, étudiant en doctorat à l’IST Autriche et auteur principal de l’article, dans des commentaires écrits à TechTalks. « Bien qu’intuitivement, de telles affirmations semblent à peu près justes, ces « méthodes de robustesse » ne sont pas gratuites, mais s’accompagnent d’une perte de capacité du modèle ou de précision propre (standard). »

Lechner et les autres coauteurs de l’article ont voulu vérifier si le compromis précision propre-vs-robuste dans la formation contradictoire est toujours justifié en robotique. Ils ont constaté que si cette pratique améliore la robustesse des modèles d’apprentissage profond dans les tâches de classification basées sur la vision, elle peut introduire de nouveaux profils d’erreur dans l’apprentissage des robots.

Formation contradictoire dans les applications robotiques

Supposons que vous disposiez d’un réseau neuronal convolutionnel entraîné et que vous souhaitiez l’utiliser pour classer un ensemble d’images stockées dans un dossier. Si le réseau neuronal est bien formé, il classera la plupart des images correctement et pourra en classer quelques-unes incorrectement.

Imaginez maintenant que quelqu’un insère deux douzaines d’exemples contradictoires dans le dossier d’images. Un acteur malveillant a intentionnellement manipulé ces images pour que le réseau neuronal les classe mal. Un réseau neuronal normal tomberait dans le piège et fournirait un résultat erroné. Mais un réseau neuronal qui a subi une formation contradictoire classera correctement la plupart de ces images. Il peut toutefois connaître une légère baisse de performance et mal classer certaines des autres images.

Dans les tâches de classification statique, où chaque image d’entrée est indépendante des autres, cette baisse de performance n’est pas un gros problème tant que les erreurs ne sont pas trop fréquentes. Mais dans les applications robotiques, le modèle d’apprentissage profond interagit avec un environnement dynamique. Les images introduites dans le réseau neuronal se présentent sous forme de séquences continues qui dépendent les unes des autres. De son côté, le robot manipule physiquement son environnement.

« En robotique, l’endroit où les erreurs se produisent est important, alors que la vision par ordinateur concerne principalement la quantité d’erreurs », explique Monsieur Lechner.

Prenons l’exemple de deux réseaux neuronaux, A et B, qui présentent chacun un taux d’erreur de 5 %. Du point de vue de l’apprentissage pur, les deux réseaux sont aussi bons l’un que l’autre. Mais dans une tâche robotique, où le réseau tourne en boucle et effectue plusieurs prédictions par seconde, un réseau pourrait être plus performant que l’autre. Par exemple, les erreurs du réseau A pourraient se produire de manière sporadique, ce qui ne serait pas très problématique. En revanche, le réseau B pourrait commettre plusieurs erreurs consécutives et provoquer le crash du robot. Bien que les deux réseaux neuronaux aient des taux d’erreur égaux, l’un est sûr et l’autre non.

Un autre problème des mesures d’évaluation classiques est qu’elles ne mesurent que le nombre d’erreurs de classification introduites par la formation contradictoire et ne tiennent pas compte des marges d’erreur.

« En robotique, l’importance de l’écart entre les erreurs et la prédiction correcte compte », explique Monsieur Lechner. « Par exemple, disons que notre réseau classe mal un camion comme une voiture ou comme un piéton. Du point de vue de l’apprentissage pur, les deux scénarios sont comptés comme des erreurs de classification, mais du point de vue de la robotique, l’erreur de classification en tant que piéton pourrait avoir des conséquences bien pires que l’erreur de classification en tant que voiture. »

Les erreurs causées par la formation contradictoire

Les chercheurs ont constaté que la « formation à la sécurité du domaine », une forme plus générale de formation contradictoire, introduit trois types d’erreurs dans les réseaux neuronaux utilisés en robotique : systémiques, transitoires et conditionnelles.

Les erreurs transitoires provoquent des changements soudains dans la précision du réseau neuronal. Les erreurs conditionnelles font dévier le modèle d’apprentissage profond de la vérité du terrain dans des domaines spécifiques. Enfin, les erreurs systémiques entraînent des modifications de la précision du modèle à l’échelle du domaine. Ces trois types d’erreurs peuvent entraîner des risques pour la sécurité.

Pour tester l’effet de leurs découvertes, les chercheurs ont créé un robot expérimental censé surveiller son environnement, lire les commandes gestuelles et se déplacer sans rencontrer d’obstacles. Le robot utilise deux réseaux neuronaux. Un réseau neuronal convolutif détecte les commandes gestuelles par le biais d’une entrée vidéo provenant d’une caméra fixée à l’avant du robot. Un second réseau neuronal traite les données provenant d’un capteur lidar installé sur le robot et envoie des commandes au moteur et au système de direction.

Les chercheurs ont testé le réseau neuronal de traitement vidéo avec trois niveaux différents de formation contradictoire. Leurs résultats montrent que la précision propre du réseau neuronal diminue considérablement à mesure que le niveau de formation contradictoire augmente. « Nos résultats indiquent que les méthodes de formation actuelles sont incapables d’imposer une robustesse non triviale à un classificateur d’images dans un contexte d’apprentissage robotique », écrivent les chercheurs.

Nous avons observé que notre réseau de vision entraîné de manière contradictoire se comportait à l’opposé de ce que nous entendons généralement par « robuste » », explique Monsieur Lechner. « Par exemple, il mettait sporadiquement le robot en marche et l’arrêtait sans que l’opérateur humain ne lui en donne l’ordre clair. Dans le meilleur des cas, ce comportement est gênant, dans le pire des cas, il fait planter le robot. »

Le réseau neuronal basé sur le lidar n’a pas subi d’entraînement contradictoire, mais il a été entraîné à être très sûr et à empêcher le robot d’avancer si un objet se trouvait sur sa trajectoire. Le réseau neuronal s’est donc montré trop défensif et a évité les scénarios bénins tels que les couloirs étroits.

« Pour le réseau standard entraîné, le même couloir étroit n’a posé aucun problème », a déclaré Lechner. « De plus, nous n’avons jamais observé que le réseau entraîné standard faisait tomber le robot en panne, ce qui remet en question la raison pour laquelle nous effectuons l’entraînement contradictoire en premier lieu. »

Travaux futurs sur la robustesse des algorithmes contradictoires

« Nos contributions théoriques, bien que limitées, suggèrent que l’apprentissage contradictoire consiste essentiellement à repondérer l’importance des différentes parties du domaine de données », déclare Lechner, ajoutant que pour surmonter les effets secondaires négatifs des méthodes d’apprentissage contradictoire, les chercheurs doivent d’abord reconnaître que la robustesse contradictoire est un objectif secondaire, et qu’une précision standard élevée devrait être l’objectif principal dans la plupart des applications.

L’apprentissage automatique contre les adversaires reste un domaine de recherche actif. Les spécialistes de l’IA ont mis au point diverses méthodes pour protéger les modèles d’apprentissage automatique contre les attaques adverses, notamment des architectures inspirées des neurosciences, des méthodes de généralisation modale et la commutation aléatoire entre différents réseaux neuronaux. L’avenir nous dira si l’une de ces méthodes, ou d’autres à venir, deviendra l’étalon-or de la robustesse contre les adversaires.

Un problème plus fondamental, également confirmé par Lechner et ses co-auteurs, est l’absence de causalité dans les systèmes d’apprentissage automatique. Tant que les réseaux neuronaux se concentreront sur l’apprentissage de modèles statistiques superficiels dans les données, ils resteront vulnérables à différentes formes d’attaques adverses. L’apprentissage de représentations causales pourrait être la clé de la protection des réseaux neuronaux contre les attaques adverses. Mais l’apprentissage des représentations causales constitue en soi un défi majeur et les scientifiques tentent toujours de trouver comment le résoudre.

« L’absence de causalité est la raison pour laquelle les vulnérabilités adverses se retrouvent dans le réseau », explique Monsieur Lechner. « Ainsi, l’apprentissage de meilleures structures causales contribuera certainement à la robustesse des adversaires. »

« Toutefois, ajoute-t-il, nous pourrions nous retrouver dans une situation où nous devons choisir entre un modèle causal moins précis et un grand réseau standard. Ainsi, le dilemme décrit dans notre article doit également être abordé lorsque l’on examine les méthodes du domaine de l’apprentissage causal. »

Qui dit robotique, électronique ou informatique dit obligatoirement failles qu’ils va falloir réparer.

Que pensez-vous de ce défi et comment pouvons nous le résoudre d’après vous ?

Quentin CLAUDEL

« Ceci est un article « presslib » et sans droit voisin, c’est-à-dire libre de reproduction en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Larobolution.com est le site sur lequel vous retrouverez toute l’actualité des métaux précieux. Merci de visiter mon site. Vous pouvez vous abonner gratuitement à la lettre d’information quotidienne sur https://larobolution.com/. »

Source Tech Talks

Pin It on Pinterest