Apprentissage automatique: robustesse et généralisabilité

Auteur
Prof. Volkan Cevher
EPFL

Entretien avec le responsable du projet PNR 75.

Quel était l’objectif de votre projet?

Trois axes de recherche interdépendants ont été analysés: (1) une structure de prédiction précise et évolutive avec les réseaux neuronaux et la dynamique de Langevin, (2) une structure de décision flexible et robuste via l’apprentissage par renforcement et (3) la généralisation et la certification des réseaux neuronaux.

Quels résultats ont été obtenus?

Une structure d’optimisation a été conçue pour estimer la constante de Lipschitz des réseaux neuronaux, qui est essentielle à leur généralisation ainsi qu’à leur vérification. L’approche est basée sur la recherche d’un certificat polynomial via des certificats de Krivine ainsi que des hiérarchies de Lasserre. L’équipe a également étudié la régularisation des réseaux neuronaux avec la norme «1-path» et développé des outils informatiques afin d’obtenir des solutions numériques. De plus, de nouveaux outils ont été dérivés pour quantifier la généralisation de l’apprentissage.

Des problèmes d’apprentissage automatique ont été examinés, dans lesquels un enseignant a fourni des exemples d’accélération de l’apprentissage, qui tiennent compte de la diversité des élèves en termes de progrès d’apprentissage. Le projet a également étendu ce problème à l’apprentissage par renforcement inverse et constaté que la progression de l’apprentissage pouvait être sensiblement accélérée.

Enfin, une nouvelle structure d’équilibre de Nash mixte a été développée pour l’apprentissage par renforcement robuste. L’idée principale est de considérer une version supérieure du problème de l’apprentissage par renforcement robuste, puis d’utiliser la dynamique de Langevin élaborée pour échantillonner les distributions de solutions. Cette approche augmente non seulement la robustesse, mais aussi les performances de généralisation globales.

Quels sont les principaux messages du projet?

  • Face au Big Data et aux modèles de réseaux neuronaux, les algorithmes sont soumis à des défis plus importants qui vont au-delà de l’évolutivité pour développer des modèles d’apprentissage automatique à la fois certifiables, impartiaux et équitables.
  • Nous avons besoin d’une base unifiée en termes d’optimisation et de représentation pour savoir comment saisir les fonctions via des représentations non linéaires, telles que les réseaux neuronaux, comment établir nos objectifs d’apprentissage qui régissent nos objectifs fondamentaux, et comment optimiser ces objectifs afin d’obtenir des solutions numériques de manière évolutive.
  • Un réel progrès dans le domaine de l’apprentissage automatique requiert un effort coordonné fondé sur des bases théoriques et algorithmiques qui équilibrent, pour un risque statistique donné, les rôles rivaux de la taille des données et des représentations, du calcul et de la robustesse.

Quelles sont les implications scientifiques de votre projet?

Grâce aux réseaux neuronaux, à l’accélération des calculs et aux ensembles de données massifs, l’apprentissage automatique est soumis à une pression croissante pour fournir des solutions automatisées à des tâches plus complexes du monde réel, avec des performances supérieures à celles de l’homme et des temps de réponse toujours plus rapides, en raison des avantages technologiques et sociétaux potentiellement considérables. Il n’est pas surprenant que les formulations d’apprentissage des réseaux neuronaux représentent un défi fondamental pour les algorithmes d’apprentissage dorsaux malgré leur évolutivité, en raison notamment de l’existence de pièges dans le paysage d’optimisation non convexe, tels que les points-selles, qui peuvent empêcher les algorithmes d’obtenir de «bonnes» solutions.

Nos recherches ont révélé que le dogme de l’optimisation non convexe est faux en montrant que les algorithmes d’optimisation stochastique évolutifs peuvent éviter les pièges et obtenir rapidement des solutions localement optimales. Associées aux progrès de l’apprentissage par représentation, tels que les réseaux neuronaux surparamétrés, ces solutions locales peuvent être globalement optimales. Malheureusement, nous avons également prouvé que les problèmes centraux d’optimisation min-max dans l’apprentissage automatique, tels que les réseaux antagonistes génératifs et l’apprentissage automatique robuste en termes de distribution, contiennent des attracteurs fallacieux qui n’incluent aucun point stationnaire de la formulation d’apprentissage originale. En effet, les algorithmes sont soumis à un défi plus grand, notamment les inévitables problèmes de convergence, qui expliquent la stagnation de leurs progrès malgré les impressionnantes démonstrations antérieures.

Votre projet comporte-t-il des recommandations politiques?

Nous avons besoin d’un groupe de travail technique commun sur la théorie de l’apprentissage automatique et les algorithmes d’optimisation en Suisse, si nous tablons de plus en plus sur une prise de décision automatique à partir du Big Data. Il nous faut de nouvelles théories et méthodes pour obtenir une manière fiable et durable de certifier les décisions, en s’assurant qu’elles sont impartiales et équitables. Cela requiert une expertise de bout en bout sur la manière dont nous générons les données, dont nous configurons nos formulations et modèles d’apprentissage, et dont nous optimisons ces formulations.

A propos du projet

Liens supplémentaires