10/20 – Offre de #thèse : #RéseauxDeNeurones convolutionnels intervallistes – représentation et apprentissage. Application à l’apprentissage de manipulation dextre par une main #robotique

Offre emploi/stage/postdoc

Thèse en codirection avec le laboratoire LIRMM (financement Université de Montpellier).

Profil et compétences recherchées : Le/la candidat.e recruté.e devra avoir des compétences dans les domaines suivants.
– traitement du signal et des images
– mathématiques et statistiques
– informatique
– apprentissage
– notion de robotique
– niveau d’anglais avancé

Problématique : Depuis une dizaine d’années, l’intérêt de la communauté robotique pour les réseaux de neurones convolutionnels (CNN) ne cesse de croître du à leur extraordinaire capacité d’apprentissage automatique. Ces réseaux de neurones se démarquent de leurs ancêtres des années 90′ par leur grand nombre de paramètres (des milliers et parfois même des millions) qui leur donnent beaucoup de liberté et leur permettent de s’adapter à une variété d’ensembles de données complexes. Ce changement d’échelle a été rendu possible par l’accroissement exponentiel des capacités de calcul et la sophistication des cartes graphiques GPU.

Cependant, ce grand avantage devient une faiblesse potentielle. Le manque de contrôle sur le processus d’apprentissage peut conduire à un sur-apprentissage : le réseau de neurones est alors si étroitement adapté à l’ensemble d’entraînement qu’il lui est difficile de généraliser c’est à dire de faire des prédictions correctes à partir de nouvelles données. Ce problème est classique dans les systèmes d’apprentissage automatique mais il est plus simple à contourner lorsque le nombre de paramètres à ajuster est réduit. Pour les CNN, comprendre les origines de ce problème et trouver des moyens de l’empêcher de se produire est donc essentiel.

La méthode actuellement utilisée pour réduire ce phénomène consiste à faire du ‘dropout’ (littéralement du décrochage) qui consiste à perturber le réseau pendant la phase d’apprentissage en déconnectant aléatoirement certains neurones soit pendant la phase de propagation avant, soit pendant la phase de propagation arrière.
Cette méthode force les neurones à ne pas être trop interdépendants.
Une autre façon de réduire le sur-apprentissage consiste à imposer une régularité au réseau (on dit ‘régulariser’). La régularisation s’ajoute à la phase d’apprentissage pour pénaliser des représentations trop complexes.

Tous les détails

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *