Réseaux de neurones et apprentissage profond

Par Emmanuel Viennet, Université Paris 13

Des connaissances élémentaires d’algèbre linéaire et d’analyse (fonctions multivariées, dérivées partielles) sont suffisantes pour suivre ce cours.

Tutoriels et outils utiles pour suivre ce cours:

Quelques références pour aller plus loin après le cours:

  • T. Hastie, R. Tibshirani, J. Friedman (2009) The Elements of Statistical Learning
  • I. Goodfellow, Y. Bengio et Aaron Courville (2016), Deep Learning
  • François Chollet (2018), Deep Learning with Python
  • Grus (2015), Data Science from Scratch
  • S. Kevin Zhou et al. (2017), Deep Learning for Medical Image Analysis
  • A. Géron (2017), Hands-On Machine Learning with Scikit-Learn & TensorFlow

Les réseaux de neurones artificiels, étudiés depuis les années 50, connaissent un succès remarquable ces dernières années car ils permettent d’aborder des problèmes de reconnaissance des formes très complexes sur des données de grande taille. Ces modèles sont couramment utilisés pour la reconnaissance vocale, la détection et l’identification d’objets dans des images, mais aussi la traduction de textes ou la synthèse d’images. Le cours abordera les principaux concepts et modèles :

  • Historique du domaine
  • Réseaux à convolutions
  • Apprentissage supervisé
  • Auto-encodeurs
  • Traitement du texte et des images

Emmanuel Viennet est Professeur à l’Université Paris 13 et mène des recherches depuis trente ans sur la reconnaissance des formes par réseaux de neurones, le traitement de données massives et d’images. Il est responsable de l’axe « Apprentissage et Fouille de Données » du laboratoire L2TI. Il a publié plus de cent articles dans des journaux et conférences internationales.