Informatique et sciences numériques

Yann LeCun

Yann LeCun est un chercheur en intelligence artificielle, apprentissage machine, vision artificielle et robotique, diplômé de l’École supérieure d’ingénieurs en électronique et électrotechnique (ESIEE) de Paris et de l’Université Pierre et Marie Curie. Il devient chercheur aux Bell Laboratories en 1988 et est nommé directeur de département aux laboratoires AT&T en 1996.

  • 1 hour 29 minutes
    08 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    15 April 2016, 2:42 pm
  • 1 hour 36 seconds
    07 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    8 April 2016, 8:28 am
  • 53 minutes 58 seconds
    06 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    1 April 2016, 2:35 pm
  • 24 minutes 7 seconds
    05 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    25 March 2016, 4:53 pm
  • 58 minutes 32 seconds
    04 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    4 March 2016, 4:08 pm
  • 1 hour 4 minutes
    03 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    26 February 2016, 9:30 am
  • 1 hour 2 minutes
    02 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    19 February 2016, 9:15 am
  • 1 hour 41 minutes
    01 - L'apprentissage profond

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    12 February 2016, 10:29 pm
  • 1 hour 30 minutes
    Leçon inaugurale - Yann LeCun : L'apprentissage profond : une révolution en intelligence artificielle

    Yann LeCun

    Informatique et sciences numériques

    Chaire annuelle en partenariat avec l'Inria

    Année 2015-2016

    L'apprentissage profond : une révolution en intelligence artificielle

    Leçon inaugurale

    Ce dernier cours de 2014-2015 introduit les méthodes implicites de manipulation de systèmes de transitions, à travers les méthodes de calcul booléen utilisées à la fois pour la vérification formelles et pour l'optimisation de circuits électroniques et de programmes qui peuvent se réduire au calcul booléen.

    Ces méthodes ont révolutionné le domaine en permettant des vérifications formelles de systèmes dont le calcul explicite des états et transitions est impossible, car la taille des formules manipulées par les méthodes implicites est largement indépendante de celle des systèmes qu'ils décrivent. Nous expliquons d'abord les codages booléens d'ensembles, de relations et de fonctions, et montrons comment calculer l'image directe et l'image inverse de sous-ensembles par des fonctions. Nous étudions ensuite les codages booléens d'automates déterministes et non-déterministes, ainsi que leurs implémentations en circuits électroniques. Nous rappelons le fait que le circuit canoniquement associé à un automate non-déterministe est lui déterministe comme tous les circuits combinatoirement acycliques, ce qui montre clairement que le qualificatif « non-déterminisme » est particulièrement mal choisi : en vérification booléenne comme en optimisation de circuits, il est inutile de déterminiser les automates, et c'est souvent nuisible à cause de l'explosion exponentielle que la déterminisation peut produire. Nous montrons comment la vérification formelle de propriétés de sûreté définies par des observateurs se réduit au calcul des états accessibles, et comment effectuer ce calcul de manière implicite. Nous introduisons la première structure fondamentale du calcul booléen, les Binary Decision Diagrams, développés par R. Bryant au milieu des années 1980 (et indépendamment par J-P. Billion chez Bull en France), et expliquons pourquoi ils permettent de faire les calculs nécessaires au passage à la grande échelle; nous mentionnons leurs limitations, qui sont inévitables car le calcul booléen est NP-complet. Les BDDs seront étudiés beaucoup plus en profondeur dans le cours 2015-2015.

    Pour terminer, nous montrons que le codage booléen permet de réaliser des optimisations très efficaces des circuits engendrés par les programmes Esterel. Nous insistons sur le fait que la structure du langage source et la façon d'y programmer les applications sont essentiels pour la qualité de l'optimisation finale : c'est grâce à l'interaction de la séquence, du parallélisme et de la préemption hiérarchique des comportements que les circuits engendrés par Esterel sont systématiquement meilleurs que ceux programmés et optimisés par les méthodes classiques, au moins en ce qui concerne leurs parties contrôle.

    4 February 2016, 4:59 pm
  • More Episodes? Get the App
© MoonFM 2024. All rights reserved.