LinkedIn Twitter
Enseignement et Supervision

Cours en ligne

  • Les sujets de mémoires sur le machine learning, le deep-learning, et la prévision "model free", pour l'année 2019-2020 seront disponibles à la rentrée.
  • 2010-: Institut Mines-Télécom Atlantique, Brest,
    Mon cours de 3ème année sur les processus non stationnaires est en cours de refonte pour 2019-2020 à la suite d'une longue série d'articles et livres analysés (plus de 60, série en cours) pour les Mathematical Reviews®. La section sur le deep learning et l'IA prendra une autre dimension. Le livre tiré du cours prend forme.
    Pour mémoire, liste des leçons  pour 2018-2019 :
    • Leçon 1  (10 janvier 2019) : Modèles de volatilité. Modèle GARCH : définition, propriétés, structure de dépendance, estimation par QML. Transparents
    • Leçon 2  (11 janvier 2019) : Modèle GARCH exponentiel. Méthodes de rééchantillonage : définition et applications à la prévision "model free" et à l'inférence des modèles univariés. Modèles multivariés. Modèles à changement de régime. Transparents
    • Leçon 3  (25 février 2019) : Modèles de volatilité fortement dépendants et multifractaux. Analyse par ondelettes de la volatilité. Transparents
    • Leçon 4  (26 février 2019) : Estimation de la volatilité de processus observés à très haute fréquence. Deep Learning: architectures convolutives, récurrentes et hybrides des réseaux neuronaux profonds. Transparents
  • 2009 : Université d'Aarhus, cours doctoral, en anglais, basé sur la version préliminaire du livre Large Sample Inference for Long Memory Processes (2012) Imperial College Press. En 2013, j'ai écrit une évaluation de ce livre pour les Mathematical Reviews®. Cette revue est accessible aux abonnés MathScinet à partir de mon profil d'auteur
    Matériel additionel, non couvert par ce livre : Transparents
  • 2006-2007 : Ensae, cours sur la Dépendance de longue portée et les changements de régime : Applications à des séries chronologiques financières univariées et multivariées,
    • Leçon 1 : Processus fortement dépendants, Transparents
    • Leçon 2 : Tests de détection de longue portée et estimateurs du paramètre de longue portée, Transparents
    • Leçon 3 : Tests de détection de ruptures, Transparents
    • Leçon 4 : Méthodes statistiques robustes aux ruptures, Transparents
    • Leçon 5 : Modèles multivariés, Transparents
    Ces transparents ne sont plus mis à jour depuis le début de mes cours à l'ENST.

Resources informatiques

  • Le premier TP nécessite une bonne connaissance de R
    Depuis l'année 2016-2017, pour les projets sur le Machine Learning, deep learning, etc., les élèves utilisent Python avec les bibliothèques scikit-learn et TensorFlow
  • Certains programmes tournent sous Octave, qui est un langage de programmation matriciel dont la syntaxe est proche de Matlab. A la différence de Matlab, Octave est un logiciel libre.
  • Pour ceux qui veulent programmer en C/C++, le compilateur C++ du GNU Compiler Collection (GCC) est fort recommandable. Valgrind est un outil très utile pour détecter les erreurs de gestion de la mémoire, optimiser le programme, etc. J'ai écrit quelques scripts directement utilisables qui évitent de se plonger dans la documentation.
    NLopt est vraisemblablement ce qui se fait de mieux dans le domaine des bibliothèques d'optimisation non linéaire. Cette bibliothèque est utilisable pour les programmes écrits en C, C++, Fortran, Python, Julia, R, Octave, et Matlab.
  • Le site de Donald Knuth. Vous y trouverez tout ce qui est important dans les domaines des algorithmes, algorithmes numériques, TeX etc.
  • La Digital Library of Mathematical Functions du National Institute of Standards and Technology (NIST); Cette biblothèque a été présentée dans l'article A special functions handbook for the digital age, R. Boisvert, C.W. Clark, D. Lozier, et F. Olver, Notices of the American Mathematical Society (2011), vol 58, 905-911, Pdf. Cette bibliothèque en ligne remplace le livre classique de M. Abramowitz et I. Stegun: the Handbook of Mathematical Functions
    La base de données du NIST Statistical Reference Datasets (NIST StRD) permet d'évaluer la précision numérique des logiciels statistiques.
    La page web de B.D. McCullough est une source d'informations utiles sur ce sujet.

Autres ressources

MAJ: 2 avril 2019.