2010-: Institut Mines-Télécom Atlantique, Brest,
Mon cours de 3ème année sur les processus non
stationnaires aura lieu en mars 2021. Il est en cours de refonte presque complète à la suite d'une longue série d'articles et livres analysés
(plus de 70, série en cours) pour les
Mathematical Reviews®.
La section sur le deep learning et l'IA prendra évidemment une autre dimension.
Le livre tiré du cours prend forme.
Pour mémoire, liste des leçons pour 2018-2019 :
Leçon 1 (10 janvier 2019) : Modèles de volatilité.
Modèle GARCH : définition, propriétés, structure de dépendance, estimation par QML.
Transparents
Leçon 2 (11 janvier 2019) : Modèle GARCH exponentiel. Méthodes de rééchantillonage : définition et
applications à la prévision "model free" et à l'inférence des modèles univariés. Modèles multivariés. Modèles à changement de régime.
Transparents
Leçon 3 (25 février 2019) : Modèles de volatilité fortement dépendants et multifractaux.
Analyse par ondelettes de la volatilité.
Transparents
Leçon 4 (26 février 2019) : Estimation de la volatilité de processus observés à très haute fréquence.
Deep Learning: architectures convolutives, récurrentes et hybrides des réseaux neuronaux profonds.
Transparents
2009 : Université d'Aarhus, cours doctoral, en anglais, basé sur la version préliminaire du livre
Large Sample Inference for Long Memory
Processes (2012) Imperial College Press. En 2013, j'ai écrit une évaluation de ce livre pour les
Mathematical Reviews®.
Cette revue est accessible aux abonnés MathScinet à partir de mon
profil d'auteur Matériel additionel, non couvert par ce livre :
Transparents
2006-2007 : Ensae, cours sur la
Dépendance de longue portée et les changements de régime : Applications
à des séries chronologiques financières univariées et multivariées,
Le numéro de décembre 2019 des Notices of the American Mathematical Society
contient un article intitulé Machine Learning: Mathematical Theory and Scientific Applications (2019), vol 66,
1813-20, Pdf
Les conférences de Yann LeCun, au "Center for Data Science" à NYU (2020), sur le l'apprentissage profong,
Les conférences de Stéphane Mallat au Collège de France,
Le premier TP nécessite une bonne connaissance de R.
Depuis l'année 2016-2017, pour les projets sur le Machine Learning, deep learning, etc., les élèves utilisent ou bien Python
avec les bibliothèques PyTorch,
TensorFlow, et éventuellement
scikit-learn, ou bien Torch pour R.
Certains programmes tournent sous Octave, qui est un langage de programmation matriciel dont la syntaxe est proche de Matlab. A la différence de Matlab,
Octave est un logiciel libre.
C++ reste le langage de programmation le plus puissant. Valgrind est un outil très utile pour détecter les erreurs de gestion de la mémoire, optimiser le programme, etc.
J'ai écrit quelques scripts directement utilisables qui évitent de se plonger dans la documentation.
NLopt
est vraisemblablement ce qui se fait de mieux dans le domaine des bibliothèques d'optimisation non linéaire. Cette bibliothèque est
utilisable pour les programmes écrits en C, C++, Fortran, Python, Julia,
R,
Octave, et Matlab.
Le site de Donald Knuth. Vous y trouverez tout ce qui est important dans les domaines des algorithmes, algorithmes numériques,
TeX etc.
Open Math Notes est un dépot de travaux mathématiques en progrès
hébergé par l'American Mathematical Society, pour rendre service aux mathématiciens,
chercheurs, enseignants et étudiants.
Les numéros de janvier 2013 et mai 2011 des Notices of the American Mathematical Society contiennent deux articles introductifs sur les ondelettes :
Wavelets (2013), vol 60, 66-76, Pdf,
et Discrete wavelet transformations and undergraduate
education (2011), vol 58, 656-666, Pdf.
Voir aussi l'interview d'Yves Meyer
parue en mai 2018 dans les Notices of the American Mathematical SocietyPdf,
ainsi que les présentations d'Yves Meyer sur les applications des ondelettes :
Trois livres sur l'art d'écrire les mathématiques : les textes classiques de Paul Halmos,
How to Write Mathematics (1970)
Pdf, et
Donald Knuth, Tracy L. Larrabee, et Paul M. Roberts
Mathematical Writing,
Mathematical Association of America, 1989, avec les corrections de Donald Knuth. Il y a enfin la deuxième édition
du livre de Steven Krantz A Primer of Mathematical Writing,
American Mathematical Society, 2017.
Jean-Pierre Serre
se moque des travers de certains écrits mathématiques au cours de cette présentation très drôle :
How to Write Mathematics Badly.
Dans la même veine, il y a aussi la parodie de publication scientifique de Georges Perec : Experimental demonstration of the tomatotopic organization
in the Soprano (Cantatrix sopranica L.). Georges Perec a été
documentaliste au CNRS, et j'ai bien connu un économiste qui avait cessé de travailler et qui racontait des choses tout aussi délirantes dans
les conférences où il était bien en peine de présenter les travaux écrits principalement par son co-auteur, et donc commençait sa présentation
avec de longues digressions (entre autres sa grand-mère avait écrit à la reine Victoria ...).
MathJax est une librairie Javascript libre utilisant
LaTeX
et MathML
pour afficher des formules mathématiques sur des pages web, qui fonctionne sur tous les navigateurs modernes et que j'utilise pour
mes pages web. Les détails sur MathJax sont donnés dans les Notices of the American Mathematical SocietyMathJax: A Platform for Mathematics on the Web (2012), vol 59, 312-316,
Pdf.
Le site web Scholarly Open Access contient une liste mise à jour
des journaux "prédateurs" et des maisons d'édition qui doivent être évitées. Plus de détails sont donnés dans l'article de J. Beall
Predatory publishers are corrupting open access,
Nature 489, 179, (13 September 2012)DOI.