8KUAAN11 Méthodes de Monte-Carlo | Crédits : 2 ECTS Durée : 21 heures | Semestre : S8 | ||
Responsable(s) : Yvain BRUNED, Professeur à la Faculté des Science & Technologies, yvain.bruned@univ-lorraine.fr | ||||
Mots clés : Simulation aléatoire ; Méthode de Monte-Carlo ; Réduction de la variance ; Méthodes MCMC | ||||
Pré requis : Théorie des probabilités (niveau M1) ; Rudiments de Python | ||||
Objectif général : Utiliser la simulation aléatoire pour résoudre des problèmes déterministes complexes | ||||
La première partie du cours présente la méthode de Monte-Carlo consistant à évaluer une espérance probabiliste à l'aide de simulations : ainsi, on calcule une quantité déterministe par un procédé aléatoire. Cette première partie expliquera comment estimer la quantité d'intérêt ; et aussi, ce qui est non moins essentiel, comment déterminer l'intervalle de confiance associé à l'estimateur obtenu. Il est alors important d'améliorer cet intervalle de confiance : cela est l'objectif des techniques dites de réduction de la variance. Nous présenterons quatre de ces techniques : l'échantillonnage préférentiel, le conditionnement, la variable de contrôle, et le couplage. Dans de nombreuses situations, la simulation des variables aléatoires, essentielle à l'application de la méthode de Monte-Carlo, s'avère être un problème plus complexe que la mise en œuvre de la méthode de Monte-Carlo en elle-même : c'est notamment le cas en statistique bayésienne, pour la simulation d'une distribution à postériori en grande dimension. La seconde partie du cours présentera une famille de méthodes, fondées sur les chaines de Markov, permettant de réaliser de telles simulations : les méthodes de chaines de Markov pour Monte-Carlo, ou « méthodes MCMC » (Monte Carlo Markov Chains). Nous verrons en particulier l'algorithme de Metropolis-Hastings, très général, et nous présenterons l'échantillonnage de Gibbs, plus rapide mais plus délicat à mettre en œuvre. La fiabilité de ces méthodes de simulation, en particulier la problématique de leur convergence, sera étudiée sous un angle à la fois théorique et pratique. Ce module comprendra une large partie de mise en œuvre informatique des concepts étudiés, que nous effectuerons en l'occurrence avec Python.
| ||||
Compétences : | ||||
Niveaux | Description et verbes opérationnels | |||
Connaître | Savoir calculer l'intervalle de confiance associé à une méthode de Monte-Carlo Connaitre les principales techniques de réduction de la variance Connaitre les formules caractérisant les chaines de Markov utilisées dans les méthodes MCMC | |||
Comprendre | Comprendre le principe de la méthode de Monte-Carlo, ses forces et ses limites Comprendre l'intérêt des méthodes MCMC et le comportement des chaines de Markov impliquées | |||
Appliquer | Implémenter informatiquement une méthode de Monte-Carlo, une technique de réduction de la variance Implémenter informatiquement un algorithme de Metropolis-Hastings ou de Gibbs | |||
Analyser | Choisir une technique de réduction de la variance adaptée au problème considéré Porter un regard critique sur la convergence d'un estimateur de Monte-Carlo Choisir une méthode MCMC adaptée au problème considéré Porter un regard critique sur la convergence d'une méthode MCMC | |||
Synthétiser | Calculer des estimateurs bayésiens pertinents dans un contexte statistique en appliquant une méthode de Monte-Carlo s'appuyant un algorithme MCMC | |||
Évaluer | ||||
Évaluations : | ||||
|
|
|
|
|