-
Notifications
You must be signed in to change notification settings - Fork 0
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
- Loading branch information
mhillion
committed
Nov 28, 2024
1 parent
0cbe326
commit 063b3a9
Showing
1 changed file
with
188 additions
and
0 deletions.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1,188 @@ | ||
Voici un plan détaillé du document méthodologique sur les méthodes ensemblistes, intégrant vos suggestions et enrichissant la structure avec des titres, sous-titres et descriptions synthétiques du contenu. | ||
|
||
# Section 1 : Aperçu des méthodes ensemblistes | ||
|
||
Objectif : Introduction intuitive aux méthodes ensemblistes, accessible sans prérequis mathématiques. | ||
|
||
## 1.1 Que sont les méthodes ensemblistes ? | ||
|
||
Description : Définition des méthodes ensemblistes, leur principe de combinaison de modèles simples ("apprenants faibles") pour créer un modèle plus performant ("apprenant fort"). Exemples d'applications. Focus sur les méthodes basées sur les arbres de décision. | ||
|
||
## 1.2 Pourquoi utiliser des méthodes ensemblistes ? | ||
|
||
Description : Avantages des méthodes ensemblistes par rapport aux méthodes économétriques traditionnelles (régression linéaire et logistique) : puissance prédictive supérieure, moins de préparation des données, robustesse aux valeurs extrêmes et à l'hétéroscédasticité. Inconvénients : interprétabilité moindre et complexité accrue de l'entraînement et de l'optimisation des hyperparamètres. Comparaison avec le deep learning. | ||
|
||
## 1.3 Comment fonctionnent les méthodes ensemblistes ? | ||
|
||
Description : Présentation du modèle de base (arbre CART) et des deux grandes familles de méthodes ensemblistes : bagging (forêts aléatoires) et gradient boosting. | ||
|
||
### 1.3.1 Le modèle de base : l'arbre de classification et de régression (CART) | ||
|
||
Description : Explication intuitive du fonctionnement d'un arbre CART : partitionnement de l'espace des variables explicatives, règles de décision, prédictions. Avantages et limites des arbres CART (faible pouvoir prédictif et instabilité). | ||
|
||
#### 1.3.1.1 Qu'est-ce qu'un arbre CART ? | ||
|
||
Description : Définition formelle d'un arbre CART. Caractéristiques essentielles: partitionnement de l'espace des variables explicatives en régions homogènes, règles de décision, prédiction pour chaque région. | ||
|
||
#### 1.3.1.2 Avantages et limites des arbres CART | ||
|
||
Description : Points forts: simplicité, interprétabilité. Faiblesses: faible pouvoir prédictif, instabilité, variance élevée. | ||
|
||
### 1.3.2 Le bagging (Bootstrap Aggregating) et les forêts aléatoires | ||
|
||
Description : Introduction au bagging : principe du bootstrap, entraînement parallèle, agrégation des prédictions. Avantages du bagging (meilleure capacité prédictive et stabilité). Limites (corrélation entre les arbres). | ||
|
||
#### 1.3.2.1 Le bagging | ||
|
||
Description : Détail du processus de bagging : création de sous-échantillons aléatoires avec remise, entraînement parallèle des modèles de base, agrégation des prédictions (moyenne ou vote majoritaire). Illustration graphique. | ||
|
||
#### 1.3.2.2 Les random forests | ||
|
||
Description : Amélioration du bagging : ajout de la sélection aléatoire des variables. Réduction de la corrélation entre les arbres, amélioration de l'efficacité de l'agrégation. Illustration graphique. Problématique du surapprentissage. | ||
|
||
### 1.3.3 Le gradient boosting | ||
|
||
Description : Présentation du gradient boosting : entraînement séquentiel des arbres, correction des erreurs des arbres précédents. Avantages (performances élevées), inconvénients (complexité, risque de surapprentissage). Illustration graphique. | ||
|
||
Section 2 : Présentation formelle des méthodes ensemblistes | ||
|
||
Objectif : Présentation formelle des méthodes ensemblistes, pour une compréhension approfondie des algorithmes. | ||
|
||
## 2.1 La brique élémentaire : l'arbre de décision | ||
|
||
Description : Présentation formelle des arbres de décision : principe du partitionnement pour prédire, défis du partitionnement optimal. Solution apportée par les arbres de décision (simplification du partitionnement et optimisation gloutonne). Terminologie et structure d'un arbre de décision. | ||
|
||
### 2.1.1 Le principe fondamental : partitionner pour prédire | ||
|
||
Description : Explication du principe de base des arbres de décision : partitionner l'espace des caractéristiques en zones plus homogènes. | ||
|
||
### 2.1.2 Les défis du partitionnement optimal | ||
|
||
Description : Difficultés liées à la recherche du partitionnement optimal. | ||
|
||
### 2.1.3 Les solutions apportées par les arbres de décision | ||
|
||
Description : Approche de simplification du partitionnement de l'espace et optimisation gloutonne. | ||
|
||
### 2.1.4 Terminologie et structure d'un arbre de décision | ||
|
||
Description : Définition des termes clé: Noeud racine, noeuds internes, branches, feuilles. | ||
|
||
### 2.1.5 L'algorithme CART : un partitionnement binaire récursif | ||
|
||
Description : Détail de l'algorithme CART : fonction d'impureté (indice de Gini, entropie, SSE), choix de la meilleure division binaire, critère d'arrêt, élagage, prédiction. | ||
|
||
### 2.1.6 Avantages et limites des arbres de décision | ||
|
||
Description: Avantages (Interprétabilité, simplicité, flexibilité, gestion des interactions), inconvénients (Surapprentissage, optimisation locale, instabilité). | ||
|
||
## 2.2 Le bagging | ||
|
||
Description: Présentation détaillée du bagging : échantillonnage bootstrap, entraînement parallèle, agrégation des prédictions. Explication de son fonctionnement pour la régression (réduction de la variance) et la classification (classificateur presque optimal). Limites du bagging en pratique. | ||
|
||
### 2.2.1 Principe du bagging | ||
|
||
Description : Détail des étapes du bagging. | ||
|
||
### 2.2.2 Pourquoi le bagging fonctionne | ||
|
||
Description : Explication du fonctionnement du bagging avec la décomposition biais-variance et l'inégalité de Breiman. | ||
|
||
### 2.2.3 L'échantillonnage par bootstrap peut détériorer les performances théoriques du modèle agrégé | ||
|
||
Description : Présentation des limites de l'échantillonnage bootstrap : taille effective réduite, dépendance entre échantillons, couverture incomplète. | ||
|
||
### 2.2.4 Le bagging en pratique | ||
|
||
Description : Quand et comment utiliser le bagging (nombre de modèles, évaluation par cross-validation et OOB). | ||
|
||
### 2.2.5 Mise en pratique (exemple avec code) | ||
|
||
Description : Exemple d'implémentation du bagging. | ||
|
||
### 2.2.6 Interprétation des modèles bagging | ||
|
||
Description : Difficultés d'interprétation des modèles bagging et pistes de réflexion. | ||
|
||
## 2.3 La forêt aléatoire | ||
|
||
Description : Présentation détaillée des forêts aléatoires : principe, construction (échantillonnage bootstrap, sélection aléatoire de variables, agrégation des prédictions). Explication de leur performance (réduction de la variance, convergence, facteurs influençant l'erreur de généralisation). Hyperparamètres clés, erreur OOB. | ||
|
||
### 2.3.1 Principe de la forêt aléatoire | ||
|
||
Description : Détail des éléments constitutifs d'une forêt aléatoire (arbres CART, bootstrapping, sélection aléatoire de variables, agrégation). | ||
|
||
### 2.3.2 Comment construit-on une forêt aléatoire ? | ||
|
||
Description : Description des étapes de la construction d'une forêt aléatoire. | ||
|
||
### 2.3.3 Pourquoi les forêts aléatoires sont-elles performantes ? | ||
|
||
Description : Explication des mécanismes de réduction de variance et des limites théoriques du surapprentissage. | ||
|
||
### 2.3.4 Les hyperparamètres clés des forêts aléatoires | ||
|
||
Description : Détail des principaux hyperparamètres, leur rôle et leur influence sur les performances. Tableau récapitulatif. | ||
|
||
### 2.3.5 Estimation de l'erreur Out-of-Bag (OOB) | ||
|
||
Description : Détail de la procédure d'estimation OOB, ses avantages et ses limites. | ||
|
||
### 2.3.6 Interprétation et importance des variables | ||
|
||
Description : Discussion des méthodes d'importance des variables (MDI, MDA, valeurs de Shapley, CIF, Sobol-MDA), leurs biais et leurs avantages. | ||
|
||
## 2.4 Le boosting | ||
|
||
Description : Introduction au boosting, ses principes fondamentaux (approximation d'une fonction inconnue, somme pondérée de modèles simples, modélisation additive par étapes). Présentation des premières approches (AdaBoost, Gradient Boosting Machine). Détail de la mécanique du gradient boosting (fonction objectif, gradient, hessienne, construction de l'arbre). Moyens de lutter contre le surapprentissage. Hyperparamètres et préparation des données. | ||
|
||
### 2.4.1 Introduction | ||
|
||
Description : Présentation générale du boosting. | ||
|
||
### 2.4.2 Les premières approches du boosting | ||
|
||
Description : Présentation d'AdaBoost et de la Gradient Boosting Machine. | ||
|
||
### 2.4.3 La mécanique du gradient boosting | ||
|
||
Description : Détail de la mécanique du gradient boosting. Fonction objectif, calcul des poids optimaux, construction de l'arbre, choix des splits. | ||
|
||
### 2.4.4 Les moyens de lutter contre l'overfitting | ||
|
||
Description : Techniques pour éviter le surapprentissage dans les modèles boosting (shrinkage, subsampling, régularisation). | ||
|
||
# Section 3 : Mise en pratique | ||
|
||
Objectif : Guide pratique pour l'utilisation des forêts aléatoires. | ||
|
||
## 3.1 Préparation des données | ||
|
||
Description : Recommandations pour la préparation des données : gestion des valeurs manquantes, encodage des variables catégorielles, utilisation de pipelines. | ||
|
||
## 3.2 Evaluation des performances du modèle et optimisation des hyperparamètres | ||
|
||
Description : Méthodes d'évaluation : validation croisée, estimation OOB. Stratégies d'optimisation des hyperparamètres : recherche exhaustive (grid search, random search), optimisation basée sur modèle séquentiel (SMBO). | ||
|
||
## 3.3 Guide d'entraînement des forêts aléatoires | ||
|
||
Description : Recommandations pratiques pour l'entraînement des forêts aléatoires : implémentations à privilégier, hyperparamètres clés, procédures d'entraînement. | ||
|
||
### 3.3.1 Quelles implémentations utiliser ? | ||
|
||
Description : Recommandations sur les implémentations (ranger, scikit-learn). | ||
|
||
### 3.3.2 Les hyperparamètres clés des forêts aléatoires | ||
|
||
Description : Détail des hyperparamètres et recommandations de réglage. | ||
|
||
### 3.3.3 Comment entraîner une forêt aléatoire ? | ||
|
||
Description : Procédure d'entraînement étape par étape (approche exploratoire et approches avancées). | ||
|
||
### 3.3.4 Mesurer l'importance des variables | ||
|
||
Description : Recommandations sur les méthodes d'importance des variables, tenant compte des biais potentiels. | ||
|
||
Ce plan détaillé fournit une structure claire et concise pour votre document méthodologique. Chaque section et sous-section est clairement définie, facilitant la compréhension et la validation du plan par les relecteurs. N'hésitez pas à ajuster ce plan en fonction de vos besoins et de vos priorités. | ||
|