Arbres de Décision
Un arbre de décision pose une série de questions binaires pour arriver à une conclusion. C'est très proche du raisonnement humain.
Comment l'arbre se construit ?
À chaque nœud, l'algorithme cherche la question qui sépare le mieux les données (qui réduit le plus l'impureté). On utilise des métriques comme l'Indice de Gini ou l'Entropie.
Avantages et Inconvénients
- ✅ Très interprétable (on peut visualiser l'arbre).
- ✅ Pas besoin de normaliser les données.
- ❌ Tendance au surapprentissage (si l'arbre est trop profond).
Exemple
from sklearn.tree import DecisionTreeClassifier, plot_tree
model = DecisionTreeClassifier(max_depth=3) # Limiter la profondeur évite l'overfitting
model.fit(X_train, y_train)
# Visualisation possible avec matplotlib
# plot_tree(model)
💪 À vous de jouer !
Utilisez le notebook interactif ci-dessous pour tester le code directement ici !