Expert

Arbres de Décision

Un arbre de décision pose une série de questions binaires pour arriver à une conclusion. C'est très proche du raisonnement humain.

Comment l'arbre se construit ?

À chaque nœud, l'algorithme cherche la question qui sépare le mieux les données (qui réduit le plus l'impureté). On utilise des métriques comme l'Indice de Gini ou l'Entropie.

Avantages et Inconvénients

  • ✅ Très interprétable (on peut visualiser l'arbre).
  • ✅ Pas besoin de normaliser les données.
  • ❌ Tendance au surapprentissage (si l'arbre est trop profond).

Exemple

from sklearn.tree import DecisionTreeClassifier, plot_tree

model = DecisionTreeClassifier(max_depth=3) # Limiter la profondeur évite l'overfitting
model.fit(X_train, y_train)

# Visualisation possible avec matplotlib
# plot_tree(model)

💪 À vous de jouer !

Utilisez le notebook interactif ci-dessous pour tester le code directement ici !