Confusion Matrix
La matrice de confusion est un tableau qui permet d'évaluer la performance d'un modèle de classification. Elle compare les prédictions du modèle aux observations réelles pour identifier les erreurs de classification.
De quoi parle-t-on ?
La matrice de confusion est un outil fondamental en évaluation de modèles, particulièrement dans le domaine de l'apprentissage automatique et de la statistique. Concrètement, elle se présente sous la forme d'un tableau qui compare les résultats prévus par un modèle aux résultats réels. Les lignes de la matrice représentent les classes prédites par le modèle, tandis que les colonnes correspondent aux classes réelles. Chaque cellule de la matrice indique le nombre d'observations qui ont été classées dans une catégorie spécifique.
Originaire du domaine de la statistique, la matrice de confusion permet non seulement d'évaluer la précision d'un modèle, mais aussi de mettre en lumière ses défauts. Par exemple, dans une tâche de classification binaire, la matrice peut aider à identifier les faux positifs (où le modèle prédit une classe positive alors que la classe réelle est négative) et les faux négatifs (où le modèle prédit une classe négative alors que la classe réelle est positive). En général, la matrice de confusion est un outil visuel puissant qui aide les data scientists à mieux comprendre comment leur modèle se comporte sur les données d'évaluation.
Les éléments clés de la matrice de confusion incluent :
- Vrais positifs (VP) : les instances correctement classées comme positives.
- Faux positifs (FP) : les instances incorrectement classées comme positives.
- Vrais négatifs (VN) : les instances correctement classées comme négatives.
- Faux négatifs (FN) : les instances incorrectement classées comme négatives.
Ces éléments permettent de calculer plusieurs métriques importantes telles que la précision, le rappel et le score F1, qui fournissent une évaluation plus complète de la performance du modèle.