Precision and Recall
La précision et le rappel sont des métriques utilisées pour évaluer la performance des modèles de classification. La précision mesure la justesse des prédictions positives, tandis que le rappel mesure la capacité à identifier toutes les instances positives.
De quoi parle-t-on ?
La précision et le rappel sont deux concepts fondamentaux en évaluation de modèles, surtout dans le domaine de l'apprentissage automatique et de la science des données. Ces deux métriques sont particulièrement importantes lorsqu'il s'agit de problèmes de classification, où le but est de prédire une étiquette parmi plusieurs classes. La précision (ou « precision » en anglais) est définie comme le rapport entre le nombre de vrais positifs (TP) et la somme des vrais positifs et des faux positifs (FP). En d'autres termes, elle mesure la proportion de prédictions positives qui sont effectivement correctes. Mathématiquement, cela se formule comme suit : Precision = TP / (TP + FP).
D'un autre côté, le rappel (ou « recall ») mesure la capacité du modèle à identifier toutes les instances positives dans le jeu de données. Il est calculé comme le rapport entre le nombre de vrais positifs et la somme des vrais positifs et des faux négatifs (FN). Cela peut être formulé comme : Recall = TP / (TP + FN). En résumé, alors que la précision se concentre sur la qualité des prédictions positives, le rappel évalue la capacité à capturer toutes les instances positives.
L'origine de ces concepts remonte aux travaux en statistiques et en théorie de l'information, où l'on cherchait à quantifier l'efficacité des systèmes de classification. Ces métriques sont également étroitement liées à la notion de matrice de confusion, un outil qui permet de visualiser la performance d'un modèle en indiquant les vrais positifs, les faux positifs, les vrais négatifs et les faux négatifs. En utilisant la matrice de confusion, les chercheurs et les praticiens peuvent mieux comprendre les forces et les faiblesses de leurs modèles, et ainsi les améliorer.