F1 Score
Le F1 Score est une mesure de la précision d'un modèle de classification qui combine la précision et le rappel. Il est particulièrement utile dans les situations où les classes sont déséquilibrées.
De quoi parle-t-on ?
Le F1 Score est une métrique utilisée pour évaluer la performance des modèles de classification, en particulier dans le cadre d'un problème binaire. Il est défini comme la moyenne harmonique de la précision et du rappel, deux autres mesures clés en évaluation de modèle. La précision (ou précision positive) est le rapport entre le nombre de véritables positifs et le nombre total de prédictions positives (vrais positifs + faux positifs). Le rappel (ou sensibilité) est le rapport entre le nombre de véritables positifs et le nombre total d'exemples positifs dans le jeu de données (vrais positifs + faux négatifs).
Le F1 Score est particulièrement important dans les scénarios où les classes sont déséquilibrées, c'est-à-dire lorsque le nombre d'exemples d'une classe est bien plus élevé que l'autre. Par exemple, dans un problème de détection de spam, les emails non-spam peuvent représenter 95 % des données, tandis que seulement 5 % peuvent être des spams. Ici, un modèle pourrait obtenir une précision élevée simplement en classant tout comme non-spam, mais il ne serait pas utile. Le F1 Score permet de mieux évaluer la performance du modèle dans de tels cas.
Le F1 Score prend des valeurs entre 0 et 1, où 1 indique une performance parfaite (tous les positifs sont correctement identifiés) et 0 indique une performance très faible (aucun positif n'est correctement identifié). Sa formule mathématique est la suivante : F1 = 2 * (précision * rappel) / (précision + rappel). Cette forme met en lumière le compromis entre précision et rappel, en pénalisant les valeurs extrêmes.
En résumé, le F1 Score est une mesure robuste qui permet de juger de la qualité d'un modèle de classification, en tenant compte des erreurs de classification des deux classes.