ROC Curve
La ROC Curve (Receiver Operating Characteristic Curve) est un graphique qui illustre la performance d'un modèle de classification. Elle permet de visualiser le compromis entre la sensibilité et la spécificité à différents seuils de classification.
De quoi parle-t-on ?
La ROC Curve, ou courbe caractéristique de fonctionnement du récepteur, est un outil graphique fondamental utilisé pour évaluer les performances des modèles de classification, notamment dans le contexte de l'apprentissage automatique et de la statistique. Elle a été introduite dans les années 1950 pour analyser les performances des tests médicaux, mais son utilisation s'est étendue à divers domaines, y compris la détection des fraudes, la reconnaissance des formes et le traitement du langage naturel.
La courbe est tracée en représentant le taux de vrais positifs (TPR, True Positive Rate) sur l'axe vertical et le taux de faux positifs (FPR, False Positive Rate) sur l'axe horizontal. Le TPR, également connu sous le nom de sensibilité, mesure la proportion de vrais positifs parmi l'ensemble des cas positifs, tandis que le FPR mesure la proportion de faux positifs parmi les cas négatifs. En faisant varier le seuil de classification du modèle, on peut obtenir plusieurs points de données qui seront ensuite utilisés pour tracer la courbe.
Le principe sous-jacent de la ROC Curve repose sur l'idée que, en ajustant le seuil de décision d'un modèle, on peut obtenir différents compromis entre la sensibilité et la spécificité. Une courbe idéale se rapprocherait du coin supérieur gauche du graphique, où la sensibilité est maximale et le taux de faux positifs est minimal. La zone sous la courbe (AUC, Area Under the Curve) est également un indicateur clé de la performance du modèle ; une AUC de 1 indique une classification parfaite, tandis qu'une AUC de 0,5 indique une performance équivalente à celle d'un tirage au sort.