Underfitting
L'underfitting se produit lorsque un modèle est trop simple pour capturer la complexité des données. Cela entraîne des performances médiocres tant sur les données d'entraînement que sur les données de test.
De quoi parle-t-on ?
L'underfitting est un terme utilisé dans le domaine de l'apprentissage automatique et de la modélisation statistique pour décrire un phénomène où un modèle ne parvient pas à capturer les tendances sous-jacentes des données d'entraînement. Cela se produit généralement lorsque le modèle est trop simple par rapport à la complexité des données, ce qui entraîne des prévisions inexactes. Par exemple, un modèle de régression linéaire appliqué à des données qui présentent une relation non linéaire peut conduire à un underfitting, car le modèle ne peut pas s'ajuster correctement à la courbe des données.
Ce concept a ses origines dans les principes de l'apprentissage supervisé, où l'objectif est d'apprendre à partir de données étiquetées. L'underfitting peut survenir pour plusieurs raisons, notamment un choix inapproprié de l'algorithme, une insuffisance de données, ou l'utilisation de caractéristiques inappropriées pour le modèle. En général, un modèle sous-ajusté aura un biais élevé et une variance faible, ce qui signifie qu'il est trop rigide pour s'adapter aux fluctuations des données.
Les principes fondamentaux de l'underfitting reposent sur l'équilibre entre la complexité du modèle et la capacité à généraliser à des données non vues. Un modèle doit être suffisamment complexe pour capturer les nuances des données mais pas au point de s'ajuster trop étroitement aux données d'entraînement, ce qui pourrait mener à un autre problème connu sous le nom de surajustement.