Support Vector Machines
Les Support Vector Machines (SVM) sont des algorithmes de Machine Learning utilisés pour la classification et la régression. Ils fonctionnent en trouvant l'hyperplan qui sépare les données en classes distinctes avec une marge maximale.
De quoi parle-t-on ?
Les Support Vector Machines (SVM) sont des modèles d'apprentissage supervisé principalement utilisés pour des tâches de classification, mais ils peuvent également être appliqués à des problèmes de régression. L'idée centrale des SVM est de trouver un hyperplan optimal qui sépare les différentes classes de données dans un espace multidimensionnel. L'hyperplan est déterminé de telle sorte qu'il maximise la distance (ou la marge) entre les points de données les plus proches des différentes classes, appelés vecteurs de support.
Les origines des SVM remontent aux travaux de Vladimir Vapnik et Alexey Chervonenkis dans les années 1960. Cependant, ce n’est qu’à la fin des années 1990 que les SVM ont gagné en popularité grâce à leur efficacité et à leur capacité à traiter des données non linéaires grâce à l'utilisation de noyaux. En utilisant des fonctions de noyau, les SVM peuvent transformer les données d'origine dans un espace de dimension supérieure, permettant ainsi de trouver un hyperplan de séparation non linéaire.
Les SVM sont particulièrement efficaces dans des espaces de grande dimension et sont robustes face à des cas de surajustement, surtout lorsqu'ils sont appliqués à des ensembles de données avec un nombre de dimensions supérieur au nombre d'échantillons. Cette capacité à généraliser à partir d'un ensemble de données d'entraînement en fait un outil précieux dans de nombreux domaines, notamment la reconnaissance d'image, le traitement du langage naturel et la bioinformatique.