The low discrepancy sequences: a way of reducing the number of supports vectors of SVMs
Les suites à discrépance faible : un moyen de réduire le nombre de vecteurs supports des SVMs
Résumé
L'apprentissage statistique consiste à déterminer une fonction mathématique à partir d'exemples supposés indépendants et identiquement distribués. Dans le cadre de l'apprentissage actif, nous pouvons choisir ces exemples. Des travaux théoriques dans le cas de la régression, ont prouvé que l'utilisation d'une base d'apprentissage issue de suites à discrépance faible permettait d'améliorer la vitesse de convergence des algorithmes d'apprentissage. Des expériences numériques, réalisées en classification avec des réseaux de neurones, ont montré que l'utilisation de ces suites augmente la qualité d'apprentissage. Ce papier reprend les résultats théoriques connus en régression et explique pourquoi ceux-ci ne se transposent pas en classification. Il présente également des tests numériques sur l'algorithme de classification des SVMs (Support Vector Machine ou Séparateur à Vaste Marge) avec des bases d'apprentissage issues de suites à discrépance faible. Les résultats obtenus ne montrent pas une amélioration de la performance, mais les SVMs obtenus sont plus compacts : ce qui peut engendrer un gain de vitesse de prédiction dans des applications de ces derniers.