Explication géométrique du résultat dans les arbres de décision - INRAE - Institut national de recherche pour l’agriculture, l’alimentation et l’environnement Accéder directement au contenu
Article Dans Une Revue Revue des Sciences et Technologies de l'Information - Série RIA : Revue d'Intelligence Artificielle Année : 2004

Explication géométrique du résultat dans les arbres de décision

Résumé

This article is devoted to the problem of the explanation of the result given by a decision tree (DT) when it is used as a decision aid system, to classify input data and to provide the output class as a result. At now the end-user can rely mainly on some estimation of the error-rate or on the trace of the classification, that is the path run through the DT. We propose here two new methods to qualify the result given by the DT for each particular case. These methods are based on a geometric study of the inverse image of the different classes (the decision surface). First we identify the tests in the tree that are the most relevant to explain the final class, by the way of sensitivity analysis: the vector of initial data is projected onto the decision surface. Second, we study the distribution of errors in relation to the decision surface: the distance to this surface is computed for a sample. The distance of a new case is then presented to the end-user in this context.
Cet article s'intéresse au problème de l'explication des résultats fournis par un arbre de décision utilisé en tant que système d'aide à la décision. On cherche à apporter une information supplémentaire à la classe prédite pour chaque vecteur particulier de données d'entrée. Actuellement on dispose surtout de la trace du classement (le chemin parcouru dans l'arbre), et d'une estimation du taux d'erreur ou d'un risque associé à un mauvais classement. Nous proposons ici deux nouvelles méthodes de qualification du résultat, basées sur une étude géométrique de la frontière de l'image inverse des différentes classes (la surface de décision). La première méthode consiste à identifier les séparateurs les plus déterminants pour expliquer le résultat, en effectuant une analyse de sensibilité, par projection des données initiales sur la surface de décision. La deuxième méthode consiste à caractériser la distribution des erreurs relativement à la surface de décision, en calculant la distance à cette surface pour un ensemble de données, et à replacer chaque nouveau cas dans ce contexte.
Fichier non déposé

Dates et versions

hal-02583558 , version 1 (14-05-2020)

Identifiants

Citer

I. Alvarez. Explication géométrique du résultat dans les arbres de décision. Revue des Sciences et Technologies de l'Information - Série RIA : Revue d'Intelligence Artificielle, 2004, 18 (3), pp.411-441. ⟨hal-02583558⟩
6 Consultations
0 Téléchargements

Partager

Gmail Facebook X LinkedIn More