01/07/2024 – Séminaire de BOUNIA Louenas – Calcul d’explications formelles pour les arbres de décision et les forêts aléatoires

Séminaire/congrès/conférence

Laboratoire ERIC, salle K071 à 14h00

Résumé : Le besoin et la motivation pour l’intelligence artificielle explicable (XAI) peuvent être résumés en deux objectifs principaux : justification et validation. Les explications permettent de justifier les résultats d’un modèle d’apprentissage automatique en fournissant un motif du raisonnement suivi par le modèle. Une fois que les explications sont extraites, il est essentiel de vérifier la validité de ces explications pour s’assurer qu’elles correspondent aux intentions et aux attentes de l’utilisateur du système d’IA considéré.

Nous avons développé des méthodes de génération d’explications locales post-hoc. Nous avons commencé par étudier l’intelligibilité computationnelle des classifieurs booléens, caractérisée par leur capacité à répondre aux requêtes d’explicabilité en temps polynomial. Nous avons montré que l’intelligibilité computationnelle des arbres de décision est supérieure à celle de nombreux modèles d’apprentissage automatique, ce qui nous a conduit par la suite à nous focaliser sur les arbres de décision et les modèles à base d’arbres, particulièrement les random forests comme modèle d’apprentissage.

Nous avons étudié leur capacité à extraire, minimiser et compter les explications. Nous avons montré que l’ensemble complet des raisons suffisantes pour une instance peut être de taille exponentielle, rendant ainsi difficile, voire impossible, la génération de l’ensemble complet. De plus, deux raisons suffisantes pour une même instance peuvent différer de manière significative.

Pour tenter de synthétiser l’ensemble des raisons suffisantes pour une instance, nous avons introduit les concepts d’attribut nécessaire et d’attribut pertinent, ainsi que le concept de pouvoir explicatif d’un attribut. Pour réduire le nombre d’explications à fournir à l’utilisateur, nous avons aussi développé des modèles de préférences et des algorithmes pour générer des explications exploitant ces préférences. Cette démarche présente plusieurs avantages. En prenant en compte ces préférences, nous pouvons rechercher des explications abductives qui conviennent à l’utilisateur tout en réduisant considérablement leur nombre.

Leave a Reply

Your email address will not be published. Required fields are marked *