Des chercheurs d’IBM, de l’académie militaire américaine et de l’université de Cardiff ont récemment proposé une technique qu’ils auraient appelé « explications agnostiques modèles interprétables localement (LIME) » pour mieux comprendre les conclusions tirées par les algorithmes d’apprentissage automatique.

Leur rapport pourrait éclairer le développement d’outils d’intelligence artificielle fournissant des explications exhaustives sur la manière dont ils ont abouti à un résultat ou à une conclusion donné. Les chercheurs pensent que l’intelligence artificielle et l’apprentissage automatique peuvent soutenir et améliorer la prise de décision. Aujourd’hui, les décisions prises par de nombreux systèmes d’apprentissage automatique sont inexplicables.

Expliquer la décision prise

La recherche porte sur la question de savoir comment améliorer les techniques qui visent à mieux comprendre des processus d’apprentissage automatique. LIME est une méthode particulièrement populaire qui peut être appliquée à de nombreux modèles d’apprentissage automatique.

Voici une vidéo expliquant cette technique en anglais :

Malgré sa polyvalence, il est souvent perçu comme peu fiable et donc inefficace pour fournir des explications, également en raison de la variabilité des résultats qu’il produit. Plutôt que de développer une toute nouvelle technique, les chercheurs ont entrepris d’identifier des mécanismes susceptibles d’améliorer les explications de LIME.

Tester LIME

Ils ont voulu d’abord approfondir l’instabilité constatée par d’autres chercheurs afin de déterminer si LIME était vraiment instable. Pour ce faire, ils sont testé le système sur leur ensemble de données et leur modèle d’apprentissage automatique sans modifier le code sous-jacent. Ils ont immédiatement constaté que les images d’explication obtenues variaient considérablement et ne semblaient pas cohérentes.

C’est peut-être à ce moment-là que beaucoup cesseraient tout simplement d’utiliser la technique.  Lorsque les chercheurs ont approfondi les statistiques sous-jacentes de LIME, ils ont découvert que, même si les images générées par celle-ci semblaient visuellement instables, l’explication par défaut ne tenait pas compte de toutes les informations statistiques.

Source :

Techxplore