David BECK analyse les enjeux sociétaux et politiques au travers des technologies et de la consommation

Comment justifier les décisions prises par un algorithme d’IA ?

David BECK Academic - Society, Politics & Techology

Le besoin d’explicabilité n’est pas nouveau ! Charles Peirce, philosophe et logicien américain, a introduit le raisonnement abductif, c’est-à-dire la recherche d’explications.

Comment expliquer les décisions prises par les algorithmes d’IA ?

De nombreuses méthodes utilisées en intelligence artificielle (IA) symbolique, basées sur la modélisation de la connaissance avec des approches telles que la logique, l’apprentissage symbolique, etc. sont dites “explicables par essence”, car la séquence de raisonnement qui conduit à une décision est identifiée. Mais ce n’est que partiellement vrai, car si le problème posé devient trop important, avec un grand nombre de formules logiques, des arbres de décision très complexes, des règles d’association très nombreuses, l’explication devient difficile.

La question de l’explicabilité est d’autant plus pertinente aujourd’hui que le second paradigme de l’IA, les approches statistiques de l’IA, est revenu sur le devant de la scène ces dernières années. Alors que l’IA symbolique est basée sur des règles et reproduit le raisonnement humain, les approches statistiques de l’IA s’appuient sur des méthodes d’apprentissage statistique, en particulier les réseaux de neurones artificiels qui sont entraînés sur de grands volumes de données. Ces approches font partie de l’apprentissage automatique, y compris de l’apprentissage profond (DL), mais elles ne sont pas les seules. Il est très difficile d’extraire et d’exprimer les règles de fonctionnement des réseaux neuronaux, qui partent des données

L’apprentissage en profondeur est une sous-branche de l’apprentissage automatique qui imite le fonctionnement du cerveau humain pendant le traitement des données. Il permet aux machines d’apprendre sans supervision humaine. Il donne la capacité de comprendre les mots parlés et ce qu’ils cachent, de traduire, d’identifier des objets et de prendre des décisions en connaissance de cause.
Bien qu’il s’agisse d’une branche de l’apprentissage automatique, les systèmes d’apprentissage automatique n’ont pas de capacités d’apprentissage limitées comme les algorithmes d’apprentissage automatique traditionnels. Au contraire, les systèmes d’apprentissage automatique peuvent continuellement améliorer leurs capacités au-delà de l’imagination à mesure qu’ils sont alimentés par des données plus importantes et plus cohérentes.

Comment expliquer une décision d’IA ?

out d’abord, il faut définir ce qu’il faut expliquer, pour qui, comment et pourquoi… Le choix des outils ou méthodes d’explicabilité dépend de la réponse apportée à ces questions.
Pour les réseaux de neurones, il est possible d’y répondre au niveau des données utilisées, au niveau du fonctionnement du réseau lui-même ou au niveau du résultat produit.
Pour le fonctionnement, on peut se demander s’il est nécessaire d’expliquer. Prenons l’exemple de l’aspirine, elle a été utilisée pendant longtemps sans que l’on sache comment elle fonctionnait. Et quand on a compris son fonctionnement, on s’en est servi pour développer de nouvelles choses, sans changer l’usage qui en était fait. De même, on peut conduire une voiture sans comprendre le moteur, mais avec un niveau de connaissance suffisant pour bien l’utiliser.

Au niveau du résultat final, l’explication peut devoir passer par des étapes intermédiaires pour mieux l’expliquer.
On attend d’un algorithme qu’il soit neutre, mais rien n’est jamais neutre ! Le médecin déclenche un examen d’imagerie pour son patient parce qu’il cherche quelque chose qu’il pourrait identifier dans cette image, il a une intention. Cela introduit des biais, qui ne sont pas statistiques, mais cognitifs, de cadrage, de confirmation, de complaisance, etc. On retrouve ces mêmes biais face à des résultats produits par un algorithme.
De plus, il ne faut pas oublier que l’on fait d’autant plus confiance à l’algorithme qu’il montre ce que l’on cherche. Un autre facteur est le coût de l’erreur, car il est très différent selon qu’elle est détectée à tort ou à raison.

L’explicabilité dépend de l’utilisateur et de l’utilisation d’un algorithme

L’explication est un processus de conversation, de communication. Nous adaptons le niveau d’explication en fonction de notre interlocuteur. Prenons une image montrant une tumeur. Le médecin expliquera cette image et la tumeur différemment selon qu’il s’adresse à son personnel, à des étudiants, à un auditoire lors d’une conférence ou à son patient.

Nous devons également nous demander pourquoi nous voulons expliquer. S’agit-il de justifier, de contrôler le fonctionnement d’un algorithme, de découvrir une connaissance scientifique, un phénomène ? Les objectifs varient et cela nécessitera des outils différents. Les enjeux sont également différents, il y a des questions de confiance, d’éthique, de responsabilité, et éventuellement des questions économiques.

Le besoin d’explicabilité est plus fort à l’heure actuelle

C’est essentiellement dû aux réseaux neuronaux profonds, qui sont de plus en plus utilisés, qui ont des millions de paramètres et qui sont extrêmement complexes. On s’appuie beaucoup sur les données en espérant que l’augmentation des volumes utilisés permettra d’améliorer les résultats. Cela dit, il y a beaucoup de connaissances du domaine qui pourraient être utilisées.
C’est ce que propose l’IA hybride, qui combine plusieurs approches de l’IA. Elle combine la connaissance et les données, l’IA symbolique et les réseaux neuronaux, la logique et l’apprentissage.

Quelle que soit l’approche, le rôle de l’être humain reste primordial et il sera toujours nécessaire de justifier les décisions prises par un algorithme.

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.