David BECK analyzes technological issues from a political, economic and societal perspective.

IA : corriger les biais du Machine Learning

David BECK Academic - Geo economics & Tech

J’ai participé au sommet de l’IA à Lyon (France) il y a quelques jours, une conférence organisée par OMNES Education. Je suis conférencier dans cette école. Mes articles traitent et analysent les technologies émergentes. Les biais sont partout, qu’ils soient conscients ou non (idéologie, connaissance partielle, névrose…, factures à payer).
Lorsque l’on parle d’intelligence artificielle, les personnes averties savent qu’au-delà de la technologie, l’élément le plus important est la donnée – la taille des ensembles de données, la récurrence des nouveaux ensembles, la qualité des données, etc.
Pour les non-experts – parfois réticents – le biais de l’IA est donc tout à fait évident : c’est le biais lié aux données. Comme pour tout système, toute entité, toute recherche, éviter les biais est la clé du succès. Mais il faut en être conscient ! Les biais humains ne peuvent jamais être corrigés : c’est ce qui fait tout le plaisir de notre vie. D’un point de vue phylosophique, c’est la caractéristique de l’être humain. Les biais d’une IA peuvent être corrigés (par l’humain ou de manière méta, c’est-à-dire par des IA spécialisées), c’est la nature de l’artificiel.

Depuis la disparition de Neandertal, l’homme a le monopole de l’intelligence conceptuelle. Le terme “intelligence” décrit la fonction cognitive qui consiste à prendre conscience des situations, à en tirer des enseignements et à les appliquer pour prendre des décisions. Le terme “artificiel” fait référence aux machines.
On parle d’intelligence artificielle (IA) lorsqu’une machine imite les fonctions cognitives que les humains associent à d’autres esprits humains. Par rapport à l’intelligence programmée par l’homme, l’IA est capable de créer ses propres algorithmes grâce au processus d’apprentissage automatique.

Les grands défis actuels de l’intelligence artificielle

Les trois sujets considérés comme des défis dans le domaine de l’apprentissage automatique sont : les biais et l’équité, les signaux faibles et l’apprentissage sur les réseaux.
Il ne s’agit là que d’une vue partielle des défis de l’IA, qui est un domaine très vaste et essentiellement interdisciplinaire. L’IA est un ensemble d’outils, de méthodes et de technologies qui permettent à un système d’effectuer des tâches de manière quasi-autonome, et il existe différentes manières d’y parvenir.

L’apprentissage automatique consiste pour la machine à apprendre à partir d’exemples, en s’entraînant elle-même à effectuer des tâches de manière efficace par la suite. Les grandes réussites dans ce domaine sont la vision par ordinateur et l’écoute automatique, utilisées pour des applications en biométrie par exemple, ainsi que le traitement du langage naturel. L’une des questions qui se posent actuellement est de savoir quelle confiance on peut accorder aux outils d’apprentissage automatique, étant donné que l’apprentissage profond nécessite de très grands volumes de données, qui proviennent souvent du web.

Contrairement aux ensembles de données précédemment collectés par les chercheurs, les données du web ne sont pas acquises de manière “contrôlée”. Et la nature massive de ces données peut parfois conduire à ignorer les questions méthodologiques qui devraient être posées pour exploiter les informations qu’elles contiennent. Par exemple, l’entraînement d’un modèle de reconnaissance de visages directement à partir de données web peut entraîner des biais, dans le sens où le modèle ne reconnaîtrait pas tous les types de visages avec la même efficacité. Dans ce cas, le biais peut être induit par un manque de représentativité des visages utilisés pour l’entraînement.

Cependant, les disparités de performance peuvent également être dues à la difficulté intrinsèque du problème de prédiction et/ou aux limites des techniques actuelles d’apprentissage profond.
Il est bien connu, par exemple, que le niveau de performance atteint pour la reconnaissance de visages de nouveau-nés par apprentissage profond est beaucoup plus faible que pour les visages d’adultes.
Mais aujourd’hui, nous ne disposons pas d’une vision théorique claire du lien entre la structure du réseau neuronal profond utilisé et la performance du modèle pour une tâche donnée.

Ces préjugés pourront-ils jamais être éliminés ou réduits ?

Il existe différents types de biais. Ils peuvent être relatifs aux données, il y a les biais dits “de sélection”, liés au manque de représentativité, les biais “d’omission”, dus à l’endogénéité, etc. Les biais sont également inhérents au choix du modèle de réseau de neurones, de la méthode du Machine learning, choix qui est inévitablement restreint à l’état de l’art et limité par la technologie actuelle.

Demain, nous utiliserons peut-être d’autres représentations de l’information, plus efficaces, moins gourmandes en ressources informatiques, qui pourront être déployées plus facilement et qui réduiront ou élimineront ces biais, mais pour l’instant, ils existent !

Le rôle de la qualité des ensembles de données utilisés pour l’apprentissage dans les biais

Compte tenu du volume nécessaire, les données proviennent souvent du web et ne sont donc pas acquises de manière suffisamment contrôlée pour assurer leur représentativité. Mais il y a aussi le fait que ces données peuvent être “contaminées”, de manière malveillante. C’est actuellement un problème pour les solutions de vision par ordinateur qui équiperont les véhicules autonomes. Le véhicule peut être trompé en manipulant les informations d’entrée.
L’apprentissage automatique est basé sur un principe fréquentiste et la question de la représentativité des données lors de la phase d’apprentissage est un enjeu majeur. Pour prendre l’exemple de la conduite autonome, on voit aujourd’hui de nombreux véhicules sur les routes, équipés de capteurs pour emmagasiner le plus d’expérience possible. Cela dit, il est difficile de dire dans combien de temps nous aurons vu suffisamment de situations pour pouvoir déployer un système suffisamment intelligent et fiable dans ce domaine pour faire face à toutes les situations futures.

Il existe des applications pour lesquelles les données disponibles aujourd’hui permettent la mise en œuvre de ML de manière satisfaisante.
Pour d’autres problèmes, en plus des données expérimentales, on utilisera également des modèles génératifs, produisant des données artificielles pour tenir compte de situations défavorables, mais sans pouvoir prétendre à l’exhaustivité. C’est le cas des applications du Machine Learning en cybersécurité, pour tenter de détecter automatiquement des intrusions malveillantes dans un réseau par exemple.

D’une manière générale, il existe de nombreux problèmes pour lesquels les données disponibles sont trop rares pour mettre en œuvre du Machine Learning de manière simple. C’est souvent le cas pour la détection d’anomalies, en particulier pour la maintenance prédictive de systèmes complexes.
Dans certains cas, l’hybridation du Machine Learning et des techniques symboliques de l’IA pourrait apporter des solutions. Ces voies sont explorées dans le domaine de l’aviation, ainsi que dans celui de l’imagerie médicale. Au-delà de leur efficacité, ces approches peuvent également permettre aux machines de prendre des décisions plus faciles à expliquer et à interpréter.

Quels sont les moteurs de l’IA aujourd’hui ?

Le domaine des mathématiques apporte beaucoup, notamment en termes de représentation efficace de l’information et d’algorithmes. Mais c’est aussi le progrès technologique qui fait avancer l’IA.
Des avancées techniques récentes, notamment dans le domaine de la mémoire, ont permis de mettre en œuvre des modèles de réseaux neuronaux profonds.

De même, les architectures informatiques distribuées et les cadres de programmation dédiés ont permis d’augmenter l’apprentissage sur de grands volumes de données. Des approches plus frugales restent à concevoir !

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.