Les questions réglementaires doivent être confrontées à la réalité technique. L’IA n’est pas une zone de non-droit. Des réglementations existantes s’appliquent déjà à l’IA, qu’il s’agisse du RGPD pour les données personnelles, ou de réglementations sectorielles dans le domaine de la santé (dispositifs médicaux), de la finance (modèles de trading, solvabilité), ou de l’automobile par exemple.
On parle d’intelligence artificielle (IA) lorsqu’une machine imite les fonctions cognitives que les humains associent à d’autres esprits humains. Par rapport à l’intelligence programmée par l’homme, l’IA est capable de créer ses propres algorithmes grâce au processus d’apprentissage automatique.
La loi européenne sur l’IA propose d’ajouter un règlement spécifique
Les logiciels d’IA, et en particulier les logiciels d’apprentissage automatique, posent de nouveaux problèmes. Les logiciels “traditionnels” – l’IA symbolique, parfois appelée “bonne vieille IA” – sont développés à partir de spécifications précises, avec des données de sortie certaines et prouvables. Il s’agit d’algorithmes déterministes : l’entrée “a” plus l’entrée “b” conduiront toujours à la sortie “c”. Si ce n’est pas le cas, il y a un bogue.
Dans l’apprentissage automatique, les algorithmes se créent eux-mêmes en apprenant à partir de grands volumes de données et fonctionnent de manière probabiliste. Leurs résultats sont exacts la plupart du temps.
En outre, ils peuvent fonder leurs prédictions sur des corrélations non pertinentes qu’ils ont apprises à partir des données d’apprentissage. Le risque d’erreur est une caractéristique inévitable des modèles ML probabilistes, qui soulève de nouvelles questions réglementaires, en particulier pour les systèmes d’IA à haut risque. Est-il possible d’utiliser un algorithme probabiliste dans un système critique, tel que la reconnaissance d’images dans une voiture autonome ? D’autant plus que les algorithmes de ML sont relativement inintelligibles.
L’accident en Arizona de la voiture autonome d’Uber en 2018 illustre parfaitement le problème. L’enjeu pour l’avenir sera d’entourer ces systèmes probabilistes – très efficaces pour des tâches comme la reconnaissance d’images – de garde-fous. Les systèmes hybrides, qui combinent ML et IA symbolique, sont une voie prometteuse.
Réglementation pour résoudre ce problème
Le projet de règlement européen sur l’IA (EU AI regulation) exigera des tests de conformité et le marquage CE pour tout système d’IA à haut risque mis sur le marché en Europe.
Le premier défi consiste à définir ce que l’on entend par système d’IA à haut risque ! Actuellement, il s’agit de logiciels utilisés par la police, pour l’évaluation du crédit, pour l’examen des candidatures à des postes dans les universités ou les entreprises, de logiciels embarqués dans les voitures, etc. La liste ne cessera de s’allonger. La reconnaissance faciale en temps réel utilisée par la police à des fins d’identification sera soumise à des contraintes particulières, notamment des tests indépendants et la présence d’au moins deux opérateurs humains avant qu’une “correspondance” ne soit confirmée.
Pour les autres systèmes à haut risque, le projet de règlement envisage des tests de conformité par l’entreprise elle-même. Chaque système devra faire l’objet d’une évaluation des risques et être accompagné d’une documentation expliquant les risques éventuels. Les systèmes devront assurer un contrôle humain efficace. L’opérateur du système doit générer des journaux d’événements permettant l’auditabilité du système. Pour les systèmes d’IA intégrés dans des systèmes déjà couverts par la réglementation, le régime d’essai et de conformité sera régi par la réglementation sectorielle. Cela permet d’éviter les doublons réglementaires.
Pourquoi tant de méfiance à l’égard des algorithmes d’apprentissage automatique alors que les risques sont acceptés dans d’autres domaines ?
Le rapport Tricot de 1975 (rapport qui a conduit à l’adoption de la loi française sur l’informatique et les libertés en 1978) évoquait déjà la méfiance à l’égard des systèmes informatiques qui réduisent l’être humain à une série de probabilités statistiques. En nous réduisant à des chiffres, ces systèmes nient notre individualité et notre humanité. Nous sommes habitués au profilage statistique lorsqu’il s’agit de recevoir une publicité ou une recommandation musicale. Mais pour des décisions plus sérieuses – décision d’embauche, admission dans une université, déclenchement d’un contrôle fiscal, obtention d’un prêt – être jugé uniquement sur un profil statistique est problématique, surtout lorsque l’algorithme qui crée le profil est inintelligible !
L’algorithme doit donc apporter un éclairage statistique à la question, mais ne doit jamais remplacer le discernement et la nuance d’un décideur humain. Il ne faut pas non plus minimiser les défauts humains – aux États-Unis, des données suggèrent que les juges prennent des décisions plus lourdes concernant les prisons avant le déjeuner, lorsqu’ils ont faim. Les algorithmes peuvent aider à compenser ces biais humains.