En intelligence artificielle (IA) le principe d’explicabilité fait référence à une demande faite aux développeurs de logiciels. Celle d’exposer les principes de production de résultats de leurs modèles.
La définition de la Commission Nationale Informatique et Libertés (CNIL) en France est la suivante : ” “Dans le domaine de l’intelligence artificielle, l’explicabilité est la capacité de mettre en relation et de rendre compréhensible les éléments pris en compte par le système d’IA pour la production d’un résultat “.
L’explicabilité doit rendre les processus d’interprétation utilisés par les logiciels, transparents et compréhensibles. C’est crucial pour ce qui concerne l’observation des déplacements faciaux. Car nous sommes en ce domaine au début de la lame de fond de la sur-interprétation par les logiciels. Et surtout de la croyance quasi-aveugle des publics dans les propositions des logiciels
L’explicabilité comme remède aux lacunes de formation
Le deep Learning par son mode de traitement de l’information n’est pas en mesure d’expliciter de façon transparente ses solutions. C’est encore un mur pour l’apprentissage profond. En revanche, les logiciels experts le font, eux. La question du principe d’explicabilité peut ici être remplie.
Les experts doivent être contraints uniformément par une autorité d’expliciter leurs règles de lecture. Et ce simplement parce que les règles interprétatives du langage corporel sont discriminatoires.
Intégrer par exemple l’IA non verbale au recrutement pour choisir un candidat plutôt qu’un autre est dicriminatoire. Sélectionner à la douane celui qui “n’a rien à déclarer” de celui qui doit ouvrir ses bagages es discriminatoire. Discriminer qui copie sur le voisin à l’évaluation scolaire, à partir de caméras “intelligentes”, qui communique mieux que qui, etc… sont des actes qui peuvent également être lourds de conséquences. Une ois de plus le problème n’est pas la discrimination. Ce sont els règles qui la déterminent.
Obliger à remplir les contraintes liées aux principes d’explicabilité semble le garde-fou le plus efficace, et peut-être même le seul, face aux interprétations abusives. Il est temps d’accéder à sa mise en oeuvre.
A terme avec une explicabilité de bonne qualité, la fiabilité des logiciels en sortira renforcée. Le statut d’intelligence artificielle également. Elle permettra aux utilisateurs finaux de comprendre quelles causes conduisent la machine à faire des prédictions. Ils ne seront plus dépossédés du processus de compréhension et de leur esprit critique.