Le séminaire du 6 mars dernier « Un humain (où) dans la boucle ? », organisé par l’ACPR et Telecom Paris, était présenté par Olivier Fliche de l'ACPR et David Bounie, Professeur à Télécom Paris, et a posé la question des relations entre les humains et l’intelligence artificielle.
Le thème des relations entre les humains et les algorithmes d’IA est aussi vaste que les différents usages de l’IA, et plus l’IA résout des problèmes humains, plus les usages se multiplient et se complexifient. Difficile de résumer le séminaire, que vous pouvez retrouver dans son intégralité en suivant le lien en bas de l’article, j’ai donc essayé de regrouper les problématiques abordées par les intervenants et de les commenter, en espérant vous donner envie d’approfondir le sujet.
À ce propos, saluons une nouvelle fois la dynamique de recherche et d’information impulsée par Telecom Paris et l’ACPR sur les sujets liés à l’intelligence artificielle, notamment dans le secteur financier.
Lors de cette session, les questions tournaient essentiellement autour du contrôle, qu’on l’appelle gouvernance, supervision ou même explicabilité. Précisons que les humains appelés à interagir ici sont essentiellement des décideurs ou des régulateurs.
Les questions, justement. Trois intervenants, 3 titres qui sont 3 questions, ce qui montre bien qu’on est à l’heure des questionnements, pas encore des réponses définitives :
Alors :
Winston Maxwell parle de l’impact des usages sur les droits humains et se réfère aux textes juridiques tels que RGPD et IA Act.
Thomas Baudel insiste sur la question de qui est responsable des décisions « aidées par l’IA », et comment leur donner les moyens d’assumer cette responsabilité.
Astrid Bertrand se penche sur le devoir d’information des conseillers qui doivent expliquer à des clients ou à des régulateurs les décisions proposées par l’IA.
Contrôler pour limiter les erreurs et les abus, favoriser la prise de responsabilité, ou justifier les résultats. Dans tous les cas, il s’agit de « reprendre la main » dans le processus de décision.
Une approche analytique par Winston Maxwell, qui invite à préciser les finalités du contrôle au cas par cas pour adapter ses modalités, ainsi qu'à séparer les tâches et responsabilités entre l’humain et la machine, et entre les modalités.
Séparer encore, pour Thomas Baudel, les cas où l’humain est meilleur que la machine (cas HABA : Human are Better At) de ceux ou la machine est meilleure que l’humain (MABA : Machine are better At), et trouver ceux où une collaboration H/IA est bénéfique. [Etrangement, ces cas sont repérés par la machine elle-même].
Séparer enfin, pour Astrid Bertrand, la logique IA de la logique humaine, en donnant à l’explication humaine de la décision le rôle de garde-fou ou justificateur des décisions algorithmiques.
(Schéma de performance on fonction de l'indice de confiance par Thomas Baudel)
Des approches défensives et analytiques
En conclusion, dans tous les domaines de la connaissance et de la décision, l’avancée des technologies IA est si rapide et imprévisible dans ses impacts, que les pistes de solution sont pour l’heure en mode défensif et analytique :
Cette phase est inévitable, et la recherche avance vite, mais nous devons, dans nos approches pour « garder la main » sur les décisions AIA (AI Aided), prendre conscience de la nécessité de changer de paradigme et d’apprendre à considérer l’IA non comme un outil, mais comme un système hybride avec l’humain dont il faudra sans doute moins trouver le gouvernail qu’apprendre à dialoguer avec lui.
Marc de Fouchécour - Advisor