Les intelligences artificielles ont envahi notre quotidien. Mais est-ce toujours pour le bien du plus grand nombre d’humains ? La question se pose forcément même si c’est assez récent. Et le sujet est vaste. On le décortique avec Aymeric Poulain-Mauban, fondateur de la cantine numérique de Brest.
Les AI Days ont lieu les 29 et 30 juin 2022 à Brest (Ateliers des Capucins) et sont ouvertes au grand public, avec des conférences spécialisées ou non.
Réécoutez l'interview
Si on définit l’intelligence comme la capacité à résoudre des problèmes et à s’adapter à son environnement, cela peut s’appliquer aussi aux machines. Il existe plusieurs types d’ IA et il serait plus juste de parler au pluriel des »intelligences artificielles ». Les IA sont en tout cas désormais partout dans notre quotidien : téléphones mobiles, objets connectés, GPS, voix synthétique, création musicale… Des robots aux algorithmes, des IA autonomes qui interagissent peu avec les humains aux interfaces humains/machines, les IA sont des objets « socio-techniques » qui ont donc un impact sur les relations humaines.
Pour résumer grossièrement le fonctionnement d’une IA, disons que c’est un système qui utilise de très grosses masses de données (que ne pourrait traiter un cerveau humain) et, en fonction des calculs qu’on lui demande de faire, produit des résultats. Ces résultats peuvent aussi bien faire fonctionner une machine « autonome » qu’aider les humains à prendre une décision.
La recherche en IA et la question éthique : une rencontre récente
La question de l’éthique en sciences et technologies n’est pas nouvelle (les questions de santé sont traitées depuis longtemps par un « comité d’éthique »). Cependant, il a fallu attendre 2018 pour que les publications de recherche en IA soient couramment assorties d’un chapitre sur l’éthique. La science-fiction s’y était quant à elle intéressée bien avant (cf les lois de la robotique d’Isaac Asimov)
Les penseurs ont cependant rapidement identifié les principales menaces relatives aux intelligences artificielles : menaces sur les ressources numériques (attaques par déni de service en saturant un site web, incendies de serveurs), hacking des objets connectés, et menaces sur la société (créations d’infox élaborées – « deep fakes » comme des vidéos ou des audio manipulés).
Des inégalités renforcées et des interprétations erronées
Plus récemment, on s’est préoccupé des « biais » des IA qui ne seraient donc pas si neutres qu’on peut l’imaginer. Malgré – ou à cause de – la masse de données qu’elles traitent, les intelligences artificielles peuvent en quelque sorte pérenniser des situations dont certaines sont inéquitables. « Ingénieure du pouvoir », les IA peuvent donc renforcer les rapports de domination sociale.
Ainsi, si une IA identifie que le métier de médecin est plus souvent occupé par des hommes et le métier d’infirmier par des femmes, elle aura tendance à reproduire ce « schéma » ; par exemple, dans la traduction d’un texte d’une langue neutre vers une langue qui emploie des genres, le médecin sera traduit au masculin et l’infirmière au féminin. Autre exemple : si l’IA identifie que la santé des personnes de couleur se traduit par de moindres financements, elle aura tendance à faire comme si c’était intrinsèque (les personnes de couleur sont moins malades) alors qu’il s’agit du résultat de politiques publiques inégalitaires (moins de dépenses de santé pour les « minorités visibles »). Ce renforcement des schémas établis doit donc être pris en compte dès la conception des IA et l’élaboration des calculs qu’on leur fait réaliser.
On peut aussi s’interroger sur l’efficacité des IA en reconnaissance faciale ou corporelle : pour l’instant, les IA qui pilotent les systèmes de vidéosurveillance urbaine « interprètent mal » la différence entre une danse et une bagarre entre deux personnes… Ce qui peut donc conduire à une intervention policière inopportune.
La question de l’éthique des IA passe donc par une réflexion humaine pré-conception : faut-il imaginer des chartes avec de grands principes (comme l’Unesco le préconise) ? Mais qui déterminera ces principes ? L’exemple du dilemme du tramway nous démontre que les réponses éthiques sont loin d’être tranchées et peuvent varier d’une culture à l’autre : une IA pilotant un tramway doit choisir entre deux voies. Sur l’une, une vieille dame traverse les rails et sera percutée, sur l’autre, c’est un car scolaire transportant des enfants. Pour certaines cultures, ce sont les enfants « l’avenir » qu’il faut préserver, pour d’autre, c’est la personne âgée « mémoire collective » qu’il faut épargner.
Et même en admettant qu’on puisse définir les principes éthiques des IA, leur fonctionnement sera-t-il transparent afin de permettre aux humains d’en comprendre les critères moraux ?
Continuer à creuser la question en lisant le blog d’Aymeric Poulain-Mauban