UNE ENTREPRISE AMÉRICAINE PERMET DE TESTER LES BIAIS DES IA

Auditer les intelligences artificielles, une histoire de justice sociale. 

La mathématicienne américaine Cathy O’Neil lance une entreprise pensée pour les créateurs d’algorithmes d’intelligence artificielle. L’ORCAA vérifie dans quelle mesure un algorithme reproduit, aggrave ou efface des biais sociaux. 

POURQUOI ? 
Il est encore impossible d’expliquer comment l’IA construit le raisonnement qui lui permet de fournir un résultat - les chercheurs parlent de boîte noire. Pourtant, ces machines (re)produisent des biais sociaux dangereux, comme la discrimination à l'embauche. 

L'INTÉRÊT DE L'ORCAA : 
L'entreprise examine qui a développé l'IA, avec quels jeux de données... Côté utopie, cette initiative permet d’aller vers une monde plus juste. Point de vue pragmatique, c'est un argument marketing redoutable à l’heure où le grand public prend conscience de la valeur des données, et des effets néfastes des algorithmes.

 

POURQUOI C'EST IMPORTANT : 
Parce que les IA ont beau être des outils mathématiques, elles sont construites par et pour des sociétés empreintes de différents biais. Sans contrôle, ces machines risquent donc de reproduire voire d’aggraver certaines inégalités.

 

QUEL EST LE PROBLÈME ?
Voici déjà quelques exemple de biais, tous aussi lourds d’implications : 

  • Dans les cours américaines, des logiciels d’aide à la prédiction des futurs criminels ont un biais raciste. Une enquête de ProPublica a démontré que ces outils avaient tendance à noter beaucoup plus durement les personnes de couleurs que les blanc.he.s.  
     
  • Les algorithmes des moteurs de recherches, eux, ont tendance à reproduire des biais sexistes. Ils associent les femmes aux tâches ménagères et les hommes aux professions scientifiques.
   Les IA de reconnaissance faciale reconnaissent bien mieux les visages blancs que les noirs

Les IA de reconnaissance faciale reconnaissent bien mieux les visages blancs que les noirs

L’ingénieure du CNRS Laurence Devillers évoque aussi le cas du recrutement : « si on demande à une IA de sélectionner des candidats en fonction de ce qui est fait aujourd'hui, très peu de femmes se verront proposer des postes de haut niveau ». De même, les classes populaires n’auraient quasiment pas accès à ces postes. 

LA SOLUTION RÉSIDE DANS LES DONNÉES... 
Retenez ceci : les IA sont bêtes, elles n'ont pas conscience d'elles-mêmes. Il existe au moins deux moyens de les corriger en attendant de percer l’énigme des boîtes noires : 

1/ Ex-ante :
Les IA se nourrissent de data. On peut donc travailler à améliorer les bases de données en amont, pour que celles-ci gomment les différences raciales, sociales ou de genre qui s’y trouvent. Autrement, l’algorithme pourrait prendre les variables "homme" et "femme" comme des raisons d’arriver au résultat observé. 


2/ Ex-post :
Une fois le résultat fourni par l’algorithme, il est possible de procéder à de multiples vérifications et améliorations, en fonction d’une charte que l’entreprise se serait fixée par exemple. L’IA ne serait alors mise sur le marché qu’une fois la certitude acquise qu’elle n’aggravera pas certains biais. 

Que ce soit dans la santé, les transports, les magasins, même chez les assureurs, les applications de l'IA seront partout. Raison pour laquelle la justesse de leurs résultats est cruciale.

aca146bf-1bba-42b8-a864-1cd61d27c9e7.jpg

...MAIS AUSSI DANS UNE PRISE DE CONSCIENCE COLLECTIVE
Au delà des données, les leviers d'actions pour corriger ces biais reposent sur la prise de conscience des différentes parties prenantes à la création d'IA : 

  • Les équipes de constructeurs : la formation des data scientists, mais aussi la diversification des équipes sont deux moyens importants. Plus la composition des équipes est variée, plus elles pourront vérifier par elles-mêmes que ces algorithmes invisibilisent pas certaines personnes.
     
  • Le secteur : les cultures d’entreprise sont aussi un levier essentiel. La Silicon Valley reste encore dominée par une « bro culture », ce qui empêche encore les questions de biais d'être efficacement traitées. Pour les concepteurs, les biais sont en effet invisibles. 
     
  • La société : Aux US, des membres du Congrès américains poussent justement à la création de lois pour une meilleure représentation de la communauté noire dans la Silicon Valley. En France, le rapport Villani souligne l’importance de réfléchir à l’éthique dans le domaine. 

Des initiatives comme OpenAI, financée par des grands noms de la Silicon Valley, ou d’autres portées par des chercheurs se penchent donc sur la question de l'éthique. Cathy O’Neil est d'ailleurs intervenue lors de la remise du rapport Villani pour expliquer les biais algorithmiques. C'est un véritable enjeu démocratique. 

This is America - Childish Gambino (2018)