En l’espace de quelques mois, deux spécialistes en éthique de l’intelligence artificielle (IA) ont été mises à la porte par Google pour avoir critiqué la discrimination dans la culture de l’entreprise et dans les technologies qu’elle développe. Cela soulève de nouveaux doutes sur les risques que pose l’IA en matière de préjugés.
Margaret Mitchell, une des co-fondatrices de l’équipe de recherche sur l’éthique en IA de Google, a été renvoyée vendredi après avoir dénoncé la discrimination dans la compagnie. Elle avait critiqué le fait que les programmes d’IA développés par les grandes entreprises technologiques risquent de manifester des préjugés défavorables. Elle avait aussi protesté contre la discrimination dont sont victimes des employés de couleur chez Google.
Mme Mitchell est la deuxième chercheuse en éthique de l’IA à être renvoyée par Google en moins de trois mois, pour les mêmes raisons. En décembre, Timnit Gebru avait été brusquement mise à la porte après avoir résisté quand Google avait bloqué la publication d’une recherche (co-écrite par Mme Gebru et Mme Mitchell) sur les dangers des biais et des préjugés en IA. 1400 employés de Google et 2000 autres personnes avaient signé une lettre pour sommer Google de s’expliquer dans ce dossier.
Margaret Mitchell avait pris la défense de sa collègue et avait cherché à obtenir des preuves du mauvais traitement qu’elle a subi. En conséquence, elle était suspendue depuis janvier, accusée par Google d’avoir brisé le « code de conduite » de la compagnie.
Ce second renvoi d’une spécialiste en éthique chez Google soulève de nouveaux doutes sur les risques sociaux que représente l’IA développée par quelques grandes compagnies privées. En effet, la discrimination envers les personnes de couleur et envers les femmes dans ces entreprises renforce le risque que les algorithmes reproduisent ces préjugés.