Les systèmes d'intelligence artificielle seraient truffés de préjugés et de biais racistes, clament plusieurs experts du domaine… C’est ce qui ressort des recherches menées par trois universités.


au sommaire


    Par la force des choses, une intelligence artificielle (IA) est entraînée sur des millions de documents, et son « intelligence » est construite à partir de ces sources. Or, ces données relèvent principalement de la culture américaine à dominante blanche. Il en résulterait, selon divers experts, des biais racistes incontrôlés.

    Des recherches ont été menées par les universités américaines de Washington et de Carnegie Mellon, mais aussi en Chine par celle de Xi'an Jiaotong. Le fruit de leurs recherches a été publié dans un mémoire. À chaque fois, il a été noté que les outils d'IA générative manifestaient des biais sociaux et politiques particuliers, en relation avec le lieu où le corpus de données avait été collecté.

    Des biais racistes

    Les exemples d'a priori abondent. Ainsi, selon ProPublica, un outil d'IA utilisé par les tribunaux américains afin d'évaluer la probabilité de récidiverécidive des criminels a prédit deux fois plus de faux positifs pour les prévenus noirs (45 %) que pour les blancs (23 %).

    Récemment, Vision AI de GoogleGoogle a estimé que des individus à la peau sombre tenant un thermomètrethermomètre portatif arboraient un fusil. Lorsqu'ils avaient la peau claire, il lui semblait juste reconnaître un « appareil  électronique ».

    Voir aussi

    En Chine, une IA peut décider de vous mettre en prison

    Un journaliste de Buzzfeed -- qui a finalement retiré son article -- dit avoir utilisé l'IA générative IA Midjourney pour créer des Barbie typiques de 194 pays différents. Résultat de l'opération :

    • la Barbie allemande portait un uniforme SS ;
    • la Barbie sud-soudanaise tenait une arme à feufeu ;
    • la Barbie libanaise se tenait devant un bâtiment en ruines.

    Les inquiétudes de la Cnil anglaise

    Au Royaume-Uni, l'Information Commissioner's Office (ICO), estime que l'Intelligence artificielle pourrait conduire à « des conséquences dommageables pour la vie des gens » et que les sociétés du domaine se doivent donc de  prendre des mesures pour atténuer ces risques.

    Le problème est plus vaste qu'il n'y semblerait au premier abord. De plus en plus, l'intelligence artificielle va être intégrée dans des systèmes à même d'influencer certaines décisions notamment le recrutement d’individus. Il serait donc regrettable que certains se voient écartés d'emblée sur la base de critères arbitraires.