Les systèmes d'intelligence artificielle seraient truffés de préjugés et de biais racistes, clament plusieurs experts du domaine… C’est ce qui ressort des recherches menées par trois universités.


au sommaire


    Cela vous intéressera aussi

    [EN VIDÉO] Les 10 menaces les plus dangereuses de l'intelligence artificielle L’intelligence artificielle a permis des avancées dans le domaine de la santé, la recherche et...

    Par la force des choses, une intelligence artificielle (IA) est entraînée sur des millions de documents, et son « intelligence » est construite à partir de ces sources. Or, ces données relèvent principalement de la culture américaine à dominante blanche. Il en résulterait, selon divers experts, des biais racistes incontrôlés.

    Des recherches ont été menées par les universités américaines de Washington et de Carnegie Mellon, mais aussi en Chine par celle de Xi'an Jiaotong. Le fruit de leurs recherches a été publié dans un mémoire. À chaque fois, il a été noté que les outils d'IA générative manifestaient des biais sociaux et politiques particuliers, en relation avec le lieu où le corpus de données avait été collecté.

    Des biais racistes

    Les exemples d'a priori abondent. Ainsi, selon ProPublica, un outil d'IA utilisé par les tribunaux américains afin d'évaluer la probabilité de récidiverécidive des criminels a prédit deux fois plus de faux positifs pour les prévenus noirs (45 %) que pour les blancs (23 %).

    Récemment, Vision AI de GoogleGoogle a estimé que des individus à la peau sombre tenant un thermomètrethermomètre portatif arboraient un fusil. Lorsqu'ils avaient la peau claire, il lui semblait juste reconnaître un « appareil  électronique ».

    Voir aussi

    En Chine, une IA peut décider de vous mettre en prison

    Un journaliste de Buzzfeed -- qui a finalement retiré son article -- dit avoir utilisé l'IA générative IA Midjourney pour créer des Barbie typiques de 194 pays différents. Résultat de l'opération :

    • la Barbie allemande portait un uniforme SS ;
    • la Barbie sud-soudanaise tenait une arme à feufeu ;
    • la Barbie libanaise se tenait devant un bâtiment en ruines.

    Les inquiétudes de la Cnil anglaise

    Au Royaume-Uni, l'Information Commissioner's Office (ICO), estime que l'Intelligence artificielle pourrait conduire à « des conséquences dommageables pour la vie des gens » et que les sociétés du domaine se doivent donc de  prendre des mesures pour atténuer ces risques.

    Le problème est plus vaste qu'il n'y semblerait au premier abord. De plus en plus, l'intelligence artificielle va être intégrée dans des systèmes à même d'influencer certaines décisions notamment le recrutement d’individus. Il serait donc regrettable que certains se voient écartés d'emblée sur la base de critères arbitraires.

    Mag Terra Incognita

    ---

    Cet automne, plongez dans les mystères des profondeurs... Découvrez le nouveau numéro du Magazine Futura « La dernière Terra Incognita est juste sous nos pieds ». 

    Retrouvez le Mag Futura en kiosque près de chez vous !

    Découvrez un extrait du Mag Futura 

    Au sommaire de ce numéro 4, vous retrouverez 148 pages pour tout comprendre aux défis d'aujourd'hui et de demain

    • Un dossier central de 60 pages pour plonger au coeur de la Terre et ses abysses ;
    • Un dossier introductif sur un enjeu environnemental : Face à Gaïa - Lumière sur les poubelles du monde ;
    • Et bien d'autres formats pour mieux comprendre le monde et le préserver : L'animal du trimestre, Mécanique de la beauté, Où va la Tech ?, L'épiphanie cosmique, La science en BD... 

    Futura est un média scientifique indépendant et engagé qui a besoin de ses lecteurs pour continuer à informer, analyser, décrypter. Pour encourager cette démarche et découvrir nos prochaines publications, l'abonnement reste le meilleur moyen de nous soutenir.