L'IA amplifie les préjugés humains, révèle une étude de l'UCL : danger social.

Temps de lecture: 2 minutes
Par Pierre Martin
- dans
Balances équilibrant l'intelligence artificielle et les biais humains.

ParisDes chercheurs de l'UCL ont découvert que les systèmes d'intelligence artificielle (IA) reflètent souvent les préjugés humains et les accentuent. Ceci est crucial, car l'étude démontre que l'utilisation d'une IA biaisée peut renforcer les biais des individus. Ces biais s'intensifient à travers des cycles où de petites distorsions dans les données initiales s'amplifient lorsque les gens interagissent avec l'IA. Publiée dans Nature Human Behaviour, l’étude souligne l'influence considérable de l'IA sur la pensée de la société.

Participants à diverses expériences ont montré davantage de biais après avoir utilisé l'IA. Les chercheurs ont mis en lumière cette tendance au cours de leurs études.

Les participants avaient davantage tendance à voir des visages comme tristes après avoir été formés sur un système d'IA renforçant ce biais. On a observé une propension accrue à surestimer les performances des hommes après avoir été exposés à une IA empreinte de biais de genre. Enfin, les images générées par l'IA ont augmenté la probabilité d'associer les hommes blancs à des emplois de haut statut, notamment dans des métiers comme la gestion financière.

Des données biaisées engendrent une IA biaisée, ce qui influence ensuite la pensée des gens et accentue les préjugés. Cela pose problème dans de nombreux domaines, tels que le recrutement ou les interactions sociales quotidiennes, où les suggestions de l'IA peuvent injustement influencer les décisions des individus.

Les gens ont tendance à croire que l'intelligence artificielle est plus précise que les humains, ce qui les amène à se fier à ses résultats sans les remettre en question. Cette confiance mal placée peut contribuer à la propagation des biais de manière plus profonde dans la société. Par exemple, lorsque l'IA expose injustement certains groupes de personnes dans des images liées à l'emploi, cela peut influencer la perception que l'on a de ces professions.

Les recherches indiquent que les systèmes d'IA peuvent améliorer la prise de décision humaine lorsqu'ils sont précis et exempts de biais. Il est crucial pour les développeurs de concevoir des algorithmes équilibrés. Le développement de ces systèmes devrait viser à être précis et équitable pour mieux répondre aux besoins de la société.

L'intelligence artificielle prendra une place de plus en plus essentielle dans nos vies. Il est crucial que les développeurs d'IA corrigent les biais afin que ces technologies contribuent à faire avancer la société plutôt que de la faire reculer. À mesure que l'IA se généralise, nous devons être attentifs à son influence sur nos opinions et chercher à minimiser ses impacts négatifs. Tant les concepteurs de ces systèmes que les utilisateurs partagent la responsabilité de cela.

L'étude est publiée ici:

http://dx.doi.org/10.1038/s41562-024-02077-2

et sa citation officielle - y compris les auteurs et la revue - est

Moshe Glickman, Tali Sharot. How human–AI feedback loops alter human perceptual, emotional and social judgements. Nature Human Behaviour, 2024; DOI: 10.1038/s41562-024-02077-2

Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.