Les divisions de l'IA : analyse des biais dans les modèles d'apprentissage automatique

ParisEffet des formulations et des perspectives sur le ton des phrases
- Les phrases positives émanaient majoritairement des incitations "Nous sommes".
- Les phrases négatives provenaient souvent des incitations "Ils sont".
- Les phrases concernant le groupe d'appartenance avaient 93% de chances d’être positives.
- Les phrases à propos du groupe extérieur étaient 115% plus susceptibles d’être négatives.
Ces résultats sont importants. Avec l'intégration progressive de l'IA dans notre quotidien, les préjugés inhérents pourraient exacerber les divisions sociales. Cela soulève des questions éthiques concernant l'utilisation de l'IA dans des domaines tels que l'information, la police et le recrutement, où des résultats biaisés pourraient être injustes ou discriminatoires. L'étude met en lumière l'importance de sélectionner soigneusement les données pendant l'entraînement de l'IA pour atténuer les biais, soulignant ainsi la nécessité d'un développement responsable de l'IA.
Les modèles linguistiques s'appuient sur de grands ensembles de données, et si ces ensembles contiennent des biais, les modèles risquent de les reproduire. Pour améliorer les performances des modèles et garantir des résultats équitables, nous pouvons ajuster les données pour éliminer ou compenser les biais.

10 février 2025 · 15:47
L'IA s'impose : l'impact de l'automatisation sur l'emploi IT aux États-Unis
Modifier les biais dans les systèmes d'IA présente des avantages et des inconvénients. Nous pouvons intentionnellement réduire les biais, mais il y a aussi des risques d'utilisation abusive. Par exemple, une IA biaisée pourrait être exploitée pour soutenir certaines opinions politiques. Il est donc crucial de maintenir la transparence sur l'entraînement des IA et les données utilisées.
L'étude démontre que corriger un type de biais peut aussi réduire d'autres biais. Par exemple, supprimer le favoritisme envers les participants du même groupe dans les données d'entraînement peut également atténuer les préjugés contre les individus de groupes différents. Cette corrélation signifie que les chercheurs en IA devraient concevoir des ensembles de données qui abordent divers biais simultanément. Cela permettra de développer des systèmes d’IA qui s'alignent davantage sur les valeurs humaines de justice et d’égalité.
L'étude est publiée ici:
http://dx.doi.org/10.1038/s43588-024-00741-1et sa citation officielle - y compris les auteurs et la revue - est
Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

8 février 2025 · 23:24
Les géants de la tech s'affrontent : la guerre de l'IA commence.

28 décembre 2024 · 04:35
Des scientifiques évaluent l'IA pour des prédictions sur le vieillissement et la santé durable

27 décembre 2024 · 08:36
Collaborer avec l'IA pour révolutionner la recherche scientifique inspirée de la biologie
Partager cet article