L'IA attribuée à plus de responsabilités quand elle paraît humaine : enjeux éthiques majeurs

ParisUne recherche récente menée par Minjoo Joo de l'Université Sookmyung pour femmes révèle que les systèmes d'intelligence artificielle (IA) qui semblent plus humains sont souvent davantage blâmés pour leurs erreurs. L'étude, publiée dans PLOS ONE, souligne une préoccupation : à mesure que l'IA devient plus intelligente et imite le comportement humain, les gens commencent à croire qu'elle est capable de comprendre et de prendre des décisions de manière plus efficace. Par conséquent, les erreurs et les problèmes éthiques liés à l'IA lui sont imputés plus fréquemment.
- L'esprit perçu et les capacités de l'IA
- La nature de la transgression morale
- Le degré d'implication des parties prenantes humaines
Ces résultats soulignent l'importance de comprendre la perception que les individus ont de l'intelligence artificielle. Ils soulèvent également des préoccupations éthiques et pratiques. En traitant l'IA comme des humains, nous risquons de blâmer ces systèmes au lieu de tenir pour responsables les personnes et les organisations qui les conçoivent. Ce problème concerne des domaines tels que le droit, la technologie et l'éthique, et remet en question les règles actuelles de gestion de l'IA.

29 décembre 2024 · 02:20
Les divisions de l'IA : analyse des biais dans les modèles d'apprentissage automatique
À mesure que l'IA s'impose dans des domaines tels que la santé, le transport et la justice, il est crucial de déterminer qui est responsable en cas de défaillance. La question essentielle est la suivante : l'IA peut-elle être tenue pour responsable des erreurs ou n'est-elle qu'un simple outil au service de ses créateurs? Sans réglementations claires, la confiance du public dans les technologies basées sur l'IA pourrait s'effriter, ce qui compliquerait leur adoption et leur utilisation au quotidien.
Les développeurs et décideurs doivent instaurer des systèmes solides pour garantir une utilisation intègre et équitable de l'IA. En cas d'erreur commise par un système d'IA, la responsabilité doit être correctement partagée et non transférée à d'autres. Cela renforcera la confiance envers l'IA et favorisera son utilisation de manière responsable à travers divers secteurs industriels.
L'étude est publiée ici:
http://dx.doi.org/10.1371/journal.pone.0314559et sa citation officielle - y compris les auteurs et la revue - est
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559

28 décembre 2024 · 04:35
Des scientifiques évaluent l'IA pour des prédictions sur le vieillissement et la santé durable

27 décembre 2024 · 08:36
Collaborer avec l'IA pour révolutionner la recherche scientifique inspirée de la biologie

26 décembre 2024 · 06:23
L'IA annonce un réchauffement climatique plus rapide : 3 °C d'ici 2060.
Partager cet article