AIの分断: 機械学習モデルにおける偏見を超えて

Tokyo最近の研究によると、AIシステム、特に大規模言語モデル(LLM)は、自分たちのグループを優遇し、他のグループには敵対的な傾向を示すことがわかりました。この偏見は、性別、人種、宗教などの問題を超えています。Nature Computational Science誌に発表されたこの研究では、LlamaやGPT-4などのLLMを対象に調査を行い、「私たちは」および「彼らは」というフレーズで始まるプロンプトを与えると、自分たちのグループを明らかに優遇する傾向があることが判明しました。
- 「私たちは」というプロンプトからは、主にポジティブな文が生成されました。
- 「彼らは」というプロンプトは、一般的にネガティブな文が生成されました。
- 内集団に関する文は、ポジティブになる可能性が93%高かったです。
- 外集団に関する文は、ネガティブになる可能性が115%高かったです。
これらの発見は重要です。AIが私たちの日常生活の一部になるにつれて、その偏見が社会の分裂を悪化させる可能性があります。特にニュース、警察、雇用などの分野でのAIの使用に関して、偏った結果が不公平や差別に繋がる可能性があるため、倫理的な疑問が生じます。研究では、AIを訓練する際に適切なデータを選ぶことで偏見を減らせると示されており、責任あるAI開発の必要性が強調されています。
言語モデルは大規模なデータセットから学習しますが、これらのデータセットに偏りが含まれていると、その偏りがモデルに反映される可能性があります。モデルの性能を向上させ、公平な結果を得るためには、データセットを調整して偏りを取り除くか緩和することが必要です。
AIシステムのバイアスを変えることには、良い面と悪い面があります。意図的にバイアスを減らす努力をすることが可能ですが、逆に悪用されるリスクもあります。たとえば、偏ったAIが特定の政治的見解を支持するために使われることもあり得ます。そのため、AIの訓練方法や使用されるデータについて、透明性が非常に重要です。
研究によれば、ある種類のバイアスを修正することで、他のバイアスも軽減できることが示されています。例えば、トレーニングデータから同じグループの参加者に対するひいきをなくすことで、異なるグループの人々に対する否定的な感情も減少します。この関連性から、AI研究者はさまざまな種類のバイアスに同時に対処するデータを作成する必要があります。これにより、公平性と平等性という人間の価値観により適合したAIシステムの開発が可能になります。
この研究はこちらに掲載されています:
http://dx.doi.org/10.1038/s43588-024-00741-1およびその公式引用 - 著者およびジャーナルを含む - は
Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

2025年2月8日 · 18:24
テックジャイアントの対決: AI戦争は始まったばかり

2025年1月31日 · 12:49
トランプ政権の援助凍結でUSAIDが混乱と困難に直面

2024年12月29日 · 22:47
レーザーニューロンが神経細胞の動態を高速に模倣、AIと計算に革命的な影響
この記事を共有