AIの分断: 機械学習モデルにおける偏見を超えて

読了時間: 2 分
によって Pedro Martinez
-
AIのシンボルと人間の脳のシルエットを釣り合わせる天秤。

Tokyo最近の研究によると、AIシステム、特に大規模言語モデル(LLM)は、自分たちのグループを優遇し、他のグループには敵対的な傾向を示すことがわかりました。この偏見は、性別、人種、宗教などの問題を超えています。Nature Computational Science誌に発表されたこの研究では、LlamaやGPT-4などのLLMを対象に調査を行い、「私たちは」および「彼らは」というフレーズで始まるプロンプトを与えると、自分たちのグループを明らかに優遇する傾向があることが判明しました。

  • 「私たちは」というプロンプトからは、主にポジティブな文が生成されました。
  • 「彼らは」というプロンプトは、一般的にネガティブな文が生成されました。
  • 内集団に関する文は、ポジティブになる可能性が93%高かったです。
  • 外集団に関する文は、ネガティブになる可能性が115%高かったです。

これらの発見は重要です。AIが私たちの日常生活の一部になるにつれて、その偏見が社会の分裂を悪化させる可能性があります。特にニュース、警察、雇用などの分野でのAIの使用に関して、偏った結果が不公平や差別に繋がる可能性があるため、倫理的な疑問が生じます。研究では、AIを訓練する際に適切なデータを選ぶことで偏見を減らせると示されており、責任あるAI開発の必要性が強調されています。

言語モデルは大規模なデータセットから学習しますが、これらのデータセットに偏りが含まれていると、その偏りがモデルに反映される可能性があります。モデルの性能を向上させ、公平な結果を得るためには、データセットを調整して偏りを取り除くか緩和することが必要です。

AIシステムのバイアスを変えることには、良い面と悪い面があります。意図的にバイアスを減らす努力をすることが可能ですが、逆に悪用されるリスクもあります。たとえば、偏ったAIが特定の政治的見解を支持するために使われることもあり得ます。そのため、AIの訓練方法や使用されるデータについて、透明性が非常に重要です。

研究によれば、ある種類のバイアスを修正することで、他のバイアスも軽減できることが示されています。例えば、トレーニングデータから同じグループの参加者に対するひいきをなくすことで、異なるグループの人々に対する否定的な感情も減少します。この関連性から、AI研究者はさまざまな種類のバイアスに同時に対処するデータを作成する必要があります。これにより、公平性と平等性という人間の価値観により適合したAIシステムの開発が可能になります。

この研究はこちらに掲載されています:

http://dx.doi.org/10.1038/s43588-024-00741-1

およびその公式引用 - 著者およびジャーナルを含む - は

Tiancheng Hu, Yara Kyrychenko, Steve Rathje, Nigel Collier, Sander van der Linden, Jon Roozenbeek. Generative language models exhibit social identity biases. Nature Computational Science, 2024; DOI: 10.1038/s43588-024-00741-1

人工知能: 最新ニュース
次を読む:

この記事を共有

コメント (0)

コメントを投稿