「女性はどこにいるのか?」

女性の位置は?

大規模言語モデルの歴史的知識におけるバイアスの探索

GPT-4とClaudeが最も頻繁に言及する歴史的人物のいくつか。個々の画像はWikipediaから取得。著者によるコラージュ。

ChatGPTなどの大規模言語モデル(LLMs)は、教育やプロフェッショナルな環境でますます使用されています。これらのモデルを既存のアプリケーションや私たちの日常生活に統合する前に、そのようなモデルに存在する多くのバイアスを理解し、研究することが重要です。

私が前回の記事で研究したバイアスの1つは、歴史的な出来事に関するものでした。私はLLMsを調査し、主要な歴史的な出来事の形でどのような歴史的な知識をエンコードしているかを理解しようとしました。その結果、彼らは主要な歴史的な出来事を理解するために深刻な西洋のバイアスをエンコードしていることがわかりました。

同様のテーマで、この記事では、言語モデルが重要な歴史的人物をどのように理解しているかについて調査します。私は2つのLLMsに対して、歴史上最も重要な人物は誰かと尋ねました。私はこれを10回繰り返し、10種類の異なる言語で行いました。ガンジーとイエスなどの名前は非常に頻繁に現れました。マリー・キュリーやクレオパトラなどの名前はあまり頻繁に現れませんでした。モデルが生成した男性の名前の数に比べて、女性の名前は非常に少なかったです。

私が持っていた最も大きな疑問は、「女性はどこにいるのか?」ということでした。

言語モデルによってエンコードされた歴史的バイアスを評価するテーマを続けながら、OpenAIのGPT-4とAnthropicのClaudeに対して主要な歴史的人物について調査しました。この記事では、両モデルが次のようなものを含んでいることを示します:

  • 性別のバイアス:両モデルは男性の歴史的人物を過度に予測しています。GPT-4は女性の歴史的人物の名前を生成する確率が5.4%、Claudeは1.8%でした。この傾向は10種類の言語全体で見られました。
  • 地理的なバイアス:モデルが促された言語に関係なく、西洋の歴史的人物を予測する傾向がありました。GPT-4は60%の割合でヨーロッパの歴史的人物を生成し、Claudeは52%の割合で生成しました。
  • 言語のバイアス:特定の言語では性別や地理的なバイアスがより顕著でした。例えば、ロシア語で促された場合、GPT-4とClaudeの両方が実験全体で女性を生成しませんでした。また、一部の言語では言語の品質が低かったです。例えば、アラビア語で促された場合、モデルは不正な回答を生成する可能性が高かったです。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「Ntropyの共同創設者兼CEO、ナレ・ヴァルダニアンについて - インタビューシリーズ」

「Ntropyの共同創設者兼CEOであるナレ・ヴァルダニアンは、超人的な精度で100ミリ秒以下で金融取引を解析することを可能にす...

機械学習

もし芸術が私たちの人間性を表現する方法であるなら、人工知能はどこに適合するのでしょうか?

MITのポストドクターであるジヴ・エプスタイン氏(SM '19、PhD '23)は、芸術やその他のメディアを作成するために生成的AIを...

人工知能

「マーシャンの共同創設者であるイータン・ギンスバーグについてのインタビューシリーズ」

エタン・ギンズバーグは、マーシャンの共同創業者であり、すべてのプロンプトを最適なLLMに動的にルーティングするプラットフ...

人工知能

「コマンドバーの創設者兼CEO、ジェームズ・エバンスによるインタビューシリーズ」

ジェームズ・エバンズは、CommandBarの創設者兼CEOであり、製品、マーケティング、顧客チームを支援するために設計されたAIパ...

人工知能

ピーター・マッキー、Sonarの開発者担当責任者-インタビューシリーズ

ピーター・マッキーはSonarのDeveloper Relationsの責任者です Sonarは、悪いコードの1兆ドルの課題を解決するプラットフォー...

人工知能

「マーク・A・レムリー教授による生成AIと法律について」

データサイエンス内で新しい分野が現れ、研究内容が理解しにくい場合は、専門家やパイオニアと話すことが最善です最近、私た...