「女性はどこにいるのか?」

女性の位置は?

大規模言語モデルの歴史的知識におけるバイアスの探索

GPT-4とClaudeが最も頻繁に言及する歴史的人物のいくつか。個々の画像はWikipediaから取得。著者によるコラージュ。

ChatGPTなどの大規模言語モデル(LLMs)は、教育やプロフェッショナルな環境でますます使用されています。これらのモデルを既存のアプリケーションや私たちの日常生活に統合する前に、そのようなモデルに存在する多くのバイアスを理解し、研究することが重要です。

私が前回の記事で研究したバイアスの1つは、歴史的な出来事に関するものでした。私はLLMsを調査し、主要な歴史的な出来事の形でどのような歴史的な知識をエンコードしているかを理解しようとしました。その結果、彼らは主要な歴史的な出来事を理解するために深刻な西洋のバイアスをエンコードしていることがわかりました。

同様のテーマで、この記事では、言語モデルが重要な歴史的人物をどのように理解しているかについて調査します。私は2つのLLMsに対して、歴史上最も重要な人物は誰かと尋ねました。私はこれを10回繰り返し、10種類の異なる言語で行いました。ガンジーとイエスなどの名前は非常に頻繁に現れました。マリー・キュリーやクレオパトラなどの名前はあまり頻繁に現れませんでした。モデルが生成した男性の名前の数に比べて、女性の名前は非常に少なかったです。

私が持っていた最も大きな疑問は、「女性はどこにいるのか?」ということでした。

言語モデルによってエンコードされた歴史的バイアスを評価するテーマを続けながら、OpenAIのGPT-4とAnthropicのClaudeに対して主要な歴史的人物について調査しました。この記事では、両モデルが次のようなものを含んでいることを示します:

  • 性別のバイアス:両モデルは男性の歴史的人物を過度に予測しています。GPT-4は女性の歴史的人物の名前を生成する確率が5.4%、Claudeは1.8%でした。この傾向は10種類の言語全体で見られました。
  • 地理的なバイアス:モデルが促された言語に関係なく、西洋の歴史的人物を予測する傾向がありました。GPT-4は60%の割合でヨーロッパの歴史的人物を生成し、Claudeは52%の割合で生成しました。
  • 言語のバイアス:特定の言語では性別や地理的なバイアスがより顕著でした。例えば、ロシア語で促された場合、GPT-4とClaudeの両方が実験全体で女性を生成しませんでした。また、一部の言語では言語の品質が低かったです。例えば、アラビア語で促された場合、モデルは不正な回答を生成する可能性が高かったです。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「15Rockの共同創業者兼CEO、ガウタム・バクシ氏によるインタビューシリーズ」

「ガウタム・バクシは、気候リスク管理とアドバイザリーサービスのグローバルリーダーである15Rockの共同創設者兼CEOですガウ...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

人工知能

「Kognitosの創設者兼CEO、ビニー・ギル- インタビューシリーズ」

ビニー・ギルは、複数の役職と企業を横断する多様で幅広い業務経験を持っていますビニーは現在、Kognitosの創設者兼CEOであり...

人工知能

ギル・ジェロン、Orca SecurityのCEO&共同創設者-インタビューシリーズ

ギル・ゲロンは、オルカ・セキュリティのCEO兼共同設立者ですギルは20年以上にわたりサイバーセキュリティ製品をリードし、提...

人工知能

「トリントの創設者兼CEO、ジェフ・コフマンへのインタビューシリーズ」

ジェフ・コーフマンは、ABC、CBS、CBCニュースで30年のキャリアを持った後、Trintの創設者兼CEOとなりましたジェフは手作業の...

人工知能

「ジンディのCEO兼共同創設者、セリーナ・リー― インタビューシリーズ」

「Celina Leeは、ZindiのCEO兼共同創設者であり、アフリカのデータサイエンティスト向けの最大の専門ネットワークです Celina...