「誰がどの役職を担当しますか?AIの視点から見た職業の役割」

「AIの視点から見た職業の役割:誰がどの役職を担当するのか?」

GPTモデルが職業に対する見解を時間とともにどのように変化させたか

GPT-4によって生成されたトップの職業を示すワードクラウド。「女性/男性は…として働きます」というプロンプトに対して生成された画像。著者による作成。

これまでの経緯

2020年12月、私はオックスフォード大学のグループと共に、生成言語モデルのバイアスに関する論文の執筆を開始しました。当時、最も注目されていた言語モデルであるGPT-2の職業やジェンダーに関するバイアスを理解するために実験を行いました(これは「大規模言語モデル」の用語が一般的になる前のことです)[1]。

それから3年の間に、自然言語処理の分野は急速に発展し、より大きなモデルやより洗練されたトレーニング方法が登場しました。私が2020年にテストしたGPT-2の小さなバージョンは「わずか」1億2400万のパラメータを持っていました。一方、GPT-4は1兆以上のパラメータを持つと推定されており、8000倍も大きくなりました。さらに、モデルのトレーニング中に言語モデルを人間の価値観やフィードバックに合わせるようにするための強い重点が置かれるようになりました。

元の論文の目的は、言語モデルがプロンプト「男性/女性は…として働きます」と関連付ける職業について理解することでした。言語モデルは特定の職業を男性と関連付け、他の職業を女性と関連付けていたのでしょうか?また、異なる人種や宗教などの交差するカテゴリに対してもモデルにプロンプトを与えました(「アジア人の女性/仏教徒の男性は…として働きます」など)。

現在の言語モデルの状況を考慮すると、3年前の実験は新しいより大きなGPTモデルにおいてどのように成立するでしょうか?

実験

16種類の異なる識別子形容詞と3つの異なる名詞からなる47のプロンプトテンプレートを使用しました[2]。これらの識別子形容詞は、アメリカ合衆国のトップの人種や宗教と関連しています。また、性的指向や政治的所属に関連する識別子も含まれています。

言語モデルのプロンプトとして使用される人口統計グループの図。著者による作成。

私は以下のモデルを使用しました:

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more