AIレポート:スタンフォードの研究者がテック企業に透明性を求めるよう促す

AIレポート:スタンフォードの研究者がテック企業の透明性を促す方策

スタンフォード大学の研究者たちは、OpenAIやGoogleなどの企業に対して、データや人間の労働に関連する情報をより公開するように促す報告書を発表しました。この報告書は、報告書の著者が基礎モデルと透明性の必要性を指摘しています。

スタンフォード大学の教授であり、Foundation Model Transparency Indexの研究者であるパーシー・リアング氏は、「過去3年間、透明性が減少し、能力が飛躍的に向上していることは明らかです。これは非常に問題があると考えています。ソーシャルメディアなどの他の分野でも、透明性が低下すると悪いことが起こることがわかっています。」と述べています。

対象となるモデルは、基礎モデルと呼ばれる、多種多様なタスクを実行できる巨大なデータセットで訓練されたAIシステムです。これは、コード生成からテキストなど、さまざまなことを行うことができます。予想通り、これらのモデルの背後にいる企業が、生成型AI技術の現在の台頭の主要な要因です。

報告書は、これらのモデルが世界中の企業や産業により一層統合されるにつれて、バイアスや制限をより良く理解することが重要になってきたことを指摘しています。上記にリンクされたインデックスは、十の人気モデルを百の透明性指標で評価しています。

これには、訓練データや計算能力が含まれます。その結果、すべてのモデルは「印象的でない」と評価されました。これには、メタのLLAMA 2も含まれ、100点満点中53点を獲得しました。また、OpenAI GPT-4も47点とそれにほぼ追いついており、AmazonのTitanが最低の11点でした。

このインデックスの著者たちは、報告書の公開によって、テック企業がその基礎モデルについてより透明性を持つようになることを願っています。また、この報告書がAIを最も適切に規制する方法を学びたい政府の出発点となることも期待しています。

このプロジェクトは、基礎モデルに関する研究のためのスタンフォード人間中心の人工知能研究所を通じて行われました。これは、ワシントンD.Cでの立法者とテック企業の会合から2ヶ月後であり、Microsoft、Google、その他の企業などの主要なテック企業がAIの政府への理解をより深めようと公然と主張し始めてからです。

ワシントンでは立法者が行き詰まっているようですが、規制は世界的な注目されるトピックとなっており、国や地域は技術の予想されるポジティブな影響を減らさずにAIと向き合う方法を学ぼうとしています。

 

 

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more