大きな言語モデルはどれくらい透明性があるのか?
「言語モデルの透明性はどれほど大事なのか?」
スタンフォード大学がLLMの透明度を測定するための指標を提案し、結果は励ましになりません
スタンフォード大学は、大規模な言語モデル (LLM)や他の基盤モデルがどれだけ透明かを測定しました。
未知への恐怖
「人間の最も古く、最も強力な感情は恐怖であり、その中でも最も恐怖なのは未知への恐怖である」― H.P. ラブクラフト
今年の5月、人工知能の父と称されるジェフリー・ヒントンは、「これらのものが私たちよりも知能を持っているかどうか」について考えを急転させたと述べました。「私はGPT-4の能力に驚かされ、AIの深刻なリスクに対する公衆の認識を高めたい」とヒントンは語りました。
人工知能が人類を絶滅させる可能性はほぼないとされますが、多くの専門家はそれがリスクを抱えていると同意しています。そして、これらのリスクは技術の開発中に想像されるものとは異なることがしばしばあります。例えば、ソーシャルネットワーキングや闇のモデレーションがミャンマーでのロヒンギャ虐殺に寄与しました。
- 「GPTからMistral-7Bへ:AI会話のエキサイティングな進化」
- 「企業におけるAIの倫理とESGへの貢献の探求」
- Google AIがSpectronを導入:スペクトログラムを入力および出力として直接処理する、最初のスポークンランゲージAIモデルとしてエンドツーエンドでトレーニングされたものです
さらに、キャンブリッジ・アナリティカスキャンダルや他のモデレーションとデータ管理に関連するスキャンダルは、技術の透明性が害につながることを示しています。そのため、AIモデルの透明性を求める声が増えています:
「透明性、公平性、責任をAIガバナンスの中核にする… [そして] 透明性を保証するデータ権宣言の採用を検討すること」 — アントニオ・グテーレス、国際連合事務総長、出典
大規模な言語モデル (LLM) が医療や法律などの重要な用途にもますます利用される時代において、エラーやバイアス、潜在的なリスクを体系的にテストできるようになる必要があります。我々はそれを可能にする必要があるといくつかの研究が示しています。LLMが個人データも漏えいする可能性があることも示されているため、その限界と訓練されたデータを知る必要があります。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「Amazon SageMaker Canvasで構築されたMLモデルをAmazon SageMakerリアルタイムエンドポイントに展開します」
- マシンラーニングの革命:光フォトニックアクセラレータでの3D処理の活用による高度な並列処理とエッジコンピューティングの互換性の実現
- Amazon SageMaker JumpStartを使用した対話型ビジュアル言語処理
- 「GlotLIDをご紹介します:1665言語に対応するオープンソースの言語識別(LID)モデル」
- 「リヴィールのロジクルが大規模な法的文書からAmazon Comprehendを使用してPIIを検知・削除した方法」
- イメージの中の数学を解読する:新しいMathVistaベンチマークがビジュアルと数理推論のAIの限界を押し広げている方法
- テンセントAIラボは、進行的条件拡散モデル(PCDM)を紹介しましたこれにより、3つのステージを経て、ターゲットおよびソースのポーズ下のパーソンイメージ間のギャップを徐々に縮めます