OpenAIの新しいイニシアティブ:スーパーインテリジェントAIを適切な方向に導く
OpenAIの新しいイニシアティブ:スーパーインテリジェントAIの指導
人工知能分野の主要なプレーヤーであるOpenAIは、最近、超知能AIに関連するリスクを管理する専門チームの設立を発表しました。この動きは、世界中の政府が新興のAI技術を規制する方法について協議している時期に行われました。
超知能AIの理解
超知能AIとは、最も才能のある知識人よりも複数の専門領域で優れた能力を持つとされる架空のAIモデルを指します。過去のモデルとは異なり、単一のドメインに限定されず、複数の領域で人間を凌駕する能力を持つと予想されています。OpenAIは、このようなモデルが今後10年以内に出現する可能性があると予測しています。この組織は、超知能AIが人類がこれまでに発明した中で最も影響力のある技術であり、世界の多くの深刻な問題の解決に役立つ可能性があると信じています。しかし、超知能の広大な力は、人類の力を奪う可能性や人類の絶滅さえも引き起こす可能性があります。
OpenAIの超整合チーム
これらの懸念に対処するために、OpenAIは新たな「超整合」チームを設立しました。このチームは、OpenAIの首席科学者であるイリヤ・スツケヴェルと研究所のリサーチヘッドであるヤン・ライケが共同リーダーを務めます。このチームは、現在OpenAIが確保している計算能力の20%にアクセスできます。彼らの目標は、OpenAIが超知能の安全性と人間の価値と整合することを確認するために支援することができる自動化された整合研究者を開発することです。
OpenAIは、これが非常に野心的な目標であり、成功が保証されているわけではないと認識していますが、組織は楽観的な姿勢を保っています。予備実験は有望な結果を示しており、進捗のためのますます有用な指標が利用可能です。さらに、現在のモデルはこれらの問題の多くを経験的に研究するために使用することができます。
- 「OpenAIが著者に同意なく彼らの著書を使用してChatGPTをトレーニングするために訴えられる」
- 「OpenAIがGPT-4へのアクセスを提供」
- 「ChatGPTは旧聞です:ここにはあなたの仕事を変革する8つのAIツールがあります」
規制の必要性
超整合チームの設立は、世界中の政府が新興のAI産業を規制する方法を検討している中で行われました。OpenAIのCEOであるサム・アルトマンは、最近数か月間で少なくとも100人の連邦議員と会談しました。アルトマンは公に、AIの規制は「不可欠」であり、OpenAIは政策立案者と協力したいと述べています。
ただし、このような宣言には慎重な姿勢が重要です。OpenAIのような組織が、実現しないかもしれない仮想的なリスクに公衆の関心を集めることで、AIと労働、情報の誤報、著作権などの即座の問題に対処する必要がある政策立案者からの規制の負担を将来に先送りする可能性があります。
超知能AIのリスクを管理するために専門チームを設立するOpenAIの取り組みは、正しい方向に向けた重要な一歩です。これは、高度なAIによって引き起こされる潜在的な課題に対処するための積極的な手段の重要性を強調しています。AIの開発と規制の複雑さを乗り越える中で、このようなイニシアチブは、AIの潜在能力を活用しつつリスクに対処する必要性を思い起こさせるものです。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「ODSC Europe 2023 キーノート:マイクロソフトのヘンク・ブーレマンによるAzureを用いたPyTorchモデルの展開」
- マイクロソフトのボスは、AIが支配することに懸念を抱いていない
- 「責任あるAIダッシュボードでオブジェクト検出モデルをデバッグする」
- Google Cloud上のサーバーレストランスフォーマーパイプラインへの私の旅
- パートナーシップ:Amazon SageMakerとHugging Face
- 分散トレーニング:🤗 TransformersとAmazon SageMakerを使用して、要約のためにBART/T5をトレーニングする
- Amazon SageMakerを使用して、Hugging Faceモデルを簡単にデプロイできます