OpenAIのAI安全性へのアプローチ
Approach of OpenAI towards AI safety
OpenAIのCEOであるサム・アルトマン氏が16日に米国上院委員会での姿勢について、ご存知であるかどうかはわかりません。もしまだであれば、サム・アルトマン氏は人工知能(AI)を規制するよう米国の立法者に呼びかけました。CEOは、新しい技術の懸念と可能な落とし穴について証言しました。
ChatGPTがリリースされて以来、他のAIモデルと共に大規模な言語モデルが市場に氾濫しています。過去数か月間、AIの規制と社会への安全性に関する様々な政府の会話が行われてきました。EUはAI法を推進しており、他の大陸も追随しています。
サム・アルトマン氏は、AIの使用に関する倫理的問題や懸念に常に取り組んでおり、より多くの規制を求めてきました。彼は次のように述べています:
- VoAGIニュース、6月14日:あなたの無料のローカルチャットGPT、GPT4All!• Falcon LLM:オープンソースのキング
- 時間の経過とともに失敗する可能性のある若いコホートの犯罪リスクを評価するためのツール
- ロボットは倉庫に人間らしさをもたらすことを目指しています
「この技術が誤作動した場合、かなりの誤作動になる可能性があると思われます。私たちはそれについて声高になりたいと思っています。私たちは政府と協力して、それが起こらないようにすることを望んでいます。」
OpenAIの安全性への取り組み
OpenAIは、AIの安全性と利益を確保することに取り組んでいます。彼らは、ChatGPTなどのツールが多くの人々に生産性、創造性、そして全体的な作業体験の改善をもたらしたことを理解していますが、安全性は彼らの主要な優先事項の1つです。
では、OpenAIはどのようにしてAIモデルの安全性を確保しているのでしょうか?
厳密なテスト
OpenAIは、外部の専門家の助けを借りて、どのAIシステムがリリースされる前に厳密なテストを行い、システムを改善する方法を常に見つけています。彼らは、人間のフィードバックを用いた強化学習などの技術を使用して、モデルの動作を改善し、より良い安全性と監視システムを構築することができます。
OpenAIは、最新のモデルであるGPT-4を公開する前に、6か月以上も安全性を確保するために取り組んでいます。
実世界での使用
実世界での使用こそが最高のテストです。新しいシステムを実験室で作成し、可能なリスクをすべて防ぐことは良いことです。しかし、実験室ではこれらのリスクを制御できず、実際に公開する必要があります。
残念ながら、AIシステムでは、公衆がそれをどのように使用するかを制限することはできません。OpenAIは、いくつかのセーフガードを備えたAIシステムを公開し、アクセスできる人々のグループを拡大すると、継続的な改善を確保しています。
開発者が利用できるAPIにより、OpenAIは潜在的な誤用の行動を監視し、これを緩和するために使用しています。OpenAIは、社会がAIの今後の発展に重要な発言権を持つべきだと考えています。
児童保護
OpenAIのAI安全性における主要な焦点の1つは、児童の保護です。彼らは現在、ユーザーが18歳以上であるか、親の同意がある場合は13歳以上であることを確認する検証オプションに取り組んでいます。彼らは、彼らの技術が憎悪、暴力、または成人向けのコンテンツを生成することを許可していないことを明言しています。
彼らは、児童を保護するために、例えば、ユーザーが既知の児童性的虐待資料を画像ツールにアップロードしようとすると、Thorn’s Saferを立ち上げて検出、レビュー、報告するなど、さらに多くのツールと方法を用意しています。
ChatGPTなどのツールを利用する児童が利益を得るために、OpenAIはKhan Academyと協力し、学生の仮想チューターと教師の教室アシスタントとして機能するAIパワードアシスタントを構築しました。
プライバシー
大規模な言語モデルは、多くの人々がプライバシー上の懸念があると考えているさまざまな公開ソースで訓練されています。OpenAIは次のように述べています:
「私たちはデータを販売、広告、または人々のプロファイルを構築するために使用しません。私たちは人々にとってより役立つために私たちのモデルを学習するためにデータを使用しています。」
彼らの目的は、ChatGPTなどのツールが個人情報についてではなく、世界について学ぶことです。可能な限り、OpenAIはトレーニングデータセットから個人情報を削除し、モデルを微調整して個人情報に関するリクエストを拒否するようにしています。また、個人からOpenAIのシステム内の個人情報を削除するように要求します。
精度
ChatGPTなどのツールについてのユーザーフィードバックにより、OpenAIは不正確と判断された出力をフラグ付けして、主要なデータソースとして使用しています。事実の正確さを向上させることは彼らのリストで大きな問題であり、GPT-4はGPT-3.5よりも40%も事実に関するコンテンツを生成する可能性が高いとされています。
まとめ
OpenAIがAI安全性に対するアプローチを明らかにし、CEOのSam AltmanがAIシステムの潜在的な問題に対処し、政府に規制を設けるよう促したことで、AI安全性に対する懸念が解決へと向かう始まりとなった。
これには、市場で最も能力のあるモデルからの学習のほか、時間とリソースが必要です。OpenAIはGPT-4の展開までに6か月以上待ちましたが、安全性を確保するためにはより長い時間がかかると述べています。
これから何が起こると思いますか?
OpenAIのSam Altman氏の16日の火曜日の公聴会を視聴したい場合は、こちらからご覧いただけます:ChatGPT Chief Sam Altman Testifies Before Congress on AI。
Nisha Aryaは、データサイエンティスト、フリーランスの技術ライター、VoAGIのコミュニティマネージャーです。彼女は特に、データサイエンスのキャリアアドバイスやチュートリアル、理論に基づくデータサイエンスの知識を提供することに興味があります。また、人間の寿命の長さに人工知能がどのように役立つかを探求したいと考えています。彼女は積極的な学習者であり、他者を指導しながら技術的な知識とライティングスキルを広げることを目指しています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles