「創発的AIのためのガードレール構築への責任あるアプローチ」

「創発的AIに向けた責任あるガードレール構築アプローチ」

2十年以上にわたり、Googleは機械学習とAIと連携して製品をより便利にしてきました。AIは、Gmailのスマートコンポーズから地図上での帰宅時の最短経路検索まで、ユーザーの日常生活において様々な形で役立っています。AIはまた、医学の進歩や気候変動といった重要な課題に貢献することも可能にしています。AIと最近では生成AIを、Googleのさまざまな体験に組み込んでいくにつれて、大胆かつ責任ある取り組みが不可欠であると認識しています。

最初から製品に保護を組み込む

この技術を責任を持って導入するためには、AIによって生成された画像によって引き起こされる広範な安全リスクやセキュリティリスクを予測し、テストすることが重要です。私たちはAIの原則に基づき、生成AIの機能にデフォルトで保護を取り入れるための手段を講じています。

  • 不公平なバイアスからの保護: 機械学習モデルにおける不公平なバイアスを特定し、軽減するためのツールやデータセットを開発しました。これは私たちのチームにとって研究の対象の一環であり、ここ数年間でこのトピックについていくつかの重要な論文を発表してきました。また、社会的文脈を考慮に入れるために、サードパーティの意見を定期的に求め、潜在的な不公平なバイアスの発生源を評価しています。
  • レッドチーミング: 自社および外部の専門家を起用して、サイバーセキュリティの脆弱性や公正さなど幅広いリスクと潜在的な乱用の領域をテストするレッドチーミングプログラムに参加しています。これらの敵対的なテスト活動により、現在および新たに発生するリスク、行動、およびポリシー違反を特定し、積極的に軽減することが可能になります。
  • ポリシーの実施: ポリシー開発と技術的な執行における豊富な経験を活かし、有害で不適切、誤解を招く、または違法なコンテンツを許可していない生成AIの使用禁止ポリシーを策定しました。その後、広範な分類器システムを使用して、これらのポリシーに違反するコンテンツを検出し、防止および削除します。たとえば、違反するプロンプトや出力を特定した場合、私たちの製品は応答を提供せず、危険な行為や自己傷害に関連するようなデリケートなトピックに関するヘルプの追加リソースへとユーザーを誘導する場合もあります。また、モデルをより安全にするために継続的に微調整を行っています。
  • ティーンの保護: SGEなどの生成AI体験に対するティーンのアクセスを徐々に拡大していくにあたり、彼らの発達上のニーズに基づいて、より安全な保護策を導入しました。これには、いじめや年齢制限を伴う違法物質といったトピックに関連する出力を制限することも含まれます。
  • 著作権に対する顧客の保護: 生成AIモデルに使用されるトレーニングデータおよびユーザーの生成された出力に強力な免責保護を設けています。要するに、顧客が著作権に関する問題に直面した場合、私たちは潜在的な法的リスクに関して責任を負います。

生成AIの出力に追加の文脈を提供する

オンライン上で人々が情報を評価するための文脈を提供する長い実績をベースに、私たちはモデルによって生成された情報を評価するための新しいツールを提供しています。たとえば、検索での生成AIに「この結果について」の情報を追加して、人々がその情報を適切に評価できるよう支援しています。また、Bardで見る応答を「二重チェック」するための新しい方法も導入しました。

特に画像に関しては、文脈が重要です。そのため、私たちは製品を通じて生成されるすべての画像にSynthIDというメタデータラベリングと埋め込みのウォーターマーキングを付ける方法を見つけることにコミットしています。同様に、最近は選挙広告ポリシーを更新し、選挙広告にデジタルに変更または生成されたコンテンツが含まれている場合に広告主が開示するよう求めています。これにより、私たちのプラットフォームで選挙広告を見る人々に追加の文脈が提供されます。

私たちは、新興技術としての大規模言語モデル(LLM)ベースの体験は、特に速報ニュースに関して間違いを犯すことがあることを認識しているため、BardとSGEを実験として導入しました。私たちは常に製品をより多くの情報が利用可能になるにつれて更新するよう取り組んでおり、チームは必要に応じて迅速に改善策を実装し続けています。

情報の保護方法

新しい技術には自然にユーザーのプライバシーや個人データに関する疑問が生じます。私たちは、デザイン段階からプライバシーを考慮に入れたAI製品や体験を開発しています。私たちが長年にわたり実施してきた多くのプライバシー保護措置は、私たちの生成型AIツールにも適用され、他のタイプのアクティビティデータと同様に、いつでも一時停止、保存、削除することが簡単にできます。これは、Bard検索を含む場合も同様です。

私たちは、個人情報を広告目的を含めて誰にも販売しません。これはGoogleの長年の方針です。さらに、私たちは生成型AI製品に特化したプライバシー保護策も導入しています。たとえば、Bard内のWorkspace拡張機能を使用することを選択した場合、Gmail、ドキュメント、ドライブからのコンテンツは人間のレビュワーが見ることはありませんし、広告を表示するためにBardが使用することもありませんし、Bardのモデルの訓練に使用することもありません。

将来を形作るためのステークホルダーとの協力

AIは、Googleだけでなく、他の単一の企業でも答えられない複雑な問題を提起します。AIを正しく活用するためには、企業間、学術研究者、市民団体、政府、その他のステークホルダーとの協力が必要です。私たちは既にPartnership on AIML Commonsなどのグループと対話しており、他の主要なAI研究所と共にFrontier Model Forumを立ち上げ、フロンティアAIモデルの責任ある開発を推進しています。また、私たちは数十の研究論文を公開して、研究者や業界との専門知識を共有するために取り組んでいます。

私たちはまた、取り組みの進展についても透明性を持っています。これには、今年のホワイトハウスサミットで他のテック企業とともに自発的に行ったものも含まれています。AIがもたらす機会を受け入れ、リスクに対処するために、私たちは業界全体や政府、研究者、その他の関係者と協力し続けます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

ビンガムトン大学の研究者たちは、社会的な写真共有ネットワークでの自分たちの顔の管理を可能にするプライバシー向上の匿名化システム(私の顔、私の選択)を紹介しました

匿名化は、顔認識や識別アルゴリズムの文脈において重要な問題です。これらの技術の商品化が進むにつれて、個人のプライバシ...

機械学習

新しいツールと機能の発表:責任あるAIイノベーションを可能にする

生成AIの急速な成長は、有望な新しいイノベーションをもたらし、同時に新たな課題も引き起こしていますこれらの課題には、生...

データサイエンス

NVIDIAは、企業向けカスタム生成AIモデルの開発を迅速に進めています

<p>今日の無料でオープンソースの<a href=”https://www.voagi.com/distilbert-smaller-faster-cheaper-and-li...

機械学習

実験から展開へ MLflow 101 | パート01

こんな感じで想像してみてください:新しいビジネスアイデアが浮かび、必要なデータがすぐに手元にあるとしますあなたは素晴...

AIニュース

「AR技術が非口述型自閉症の人々に声を与える手助けをする」

新しいHoloBoardシステムは、MicrosoftのHoloLens 2拡張現実デバイスとペアリングすることで、非言語の自閉症の人々が運動能...

コンピュータサイエンス

「ドローンがニューヨークのビーチでサメの安全対策に取り組む」

ニューヨークのジョーンズビーチの安全当局は、人間とサメの潜在的な相互作用を監視するためにドローンを使用しています