「AIエクステンションに乗る前にリスクを考慮してください」

「AIエクステンションを利用する前にリスクを考慮しましょう」

Googleは最近、Bard Extensionsの本格的なローンチを発表しました。これにより、対話型生成AI(GenAI)ツールが他のサービスに統合されました。Bardは今や、ユーザーの個人データを活用して様々なタスクを実行することができます。例えば、メールの整理、フライトの予約、旅行の計画、メッセージの返信の作成などです。

Googleのサービスが既に私たちの日常生活に深く結びついていることを考えると、この統合はGenAIの実用的な日常アプリケーションにおける真の前進を意味し、個人のタスクやワークフローの効率的かつ生産的な処理方法を生み出します。したがって、Googleがより便利なAIツールをリリースするにつれて、ブラウザベースの生産性拡張機能を求めるユーザーの需要に応えるため、他のウェブベースのAI機能も次々と登場しています。

しかし、ユーザーは注意と責任を持つ必要があります。Bard Extensionsや同様のツールは便利で生産的ですが、ユーザーの個人データのセキュリティに影響を及ぼす可能性のある新たなセキュリティの脆弱性をもたらします。そのため、Bardや他のGenAI生産性ツールを活用するユーザーは、慎重に行動することと、重要な情報を無批判に提供する前に、ベストプラクティスを学び、包括的なセキュリティソリューションを求めることが望ましいです。

個人データのレビュー

Googleは明示的に述べていますが、会社のスタッフはBardとの会話をレビューする可能性があります。これには請求書から銀行口座の詳細、ラブレターなどの個人情報が含まれる場合があります。ユーザーは、Googleの従業員が閲覧したり使用したりして製品、サービス、機械学習技術を展開するために、機密情報やGoogleの従業員に見られることを望まないデータを入力しないように警告されています。

Googleや他のGenAIツールの提供元は、ユーザーの個人データを再トレーニングする可能性があります。これはGenAIの改善には必要な要素です。AIの力は、新しい情報から自己学習し学ぶ能力にありますが、その新しい情報が個人データをGenAI拡張機能に信頼するユーザーから提供される場合、パスワードや銀行情報、連絡先などの情報がBardの公開サービスに統合されるというリスクがあります。

未確定のセキュリティ上の懸念事項

BardがGoogle内でより広く統合されるにつれて、専門家やユーザーはまだその機能の範囲を理解しようとしています。しかし、AI分野の最先端のプレーヤーと同様に、Googleはユーザーの情報やデータをどのように利用するかを正確には把握していないまま製品をリリースし続けています。例えば、Bardの会話を「共有」ボタン経由で友人と共有すると、その会話全体が標準のGoogle検索結果に表示されて、誰でも閲覧できることが最近判明しました。

効率的なワークフローの改善のために魅力的な解決策である一方、Bardや他のAIパワード拡張機能に日常的なタスクを代行させることで、GenAIが時折生み出す誤った出力、すなわちAIホールシネーションの発生という望ましくない結果を招く可能性があります。

Googleのユーザーにとって、これは間違ったフライトの予約、正確な請求書の支払い、または間違った人と文書を共有することを意味するかもしれません。個人データを誤った相手や悪意のある行為者にさらすことや、正しい相手に誤ったデータを送信することは、身元盗用やデジタルプライバシーの喪失、潜在的な金銭的損失や恥ずかしいやりとりの露出など、望ましくない結果につながる可能性があります。

セキュリティの拡張

一般的なAIユーザーにとって、最善の方法は、まだ予測困難なAIアシスタントから個人情報を共有しないことです。しかし、それだけでは完全なセキュリティは保証されません。

SaaSやウェブベースのアプリケーションへの移行により、ブラウザは既に攻撃対象の主要領域となっています。そして、人々がさらに多くのウェブベースのAIツールを採用し始めると、機密データを盗む機会が少し増えます。GenAIの成功に乗じようとする多くのブラウザ拡張機能が登場するにつれて、これらの拡張機能の多くが情報を盗むか、ChatGPT関連ツールの場合はユーザーのOpenAI APIキーを盗む可能性があることに注意する必要があります。

幸いなことに、ブラウザ拡張機能のセキュリティソリューションは既に存在しており、データの盗難を防ぐことができますブラウザ拡張機能にDLP(データ損失防止)コントロールを実装することで、ユーザーは他のブラウザ拡張機能、AIベースまたはそれ以外のソリューションが個人データを誤用または共有するリスクを軽減することができます。これらのセキュリティ拡張機能はブラウザのアクティビティを検査し、セキュリティポリシーを強制し、機密情報を抑制することができます。

バードを守る

バードやその他の類似した拡張機能は、生産性と利便性の向上を約束していますが、それらには重大なサイバーセキュリティ上のリスクもあります。個人データが関わる場合、常に潜在的なセキュリティ上の懸念が存在し、特にジェネラティブAIの新たな未知の領域ではさらにその重要性が増します。

バードや他のAIやウェブベースのツールによって、個人データを独立して扱わせる場合、ブラウザのセキュリティ拡張機能やDLPコントロールのない無警戒なユーザーには、より重大な結果が待ち受けています。生産性が向上する一方で情報の漏洩の可能性が高まるのではなく、個人は自分たちの費用でデータが誤処理される前にAIの保護を確保する必要があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...

人工知能

Aaron Lee、Smith.aiの共同設立者兼CEO - インタビューシリーズ

アーロン・リーさんは、Smith.aiの共同創業者兼CEOであり、AIと人間の知性を組み合わせて、24時間365日の顧客エンゲージメン...

AIテクノロジー

「LXTのテクノロジーバイスプレジデント、アムル・ヌール・エルディン - インタビューシリーズ」

アムル・ヌール・エルディンは、LXTのテクノロジー担当副社長ですアムルは、自動音声認識(ASR)の文脈での音声/音響処理と機...

人工知能

ディープAIの共同創業者兼CEO、ケビン・バラゴナ氏- インタビューシリーズ

ディープAIの創設者であるケビン・バラゴナは、10年以上の経験を持つプロのソフトウェアエンジニア兼製品開発者です彼の目標...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

AIニュース

Q&A:ブラジルの政治、アマゾンの人権、AIについてのGabriela Sá Pessoaの見解

ブラジルの社会正義のジャーナリストは、MIT国際研究センターのフェローです