「AIエクステンションに乗る前にリスクを考慮してください」

「AIエクステンションを利用する前にリスクを考慮しましょう」

Googleは最近、Bard Extensionsの本格的なローンチを発表しました。これにより、対話型生成AI(GenAI)ツールが他のサービスに統合されました。Bardは今や、ユーザーの個人データを活用して様々なタスクを実行することができます。例えば、メールの整理、フライトの予約、旅行の計画、メッセージの返信の作成などです。

Googleのサービスが既に私たちの日常生活に深く結びついていることを考えると、この統合はGenAIの実用的な日常アプリケーションにおける真の前進を意味し、個人のタスクやワークフローの効率的かつ生産的な処理方法を生み出します。したがって、Googleがより便利なAIツールをリリースするにつれて、ブラウザベースの生産性拡張機能を求めるユーザーの需要に応えるため、他のウェブベースのAI機能も次々と登場しています。

しかし、ユーザーは注意と責任を持つ必要があります。Bard Extensionsや同様のツールは便利で生産的ですが、ユーザーの個人データのセキュリティに影響を及ぼす可能性のある新たなセキュリティの脆弱性をもたらします。そのため、Bardや他のGenAI生産性ツールを活用するユーザーは、慎重に行動することと、重要な情報を無批判に提供する前に、ベストプラクティスを学び、包括的なセキュリティソリューションを求めることが望ましいです。

個人データのレビュー

Googleは明示的に述べていますが、会社のスタッフはBardとの会話をレビューする可能性があります。これには請求書から銀行口座の詳細、ラブレターなどの個人情報が含まれる場合があります。ユーザーは、Googleの従業員が閲覧したり使用したりして製品、サービス、機械学習技術を展開するために、機密情報やGoogleの従業員に見られることを望まないデータを入力しないように警告されています。

Googleや他のGenAIツールの提供元は、ユーザーの個人データを再トレーニングする可能性があります。これはGenAIの改善には必要な要素です。AIの力は、新しい情報から自己学習し学ぶ能力にありますが、その新しい情報が個人データをGenAI拡張機能に信頼するユーザーから提供される場合、パスワードや銀行情報、連絡先などの情報がBardの公開サービスに統合されるというリスクがあります。

未確定のセキュリティ上の懸念事項

BardがGoogle内でより広く統合されるにつれて、専門家やユーザーはまだその機能の範囲を理解しようとしています。しかし、AI分野の最先端のプレーヤーと同様に、Googleはユーザーの情報やデータをどのように利用するかを正確には把握していないまま製品をリリースし続けています。例えば、Bardの会話を「共有」ボタン経由で友人と共有すると、その会話全体が標準のGoogle検索結果に表示されて、誰でも閲覧できることが最近判明しました。

効率的なワークフローの改善のために魅力的な解決策である一方、Bardや他のAIパワード拡張機能に日常的なタスクを代行させることで、GenAIが時折生み出す誤った出力、すなわちAIホールシネーションの発生という望ましくない結果を招く可能性があります。

Googleのユーザーにとって、これは間違ったフライトの予約、正確な請求書の支払い、または間違った人と文書を共有することを意味するかもしれません。個人データを誤った相手や悪意のある行為者にさらすことや、正しい相手に誤ったデータを送信することは、身元盗用やデジタルプライバシーの喪失、潜在的な金銭的損失や恥ずかしいやりとりの露出など、望ましくない結果につながる可能性があります。

セキュリティの拡張

一般的なAIユーザーにとって、最善の方法は、まだ予測困難なAIアシスタントから個人情報を共有しないことです。しかし、それだけでは完全なセキュリティは保証されません。

SaaSやウェブベースのアプリケーションへの移行により、ブラウザは既に攻撃対象の主要領域となっています。そして、人々がさらに多くのウェブベースのAIツールを採用し始めると、機密データを盗む機会が少し増えます。GenAIの成功に乗じようとする多くのブラウザ拡張機能が登場するにつれて、これらの拡張機能の多くが情報を盗むか、ChatGPT関連ツールの場合はユーザーのOpenAI APIキーを盗む可能性があることに注意する必要があります。

幸いなことに、ブラウザ拡張機能のセキュリティソリューションは既に存在しており、データの盗難を防ぐことができますブラウザ拡張機能にDLP(データ損失防止)コントロールを実装することで、ユーザーは他のブラウザ拡張機能、AIベースまたはそれ以外のソリューションが個人データを誤用または共有するリスクを軽減することができます。これらのセキュリティ拡張機能はブラウザのアクティビティを検査し、セキュリティポリシーを強制し、機密情報を抑制することができます。

バードを守る

バードやその他の類似した拡張機能は、生産性と利便性の向上を約束していますが、それらには重大なサイバーセキュリティ上のリスクもあります。個人データが関わる場合、常に潜在的なセキュリティ上の懸念が存在し、特にジェネラティブAIの新たな未知の領域ではさらにその重要性が増します。

バードや他のAIやウェブベースのツールによって、個人データを独立して扱わせる場合、ブラウザのセキュリティ拡張機能やDLPコントロールのない無警戒なユーザーには、より重大な結果が待ち受けています。生産性が向上する一方で情報の漏洩の可能性が高まるのではなく、個人は自分たちの費用でデータが誤処理される前にAIの保護を確保する必要があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「スノーケルAIのCEO兼共同創設者、アレックス・ラットナー - インタビューシリーズ」

アレックス・ラトナーは、スタンフォードAIラボを母体とする会社、Snorkel AIのCEO兼共同創設者ですSnorkel AIは、手作業のAI...

AIテクノロジー

アンソニー・グーネティレケ氏は、Amdocsのグループ社長であり、テクノロジー部門および戦略部門の責任者です- インタビューシリーズ

アンソニー・グーネティレーケは、Amdocsでグループ社長、テクノロジーと戦略担当です彼と企業戦略チームは、会社の戦略を策...

人工知能

「Kognitosの創設者兼CEO、ビニー・ギル- インタビューシリーズ」

ビニー・ギルは、複数の役職と企業を横断する多様で幅広い業務経験を持っていますビニーは現在、Kognitosの創設者兼CEOであり...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

人工知能

「アナコンダのCEO兼共同創業者、ピーターウォングによるインタビューシリーズ」

ピーター・ワンはAnacondaのCEO兼共同創設者ですAnaconda(以前はContinuum Analyticsとして知られる)を設立する前は、ピー...

人工知能

Diginiのスマートセンスの社長、ガイ・イエヒアブによるインタビューシリーズ

ガイ・イハイアヴ氏は、ビジネスの成功に最も重要な資産を保護するためにインターネット・オブ・シングス(IoT)の力を活用す...