ベイリー・カクスマー、ウォータールー大学の博士課程候補 – インタビューシリーズ

'ベイリー・カクスマー、ウォータールー大学の博士課程候補'

バイリー・カクスマールは、ウォータールー大学コンピューターサイエンス学部の博士課程の学生であり、アルバータ大学の新任教員です。彼女の研究の興味は、技術的アプローチとそれに対応するユーザーの認識、懸念、理解による、ユーザー意識型のプライバシー強化技術の開発にあります。彼女の研究は、機械学習アプリケーションにおけるプライバシーの可能性と制約を特定することを目指しています。

あなたの研究の興味は、ユーザー意識型のプライバシー強化技術の開発にありますが、なぜAIにおけるプライバシーは重要なのですか?

AIにおけるプライバシーの重要性は、大きな部分で、データなしではAIは存在しないためです。データは便利な抽象化ですが、最終的には人々とその行動を記述するものです。私たちは滅多に木の人口や水位に関するデータを扱っていません。したがって、実際の人々に影響を与えるものを扱う場合、それを認識し、システムが善を成し遂げるか、害を与えるかを理解する必要があります。これは特にAIに当てはまることで、多くのシステムが膨大な量のデータを利用したり、健康データなどの高度に敏感なデータを使用したりして、私たちの世界の新たな理解を開発しようとするからです。

いくつかの機械学習がユーザーのプライバシーを裏切ったと思われる方法はありますか?

“裏切った”という言葉は強すぎます。ただし、システムが人々に関する情報を彼らの同意なしに使用し、彼らに通知せず、潜在的な害を考慮せずに使用する場合、個人や社会のプライバシーの基準を裏切るリスクがあります。要するに、これは何千もの小さな傷による裏切りとなります。そのような実践例として、ユーザーのメールの受信トレイでモデルをトレーニングすること、ユーザーのテキストメッセージでトレーニングすること、または健康データでトレーニングすることなどが考えられます。これらのデータの主体に通知することなく行われることです。

差分プライバシーとは何か、またそれに対するあなたの見解は何ですか?

差分プライバシーは、技術的プライバシーの実現において著名な定義または技術です。技術的プライバシーの定義は、一般的に2つの主要な側面、つまり何が保護されているかと誰から保護されているかを含みます。技術的プライバシーの中では、プライバシー保証は、一連の仮定が満たされた場合に達成される保護です。これらの仮定は、潜在的な攻撃者、システムの複雑さ、統計などに関するものです。これは非常に有用な技術であり、さまざまな応用があります。ただし、差分プライバシーとプライバシーは同等ではないことを心に留めておくことが重要です。

プライバシーは1つの定義や概念に限定されるものではなく、それを超える考え方にも注意を払うことが重要です。たとえば、状況に応じた整合性は、個人のプライバシー認識が状況に関連して異なるアプリケーションや組織がどのように変化するかを考慮したプライバシーの概念的な考え方です。また、カナダのPIPEDA、ヨーロッパのGDPR、カリフォルニアの消費者保護法(CCPA)など、法的なプライバシーの概念もあります。これらすべてから、差分プライバシーが採用されているとしても、技術システムを他のプライバシー要因から切り離された真空中に存在するものとして扱うことはできないということです。

フェデレーテッドラーニングとは何か、またあなたの見解は何ですか?

フェデレーテッドラーニングは、複数の所有者や場所に分散されたデータセットでモデルをトレーニングする方法です。それ自体がプライバシーを向上させる機械学習の方法ではありません。プライバシーを向上させる機械学習の方法は、保護されるもの、保護される対象、およびこれらの保護が成立するための条件を明確に定義する必要があります。たとえば、差分プライバシーの単純な計算を考えると、あるデータポイントが提供されたかどうかを見る人が出力から判断できないという保証が得られます。

さらに、データポイント間に相関関係がある場合、差分プライバシーはこの保証を提供しません。フェデレーテッドラーニングにはこの機能がありません。単にデータの所有者がお互いや第三者に直接データセットを提供することなく、コレクションのデータでモデルをトレーニングします。これはプライバシーの機能のように聞こえますが、必要なのは、信頼できない者が中継者と出力を観察することで保護された情報を学習できないことを形式的に保証することです。この形式性は特に重要であり、信頼できない者には、集合モデルをトレーニングするためにデータを提供するすべての人々が含まれるフェデレーテッドな環境で必要です。

これらのアプローチの現在の制約は何ですか?

現在の制約は、プライバシーと有用性のトレードオフの性質として最もよく説明されます。すべてを行っても、関係者にプライバシーの影響を伝え、システムを評価し、望んでいることに対してシステムを評価しても、完全なプライバシーを達成することはできません。完全な有用性は一般的にプライバシー保護を持ちません。したがって、問題は「理想的な」トレードオフが何かを決定する方法です。必要なプライバシー保護を提供しながら、望ましい機能を実現するためにどのように正しいバランスを見つけ、それに向かって構築するかです。

現在、私たちは技術的な解決策を通じてユーザーコンシャスなプライバシーテクノロジーの開発を目指しています。これらの解決策のいくつかについて、詳細をお聞かせいただけますか?

これらの解決策とは、大まかに言えば、さまざまな技術的なプライバシーシステムを開発することができるということです。ただし、その際に重要なのは、プライバシー保証が関係者に届いているかどうかを確認することです。これは、人々がどのような保護を重視しているかを調査した後にシステムを開発することを意味する場合もあります。これは、実際の脅威やリスクに考慮して人々がシステムをどのように使用しているかを調査した後にシステムを更新することを意味する場合もあります。技術的な解決策は、前述の定義を満たす正しいシステムであることがあります。ユーザーコンシャスな解決策は、ユーザーや他の関係者からの入力に基づいてシステムを設計します。

2024年9月に入学する興味のある大学院生を募集していますが、なぜ学生はAIプライバシーに興味を持つべきだと考えていますか?

学生が興味を持つべき理由は、それが私たちの社会でますます普及していくものだからだと思います。これらのシステムがどれほど迅速に進化しているかを知るには、最近のChat-GPTのニュース記事、ソーシャルメディア、およびその影響に関する論争を見るだけで十分です。私たちは、データの収集と利用が私たちの日常生活に深く根付いている社会に存在しています。私たちはほぼ常に、さまざまな企業や組織に自分自身に関する情報を提供しています。これらの企業は、データを利用したり、サービスの改善のために利用したりします。この時点では、これらの企業のデータ利用の慣行が変わるとは思えません。しかし、ユーザーを保護しながら、企業が望む特定の分析を許可するプライバシー保護システムの存在は、リスクと報酬のトレードオフをバランスさせるのに役立ちます。これは、私たちの社会の暗黙の一部となっているものです。

素晴らしいインタビュー、さらに詳しく知りたい読者はBailey KacsmarのGithubページを訪れてください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「aiOlaのCEO兼共同創設者、アミール・ハラマティによるインタビューシリーズ」

アミール・ハラマティは、aiOlaのCEO兼共同創業者であり、スピーチを作業可能にし、どこでも完全な正確さで業界固有のプロセ...

人工知能

『DeepHowのCEO兼共同創業者、サム・ジェン氏によるインタビューシリーズ』

ディープハウのCEO兼共同創設者であるサム・ジェンは、著名な投資家から支持される急速に進化するスタートアップを率いていま...

人工知能

「ジャスティン・マクギル、Content at Scaleの創設者兼CEO - インタビューシリーズ」

ジャスティンは2008年以来、起業家、イノベーター、マーケターとして活動しています彼は15年以上にわたりSEOマーケティングを...

データサイエンス

「3つの質問:ロボットの認識とマッピングの研磨」

MIT LIDSのLuca CarloneさんとJonathan Howさんは、将来のロボットが環境をどのように知覚し、相互作用するかについて議論し...

人工知能

キャルレールの最高製品責任者、ライアン・ジョンソンへのインタビューシリーズ

ライアンは、初期のスタートアップからフォーチュン100の組織まで、多様なテクノロジーと製品開発のリーダーシップ経験を15年...

人工知能

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であ...