ジョン・イサザ弁護士、FAI氏によるAIとChatGPTの法的な土壌を航行する方法

John Isaza, an attorney, navigates the legal landscape of AI and ChatGPT with FAI.

私たちは、Rimon LawのパートナーであるJohn Isaza Esq.、FAIから、法的な景観の進化、プライバシー保護とイノベーションの微妙なバランス、AIツールを統合する際に生じる異なる法的含意など、様々な側面について、彼の物語と貴重な洞察を共有いただきました。

Johnは、ChatGPTなどのAIテクノロジーに関連する課題や考慮事項に関する貴重な視点を提供し、データガバナンス、倫理的使用、プライバシー法令との遵守の重要性を強調しています。さらに、彼は、プライバシーと情報ガバナンスの特定のニーズに対応するために設計されたクラウドベースのソフトウェアソリューションであるVirgoを立ち上げた経験を共有しています。

法律、プライバシー、革新の交差点:洞察と戦略の探求

法律とプライバシー/情報ガバナンスの交差点に興味を持ったきっかけは何ですか?

私は常に未踏の領域に興味を持っていました。私は、記録管理が主に紙の記録管理の実践に焦点を当てていた2001年に情報ガバナンスに関心を持ち始めました。しかし、私は、電子記録とデータに焦点を当てるようにという上司のアドバイスを受けました。彼はこれが未来の波であると考えていました。そこで、私はすべての電子に関することについて専門家になることに決めました。これにより、私は情報ガバナンスプロフェッショナル認定委員会の議長をはじめとするさまざまなリーダーシップポジションに就くことができました。この委員会は、レコード管理産業をプライバシーなどの他の主要な学問分野、データセキュリティ、eディスカバリ、システムアーキテクチャ、インフラストラクチャ、伝統的なレコード管理などを含む広範な情報ガバナンスに移行させることを担当していました。

プライバシー法規の最新動向と変更についてどのように最新情報を得ていますか?

これは小さなタスクではありません。ARMA、ABA、IAPPなどの貿易団体は、最新の情報を追跡するための優れたリソースです。ABAの消費者プライバシー及びデータ分析サブ委員会の議長として、私はこのトピックに強い興味を持つさまざまな法律専門家の才能と経験を活用することができます。私たちは頻繁に出版物や講演会で協力し、最新の動向について常に把握する必要があります。

デジタル時代におけるプライバシー保護とイノベーションを促進するバランスをどのようにアプローチしますか?

これは私が起業家としての経験が最も役立つ場所です。私たちは、厳格で、時には過酷な規制措置と、ライトを点灯し、利益を上げる現実とのバランスを取る必要があります。法的顧問として、私の仕事は、クライアントに彼らのオプションと、それぞれのオプションに関連する結果を指摘することです。クライアントにとって、プライバシーのコンプライアンスの問題は、市場での提供に基づいて、彼らの背後にあるターゲットがどの程度大きく、どのように大きくなるかによるリスクに基づくリスクベースの決定である場合があります。

クラウドベースのソフトウェアであるVirgoを立ち上げたきっかけは何であり、プライバシーと情報ガバナンスのニーズに対処する方法は何ですか?

Virgoは、組織の記録保持だけでなく、プライバシー規制、フォーマット、場所、処分、時効要件についてのグローバルな法的要件を通知します。これらの規制は、グローバルな法律事務所であるBaker&McKenzieのような大手法律事務所に対する、私たちの研究は、より優れており、クライアントに請求するかもしれない巨額な料金の一部であるが、現代のAIツールの先駆者である翻訳ツールを活用することで競争力を維持しました。

プライバシーやデータ保護は、Boeing、Microsoft、NASAなどの大企業がソフトウェアに加入するにつれてますます重要になってきました。それぞれが厳格なデータセキュリティのコンプライアンス要件を持っており、最も厳格なセキュリティ基準を採用する必要があり、それにより、ソフトウェアを全般的に販売することが容易になりました。最初の数回は非常に苦痛でしたが、その後はずっと簡単になりました。最高水準の要件に適合している場合、ローカルまたは地域の要件を航行するのがはるかに簡単になります。

法的景観は、ヨーロッパ連合による提案されたAI法によってすでに形成され始めています。AI法は、AIの使用を取り囲む規制フレームワークを提示しており、他の国々がAIの使用を取り囲むために次にどこに行くかを予見する良い出発点の規制フレームワークを提供しています。現実的には、AIプロバイダーは、可能性のある相反する規制命令に対処することに慣れる必要があり、これにより、プライバシーのコンプライアンスについて説明したリスクベースのアプローチにつながります。

まず、公開AIツールと非公開AIツールを区別しましょう。公開AIツール(ChatGPT、GoogleのBard、MicrosoftのBing、Dall-Eなど)は、サンプルデータが長年にわたって公共インターネットから採掘された未精査のデータから引き出される可能性があるため、データの完全性に最大の課題を提供します。結果の妥当性だけでなく、著作権、商標、その他の法的責任問題が発生する可能性もあります。公開AIツールは、世界中の誰でも保持され、閲覧できるデータを摂取するため、組織が直ちにポリシーとトレーニングを通じて機密保持の課題に対処する必要があります。

非公開AIツールの課題は、クリーンで正確なトレーニングデータセットの使用に主にあり、これにより、古い「ゴミ入り、ゴミ出し」のジレンマを回避することができます。

いずれの場合も、アルゴリズムによって中傷や差別を引き起こすバイアスを検証するために、人間によるツールのテストが必要です。

現時点では、EU AI法以外にあまり規制フレームワークはありません。EU AI法はまだ承認過程を経ていますが、ニューヨーク市にも法律があります。米国の州レベルや連邦レベルでさらに多くの規制フレームワークが登場する予定です。

当面は、私はEU AI法に注意を払うことをお勧めします。先に述べたように、EU AI法は、AIの使用が高度に敏感であり、より厳密な監視対象となる可能性のある優先事項を設定するのに役立つ良い出発点の規制フレームワークを提供しているようです。

EU AI法を見るだけで、最も近い監査を受ける使用法をすぐに見分けることができます。例えば、市民の生命や健康を危険にさらす可能性がある重要なインフラ、教育や職業訓練に影響を与える可能性がある人のアクセス、ロボット支援手術、雇用の募集、信用スコア、犯罪証拠評価、移民、亡命、国境管理の決定、および一定の事実に対する法律の適用など、高リスクのAIシステムアプリケーションが含まれます。

AI法には、「限定的リスク」と「最小限のリスク」の例が挙げられています。人間の行動を悪用するような「許容できないリスク」のシステムは禁止されます。執行に関しては詳細が問題になることでしょうが、これは規制執行のための枠組みと指導の開始であることは先に述べたとおりです。

データガバナンスに関して、AI技術を活用してデータプライバシー法や規制に準拠するための最良の方法として、どのようなベストプラクティスを組織にお勧めしますか?

私が組織にお勧めしていることのチェックリストを以下に示します。

  • AI使用に制御を加える国際法を追跡する
  • データのエラーや保護対象のIPの使用、特に画像や映像音声の使用に注意する
  • 生成AI契約に反バイアス言語の義務を含める
  • 人間のファクトチェックなしでAIを使用しないようすべてのベンダーに契約上の義務を課す
  • トレーニングデータ使用の正当性に関する確約と契約を取得する
  • AIの出力が差別法を引き起こすバイアスを示さないよう、AIの使用者は注意する必要があります
  • 前提を理解するためにExplainable AI(XAI)を使用する
  • 特に雇用の決定、クレジット評価、医療資源、収容などにAIを使用する場合、使用に注意する
  • 生成AIモデルはトレーニング段階とアウトプット開発の両方で監視する必要があります

内部使用に関しては以下をお勧めします。

  • 組織内でのAIの現在の使用を評価する
  • 組織内でのAIの最高の使用と最良の使用方法を決定する
  • 外部/公共AIツールで機密データを使用しないよう、スタッフとベンダーにトレーニングを行う
  • AIの使用に関するポリシーを策定し、既存のポリシーがAIと交差する場合は見直す
  • AIの使用が関わるベンダー契約を見直す
  • AIの使用が役立つ製品またはサービス、ビジネスモデルの変更を評価する

私がここで提供する最良のアドバイスは、組織や外部に公開される重要な機能に使用される場合、入力と出力のすべてに人間のレビューがあることを確認することです。特に、アルゴリズムが雇用、昇進、昇給、または解雇の決定に使用される場合は、特に注意が必要です。同様に、クレジットスコアリング、査定、または財政的に影響を与える可能性のあるその他の用途も、特別な注意を払う必要があります。

ChatGPTなどのAIパワードツールを使用する際に、ユーザープライバシーとデータ保護法を尊重しながら、企業が倫理的かつ法的に使用していることをどのように確保できますか?

以前のように、メール、ソーシャルメディア、インスタントメッセージング、テキストメッセージングなどのホットなテクノロジーと同様に、組織は従業員の使用に関するポリシー、手順、トレーニングを通じてガードレールを設ける必要があります。 AIアプリケーションを開発する際には、入力レベルでのデータの衛生状態の確保と、出力レベルでの結果の審査のために、ポリシー、手順、ガイドラインも実施する必要があります。

質問11の回答がここでのスタートとなります。また、ChatGPTの使用は、公共ツールの使用例です。これは、それにフィードされるデータが公開されることを意味します。したがって、公共のAIツールをビジネスに組み込む場合、機密性や秘密保持の保護に注意する必要があります。

今後の展望

この分野においては、規制の洪水が予想されるため、当分の間、提案された規制や発行されたガイドラインに常に注意を払ってください。これにより、ホットスポットが把握でき、何が規制されているかに基づいてビジネスモデルが標的になる可能性があるかどうかがわかります。同様に、連邦取引委員会などの連邦機関がこのトピックについて何を言っているか、または通知しているかに注意を払ってください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「ナレ・ヴァンダニャン、Ntropyの共同創設者兼CEO- インタビューシリーズ」

Ntropyの共同創設者兼CEOであるナレ・ヴァンダニアンは、開発者が100ミリ秒未満で超人的な精度で金融取引を解析することを可...

人工知能

「ElaiのCEO&共同創業者、Vitalii Romanchenkoについてのインタビューシリーズ」

ヴィタリー・ロマンチェンコは、ElaiのCEO兼共同創設者であり、マイク、カメラ、俳優、スタジオの必要なく、個人が一流のビデ...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...

機械学習

もし芸術が私たちの人間性を表現する方法であるなら、人工知能はどこに適合するのでしょうか?

MITのポストドクターであるジヴ・エプスタイン氏(SM '19、PhD '23)は、芸術やその他のメディアを作成するために生成的AIを...

人工知能

ピーター・マッキー、Sonarの開発者担当責任者-インタビューシリーズ

ピーター・マッキーはSonarのDeveloper Relationsの責任者です Sonarは、悪いコードの1兆ドルの課題を解決するプラットフォー...

人工知能

ギル・ジェロン、Orca SecurityのCEO&共同創設者-インタビューシリーズ

ギル・ゲロンは、オルカ・セキュリティのCEO兼共同設立者ですギルは20年以上にわたりサイバーセキュリティ製品をリードし、提...