ジョン・イサザ弁護士、FAI氏によるAIとChatGPTの法的な土壌を航行する方法
John Isaza, an attorney, navigates the legal landscape of AI and ChatGPT with FAI.
私たちは、Rimon LawのパートナーであるJohn Isaza Esq.、FAIから、法的な景観の進化、プライバシー保護とイノベーションの微妙なバランス、AIツールを統合する際に生じる異なる法的含意など、様々な側面について、彼の物語と貴重な洞察を共有いただきました。
Johnは、ChatGPTなどのAIテクノロジーに関連する課題や考慮事項に関する貴重な視点を提供し、データガバナンス、倫理的使用、プライバシー法令との遵守の重要性を強調しています。さらに、彼は、プライバシーと情報ガバナンスの特定のニーズに対応するために設計されたクラウドベースのソフトウェアソリューションであるVirgoを立ち上げた経験を共有しています。
法律、プライバシー、革新の交差点:洞察と戦略の探求
法律とプライバシー/情報ガバナンスの交差点に興味を持ったきっかけは何ですか?
私は常に未踏の領域に興味を持っていました。私は、記録管理が主に紙の記録管理の実践に焦点を当てていた2001年に情報ガバナンスに関心を持ち始めました。しかし、私は、電子記録とデータに焦点を当てるようにという上司のアドバイスを受けました。彼はこれが未来の波であると考えていました。そこで、私はすべての電子に関することについて専門家になることに決めました。これにより、私は情報ガバナンスプロフェッショナル認定委員会の議長をはじめとするさまざまなリーダーシップポジションに就くことができました。この委員会は、レコード管理産業をプライバシーなどの他の主要な学問分野、データセキュリティ、eディスカバリ、システムアーキテクチャ、インフラストラクチャ、伝統的なレコード管理などを含む広範な情報ガバナンスに移行させることを担当していました。
プライバシー法規の最新動向と変更についてどのように最新情報を得ていますか?
これは小さなタスクではありません。ARMA、ABA、IAPPなどの貿易団体は、最新の情報を追跡するための優れたリソースです。ABAの消費者プライバシー及びデータ分析サブ委員会の議長として、私はこのトピックに強い興味を持つさまざまな法律専門家の才能と経験を活用することができます。私たちは頻繁に出版物や講演会で協力し、最新の動向について常に把握する必要があります。
デジタル時代におけるプライバシー保護とイノベーションを促進するバランスをどのようにアプローチしますか?
これは私が起業家としての経験が最も役立つ場所です。私たちは、厳格で、時には過酷な規制措置と、ライトを点灯し、利益を上げる現実とのバランスを取る必要があります。法的顧問として、私の仕事は、クライアントに彼らのオプションと、それぞれのオプションに関連する結果を指摘することです。クライアントにとって、プライバシーのコンプライアンスの問題は、市場での提供に基づいて、彼らの背後にあるターゲットがどの程度大きく、どのように大きくなるかによるリスクに基づくリスクベースの決定である場合があります。
Virgoの立ち上げ:プライバシーと法的コンプライアンスに対処するクラウドソフトウェア
クラウドベースのソフトウェアであるVirgoを立ち上げたきっかけは何であり、プライバシーと情報ガバナンスのニーズに対処する方法は何ですか?
Virgoは、組織の記録保持だけでなく、プライバシー規制、フォーマット、場所、処分、時効要件についてのグローバルな法的要件を通知します。これらの規制は、グローバルな法律事務所であるBaker&McKenzieのような大手法律事務所に対する、私たちの研究は、より優れており、クライアントに請求するかもしれない巨額な料金の一部であるが、現代のAIツールの先駆者である翻訳ツールを活用することで競争力を維持しました。
クラウドベースのソフトウェア「Virgo」を立ち上げた経験から、プライバシーやデータ保護に関する法的およびコンプライアンスの側面をどのように航行してきましたか?
プライバシーやデータ保護は、Boeing、Microsoft、NASAなどの大企業がソフトウェアに加入するにつれてますます重要になってきました。それぞれが厳格なデータセキュリティのコンプライアンス要件を持っており、最も厳格なセキュリティ基準を採用する必要があり、それにより、ソフトウェアを全般的に販売することが容易になりました。最初の数回は非常に苦痛でしたが、その後はずっと簡単になりました。最高水準の要件に適合している場合、ローカルまたは地域の要件を航行するのがはるかに簡単になります。
AIにおける法的景観:課題とトレンド
電子ディスカバリー、プライバシー、情報ガバナンスの専門家として、ChatGPTのようなAI技術の増加に伴う法的景観の進化をどのように見ますか?
法的景観は、ヨーロッパ連合による提案されたAI法によってすでに形成され始めています。AI法は、AIの使用を取り囲む規制フレームワークを提示しており、他の国々がAIの使用を取り囲むために次にどこに行くかを予見する良い出発点の規制フレームワークを提供しています。現実的には、AIプロバイダーは、可能性のある相反する規制命令に対処することに慣れる必要があり、これにより、プライバシーのコンプライアンスについて説明したリスクベースのアプローチにつながります。
ChatGPTなどのアプリケーションにAI技術を統合する際に生じる固有の法的課題や考慮事項について、いくつかの洞察を共有できますか?
まず、公開AIツールと非公開AIツールを区別しましょう。公開AIツール(ChatGPT、GoogleのBard、MicrosoftのBing、Dall-Eなど)は、サンプルデータが長年にわたって公共インターネットから採掘された未精査のデータから引き出される可能性があるため、データの完全性に最大の課題を提供します。結果の妥当性だけでなく、著作権、商標、その他の法的責任問題が発生する可能性もあります。公開AIツールは、世界中の誰でも保持され、閲覧できるデータを摂取するため、組織が直ちにポリシーとトレーニングを通じて機密保持の課題に対処する必要があります。
非公開AIツールの課題は、クリーンで正確なトレーニングデータセットの使用に主にあり、これにより、古い「ゴミ入り、ゴミ出し」のジレンマを回避することができます。
いずれの場合も、アルゴリズムによって中傷や差別を引き起こすバイアスを検証するために、人間によるツールのテストが必要です。
ChatGPTのようなAI技術を実装する際に、企業が注意すべきいくつかの主要な法的および規制フレームワークは何ですか?
現時点では、EU AI法以外にあまり規制フレームワークはありません。EU AI法はまだ承認過程を経ていますが、ニューヨーク市にも法律があります。米国の州レベルや連邦レベルでさらに多くの規制フレームワークが登場する予定です。
当面は、私はEU AI法に注意を払うことをお勧めします。先に述べたように、EU AI法は、AIの使用が高度に敏感であり、より厳密な監視対象となる可能性のある優先事項を設定するのに役立つ良い出発点の規制フレームワークを提供しているようです。
ChatGPTの統合の法的影響がより顕著な特定の業界セクターまたはユースケースがありますか?ある場合は、いくつかの例を提供できますか?
EU AI法を見るだけで、最も近い監査を受ける使用法をすぐに見分けることができます。例えば、市民の生命や健康を危険にさらす可能性がある重要なインフラ、教育や職業訓練に影響を与える可能性がある人のアクセス、ロボット支援手術、雇用の募集、信用スコア、犯罪証拠評価、移民、亡命、国境管理の決定、および一定の事実に対する法律の適用など、高リスクのAIシステムアプリケーションが含まれます。
AI法には、「限定的リスク」と「最小限のリスク」の例が挙げられています。人間の行動を悪用するような「許容できないリスク」のシステムは禁止されます。執行に関しては詳細が問題になることでしょうが、これは規制執行のための枠組みと指導の開始であることは先に述べたとおりです。
データガバナンスに関して、AI技術を活用してデータプライバシー法や規制に準拠するための最良の方法として、どのようなベストプラクティスを組織にお勧めしますか?
私が組織にお勧めしていることのチェックリストを以下に示します。
- AI使用に制御を加える国際法を追跡する
- データのエラーや保護対象のIPの使用、特に画像や映像音声の使用に注意する
- 生成AI契約に反バイアス言語の義務を含める
- 人間のファクトチェックなしでAIを使用しないようすべてのベンダーに契約上の義務を課す
- トレーニングデータ使用の正当性に関する確約と契約を取得する
- AIの出力が差別法を引き起こすバイアスを示さないよう、AIの使用者は注意する必要があります
- 前提を理解するためにExplainable AI(XAI)を使用する
- 特に雇用の決定、クレジット評価、医療資源、収容などにAIを使用する場合、使用に注意する
- 生成AIモデルはトレーニング段階とアウトプット開発の両方で監視する必要があります
内部使用に関しては以下をお勧めします。
- 組織内でのAIの現在の使用を評価する
- 組織内でのAIの最高の使用と最良の使用方法を決定する
- 外部/公共AIツールで機密データを使用しないよう、スタッフとベンダーにトレーニングを行う
- AIの使用に関するポリシーを策定し、既存のポリシーがAIと交差する場合は見直す
- AIの使用が関わるベンダー契約を見直す
- AIの使用が役立つ製品またはサービス、ビジネスモデルの変更を評価する
ChatGPTなどのAIモデルから生じる可能性のある偏りや差別を解決し、公平性を確保し法的問題を回避するには、企業はどのように対処すべきですか?
私がここで提供する最良のアドバイスは、組織や外部に公開される重要な機能に使用される場合、入力と出力のすべてに人間のレビューがあることを確認することです。特に、アルゴリズムが雇用、昇進、昇給、または解雇の決定に使用される場合は、特に注意が必要です。同様に、クレジットスコアリング、査定、または財政的に影響を与える可能性のあるその他の用途も、特別な注意を払う必要があります。
AIパワードツールの倫理的かつ法的な使用を確保する
ChatGPTなどのAIパワードツールを使用する際に、ユーザープライバシーとデータ保護法を尊重しながら、企業が倫理的かつ法的に使用していることをどのように確保できますか?
以前のように、メール、ソーシャルメディア、インスタントメッセージング、テキストメッセージングなどのホットなテクノロジーと同様に、組織は従業員の使用に関するポリシー、手順、トレーニングを通じてガードレールを設ける必要があります。 AIアプリケーションを開発する際には、入力レベルでのデータの衛生状態の確保と、出力レベルでの結果の審査のために、ポリシー、手順、ガイドラインも実施する必要があります。
ChatGPTをアプリケーションに統合する開発者やプロダクトマネージャーが、特にヘルスケアやファイナンスのような重要な分野で、従うべき特定の法的または倫理的なガイドラインはありますか?
質問11の回答がここでのスタートとなります。また、ChatGPTの使用は、公共ツールの使用例です。これは、それにフィードされるデータが公開されることを意味します。したがって、公共のAIツールをビジネスに組み込む場合、機密性や秘密保持の保護に注意する必要があります。
今後の展望
AIやチャットボット技術において期待される法的動向と、組織はこれらの複雑さをどのように航行すべきか?
この分野においては、規制の洪水が予想されるため、当分の間、提案された規制や発行されたガイドラインに常に注意を払ってください。これにより、ホットスポットが把握でき、何が規制されているかに基づいてビジネスモデルが標的になる可能性があるかどうかがわかります。同様に、連邦取引委員会などの連邦機関がこのトピックについて何を言っているか、または通知しているかに注意を払ってください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles