「マーク・A・レムリー教授による生成AIと法律について」

Generating AI and Law by Professor Mark A. Remley

新しい分野がデータサイエンス内で新たに出現し、その研究が理解しにくい場合、時にはその分野の専門家やパイオニアと話すのが最善です。最近、私たちはスタンフォード法科大学院のウィリアム・H・ネウコム法科教授であり、スタンフォード・プログラム・イン・ロー・サイエンス・アンド・テクノロジーのディレクターであるマーク・A・レムリー氏と話しました。このインタビューでは、ジェネレーティブAIに関する法的な懸念について話し合いました。これには、ガバナンス、著作権、データプライバシー、法的問題に関連する課題が含まれます。以下に、マーク・A・レムリー氏への2つの興味深い質問の全文のトランスクリプトがあります。

Q: ジェネレーティブAIから生じるいくつかの新しい法的問題は何ですか?

マーク・A・レムリー氏: 法的な問題は3つの大きなカテゴリに分類されます。1つ目は、著作権作品を使用してAIをトレーニングすることが合法かどうかです。2つ目は、それらの作品の出力についてどうするかです。3つ目は、出力を所有する可能性がある者は誰かです。トレーニングの問題では、現在最も多くの訴訟が発生しています。ジェネレーティブAIは新しいものですが、問題は新しくありません。以前のテクノロジー企業が、何かを生成するために著作権作品全体を取得するケースがいくつかあります。たとえば、検索エンジンが機能する仕組みです。検索エンジンが一時的なデータベースを作成して検索リンクを生成することが違法かどうかに関するいくつかの訴訟があります。裁判所は違法ではないと判断しています。

Googleの書籍検索はさらに興味深い例です。Googleはインターネットからコンテンツを取得するだけでなく、実際にはスタンフォード大学図書館のすべての書籍を作成しスキャンしました。そして、裁判所はそれが合理的利用であると判断しました。なぜなら、両方の場合において、全体をコピーしているのではなく、一時的な中間コピーをデータベース内で作成し、そのコピーを世界と共有せず、そのコピーを利用して変形的かつ生産的な何かを行っているからです。それは一時的な中間コピーを使用しないとできないことです。

Q: メモリゼーションの問題とその問題について教えてください。

メモリゼーションの問題は、AIによって生成されたコンテンツが既存の著作権作品に似ている場合のことを指します。

マーク・A・レムリー氏: 最近、私たちは著作権作品をトレーニングすることについて話しており、それが現在訴訟中ですが、私は答えは「はい」だと思います。裁判所はそれが合理的利用であると判断するでしょう。それは検索エンジンのトレーニングや作業をトレーニングするのに似ています。もっとも困難な問題は、AIの出力が特定の著作権作品に非常に似ている場合です。

私はスタンフォードのコンピュータサイエンスのグループであるパーシー・ラングのグループと一緒にこの問題について取り組んできました。そして、私たちが指摘したことの1つは、それが実際にはあまり頻繁に起こらないということです。それが起こるとき、通常は次の3つの要素のいずれかが原因です。1つは重複排除の問題です。AIが特定の作品を実際に記憶していることはほとんどありません。AIは数百もの最も近い作品を見ており、それらが同じ写真の同一のコピーである場合、非常に似た合成物を生成するかもしれませんが、実際にはさまざまな学習例から引用しています。重複排除を完全に排除することは、思ったよりも技術的にはるかに困難です。

2番目の方法は、非常に具体的なプロンプトを使用することで、例えばChatGPTに対して非常に似た作品を作成するように指示することができます。私たちの論文では、ChatGPTに対して魔法使いの子供たちが魔法学校に行く児童向けのストーリーを作成するように頼んでいます。それはハリー・ポッターやハリー・ポッターに似たものではありませんが、最初の段落から始まる物語を与えると、それはほとんど変更せずに次の数章を忠実に生成します。

そして、3番目のカテゴリは、AIが概念を生成し、私は物事を抽象化して、これがコーヒーカップのようなもの、これが猫のようなものであると理解します。したがって、猫がコーヒーを飲んでいる姿を生成するように頼むと、AIはその概念を持っており、猫がコンセプトとして生成できます。しかし、AIにとっては概念であるものも著作権作品でもあるものもあります。ベビーヨーダやスヌーピーを考えてみてください。Stable Diffusionイメージからはかなり良いベビーヨーダが得られますが、それは特定の画像を記憶しているわけではなく、ベビーヨーダの写真を十分に見ているため、AI自体がベビーヨーダを概念として理解しているからです。

大規模言語モデル、生成型AI、およびAI倫理についてさらに学ぶ方法

まだ大規模言語モデルや生成型に取り組んでいない場合、または既存の専門知識をさらに深めたい場合は、ODSC Westがおすすめです。10月30日から11月2日まで、NLP、大規模言語モデルなどに関連する数十のセッションをチェックすることができます。以下にはいくつかのセッションが確定していますが、他にもたくさんのセッションが予定されています:

  • 特徴ストアを使用したLLMのパーソナライズ
  • 大規模言語モデルの評価技術
  • 大規模モデルのレイアウトを理解する
  • オープンソース大規模モデルの共同システム最適化によるファインチューニングの民主化
  • LlamaIndexを使用してデータ上で動作するLLMパワードナレッジワーカーを構築する
  • data2vecを使用した一般的で効率的な自己教師あり学習
  • 説明可能で言語非依存のLLMに向けて
  • SlackメッセージでのLLMのファインチューニング
  • フィードバックからの強化学習を使用したオープンソースLLMの整列
  • 生成型AI、自律型AIエージェント、およびAGI – AIの新たな進歩が私たちが作る製品を改善する方法
  • 実践におけるGen AIの導入
  • デモやプロトタイプを超えて:オープンソースLLMを使用して本番用アプリケーションを構築する方法
  • 言語モデルの採用にはリスク管理が必要です-こうすれば大丈夫です
  • セキュリティドメインでのLLMとGPTモデルの範囲
  • GPT-4とLangchainを使用したプロンプト最適化
  • 生成型AIアプリケーションの構築:LLMの事例研究
  • グラフ:GenAIの説明可能性の次のフロンティア
  • LangChainを使用したビジネスプロセスの自動化
  • 安定した拡散:テキストからイメージへの新たなフロンティア
  • 大規模言語モデルの接続-よくある落とし穴と課題
  • 生成型AIにおける帰属権と道徳的権利
  • LLMの背景とPaLM 2の紹介:より小型で高速かつ高機能なLLM
  • 特徴エンジニアリングのアイデア生成を自動化するための言語モデルの統合
  • 細部に潜む難点:NLPタスクの定義が成功した実装を妨げるか促進するか

チケットの取得をお急ぎください!50%オフは間もなく終了します!こちらから登録してください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...

人工知能

「aiOlaのCEO兼共同創設者、アミール・ハラマティによるインタビューシリーズ」

アミール・ハラマティは、aiOlaのCEO兼共同創業者であり、スピーチを作業可能にし、どこでも完全な正確さで業界固有のプロセ...

データサイエンス

2023年にAmazonのデータサイエンティストになる方法は?

ほとんどのビジネスは現在、膨大な量のデータを生成し、編集し、管理しています。しかし、ほとんどのビジネスは、収集したデ...

人工知能

「コマンドバーの創設者兼CEO、ジェームズ・エバンスによるインタビューシリーズ」

ジェームズ・エバンズは、CommandBarの創設者兼CEOであり、製品、マーケティング、顧客チームを支援するために設計されたAIパ...

人工知能

ピーター・マッキー、Sonarの開発者担当責任者-インタビューシリーズ

ピーター・マッキーはSonarのDeveloper Relationsの責任者です Sonarは、悪いコードの1兆ドルの課題を解決するプラットフォー...

人工知能

「クリス・サレンス氏、CentralReachのCEO - インタビューシリーズ」

クリス・サレンズはCentralReachの最高経営責任者であり、同社を率いて、自閉症や関連する障害を持つ人々のために優れたクラ...