データのアルトリズム:企業エンジンのデジタル燃料

データのアルゴリズム:企業エンジンのデジタル燃料

AI時代のデータ処理での「やるべきこと」と「やらないべきこと」

Gilles LambertによるUnsplashの画像

利益の先にあるもの:デジタル時代における与えることと得ること

デジタル経済は知識と情報への平等で、迅速かつ無料のアクセスという素晴らしい約束の上に築かれてきました。しかしそれは遥かな過去の話です。約束された平等の代わりに、ネットワーク効果によってユーザーが最も人気のあるサービスの提供者に縛られる力の不均衡が増幅されました。それでも一見すると、ユーザーは何も支払っていないように見えるかもしれません。しかし、それは二度見する価値があるところです。なぜなら、彼らは支払っているからです。私たち全員がです。疑問のサービスにアクセスするために、私たちは自分のデータを(大量に)提供しているのです。その一方で、提供者たちはこの不均衡な方程式の背後で莫大な利益を上げています。そして、これは現在の、確立されたソーシャルメディアネットワークだけでなく、ますます増え続けるAIツールやサービスにも当てはまります。

この記事では、ユーザーと提供者の両方の視点を考慮しながら、この野生のスライドに一緒に乗ってみましょう。最も一般的なサービスプロバイダーができるだけ多くのデータを手に入れるためにダークパターンを利用している現実はただの一つの選択肢にすぎません。残念ながら、私たちが皆その中に生きているのです。他にどのような選択肢があるのかを見るために、いわゆる技術受容モデルを考えてみましょう。これにより、ユーザーが実際にゲームのルールを受け入れているのか、結果として何であれAIのハイプに乗りたいだけなのかを判断することができます。それがクリアになった後は、(寛大に提供された)データをどう扱うかについて考えます。最後に、より良い結果を求めるAI開発者に対して、実践的な手法とベストプラクティスの解決策を検討します。

技術受容モデルは決して新しい概念ではありません。むしろ、フレッド・D・デイビスが1989年に彼の「知用性認識、利用の容易さ、および情報技術のユーザー受容」という論文で紹介した以来、公的な議論の対象となってきました。[1] タイトルが示唆するように、この考え方の要点は、ユーザーが技術の有用性をどのように認識し、技術との相互作用におけるユーザーエクスペリエンスが、そのユーザーが実際に使用するためにどのくらいの可能性で同意するかを決定する2つの重要な要素であるということです。

多くのAI技術に関しては、それが当てはまることを考えるのにあまり時間を要しません。多くのAIシステムを「ツール」と呼ぶという事実自体が、それらを有用だと認識していることを示しています。少なくとも時間を潰すために使うにしてもです。さらに、市場の法則が事実上、最も使いやすく美しくデザインされたアプリだけが大規模なユーザー層に広まるということもあります。

現在では、デイビスの方程式に2つの要素を追加することができます。それはネットワーク効果と「AIのハイプ」です。つまり、まだChatGPTにスペルを修正してもらったり、丁寧なメールの下書きを作成してもらったことがないのなら、あなたは旧式の人間だとみなされるだけでなく、周りで起こる多くの会話に参加できず、見出しニュースの半分が理解できず、他の人はこれらのツールで自分自身を助けているように見える上に時間を無駄にしているようにも思われます。それによって、使いやすいグラフィックユーザーインターフェースでも美しくパッケージされた何かをあなたに提示することで、あなた自身が何であれ受け入れる動機づけはどうでしょうか。

Possessed PhotographによるUnsplashの画像

b. デフォルト設定 — 強制的な利他主義

すでに示唆されているように、私たちは多くのAIシステムの開発者に私たちのデータを提供することにかなりオープンなようです。私たちはインターネット上に私たちの足跡を残し、それについての概要や制御を持っておらず、商業的な行為者がそれらの足跡を収集し、それらを使って揚げたチキンを作ることを許容しなければならないようです。このメタファーは少々過激かもしれませんが、その意味はそれにも関わらず当てはまります。私たちは単純に、私たちのデータでいくつかのシステムが訓練されている可能性に耐えなければならないようです。なぜなら、私たち自身がすべてのデータがどこにあるのかさえ分からないのなら、プロバイダーがデータの出所を把握し、全てのデータ主体に通知することを期待することはできません。

ただし、現在私たちがデフォルトで利他的に扱っている一つのことは、特定のシステムとのやり取りで収集されたデータを、同じプロバイダーによるそのシステムの改善や新しいモデル開発に使用することです。ただ、現在私たちがこのデータを利他的に提供している理由は、先ほどの段落で説明したものとは異なります。ここでの利他主義は、私たちが置かれている法的状況の不明確さとその多くの隙間や曖昧さの乱用によって大いに引き起こされています(ユーザー自体は、多くの場合においてプライバシーよりもお金を重視しているという点はさておきです)。

[2]

たとえば、OpenAIが自分たちのモデルの訓練に使用されるデータセットに含まれる個人データを持つすべての人を積極的に見つけ出すのではなく、アクティブなユーザーに自分たちのチャットが現在のモデルの改善や新しいモデルの訓練に使用されると通知することは十分可能です。そして、ここでの免責事項

「前述のとおり、提供していただいたコンテンツを私たちのサービスの改善に使用する場合があります。たとえば、ChatGPTの動力となるモデルを訓練するために使用します。コンテンツを私たちのモデルの訓練に使用することを選択しない方法は、こちらをご覧ください」

では、いくつかの理由からこの免責事項は不十分です。[3]まず第一に、ユーザーは提供されたデータがプロバイダーのサービスの改善に使用されるかどうか、積極的に決定できる必要があります。それに加えて、’may’という言葉を使用することで、一般ユーザーに非常に誤った印象を与えることがあります。それは一時的か特殊な状況でのみ行われるものと暗示するかもしれませんが、実際には一般的な実践であり、取引の黄金のルールです。第三に、’ChatGPTの動力となるモデル’という表現は、彼らの実践に非常に詳しい人でさえも、曖昧で理解しづらいものです。彼らが使用しているモデルやそれらがどのように訓練されているかについて十分な情報が提供されていないばかりか、これらが’ChatGPTの動力となる’かも説明されていません。

最後に、彼らのポリシーを読んでいると、彼らがこれらの未知のモデルを訓練するためにコンテンツ(大文字のC)だけを使用しているという信念が残ります。つまり、彼らは

「[ユーザー]が[OpenAIの]サービスに提供する入力、ファイルのアップロード、またはフィードバックに含まれる個人情報」を使用しています。

ただし、これは明らかに正しくありません。2023年3月のスキャンダルを考慮すると、一部のユーザーの支払い詳細が他のユーザーと共有されたことがあります。[4]そして、もしこれらの支払い詳細がモデルに組み込まれているのであれば、関連する名前やメールアドレス、その他のアカウント情報も除外されていないと安全に推測できます。

もちろん、このような状況では、データ利他主義という用語は非常に皮肉で風刺を交えた意味でしか使用できません。ただし、OpenAIのようにどのデータを使用しているかを明確に嘘をついていないプロバイダーであっても、それを使用する目的について故意に曖昧にするプロバイダーであっても、再び問題に直面することになります。OpenAIの場合と同様、プライバシーポリシーの過度の簡略化または読んでみたくもなく理解できないポリシーなど、処理操作の複雑さが原因です。どちらの場合も、同じ結果に終わり、ユーザーはサービスにアクセスできるようにするために必要な条件に同意することになります。

さて、このような観察に対する非常に一般的な応答の一つは、私たちが提供するほとんどのデータは私たちにとってそれほど重要ではないので、なぜ他の人にとって重要である必要があるのか、というものです。さらに、世界を牛耳る大企業に私たちがそんなに興味深い存在である権利はあるのでしょうか?ただし、このデータが世界中の何百万人から収集された小さな無関係なデータポイントに特化したビジネスモデルの構築に使用される場合、その問いは完全に異なった観点から考える必要があります。

c. ビジネスモデルとしてのデータの窃盗?

これら何百万もの重要でない同意書が毎日放り出されるビジネスモデルを検証するためには、ユーザーがデータを提供する際の利他的な行動を見てみる必要があります。もちろん、ユーザーがサービスにアクセスし、データを提供するプロセスで、そのデータと引き換えにそのサービスを受けることもあります。しかし、それだけではありません。彼らは広告を得るだけでなく、もしかしたら2級のサービスを得ることもあります。なぜなら、一級のサービスは定期購読ユーザー向けに予約されているからです。特に(少なくともOpenAIの場合)コンテンツ(大文字のC)を提供するだけでなく、アカウント情報も提供しています。

それにもかかわらず、ユーザーはツールやサービスを利用するために自分のデータが何にでも使われることに同意しているにもかかわらず、彼らが提供するデータは複数回にわたって金銭化され、パーソナライズされた広告を提供したり新しいモデルを開発したりするために使用されることを意味します。これは再びアクセスのフリーミアムモデルに従うかもしれません。銀行口座の数字が私たちの人生の選択や個人の嗜好よりもずっと価値があるのはなぜかというようなより哲学的な問題を置いておいても、ユーザーがそれほど多くのものを手に入れるためにそれほど多くのものを提供しているとは到底考えにくいです。特に、私たちが議論しているデータは、少なくとも競争力を維持したい場合にはサービスプロバイダーにとって不可欠です。

ただし、必ずしもこれが必ずしもそうであるわけではありません。新しい特定のAI規制が私たちに何をすべきか、どのように行動するか教えてくれるまで待つ必要はありません。少なくとも個人データに関しては、GDPRはそれがどのように使用され、どのような目的で使用されるかについてかなり明確に定めています。文脈に関係なく。

法律はそれについて何と言っていますか?

新しい技術の光に照らし合わせて規制が再解釈される可能性がある著作権問題とは異なり、データ保護には同じことは言えません。データ保護は主にデジタル時代とオンラインサービスプロバイダーの実践を統制しようとする中で発展してきました。したがって、既存の規制を適用し、既存の基準に従うことは避けられません。これをどのように実現するかは別の問題です。

ここで、いくつかの点が考慮されるべきです:

1. 同意は義務であり、選択ではありません。

ユーザーに(実際にツールを使用し始める前に)彼らの個人データとモデルの入力が新しいモデルを開発し、既存のモデルを改善するために使用されるという事実を通知しないことは、重大な警告信号です。まさに大事に扱わなければならない問題です。同意のポップアップは、クッキーの同意を集めるためのものと同様に、必須であり、簡単にプログラムできるものです。

一方、「支払うかトラッキングするか」(またはAIモデルの場合、「支払うか収集するか」)のアイデアは激しく議論されており、法的に実施するのはほとんど不可能です。主に、ユーザーは依然としてトラッキングの受け入れまたは拒否の自由な選択を持たなければならないため、価格が比例的に低く(つまり、サービスがかなり安価である必要があります)自由な選択だと主張することさえも正当化する必要があります。また、定期購読ユーザーのデータを収集しないという約束を守る必要もあります。Metaは最近このモデルに切り替え、データ保護当局は既に最初の苦情を受け取っているため、EUの司法裁判所がこの問題についてどのような判断を下すのか興味深いです。[5]しかし、当分の間は合法的な同意に依存することが最も安全な方法です。

2. プライバシーポリシーを更新する

データ主体に提供する情報は、AIシステムのライフサイクル全体で行われるデータ処理を含めて更新する必要があります。開発からテスト、そして展開まで。そのためには、すべての複雑な処理操作を平易な英語に翻訳する必要があります。これは簡単な作業ではありませんが、避けられません。同意のポップアップはこれを行う適切な場所ではありませんが、プライバシーポリシーは適切な場所かもしれません。このプライバシーポリシーが同意のポップアップと直接リンクされている限り、問題ありません。

3. クリエイティブになる

複雑な処理操作を翻訳することはそれ自体が複雑な作業ですが、GDPRの透明性の基準を達成するためには絶対に不可欠です。グラフィック、画像、クイズ、ビデオなどを使用するかどうかは、一般ユーザーに対して何が起こっているのかを説明する方法を見つける必要があります。それ以外の場合、彼らの同意は知識を持っているとは見なされず、違法とされることはありません。つまり、これであなたの緑の考える帽子をかぶり、袖をまくり上げ、描画ボードに向かう時間です。 [6]

Image by Amélie Mourichon on Unsplash

[1] Fred D. Davis, Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology, MIS Quarterly, Vol. 13, №3 (1989), pp. 319–340 https://www.jstor.org/stable/249008?typeAccessWorkflow=login

[2] Christophe Carugati, The ‘pay-or-consent’ challenge for platform regulators, 06 November 2023, https://www.bruegel.org/analysis/pay-or-consent-challenge-platform-regulators.

[3] OpenAI, プライバシーポリシー, https://openai.com/policies/privacy-policy

[4] OpenAI, 2023年3月20日ChapGPTの障害: 何が起こったか, https://openai.com/blog/march-20-chatgpt-outage

[5] nyob, “Pay or Okay”に対するMetaへのGDPR告訴, https://noyb.eu/en/noyb-files-gdpr-complaint-against-meta-over-pay-or-okay

[6] untools, シックスシンキングハット, https://untools.co/six-thinking

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more