「機械学習の公衆の認識に関する問題」

Machine learning and public recognition problems

なぜ機械学習のリテラシーが一般の人々にとってデータサイエンスの優先事項であり、それに対して私たちができることは何か。

Andrew Seaman氏による写真(Unsplash)

最近、ポッドキャストで知識豊富で思慮深い一般の人々(彼らの名前は礼儀正しく共有しません)が、AIが医療分野でどのように活用されるかについて話しているのを聞きました。私はすでに違和感を感じていました。なぜなら、「AI」という用語を使っていたからです。この用語はしばしば何もかもを意味することがあります。しかし、それでも聞き続け、彼らは症状に基づいて診断を提案したり、患者のバイタルサインと状態に基づいて薬の投与量を調整するなど、医療の実践に機械学習を組み込むアイデアについて話しました。これらのツールは有望で実用的に思えました。

しかし、次の瞬間、私は少し驚きました。なぜなら、あるスピーカー(医師)が(私が言い換えると)「AIの数学は悪くなっているようだ」と言ったからです。これは私にとってポッドキャストが終わるまでだけでなく、週末を通じて頭から離れませんでした。

教養のある賢明な一般の人々が機械学習の内容について混乱し、誤解しているとき、私たちは問題を抱えています(私は「AI」という用語を使用するのを避けます。なぜなら、私はそれが意味を明確にするどころか混乱させると本当に信じているからです。この文脈では、これらの人々は機械学習とそれを使用している製品について議論していましたが、それに気付いていなくてもです)。

医師の場合、彼はおそらく「数学が悪くなったようだ」というコメントをした際、Large Language Models(LLM)を指していたのでしょう。彼は、促された応答として単語を洗練された方法で配置するように訓練されたモデルが数学的な計算もできるべきだと信じていたようです。実際にはそうではなく(訓練されていないのですから!)、彼は機械学習全般に対するイメージが損なわれたのです。

この誤解に反して、データサイエンティストは、LLMがより広範な機械学習の一部を表していることを理解しています。他の多くのアルゴリズムやモデルは、それが特定の目的であるため、数学的な計算で優れています。(友人が言ったように、「機械学習モデルはただの数学です!」)ただし、問題はこの段落の最初です。データサイエンティストはこれを知っていますが、一般の人々はほとんど知りません。

…データサイエンティストは、LLMがより広範な機械学習の一部を表していることを理解しています。

私は言語モデルと他の形式の機械学習の違いについて語るために一つの記事を書くことができますが、今日は本当に興味があるのはそれではありません。代わりに、一般の人々が機械学習の基本を理解していないことがなぜ問題であり、それがどのような影響を持つかについて話したいと思います。

なぜ一般の人々が機械学習について何かを知っているか気にする必要があるのでしょうか。

社会学者出身のデータサイエンティストとして、私は人々がデータサイエンスや機械学習とどのように関わるかについて非常に関心があります。私はこれについて個人的な哲学を持っています。もし機械学習が他の人々や私たちの周りの世界に何らかの利益をもたらさないのであれば、それは本当に重要ではありません。私は人間の活動の目的は他者の生活を向上させることでなければならないと考えており、それは機械学習にも当てはまります。

しかし、たとえあなたがその哲学に同意しなくても、一般の人々が機械学習の基本を理解しているかどうかに関心を持つべきだと主張します。人々がこの理解を欠いていると、価値のある信頼性の高いツールの採用が停滞する可能性があります。

私の主張は次のようなものです:

  1. 人々は本能的に機械学習を理解し、それと対話する準備ができていません。
  2. これらのツールを理解していない人々は、それを避けたり、信用しなかったりする可能性があります。
  3. さらに悪いことに、誤った情報によりこれらのツールを誤用する可能性があり、悪影響を引き起こすことがあります。
  4. 誤用の負の結果を経験した後、人々は将来の機械学習ツールの採用に消極的になる可能性があり、それは彼らの生活やコミュニティを向上させる可能性のあるものです。

機械学習は、それを使用する人々がその機能を最大限に活用できる範囲でのみ機能します。私は自分自身の生活で始めに述べたエピソードのような例を頻繁に目にし、耳にします。人々は機械学習について非常に誤った先入観を持った状態で始め、その誤った基盤の上に精神的な枠組みを構築します。これにより、彼らの機械学習に関する認識全体が正しくないものとなります。

データサイエンスの分野において、私たちの高度な機械学習を構築するための努力は、私たちが手に入れることができるGPUの数ではなく、私たちが構築したものを説明し、一般の人々にその意味と使い方を教育する能力によって制約されています。

…私たちが構築する高度な機械学習のための私たちの努力は、私たちが手に入れることができるGPUの数ではなく、私たちが構築したものを説明する能力によって制約されています。

人々は機械学習を本質的に理解する準備ができていません

最近、「なぜジョニーは促すことができないのか」という記事を読みました(Zamfirescu-Pereira、Wong、Hartmann、Yang、2023年4月)。これは、非データサイエンティストが特に生成AIについてどのように考え、扱うか、そして機械学習全般についても考えさせられるものでした。

この記事については別途詳しく書くかもしれませんが、この議論において重要な点は次のとおりです:人々は他の人々との相互作用のための確立されたフレームワークを、機械学習システムとの相互作用に適用し、結果として劣った結果とユーザーの不満を招いています。

人々は他の人々との相互作用のための確立されたフレームワークを、機械学習システムとの相互作用に適用し、結果として劣った結果とユーザーの不満を招いています。

今、これは修復不可能だとは思いません。実際に、人間は常に新しいツールの使い方を学ぶ必要があり、私たちは確かにそこに到達できると思います。コンピュータやスマートフォンの使い方がすぐに明らかになったわけではありませんでした。最初は何をすべきか、どのようにデバイスと「理解し合う」かが明確ではありませんでした。

これは、時間とデバイスの設計の改善(私たちがいる場所に合わせてテクノロジーが追いついてくるなど)と教育の組み合わせによってほとんど解決されました。例えば、私が若かった頃、年配の方やテクノロジーに疎い方々は地元のコミュニティカレッジで無料または低コストのコンピュータクラスに参加できました。目的はプログラミングを学ぶことではなく、コンピュータを効果的に使うことでした。なぜなら、それらは非常に便利なツールだったからです。

私はこのプロセスが機械学習にも適用できると考えていますが、いくつかの違いがあります。まず、多くの機械学習は私たちから抽象化されており、または対話型の人間らしいインターフェースでラップされています(例えば、LLMチャットボットの場合)。機械学習モデルの多くの結果は、私たちが気づかないうちに私たちの生活に入り込んできます。検索結果のパーソナライズや、欲しいものや必要なものに基づいたアプリのアラートなどです。生成AIの場合、機械学習の多くは対話型のチャットボットの表面の下にあり、私たちはそれを他の人との会話のように相互作用することに自然に傾向があります。しかし、これは誤りです。上記で述べた記事の著者が説明しているように、現時点では、LLMから最良の結果を得るためには、単に「人と話すように」するだけではありません。

理解しないものを使わない人もいます

この現実は、私たちが意識しておかなければならないいくつかの条件を作り出します。まず、多くの人々は機械学習が完全に有益で簡単だという主張を受け入れません。多くの人々は、生成AIの新しい時代を見て驚きではなく警戒心を抱いています。これは多くの人にとって合理的な反応です。なぜなら、私たちが「あまりにも頭の良い」コンピュータは危険であり、注意を払うべきだと教えられてきた文化的な参照や経験がたくさんあるからです。

人々はパーソナルコンピュータについても同じように感じました。一部の人々は、それらが持つ能力やパワーについて心配していたり、自分自身が理解し、使う能力に不安を感じていました。コミュニティカレッジのコンピュータクラスは、迷いがちな人々をコンピュータのアイデアとの快適な関係に導きました。残念ながら、私は現在のデータサイエンスの分野が一般の不確かなメンバーに同じような配慮をしているとは思いません。

新しい技術を取り入れることは常に挑戦的です。それは、人々が無知でない、好奇心がないからではなく、潜在的なリスクに対する真剣な懸念があるためです。これらの懸念を認識し、負の結果を防ぐための取り組みを示すことで、機械学習の信頼性を向上させることができます。

他の人々は理解しないものを誤用・悪用するでしょう

一方、特にLLMsとの相互作用に飛び込んだ多くの人々がいます。人々は、さまざまな産業やエンターテイメントを含むさまざまな目的でそれを使用しています。そのハイプとメディアの報道は、LLM技術とその可能性に対する認識を高め、コンピュータを所有しているほぼすべての企業がAIをビジネス戦略の一部にしようとしています。

しかし、この興奮にはネガティブな面もあります。人々がLLMsなどの機械学習を使用し始めると、過度に期待された点や問題点に気付くようになります。たとえば、チャットボットが質問を理解できない、またはモデルの予測が常に完璧でないなどですが、エンドユーザーは機械が間違いを comit しないことを期待しています。なぜそれを期待しているのでしょうか?機械学習について知っていることは、大衆文化やハイプから得たものだからです。私たちデータサイエンティストは、どの期待が合理的で、どの期待がまだSFの素材であるかを説明するための時間を取らなかったのです。

使い方を誤った後、人々は将来の新しいツールの使用を恐れるようになります

では、機械学習ソリューションに関して過大な約束をし、期待を裏切るとどうなるでしょうか?非常に多くの場合、新しい技術の偉大な提唱者になり得る失望した人々が現れます。彼らは次のバージョンを試したり、将来的に機械学習を使用することをためらうようになります。

例えば、弁護士がChatGPTを使用してブリーフの引用を得た場合を考えてみてください。この話が出たとき、データサイエンスコミュニティはその弁護士を酷評しました。「誰がそんなことをするの? ChatGPTのようなものは、そのような正確さに頼ることはできないと知らなかったのですか?」

私は実際にこの弁護士のことをかなり気の毒に思いますが、これらの結果はかなりの手抜きの結果でした。ChatGPTの約束は、多くの人々にとってほとんど魔法のように思えます。ほぼ奇跡的なことができるというメディアの表現がこの考えを育ててきたのです。ChatGPTが「嘘をつく」ということについて初めて知った人がたくさんいました。

これらの誤解は、LLMsを擬人化し、人間のような推論や真実を識別する能力があると仮定することから生じます。実際には、ChatGPTは、与えられたプロンプトに反応して単語を整理する非常に洗練されたモデルです。非常に理解しやすい言語を生成するように訓練されています。しかし、ChatGPTには「真実」や「嘘」の概念はありません。何かが正確かどうかを表すための内部埋め込みもありません。ですので、ニュースがChatGPTが嘘をつく、または「幻覚を見る」と報じているのは、少し誤解を招くものです。

しかし、重要な点は、このニュースを見た人々、関与した弁護士は、少なくともChatGPTから得られるものに頼ることができるのかどうかについて不安に思っている可能性があるということです。このシナリオ全体は、彼らにLLMsの考えを理解させるのに役立ちませんでしたし、機械学習を適用するという広範な目標にも役立ちませんでした。彼らの教育不足によって誰かが被害を受け、他の人々がそれについて笑いました。結果として、将来、少なくとも一部の形式の機械学習を避けるであろう多くの懐疑的な人々を生み出しました。

これらすべてが同じ場所と同じ問題につながっています。技術について適切な公共教育がない場合、我々は公共教育の課題を信頼性のない偏向した情報源に任せています。今日、ワクチンの普及を増やそうとする公衆衛生専門家に尋ねてみてください。機械学習も同じような悲惨な道をたどる可能性があります。

この問題を解決するためにはどうすればいいのでしょうか?

私たちデータサイエンスの実践者として、私たちの技術的な専門知識と一般の人々の認識との間のギャップをどのように埋めることができるでしょうか?元教育者として、私はこれに非常に関心があります。機械学習が私たちに何ができるか、一般の人々が本当に理解しているかどうかは重要です。なぜなら、私たちはそれを活用して多くの良いことをするチャンスがあるからです。

私が考えることの一つは、公衆教育への私たちの時間とエネルギーをもっと投資することです。もちろん、街のすべての人がバックプロパゲーションやエンコーダのアーキテクチャについてのチュートリアルを必要とするとは言いません。(それは、人々が効果的なコンピュータユーザーになるためにはマイクロチップを勉強する必要があると言うのと同じです。)しかし、現在可能なことに関して、人々が技術の情報を理解し、技術の倫理、リスク、制約を理解するためには、いくつかの基本的な要素を理解する必要があると思います。データサイエンスとして、成功して効果的な機械学習のユーザーになるために必要な情報と、それをどのように共有できるかについて、私たちにはある程度の認識が必要です。

もしLLM(Language Models)が一般の人々の手の届くところになるという劇的な変化がなければ、私たちはこれについて待つことができるかもしれません。基本的な予測モデルの結果は通常、データサイエンスの専門家によって仲介されます。つまり、モデルの入力は注意深く設計され、結果は考えられた方法で提示されます。しかしながら、LLMチャットボットの場合、これは当てはまりません。人々は何でも入力することができ、誰もが何が返ってくるかをコントロールしていません。ユーザーはこの情報を責任を持って生成・消費するために、より多くの知識が必要です。

第二に、私はデータサイエンスという分野が、機械学習が本当にできることや可能性について、過度なハイプや誇張表現に対してより声を上げ、主張する必要があると考えています。私はこれらの多くを、クリックベイトタイプのメディアや、より理論的に信頼性のあるジャーナリズムで見つけます。誤解のないように言いますが、機械学習はまさに驚くべきものであり、信じられないことを成し遂げることができます!しかし、それは完全ではなく、何も言わずにそれが完璧だと思わせることは許されません。

この問題を無視することで、機械学習の進歩が後退するリスクがあります。それは必ずしも技術的な進歩ではなく、(議会が機械学習を理解しないことでそのような影響があるかもしれませんが)実際の生活における機械学習の応用の進歩です。この技術の信じられないほどの潜在能力が、私たちが一般の人々を準備するのを手助けしなかったために軽視されたり、最小限化されたりするのを見たくありません。

私の他の仕事はwww.stephaniekirmer.comでご覧いただけます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「ビルドしてプレイ!LLM搭載のあなた自身のV&Lモデル!」

大型言語モデル(LLM)はますますその価値を示しています画像をLLMに組み込むことで、ビジョン言語モデルとしてさらに有用に...

AIニュース

‘未知に挑む検索 強化生成 (RAG) | AIが人間の知識と出会う場所’

導入 私たちの高速なデジタル世界では、人工知能はその驚くべき能力で私たちを驚かせ続けています。その最新のブレイクスルー...

機械学習

このAIニュースレターは、あなたが必要とするすべてです#71

今週、ジョー・バイデン大統領は人工知能の規制を再び注目させるために、人工知能の監督を目的とする行政命令に署名しました...

AI研究

『広範な展望:NVIDIAの基調講演がAIの更なる進歩の道を指し示す』

ハードウェア性能の劇的な向上により、生成型AIが生まれ、将来の高速化のアイデアの豊富なパイプラインが構築され、機械学習...

AI研究

取りましょう NVIDIA NeMo SteerLMは、推論中にモデルの応答をカスタマイズすることができるようにします

開発者は、強力な大規模な言語モデル(LLMs)を自分たちの目的地に到達する際に、AIパワードステアリングホイールを利用して...

AIニュース

「明日のニュースを、今日に!」ニュースGPTが新しいAI技術の「ニュース予報」を紹介

NewsGPT.aiは再び革新の限界を押し広げました。世界初の24時間365日のAI生成ニュースチャンネルの成功的な立ち上げに続いて、...