「なぜ機械は思考できるのか」というテーマに関して
「美とファッションの世界における技術の進化について」
どのようにして思考について最も簡単な方法で考えることができるでしょうか?
17世紀に、レネ・デカルトは比較的新しい考え方を提案しました – “cogito ergo sum”(私は考える、ゆえに私は存在する)という原則です。このシンプルな定式化は西洋哲学の基礎となり、何世紀にもわたって人間の本質を構成するものとして私たちの考え方を定義してきました。
その後、私たちは人間であることの意味についての理解を進めてきました。しかし、一部では依然として思考能力は人間の重要な特徴の一つと考えられています。
そのため、ChatGPT(および同様のモデル)がリリースされた瞬間から、「それが考えることができるか」という記事で私たちは呼びかけられることになるのは驚くことではありません。
たとえば、ニューヨーカーは「ChatGPTにはどのような心があるのか?」と問いかけました。ワシントン・ポストは「ChatGPTは論理的なテストで優秀です。でも創造力を求めないでください。」と宣言しました。そして、アトランティックは「ChatGPTはあなたが思っているよりもバカです」と結論づけました。私の個人的なお気に入りは、このコメディアンの動画で、HR部門で働いている人にChatGPTについて説明しようとするものです。
- 「Q4 Inc.が、Q&Aチャットボットの構築において、数値と構造化データセットの課題に対処するために、Amazon Bedrock、RAG、およびSQLDatabaseChainを使用した方法」
- 2024年の予測17:RAG to RichesからBeatlemaniaとNational Treasuresへ
- 「松ぼっくりベクトルデータベースとAmazon SageMaker JumpStartのLlama-2を使用したリトリーバル増強生成によって幻覚を軽減する」
他の複雑なトピックと同様に、人々はAIモデルの思考能力を過大評価したり過小評価したりしています。それでは、これを解説しましょう。
考えるとは帰納的に考えること
思考は、さまざまなことを表す複雑な概念となりました。したがって、単純化のために、思考はほぼ推論と同義であると想定しましょう。
推論は、偶然にも「AIの未来」としてますます議論されているより明確に定義された概念です。これはまた、デカルトが(主に)思考について話していたものです。
だから、「AIは考えることができるか?」という質問の代わりに、「AIは推論できるか?」と尋ねましょう。
短い答えははいです。長い答えは – AIは推論することができますが、一部の方法でのみです。
推論は一つの概念ではありません。推論方法は、達成しようとしているタスクの種類によって異なります。したがって、この記事では、まず3つの主要な推論タイプについての簡単な入門を行い、機械の推論能力を評価します。その後、機械が常識的な推論を行うことができない理由と、それができるようになる前に私たちが答えなければならない問いについて探求します。
推論の入門
一般的に、「思考」を行う際に使用する推論の主なタイプは、演繹、帰納、および仮説です。
演繹
単純に言えば、演繹とは、与えられた法則と真と仮定される事例から結論を導く能力です。
こんな感じですが、パンに水を入れ、ストーブをつけ、温度計を入れます。学校で学んだことに基づいて、水は通常100℃で沸騰することを知っています。したがって、温度が100℃に達したと誰かが言った場合、あなたは安全に水が沸騰していると推測できます(自分の目で確認しなくても「かなり確か」になります)。
ここには覚えておくと役立つ構造があります。
ルール:水は100℃に達すると沸騰します
ケース:水の温度は100℃です
結果:鍋の中の水が沸騰しています
つまり、ルールとケースから結果を推論するのです。
推論は科学を行うための基本的な能力です。また、機械によって最も容易に再現できる推論のタイプです。
設計上、ほとんどの機械はある形式の推論を実行します。例えば、地味でシンプルな電卓は、3+5の答えを尋ねるたびに推論を行っています。そして、それには人工知能はゼロです。
上記の水の例と同じ構造に置いてみましょう。
ルール:電卓には1+1=2というルールが「提供」されています
ケース:あなたは3+5=?という質問をしました
結果:ルールに基づいて、3+5=8と計算/推論することができます
簡単ですね。
帰納
帰納は、与えられた一連の観察結果からルールを一般化する能力です。私たちが科学を行うためには非常に重要であり、新しいパターンやルールを数量化することができます。
水が沸騰する温度が100℃であることを誰も教えてくれたことがないと仮定してみましょう。したがって、お湯を沸かすたびに温度計を入れて温度を測定します-100回、1000回、10000回。それから友達も同じことをします-何回やっても温度は常に100℃です。したがって、あなたはルール「水は100℃で沸騰する」を契機することができます。
1. 結果:水が沸騰している
2. ケース:温度計を入れると常に100℃になる
3. ルール:水は100℃で沸騰する
そして、あなたは観察したパターンに基づいて定量的に新しいルールを特定しました。もちろん、このタイプの推論が常に正しいわけではありません。有名な例として、ヨーロッパ人は全ての白鳥は白いと思っていましたが、オーストラリアに航海に出た際にそれが否定されました。また、水が常に100℃で沸騰するわけではないことも知っています(大気圧も影響します)。
何かが10000回正しいとは限りませんが、通常は安全な賭けです。
帰納は機械にとっては遥かに難しいものです。もちろん、電卓ではそれを実行することはできません。ただし、機械学習モデルは可能です。実際、それが主な目的です。与えられた結果から一般化することです。
簡単な例を挙げてみましょう。スパム検出に使用する教師付き分類モデルがあるとします。まず、ラベル付きのトレーニングデータセット-スパムまたは非スパム(結果)があります。そのデータセット内で、各結果に対して複数のケースを編纂しました。このケースに基づいて、モデルは独自のルールを導出し、それを以後見たことのないケースに適用できます。
1. 結果: スパムまたは非スパム
2. ケース: スパムと非スパムの例の大規模サンプル
3. ルール: 「これらのパターンと言葉」を含むメールはスパムの可能性が高い(ある程度の確率内で)
同様に、レコメンデーションシステムなどの教師なしモデルを扱う場合、プロセスは同様の手順に従います。まず、スーパーマーケットへ行った際に人々が購買する傾向に関するデータセットをモデルに提供します(結果)。モデルのトレーニングを開始すると、最初に繰り返しパターンをクラスタリングし(ケース)、それから類似の文脈に適用できる独自のルールを導き出します。
1. 結果: 人々の購買に関するラベルを付けられていないデータ
2. ケース: データセットでモデルが見つけた類似の購買(例:卵を買った人は必ずベーコンも買った)
3. ルール: 卵を買う人は必ずベーコンも買う(ある程度の確率内で)
どちらの場合も、これらのルールは人間には必ずしも理解できるわけではありません。つまり、コンピュータビジョンモデルが「特定のパートに注目」することはわかりますが、なぜそうなるのかはほとんどわかりません。実際、モデルが複雑になるほど、どのルールを使用しているかを知る確率は低くなります。
それでは、機械は帰納推論と演繹推論の両方を行うことができます。
演繹推論と帰納推論-科学の基盤
帰納推論と演繹推論の組み合わせが理性の源であると広く考えられています。そして、私たちの例が示すように、現代の機械学習モデル、たとえシンプルなものであっても、既に両方を実行できます。
まず、与えられたデータセットから帰納的な推論を利用してルールを生成します。それから、これらのルールを新しいケースに適用します。たとえば、以前に見たことのない写真をモデルに提示すると、モデルは独自のルールを活用して具体的な結果(たとえば、提供された写真が逆さまであること)を推論することができます。
しかし、ほとんどのデータサイエンティストは、最も高度な機械学習モデルでも論理的な思考はできないと同意するでしょう。なぜですか?
水を沸騰させる例は、演繹推論と帰納推論に頼りすぎることができない理由をシンプルに示すものです。確かに、これらを利用してルール(「水は100℃で沸騰する」というルール)を生成し、さまざまなケースでそれを偽る必要があります。しかし、この組み合わせは、沸騰の結果が温度と関係があることをどのように推測したのかを説明するのには不十分です。
さらに、帰納推論と演繹推論の制約も明らかになります-特定の文脈に制約され、知識を異なる領域間で完全に包括する能力に欠けます。ここが推論が登場し、直感的な飛躍と異なる領域間の洞察を結びつけるためにより包括的な視点を提供する場所です。
推論
推論は、単一の驚くべき観察(つまり結果)から新しい仮説を生成する能力です。私たちは経験に頼って、ある種の説明にたどり着くためにこれを行います。
外に出て道路が濡れているのを見ると、それを昨夜雨が降った可能性と解釈します。私たちは10,000回濡れた道を見る必要はありませんが、雨が降ると道路は濡れることを知っています。技術的には、私たちは以前に濡れた道に遭遇した必要すらありません-物に水が触れると、それらは濡れることを知っているだけで十分です。
これは、水を沸騰させる例に戻る場合、推論の異なる方法を持つことを意味します:
1. 結果: 水が沸騰している
2. ルール: 水は100℃で沸騰する
3. ケース: 水の温度は100℃である必要がある
我々は結果から始めます(帰納法のように)、しかし既に知っているルールを組み合わせます(世界の知識と経験に基づいています)。この2つの組み合わせによって、ケースを考え出すことができます(例えば、水が沸騰しているのは温度の変化のせいです)。
アブダクションは推論のタイプで最も信頼性が低いです。アブダクションを通じて導かれた仮説が正しいとは限りません。例えば、「道路が濡れている」という結果は、雨と何の関係もないかもしれません。夜間に道路のどこかでパイプが破裂した可能性があるかもしれませんし、誰かが一生懸命に道路に水をまいたかもしれません。しかし、雨は妥当な説明のように思えます。
そのように、アブダクティブな推論は私たちが立ち往生せずに日常の状況を進めることを可能にします。つまり、シンプルな決定をするために1万回の試行が必要ないのです。
私の知る限り、現在のAIモデル/アルゴリズムはアブダクションを実行することができていません。先ほど説明した方法ではありません。
もちろん、1960年代と1970年代のルールベースのシステムに詳しい方々は、MYCIN、XCON、SHRDLUを指摘し、それらがアブダクションを行えることを主張するかもしれません。他の人々は、スタンフォードAI指数が2022年と2023年にアブダクションを最も有望な研究領域の1つとして引用した例を挙げるかもしれません(つまり、アブダクティブな自然言語推論)。
では、もし1970年代にはマシンが「アブダクション」を行えたのであれば、なぜ私がアブダクションができると主張したこと(つまり、常識的な推論)がまだ実現されていないのでしょうか。
アブダクションがなおも難解である理由
最新のモデルでさえアブダクションを実行できない2つの高レベルな理由があります:混同(conflation)とアーキテクチャ(architecture)です。
混同:アブダクションは最良の説明への推論(IBE)と同じではない
歴史的にコンピュータサイエンスでは、IBEとアブダクションを混同して使用することがありました。ChatGPTでさえも、両者は同じであるか、アブダクションがIBEのサブセットであるか(質問方法によって)と言います。哲学的な討論が複雑ですが、これらは非常に異なる概念です。具体的な例を用いながらこれらについて考えると、アブダクション、IBE、そして結果、ケース、ルールの構造に基づいて理解するのに役立つでしょう。
MYCINは、1970年代にスタンフォード大学で開発された初期のエキスパートシステムで、感染症の診断を支援するために使用されました。それは、各ルール(IF、つまりケース)と結論(THEN、つまり結果)を条件として表現した知識ベースに依存していました。そして、結果とケースからルール(つまり、帰納的推論が従うパターン)を特定し、状況を最もよく説明する可能性のあるルールにヒューリスティックな確信スコアを0から1の範囲で割り当てるために、後向き推論メカニズムを利用しました。
スタンフォードAI指数で引用された< a href=”https://www.voagi.com/using-gpt4s-data-analysis-tool-for-mapping-an-indepth-example.html”>例の説明は、演繹的な自然言語推論(仮説を生成するか、最も妥当なものを選択する)の例ですが、少しトリッキーですが、実際には誘導ではありません。実際、私は主張しますが、それはIBE(帰納に続いて演繹する)と似ていますが、これまでに議論した他の機械学習モデルと同じパターンに従っています。
背景情報は次のとおりです。2020年、バガヴァトゥラと同僚は、ARTと呼ばれるデータセットに基づいて訓練されたトランスフォーマーモデルを作成しました(これは観測(O1、O2)と200,000の説明的仮説によって定義される約20,000の物語性コンテキストを含みます)。訓練後、彼らはモデルに2つの観測値を提供し、それに対応する妥当な仮説を生成するように要求しました(図4を参照)。
図からわかるように、トランスフォーマーモデル(GPT-2+COMeTの埋め込み)にO1(例:「ジュニアは20+歳の亀の名前です」)とO2(例:「ジュニアはまだ元気です」)が提供されると、それに対応する妥当な仮説(例:「ジュニアは友達と一緒にプールで泳いでいるかもしれません」)を生成することができます。
なぜこれは演繹ではなくIBDなのですか?
まず、MLモデルの基礎から少し抽象化して、人間がこのような推論タスクを行う方法について考えてみましょう。最初に、私たちは結果を与えられます:ジュニアはまだ元気であり、ケースが告げられます(つまり、ジュニアは比較的古い亀である)。そこから、私たちが行うことは、ケースと結果を説明する可能性のある(文脈による)ルールを見つけようとすることです。たとえば、まだ元気な古い亀は
- 友達と遊ぶ傾向があるか
- 健康な食欲を持っているか
- 健康状態が良いか
などの推論ができます。
次に、私たちは最も妥当(私たちにとって)なルールを選び、それを「古い亀」のケースに適用することができます。これにより、ジュニアが友達と一緒に泳いでいる可能性があるという仮説が立てられます。
すでに説明したように、限られた観察結果から潜在的なルールを特定することはIBEの指標であり、それに基づいて結論を導く行為は演繹の弱い形態である傾向があります。
人間として、亀や人間の場合、年をとると体力が低下する傾向があることを理解しています(議論の余地はありますが)。これにより、比較的に「意味を帯びた」ルールを生成することができます。トランスフォーマーモデルはそれを行うことができません。ただし、提供されたケースと結果に続く最も確率的な単語の組み合わせの予測を改善することはできます(帰納を適用し、それに続いて演繹を行うことで)。モデルは、ジュニアが楽しんでいるときにまだ元気であることを理解していません。
実際には、誘導的な自然言語推論の研究は考えの連鎖を思い起こさせます。ただし、指示は異なる方法でトランスフォーマーモデルに提示されます。
すべてのこれらの事例が示すことは、コンピュータ科学が誘導とラベル付けするものが実際には誘導ではなく、文脈に依存した帰納の一種であるということを望ましいです。
アーキテクチャ:現代の機械学習モデルは帰納によって制約されています
誘導が行えない最新のモデルのもう一つの理由は、そのアーキテクチャにあります。定義上、機械学習モデルは帰納を生成する機械です。その性質は、いわゆる帰納バイアスによってさらに強化されます。
帰納バイアスは、機械学習における重要な概念であり、モデルが学習すべき関数の種類に対して持つ固有の仮定や優先順位を指します。このバイアスは、可能な仮説の組み合わせを制限することによって学習を効率的かつ正確に行うための学習プロセスを導きます。
例えば、決定木は階層的な構造と単純な決定境界に焦点を当てています。サポートベクターマシンはクラス間に幅広いマージンを見つけることを目指しています。畳み込みニューラルネットワークは画像における平行移動不変性と階層的特徴学習を強調しています。再帰ニューラルネットワークは順序パターンにバイアスを持ち、ベイジアンネットワークは確率的な関係をモデル化します。正則化された線形モデルは、大きな係数にペナルティを課すことでよりシンプルなモデルを好みます。GPT-4のような一般的なトランスフォーマーは、データの順序的な依存関係や関係を捉える能力で特徴付けられています。これらのバイアスは、モデルの振る舞いや異なるタスクへの適用性を形成します。また、一つの文脈から別の文脈への学びの移転を困難にします。
まだ必要なもの
さて、いままでは推論の概要について説明し、機械が実際に推論を行うことができることを見てきました。推論には帰納と演繹の両方があります。しかし、「思考」と直感的に呼ぶものは、合成と認識によって容易になされるものであり、混同とアーキテクチャによってまだ達成されていないものです。
では、それでは私たちは何が必要なのでしょうか?
帰納的推論を行うことができるものを構築するにはどうすればよいのでしょうか?
まず第一に、私たちは帰納的推論とは何かを正確に定義し、その仕組みを説明する必要があります。残念ながら、この点に関してはあまり研究が行われていません。特に、帰納と演繹の関係や機械においてどのように操作可能かについての議論はほとんどありません。学者たちが同意することは、帰納が最初に来て、それに続いて演繹がくるということだけです。
それでは、アブダクションとは何でしょうか?
アブダクションは一つの統一的な概念ではありません。私自身は、科学的な領域に依存する約10種類のアブダクションに出会いました。さらに、アブダクションの概念を紹介した哲学者であるチャールズ・サンダース・パースさえも、一貫した範疇でアブダクションについて言及していません。
ただし、基本的な機能を説明することができる3つの主要なタイプがあります。これらのタイプやその成り立ちについては、この記事では複雑すぎるため詳しくカバーすることはできません。以下に簡単な要点を示します。
まず最も直接的なタイプは、説明的なアブダクションです。これまでに議論してきたタイプです。これを使うと、観察(結果)と簡単に特定できるルールがあります。この2つの組み合わせによって、ケースに関する推測が可能になります。水を沸騰させる例でよく示されています。
次に、革新的なアブダクションというタイプがあります。これは、(望ましい)結果からケースとルールのペアに対して推論することを可能にします。つまり、作成したい結果だけを知っている状態で、徐々にケース-ルールのペアを定義していく必要があります。このタイプのアブダクションは、新しいアイデアを生み出すために通常使用されます。
最後に、私が非常に興味深いと思うアブダクションのタイプは、操作的なアブダクションです。これは、(望ましいものであるかどうかに関係なく)結果の一部しか知らない状況で使用します。さらに、この結果が「存在する」コンテキストは、複数の隠れた相互依存関係によって定義されています。したがって、すぐに適切なケース-ルールの組み合わせを探し始めることはできません。かわりに、結果とそれが環境とどのように関係しているかをより良く理解する必要があります。それによって、不確実性を低減することができます。
これがいわゆる思考デバイス/認識的仲介者の役割です。これは、たとえば基本的なスケッチ、プロトタイプ、または3Dモデルの形で存在し、問題の理解を向上させる手段となります。この仲介者を対象環境内で操作することで、コンテキストのより深い理解を得ることができます。その結果、ルールとケースの潜在的な組み合わせを探索し、異なるドメイン間で知識の移転を支援する関連性を確立することができます。この種の思考の簡略化バージョンは、立体幾何学などで一般的に適用されています。
言うまでもなく、これらのアブダクションのタイプとその他の推論アプローチとの関係を説明するためには、まだ多くの研究が必要です。しかし、この取り組みは異なる領域間での知識の転移可能性に関する貴重な示唆を提供する可能性があるため、ますます重要になっています。特に、IBE、シミュレーションと例を通じた推論、System-1とSystem-2の思考などによる推論への関心の再燃を考慮すると。
それらの中で、機械が行うことができるさまざまな種類の推論を混同しないようにする方法を理解することは重要です。なぜなら、機械は推論することができます。ただし、完全な推論スペクトルを実行することはできません。
*IPEに関する他の興味深い研究は、この論文(ただし、彼らは帰納とIPEを同一視しています)で見つけることができます。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- リトリーバル・オーグメンテッド・ジェネレーションにおける関連性の課題にどのように対処するか
- VoAGIニュース、12月6日:機械学習をマスターするためのGitHubリポジトリ•データエンジニアリングをマスターするための5つの無料コース
- 少ないデータ注釈 + より多くのAI = 深いアクティブラーニング
- 新しいLAMPスタック:生成AI開発の革新を照らす
- 「ファビオ・バスケスとともに、ラテンアメリカでデータサイエンスの開拓を行う」
- In Japanese 「可視化フレームワークの種類」
- 「Ego-Exo4Dを紹介:ビデオ学習とマルチモーダルパーセプションに関する研究をサポートするための基礎データセットとベンチマークスイート」