「私たちはAIとの関係をどのように予測できるのか?」
AIとの関係をどのように予測できるのか?- 私たちの視点からの考察
AIは私たちを愚かにするのか、賢くするのか? AIとの関係をどのように見ることができるのか?
現在の段階またはAGI後の人工知能との相互作用は常に議論の的です。あなたが否定的な立場にいるのか、肯定的な立場にいるのかに関わらず、私は人工知能が私たちの心に与える影響を解明したいと思います。AIが普及する世界では、人間はより賢くなるのでしょうか、それとも非知的になるのでしょうか?
まず第一に、AIは新たな人生の一部ではありません。既にAmazonのおすすめを聞いたり、TikTokなどの無限のリールをスクロールする際に使われています。彼らは私たちを非常によく知っており、私たちの興味を知っており、時には私たちにおすすめすることでどうすればいいかを決めることさえあります(広告の現代版、おすすめシステム)。この点において、一部の人々は「陰謀論」と考えていますが、テクノロジーサヴィーはこれによって些細なことに頭を悩ます必要がなくなり、メリットがあると主張しています。私はこの議論を個人的に目にしたことがあります。
確かに、テクノロジーは生産性を向上させましたが、多くのタスクを自動化することで排除しています。
かつては、人々は紙で計算することが求められ、その後、電卓を与えられて紙での計算に時間とエネルギーを費やすことなく助けられました。現在はコンピューターとExcelが数学の計算を代行してくれます。
- 「マルチモーダルAIの最新の進歩:(ChatGPT + DALLE 3)+(Google BARD + 拡張)など、さまざまなものがあります….」
- セールスフォースAIがGlueGenを導入:効率的なエンコーダのアップグレードとマルチモーダル機能により、テキストから画像へのモデルが革新的になります
- コンセプト2ボックスに出会ってください:知識グラフにおける高レベルの概念と細粒度なエンティティとのギャップを埋める – 二重幾何学的アプローチ
かつては、エレベーターを特定の階数で停止するために人がマニュアルで操作していましたが、現在は自動化され、動作位置に応じて修理が必要な場合のみ行われます。現在、タスクの30%は機械が担当し、残りは人間が担当しています。
計算機は会計士を愚かにするのではなく、より生産的かつ正確に計算することを可能にしました。自動化されたエレベーターは一部のエキスパート技術者が仕事をできるようにしましたが、誰でもその仕事ができるわけではありません。AIは次の革命です。推測によれば、これは人間と機械の50-50の組み合わせになると言われており、劇的なシフトです。そのため、多くの人々がAIに追いつけず、AIが彼らの仕事をより良く、安価で生産的にこなすことを心配しています。
いかなる場合でも、この記事はAIが私たちの仕事を奪うのかどうかについてではありません。これは遅れを取った人々にとって、労働コストの問題となります。IBMの調査によれば、次の3年間で世界中で1億2千万人以上の労働者が人工知能の影響を受けて再教育が必要となるでしょう。
結局のところ、ここでのテーマは私たちの知性です。AIは私たちの心をより創造的で革新的かつ生産的に広げることができるのでしょうか?
私たちはデータに知性を与えています。はい、それは大いに真実です。ほとんどのAIツールが訓練されているデータは私たちの手によって生成されています。私たちがより多くのデータを生み出せば、彼らはより多くの知性を得るのです。そのため、ヨーロッパの国々は市民のデータについて懸念していますし、ヨーロッパの人々自身も懸念しています。
私たちは、私たちの心とAIの間に線や境界を引いてきたとされています。私たちは創造者であり、彼ら(機械)は作られた存在です。私たちは知的なタスクを彼らに委ねてきました。私たちは彼らよりも優れています。この視点を再編成しましょう。逆に、私たち人間とAIは組み合わさり、融合し、混ざり合い、一体となっています。
拡張された心の概念は、哲学者のアンディ・クラークとデイビッド・チャーマーズによって定義され、それは「認知」が単に私たちの頭の中で起こるものではなく、つまり、心は脳だけの住まいではなく、外部の物理的な対象に広がることができると言います。例えば、Appleがスマートフォンを発売してから間もなくして、私たちが以前に自分自身で行っていた電話番号の覚え方やナビゲーションなどのタスクを行えるようになりました。
同様に、「拡張された体」というものも見ることができます。例えば、Neuralinkによって私たちの脳にチップが埋め込まれたり、アイアンマンの外部スーツなどです。これらは一般的な人間と技術の組み合わせの典型です。そして、この考えを能力にも一般化することができます。
実際、これは21世紀の人類にとって良かったです。スマートフォンは、盲人や視力の低い人々がドアを検出したり、聴覚障がい者のためのライブキャプションなどを行うことで、彼らの最後の数歩のナビゲーションを支援します。(Appleが画期的なアクセシビリティ機能を公開予定- Apple)技術は今までにかなり進歩してきましたが、まだ改善する必要がありますが、潜在能力を持っています。(ディスカッションしましょう: 技術は障害を持つ人々の力になることができるのか? – The Valuable 500)
この結合が調和するためには、次の3つの条件を満たす必要があります:
- 各部分がそれぞれの原因責任を持ちながら、それらがうまくつながり、体系的なシステムを構築すること
- すべてのシステムが心が求める通りに正確に動作していること
- 外部のシステム(全てではなく最低でも1つ)が失われた場合、全体の行動能力が減少すること
これまでのところ、私たちは生産性を向上させるために技術を活用してきました。これは、私たち自身と正直に向き合いたい場合、非常にうまく機能しました。別の哲学者であるジョン・ダナハーよれば、人間と技術の組み合わせの「外部」と「内部」の形態には明確なが、拡張の目的での違いがあります。彼は、技術が新しい環境で人々の精神的な健康や行動を改善することができれば、人間を向上させる働きをすると信じています。
もし「拡張された心の仮説」が真実ならば、私たちは常に技術を使用して人間の心を向上させているのです。
ジョン・ダナハー –外部の道徳的な強化よりも内部の道徳的な強化のほうが政治的に望ましい理由について。
したがって、人間が直接利用できるAIツール(例:ChatGPTなど)についても同じ比喩を適用することができます。はい、すべてのAIツールに簡単に適用することはできません。なぜなら、それらのいくつかは私たちの制御下にあり、制御下とは、AIチャットボットをトリガーしたり、Alexa/Siriに頼んだりするなど、彼らのアクションを引き起こすことができるという意味です。一方、Instagram/TikTokのアルゴリズム、Amazonの推奨システムなど、一部は私たちの制御下にあります。また、一部は私たちの制御下にありません。
このため、デビッド・チャルマーズは大規模言語モデル(LLM)を拡張された意識と考えることができるかどうかについて講演しました。彼は、ChatGPTのようなAIツールを私たちの意識を拡張するツールとして考えることができるかどうかを疑問視しました。なぜなら、適切なプロンプトが与えられれば、チャットボットは私たちに有用な情報を提供するからです。驚いたことに、彼は、ChatGPTのような技術は、心の拡張ではなく独立して運営されている可能性があると述べています。
拡張された心の理論は、一部のAIツールにのみ適用され、より自律性が高くなるほど、それらは心の拡張と考えられる能力が低下します。
彼は、新しい技術を拡張された意識と考える際の基準について論じ、最後に「これは拡張された認知であるか?」という問いを考えるように結論付けました。彼が行った面白いことは、同じ質問をGPT-4にもすることができます:
興味深いことに、発表された論文があります。「Do Large Language Models Know What Humans Know?」[2209.01515] Do Large Language Models know what humans know? (arxiv.org)彼らは信念誤りのタスクを行い、人間の正答率は82.7%、LLMの正答率は74.5%でした。非常に印象的ですが、大規模言語モデルは人間の行動を完全に説明できませんでした。言語統計だけでは、信念誤りに対する何かを生成するのに十分ですが、人間を完全に説明することはできません。
また、AIにますます頼り、私たちに何をするかを推奨(あるいは極端な場合には指令)することについて、一部ではそれが私たちの脳を馬鹿にし、創造性を奪うと主張しています。これは新しい議論の対象ではありません。過去にはGoogleで議論されてきました(Is GOOGLE Making Us Stupid?)またはAIの新しい進展では(Will Generative AI Make Us Dumber?)
人間と人工知能の最初の対決の物語の一つは、90年代後半にさかのぼります。ディープブルーと世界チャンピオンのチェスプレーヤー、ギャリー・カスパロフの物語です。彼はIBMのマシンであるディープブルーと数回の対局を行いました。この記事では物語の詳細を説明することは範囲外ですが、カスパロフが彼の本「Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins」で挙げた教訓の一つに満足します。
彼は、私たち人間ができることは、機械がより優れてできると信じています。チェスが知性の究極のテストであると考えたアラン・チューリングなどの偉大な思想家やコンピュータ科学者とは対照的です。彼はAIに反対しているわけではありません。実際、彼はシンプルな方程式に信じています。人間と機械を組み合わせることで、天才的な人間をその専門分野で打ち負かすことができると。さらにDeep Thinking | Garry Kasparov | Talks at Googleを見ることもできます。
実際に、2016年には、DeepMindのAIであるAlphaGoと囲碁の世界チャンピオンである李世乭との間で一連の対局が行われました。李世乭は5試合のうち1試合しか勝てず、残りは負けました。同様の物語がチェスでもあります。囲碁は膨大な自由度を持つため、数多くの戦略が存在するため、チェスよりも難しいと考える必要があります。
後に、DeepMindの従業員であるゲームの知識を持たず、AIの推奨のみで、囲碁の世界チャンピオンを打ち負かすことができました。人間と機械の組み合わせに興味があるなら、HBRのビデオを見たり、「ヒューマン + マシン:AIの時代における仕事の再想像」という本を読んだりしてみてください。
この記事を理解するのに役立つトークや本もあります。
あなたの携帯電話はあなたの一部ですか? | デイビッド・チャルマーズ | TEDxSydney
デイビッド・チャルマーズ:大規模言語モデルは心を拡張するのか?
この記事の草稿を読んでくれたAli Moezziに感謝します。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- エッジ上でのビジュアル品質検査のためのエンドツーエンドのMLOpsパイプラインの構築-パート1
- ランチェーン101:パート2c PEFT、LORA、およびRLでLLMを微調整する
- 「Azureのコストを最適化するための10の方法」
- 「FinBERTとSOLID原則を活用して感情スコアの正確性を向上させる」
- 「AWS Step Functionsで機械学習パイプラインをオーケストレーションする」
- In this translation, Notes is translated to メモ (memo), CLIP remains as CLIP, Connecting is translated to 連結 (renketsu), Text is translated to テキスト (tekisuto), and Images is translated to 画像 (gazo).
- 「ゲームを一段と盛り上げる:スタートアップのスポーツビジョンAIが世界中にアスレチックを放送」