なぜハイプが重要なのか:AIについて現実的な考え方が必要

なぜハイプが重要なのか:AIに関する現実的な考え方が必要

船を発明すると、遭難も発明することになります。

これはELIZAという60年代のチャットボットです。人々はそれに本当に興奮しました。ウィキペディアより。https://en.wikipedia.org/wiki/ELIZA

60年代に、ヨーゼフ・ワイゼンバウムは人間がコンピュータとどのようにコミュニケーションを取るかに興味を持ちました。その結果、ELIZAという非常に初期のチャットボットが生まれました。ELIZAはChatGPTのような現代のチャットボットとは非常に異なる方法で動作しました。ChatGPTは大量のテキストを与えられ、「学習」して理解しようとしますが、ELIZAはルールに基づいてプログラムされており、あなたの言葉を事前に認識するための複数のパターンと一致させようとし、その基づいて応答を返します。当時半世紀以上前の古い言語ですべてのことを言ってみる人のために、そのコードをすべて手書きで作ることは莫大な仕事だったに違いありません。

しかし、この苦労が実を結んだようで、ELIZAと対話した人々は彼らが理解されていると考えるようになりました。実際に理解されていると。ワイゼンバウムが反対したとしても、人々はそれがただのコード以上であると思いました。ELIZAはセラピストの性格を持つことができ、上記の画像に示されるような意味のないプラチチュードを提供することができましたが、それはアカデミックな人々がそれを医師や精神科医に置き換える可能性があると考えるのを止めませんでした。

なんだか見覚えがありませんか?ELIZAはGPT4と比較して非常に基本的であったにもかかわらず、人々はそれが彼らを理解していると思い込み、それからすぐにそれが彼ら自身も置き換えるだろうと決めました。

ハイプとは何か?

新製品がハイプされるには馴染みのあるパターンがあります – すべてが曲線上に集約されます。最初は、人々はそのものについてますます興奮し(そして非現実的になり)ます。最終的に、曲線の頂点に達します。それから、現実が立ち現れ、人々の興奮は事実に直面すると褪めていきます。最終的に、公衆の意見は幻滅の谷底に達します。すべてが落ち着き、技術が実際にどのように役立つのかがわかると、生産性の高い中間地点に達します。

ガートナーのハイプカーブ。ウィキペディアより。https://en.wikipedia.org/wiki/Gartner_hype_cycle

私の仕事は、ロボット犬やVRヘッドセットなどの新興技術と協力しています。非常にハイプされている可能性があるものに常に出くわす気がします。Boston Dynamicsのロボット犬はとてもクールです – いつも未来だと叫びたくなります(実際にはそうではありません)。以下に、明らかに過度にハイプされていないいくつかのテクノロジーを見てみましょう:

f****** around…

まあ、少しハイプされていたかもしれませんね。少なくとも、生産的な段階に達したことを願っています!2023年の彼らの現状をチェックしてみましょう:

...そして発見する。

おそらく(これらの例に詳しい場合は)全てがどのように終わるか驚くことではないかもしれません。明らかに、これらは全て失敗です。Google Glassは2度失敗しました。テスラは訴えられています。FTXの創設者は現在連邦刑務所に住んでいます。問題は、曲線が常に正しくないということです。時には、曲線を乗り越えることができない場合もあります。時には、幻滅の谷に落ち込み、永遠に下降し続けます。

しかし、なぜ私たちは気にかける必要があるのでしょうか?Google Glassが非常に大袈裟になり、最終的には酷いものになったことが重要なのでしょうか?まあ、少しは重要です。すべてに大袈裟になり、すべての新しいテクノロジーが未来だと言い続けると、誰が信じることができるでしょうか?人々は真剣にあなたの助言を受け入れることができるでしょうか?もちろん、テスラが100%自動運転であると言うのはエキサイティングですが、それが事故を引き起こす原因になった時はまじめな問題になります。

テクノロジーに対して非現実的な期待を抱くことでがっかりすることになります。おそらく、私たち自身だけでなく、同僚やクライアントにも。その答えが明確である場所のひとつは、AIです

AIのハイプは解消されるのか?

AIは最終的に幻滅の谷に入ることになるでしょう。私は、人々が「これを実際にどう使うのか?」という単純な質問に直面していることから、その亀裂が現れ始めていると考えています。ChatGPTを使って遊んでみると、まるで魔法のようなものですが、これをビジネスにどう応用するかを想像しようとすると、その魔法は薄れます。明らかに、これらのことはすべて変わる可能性がありますが、以下の問題が解決できる見通しは難しいです。

  1. セキュリティ: AIと安全にやり取りし、私たちの個人データが広範な世界に漏れ出さないようにするにはどうすればいいのでしょうか。
  2. 信頼性: 実際に信頼できるでしょうか?もし信頼できない場合、このプロセスを自動化することはできるでしょうか?
  3. コスト: 安全で信頼性のあるAIを手に入れることができるかもしれませんが、そのようなサービスのコストは非常に高い可能性があります。
  4. 偏見: システム内の偏見を克服するのは困難です。お客様と対話する方のAIモデルがRedditや4Chanのすべてを見ており、そこから何かしらの発言を繰り返してくることに満足できますか?

最後に考えることは、私たちは常に大きいほうが良いと信じ込まされています。このモデルには「スケーリング則」という考え方があります―データを増やし、モデルを大きくすればするほど、出力は良くなるというものです。しかし、これらの資源は無限ではありません。世界には限られた数のGPUしかありません。もっと根本的には、データは限られています。2027年までに、世界中の高品質のテキストデータはすべて大規模な言語モデルの訓練に使用されたと予想されています。では、それからどうなるのでしょうか?

したがって、私たちを幻滅の谷に陥れるのであれば、どのような要素が私たちを引き出すのでしょうか?AIを意味のある方法で使用するためにどのような良い側面があるのでしょうか?

  1. あなたについてのものにする!: 一般的なチャットボットでは実用的ではありません。AIが私についての歌を作れるのはクールですが、それはあなたのビジネスの役に立ちません。それらのチャットモデルを範囲を狭め、あなたに焦点を当てることで(自分自身のデータを用いて微調整することで)、それらははるかに有用になります。文書を作成できるというのは面白いアイデアですが、あなたのような文書を作成できるときが本当に有用です。
  2. ビッグデータは2021年の話: 最近までは、大規模なデータサイエンスを行うためには多くのデータが必要でした。しかし、LLMではそれはもはや必要ありません。誰でもGPT4にアクセスできるようになりました。
  3. すべてをドラフトする: (これは大まかな一般化ですが) 通常、自動化は数値の変換に関連します。AIは自然言語を含む自動化パイプラインを本当に可能にすることができます。前提として、人間が関与するということです。

なぜ私が気にする必要があるのでしょうか?

これを読んでいるならば、おそらくあなたはいつかChatGPTを使ったことがあります。おそらく、明確さと現実的な期待を望むでしょう。ハイプはそれらの明確さを混乱させます。一方、私たちの多くは開発者やスタートアップの創設者、技術者であり、自分に合ったAIツールを使って何かを作ったり、AIの推進者であるかもしれません。何かをハイプして使わせること(特に自分自身が手作りしたもの)は、ツールを提供した後に起こることからは独立していません。また、より雄弁に言えば:

船を発明すると、難破も発明することになります。飛行機を発明すると、墜落も発明することになります。そして、電気を発明すると、感電も発明することになります。

– ポール・ヴィリオ

何かを作るとき、それを使う人々がすることに対して一部責任を持つことになります。開発者として、私たちは上記のネガティブなこと全てに責任を持っています — バイアス、費用、信頼性。

AIの開発は、シリコンバレーの開発者たちが行っている遠い存在で、私たちがあまり影響を与えられないと考えるのは簡単ですが、それは誤りです。それに関わらず、ヴィリオの引用はそれ以上のものを包括し、私たちが開発し、推奨するすべての技術に対して適用されます。私たちは毎日新しくて未検証のアイデアに遭遇します。ソフトウェアのアップデートにおける新しい機能から、すべてを変えると約束する壮大な広告キャンペーンを展開する巨大な技術企業からの新しいSAAS製品まで、さまざまなものです。

AIについて現実的に考えることは、他のすべてについて現実的で実現可能な思考から逸脱することではありません。あの新しい輝くSAAS製品は本当にプライムタイムに対応しているのでしょうか?この新しいアーキテクチャを絶対に使用すべきでしょうか?技術は決して完全な解決策ではありません。私の仕事は、ロボット犬と一緒に働くことですが、(ちょっとした可能性があるかもしれませんが)実用的ではないかもしれないということを認めるのはとても辛いです。

お読みいただきありがとうございます!こちらからもお問い合わせいただけます: LinkedIn,またはこちらで寄稿しているニュースレターをご覧ください。

\

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more