(Chatto GPT wa sugoi kedo, kadohyōka sarete iru)

「(Chatto GPTはすごいけど、価値評価されている)」

チャットGPTは素晴らしいけれど過大評価されているー現時点でできることとできないこと

写真:Mariia Shalabaieva氏撮影、Unsplashから

疑いようのないことですが、ChatGPTは今年最も注目されたAIの一つです。Anthropicの会話AIは、最近のテックリリースの中でも一部において公共のイマジネーションをとらえました。

ChatGPTは一夜にしてバイラルになりました。自然言語のプロンプトに対する人間らしい応答は、何百万人もの人々を魅了しました。突然、AIは非公式な会話をうまく模倣し、巧妙なジョークを共有し、驚くほど整合性のあるエッセイで複雑なプロンプトに応えることができるようになりました。

火にようなものとして人々はChatGPTの限界に試しに集まってきました。それは考察深い詩の批評ができるのか?シェイクスピアを分析できるのか?コードのデバッグができるのか?倫理を論じることができるのか?量子物理学について話し合うことができるのか?

はい、それはこれらのテストの多くで驚くほどうまくいきました。しかし、ChatGPTを次世代の人工汎用知能(AGI)に指名しようとするラッシュの中で、多くの人々はその非常に現実的な制約を見落としています。

ハイプの出発はやや早すぎたかもしれません。ChatGPTは将来有望な一面を示しているものの、多くの点で印象的ながらも狭義に特化したAIアシスタントのままです。

今日のChatGPTのできることとできないことを冷静に見てみましょう。

ChatGPTの強み:輝き続ける領域

ChatGPTが人間の知能を次第に模倣する言語と推理のマスタリを示していることは否定できません。膨大な教育データセットに裏付けられ、ChatGPTは以下の分野で魅力的なパフォーマンスを発揮します:

対話能力

ChatGPTは対話のタスクに優れています。その真のブレイクスルーは、応答のやりとりを自然に処理する方法です。

AIは正確に会話のスレッドに追従します。フォローアップの質問にも適切に回答します。混乱した場合には丁寧に説明を求めることさえあります。

この対話の流れは、以前のチャットボットよりも人間寄りです。私たちは世代を超えて不自然なAIの会話に慣れ親しんできました。ChatGPTの雄弁さと多用途性は、大きな進歩の一歩のように感じられます。

テキスト生成

ChatGPTに文章のプロンプトを与えると、人間の文章を信憑性のある形で長く綴ることができます。

例えば、詩を書くように頼むと、生成される隠喩や構成に感動するかもしれません。短編小説を作るように指示すると、信じられるキャラクターを持つ物語のアークを紡ぎ出します。

このように、短いプロンプトに基づいて高品質のテキストを生成する能力は、非常に有用です。ビジネスではChatGPTを使ってマーケティングのコピー、メール、ブログ記事の作成に役立てています。学生はエッセイのアイデアを拡大するためにそれを利用しています。クリエイターはオリジナルの小説の筋書きをブレインストーミングするために使っています。

知識の統合

ChatGPTに重要な事実や背景コンテキストを与えると、情報を驚くほどうまく概説することができます。

歴史、文学、科学、または最新の出来事に関する質問に対応し、ChatGPTは関連する詳細を交えた理にかなった概要を提供することが多いです。

例えば、「アインシュタインの相対性理論を簡単に説明できますか?」と聞くと、提供される一貫した説明に驚くでしょう。

論理的推論

ChatGPTは、一連の前提条件や制約が与えられれば、理にかなった結論を導き出すことができます。

例えば、手元にある食材に基づいてレシピを推奨するように頼むと、提案されるレシピは一貫して互換性のある味と調理方法を考慮しています。

家族4人でのバケーションを計画しているとChatGPTに伝えると、思慮深い目的地のアイデアや活動を提案してきます。

これらの例は、定義されたドメイン内でChatGPTがつながりを作り、合理的な思考に基づいた推奨を提供することを示しています。

チャットGPTが苦手な点

ChatGPTの驚くべき点がある一方、多くの場面でつまずくこともあります。スキルは狭くて脆弱です。人間レベルの知性の錯覚は、詳細に調べると引っ張られるようになります。

ChatGPTの短所は以下の通りです:

知識の限定

人間の知識の幅広さはChatGPTの制約をすぐに露呈させます。そのトレーニングデータは2021年に終了しています。したがって、現在の出来事、新刊本、最新の科学的発見についての最新の知識を持っていません。

あまり知られていないトリビアの質問をしたり、ニッチなトピックについて尋ねたりすると、ChatGPTはしばしば漠然とした回答をするか無知を認めます。より広範な分野でも、高度な質問に対する知識の切れ目が明らかになります。

脆弱な論理

ChatGPTに対して非常に特殊なプロンプトや複雑な推論タスクを与えると、論理が容易に崩壊してしまいます。直線的な論理はうまく処理しますが、より高度な論理的な課題には苦労します。

例えば、ChatGPTは数学の文章問題や演繹的な論理パズルに苦戦します。自身の矛盾や誤った結論を認識できません。

学習能力のなさ

ChatGPTは人間と同様に学習したりスキルを拡大したりすることはできません。新しい知識を取り込んだり、経験からミスを学んだりすることはできません。

ChatGPTに新しいスキルを教えたり、事実の誤りを修正しようとしても、長期的な改善はありません。各会話セッションは常に新しいスタートです。この制約により、適応性が求められるタスクにおいて信頼性が低くなります。

共通感覚の欠如

ChatGPTにとって常識は珍しいものです。洗練された回答をしているにもかかわらず、実生活から人間が獲得する基本的な実判断力を持っていません。

安全上の懸念を明示的に述べない限り、ChatGPTは危険な助言を自信を持って提供することがあります。人間ならばばかげた仮想事態に対して直訳的な回答をします。

適切な文脈をフィルタリングする共通感覚の乏しさにより、ChatGPTの判断は無条件で信頼できません。

事実の弱い検証

ChatGPTからは厳密な事実チェックを期待しないでください。トレーニングデータに存在する場合、虚偽や不正確な情報を確信を持って提示することがあります。

質問に対してChatGPTが応答する際、複数の信頼できる情報源から事実を体系的に検証しません。したがって、合理的な回答と交じって事実とは異なる微妙なフィクションが提示されることがあります。

文脈の欠如

長い会話を続けることで、ChatGPTの記憶力と文脈の欠如が明らかになります。早い話が過去の発言を思い出すことでマルチエクスチェンジの対話に学習することはできません。

各入力は孤立したプロンプトとして処理されます。したがって、ChatGPTは個々の質問に回答する際には知的に見えるものの、文脈を保持する能力のなさにより、より広範な対話での推論が制限されます。

自己理解の欠如

ChatGPTの制約を最も明確に示すのは、自己についての理解の欠如です。ChatGPTは、自身のアルゴリズムがどのように機能するかを説明することができず、自身の能力について正確に議論することもできません。

ChatGPTに対してその回答をどのように納得させるかについて追求すると、あいまいさと誤った案内に陥ります。人間とは異なり、ChatGPTは自身の知能の強みと限界を判断し表現することができません。

現時点でのChatGPTの責任ある使用方法

これらの制約は、会話型AIの画期的な進展としてのChatGPTが真実、専門知識、または知恵の源として信頼性に欠けることを強調しています。

それでも、慎重に使用すれば、今日多くの楽しく有益な応用があります。以下は、現在の形態のChatGPTから利益を得るためのいくつかの責任ある方法です:

– アイデア出し — ChatGPTを使用してクリエイティブなアイデアを思いつかせ、興味のあるトピックに関する予備情報を集めることができます。ただし、信頼できるものに限って確認してください。

– 草案作成 — ChatGPTに物語、記事、メールの草案を作成させることで時間を節約できます。ただし、正確性と独自性のためにその作業を積極的に編集してください。

– 個人的な娯楽 — ユーモア、創造性、視点の取り方などでChatGPTを楽しむことができますが、完全な一貫性を期待しないでください。

– 技術的な支援 — ソフトウェアやITの問題、専門的なプロセスについてChatGPTから説明を受けることができます。ただし、実施する前にその提案を慎重にテストしてください。

– アクセシビリティの支援 — 複雑な情報をより簡単に理解するためにChatGPTを使用することができます。ただし、元の情報源で詳細を確認してください。

鍵は、ChatGPTを印象的ながらも不完全なツールとして評価することです。それを人間の創造力と知識の補完として使用しましょう — 置き換えるのではなく。

将来の可能性

ChatGPTにはまだ大きく成熟する必要がありますが、そのポテンシャルは非常に興奮を抱かせます。Anthropicでは、より最新のデータでトレーニングされたバージョンの開発が進められています。

将来の改善により、インターネットを索引化して正確なリアルタイムの回答を提供することができるかもしれません。メモリネットワークやグラウンデッドリーズニングアーキテクチャなどのアーキテクチャのアップグレードにより、主要な制限を解決することができるかもしれません。

一部の人々は、人間の認知能力に匹敵する本当の汎用人工知能が、今後10年から20年の間に現れる可能性があると考えています。

ChatGPTは、会話型AIが将来達成する可能性の小さなプレビューを提供しています。私たちは、この技術をヒトの価値観に合わせるように、慎重に開発する責任があります。

現在の強みと弱点を率直に議論することで、AIが将来の数年間にわたって責任を持って進化する中で、今日の賢明な使用を確保します。

そのため、娯楽の価値や適用時の便益を適切に評価しつつ、限られた対話エージェントであるChatGPTを楽しみましょう。しかし、現実的な期待を抱きながら、過度の期待を抑えましょう。

丁寧に開発されれば、ChatGPTのようなAIはいずれ今日の称賛を受ける日が来るかもしれません。現時点では、深い約束を認識しつつ、非常に現実的な制約を受け入れましょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「2023年にデータサイエンスFAANGの仕事をゲットする方法は?」

データサイエンスは非常に求められる分野となり、FAANG(Facebook、Amazon、Apple、Netflix、Google)企業での就職は大きな成...

人工知能

「アナコンダのCEO兼共同創業者、ピーターウォングによるインタビューシリーズ」

ピーター・ワンはAnacondaのCEO兼共同創設者ですAnaconda(以前はContinuum Analyticsとして知られる)を設立する前は、ピー...

人工知能

「ジャスティン・マクギル、Content at Scaleの創設者兼CEO - インタビューシリーズ」

ジャスティンは2008年以来、起業家、イノベーター、マーケターとして活動しています彼は15年以上にわたりSEOマーケティングを...

AIテクノロジー

「LXTのテクノロジーバイスプレジデント、アムル・ヌール・エルディン - インタビューシリーズ」

アムル・ヌール・エルディンは、LXTのテクノロジー担当副社長ですアムルは、自動音声認識(ASR)の文脈での音声/音響処理と機...

AIテクノロジー

アンソニー・グーネティレケ氏は、Amdocsのグループ社長であり、テクノロジー部門および戦略部門の責任者です- インタビューシリーズ

アンソニー・グーネティレーケは、Amdocsでグループ社長、テクノロジーと戦略担当です彼と企業戦略チームは、会社の戦略を策...

人工知能

ジョナサン・ダムブロット、Cranium AIのCEO兼共同創設者- インタビューシリーズ

ジョナサン・ダムブロットは、Cranium AIのCEO兼共同創業者ですCranium AIは、サイバーセキュリティおよびデータサイエンスチ...