「受賞者たちは創造的AIのハイプを超えて見据える」
「創造的AIのハイプを超え、未来を見据えた受賞者たち」
OpenAIによって作成されたChatGPTは、約1年前にリリースされましたが、人工知能(AI)の転換点を示すものとされました。ChatGPTは、生成型AIによって実現された高度で人間らしいテキスト会話により、注目を浴びました。生成型AIは、学習データからパターンを学び、似た特性を持つ出力を生成するアルゴリズムです。この技術は以前、画像生成の能力で話題を集め、DALL-EやStable Diffusionなどのシステムが人間が提供したテキストの記述から写真のようなリアルなビジュアルを生成することが可能でした。
生成型AIには多くのハイプがあります。一部の専門家は、一部のシステムが感性を持つ可能性があるとさえ推測しています。去年、Google AIのエンジニアとして働いていた人がLaMDAというAIについて述べました。一方で、他の専門家は、その出力は見かけほど印象的ではないと主張しています。
9月のHeidelberg Laureate Forumでは、ネットワーキングカンファレンスが開催され、数学とコンピュータサイエンスの研究者が一週間、ドイツのハイデルベルクでフィールドの顕著な業績を持つラウレートと交流しました。このフォーラムでは、コンピュータサイエンスへの重要な貢献を評価されるACM A.M.チューリング賞の受賞者であるいくつかのラウレートが、技術の潜在的な用途や展望について議論しました。
今年のHeidelberg Laureate Forumのラウレート クレジット:Heidelberg Laureate Forum Foundation
生成型AIは、エッセイやコンピュータコードの作成、薬の発見の加速、新しいデザインの作成、パーソナライズされた商品の推奨など、さまざまなことに使用することができます。ただし、チューリング賞受賞者であり、ピッツバーグのカーネギーメロン大学のコンピュータサイエンスとロボティクスの教授であるRaj Reddyは、生成型AIが社会における言語とリテラシーギャップの縮小にどのように貢献できるかに特に興味を持っています。例えば、彼の母国であるインドでは、公用語が22あり、隣接する地域の人々がお互いに話せないことがよくあります。
同時に、Reddyは人々がお互いにコミュニケーションできるようになれば、経済活動も増えると述べました。これは昨年のACM A.M.チューリング賞の受賞者であるBob Metcalfeが提案したMetcalfeの法則に従うもので、この法則はネットワークの価値がそのユーザー数の二乗に比例すると述べています。 Reddyは「スピーチと言語は将来の人類の進歩に中心的な役割を果たす」と述べています。
Reddyは、生成型AIがリアルタイムで言っていることを相手の言語に自動的に翻訳するインスタント翻訳システムについて興奮しています。あなたの電話が、ワイヤレスまたは直接対面で、コミュニケーションをとりたい相手の言語に翻訳することができるというアイデアです。Google Translateなどのシステムは既にある程度のサポートを提供できますが、Reddyは生成型AI技術が今後15〜20年で可能な範囲を大幅に改善すると考えています。「まだ完全にスムーズではありませんし、すべての言語に対して機能しているわけではありません」と彼は言います。「それは私たちがまだ行うべき仕事です。」
生成型AIシステムは常に正確ではないため、懸念があります。ChatGPTや他のチャットボットは、事実として提示されることのある誤った情報を生成することが知られています。これはしばしば「幻覚」と表現されます。チューリング賞受賞者でありハーバード大学のT. Jefferson Coolidge教授であるLeslie Valiantは、現在の生成型AIシステムはエンターテイメントの目的や、誤った決定が重大な結果をもたらさないアプリケーションに適していると考えています。しかし、彼は、信頼性が要求されるアプリケーションにおいてそのようなシステムを使用することには懐疑的です。「誤った決定をすることで誰かを殺す可能性がある場面でAIを使うことは、はるかに困難です」と彼は述べています。
生成AIは、膨大なデータから学習して出力を生成します。情報処理能力の面で、人間よりも優れています。なぜなら、AIは処理できる情報量の制限に挑戦しているからです。しかし、それには取り入れられていない知識の他の側面もあります。「私たちの認知能力は、異なる要素を組み合わせたものです。推論や学習などが含まれます」とValiant氏は述べています。「[生成AI]はただ一つのことをするだけですが、非常にうまくやっているのです。」
Valiant氏は、生成AIシステムを推論能力を持つように改善できると考えています。学習した知識には不確実性がありますが、ChatGPTなどの現行システムは、生成した内容が意味をなしているかどうかを考えることができません。「伝統的な論理は機械学習とは大きく異なります」とValiant氏は言います。「次のステップは、推論をAIシステムの中心に置き、学習と統合することです。」
生成AIシステムを悪用することも懸念されています。Reddy氏は、例えば実際には言っていない政治家の物議を醸す発言をAIが制作する深層フェイク(AI生成された画像、音声、動画を含む)の乱用について心配しています。「政府は生成AI技術の利点と欠点をどう対処するか模索しています」とReddy氏は述べています。
同時に、コンピュータサイエンティストたちは、AIを使って合成メディアのわずかな異常を検出し、ディープフェイクであると特定する方法を開発しています(初期のディープフェイク動画では人物の合成画像がまばたきしなかったという事実など)。Reddy氏は言います。「テキスト資料の事実チェックに加えて、音声や映像資料の事実チェックが必要になりました。それは可能であり、今後ますます行われるでしょう。」
生成AIが社会にとって脅威となる可能性もあります。Valiant氏の「エコリズム」理論は、アルゴリズムが環境と相互作用し、それらから学習するというもので、このプロセスは計算システムだけでなく、脳などの生物系でも起こりえます。これは、AIシステムが特定の環境で予期せぬ行動をする可能性があることを示唆しており、潜在的な有害な行為につながることもあります。
しかし、Valiant氏は、そうしたシナリオが生成AIで起こることには心配していません。なぜなら、彼は機械に組み込む知性について十分に理解していると考えているからです。「私たちの利益に反する特性をいくつか組み込まない限り、彼らが私たちの利益に反する特性を発展させる理由はない」と彼は言います。「したがって、将来的に[生成AIが制御を離れて]大きな問題になることはないと思います。」
Sandrine Ceurstemontは、イギリス・ロンドンを拠点とするフリーランスの科学ライターです。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles