「AI週間ニュース、2023年7月31日:」

AI Weekly News, July 31, 2023

 

「This Week in AI」の創刊号へようこそ。VoAGIでは、この定期的にまとめられた記事を通じて、急速に進化する人工知能の世界で最も魅力的な進展についてお知らせします。AIの役割を理解する上で重要なニュースや考えさせられる記事、洞察に富んだ学習リソース、そして知識の限界を押し広げる研究にスポットを当て、AIの現在の状況を包括的に紹介します。具体的な内容には触れませんが、AIの広範でダイナミックな性質を反映した様々なトピックを探求することができます。これはまだ最初の週次更新の一つであり、この絶えず進化する分野で皆さんを最新の情報で更新し、知らせるために設計されたものです。お楽しみにしてください!

 

ヘッドライン

  「ヘッドライン」セクションでは、人工知能の分野での先週のトップニュースや進展について説明します。情報は、政府のAI政策から技術の進歩、AIにおける企業のイノベーションに及びます。

💡 AIの巨人たちがバイデン・ハリス政権の下で責任あるイノベーションを誓う

バイデン・ハリス政権は、7つの主要なAI企業(Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAI)から自主的なコミットメントを獲得しました。これにより、AI技術の安全で安全な、透明な開発が保証されます。これらのコミットメントは、AIの将来にとって基本的な3つの原則、すなわち安全性、セキュリティ、信頼性を強調しています。これらの企業は、リリース前にAIシステムの内部および外部のセキュリティテストを実施し、AIリスクの管理に関する情報を共有し、サイバーセキュリティに投資することを約束しています。また、ユーザーがコンテンツがAIによって生成されたものであることを知るための技術的なメカニズムを開発し、AIシステムの能力、制限、適切な使用および不適切な使用の範囲について公表することも約束しています。この動きは、バイデン・ハリス政権がAIが安全かつ責任を持って開発され、アメリカ人を害と差別から保護するための広範な取り組みの一環です。

  💡 Stability AIがStable Belugaを発表:新しい言語モデルの巨人たち

Stability AIとそのCarperAIラボは、2つの強力なオープンアクセスの大規模言語モデル(LLM)、Stable Beluga 1とStable Beluga 2の発表を発表しました。これらのモデルは、さまざまなベンチマークで優れた推論能力を示し、それぞれ元のLLaMA 65BおよびLLaMA 2 70Bの基礎モデルに基づいています。どちらのモデルも、標準のアルパカ形式を使用して新しく合成生成されたデータセットを使用してファインチューニングされました。Stable Belugaモデルのトレーニングは、Microsoftの「Orca: GPT-4の複雑な説明トレースからの進歩的な学習」の論文で使用された方法に触発されました。オリジナルのOrca論文の1/10のサンプルサイズでトレーニングされたにもかかわらず、Stable Belugaモデルはさまざまなベンチマークで優れたパフォーマンスを示しています。2023年7月27日現在、Stable Beluga 2はリーダーボード上のトップモデルであり、Stable Beluga 1は4位です。

  💡 SpotifyのCEOがAIによる個人化と広告能力の将来を示唆

Spotifyの第2四半期の業績発表の際、CEOのDaniel Ekは、ストリーミングサービスへの追加のAI機能の導入の可能性について示唆しました。Ekは、AIを使用してより個人化された体験を作成したり、ポッドキャストを要約したり、広告を生成したりすることができると述べました。彼は最近導入されたDJ機能の成功を強調しました。この機能は、AIによる曲とアーティストについての解説を交えたキュレーションされた音楽の選択肢を提供します。さらに、Ekは、AIによってポッドキャストを要約することで、ユーザーが新しいコンテンツを発見しやすくする可能性についても言及しました。さらに、EkはAIに生成されたオーディオ広告の可能性についても議論しました。これにより、広告主が新しい広告フォーマットを開発するためのコストが大幅に削減される可能性があります。これらのコメントは、Spotifyが「テキストから音声合成」システムの特許を取得しようとしている際になされました。このシステムは、テキストを感情や意図を組み込んだ人間らしい音声に変換することができます。

 

記事

  「記事」セクションでは、人工知能に関するさまざまな考えを掘り下げる一連の記事を紹介しています。各記事は特定のトピックに深く入り込み、新しい技術、革新的なアプローチ、画期的なツールなど、AIのさまざまな側面について読者に洞察を提供します。

📰 ChatGPTコードインタプリター:数分でデータサイエンス

このVoAGIの記事では、ChatGPTのCode Interpreterプラグインを紹介しています。このツールは、データの分析、Pythonコードの記述、および機械学習モデルの構築を行うことができます。著者のNatassha Selvarajは、このプラグインを使用してデータサイエンスのさまざまなワークフローを自動化する方法を示しています。データの要約、探索的データ分析、データの前処理、および機械学習モデルの構築など、さまざまなデータサイエンスのタスクを自動化するためにCode Interpreterを使用することもできます。Code Interpreterは、コードの説明、デバッグ、最適化にも使用することができます。Natasshaは、このツールは強力で効率的ですが、ドメイン固有の知識を持っていないため、SQLデータベースに存在する大規模なデータセットを処理することはできないと強調しています。Natasshaは、エントリーレベルのデータサイエンティストやこれからデータサイエンティストになりたいと考えている人々が、Code Interpreterのようなツールを活用して作業を効率化する方法を学ぶべきだと提案しています。

  📰 教科書だけで十分:AIトレーニングへの革命的アプローチ

このVoAGIの記事は、マイクロソフトの研究者が提案したAIトレーニングの新しいアプローチについて議論しています。このアプローチでは、巨大なデータセットの代わりに合成教科書を使用することが含まれています。研究者たちは、Phi-1というモデルを独自に作成した教科書で完全にトレーニングし、そのモデルがPythonのコーディングタスクで非常に優れたパフォーマンスを発揮したことを発見しました。これは、GPT-3のようなモデルよりもはるかに小さいにもかかわらず、トレーニングデータの品質がモデルのサイズと同じくらい重要であることを示しています。また、Phi-1モデルのパフォーマンスは、合成の演習と解答を用いて微調整されることで改善されました。これは、ターゲットにした微調整が、モデルが特にトレーニングされたタスクを超えた能力を向上させることを示しています。この教科書ベースのアプローチは、より良いトレーニングデータの整備に焦点を当てることで、AIトレーニングを革新する可能性があると言えます。

  📰 最新のプロンプトエンジニアリング技術は、不完全なプロンプトを優れた対話に変えるための創造的手法を提供します

この記事では、プロンプトエンジニアリングの新しい技術について議論しています。著者は、完璧なプロンプトを追求することは逆効果であり、「十分に良い」プロンプトを目指すことの方が実用的であると主張しています。生成型AIアプリケーションは、確率的および統計的な方法を使用してプロンプトを解析し、応答を生成します。したがって、同じプロンプトを複数回使用しても、AIは毎回異なる応答を生成する可能性があります。著者は、完璧なプロンプトを追求する代わりに、不完全なプロンプトを活用し、それらを集約して効果的なプロンプトを作成するべきだと提案しています。記事では、不完全ながら効果的な複数のプロンプトの予測を集約することで、不完全なプロンプトを堅牢なものに変える方法を提案した「Ask Me Anything: A Simple Strategy For Prompting Language Models」という研究論文も参照しています。

 

学習リソース

  「学習リソース」セクションでは、AIの知識を拡大したい人々に役立つ教育コンテンツを紹介しています。包括的なガイドから専門的なコースまで、AIの分野で初心者からベテランまで対応しています。

📚 CohereのLLM大学:大規模言語モデルの世界への入り口

CohereのLLM大学は、自然言語処理(NLP)と大規模言語モデル(LLMs)に興味のある開発者向けの包括的な学習リソースです。カリキュラムは、NLPとLLMsの堅固な基礎を提供し、その知識を基に実践的なアプリケーションを開発するために構築されています。カリキュラムは、「大規模言語モデルとは何か?」、「Cohereエンドポイントを使用したテキスト表現」、「Cohereエンドポイントを使用したテキスト生成」、「展開」という4つのメインモジュールに分かれています。新しい機械学習エンジニアであるか、スキルを拡大したい経験豊富な開発者であるかに関係なく、CohereのLLM大学はNLPとLLMsの世界への包括的なガイドを提供しています。

  📚 Googleが提供する無料のジェネレーティブAI学習パス

Google Cloudは、ジェネレーティブAIの基礎からジェネレーティブAIスタジオのようなより高度なツールまでをカバーする無料のコースコレクションである「ジェネレーティブAI学習パス」を公開しました。この学習パスには、以下の7つのコースが含まれています。「ジェネレーティブAIの紹介」、「大規模言語モデルの紹介」、「画像生成の紹介」、「アテンションメカニズム」、「トランスフォーマーモデルとBERTモデル」、「画像キャプションモデルの作成」、「ジェネレーティブAIスタジオの紹介」。これらのコースは、大規模言語モデル、画像生成、アテンションメカニズム、トランスフォーマーモデル、BERTモデル、および画像キャプションモデルなど、さまざまなトピックをカバーしています。

 

研究の焦点

  「研究の焦点」セクションでは、AIの領域での重要な研究を紹介しています。このセクションには、画期的な研究、新しい理論の探求、およびAIの分野での潜在的な影響と将来の方向についての議論が含まれています。

🔍 大規模言語モデルのデータサイエンス教育への進化における役割

「大規模言語モデルのデータサイエンス教育への進化における役割」という研究論文では、大規模言語モデル(LLMs)がデータサイエンティストの役割と責任に与える変革的な影響について議論されています。著者たちは、LLMsの台頭により、データサイエンティストの焦点がハンズオンのコーディングから自動化されたAIシステムによる分析の管理と評価にシフトしていると主張しています。この変化には、学生たちの間で多様なスキルセットを育成するという重要な進化が求められます。これには、LLMsによって情報を提供されたクリエイティビティ、LLMsによる情報に基づく批判的思考、AIによってガイドされたプログラミング、および学際的な知識などが含まれます。

著者たちはまた、LLMsが対話型の教育ツールとして教室で重要な役割を果たす可能性も提案しています。それらは個別の教育に貢献し、学習体験を豊かにすることができます。ただし、LLMsを教育に統合するには、LLMsの利点とバランスを取りながら、補完的な人間の専門知識とイノベーションを促進するための慎重な検討が必要です。この論文は、データサイエンス教育の未来はおそらく、人間の学習者とAIモデルの間の相互依存関係によって特徴付けられ、両者がお互いの能力を学び合い向上させる共生関係になる可能性があることを示唆しています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

ムーバブルインクのCEO兼共同創設者であるヴィヴェク・シャルマ氏についてのインタビュー・シリーズ

ビヴェクは2010年にムーバブルインクを共同設立し、急速な成長を遂げながら、600人以上の従業員を擁し、世界有数の革新的なブ...

人工知能

「ジャスティン・マクギル、Content at Scaleの創設者兼CEO - インタビューシリーズ」

ジャスティンは2008年以来、起業家、イノベーター、マーケターとして活動しています彼は15年以上にわたりSEOマーケティングを...

AIニュース

OpenAIのCEOであるSam Altman氏:AIの力が証明されるにつれて、仕事に関するリスクが生じる

OpenAIのCEOであるSam Altmanは、特に彼の作品であるChatGPTに関するAIの潜在的な危険性について公言してきました。最近のイ...

人工知能

スコット・スティーブンソン、スペルブックの共同創設者兼CEO- インタビューシリーズ

スコット・スティーブンソンは、Spellbookの共同創設者兼CEOであり、OpenAIのGPT-4および他の大規模な言語モデル(LLM)に基...

人工知能

「リオール・ハキム、Hour Oneの共同創設者兼CTO - インタビューシリーズ」

「Hour Oneの共同創設者兼最高技術責任者であるリオール・ハキムは、専門的なビデオコミュニケーションのためのバーチャルヒ...

人工知能

「15Rockの共同創業者兼CEO、ガウタム・バクシ氏によるインタビューシリーズ」

「ガウタム・バクシは、気候リスク管理とアドバイザリーサービスのグローバルリーダーである15Rockの共同創設者兼CEOですガウ...