「注目すべき8つのトレンディングで新しい大規模言語モデル」

New large-scale language model with 8 notable trends

最近、ニュースでよく大規模な言語モデル、またはLLM(Large Language Models)について話題になっています。LLMとは、大量のテキストデータで訓練された人工知能の一種です。これにより、ChatGPTなどの人間が書いたテキストと区別がつかないようなテキストを生成することができます。そのため、LLMは自然言語処理、機械翻訳、テキスト生成など、さまざまな応用分野で活用される可能性があります。

それでは、注目に値するいくつかの新しいトレンドのLLMを紹介します。

RWKV

高性能なトランスフォーマーと効率的なRNNの長所を組み合わせることを目指したRWKVは、両者の最良の特徴を組み合わせることを期待しています。成功すれば、これにより将来的により効率的なNLPモデルが実現する可能性があります。

Palm 2

PaLMの後継機であり、より多言語対応で効率的でありながら、より優れた推論能力を持つ言語モデルです。UL2に似た目的の混合でトレーニングされたTransformerベースのモデルです。PaLM 2は、さまざまなモデルサイズにわたる下流のタスクで大幅に品質が向上し、同時にPaLMに比べてより高速かつ効率的な推論を示しています。PaLM 2は頑健な推論能力と責任あるAI評価の一連の安定したパフォーマンスも示しています。

Pythia

公開データを使ってトレーニングされた16のLLMからなるスイートであり、LLMの開発と進化を研究するために使用することができます。また、短いパフォーマンスにおける記憶、用語の頻度効果、ジェンダーバイアスの低減なども研究するために使用されています。モデルのサイズは70Mから12Bのパラメータに及びます。Pythiaは一般に利用可能であり、トレーニングデータローダーをダウンロードして再構築するためのツールも含まれています。

GPT – 4

GPT-4は、画像とテキストの入力を受け付け、テキストの出力を生成する大規模なマルチモーダルモデルです。それは、文書内の次のトークンを予測するために事前訓練されたTransformerベースのモデルです。事後訓練のアライメントプロセスにより、事実性や所望の動作への適合性の向上が見られます。GPT-4は、このリストの中でもよく知られたLLMの一つであり、クリエイティブなプロンプトエンジニアによってすでに驚くべき業績を示しています。

Kosmos

Kosmos-1は、一般的なモダリティを感知し、文脈で学習し、指示に従うことができるマルチモーダルな大規模言語モデルです。テキストと画像を含むWebスケールのマルチモーダルコーパスでトレーニングされています。Kosmos-1は言語理解、生成、パーセプション言語タスクなど、さまざまなタスクで印象的なパフォーマンスを発揮します。また、言語からマルチモーダルへ、およびマルチモーダルから言語への知識の転送も可能です。

LLaMA

MetaのLLaMA(Large Language Model from scratch with Annotated Massive Text)は、パラメータ数が7Bから65Bまでの範囲に及ぶ言語モデルです。LLaMAは公開されているデータセットでトレーニングされました。LLaMAは公開データのみを使用して最先端の言語モデルをトレーニングすることが可能であり、LLaMA-13BはほとんどのベンチマークでGPT-3(175B)を上回る性能を発揮します。LLaMA-65Bは、Chinchilla70BやPaLM-540Bといった最高のモデルと競争力がありますが、これらのモデルは現在、研究コミュニティに個別に提供されています。

Vicuna

Vicuna-13Bは、ユーザー共有の会話をLLaMAでファインチューニングすることでトレーニングされたオープンソースのチャットボットです。これはShareGPTから収集された会話を基にしています。Meta LLaMAとStanford Alpacaプロジェクトに触発されたVicuna-13Bは、強化されたデータセットと使いやすいスケーラブルなインフラストラクチャによって支えられています。このLLMの目標は、この分野での到達とオープンソースのイノベーションを妨げる障壁を取り除くことです。

Dolly

Dolly 2.0は、商業目的に使用することができるこのリストの中で数少ないLLMの一つです。Dolly 2.0は、15,000の人間によって生成された指示に従うペアのデータセットでトレーニングされました。このデータセットはDatabricksの従業員によって作成され、オープンQ&A、クローズドQ&A、Wikipediaからの情報抽出、Wikipediaからの情報の要約、ブレインストーミング、分類、クリエイティブライティングなど、さまざまなタスクを含んでいます。

結論

かなり素晴らしいですね。大規模な言語モデルについてはまだ学ぶことがたくさんありますが、Webからスクレイピングする必要はありません。ODSCが提供するGenerative AI Summitでは、7月20日に無料のオンラインカンファレンスを開催しており、先駆者たちが生成AIを前進させていく最新の情報を提供します。今すぐ参加券を取得して、LLMsや生成AIの最新情報、そして産業への影響を自分自身で確認してください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

「Pixel 8 Pro」という初めてのAI搭載スマートフォンは、現在Gemini Nanoで稼働しており、さらにAIのアップデートがPixelポートフォリオにも導入されています」

ニューフィーチャードロップは、Pixelハードウェアへのアップデートをもたらしますさらに、Gemini Nanoは、Pixel 8 Proのデバ...

データサイエンス

AIがセキュリティを向上させる方法

AIはマルウェアの検出、サイバー脅威の特定と対応、機密データの保護、そして重要なインフラストラクチャのセキュリティ向上...

人工知能

AIの革新的なイノベーションが開発者を強化する

SAPは、Build CodeやHANA Cloudなどの複数の生成AI機能を導入し、開発者が迅速にデータから価値を生み出し、革新するのを支援...

人工知能

効率的な開発者ですか?それならAIがあなたの仕事を狙っています

開発における人間とAIの利点は、効果と効率の一致によるものです前者は曖昧で主観的ですが、後者は議論の余地がなくデータに...

データサイエンス

機械学習を直感的に理解する

確かに、ChatGPTのようなモデルの実際の理論は認めるには非常に難しいですが、機械学習(ML)の根底にある直感は、まあ、直感...

機械学習

「ChatGPTとBard AIを活用するために、ソフトウェア開発者はどのように役立つことができるのでしょうか?」

以前は、開発者はコードやデバッグに多くの時間を費やしていましたが、今ではChatGPTやBard AIのおかげで、ソフトウェアエン...