もう1つの大規模言語モデル!IGELに会いましょう:指示に調整されたドイツ語LLMファミリー

Another large-scale language model! Meet IGEL a German LLM family tailored for instructions.

IGELはテキストのための指示に調整されたドイツの大規模言語モデルです。 IGELバージョン001(Instruct-igel-001)は、既存のオープンソースモデルとドイツ語に翻訳された指示データセットの組み合わせからドイツ語の指示に調整されたモデルを構築することが可能かどうかを判断するために使用するための基本的なコンセプトの証明です。

IGELの最初のバージョンは、Malte Ostendorffによってドイツ語にローカライズされたBigScience BLOOMに基づいています。 IGELは、感情分析、言語翻訳、質問応答など、自然言語理解に関連するさまざまなタスクを高い精度と信頼性で実行するように設計されています。

チームは、LLMsがドイツ語の指示ベースのモデリングタスクをどれだけうまく実行するかを実験したかった。これを達成するために、予め学習されたカスタマイズされたBLOOMモデル(6B)を使用し、翻訳された指示に基づいたデータセットを用いてファインチューニングしました。データセットを構築するために、英語の指示をドイツ語に自動翻訳する手法が使用されました。この戦略により翻訳エラーが発生する可能性が高くなりましたが、彼らの目標は、モデルが依然として指示的な応答を生成することを学ぶことができるかどうかを判断することでした。

Instruct-igel-001には、Hugging Face Transformersで使用するために結合されたウェイトを持つLoRAに調整されたBLOOM-CLP Deutsch(6.4Bパラメータ)が含まれています。instruct-igel-001が単純な翻訳された指示データセットでトレーニングされる前に、データのクリーニング、フィルタリング、および後処理にはほとんど注意が払われません。

チームは、幻覚、有害性、およびステレオタイプ化がinstruct-igel-001にあると述べており、これらはすべて言語モデルに共通する問題です。彼らは、チャットモデルを開発し、会話インターフェースを作成することで、データの品質を伝統的な要求と応答の方法を超えて向上させる予定です。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

LLM幻覚を軽減する方法

AIの幻覚は、訓練データの欠陥と過度の複雑さから生じます幻覚を減らすための研究に基づく戦略を発見しましょう

人工知能

ミストラルAIは、パワフルなスパースな専門家の

人工知能の進展に向けて、革新的なオープンモデルを提供するパイオニアであるMistral AIが、Mixtral 8x7Bを発表しました。こ...

データサイエンス

エッジコンピューティングにおけるAI:リアルタイムを向上させるアルゴリズムの実装

エッジコンピューティングは、IoTデバイス、センサー、ネットワークスイッチなどのデータソースの近くに計算を配置する革新的...

人工知能

ChatGPTで説得力を高めましょう

このChatGPTのプロンプトを使って、Robert Cialdiniの書籍「Influence」で説明されている強力な心理学の原理を直接ビジネスに...

AIテクノロジー

「FinTech API管理におけるAIの力を解き放つ:製品マネージャーのための包括的なガイド」

この包括的なガイドでは、AIが金融技術のAPI管理に果たす変革的な役割を探求し、各セクションごとに実世界の例を提供していま...

AI研究

「ビジョン・トランスフォーマーの内部機能」

ビジョン・トランスフォーマー(ViTs)の内部動作を視覚化する際、研究者たちはランダムな背景パッチに注目の奇妙なスパイク...