トランスフォーマーにおける対比的探索を用いた人間レベルのテキスト生成 🤗

人間レベルのテキスト生成における対比的探索のトランスフォーマー 🤗


1. 紹介:

自然言語生成(テキスト生成)は自然言語処理(NLP)の中核的なタスクの一つです。このブログでは、現在の最先端のデコーディング手法であるコントラスティブサーチを神経テキスト生成のために紹介します。コントラスティブサーチは、元々「A Contrastive Framework for Neural Text Generation」[1]([論文] [公式実装])でNeurIPS 2022で提案されました。さらに、この続編の「Contrastive Search Is What You Need For Neural Text Generation」[2]([論文] [公式実装])では、コントラスティブサーチがオフザシェルフの言語モデルを使用して16の言語で人間レベルのテキストを生成できることが示されています。

[備考] テキスト生成に馴染みのないユーザーは、このブログ記事を詳しくご覧ください。


コントラスティブサーチは、🤗のtransformers上で使用可能です。PyTorchとTensorFlowの両方で使用することができます。このブログ記事で示されている例をお好きなフレームワークで対話的に実行するためのColabノートブックへのリンクが上にあります。また、コントラスティブサーチを他の人気のあるデコーディング手法(例:ビームサーチ、トップ-kサンプリング[3]、ヌクレウスサンプリング[4])と直接比較する素晴らしいデモも作成しました。


3. 環境のインストール:

以下のセクションで実験を実行する前に、transformersの最新バージョンをインストールしてください。

pip install torch
pip install "transformers==4.24.0"

4. 既存のデコーディング手法の問題:

デコーディング手法は、(i)決定論的な手法と(ii)確率的な手法の2つのカテゴリに分けることができます。両方について議論しましょう!

4.1. 決定論的な手法:

決定論的な手法(例:貪欲探索、ビームサーチ)は、言語モデルによって最も尤度が高いテキストの継続部分を選択してテキストを生成します。しかし、[3] [4]の前の研究で広く議論されているように、決定論的な手法はしばしばモデルの退化という問題を引き起こし、生成されるテキストが不自然で望ましくない繰り返しを含むことがあります。

以下に、GPT-2モデルを使用した貪欲探索によって生成されたテキストの例を見てみましょう。

from transformers import AutoTokenizer, GPT2LMHeadModel

tokenizer = AutoTokenizer.from_pretrained('gpt2-large')
input_ids = tokenizer('DeepMind Company is', return_tensors='pt').input_ids
model = GPT2LMHeadModel.from_pretrained('gpt2-large')

output = model.generate(input_ids, max_length=128)
print("Output:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力:

Output:
----------------------------------------------------------------------------------------------------
DeepMind社は、深層学習と深層学習ベースのシステムに焦点を当てたAI研究のリーディングカンパニーです。

同社の研究は、大量のデータから学習し、実世界の問題を解決するために使用できる深層学習ベースのシステムの開発に焦点を当てています。

DeepMindの研究は、英国政府によって英国国民保健サービス(NHS)のための新しい技術を開発するためにも使用されています。

DeepMindの研究は、英国政府によって英国国民保健サービス(NHS)のための新しい技術を開発するためにも使用されています。

DeepMindの研究は、英国政府によって新しい技術を開発するためにも使用されています。
----------------------------------------------------------------------------------------------------

[備考] 貪欲探索によって生成された結果から、明らかな繰り返しのパターンが見られます。

4.2. 確率的な手法:

決定論的な手法が引き起こす問題に対処するために、確率的な手法はデコーディングプロセス中にランダム性を導入してテキストを生成します。広く使用されている確率的な手法は(i)トップ-kサンプリング[3]と(ii)ヌクレウスサンプリング(またはトップ-pサンプリング)[4]です。

以下に、GPT-2モデルを使用したヌクレウスサンプリング(p=0.95)によって生成されたテキストの例を示します。

import torch
from transformers import AutoTokenizer, GPT2LMHeadModel

tokenizer = AutoTokenizer.from_pretrained('gpt2-large')
input_ids = tokenizer('DeepMind Company is', return_tensors='pt').input_ids
model = GPT2LMHeadModel.from_pretrained('gpt2-large')

torch.manual_seed(0.)
output = model.generate(input_ids, do_sample=True, max_length=128, top_p=0.95, top_k=0)
print("出力:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力:

出力:
----------------------------------------------------------------------------------------------------
DeepMind社は、セキュリティ、インフラストラクチャ、機械学習、通信など、AIソリューションのリサーチ、開発、提供を行うリーディングカンパニーです。

'AIはジャーナリズムではありません'

さらに悪いことに、その研究者たちが世界のメディアに伝えたかったメッセージは、それが実際には研究ではなく、生きた力の無知から利益を得るための急速な富のためのスキームであるということでした。

「問題は、人々が他の人々の情報の価値を意識的に評価しないことを知っているということです。彼らは自分自身で同じ情報を得ることを理解しています」

一つの例?今日の詳細を与えられたら
----------------------------------------------------------------------------------------------------

[備考] ヌクレウスサンプリングは繰り返しのないテキストを生成することができますが、生成されたテキストの意味的な一貫性は十分に保たれていません。例えば、「AIはジャーナリズムではありません」というフレーズは、「DeepMind社」という与えられた接頭辞に対して一貫性がないです。

この意味的な不整合問題は、温度を下げることで部分的に解決することができます。しかし、温度を下げることは、ヌクレウスサンプリングをグリーディサーチに近づけることを意味し、グリーディサーチとヌクレウスサンプリングの間のトレードオフと見なすことができます。一般的に、グリーディサーチとヌクレウスサンプリングの両方の欠点を避けるための適切な温度を見つけることは困難です。


このセクションでは、詳細について新しいデコーディング手法「コントラスティブサーチ」を紹介します。

5.1. デコーディング目的:

接頭辞テキスト x < t x_{< t} x < t ​ が与えられた場合、出力トークン x t x_{t} x t ​ の選択は次のようになります

ここで、V ( k ) V^{(k)} V ( k ) は言語モデルの確率分布 p θ ( v ∣ x < t ) p_{\theta}(v|x_{< t}) p θ ​ ( v ∣ x < t ​ ) からの上位 k 個の予測の集合です。第一項であるモデルの信頼度は、言語モデルが予測した候補 v v v の確率です。第二項である退化ペナルティは、候補 v v v が前のコンテキスト x < t x_{< t} x < t ​ と関連しているかどうかを測定し、関数 s ( ⋅ , ⋅ ) s(\cdot, \cdot) s ( ⋅ , ⋅ ) はトークンの表現間のコサイン類似度を計算します。具体的には、退化ペナルティは、候補 v v v のトークン表現、つまり h v h_{v} h v ​ とコンテキスト x < t x_{< t} x < t ​ の全てのトークンの間の最大コサイン類似度です。ここで、候補の表現 h v h_{v} h v ​ は、x < t x_{< t} x < t ​ と v v v の連結を言語モデルに与えて計算されます。直感的には、v v v のより大きな退化ペナルティは、コンテキストに対して(表現空間で)より類似していることを意味し、したがってモデルの退化の問題につながる可能性が高いです。ハイパーパラメータ α \alpha α は、これらの2つの要素の重要性を調整します。α = 0 \alpha=0 α = 0 の場合、コントラスティブサーチは通常のグリーディサーチに退化します。

[備考] 出力を生成する際、コントラスティブサーチは(i)言語モデルによって予測される確率を考慮して生成されたテキストと接頭辞テキストの意味的な一貫性を維持し、(ii)前のコンテキストとの類似性を考慮してモデルの退化を避けます。

以下では、セクション4.1および4.2と同じ接頭辞テキスト(つまり、「DeepMind Company is」)を使用し、対比的な検索(k=4およびα=0.6)でテキストを生成します。対比的な検索の優れた能力を十分に示すために、言語モデルによって512トークンのいドキュメントを生成させます。

from transformers import GPT2Tokenizer, GPT2LMHeadModel

model_name = 'gpt2-large'
tokenizer = GPT2Tokenizer.from_pretrained(model_name)
model = GPT2LMHeadModel.from_pretrained(model_name, pad_token_id=tokenizer.eos_token_id)
model.eval()

# 接頭辞を準備する
prefix_text = r'DeepMind Company is'
input_ids = tokenizer(prefix_text, return_tensors='pt').input_ids

# 対比的な検索で結果を生成する
output = model.generate(input_ids, penalty_alpha=0.6, top_k=4, max_length=512)
print("Output:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

引数は次のとおりです:

  • --top_k:対比的な検索のハイパーパラメータk。
  • --penalty_alpha:対比的な検索のハイパーパラメータα。

モデルの出力:

Output:
----------------------------------------------------------------------------------------------------
DeepMind Company is a leader in artificial intelligence (AI). We have a long history of working
with companies such as Google, Facebook, Amazon, and Microsoft to build products that improve
people's lives, and today we are excited to announce that DeepMind's AlphaGo program has won the
game of Go, becoming the first program to defeat a professional Go player.

The victory is a testament to the power of deep learning, and to the incredible work of our
research team, which has been at the forefront of AI research for the past five years. AlphaGo
is one of the most advanced Go programs ever created, and its performance is an important step
towards the goal of human-level AI.

"This is the culmination of a decade of hard work," said Andy Ng, co-founder and CTO of DeepMind.
"We are thrilled to have achieved this milestone and look forward to continuing to develop AI that
can be used in a wide range of applications and to help people live better lives."

DeepMind's work on Go began in 2010, when it began to train a neural network to play Go using
millions of games played by top Go players around the world. Since then, the team has refined the
algorithm, adding more and more layers of reinforcement learning to make it better at recognizing
patterns and making decisions based on those patterns. In the past year and a half, the team has
made significant progress in the game, winning a record-tying 13 games in a row to move into the
top four of the world rankings.

"The game of Go is a complex game in which players have to be very careful not to overextend their
territory, and this is something that we have been able to improve over and over again," said
Dr. Demis Hassabis, co-founder and Chief Scientific Officer of DeepMind. "We are very proud of our
team's work, and we hope that it will inspire others to take the next step in their research and
apply the same techniques to other problems."

In addition to the win in Go, DeepMind has also developed an AI system that can learn to play a
number of different games, including poker, Go, and chess. This AI system, called Tarsier, was
developed in partnership with Carnegie Mellon University and the University of California,
Berkeley, and is being used to teach computer vision and machine learning to identify objects in
images and recognize speech in natural language. Tarsier has been trained to play the game of Go
and other games on a
----------------------------------------------------------------------------------------------------

[備考]生成されたテキストの品質は非常に高いです。文法的にも意味的にも優れた一貫性を持っています。また、生成されたテキストは事実の正確性も保っています。たとえば、最初の段落では、「AlphaGo」を「プロの囲碁プレーヤーに勝利した最初のプログラム」として詳しく説明しています。

対比的な検索の仕組みをより理解するために、貪欲検索(セクション4.1)と対比的な検索のビジュアル比較を提供します。具体的には、貪欲検索と対比的な検索から生成されたテキストのトークン類似度行列をそれぞれ可視化します。2つのトークン間の類似度は、そのトークン表現(つまり、最後のトランスフォーマーレイヤーの隠れ状態)のコサイン類似度として定義されます。貪欲検索(上)と対比的な検索(下)の結果は、以下の図に示されています。

[備考] 貪欲探索の結果からは、オフ対角線のエントリーで高い類似度スコアが見られ、これは貪欲探索によって生成された繰り返しが明確に示されています。一方、対照的な探索の結果では、高い類似度スコアは主に対角線のエントリーに現れるため、退化問題が成功裏に解決されていることが確認されます。この対照的な探索の素晴らしい特性は、デコーディングプロセス中の退化ペナルティ(セクション5.1を参照)の導入によって実現されています。


6. さらなる生成例:

このセクションでは、異なるデコーディング方法を比較するために、さらなる生成例を提供します。

6.1. 例1 – GPT-2:

この部分では、GPT-2を使用して、GPT-2のリリースを発表した元のOpenAIブログのプレフィックステキストからテキストを生成します。

衝撃の発見により、科学者たちはアンデス山脈の遠隔地で以前未踏の谷に住む一群のユニコーンを発見しました。研究者にとってさらに驚くべきことは、ユニコーンたちが完璧な英語を話すことでした。

言語モデルをロードし、プレフィックステキストを準備する:

import torch
from transformers import AutoTokenizer, GPT2LMHeadModel

tokenizer = AutoTokenizer.from_pretrained('gpt2-large')
model = GPT2LMHeadModel.from_pretrained('gpt2-large')

prefix_text = r"衝撃の発見により、科学者たちはアンデス山脈の遠隔地で以前未踏の谷に住む一群のユニコーンを発見しました。研究者にとってさらに驚くべきことは、ユニコーンたちが完璧な英語を話すことでした。"
input_ids = tokenizer(prefix_text, return_tensors='pt').input_ids

コード:[クリックして展開]

output = model.generate(input_ids, max_length=512)
print("出力:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力:[クリックして展開]

出力:
----------------------------------------------------------------------------------------------------
衝撃の発見により、科学者たちはアンデス山脈の遠隔地で以前未踏の谷に住む一群のユニコーンを発見しました。研究者にとってさらに驚くべきことは、ユニコーンたちが完璧な英語を話すことでした。

カリフォルニア大学サンタクルーズ校のデビッド・R・ウィリアムズ博士率いる研究者たちは、ペルーのアンデス山脈でユニコーンを発見しました。この地域はその独特な地質で知られており、いくつかの珍しい動物の種が生息しています。

研究者たちはペルーのアンデス山脈でユニコーンを発見しました。

ウィリアムズ博士は「ユニコーン同士がコミュニケーションを取ることができることに驚きました。さらに驚いたことは、彼らが英語でコミュニケーションを取ることができることです。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した人々でもありました。」と述べています。

研究者たちは、ユニコーンが約2,000年前にこの地域に住んでいた古代のインカ帝国の子孫であると考えています。

ウィリアムズ博士は「インカ帝国の人々がアンデス山脈を過酷な気候からの避難所として使用した最初の人々でした。彼らはまた、アンデス山脈を狩猟と食料採集の場所として最初に使用した
6.1.2. ヌクレウスサンプリングを用いたテキスト生成:

コード: [クリックして展開]

torch.manual_seed(0.)
output = model.generate(input_ids, do_sample=True, max_length=512, top_p=0.95, top_k=0)
print("出力:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力: [クリックして展開]

出力:
----------------------------------------------------------------------------------------------------
驚くべき発見として、科学者はアンデス山脈の遠く、以前未開拓の渓谷に住む一群のユニコーンを発見しました。研究者にとってさらに驚きだったのは、ユニコーンが完璧な英語を話すことでした。この研究は2016年3月に発表された動物学のジャーナルで公開されました。

ユニコーンのような多妻性の哺乳類は科学においてほとんど知られていませんでした。この研究を率いたオックスフォード大学のグスタボ・ジャコタ教授は、これらの動物はロシアの東シベリアまで文献に記録されていましたが、ゴビ砂漠ではごくわずかしか目撃されていなかったと述べました。

薄くて光沢のある毛皮を持つ小さな動物たちは人間の存在の中で生活しており、残虐行為の被害にあう可能性はほとんどありません。ただし、皮膚上に共存する「黒いモールス」に似た状態が、遠隔地域の人間や動物にも見られるという証拠があります。

ユニコーンは自らの内部に存在している可能性があると考えられており、現在の環境に応じて異なる香りを持っていたり、ただ落ちていたりするかもしれません。モスや他の動物がイエジディ・イシスやカロンの残留物である可能性があり、イエジディ・イシスとカロンは、大いなる鳥を意味する言葉と声の使い方を若い子供たちに教えたというギリシャ語の言葉です。

科学者たちは、これが生き残っている古代の民間伝承であり、実在の存在にはもはや関連していないと考えています。
----------------------------------------------------------------------------------------------------
6.1.3. コントラスティブサーチを用いたテキスト生成:

コード:

output = model.generate(input_ids, max_length=512, penalty_alpha=0.6, top_k=4)
print("出力:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力:

出力:
----------------------------------------------------------------------------------------------------
驚くべき発見として、科学者はアンデス山脈の遠く、以前未開拓の渓谷に住む一群のユニコーンを発見しました。研究者にとってさらに驚きだったのは、ユニコーンが完璧な英語を話すことでした。

英国放送協会(BBC)によると、ブリストル大学のデビッド・マッケイ博士率いるチームが、その地域の調査中にユニコーンの群れを発見したとのことです。

マッケイ博士はBBCに対して、「これは非常に珍しい発見です」と語りました。「ヒマラヤにも少数は存在しますが、これほど遠隔地で発見できたのは初めてです。」

チームは、ユニコーンの群れが密猟の温床であると知って驚いたそうです。その角は、伝統的な中国の医学で風邪から癌まで様々な病気を治療するために使われています。

「その地域にはサイの角が豊富にあることは知っていましたが、その数や彼らが何をしているのかについては全くわかりませんでした」とマッケイ博士は語りました。「これは密猟の圧力の高い地域であり、何が起こっているのかを調査したかったのです。」

そのため、チームはGPSカラーを使用して山や周辺地域を移動する動物たちの位置を追跡しました。GPSデータは、地元の村人から収集された情報と比較されました。村人たちは、動物たちの移動先、夜に何をしているか、毎日山で過ごす時間など、動物の動きに関する豊富な情報を持っていました。

データの分析の結果、チームは、ユニコーンの群れが少なくとも3種類のユニコーン、オスとメスの2頭の子供を含んでいることを突き止めました。1頭のメスはオスの母親であり、残りの2頭は彼女の娘です。3頭のユニコーンはすべて同じ角の色を持っており、これは動物界における純粋さの象徴とされています。

この発見は興奮していますが、英語を話す動物を科学者が発見したのは初めてではありません。昨年、人間に聞こえることができ、人間と会話する能力を持つヤマアラシの一種が発見され、「ポーキュパインマン」と名付けられました。
----------------------------------------------------------------------------------------------------

6.2. 例2 - OPT:

この部分では、最近MetaによってリリースされたOPTモデル[5]を使用して、著名なResNet論文[6]の要約から最初の2つの文を取り出してテキストを生成します。

より深いニューラルネットワークは訓練が難しいです。我々は以前に使用されたものよりもはるかに深いネットワークを訓練しやすくするための残差学習フレームワークを提案します。

言語モデルを読み込み、プレフィックステキストを準備します:

import torch
from transformers import AutoTokenizer, OPTForCausalLM
model_name = r'facebook/opt-1.3b'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = OPTForCausalLM.from_pretrained(model_name)

prefix_text = r"より深いニューラルネットワークは訓練が難しいです。我々は以前に使用されたものよりもはるかに深いネットワークを訓練しやすくするための残差学習フレームワークを提案します。"
input_ids = tokenizer(prefix_text, return_tensors='pt').input_ids
6.2.1. 貪欲探索によるテキスト生成:

コード:[展開するにはクリックしてください]

output = model.generate(input_ids, max_length=256)
print("出力:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力:[展開するにはクリックしてください]

出力:
----------------------------------------------------------------------------------------------------
より深いニューラルネットワークは訓練が難しいです。我々は以前に使用されたものよりもはるかに深いネットワークを訓練しやすくするための残差学習フレームワークを提案します。我々は、残差学習フレームワークを使用して、以前に使用されたものよりも訓練が難しい深いニューラルネットワークを訓練できることを示します。また、我々は、残差学習フレームワークを使用して、以前に使用されたものよりも訓練が難しい深いニューラルネットワークを訓練できることを示します。

この論文では、残差の概念に基づいた深層ニューラルネットワークの新しい残差学習フレームワークを提案しています。残差は、訓練プロセスで使用されないネットワークの残差です。残差は、訓練プロセスで使用されるネットワークの残差を取り、訓練プロセスで使用されないネットワークの残差を引いて計算されます。その後、残差を使用してネットワークを訓練します。残差は、訓練プロセスで使用されるネットワークの残差を取り、訓練プロセスで使用されないネットワークの残差を引いて計算されます。その後、残差を使用してネットワークを訓練します。残差は、訓練プロセスで使用されるネットワークの残差を取り、
----------------------------------------------------------------------------------------------------
6.2.2. ヌクレウスサンプリングによるテキスト生成:

コード:[展開するにはクリックしてください]

torch.manual_seed(0.)
output = model.generate(input_ids, do_sample=True, max_length=256, top_p=0.95, top_k=0)
print("出力:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力:[展開するにはクリックしてください]

出力:
----------------------------------------------------------------------------------------------------
より深いニューラルネットワークは訓練が難しいです。我々は以前に使用されたものよりもはるかに深いネットワークを訓練しやすくするための残差学習フレームワークを提案します。この理論は、学習の複製的および非複製的な側面を含む学習のいくつかの側面に焦点を当てています。このフレームワークはエントロピーによる学習を強調しています。新しいランダム化されたアルゴリズムにより、残差学習を用いたネットワークの訓練が可能になり、より従来の対応物と同様に信頼性と効率性を持つディープネットワークを展開できます。
----------------------------------------------------------------------------------------------------
6.2.3. コントラスティブサーチによるテキスト生成:

コード:

output = model.generate(input_ids, max_length=256, penalty_alpha=0.6, top_k=6)
print("出力:\n" + 100 * '-')
print(tokenizer.decode(output[0], skip_special_tokens=True))
print("" + 100 * '-')

モデルの出力:

出力:
----------------------------------------------------------------------------------------------------
より深いニューラルネットワークは訓練が難しいです。我々は以前に使用されたものよりもはるかに深いネットワークを訓練しやすくするための残差学習フレームワークを提案します。

本論文では、次元数が希薄なデータ(例:1、2、3など)に基づいて訓練されたニューラルネットワークに基づくモデルベースの残差学習(MBRL)フレームワークを提案します。ネットワークパラメータは、収束の高い確率があるように選択されます。つまり、イテレーションの回数が十分に大きく、残差の分散を最小化するためです。これは、次元数が希薄な訓練データセットでネットワークを訓練し、訓練が完了した後に非パラメトリックなデータの一部を破棄することで実現されます。

我々は、MBRLが深層強化学習(RL)および深層畳み込みニューラルネットワーク(CNN)に比べて少なくとも2倍の性能を発揮することを示します。さらに、2次元(2D)および3次元(3D)の場合において、CNNと比較してMBRLの性能が優れていることを示します。
----------------------------------------------------------------------------------------------------

7. リソース:

対照的な検索の詳細については、私たちの論文とコードをご確認ください。

  • ニューラルテキスト生成のための対照的なフレームワーク : (1) 論文と (2) 公式実装。
  • ニューラルテキスト生成には対照的な検索が必要です :
    1. 論文と (2) 公式実装。

8. 引用:

@inproceedings{su2022a,
   title={ニューラルテキスト生成のための対照的なフレームワーク},
   author={蘇一軒 and 蘭天 and 王岩 and ダニ・ヨガタマ and 孔令鵬 and ナイジェル・コリアー},
   booktitle={Advances in Neural Information Processing Systems},
   editor={Alice H. Oh and Alekh Agarwal and Danielle Belgrave and Kyunghyun Cho},
   year={2022},
   url={https://openreview.net/forum?id=V88BafmH9Pj}
}

@article{su2022contrastiveiswhatyouneed,
  title={ニューラルテキスト生成には対照的な検索が必要です},
  author={蘇一軒 and コリアー・ナイジェル},
  journal={arXiv preprint arXiv:2210.14140},
  year={2022}
}

参考文献:

[1] 蘇ら、2022「ニューラルテキスト生成のための対照的なフレームワーク」、NeurIPS 2022

[2] 蘇とコリアー、2022「ニューラルテキスト生成には対照的な検索が必要です」、Arxiv 2022

[3] Fanら、2018「階層的なニューラルストーリー生成」、ACL 2018

[4] Holtzmanら、2020「ニューラルテキスト退化の興味深い事例」、ICLR 2020

[5] Zhangら、2022「OPT: オープンプリトレーニング済みトランスフォーマーランゲージモデル」、Arxiv 2022

[6] Heら、2016「画像認識のための深層残差学習」、CVPR 2016


- 蘇一軒と蘭天による執筆


謝辞:

このブログ記事に対照的な検索をtransformers ライブラリに追加するための助けと指導をしてくれたジョアン・ガンテ(@joaogante)、パトリック・フォン・プラテン(@patrickvonplaten)、シルヴァン・ガガー(@sgugger)に感謝いたします。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「ElaiのCEO&共同創業者、Vitalii Romanchenkoについてのインタビューシリーズ」

ヴィタリー・ロマンチェンコは、ElaiのCEO兼共同創設者であり、マイク、カメラ、俳優、スタジオの必要なく、個人が一流のビデ...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...

人工知能

ベイリー・カクスマー、ウォータールー大学の博士課程候補 - インタビューシリーズ

カツマー・ベイリーは、ウォータールー大学のコンピュータ科学学部の博士課程の候補者であり、アルバータ大学の新入教員です...

データサイエンス

アステラソフトウェアのCOO、ジェイ・ミシュラ - インタビューシリーズ

ジェイ・ミシュラは、急速に成長しているエンタープライズ向けデータソリューションの提供企業であるAstera Softwareの最高執...

データサイエンス

「2023年にデータサイエンスFAANGの仕事をゲットする方法は?」

データサイエンスは非常に求められる分野となり、FAANG(Facebook、Amazon、Apple、Netflix、Google)企業での就職は大きな成...

人工知能

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であ...