言語モデルの構築:ステップバイステップのBERTの実装ガイド

言語モデルの構築:BERTの実装ガイド

イントロダクション

言語処理を行う機械学習モデルの進歩は、ここ数年で急速に進んでいます。この進歩は、研究室を出て、いくつかの主要なデジタル製品の動力となり始めています。良い例として、BERTモデルがGoogle検索の重要な要素となったことが発表されたことがあります。Googleは、この進化(自然言語理解の進歩が検索に応用されること)は、「過去5年間で最大の進歩であり、検索の歴史上でも最大の進歩の1つ」と考えています。では、BERTとは何かについて理解しましょう。

BERTは、Bidirectional Encoder Representations from Transformersの略です。その設計では、未ラベルのテキストから左右の文脈の両方に依存して事前学習された深層双方向表現を作成します。我々は、追加の出力層を追加するだけで、事前学習されたBERTモデルを異なるNLPタスクに適用することができます。

学習目標

  • BERTのアーキテクチャとコンポーネントを理解する。
  • BERTの入力に必要な前処理ステップと、異なる入力シーケンスの長さを扱う方法を学ぶ。
  • TensorFlowやPyTorchなどの人気のある機械学習フレームワークを使用してBERTを実装するための実践的な知識を得る。
  • テキスト分類や固有表現認識などの特定の下流タスクにBERTを微調整する方法を学ぶ。

次に、「なぜそれが必要なのか?」という別の質問が出てきます。それを説明しましょう。

この記事は、データサイエンスブログマラソンの一環として公開されました。

なぜBERTが必要なのか?

適切な言語表現とは、機械が一般的な言語を理解する能力です。word2VecやGloveのような文脈非依存モデルは、語彙中の各単語に対して単一の単語埋め込み表現を生成します。例えば、”crane”という用語は、”crane in the sky”や”crane to lift heavy objects”といった文脈で厳密に同じ表現を持ちます。文脈モデルは、文内の他の単語に基づいて各単語を表現します。つまり、BERTはこれらの関係を双方向に捉える文脈モデルです。

BERTは、Semi-supervised Sequence Learning、Generative Pre-Training、ELMo、OpenAI Transformer、ULMFit、Transformerなどの事前学習された文脈表現の最近の研究と巧妙なアイデアに基づいています。これらのモデルはすべて単方向または浅く双方向ですが、BERTは完全に双方向です。

私たちは、特定の目的(感情分析や質問応答など)でデータ上でBERTモデルを訓練し、高度な予測を提供することもできますし、テキストデータから高品質な言語特徴を抽出するためにも使用することができます。次に思い浮かぶ疑問は、「それの背後に何が起こっているのか?」です。それを理解するために進みましょう。

それの根本的なアイデアとは何か?

最初にアイデアを理解するために、言語モデリングといういくつかの事柄について知る必要があります。

  • 言語モデリングとは何か?
  • 言語モデルが解決しようとしている問題は何か?

これを理解するために、文脈に基づいてブランクを埋めるという例を取りましょう。

言語モデル(単方向アプローチ)は、この文を次のように補完します。

  • cart
  • pair

大多数の回答者(80%)はpairを選びますが、20%はcartを選びます。どちらが適切なのでしょうか?さまざまなテクニックを使用して、空白を埋めるための適切な単語を選択します。

ここでBERTが登場します。双方向に訓練された言語モデルです。つまり、単方向の言語モデルよりも深い言語コンテキストを持っています。

さらに、BERTはLSTMではなくTransformerモデルアーキテクチャに基づいています。

BERTのアーキテクチャ

BERT(Bidirectional Encoder Representations from Transformers)は、トランスフォーマーベースの言語モデルアーキテクチャです。複数層の自己注意と順伝播型ニューラルネットワークから構成されています。BERTは、文の前後の単語から文脈情報を捉えるために双方向アプローチを使用します。モデルアーキテクチャのスケールに応じて、事前学習されたBERTの4つのタイプがあります:

1) BERT-Base(Cased / Un-Cased):12層、768ノード、12アテンションヘッド、110Mのパラメータ

2) BERT-Large(Cased / Un-Cased):24層、1024隠れノード、16アテンションヘッド、340Mパラメータ

必要に応じて、BERTの事前学習済みの重みを選択できます。例えば、Google TPUにアクセスできない場合は、ベースモデルを選択します。また、「cased」vs.「uncased」の選択は、対象のタスクにおいて文字の大文字/小文字が役立つかどうかに依存します。それでは、詳しく見ていきましょう。

動作原理

BERTは、非監督学習の事前トレーニングを活用し、その後に監督学習のファインチューニングを行うことで機能します。このセクションでは、テキストの前処理と事前トレーニングタスクの2つの領域に分けて説明します。

テキストの前処理

基本的なTransformerは、テキストの入力を読み取るエンコーダとタスクの予測を生成するデコーダから構成されます。BERTでは、言語表現モデルを作成することが目的であるため、BERTのエンコーダのみが必要です。BERTエンコーダへの入力は、最初にトークンに変換されたベクトルのストリームです。その後、ニューラルネットワークがこれらを処理します。

まず、各入力埋め込みは次の3つの埋め込みを組み合わせて作成されます:

トークン、セグメント、および位置の埋め込みは、BERTの入力表現を形成するために合計されます。

  • トークン埋め込み: 最初の文の開始時には、[CLS]トークンが入力単語トークンに追加され、各文の後には[SEP]トークンが追加されます。
  • セグメントの埋め込み: 各トークンには、文Aまたは文Bを示すマーキングが付けられます。これにより、エンコーダはどの文がどの文であるかを判断できます。
  • 位置の埋め込み: 各トークンには、文中での位置を示す位置埋め込みが与えられます。

事前トレーニングタスク

BERTは、すでに2つのNLPタスクを完了しています:

1. マスクされた言語のモデリング

単語の連鎖から次の単語を予測するのが言語モデリングの仕事です。マスクされた言語モデリングでは、一部の入力トークンがランダムにマスクされ、その後のトークンではなく、マスクされたトークンのみが予測されます。

  • トークン[MASK]: このトークンは別のトークンが欠落していることを示します。
  • [MASK]トークンは常にマスクされた単語を置き換えるために使用されるわけではありません。なぜなら、その場合、マスクされたトークンはファインチューニングの前に表示されないからです。したがって、トークンの15%に対してランダムな選択が行われます。さらに、マスキングの対象となるトークンの15%のうち:

2. 次の文予測

次の文予測タスクでは、ペアの2番目の文が本当に最初の文に続くかどうかを評価します。バイナリ分類問題が存在します。

この作業を単一言語のコーパスから構築することは簡単です。2つの文の関連性を認識することは、質問応答や自然言語推論などのさまざまな下流タスクに必要です。

BERTの実装

BERT(Bidirectional Encoder Representations from Transformers)の実装には、事前トレーニング済みのBERTモデルを利用し、特定のタスクに対してファインチューニングする必要があります。これには、テキストデータのトークン化、シーケンスのエンコード、モデルアーキテクチャの定義、モデルのトレーニング、およびパフォーマンスの評価が含まれます。BERTの実装は、テキスト分類や感情分析などの重要な自然言語処理タスクを可能にする強力な言語モデリング機能を提供します。BERTを実装するための手順の一覧は次のとおりです:

  • 必要なライブラリとデータセットのインポート
  • データセットをトレーニング/テストに分割
  • BERT – base-uncasedをインポート
  • シーケンスのトークン化とエンコード
  • リストをテンソルに変換
  • データローダー
  • モデルアーキテクチャ
  • ファインチューニング
  • 予測の作成

まず、問題の設定から始めましょう。

問題設定

目的は、SMSメッセージをスパムまたは非スパムとして分類できるシステムを作成することです。このシステムは、スパムメッセージを正確に識別し、フィルタリングすることにより、ユーザーエクスペリエンスを向上させ、潜在的なセキュリティの脅威を防ぎます。このタスクでは、スパムと正当なテキストを区別するモデルを開発し、望ましくないメッセージに対する迅速な検出と対応を可能にすることが求められます。

問題としていくつかのSMSメッセージがあります。これらのメッセージの大部分は正当なものですが、一部はスパムです。私たちの目標は、テキストがスパムかどうかを即座に判断できるシステムを作成することです。データセットリンク:()

必要なライブラリとデータセットのインポート

必要なライブラリとタスクのためのデータセットをインポートします。必要な依存関係を読み込み、データセットをさらなる処理と分析のために利用できるように環境を準備します。

import numpy as np
import pandas as pd
import torch
import torch.nn as nn
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report
import transformers
from transformers import AutoModel, BertTokenizerFast

# GPUを指定します
device = torch.device("cuda")

df = pd.read_csv("../input/spamdatatest/spamdata_v2.csv")
df.head()

データセットは「label」と「text」の2つの列から構成されています。「text」の列にはメッセージ本文が含まれ、「label」は1がスパムを表し、0はスパムでないメッセージを表します。

# クラスの分布をチェックします
df['label'].value_counts(normalize = True)

データセットをトレイン/テストに分割する

トレイン用のデータセットをトレイン、バリデーション、テストセットに分割します。

scikit-learnのtrain_test_split関数などのライブラリを使用して、与えられたパラメータに基づいてデータセットを3つのパートに分割します。

train_text、val_text、test_textという結果のセットは、各々のラベル(train_labels、val_labels、test_labels)と共に提供されます。これらのセットは、機械学習モデルのトレーニング、バリデーション、テストに利用することができます。

仮想データ上でモデルのパフォーマンスを評価することで、モデルを評価し、過学習を適切に回避することが可能です。

# トレインデータセットをトレイン、バリデーション、テストセットに分割します
train_text、temp_text、train_labels、temp_labels = train_test_split(df['text'], df['label'], 
                                                                    random_state=2018, 
                                                                    test_size=0.3, 
                                                                    stratify=df['label'])


val_text、test_text、val_labels、test_labels = train_test_split(temp_text, temp_labels, 
                                                                random_state=2018, 
                                                                test_size=0.5, 
                                                                stratify=temp_labels)

BERT-Base-Uncasedをインポートする

AutoModel.from_pretrained()関数を使用して、BERT-Baseの事前学習済みモデルをインポートします。これにより、ユーザーはBERTアーキテクチャとその事前学習済みの重みにアクセスして、強力な言語処理タスクを実行することができます。

BertTokenizerFast.from_pretrained()関数を使用して、BERTトークナイザーも読み込まれます。トークナイザーは、入力テキストをBERTが理解できるトークンに変換する役割を担っています。’Bert-base-uncased’トークナイザーは、小文字のテキストを処理するために特に設計されており、’Bert-base-uncased’事前学習済みモデルに合わせています。

# BERT-Baseの事前学習済みモデルをインポートします
bert = AutoModel.from_pretrained('bert-base-uncased')

# BERTトークナイザーを読み込みます
tokenizer = BertTokenizerFast.from_pretrained('bert-base-uncased')

# トレインセットのすべてのメッセージの長さを取得します
seq_len = [len(i.split()) for i in train_text]

pd.Series(seq_len).hist(bins = 30)

シーケンスをトークナイズしてエンコードする

BERTはどのようにトークン化を実装していますか?

トークン化には、BERTはWordPieceを使用します。

言語のすべての個々の文字で語彙を初期化し、既存の単語の最も頻度の高い/可能性のある組み合わせで反復的に更新します。

一貫性を保つために、入力シーケンスの長さは512文字に制限されています。

訓練、検証、およびテストセットのシーケンスをトークン化してエンコードするために、BERTトークナイザを利用します。tokenizer.batch_encode_plus()関数を使用して、テキストシーケンスを数値トークンに変換します。

シーケンスの長さの統一性のために、各セットには最大長25が設定されます。pad_to_max_length=Trueパラメータを設定すると、シーケンスは適切にパディングまたは切り詰められます。指定された最大長よりも長いシーケンスは、truncation=Trueパラメータが有効になっている場合に切り詰められます。

# 訓練セットのシーケンスをトークン化してエンコードする
tokens_train = tokenizer.batch_encode_plus(
    train_text.tolist(),
    max_length = 25,
    pad_to_max_length=True,
    truncation=True
)

# 検証セットのシーケンスをトークン化してエンコードする
tokens_val = tokenizer.batch_encode_plus(
    val_text.tolist(),
    max_length = 25,
    pad_to_max_length=True,
    truncation=True
)

# テストセットのシーケンスをトークン化してエンコードする
tokens_test = tokenizer.batch_encode_plus(
    test_text.tolist(),
    max_length = 25,
    pad_to_max_length=True,
    truncation=True
)

リストをテンソルに変換する

PyTorchを使用してトークン化されたシーケンスと対応するラベルをテンソルに変換します。 “torch.tensor()”関数は、トークン化されたシーケンスとラベルからテンソルを作成します。

各セット(訓練、検証、テスト)について、トークン化された入力シーケンスは “torch.tensor(tokens_train[‘input_ids’])” を使用してテンソルに変換されます。同様に、アテンションマスクは “torch.tensor(tokens_train[‘attention_mask’])” を使用してテンソルに変換されます。ラベルは “torch.tensor(train_labels.tolist())” を利用してテンソルに変換されます。

データをテンソルに変換することで、効率的な計算とPyTorchモデルとの互換性が可能となり、BERTや他のPyTorchエコシステムのモデルを使用したさらなる処理とトレーニングが可能になります。

リストをテンソルに変換する

train_seq = torch.tensor(tokens_train[‘input_ids’]) train_mask = torch.tensor(tokens_train[‘attention_mask’]) train_y = torch.tensor(train_labels.tolist())

val_seq = torch.tensor(tokens_val[‘input_ids’]) val_mask = torch.tensor(tokens_val[‘attention_mask’]) val_y = torch.tensor(val_labels.tolist())

test_seq = torch.tensor(tokens_test[‘input_ids’]) test_mask = torch.tensor(tokens_test[‘attention_mask’]) test_y = torch.tensor(test_labels.tolist())

データローダ

PyTorchのTensorDataset、DataLoader、RandomSampler、SequentialSamplerクラスを使用してデータローダを作成します。TensorDatasetクラスは、入力シーケンス、アテンションマスク、およびラベルを単一のデータセットオブジェクトにラップします。

トレーニングセットのランダムサンプリングにはRandomSamplerを使用して、トレーニング中に多様なデータ表現を確保します。逆に、検証セットではSequentialSamplerを使用してデータを順次テストします。

トレーニングと検証の間のデータの効率的なイテレーションとバッチ処理を容易にするために、DataLoaderを使用します。このツールにより、指定したバッチサイズでデータセット上のイテレータを作成し、プロセスを簡素化できます。

from torch.utils.data import TensorDataset, DataLoader, RandomSampler, SequentialSampler

# バッチサイズを定義する
batch_size = 32

# テンソルをラップする
train_data = TensorDataset(train_seq, train_mask, train_y)

# トレーニングセットのデータをサンプリングするためのサンプラー
train_sampler = RandomSampler(train_data)

# トレーニングセットのDataLoader
train_dataloader = DataLoader(train_data, sampler=train_sampler, batch_size=batch_size)

# テンソルをラップする
val_data = TensorDataset(val_seq, val_mask, val_y)

# 検証セットのデータをサンプリングするためのサンプラー
val_sampler = SequentialSampler(val_data)

# 検証セットのDataLoader
val_dataloader = DataLoader(val_data, sampler = val_sampler, batch_size=batch_size)

モデルアーキテクチャ

BERT_Archクラスはnn.Moduleクラスを拡張し、BERTモデルをパラメータとして初期化します。BERTモデルのパラメータを勾配を必要としないように設定すること(param.requires_grad = False)により、トレーニングプロセス中に追加されたレイヤーのパラメータのみがトレーニングされることを保証します。この技術により、事前学習済みのBERTモデルを転移学習に活用し、特定のタスクに適応させることができます。

# すべてのパラメータを凍結する
for param in bert.parameters():
    param.requires_grad = False

このアーキテクチャは、ドロップアウト層、ReLU活性化関数、2つの密な層(それぞれ768ユニットと512ユニット)、およびsoftmax活性化関数で構成されています。forwardメソッドは、文のIDとマスクを入力として受け取り、それらをBERTモデルを介して渡して分類トークン(cls_hs)から出力を取得し、定義された層と活性化関数を適用して最終的な分類確率を生成します。

class BERT_Arch(nn.Module):

    def __init__(self, bert):
        super(BERT_Arch, self).__init__()
        
        self.bert = bert 
        
        # ドロップアウト層
        self.dropout = nn.Dropout(0.1)
      
        # ReLU活性化関数
        self.relu =  nn.ReLU()

        # 密な層1
        self.fc1 = nn.Linear(768,512)
      
        # 密な層2(出力層)
        self.fc2 = nn.Linear(512,2)

        # softmax活性化関数
        self.softmax = nn.LogSoftmax(dim=1)

    # フォワードパスを定義する
    def forward(self, sent_id, mask):
        
        # モデルに入力を渡す
        _, cls_hs = self.bert(sent_id, attention_mask=mask, return_dict=False)
      
        x = self.fc1(cls_hs)

        x = self.relu(x)

        x = self.dropout(x)

        # 出力層
        x = self.fc2(x)
      
        # softmax活性化を適用する
        x = self.softmax(x)

        return x

BERTモデルを引数としてBERT_Archクラスのインスタンスを初期化するために、事前学習済みのBERTモデルを定義したアーキテクチャBERT_Archに渡します。これにより、BERTモデルがカスタムアーキテクチャのバックボーンとして確立されます。

GPUアクセラレーション

to()メソッドを呼び出してモデルをGPUに移動し、GPUアクセラレーションを利用するために必要なデバイス(device)を指定します。これにより、GPUの並列処理能力を利用して、トレーニングおよび推論中の計算を高速化することができます。

# 事前学習済みのBERTを定義したアーキテクチャに渡す
model = BERT_Arch(bert)

# モデルをGPUにプッシュする
model = model.to(device)

AdamWはHugging FaceのTransformersライブラリからインポートされる最適化手法です。AdamWは、重み減衰正則化を含むAdamオプティマイザーの一種です。

次に、モデルのパラメータ(model.parameters())と学習率(lr)1e-5をAdamWオプティマイザーのコンストラクタに渡して、オプティマイザーを定義します。このオプティマイザーは、トレーニング中にモデルのパラメータを更新し、タスクのパフォーマンスを最適化します。

# Hugging FaceのTransformersからAdamWをインポートする

# オプティマイザーを定義する optimizer = AdamW(model.parameters(),lr = 1e-5)

sklearn.utils.class_weightモジュールからcompute_class_weight関数を使用して、トレーニングラベルのクラスウェイトを計算します。

from sklearn.utils.class_weight import compute_class_weight

# クラスウェイトを計算する class_weights = compute_class_weight(‘balanced’, np.unique(train_labels), train_labels)

print(“Class Weights:”,class_weights)

クラスウェイトをテンソルに変換し、GPUに移動して、ウェイト付きのクラスウェイトで損失関数を定義します。トレーニングエポック数は10に設定されています。

# クラスウェイトのリストをテンソルに変換する
weights= torch.tensor(class_weights,dtype=torch.float)

# GPUにプッシュする
weights = weights.to(device)

# 損失関数を定義する
cross_entropy  = nn.NLLLoss(weight=weights) 

# トレーニングエポック数
epochs = 10

ファインチューニング

データのバッチごとに反復し、フォワードパスとバックワードパスを実行し、モデルのパラメータを更新し、トレーニングロスを計算するトレーニング関数です。この関数はまた、モデルの予測を保存し、平均ロスと予測を返します。

# モデルをトレーニングする関数
def train():
    
    model.train()
    total_loss, total_accuracy = 0, 0
  
    # モデルの予測を保存するための空のリスト
    total_preds=[]
  
    # バッチごとに反復する
    for step,batch in enumerate(train_dataloader):
        
        # 50バッチごとに進捗を更新する
        if step % 50 == 0 and not step == 0:
            print('  バッチ {:>5,}  /  {:>5,}.'.format(step, len(train_dataloader)))
        
        # バッチをGPUにプッシュする
        batch = [r.to(device) for r in batch]
 
        sent_id, mask, labels = batch
        
        # 以前に計算された勾配をクリアする
        model.zero_grad()        

        # 現在のバッチのモデルの予測を取得する
        preds = model(sent_id, mask)

        # 実際の値と予測値の間の損失を計算する
        loss = cross_entropy(preds, labels)

        # 総損失に加算する
        total_loss = total_loss + loss.item()

        # 勾配を計算するためのバックワードパス
        loss.backward()

        # 勾配を1.0にクリップする。これにより、勾配爆発の問題が防止されます
        torch.nn.utils.clip_grad_norm_(model.parameters(), 1.0)

        # パラメータを更新する
        optimizer.step()

        # モデルの予測はGPU上に保存されています。CPUにプッシュするため、detach().cpu().numpy()を使用します
        preds=preds.detach().cpu().numpy()

    # モデルの予測を追加する
    total_preds.append(preds)

    # エポックのトレーニングロスを計算する
    avg_loss = total_loss / len(train_dataloader)
  
      # 予測は(バッチ数、バッチのサイズ、クラス数)の形式です。
      # 予測を(サンプル数、クラス数)の形式に変形する
    total_preds  = np.concatenate(total_preds, axis=0)

    # ロスと予測を返す
    return avg_loss, total_preds

モデルを検証データ上で評価する評価関数です。検証損失を計算し、モデルの予測を保存し、平均損失と予測を返します。この関数は、torch.no_grad()を使用してドロップアウト層を非アクティブ化し、勾配計算を行わずに順方向パスを実行します。

# モデルを評価するための関数
def evaluate():
    
    print("\n評価中...")
  
    # ドロップアウト層を非アクティブ化
    model.eval()

    total_loss, total_accuracy = 0, 0
    
    # モデルの予測を保存するための空のリスト
    total_preds = []

    # バッチごとに繰り返す
    for step,batch in enumerate(val_dataloader):
        
        # 50バッチごとに進捗を表示する
        if step % 50 == 0 and not step == 0:
            
            # 経過時間を分単位で計算する
            elapsed = format_time(time.time() - t0)
            
            # 進捗を報告する
            print('  バッチ {:>5,}  /  {:>5,}.'.format(step, len(val_dataloader)))

        # バッチをGPUに送る
        batch = [t.to(device) for t in batch]

        sent_id, mask, labels = batch

        # 自動微分を非アクティブ化
        with torch.no_grad():
            
            # モデルの予測
            preds = model(sent_id, mask)

            # 実際の値と予測値の間の検証損失を計算する
            loss = cross_entropy(preds,labels)

            total_loss = total_loss + loss.item()

            preds = preds.detach().cpu().numpy()

            total_preds.append(preds)

    # エポックの検証損失を計算する
    avg_loss = total_loss / len(val_dataloader) 

    # 予測を (サンプル数、クラス数) の形に変形する
    total_preds  = np.concatenate(total_preds, axis=0)

    return avg_loss, total_preds

モデルのトレーニング

指定されたエポック数でモデルをトレーニングします。最良の検証損失を追跡し、現在の検証損失がより良い場合はモデルの重みを保存し、トレーニングと検証の損失をそれぞれのリストに追加します。各エポックのトレーニングと検証の損失が表示されます。

# 損失を無限大に設定する
best_valid_loss = float('inf')

# エポック数を定義する
epochs = 1

# 各エポックのトレーニングと検証の損失を保存するための空のリスト
train_losses=[]
valid_losses=[]

# 各エポックごとに繰り返す
for epoch in range(epochs):
     
    print('\n エポック {:} / {:}'.format(epoch + 1, epochs))
    
    # モデルをトレーニングする
    train_loss, _ = train()
    
    # モデルを評価する
    valid_loss, _ = evaluate()
    
    # 最良のモデルを保存する
    if valid_loss < best_valid_loss:
        best_valid_loss = valid_loss
        torch.save(model.state_dict(), 'saved_weights.pt')
    
    # トレーニングと検証の損失を追加する
    train_losses.append(train_loss)
    valid_losses.append(valid_loss)
    
    print(f'\nトレーニングの損失: {train_loss:.3f}')
    print(f'検証の損失: {valid_loss:.3f}')

torch.load()を使用して、保存されたファイル ‘saved_weights.pt’ から最良のモデルの重みをロードし、model.load_state_dict()を使用してモデルに設定します。

# ベストモデルの重みをロードする
path = ‘saved_weights.pt’
model.load_state_dict(torch.load(path))

予測を行う

トレーニングされたモデルを使用してテストデータ上で予測を行い、予測をNumPy配列に変換します。classification_report関数を使用して、適合率、再現率、F1スコアなどの分類メトリックを計算してモデルのパフォーマンスを評価します。

# テストデータの予測を取得する
with torch.no_grad():
    preds = model(test_seq.to(device), test_mask.to(device))
    preds = preds.detach().cpu().numpy()

# モデルのパフォーマンス
preds = np.argmax(preds, axis = 1)
print(classification_report(test_y, preds))

結論

まとめると、BERTは自然言語処理において機械学習を使用するための画期的な進歩です。アプローチ可能で高速なファインチューニングが可能であるという事実は、将来的に幅広い実用的な応用を可能にするでしょう。このステップバイステップのBERT実装チュートリアルにより、ユーザーは正確に理解し自然言語を生成できる強力な言語モデルを構築することができます。

BERTに関するいくつかの重要なポイントは以下の通りです:

  • BERTの成功: BERTは、深い文脈化表現を捉える能力により、自然言語処理の分野を革新し、さまざまなNLPタスクでの性能向上をもたらしました。
  • 誰にでもアクセス可能: このチュートリアルは、専門知識レベルに関係なく、BERTの実装を広範なユーザーにアクセス可能にすることを目指しています。ステップバイステップのガイドに従うことで、誰でもBERTの力を活用し、洗練された言語モデルを構築することができます。
  • 実世界の応用: BERTの柔軟性により、顧客の感情分析、チャットボット、推薦システムなど、さまざまな業界の実世界の問題に適用することができます。その実装は、ビジネスや研究者に具体的な利益と洞察をもたらすことができます。

よくある質問

この記事に表示されているメディアはAnalytics Vidhyaの所有ではなく、著者の裁量で使用されています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「Retrato:セルフィーをプロの写真に変える」

予算の関係でプロの写真撮影が難しい場合、非常に安価なオプションがありますそれが「Retrato」です

人工知能

「今日の市場においてAIパワードモバイルアプリが際立っているのは何か?」

AIはモバイルアプリを革命し、個人の経験を提供します最新技術を駆使したアプリ開発の利点、成功、そして将来を探求してください

機械学習

「トランスフォーマーの簡素化:理解できる単語を使った最先端の自然言語処理(NLP)-パート2- 入力」

ドラゴンは卵から孵り、赤ちゃんはおなかから飛び出し、AIに生成されたテキストは入力から始まります私たちはみんなどこかか...

AIニュース

新しい方法で生成AIが休日の贈り物を見つけるのに役立つ方法

「ホリデーショッパーは、自分自身や他の人への贈り物を見つけるために生成AIを利用することができます」(Horidē shoppā wa, ...

AI研究

この人工知能の研究は、トランスフォーマーベースの大規模言語モデルが外部メモリを追加して計算的に普遍的であることを確認しています

トランスフォーマーベースのモデル(GPT-2やGPT-3など)によって達成された驚くべき結果は、研究コミュニティを大規模な言語...

人工知能

「時間管理のための15の最高のChatGPTプロンプト」

今週はこれらの15のChatGPTのプロンプトで早めに仕事を終わらせましょう