「テキスト要約の革新:GPT-2とXLNetトランスフォーマーの探索」

Text summarization innovation Exploration of GPT-2 and XLNet transformers

イントロダクション

すべてを読んで理解するためには時間が足りません。そこでテキスト要約が登場します。テキスト要約は、テキスト全体を短くすることで、私たちが理解するのを助けます。詳細をすべて読まずに、必要な情報を得るようなものです。テキスト要約は、さまざまな状況で本当に役立ちます。たとえば、明日試験があるけれどもまだ読み始めていない学生の場合を想像してみてください。試験のために3章を勉強しなければならず、今日しか勉強する時間がありません。心配しないでください。テキスト要約を使ってください。それは明日の試験に合格するのに役立ちます。興味深いですね?この記事では、GPT-2とXLNetトランスフォーマーモデルを使用したテキスト要約について探求します。

学習目標

この記事では、以下のことを学びます。

  • テキスト要約とその種類について
  • トランスフォーマーモデルの登場とそのアーキテクチャの仕組みについて
  • GPT-2やXLNetなどのトランスフォーマー要約モデルについて
  • 最後に、それぞれの異なるバリアントを使用した実装について

この記事は、データサイエンスブログマラソンの一環として公開されました。

テキスト要約とは何ですか?

本のいくつかのページを読まなければならない状況に直面したことはありますか?しかし、怠け者のためにそれができなかったこともありますよね。テキスト要約のおかげで、私たちは本のすべての行やページを実際に読まずに、テキスト全体の要約を理解することができます。

テキスト要約は、重要な情報を保ちながら長いテキストを短く変換することです。まるでテキストの要約を作成するかのようなものです。テキスト要約は、自然言語処理(NLP)の魅力的な分野です。それは元のテキストの主要なアイデアと重要な情報を保持します。簡単に言えば、テキスト要約の目標は、元のテキストの重要なポイントを捉え、実際には読まずにテキストの内容を素早く把握できるようにすることです。

出典: Microsoft

要約の種類

テキスト要約のアプローチには、主に2つのタイプがあります。それらは以下の通りです。

  • 抽出型
  • 抽象型

それぞれ詳しく理解しましょう。

抽出型要約

これは、元のテキストから重要な文を選択し組み合わせて要約を形成することを含みます。このタイプの要約は、最も関連性の高い情報を抽出します。これらの文は、元のテキストの主要なアイデアや文脈を表すものでなければなりません。選択された文は、修正なしで要約を形成します。抽出型要約で使用される一部の標準的な手法には、次のものがあります。

  • 文のスコアリング: これはスコアに基づくアプローチです。システムは、単語の頻度、文の位置、キーワードの重要性に基づいて要約のための文を選択します。スコアが高い文を要約に含めるために、スコアが高い文を選択します。この方法で、すべての高スコアの文が元のテキスト全体の要約となります。
  • グラフベース: グラフベースの手法では、文の関係を表すためにグラフを使用します。ここでは、すべての文がノードであり、エッジが文の類似性や関連性を表します。いくつかのグラフアルゴリズムを使用して、重要な文を特定し、すべての重要な文が要約となります。
出典: SpringerLink
  • 統計的手法: これらの手法は、テキスト内の個々の文の重要性と関連性を評価するために統計ツールとアルゴリズムを使用します。これらの手法は、スコアや重みを割り当てるか、最適化手法を利用することで、最も関連性の高い情報を特定しようとします。重要な文はすべて、テキストの要約となります。

抽象型要約

抽象型要約は、元のテキストの一部ではない、文の言い換えや新しい文を含む要約を生成することを含みます。それはテキストの内容を理解し、主要なアイデアを捉えるための要約を生成します。抽出型要約とは異なり、修正なしで元のテキストを要約に追加するのではなく、抽象型要約はまるで人間が自分の言葉で要約を生成しているかのようです。抽象型要約の手法は、ニューラルネットワークやトランスフォーマーなどの高度な自然言語生成モデルに依存しています。これらの高度なモデルは、人間のような言語を解釈し生成することができます。抽象型要約は、より人間らしい要約を生成し、複雑なテキストにも対応できるという利点があります。抽象型要約で使用される一部の標準的な手法には、次のものがあります。

シーケンス・トゥ・シーケンスモデル:シーケンス・トゥ・シーケンスモデルは、ニューラルアーキテクチャを使用し、ソーステキストを入力として、要約を出力します。トレーニング中、Seq2Seqモデルはソーステキストと対応する要約のペアでトレーニングされます。したがって、モデルは入力テキストと出力要約をマッピングすることを学習し、損失関数を最適化します。損失関数は生成された要約と提供された元の目標要約との差を示します。損失関数を最適化することにより、モデルはより良く学習し、最良の要約を生成します。

アテンションメカニズム:アテンションメカニズムは、テキスト要約を含む多くの自然言語処理(NLP)のタスクにおいて重要です。ここでは、モデルは入力シーケンスの関連する部分に焦点を当て、要約を出力します。これにより、モデルは重要な情報に焦点を当て、より正確かつ文脈的に適切な要約を生成することができます。

強化学習:強化学習技術は、報酬やペナルティを提供することで要約モデルを微調整します。これは生成された要約の品質に基づいています。したがって、モデルは自己改善し、より良い要約を提供します。

トランスフォーマーモデル

最初は、シーケンスデータを扱うフィードフォワード型のニューラルネットワークである再帰型ニューラルネットワーク(RNN)がありました。しかし、これらのRNNはモデルのトレーニングに時間がかかるという制約があり、時には長いシーケンスが勾配の消失を引き起こします。それから、長期記憶(LSTM)が登場しました。LSTMはRNNに比べてより長いシーケンスを処理することができます。RNNがトレーニングに時間がかかるなら、LSTMはその複雑な構造のためにさらに遅くなります。LSTMとRNNの両方において、入力データは順次渡す必要があります。現在のGPUは並列計算に適した設計であり、順次のフローには適していません。そこで、トランスフォーマーが登場しました。

Attention is All You Need

論文「Attention is all you need」では、トランスフォーマーと呼ばれる新しいアーキテクチャが紹介されました。トランスフォーマーネットワークは、エンコーダーデコーダーアーキテクチャを使用します。これはRNNアーキテクチャと似ていますが、入力シーケンスを並列に渡すことができます。最初に、トランスフォーマーネットワークは入力シーケンスを受け取り、シーケンスの意味を表すための入力埋め込みを生成します。次に、各単語の文脈をキャプチャするために位置エンコーディングを追加します。

アテンションブロックは各単語のアテンションベクトルを計算します。問題は、アテンションベクトルが自身との関係を非常に高く評価する場合があることです。しかし、特定の単語と他の単語の相互作用が必要です。システムは各単語に対して8つのアテンションベクトルを計算し、加重平均を用いて各単語の最終的なアテンションベクトルを得ます。このプロセスでは複数のアテンションベクトルを使用するため、「マルチヘッドアテンションブロック」という用語が生まれます。その後、システムはこれらのアテンションベクトルをフィードフォワードネットワークに通します。最終的な出力は、各単語を表すエンコードされたベクトルです。

出典: Machine Learning Mastery

デコーダーネットワーク

次に、デコーダーネットワークを見てみましょう。まず、出力の埋め込みを取得します。次に、位置値を追加して文脈を保持するために位置エンコーディングを行います。その後、最初のマルチヘッドアテンションブロックであるマスク付きマルチヘッドアテンションブロックを通過させます。各単語の処理中、後続の単語はすべてマスクされ、前の単語のみを使用してアテンションベクトルが形成されます。これに続いて、2番目のマルチヘッドアテンションブロックがあります。その後、これらのブロックはフィードフォワード層を通過します。最後に、システムは出力を線形およびソフトマックス層に通し、次の単語の予測を行います。

テキスト要約のためのGPT-2

GPT-2は、大規模な英語のコーパスで自己教師ありの方法で事前トレーニングされたトランスフォーマーモデルです。GPT-2は(Generative Pretrained Transformer)の略称です。このモデルはラベルなしの生のテキストで事前トレーニングされています。GPT-2は、テキスト要約のタスクに使用できる強力な言語モデルです。入力テキストの文脈に関連する要約を生成することで知られています。実際には、最初は文の中の次の単語を推測するための生成モデルとして設計されました。

トレーニング中、一定の長さの入力シーケンスを取ります。ターゲットシーケンスは入力シーケンスと似ていますが、1つの単語またはトークンでシフトされます。したがって、モデルは前の単語に基づいて次の単語を予測することを学習します。GPT-2はマスクアテンションを使用して、前のトークンのみが予測に使用されるようにします。将来のトークンはすべてマスクされます。GPT-2は、トレーニングプロセスを通じて、単語や文が英語でどのように組み合わさるかについて学習します。パターンと構造の理解がモデル内に格納され、人間が書いたような新しいテキストを生成するために使用できます。

GPT-2のバリエーション

GPT-2の異なるバリエーションは、モデルのサイズとパラメータに基づいています。すべての事前学習済みのGPT-2モデルは、Hugging Face Model Hubから入手でき、要件に基づいてファインチューニングすることができます。ここでは、GPT2のバリエーションについて詳しく見ていきます。

1. GPT2-Small: コンパクトで高速

これはGPT-2の最も小さいバージョンです。他のバージョンよりもパラメータが少なく、使用速度が速いです。このバージョンは、基本的な言語理解と生成が必要なタスクに適しています。複雑な言語パターンには向いていないかもしれませんが、意味のある文章を生成します。GPT2-Smallは、時間やパワフルなコンピュータが限られている状況に最適です。パラメータ数は124Mです。このモデルは、Hugging Faceの公式ウェブサイトでgpt2という名前で呼ばれています。

GPT2-Smallは、特定のタスクやドメインにおいて、パフォーマンスを向上させるために特定のデータセットでファインチューニングすることができます。ファインチューニングは、モデルをより小さなタスク固有のデータセットでトレーニングし、特定の文脈に適応させるプロセスです。このプロセスにより、GPT2-Smallは特定のドメインにおいてパフォーマンスを向上させることができます。

サイズが小さいため、高度に詳細なテキストや文脈豊かなテキストの生成に苦労することがあります。曖昧なプロンプトに直面した場合、関連性のないテキストを生成することがあります。しかし、ほとんどの場合、意味のある関連したテキストを生成します。

2. GPT2-VoAGI: バランスを見つける

GPT2-VoAGIは、サイズとパフォーマンスの中間に位置するGPT-2のバージョンです。モデルのサイズとパフォーマンスのバランスを提供します。GPT2-SmallとGPT2-Largeに比べて、合計で355Mのパラメータを持っています。そのため、GPT2-Smallと比べてより複雑なパターンを捉えることができます。これらのパラメータは、モデルがテキストを理解し生成するための内部学習された表現です。

GPT2-VoAGIは、GPT2-Smallと比べてより高品質なテキストを生成し、つながりと流暢さを向上させることができます。特に高品質なテキストの出力を生成する際に必要です。機能が向上していますが、GPT2-Smallに比べてより多くの計算リソースを必要とします。

3. GPT2-Large: 高度な言語スキル

このGLPT2-Largeモデルは、テキスト生成と理解の能力を新たな高みに押し上げます。GPT2-VoAGIよりも多くのパラメータを取りますし、言語モデリングの能力を向上させます。そのため、文脈豊かなテキストの生成が可能です。合計で774Mのパラメータを持っています。これらのパラメータにより、モデルは長距離の依存関係を含む多くの複雑な言語パターンを捉えることができます。

人間が生成したコンテンツに似た、より長くて詳細な応答を生成することができます。サイズが大きいため、GPT-2 Largeは効果的にトレーニングおよび利用するためにより多くの計算リソースを必要とします。その応用例には、高度なチャットボット、創造的なコンテンツ生成、仮想アシスタントなどがあります。

4. GPT2-XL: スーパーチャージドなパフォーマンス

GPT-2 XLは、XLNetアーキテクチャを組み込んだGPT-2言語モデルのバリエーションです。これは、言語モデリングにおけるGPT-2の最も高度なバリエーションです。すべてのGPT-2のバリエーションと比較して最も多くのパラメータを取ります。合計で1.5Bのパラメータを使用します。GPT-2 XLのXLNetアーキテクチャは、文脈のより深い理解を可能にします。単語間および長いシーケンスにおける複雑な関係を正確に捉えることができます。また、すべてのタスクにおいてパフォーマンスが向上しています。

高度な言語モデリングが必要なさまざまな応用例があります。GPT-2 XLのパワーを活用することで、研究者や開発者は自然言語処理の新たな可能性を開拓することができます。

GPT-2を使用した実装

テキスト要約のために異なるGPT-2のバリエーションを使用しましょう。

最初に、小さな物語を取り上げて提供します。目標は、物語全体の要約を生成することです。

text='''昔々、ウィロークリークという小さな町で、驚くべき犯罪が起こりました。
地元のコンビニエンスストアは、コミュニティの愛される集まりの場として有名でしたが、
そのコンビニエンスストアが強盗に遭いました。ニュースはすぐに広まり、町の人々に恐怖と心配を引き起こしました。
サラ・ジョンソン巡査部長がこの事件を調査することになりました。彼女は真実を暴くために店舗を注意深く調査しました。
足跡、指紋、そして壊れた錠前が見つかり、貴重な証拠となりました。
ストアの防犯カメラは、夜遅くにマスクをした人物が忍び込んでいく様子を捉えていました。
日が経つにつれて週になりましたが、事件の突破口はありませんでした。
町の住民たちは心配し、誰がこのような犯罪を犯すことができるのかと思案しました。
ジョンソン巡査部長は、この事件を解決することを決意し、昼夜を問わず努力しました。
ある夕方、近所をパトロールしている最中に、ジョンソンは店の近くで奇妙な行動をする怪しい人物を見つけました。
彼女は密かにその人物を追い、その人物はアレックスという若い男性であることが判明しました。
アレックスは犯罪を自白し、絶望から愚かな選択をしたと説明しました。
ジョンソン巡査部長はアレックスの状況に同情し、彼が必要な支援を受けるようにしました。
彼女は彼に厳しい処罰ではなく、必要な支援を受けることを確認しました。
逮捕のニュースは町中に広まり、この出来事は困難な時期において互いを支え合うことをコミュニティに思い起こさせました。
ジョンソン巡査部長の献身と思いやりは称賛され、彼女はウィロークリークで尊敬される存在となりました。'''

テキスト要約には、bert-extractive-summarizerを使用します。次に、summarizerモジュールからTransformerSummarizerをインポートします。

pip install bert-extractive-summarizer
from summarizer import TransformerSummarizer

まず、GPT2-Smallバリアントを使用します。TransformerSummarizerクラスのインスタンスを作成し、変数GPT2_modelに割り当てます。2つのパラメータを取ります。最初のパラメータは、使用しているトランスフォーマーモデルを指定する「transformer_type」です。ここではGPT2を使用しています。次のパラメータは「transformer_model_key」で、バリアントを指定します。ここではgpt2を使用しています。そして、生成された要約を最小長さ50で表示します。

GPT2_model = TransformerSummarizer(transformer_type="GPT2",transformer_model_key="gpt2")
Summary = ''.join(GPT2_model(text, min_length=50))
print(Summary) 

むかしむかし、ウィロークリークという小さな町で、ある犯罪が起こり、誰もが驚いた。サラ・ジョンソン警官が犯罪を調査するように任命されました。町の住民は心配し、どのような犯罪を犯すことができるのかを考えました。ジョンソン警官の献身と思いやりは称賛され、彼女はウィロークリークで尊敬される存在となりました。

次に、GPT2-VoAGIバリアントを使用します。

GPT2_VoAGI_model = TransformerSummarizer(transformer_type="GPT2",
                                          transformer_model_key="gpt2-VoAGI")
Summary = ''.join(GPT2_VoAGI_model(text, min_length=50))
print(Summary)

むかしむかし、ウィロークリークという小さな町で、ある犯罪が起こり、誰もが驚いた。町の住民は心配し、どのような犯罪を犯すことができるのかを考えました。ジョンソン警官は事件を解決することを決意し、昼夜を問わず献身的に働きました。ある夕方、ジョンソン警官は近くの店の近くで奇妙な行動をする怪しい人物を見つけました。

次に、GPT2-Largeバリアントを使用します。

GPT2_large_model = TransformerSummarizer(transformer_type="GPT2",transformer_model_key="gpt2-large")
Summary = ''.join(GPT2_large_model(text, min_length=50))
print(Summary)

むかしむかし、ウィロークリークという小さな町で、ある犯罪が起こり、誰もが驚いた。彼女は店を注意深く調査し、真実を明らかにしようとしました。ジョンソン警官は事件を解決することを決意し、昼夜を問わず献身的に働きました。逮捕のニュースは町中に広まり、この事件はコミュニティが困難な時期にお互いを支えることを思い起こさせるきっかけとなりました。

テキスト要約のためのXLNet

XLNetは最先端のトランスフォーマーベースの言語モデルで、「eXtreme Language understanding NETwork」を意味します。これは、以前のモデルであるBERT(Transformerからの双方向エンコーダ表現)のいくつかの制限を克服するために設計されました。BERTモデルは通常、入力シーケンスを双方向に処理します。しかし、XLNetは異なります。ここでは、入力シーケンスのすべての可能な順列を取ることができます。これを順列ベースのトレーニングと呼びます。これにより、XLNetはより多くの文脈情報を捕捉し、さまざまな自然言語処理タスクのパフォーマンスを向上させることができます。

XLNetはまた、「自己回帰的」トレーニングの概念も導入しています。自己回帰モデルは、前のトークンに基づいてシーケンスの次のトークンを予測します。これにより、より一貫性のある文脈に即したテキストを生成することができます。XLNetは自己回帰的トレーニングと順列ベースのトレーニングを組み合わせており、さまざまなタスクでのパフォーマンスを向上させています。

XLNetのバリアント

XLNetにはさまざまなバリアントがあり、モデルのサイズやトークン化のタイプ(大文字と小文字の区別の有無)が異なります。タスクの要件と計算リソースに基づいて適切なバリアントを選択することができます。すべての事前学習済みXLNetモデルはHugging Face Model Hubから利用でき、要件に基づいてファインチューニングすることができます。さまざまなXLNetの人気のあるバリアントを紹介します。

1. XLNet Base Cased: 大文字と小文字を区別

XLNet Base Casedは、大文字と小文字の区別がされたテキストでトレーニングされたXLNetモデルの特定のバリアントです。トータルで110Mのパラメータがあります。XLNet Base Casedの「Base」とは、複数のレイヤー、アテンションメカニズム、および他のコンポーネントを含む基本アーキテクチャを指します。

「Cased」の側面により、XLNet Base Casedモデルはトレーニングおよび推論中に単語の大文字と小文字の情報を保持します。つまり、大文字と小文字は異なる扱いを受けます。また、モデルはそれらを区別することができます。大文字化が意味を持つ場合に非常に有益です。バランスの取れたアーキテクチャとケースを保持したトレーニングにより、このモデルは複雑さ、計算リソース、総合パフォーマンスのバランスが良いです。

2. XLNet Large Cased: 大規模なモデルとケースのセンシティビティ

XLNet Large Casedは、より複雑なタスクに適した、XLNetの別バリアントです。XLNet-Base Casedに比べてパラメータが多く、合計で340Mのパラメータを持っています。より大きなモデルサイズと強化されたアーキテクチャにより、複雑な言語パターンを効果的に捉えることができます。XLNet Largeのアーキテクチャは、XLNet Base Casedの基盤を築き、追加のレイヤーやコンポーネントを付加して能力を向上させています。

XLNet Large Casedは、高い計算リソースと増加したキャパシティとパフォーマンスを必要とします。XLNet Large Casedのトレーニングとファインチューニングには、強力なGPUやハードウェア構成を含む非常に高い計算リソースが必要です。XLNet Large Casedは、機械翻訳、テキスト分類、感情分析、質問応答、文書要約など、さまざまな難しいNLPタスクで優れた結果を出します。

3. XLNet Base Multilingual Cased: クロスリンガルタスクのための多言語サポート

XLNet Base Multilingual Casedは、多言語アプリケーションやクロスリンガルタスクをサポートするために特別に設計されたXLNetモデルのバリアントです。複数の言語を処理するための強化された機能とキャパシティを持っています。このモデルは、大規模な多言語テキストのコーパスでトレーニングされています。これにより、モデルはより多くの表現を学習し、言語パターンを捉えることができます。マルチリンガルなトレーニングにより、モデルは知識を転送し、異なる言語間で一般化する能力を持つようになります。この能力は、トレーニングプロセス中に使用されなかった言語の処理にも役立ちます。

XLNet Base Multilingual Casedは、トレーニングと推論中に単語の大文字と小文字の情報を保持し、ケースセンシティブです。つまり、大文字と小文字を区別することができます。これには多くの応用があり、特にクロスリンガルタスクには非常に役立ちます。これには、機械翻訳、クロスリンガルな文書分類などが含まれます。

4. XLNet Base Cased IMDb

XLNet Base Cased IMDbは、感情分析のためにIMDbデータセットでトレーニングおよびファインチューニングされたXLNetの別バリアントです。このIMDbデータセットは自然言語処理(NLP)で非常に人気があり、映画のレビューにはポジティブまたはネガティブな感情がラベル付けされています。バッチサイズ32、学習率2e-05を使用して、このモデルを5エポックでファインチューニングしました。最大シーケンス長は512に設定されました。分類タスクであるため、モデルのトレーニングにはクロスエントロピー損失関数が使用されました。このモデルは主に分類タスクに使用することを意図していますが、要約タスクの結果を生成することも可能ですが、最適な結果とは限りません。

XLNetを使用した実装

GPT-2で使用した正確なテキストを使用します。インポートしたモジュールはすべて同じままです。

まず、xlnet-base-casedモデルを使用します。

xlnet_base_cased_model = TransformerSummarizer(transformer_type="XLNet",
                                               transformer_model_key="xlnet-base-cased")
Summary = ''.join(xlnet_base_cased_model(text, min_length=50))
print(Summary)

昔々、ウィロークリークという小さな町で、衝撃を与える事件が発生しました。サラ・ジョンソン警部はその事件の捜査を任されました。彼女は真実を明らかにするため、店舗を注意深く調査しました。店舗のセキュリティカメラは、夜遅くに忍び込む仮面の人物を映し出しました。

xlnet-large-casedモデルを使用した結果を見てみましょう。

xlnet_large_cased_model = TransformerSummarizer(transformer_type="XLNet",
                                                transformer_model_key="xlnet-large-cased")
Summary = ''.join(xlnet_large_cased_model(text, min_length=50))
print(Summary)

昔々、ウィロークリークという小さな町で、衝撃を与える事件が発生しました。地元のコンビニエンスストアで、コミュニティの人々が愛する集まりの場所が強盗にあったのです。彼女は彼が厳しい罰を受ける代わりに必要な支援を受けるようにしました。逮捕のニュースは町中に広まり、この出来事はコミュニティにとって困難な時期にお互いを支えることを思い出させる出来事となりました。

最後に、xlnet-base-cased-imdbモデルを使用します。

xlnet_base_cased_imdb_model = TransformerSummarizer(transformer_type="XLNet",
                              transformer_model_key="textattack/xlnet-base-cased-imdb")
Summary = ''.join(xlnet_base_cased_imdb_model(text, min_length=50))
print(Summary)

昔々、ウィロークリークという小さな町で、ある犯罪が起こりました。彼女は真実を明らかにするために、店舗を注意深く調べました。店舗の防犯カメラは、夜遅くに忍び込む仮面の人物を捉えました。逮捕のニュースは町中に広まり、この事件は困難な時期において互いを支え合うためのコミュニティの思い出となりました。

結論

テキスト要約は、大量のテキストから重要な情報を抽出するプロセスを簡略化するものです。主要なポイントを素早く把握することが可能になります。GPT-2やXLNetのような新しいトランスフォーマーモデルの登場により、テキスト要約は新たな高みに達しました。この記事では、テキスト要約とトランスフォーマーモデルについて学びました。トランスフォーマーモデルの登場やそのアーキテクチャ、そしてその動作原理について理解しました。そして、GPT-2やXLNetの異なるバリアントを探求しました。

キーポイント

  • テキスト要約は、重要な情報を大量のテキストから抽出するための非凡な技術です。
  • テキストの要約を使用することで、読まずにテキストを理解する時間を節約し、より正確かつ一貫性のある要約を提供することができます。
  • ソーシャルメディアの分析、文書の要約、ニュースの集約など、さまざまなアプリケーションがあります。
  • GPT-2やXLNetは、パワフルなトランスフォーマーモデルであり、テキスト要約の分野に大きな貢献をしています。

よくある質問

この記事に表示されているメディアはAnalytics Vidhyaの所有ではなく、著者の裁量によって使用されています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...

データサイエンス

「2023年にデータサイエンスFAANGの仕事をゲットする方法は?」

データサイエンスは非常に求められる分野となり、FAANG(Facebook、Amazon、Apple、Netflix、Google)企業での就職は大きな成...

人工知能

ベイリー・カクスマー、ウォータールー大学の博士課程候補 - インタビューシリーズ

カツマー・ベイリーは、ウォータールー大学のコンピュータ科学学部の博士課程の候補者であり、アルバータ大学の新入教員です...

人工知能

アーティスの創設者兼CEO、ウィリアム・ウーによるインタビューシリーズ

ウィリアム・ウーは、Artisseの創設者兼CEOであり、ユーザーの好みに基づいて写真を精密に変更する技術を提供していますそれ...

人工知能

「Kognitosの創設者兼CEO、ビニー・ギル- インタビューシリーズ」

ビニー・ギルは、複数の役職と企業を横断する多様で幅広い業務経験を持っていますビニーは現在、Kognitosの創設者兼CEOであり...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...