Learn more about Search Results ImageNet - Page 9

「糖尿病網膜症の段階を予測して眼の盲目を防ぐ」

はじめに 糖尿病性網膜症は、網膜の血管に変化を引き起こす眼の状態です。無治療のまま放置すると、視力の喪失につながります。そのため、糖尿病性網膜症の段階を検出することは、目の失明を防ぐために重要です。このケーススタディは、糖尿病性網膜症の症状から目の失明を検出することについてのもので、データはさまざまな撮影条件で眼底カメラ(眼の後ろを写真に撮るカメラ)を使用して、さまざまな訓練された臨床専門家によって田舎の地域から収集されました。これらの写真は、2019年にKaggleが行ったコンペティション(APTOS 2019 Blindness Detection)で糖尿病性網膜症の段階を検出するために使用され、私たちのデータは同じKaggleのコンペティションから取得されました。この糖尿病性網膜症の早期検出は、治療を迅速化し、視力の喪失のリスクを大幅に減らすのに役立ちます。 訓練された臨床専門家の手作業による介入は、特に発展途上国では時間と労力がかかります。したがって、このケーススタディの主な目的は、効率的な技術を使用して状態の重症度を検出し、失明を防止することです。私たちは、深層学習の技術を実装して、状態の分類に効果的な結果を得るために取り組んでいます。 学習目標 糖尿病性網膜症の理解:眼の状態と視力への影響について学び、早期検出の重要性を強調します。 深層学習の基礎:深層学習の基礎を探求し、糖尿病性網膜症の診断における関連性を理解します。 データの前処理と拡張:ディープラーニングモデルのトレーニングのためにデータセットを効果的に準備し、強化する方法を理解します。 モデルの選択と評価:重症度分類のためのディープラーニングモデルの選択と性能評価の方法を学びます。 実用的な展開:Flaskを使用して最適なモデルの展開と実世界での予測を実現します。 この記事はデータサイエンスブログマラソンの一環として公開されました。 ビジネスの問題 ここでは、人の状態の重症度が5つのカテゴリに分類されます。つまり、人は重症度レベルのいずれか1つで認識されます。 ビジネスの制約事項 医療分野では正確性と解釈可能性が非常に重要です。間違った予測は人々の命を奪う可能性があるため、厳格なレイテンシの心配はありませんが、結果については正確でなければなりません。 データセットの説明 データセットには、訓練された臨床専門家が各画像を糖尿病性網膜症の重症度に基づいて以下のように分類した3,662枚のラベル付き網膜画像が含まれています。 0 — 糖尿病性網膜症なし 1 —…

SEER:セルフスーパーバイズドコンピュータビジョンモデルの突破口?

過去10年間、人工知能(AI)と機械学習(ML)は著しい進歩を遂げてきました現在では、これまで以上に正確で効率的で、かつ能力が高まっています最新のAIとMLモデルは、画像やビデオファイル内のオブジェクトをシームレスに正確に認識することができますさらに、人間の知性に匹敵するテキストや音声を生成することも可能です[…]

「MC-JEPAに会おう:動きと内容の特徴の自己教師あり学習のための共同埋め込み予測アーキテクチャ」

最近、自己教師付き学習の中で、物体を識別し区別するための情報を持つ特徴を学習することに焦点を当てたテクニックが、ビジョンにおけるセルフスーパーバイズドラーニングを主導しています。ほとんどの技術は、アイテムのカテゴリ分類や映画のアクティビティ検出などのタスクで優れたパフォーマンスを発揮する広範な特徴を特定することに集中しています。セグメンテーションや検出などの地域タスクで優れたローカライズされた特徴を学習するというアイデアは、比較的最近のコンセプトです。しかし、これらの技術は、映画やテクスチャなどのピクセルに関する動きなどの特性を学習するのではなく、画像や動画の内容を理解することに重点を置いています。 この研究では、Meta AI、PSL研究大学、およびニューヨーク大学の研究者らが、一般的なセルフスーパーバイズドラーニングを利用したコンテンツ特性と、映画からのセルフスーパーバイズド光流推定を用いた動きの特徴を同時に学習することに焦点を当てています。映画の連続フレームやステレオペアの画像など、2つの画像が動くか密なピクセルの接続を持つ場合、光流によってそれが捉えられます。コンピュータビジョンでは、光流の推定は、ビジュアルオドメトリや奥行き推定、オブジェクトトラッキングなどの操作にとって重要な基本的な問題です。従来の方法によれば、光流の推定は、ピクセルを滑らかさの要件に一致させる最適化問題です。 合成データではなく実世界のデータを分類するという課題は、ニューラルネットワークと教師付き学習に基づくアプローチを制限します。セルフスーパーバイズドテクニックは、実世界のビデオデータを大量に学習することを可能にすることで、教師付きテクニックと競合しています。ただし、現在のほとんどのアプローチは動きに注意を払うだけであり、ビデオの(意味的な)内容には注意を払っていません。この問題は、マルチタスクアプローチを使用して、画像での動きとコンテンツ要素を同時に学習することで解決されます。最近の手法では、ビデオフレーム間の空間的な関係を特定します。目的は、オブジェクトの移動を追跡し、光流推定では得られないコンテンツデータを収集することです。 これらの手法は、オブジェクトレベルの動きの推定手法です。他の視覚的な下流タスクに対して比較的一般化が弱く、トラッキングのための非常に特殊化された特性を獲得します。獲得される視覚的特性の品質の低さは、これらの手法がImageNetのような大きな画像データセットよりも多様性が必要な小さなビデオデータセットで頻繁にトレーニングされることによって強化されます。複数のアクティビティを同時に学習することは、視覚的表現を開発するためのより信頼性のある手法です。この問題を解決するために、彼らはMC-JEPA(Motion-Content Joint-Embedding Predictive Architecture)を提案しています。このジョイント埋め込み予測アーキテクチャベースのシステムでは、共通のエンコーダを使用して、自己教師付き光流推定とコンテンツ特性をマルチタスクの環境で学習します。 以下は、彼らの貢献の概要です: • シンセティックおよびリアルなビデオデータからのセルフスーパーバイズド光流を学習するために、PWC-Netをベースにした技術を提供します。これには、逆方向の一貫性損失と共分散正則化項など、さまざまな追加要素が含まれます。 • 画像ネットでトレーニングされたセルフスーパーバイズド学習技術であるM-JEPAとVICRegを使用し、複数のタスク構成でM-JEPAを最適化して、推定された光流を改善し、さまざまな下流タスクにうまく適用できるコンテンツ特性を提供します。最終的なアプローチの名前はMC-JEPAです。 • KITTI 2015やSintelなどのさまざまな光流ベンチマーク、CityscapesやDAVISでの画像およびビデオセグメンテーションタスクなどでMC-JEPAをテストし、単一のエンコーダがそれぞれのタスクで優れたパフォーマンスを発揮することを確認しました。MC-JEPAは、モーション予測からコンテンツ理解まで、画像やビデオを含む任意の視覚データでトレーニングでき、さまざまなタスクで優れたパフォーマンスを発揮する、ジョイント埋め込みとマルチタスク学習に基づくセルフスーパーバイズド学習手法の先駆者になると期待されています。

中国からの新しいAI研究が提案するSHIP:既存のファインチューニング手法を改善するためのプラグアンドプレイの生成AIアプローチ

この論文では、既存の微調整手法を改善するための SyntHesIzed Prompts (SHIP)という新しいアプローチについて取り上げています。 微調整:プレトレーニングの後、モデルはより小さなタスク固有のデータセットで微調整されます。これには新しいデータに対してトレーニングプロセスを継続することが含まれます。一般的な知識を特定のタスクに適用できるようにするために、プレトレーニングで獲得したモデルの知識を調整することが目的です。 研究者が取り組んでいる問題は、いくつかのクラスにデータがないシナリオです。彼らはクラス名を提供することで特徴を合成できる生成モデルをトレーニングすることを目指しました。これにより、データのないカテゴリの特徴を生成することが可能になります。 データのないカテゴリの特徴を生成するとは、トレーニングデータセットに存在しないクラスやカテゴリの表現を合成するプロセスを指します。これは、特定のクラスの実データを収集することが難しいまたは不可能なシナリオで特に有用です。 その後、研究者はオリジナルのラベル付きデータと新たに合成された特徴を使用してCLIPを微調整しました。しかし、生成モデルは通常、トレーニングに大量のデータを必要とするため、データの効率性とは相反する大きな障害です。彼らは、敵対的なトレーニングを必要とするモデルよりもトレーニングが容易で低データのシナリオで効果的な変分オートエンコーダ(VAE)をフレームワークとして利用することを提案しました。 GANとVAEは両方とも新しいデータサンプルを生成することができる生成モデルですが、アーキテクチャ、目標、トレーニング方法などが大きく異なります。GANは高品質でリアルなサンプルを生成する能力で知られていますが、トレーニングが難しい場合もあります。一方、VAEは確率的なフレームワークを提供し、特にデータが限られているシナリオでは取り扱いが容易ですが、GANほど鮮明またはリアルなサンプルを生成しないかもしれません。 CLIP(Contrastive Language–Image Pretraining)は、テキストの説明から画像を理解し生成するためのOpenAIによって開発されたモデルです。大規模なデータセットで事前トレーニングされ、視覚と言語の表現が整列しています。事前トレーニングされた言語エンコーダはよりリアルな特徴の生成を支援します。この論文は、合成データを利用してCLIPの微調整手法の性能を向上させることを目指して、ベースから新しい一般化、クロスデータセットの転移学習、および一般化されたゼロショット学習について包括的な実験を行い、最先端のパフォーマンスを達成しました。 提案されたモデルのアーキテクチャは、VAEフレームワークを利用して特徴をエンコードおよび生成し、CLIPを統合して画像特徴を抽出し再構築します。トレーニング中、モデルは特徴を潜在空間にエンコードし、それを再構築する方法を学習します。生成段階では、この学習されたエンコーディングを使用して新しいクラスの特徴を合成し、データのないクラスでもCLIPを微調整できるようにします。軽量なMLPと凍結されたCLIPテキストエンコーダからなる新しいCLIPベースのジェネレータは、潜在コードを変換し、特徴再構築用の最終的なプロンプトを構築する上で重要な役割を果たします。 研究者が観察した実験結果: ベースから新しい一般化:ImageNet、Caltech101、OxfordPets、StanfordCars、Flowers102、Food101、FGVCAircraft、SUN397、DTD、EuroSAT、UCF101を含む11の多様な画像分類データセットで実験が行われました。データセットはベースクラスと新しいクラスに分割され、ベースクラスでクラスごとに16のサンプルでトレーニングが行われました。評価はベースクラスと新しいクラスの両方で行われました。 一般化されたゼロショット設定:論文では、ベースから新しい一般化をより現実的な一般化されたゼロショット設定で評価しました。この設定では、ベースデータと新しいデータがテストデータセットで混在しています。結果は以前の手法では性能が著しく低下することを示しましたが、提案された方法であるSHIPは新しいクラスでの性能を改善し続けました。 他の手法との比較:CLIP、CoOp、CLIP-Adapter、Tip-Adapterなどの他の手法と比較されました。提案されたSHIP手法は、さまざまなデータセットで新たなクラスでの性能を向上させました。 結論: この論文では、既存のファインチューニング手法を改善するために、新しいSyntHesIzed Prompts (SHIP)アプローチを提案しました。特に一部のクラスにデータがないシナリオで、この手法はさまざまなタスクで最先端のパフォーマンスを達成しました。データのないカテゴリに対して特徴を合成し、元のラベル付き特徴と新たに合成された特徴の両方を使用してCLIPをファインチューニングすることで、この手法は優れた結果を得ることができました。論文は、追加のトレーニングコストを制約として認識し、将来の研究でSHIPの密な予測タスクへの適用可能性を探求する意図を表明しています。 全体として、この論文は、特定のクラスのデータの不足の課題に対処し、合成データを使用してCLIPのファインチューニング手法のパフォーマンスを向上させるという点で、この分野への重要な貢献を示しています。

ソースフリーのドメイン適応における壁の破壊:バイオアコースティクスとビジョン領域へのNOTELAの影響

ディープラーニングは、さまざまなアプリケーション領域で重要な進展を遂げています。その一因は、ますます大規模なデータセットとモデルが利用可能になったことです。しかし、この傾向の一方で、最新のモデルをトレーニングすることがますます高価になり、環境への懸念や一部の実践者にとってのアクセス性の問題を引き起こしています。さらに、事前トレーニングされたモデルを直接再利用すると、デプロイメント時の分布の変化に直面した際に性能の低下が生じることがあります。研究者は、ソースフリードメインアダプテーション(SFDA)を探求してこれらの課題に対処しています。この技術は、元のトレーニングデータにアクセスせずに事前トレーニングされたモデルを新しいターゲットドメインに適応させるものです。本記事では、SFDAの問題に焦点を当て、音声ドメイン、特にバイオアコースティクスにおける分布の変化に対処するために設計された新しい手法であるNOTELAを紹介します。 バイオアコースティクスデータセット(XC)は、鳥の種の分類に広く使用されており、次のようなものが含まれています: 主観的な録音。 自然な状況で個々の鳥を対象とする。 全方向性マイクを介して得られたサウンドスケープの録音。 これには、サウンドスケープの録音には信号対雑音比が低く、複数の鳥が同時に発声する、環境ノイズのような重要な妨害要素があるという固有の課題があります。さらに、サウンドスケープの録音は異なる地理的位置から収集されるため、XCには特定の地域にのみ一部の種が出現するという極端なラベルシフトが生じます。さらに、ソースとターゲットのドメインの両方がクラスの不均衡を示しており、1つの録音内に複数の鳥の種が存在するため、問題はマルチラベル分類タスクとなります。 この研究では、Googleの研究者は、エントロピー最小化、疑似ラベリング、ノイズ除去教師生徒、マニフォールド正則化など、バイオアコースティクスデータセットで既存のSFDA手法をいくつか評価しました。評価結果は、これらの手法が伝統的なビジョンタスクで成功を収めた一方で、バイオアコースティクスでは性能が大きく異なることを示しています。一部の場合では、適応を行わない場合よりも悪い結果を示します。この結果は、バイオアコースティクスドメインの固有の課題を処理するための特殊な手法の必要性を示しています。 この制限に対処するために、研究者はNOisy student TEacher with Laplacian Adjustment(NOTELA)と呼ばれる新しい革新的な手法を提案しています。この新しい手法は、ノイズ除去教師生徒(DTS)手法とマニフォールド正則化(MR)手法の原則を組み合わせています。NOTELAは、学生モデルにノイズを加えるメカニズム(DTSから着想を得たもの)を導入し、特徴空間でのクラスタ前提を強制する(MRに似たもの)ことで、適応プロセスを安定化させ、モデルの汎化性能を向上させます。この手法は、モデルの特徴空間を追加の真実の情報源として活用し、バイオアコースティクスデータセットの難問に成功し、最先端の性能を達成します。 バイオアコースティクスのドメインでは、NOTELAはソースモデルよりも大幅に改善され、他のSFDA手法を超える性能を示しました。多ラベル分類の標準的な指標である平均適合率(mAP)やクラスごとの平均適合率(cmAP)の値も印象的です。S. Nevada(mAP 66.0、cmAP 40.0)、Powdermill(mAP 62.0、cmAP 34.7)、SSW(mAP 67.1、cmAP 42.7)など、さまざまなテストターゲットドメインでの顕著なパフォーマンスは、バイオアコースティクスデータセットの課題に対処する効果を示しています。 ビジョンタスクの文脈では、NOTELAは一貫して強力なパフォーマンスを示し、他のSFDAベースラインを上回りました。CIFAR-10(90.5%)やS. Nevada(73.5%)など、さまざまなビジョンデータセットで注目すべきトップ1の精度結果を収めました。ImageNet-Sketch(29.1%)やVisDA-C(43.9%)ではわずかに性能が低いものの、NOTELAのバイオアコースティクスやビジョンドメインでのSFDA問題への効果と安定性は明らかです。 https://arxiv.org/abs/2302.06658…

学習率のチューニングにうんざりしていますか?DoGに会ってみてください:堅牢な理論的保証に裏打ちされたシンプルでパラメータフリーの最適化手法

テルアビブ大学の研究者は、学習率パラメータを必要とせず、経験的な量のみに依存する調整フリーの動的SGDステップサイズ公式である「Distance over Gradients(DoG)」を提案しています。彼らは理論的に、DoG公式のわずかな変動が局所的にバウンドした確率的勾配の収束をもたらすことを示しています。 確率的プロセスには最適化されたパラメータが必要であり、学習率は依然として困難です。従来の成功した手法には、先行研究から適切な学習率を選択する方法が含まれます。適応的勾配法のような手法では、学習率パラメータを調整する必要があります。パラメータフリーの最適化では、問題の事前知識なしにほぼ最適な収束率を達成するためにアルゴリズムが設計されています。 テルアビブ大学の研究者は、CarmonとHinderの重要な知見を取り入れ、パラメータフリーのステップサイズスケジュールを開発しました。彼らはDoGを反復することで、DoGが対数的な収束率を達成する確率が高いことを示しています。ただし、DoGは常に安定しているわけではありません。その反復は最適化から遠ざかることもあります。そこで、彼らはDoGの変種である「T-DoG」を使用し、ステップサイズを対数的な因子で小さくします。これにより、収束が保証される高い確率を得ます。 彼らの結果は、SGDと比較して、コサインステップサイズスケジュールとチューニングベースの学習を使用する場合、DoGは稀に相対誤差の改善率が5%を超えることはほとんどありませんが、凸問題の場合、誤差の相対差は1%以下であり、驚くべきことです。彼らの理論はまた、DoGが感度の広範な範囲で一貫して実行されることを予測しています。研究者はまた、近代的な自然言語理解(NLU)におけるDoGの効率をテストするために、調整されたトランスフォーマーランゲージモデルを使用しました。 研究者はまた、下流タスクとしてImageNetを使用した主なファインチューニングテストベッドで限定的な実験を行いました。これらはスケールが大きくなるにつれてチューニングがよりコストがかかります。彼らはCLIPモデルをファインチューニングし、それをDoGとL-DoGと比較しました。両方のアルゴリズムは著しく悪い結果を示しました。これは反復予算が不十分なためです。 研究者は、多項式平均化を使用してモデルをゼロからトレーニングする実験も行いました。DoGは、適応勾配法と比較して、運動量0.9と学習率0.1の条件で優れたパフォーマンスを発揮します。他のチューニングフリーメソッドと比較して、DoGとL-DoGはほとんどのタスクでより優れたパフォーマンスを提供します。 DoGの結果は有望ですが、これらのアルゴリズムにはさらなる追加作業が必要です。運動量、事前パラメータ学習率、学習率のアニーリングなど、確立された技術をDoGと組み合わせる必要があります。これは理論的にも実験的にも困難です。彼らの実験は、バッチ正規化との関連性を示唆しており、頑健なトレーニング方法にもつながる可能性があります。 最後に、彼らの理論と実験は、DoGが現在の学習率チューニングに費やされている膨大な計算を、ほぼパフォーマンスにコストをかけずに節約する可能性を示唆しています。

「ICML 2023でのGoogle」

Cat Armatoさんによる投稿、Googleのプログラムマネージャー Googleは、言語、音楽、視覚処理、アルゴリズム開発などの領域で、機械学習(ML)の研究に積極的に取り組んでいます。私たちはMLシステムを構築し、言語、音楽、視覚処理、アルゴリズム開発など、さまざまな分野の深い科学的および技術的な課題を解決しています。私たちは、ツールやデータセットのオープンソース化、研究成果の公開、学会への積極的な参加を通じて、より協力的なエコシステムを広範なML研究コミュニティと構築することを目指しています。 Googleは、40回目の国際機械学習会議(ICML 2023)のダイヤモンドスポンサーとして誇りに思っています。この年次の一流学会は、この週にハワイのホノルルで開催されています。ML研究のリーダーであるGoogleは、今年の学会で120以上の採択論文を持ち、ワークショップやチュートリアルに積極的に参加しています。Googleは、LatinX in AIとWomen in Machine Learningの両ワークショップのプラチナスポンサーでもあることを誇りに思っています。私たちは、広範なML研究コミュニティとのパートナーシップを拡大し、私たちの幅広いML研究の一部を共有することを楽しみにしています。 ICML 2023に登録しましたか? 私たちは、Googleブースを訪れて、この分野で最も興味深い課題の一部を解決するために行われるエキサイティングな取り組み、創造性、楽しさについてさらに詳しく知ることを願っています。 GoogleAIのTwitterアカウントを訪れて、Googleブースの活動(デモやQ&Aセッションなど)について詳しく知ることができます。Google DeepMindのブログでは、ICML 2023での技術的な活動について学ぶことができます。 以下をご覧いただき、ICML 2023で発表されるGoogleの研究についてさらに詳しくお知りください(Googleの関連性は太字で表示されます)。 理事会および組織委員会 理事会メンバーには、Corinna Cortes、Hugo Larochelleが含まれます。チュートリアルの議長には、Hanie Sedghiが含まれます。 Google…

「合成キャプションはマルチモーダルトレーニングに役立つのか?このAI論文は、合成キャプションがマルチモーダルトレーニングにおけるキャプションの品質向上に効果的であることを示しています」

マルチモーダルモデルは、人工知能の分野における最も重要な進歩の一つです。これらのモデルは、画像やビデオを含む視覚的な情報、自然言語を含むテキスト情報、音声や音などの音響的な情報など、複数のモダリティからのデータを処理し理解するために設計されています。これらのモデルは、これらの様々なモダリティからのデータを組み合わせ分析し、多様なデータの種類にわたる理解と推論を必要とする複雑なタスクを実行することができます。大規模なマルチモーダルモデルは、画像とテキストのペアで事前学習することで、さまざまなビジョン関連のタスクで高いパフォーマンスを発揮することが示されています。 研究者たちは、ビジョンタスクで使用される大規模なマルチモーダルモデルのトレーニングにおいて、画像とテキストのペアなどのウェブデータの有用性を向上させようと試みていますが、不適切に整列した画像とテキストのペア、不良なデータソース、低品質なコンテンツなど、オンラインデータは頻繁にノイズが多く情報量が不足しています。現在の存在する手法はデータのノイズを減らすものの、しばしばデータの多様性の喪失をもたらします。そのため、研究チームは、ウェブスクレイピングされたデータにおけるキャプションの品質に焦点を当てたアプローチを提案しています。 主な目標は、曖昧または情報不足のテキストを持つ画像とテキストのペアの有用性を向上させるために、生成されたキャプションがどのように役立つかを探究することです。そのため、チームは複数のミキシング戦術をテストし、生のサイトキャプションとモードによって生成されたキャプションを組み合わせました。このアプローチは、DataCompのベンチマークで提案されたトップのフィルタリング戦略を大幅に上回りました。1億2800万の画像テキストペアの候補プールを使用して、ImageNetの改善は2%であり、38のジョブ全体で平均改善は4%です。彼らの最善の手法は、FlickrとMS-COCOの検索タスクで従来の手法を上回り、彼らの戦略が実世界の状況での実現可能性を示しています。 チームは、人工キャプションがテキスト監督の有用なツールである理由について調査しました。複数の画像キャプションモデルをテストすることにより、チームは、マルチモーダルトレーニングにおいてモデルが生成するキャプションの有用性が、NoCaps CIDErなどの確立された画像キャプションベンチマークでのパフォーマンスに常に依存しないことを示しました。これは、従来の画像キャプションベンチマークだけに頼らず、特にマルチモーダルな活動において生成されたキャプションを評価する必要性を強調しています。 この研究は、DataCompのデータセットである12.8億の画像テキストペアを使用して、生成されたキャプションの広範な適用を調査しました。この実験は、合成テキストの制約を明らかにし、トレーニングデータの拡大に伴い画像キュレーションの重要性が高まっていることを強調しています。チームによって共有されたinsightsは以下の通りです: キャプションモデルの選択:標準的なベンチマークに基づいて事前学習されたネットワークを画像キャプションのために微調整することは、マルチモーダルトレーニングにおけるキャプションの効果的な生成につながらない場合があります。CLIP-Sなどのリファレンスフリーメトリックは、生成されたキャプションのトレーニング品質をよりよく反映します。 複数のソースからのキャプションの組み合わせ:生のキャプションと合成キャプションのフィルタリングやミキシングには、DataCompベンチマークでの小規模およびVoAGIスケールでのパフォーマンス向上がもたらされました。 合成キャプションの効果:個々のレベルでは、合成キャプションはノイズが少なく、視覚情報が豊富です。ただし、集団レベルでは、生のキャプションと比較して多様性に欠けます。 合成キャプションの利点のスケーラビリティ:最適なフィルタリングアプローチは、異なるデータスケールによって異なります。異なる数量での実験は、合成キャプションの制約を明らかにし、大規模なデータ領域では画像品質の制御と多様性のギャップがより重要になることを示します。

「AIが異星生命を探す訓練を受けています」

「氷の海の月から、一方が永遠の夜である惑星まで、ゴールディロックスゾーンには数え切れないほどの奇妙な世界が存在します - 理論上、宇宙人が進化する可能性がある領域です宇宙での生命の探求は、長い間人間の想像力を魅了してきました今や、コンピュータの助けを借りれば、科学者たちはこれまで以上に成功する可能性があります...」

現代のNLP:詳細な概要パート2:GPT

シリーズの第一部では、Transformerが自然言語処理と理解のシーケンスモデリング時代を終了させたことについて話しましたこの記事では、私たちは...に焦点を当てることを目指しています

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us