Learn more about Search Results 22 - Page 7

2023年に再訪するトップの生成AI GitHubリポジトリ

はじめに 2023年も終わりに近づき、人工知能の領域は忍び足で進化を続けています。最新の進歩について追いかけることは、動く標的を追うようなものです。幸いにも、GitHubの活気あるエコシステムの中には、貴重な情報源が数多く存在しています。ここでは、2024年を含む将来のAI学習のためのスプリングボードとなる、トップのAI GitHubリポジトリを紹介します。この厳選されたリストは完全ではありませんが、関連性、インパクト、および好奇心を刺激する潜在能力により、それぞれのリポジトリが評価されています。 Hugging Face / Transformers 117k スター | 23.3k フォーク このリポジトリは、自然言語処理(NLP)に興味のある人々にとって宝庫です。BERT、RoBERTa、T5などのさまざまな事前学習済みのTransformerベースのモデル、詳細なドキュメント、チュートリアル、そして活気あるコミュニティがホスティングされています。 主な特徴 幅広い事前学習済みモデル、包括的なドキュメント、活発なコミュニティサポート、多様なアプリケーションの可能性、他のライブラリとの簡単な統合。 このGenerative AI GitHubリポジトリを探索するには、ここをクリックしてください。 Significant Gravitas / AutoGPT 155k スター…

「エッセンシャルAI、シリーズAラウンドで5650万ドル調達」

スタートアップ企業のEssential AIは、56.5百万ドルのシリーズAを調達し、エンタープライズブレインの構築を目指していますGoogleのベテランであるAshish VaswaniとNiki Parmarによって設立されたこのスタートアップは、人間と機械の間に架け橋を築くことを約束するAI製品のフルスタックに取り組んでいますYahoo!によると...

ジェンAIに関するトップ10の研究論文

イントロダクション 自然言語理解の常に進化する風景の中で、研究者たちは革新的なアプローチを通じて可能性の限界を em>押し上げることを続けています。本記事では、生成AI(GenAI)に関する画期的な研究論文のコレクションについて探求していきます。これらの研究は、人間の好みとの一致度向上からテキストの説明から3Dコンテンツを生成するという様々な側面にわたって言語モデルを探究しています。これらの研究は学術的な論議に貢献すると同時に、自然言語処理の未来を形作る可能性のある実践的な洞察を提供しています。これらの啓発的な調査を通じて旅を始めましょう。 GenAIに関するトップ10の研究論文 GenAIに関する数百の研究論文の中から、以下は私たちのトップ10の選り抜きです。 1. 生成プリトレーニングによる言語理解の向上 この研究論文は、非教示型のプリトレーニングと教示型のファインチューニングを組み合わせて自然言語理解タスクを強化するための半教師付きアプローチを探求しています。この研究では、Transformerアーキテクチャに基づいたタスクに依存しないモデルを利用しています。これにより、多様な未ラベルのテキストでの生成プリトレーニングとその後の識別的ファインチューニングによって、さまざまな言語理解ベンチマークでのパフォーマンスが大幅に向上することが明らかになりました。 このモデルは、常識的な推論において8.9%、質問応答において5.7%、テキスト言い換えにおいて1.5%といった注目すべき改善を達成しました。この研究は、大規模な未ラベルのコーパスをプリトレーニングに活用し、ファインチューニング中のタスクに意識した入力変換を行うことが、教師なし学習を自然言語処理や他の領域で進めるための貴重な洞察を提供しています。 論文はこちらで入手できます:https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf 2. 人間フィードバックを用いた強化学習:悲観主義を通じたダイナミックな選択の学習 この生成AIに関する研究論文は、オフラインでの人間フィードバックによる強化学習(RLHF)の難しい領域に深入りしています。この研究は、人間の選択に影響を受けたトラジェクトリの集合から、マルコフ決定過程(MDP)における人間の基盤と最適方策を把握することを目指しています。この研究は、経済計量学に根ざしたダイナミックディスクリートチョイス(DDC)モデルに焦点を当て、有界合理性を持った人間の意思決定をモデル化します。 提案されたDynamic-Choice-Pessimistic-Policy-Optimization(DCPPO)メソッドは、次の3つのステージで構成されています。それらは、人間の行動方針と価値関数の推定、人間の報酬関数の再現、および事実に近い最適方策のための悲観的価値反復の呼び出しです。この論文は、動的なディスクリートチョイスモデルによるオフポリシーオフラインRLHFについての理論的な保証を提供しています。分布のシフトや次元のサブオプティマリティの課題への対処についての洞察も提供しています。 論文はこちらで入手できます:https://arxiv.org/abs/2305.18438 3. ニューラル確率言語モデル この研究論文は、次元の呪いによって生じる統計的言語モデリングの課題に取り組み、未見の単語の連続列に対して一般化する難しさに焦点を当てています。提案された解決策は、単語の分散表現を学習することで、各トレーニング文がモデルに対して意味的に隣接する文について情報を提供することを可能にします。単語の表現と単語列の確率関数を同時に学習することで、モデルは一般化性能を向上させることができます。 ニューラルネットワークを用いた実験結果は、最先端のn-gramモデルに比べて大幅な改善を示しており、長い文脈を活用するアプローチの効果を示しています。論文は、学習された分散表現によって次元の課題に対処するモデルの能力を強調しながら、潜在的な将来の改善の可能性についても言及しています。 論文はこちらで入手できます:https://www.jmlr.org/papers/volume3/bengio03a/bengio03a.pdf 4. BERT:言語理解のための深層双方向トランスフォーマーの事前学習 GenAIの研究論文では、未ラベル化されたテキストに対して双方向の事前学習を行うために設計された画期的な言語表現モデルであるBERTが紹介されています。従来のモデルとは異なり、BERTはすべてのレイヤーで左右の文脈に依存し、タスク固有の修正を最小限に抑えながら微調整を可能にします。BERTはさまざまな自然言語処理タスクで最先端の結果を実現し、その簡潔さと実証的なパワーを示しています。 この論文では既存の技術の制約に対処し、言語表現のための双方向の事前学習の重要性を強調しています。BERTのマスクされた言語モデル目的は、深い双方向のTransformer事前学習を促進し、タスク固有のアーキテクチャへの依存を減らし、11のNLPタスクの最先端の技術を前進させています。…

「このAI研究は、グラフ上の大規模言語モデル(LLM)について包括的な概要を共有します」

よく知られたLarge Language Models(LLMs)であるGPTやBERT、PaLM、LLaMAは、自然言語処理(NLP)と自然言語生成(NLG)においていくつかの大変な進歩をもたらしました。これらのモデルは大規模なテキストコーパスで事前学習され、質問応答やコンテンツ生成、要約など、複数のタスクで驚異的なパフォーマンスを発揮しています。 LLMsは平文のテキストを扱うことができることが証明されていますが、テキストデータがグラフ形式の構造情報とリンクされたアプリケーションを扱う必要性がますます高まっています。研究者たちは、LLMsの良好なテキストベースの推論力を活用して、マッチングサブグラフ、最短パス、接続推論などの基本的なグラフの推論タスクにLLMsをどのように適用できるかを研究しています。LLMsの統合に関連付けられているグラフベースのアプリケーションには、純粋なグラフ、テキスト豊かなグラフ、テキスト対応グラフの3つのタイプがあります。これらの機能とGNNとの相互作用に応じて、LLMsをタスク予測器、GNNの特徴エンコーダー、またはGNNとのアライナーとして扱うテクニックがあります。 LLMsはグラフベースのアプリケーションでますます人気が高まっていますが、LLMsとグラフの相互作用を調査する研究は非常に少ないです。最近の研究では、研究チームが大規模な言語モデルとグラフの統合に関連した状況と方法の体系的な概要を提案しています。目的は、テキスト豊かなグラフ、テキスト対応グラフ、純粋なグラフの3つの主要なカテゴリに可能な状況を整理することです。チームは、アライナー、エンコーダー、または予測器としてLLMsを使用する具体的な方法を共有しています。各戦略には利点と欠点があり、リリースされた研究の目的はこれらのさまざまなアプローチを対比することです。 チームは、LLMsをグラフ関連の活動で使用する利点を示すことで、これらの技術の実用的な応用に重点を置いています。チームは、これらの方法の適用と評価を支援するためのベンチマークデータセットとオープンソーススクリプトに関する情報を共有しています。結果は、この急速に発展している分野でのさらなる研究と創造性の必要性を強調して、可能な将来の研究トピックを概説しています。 チームは、彼らの主な貢献を以下のようにまとめています。 チームは、言語モデルがグラフで使用される状況を体系的に分類することで貢献を果たしました。これらのシナリオは、テキスト豊かな、テキスト対応、純粋なグラフの3つのカテゴリに整理されています。この分類法は、さまざまな設定を理解するための枠組みを提供します。 言語モデルは、グラフのアプローチを用いて詳細に分析されました。評価は、さまざまなグラフ状況の代表的なモデルをまとめたもので、最も徹底的なものとなっています。 言語モデルをグラフに関連する研究に関連して、実世界の応用、オープンソースのコードベース、ベンチマークデータセットなど、多くの資料がキュレーションされています。 言語モデルをグラフでのさらなる研究のための6つの可能な方向が提案されており、基本的なアイデアを掘り下げています。

AI記事スキャンダルがアリーナグループに波紋を広げ、CEOが解任される

アリーナグループは、スポーツイラストの発行元として最もよく知られており、AI記事のスキャンダルに揺れた会社のCEOを解任しましたこれは、スポーツイラストがAIを使用して記事を公表していたことが明らかになってから数週間後のことですこれは、Futurismが昨年11月に報告した会社を発見した後の出来事です...

裁判官がChatGPTを法的判決に使用することが許可されました

イギリスは今、裁判所で「非常に便利な」人工知能チャットボットの使用を許可しています

AIの付き添いロボットが、孤独感に苦しむ高齢者の一部には助けになっていますが、他の人には嫌われています

これまでに健康効果に関する限られた証拠がありますが、初期の研究では一つの方法が全てに適しているわけではないと示唆されています

特定のデータ処理タスクを効率的に解決するための3つのPython操作

あなたに届く生データはほぼ常に希望された形式または必要とされる形式とは異なりますあなたのワークフローは指定された形式に生データを取り込んで始まり、…

ボーダフォンは、AWS DeepRacerとアクセンチュアを活用して機械学習のスキルを向上させています

「ボーダフォンは、2025年までに、イノベーションを加速し、コストを削減し、セキュリティを向上させ、業務を簡素化するという目標を持ち、通信会社(テルコ)からテクノロジー企業(テックコー)への転換を行っていますこの変革に貢献するために、数千人のエンジニアが採用されていますまた、2025年までに、ボーダフォンは、グローバルな労働力の50%がソフトウェア開発に積極的に関与することを計画しています」

「ウェアラブルデータによるコロナ感染予測」

消費者用ウェアラブルデバイスと医療用ウェアラブルデバイスの収斂は近いのか?

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us