Learn more about Search Results L
- You may be interested
- print()の使用をやめる
- 「人道的な災害状況報告チャットボットの...
- モデルオプスとは何ですか?
- 『GenAI:より良い結果と低コストでデータ...
- 「ロボタクシーがサンフランシスコを回る...
- データサイエンスのためのPython入門
- 「OpenAIのAI検出ツールは、AIによって生...
- 「AIに関するアレン研究所の研究者らが、...
- 「OpenAI、マイクロソフトの支援を受けてG...
- チューリングテスト、中国の部屋、そして...
- 「データサイエンス、機械学習、コンピュ...
- カスタムデータセットのセグメンテーショ...
- 「ベストのTableauコース(2023年)」
- 海洋流を研究するより良い方法
- 「LangChain、Activeloop、およびDeepInfr...
Googleは独占禁止法訴訟で敗訴:ビッグテックにとって何を意味するのか?
「エピックゲームズが検索大手との法的闘争に勝利した事は画期的な勝利であり、同社の強さと決断力を示す重要な節目となりました」
「2023年、オープンLLMの年」
2023年には、大型言語モデル(Large Language Models、LLMs)への公衆の関心が急増しました。これにより、多くの人々がLLMsの定義と可能性を理解し始めたため、オープンソースとクローズドソースの議論も広範な聴衆に届くようになりました。Hugging Faceでは、オープンモデルに大いに興味を持っており、オープンモデルは研究の再現性を可能にし、コミュニティがAIモデルの開発に参加できるようにし、モデルのバイアスや制約をより簡単に評価できるようにし、チェックポイントの再利用によってフィールド全体の炭素排出量を低減するなど、多くの利点があります(その他の利点もあります)。 では、オープンLLMsの今年を振り返ってみましょう! 文章が長くなりすぎないようにするために、コードモデルには触れません。 Pretrained Large Language Modelの作り方 まず、大型言語モデルはどのようにして作られるのでしょうか?(もし既に知っている場合は、このセクションをスキップしてもかまいません) モデルのアーキテクチャ(コード)は、特定の実装と数学的な形状を示しています。モデルのすべてのパラメータと、それらが入力とどのように相互作用するかがリストとして表されます。現時点では、大部分の高性能なLLMsは「デコーダーのみ」トランスフォーマーアーキテクチャのバリエーションです(詳細は元のトランスフォーマーペーパーをご覧ください)。訓練データセットには、モデルが訓練された(つまり、パラメータが学習された)すべての例と文書が含まれています。したがって、具体的には学習されたパターンが含まれます。ほとんどの場合、これらの文書にはテキストが含まれており、自然言語(例:フランス語、英語、中国語)、プログラミング言語(例:Python、C)またはテキストとして表現できる構造化データ(例:MarkdownやLaTeXの表、方程式など)のいずれかです。トークナイザは、訓練データセットからテキストを数値に変換する方法を定義します(モデルは数学的な関数であり、したがって入力として数値が必要です)。トークン化は、テキストを「トークン」と呼ばれるサブユニットに変換することによって行われます(トークン化方法によっては単語、サブワード、または文字になる場合があります)。トークナイザの語彙サイズは、トークナイザが知っている異なるトークンの数を示しますが、一般的には32kから200kの間です。データセットのサイズは、これらの個々の「原子論的」単位のシーケンスに分割された後のトークンの数としてよく測定されます。最近のデータセットのサイズは、数千億から数兆のトークンに及ぶことがあります!訓練ハイパーパラメータは、モデルの訓練方法を定義します。新しい例ごとにパラメータをどれだけ変更すべきですか?モデルの更新速度はどのくらいですか? これらのパラメータが選択されたら、モデルを訓練するためには1)大量の計算パワーが必要であり、2)有能な(そして優しい)人々が訓練を実行し監視する必要があります。訓練自体は、アーキテクチャのインスタンス化(訓練用のハードウェア上での行列の作成)および上記のハイパーパラメータを使用して訓練データセット上の訓練アルゴリズムの実行からなります。その結果、モデルの重みが得られます。これらは学習後のモデルパラメータであり、オープンな事前学習モデルへのアクセスに関して多くの人々が話す内容です。これらの重みは、推論(つまり、新しい入力の予測やテキストの生成など)に使用することができます。 事前学習済みLLMsは、重みが公開されると特定のタスクに特化または適応することもあります。それらは、「ファインチューニング」と呼ばれるプロセスを介して、ユースケースやアプリケーションの出発点として使用されます。ファインチューニングでは、異なる(通常はより専門化された小規模な)データセット上でモデルに追加の訓練ステップを適用して、特定のアプリケーションに最適化します。このステップには、計算パワーのコストがかかりますが、モデルをゼロから訓練するよりも財政的および環境的にはるかにコストがかかりません。これは、高品質のオープンソースの事前学習モデルが非常に興味深い理由の一つです。コミュニティが限られたコンピューティング予算しか利用できない場合でも、自由に使用し、拡張することができます。 2022年 – サイズの競争からデータの競争へ 2023年以前、コミュニティで利用可能だったオープンモデルはありましたか? 2022年初頭まで、機械学習のトレンドは、モデルが大きければ(つまり、パラメータが多ければ)、性能が良くなるというものでした。特に、特定のサイズの閾値を超えるモデルは能力が向上するという考えがあり、これらの概念はemergent abilitiesとscaling lawsと呼ばれました。2022年に公開されたオープンソースの事前学習モデルは、主にこのパラダイムに従っていました。 BLOOM(BigScience Large Open-science…
Google AIはPixelLLMを提案します:細かい粒度のローカリゼーションとビジョン・ランゲージのアラインメントが可能なビジョン・ランゲージモデル
大規模言語モデル(LLMs)は、自然言語処理(NLP)、自然言語生成(NLG)、コンピュータビジョンなど、人工知能(AI)のサブフィールドの力を活用しています。LLMsにより、画像について複雑な推論を行い、画像に関するクエリに応答し、自然言語で画像を説明することが可能になりました。しかし、LLMsが単語の位置特定や位置の参照などの位置情報タスクを実行できるかはまだ不確かです。 この課題を解決するため、Google ResearchとUC San Diegoの研究チームが、PixelLLMという賢いモデルを導入し、細かい位置情報と画像-言語の整合性を実現することが可能になりました。このアプローチは、特に赤ちゃんがジェスチャーや指さし、命名などで自然に自分の視覚環境を説明する方法に着想を得ています。チームは、LLMsが視覚入力から空間的理解と推論をどのように派生できるかを見つけることを目標としていると共有しています。 PixelLLMは、言語モデルの各単語出力をピクセルの位置に密接に対応させます。これには、単語特徴の上に小さなマルチレイヤーパーセプトロン(MLP)が追加され、各単語のピクセル位置に回帰できるようになっています。低ランクのファインチューニング(LoRA)が使用され、言語モデルの重みを更新または凍結することができます。モデルはテキストまたは場所のプロンプトも受け取ることができ、プロンプトに合わせた出力を提供できます。 モデルのアーキテクチャには、画像エンコーダ、プロンプトエンコーダ、およびプロンプト特徴抽出器が含まれています。大規模言語モデルは、プロンプトに基づいた画像特性とオプションのテキストプロンプトを入力とし、単語ごとの位置特定とキャプションという形で出力します。言語または位置の様々な組み合わせを入力または出力として受け取る能力により、アーキテクチャは幅広い視覚言語活動に適応できます。 チームは、密なオブジェクトキャプショニングや位置条件付きキャプショニング、位置の参照など、よく知られたビジョンタスクを使用してモデルを評価しました。89.8 [email protected]のRefCOCOを参照した位置情報、Visual Genome条件付きキャプショニングの19.9 CIDEr、密なオブジェクトキャプショニングの17.0 mAPなど、優れたパフォーマンス指標を持つPixelLLMは、さまざまな課題において最先端の結果を示しています。ピクセルごとの密な位置特定の定式化が重要であることは、RefCOCOでの収縮研究によって示されており、他の位置特定の定式化に比べて3.7ポイントの利益を上げています。したがって、PixelLLMは正確なビジョン-言語の整列と位置情報を達成することに成功しています。 チームは、主な貢献を以下のようにまとめています。 「PixelLLM」という新しいビジョン-言語モデルを紹介し、単語の位置特定と画像キャプションを生成する。 モデルは、画像入力に加えてテキストまたはオプションの場所の手がかりをサポートします。 位置特定のトレーニングには、ローカル化されたナラティブデータセットが使用されました。 セグメンテーション、位置条件付きキャプショニング、参照位置、密なキャプショニングなど、さまざまなビジョン-言語タスクに適応することができます。 位置条件付きキャプショニング、密なキャプショニング、参照位置とセグメンテーションで優れた成果を示しました。
RAGを使用したLLMパワードアプリケーションの開始ガイド
ODSCのウェビナーでは、PandataのNicolas Decavel-Bueff、そして私(カル・アル・ドーバイブ)とData Stack AcademyのParham Parviziが協力し、エンタープライズグレードの大規模な言語モデル(LLM)の構築から学んだ教訓と、データサイエンティストとデータエンジニアが始めるためのヒントを共有しました最大の...
「Plotlyを使用したダイナミックなコロプレス可視化の作成」
データを視覚化することは、データサイエンティストによって見過ごされがちなステップですデータを分析し、整理してわかりやすい形にすることで、物語を伝えることができますすべての技術的な詳細を取り除くことで...
『中にFunSearch:GoogleのDeepMindの新しいLLM、新しい数学とコンピューターサイエンスのアルゴリズムを見つけることができる』
新しい科学の発見は、AIモデルにとって最も完全なチューリングテストかもしれません新しい科学の方法には、多くの分野からの知識を組み合わせた複雑な推論スキルや、常に実験を行う必要があります...
DALLE-3の5つの使用例
「DALL-E 3を使って、あなたの生活を少しでも楽にする方法を学んでください(またはたくさん)」
ミキストラル-8x7B + GPT-3 + LLAMA2 70B = 勝利者
「誰もがGoogle Geminiのリリースに注目している中、Mixtral-8 x 7 Billionは静かにオープンソースモデルをリリースしましたそこで、この記事では最新のAIについて深く掘り下げていきます...」
このAI論文では、既知のカメラパラメータなしで新しい視点合成を行うために、COLMAP-Free 3D Gaussian Splatting(CF3DGS)を提案しています
ニューラルレンダリングの進歩により、シーンの再構築や新しい視点の生成において重要なブレイクスルーがもたらされました。しかし、その効果はカメラの姿勢の正確な予備計算に大きく依存します。この問題を最小化するために、事前計算されたカメラの姿勢がないNeural Radiance Fields(NeRFs)を訓練するためにさまざまな取り組みが行われています。しかし、NeRFsの暗黙的な表現は、3Dの構造とカメラの姿勢を同時に最適化するのが困難です。 UCサンディエゴ、NVIDIA、UCバークレーの研究者らは、COLMAP-Free 3D Gaussian Splatting(CF-3DGS)を導入しました。これは、ビデオの時間的な連続性と明示的なポイントクラウド表現の2つの重要な要素を高めています。すべてのフレームを一度に最適化するのではなく、CF-3DGSはカメラが移動するにつれてシーンの3Dガウスを連続的な形で「成長させる」一つの構造を構築します。CF-3DGSは各フレームに対してローカルな3Dガウスセットを抽出し、全体のシーンのグローバルな3Dガウスセットを維持します。 https://arxiv.org/abs/2312.07504 リアルな画像を視点から生成するためにさまざまな3Dシーン表現が使用されており、平面、メッシュ、ポイントクラウド、マルチプレーンイメージなどが含まれます。NeRFs(Neural Radiance Fields)は、その写真のようなリアルなレンダリング能力のために、この分野で注目を集めています。3DGS(3D Gaussian Splatting)メソッドは、純粋な明示的な表現と微分を利用したポイントベースのスプラッティング方法を使用して、ビューのリアルタイムレンダリングを可能にします。 CF-3DGSは既知のカメラパラメータを必要としないで合成ビューを実現します。それは3D Gaussian Splatting(3DGS)とカメラの姿勢を同時に最適化します。近くのフレームから相対カメラ姿勢を推定するためにローカルな3DGSメソッドを使用し、未観測のビューから3Dガウスを進行的に展開するためにグローバルな3DGSプロセスを使用しています。CF-3DGSは、明示的なポイントクラウドを使用してシーンを表現し、3DGSの機能とビデオストリームに固有の連続性を活用します。このアプローチは、入力フレームを順次処理し、3Dガウスを進行的に展開してシーンを再構築します。この手法により、トレーニングと推論の速度が高速化されます。 https://arxiv.org/abs/2312.07504 CF-3DGSメソッドは、先行の最先端技術よりもポーズ推定の耐性が高く、新規ビューの合成品質も優れています。この手法は、より複雑で挑戦的なカメラの動きを示すCO3Dビデオで検証され、ビューの合成品質においてNope-NeRFメソッドを上回る結果を示しました。このアプローチは、CO3D V2データセットにおいてすべてのメトリックでNope-NeRFeをしのぎ、特に複雑なカメラの動きがあるシナリオでのカメラの姿勢推定の耐性と精度を示しています。 まとめると、CF-3DGSはビデオの時間的な連続性と明示的なポイントクラウド表現を利用してビューを効果的かつ堅牢に合成する方法です。この方法は、主にビデオストリームや順序付けられた画像コレクションに適しており、Structure-from-Motion(SfM)前処理の必要はありません。また、非順序の画像コレクションに対応するための将来の拡張の可能性もあります。
スタンフォード大学の研究者が、大規模言語モデル(LLM)における相互補完的および貢献的帰属に対する統一的なAIフレームワークを紹介します
大規模言語モデル(LLMs)は、人工知能(AI)の指数関数的に進化する分野での最新の進歩です。これらのモデルは、テキスト生成、質問応答、テキスト要約などのタスクにおいて驚異的なパフォーマンスを発揮しますが、生成されるデータの正確性とセキュリティには課題があります。これらのモデルは、時には虚偽の情報を製造または生成し、信頼性のない出力を作り出すことがあります。 モデルの出力が害を引き起こす場合、その源泉を追跡することは道徳的および法的な責任を割り当てるために必要ですが、帰属は創造的な技術的研究が必要な困難なタスクです。LLMの出力の帰属に関する研究は、主に2つの領域に焦点を当てています:トレーニングデータの帰属(TDA)および引用生成。 最近の研究では、スタンフォード大学の研究チームが大規模言語モデルの帰属について統一フレームワークを導入しました。この研究は引用生成とTDAを組み合わせ、確証的および寄与的な帰属の下に統一的なフレームワークを提供します。寄与的帰属は作成されたコンテンツの源泉の検証に重点を置きますが、確証的帰属は外部の知識に基づいて出力が正確であることを検証しようとします。 チームはさまざまな状況で望ましい属性を詳細に検討し、各形式の帰属について正確な定義を提供しました。この方法は、両方の種類の徹底的な帰属を提供できる帰属システムの創造と評価を促進するものであり、言語の帰属の明確で柔軟な概念に向けた第一歩です。 このフレームワークは、その有用性を示すために実際のユースケースで利用されています。例は、一方または両方の種類の帰属が必要となる状況を示しています。法的文書の作成のプロセスでは、内部的な妥当性、つまりトレーニングデータの帰属によって情報の源泉と信頼性を確認し、外部的な妥当性、つまり引用の作成によって素材が法的要件に準拠していることを確認します。同様に、医療の質問応答の文脈では、応答の正確性の検証とモデルの知識に影響を与える源泉の理解のために両方の帰属が重要です。 チームは次のように主な貢献をまとめました。 共有要素を強調した帰属の共有フレームワークを示すインタラクションモデルが提示されました。 両方の種類の帰属に関連する属性を見つけることによって、組み合わせたフレームワークが改善されました。 現在の寄与的および確証的な帰属の実装の包括的な分析が行われ、現実世界での使用に関する洞察が提供されました。 法的文書の作成などの帰属に重要なシナリオについて、効果的に必要な特性を記述しました。 結論として、このフレームワークは素晴らしい導入であり、帰属システムの評価の標準化に役立ち、さまざまな分野でその効果の体系的かつ比較可能な評価を推進します。これにより、大規模言語モデルの使用を改善し促進し、出力の信頼性の重要な問題を解決することができます。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.