Learn more about Search Results Transformer - Page 9

Google Gemini APIを使用してLLMモデルを構築する

導入 ChatGPTとOpenAIのGPTモデルのリリース、およびMicrosoftとのパートナーシップにより、AIの領域にTransformerモデルをもたらしたGoogleはみんなが諦めた存在となりました。 GPTモデルがリリースされてから1年以上が経過しましたが、GoogleからはPaLM API以外に大きな動きはありませんでした。PaLM APIもあまり注目されず失敗に終わりました。そしてGoogleが突如として紹介した基盤となるモデルのグループ、Geminiが登場しました。Geminiの発売からわずか数日後、GoogleはGemini APIをリリースしました。このガイドでは、Gemini APIをテストし、最終的にはそれを使用してシンプルなチャットボットを作成します。 学習目標 GoogleのGeminiシリーズの基礎知識を学ぶ。これには異なるモデル(Ultra、Pro、Nano)と、テキストと画像のサポートを中心とする多様性が含まれます。 Gemini Proのチャット・モデルを使用してチャットベースのアプリケーションを作成するスキルを開発し、チャットの履歴を維持し、ユーザーの文脈に基づいて応答を生成する方法を理解する。 Geminiが安全であるために、不安全なクエリを処理し、さまざまなカテゴリの安全性評価を提供することにより、責任あるAIの使用を保証する方法を探索する。 Gemini ProとGemini Pro Visionモデルを使用した実践的な経験を積み、画像の解釈と説明を含む、テキスト生成とビジョンに基づく機能を探索する。 Gemini APIとLangchainを統合して、相互作用のプロセスを簡素化する方法を学び、複数のクエリを効率的に処理するための入力と応答のバッチ処理について学ぶ。 この記事はデータサイエンスブログサラソンの一部として公開されました。 Geminiとは何ですか? Geminiは、Googleが構築し導入した新しい基盤モデルのシリーズです。これはこれまでのPaLMと比べて最も大きなモデルセットであり、最初から多様性に焦点を当てて構築されています。これにより、Geminiモデルはテキスト、画像、オーディオ、ビデオなどの異なる情報タイプの組み合わせに強力です。現在、APIは画像とテキストのサポートを提供しています。Geminiは、ベンチマークで最先端のパフォーマンスを達成し、多くのテストでChatGPTとGPT4-Visionモデルを上回っています。 Geminiには、サイズに基づいて3つの異なるモデルがあります。サイズの順に、Gemini Ultra、Gemini Pro、Gemini…

ミストラルAIの最新のエキスパート(MoE)8x7Bモデル

ミストラルAIのMoE 8x7Bを発見しましょうこれはMixture of Experts frameworkを用いた「スケールダウンされたGPT-4」ですこのモデルがどのように印象的な多言語対応能力と効率性を実現しているか、さまざまなタスクで競合モデルを上回るかを学んでください

「AGIに向かって:LLMと基礎モデルが人生の学びの革命で果たす役割」

過去10年間、特にディープラーニングの成功を受けて、人工汎用知能(AGI)の構築の可能性について議論が続いています最終目標は...

推測的なサンプリング—直感的かつ徹底的に説明されています

この記事では、「推測的サンプリング」という戦略について説明しますこれによって、テキスト生成の速度を速くし、コストを抑えつつも性能には妥協しないことができますまずはじめに、私たちは…

マイクロソフトAIチームがPhi-2を紹介:2.7Bパラメーターの小型言語モデルで、優れた推論能力と言語理解能力を示します

“`html 言語モデルの開発は、従来、モデルのサイズが大きいほど性能が優れているという前提のもとで行われてきました。しかし、この確立された信念から逸脱し、マイクロソフトリサーチの機械学習基礎チームの研究者たちは、パラメータ数27億の画期的な言語モデル「Phi-2」を導入しました。このモデルは、従来のスケーリング法則に反する特性を持ち、モデルのサイズだけが言語処理能力の決定因子とされる広く共有されている考え方に挑戦しています。 この研究では、優れた性能が大きなモデルを必要とするという一般的な仮定について考察されています。研究者たちは、Phi-2を通常から逸脱したパラダイムシフトとして紹介しています。この記事では、Phi-2の特徴的な属性とその開発に取り組んだ革新的な手法について詳しく説明しています。Phi-2は、従来のアプローチとは異なり、厳選された高品質なトレーニングデータに依存し、より小さいモデルからの知識転移を活用しています。これにより、言語モデルのスケーリングにおける確立された慣行に立ち向かう力強い挑戦を示しています。 Phi-2の方法論の基盤は、2つの重要な洞察にあります。まず、研究者たちは、トレーニングデータの品質の重要性を強調し、モデルに推論、知識、常識を注入するために「教科書品質」と設計されたデータを使用しています。また、革新的な技術が駆使され、1.3億のパラメータPhi-1.5から始まるモデルの洞察力の効率的なスケーリングを実現しています。この記事では、Phi-2のアーキテクチャについて詳しく掘り下げており、合成データとWebデータセットでトレーニングされた次の単語予測を目的とするTransformerベースのモデルを特徴としています。Phi-2はその控えめなサイズにもかかわらず、さまざまなベンチマークでより大きなモデルを凌駕し、その効率性と優れた能力を示しています。 結論として、マイクロソフトリサーチの研究者は、Phi-2を言語モデルの開発における革新的な力として提案しています。このモデルは、モデルの能力が本質的にサイズに結び付いているという業界の長年の信念に挑戦するだけでなく、成功裏に反証しています。このパラダイムシフトは、従来のスケーリング法則に厳密に従うことなく達成できる効率性を強調し、新たな研究の視点や可能性を重視しています。Phi-2の特徴的な高品質なトレーニングデータと革新的なスケーリング技術は、自然言語処理分野における大きな進歩を示し、将来の新しい可能性と安全な言語モデルを約束しています。 The post Microsoft AI Team Introduces Phi-2: A 2.7B Parameter Small Language Model that Demonstrates Outstanding Reasoning and Language…

Mixtral-8x7B スパースなエキスパートの混合理解と実行

最近の大規模言語モデル(LLM)のほとんどは、非常に似たようなニューラルアーキテクチャを使用していますたとえば、Falcon、Mistral、およびLlama 2モデルは、セルフアテンションとMLPの類似の組み合わせを使用しています...

『AWSプロトタイピングによるICL-GroupのAmazon SageMaker上でのコンピュータビジョンモデルの構築』

「これはICLとAWSの従業員が共同執筆した顧客投稿ですICLは、イスラエルに拠点を置く多国籍の製造および鉱業企業で、ユニークな鉱物に基づいた製品を製造し、主に農業、食品、エンジニアリング材料の三つの市場で人類の基本的なニーズを満たしています彼らの鉱山サイトでは、監視が必要な産業用機器が使用されています...」

ChatGPTが知能的ですか? 科学的なレビュー

約1年前、OpenAIはChatGPTをリリースし、世界中を席巻しましたChatGPTは、コンピュータとの対話を、従来のより制約の少ない、より自然な言語で行うという完全に新しいアプローチを取り入れました

「ニュースレコメンデーションのための大規模な言語モデルとベクトルデータベース」

大規模言語モデル(LLM)は、Chat-GPTやBardなどの生成型AIツールの最新リリースにより、機械学習コミュニティ全体で大きな話題となりましたその中核となるアイデアの1つは...

このAI論文は、TreeOfLife-10Mデータセットを活用して生物学と保護のコンピュータビジョンを変革するBioCLIPを紹介しています

生態学、進化生物学、生物多様性など、多くの生物学の分野が、研究ツールとしてデジタルイメージおよびコンピュータビジョンを活用しています。現代の技術は、博物館、カメラトラップ、市民科学プラットフォームから大量の画像を分析する能力を大幅に向上させました。このデータは、種の定義、適応機構の理解、個体群の構造と豊富さの推定、生物多様性の監視と保全に活用することができます。 とはいえ、生物学的な問いにコンピュータビジョンを利用しようとする際には、特定のタスクに適したモデルを見つけて訓練し、十分なデータを手動でラベリングすることは、依然として大きな課題です。これには、機械学習の知識と時間が大量に必要とされます。 オハイオ州立大学、マイクロソフト、カリフォルニア大学アーヴァイン校、レンセラーポリテクニック研究所の研究者たちは、この取り組みで生命の木の基礎的なビジョンを構築することを調査しています。このモデルは、実際の生物学的なタスクに一般的に適用できるように、以下の要件を満たす必要があります。まず、一つのクラドだけでなく、様々なクラドを調査する研究者に適用できる必要があります。そして理想的には、生命の木全体に一般化できることが求められます。さらに、生物学の分野では、同じ属内の関連種や、適応度の向上のために他の種の外観を模倣するなど、視覚的に類似した生物と遭遇することが一般的です。生命の木は生物を広義のグループ(動物、菌類、植物など)および非常に細かいグループに分類しているため、このような細かな分類の精度が重要です。最後に、生物学におけるデータ収集とラベリングの高いコストを考慮して、低データの状況(例:ゼロショットまたはフューショット)で優れた結果が得られることが重要です。 数億枚の画像で訓練された現行の汎用ビジョンモデルは、進化生物学や生態学に適用する際に十分な性能を発揮しません。しかし、これらの目標はコンピュータビジョンにとって新しいものではありません。研究者たちは、生物学のビジョン基盤モデルの作成には2つの主な障害があることを特定しています。まず、既に利用可能なデータセットは、サイズ、多様性、またはラベルの精度の点で不十分ですので、より良い事前トレーニングデータセットが必要です。さらに、現在の事前トレーニングアルゴリズムは3つの主要な目標に適切に対応していないため、生物学の独特な特性を活用したよりよい事前トレーニング方法を見つける必要があります。 これらの目標とそれらを実現するための障害を念頭に置いて、チームは以下を提示しています: TREEOFLIFE-10Mという大規模なML対応の生物学画像データセット BIOCLIPはTREEOFLIFE-10M内の適切な分類群を用いてトレーニングされた生命の木を基盤としたビジョンベースのモデルです。  TREEOFLIFE-10Mは、ML対応の広範な生物学画像データセットです。生命の木において454,000の分類群をカバーする10,000,000以上の写真が含まれており、研究者たちによって編成され、最大のML対応生物学画像データセットが公開されました。2.7百万枚の写真は、最大のML対応生物学画像コレクションであるiNat21を構成しています。iNat21やBIOSCAN-1Mなどの既存の高品質データセットもTREEOFLIFE-10Mに組み込まれています。TREEOFLIFE-10Mのデータの多様性の大部分は、新たに選択された写真が含まれているEncyclopedia of Life(eol.org)から得られています。TREEOFLIFE-10Mのすべての画像の分類階層および上位の分類順位は、可能な限り注釈が付けられています。TREEOFLIFE-10Mを活用することで、BIOCLIPや将来の生物学モデルをトレーニングすることができます。 BIOCLIPは、視覚に基づく生命の木の表現です。TREEOFLIFE10Mのような大規模なラベル付きデータセットを用いてビジョンモデルをトレーニングする一般的で簡単なアプローチは、監視付き分類ターゲットを使用して画像から分類指数を予測することを学ぶことです。ResNet50やSwin Transformerもこの戦略を使用しています。しかし、このアプローチは、分類群が体系的に関連している複雑なタクソノミーのシステムを無視し、活用していません。したがって、基本的な監視付き分類を使用してトレーニングされたモデルは、未知の分類群をゼロショット分類することができない可能性があり、トレーニング時に存在しなかった分類群に対してもうまく一般化することができないかもしれません。その代わりに、チームは、BIOCLIPの包括的な生物学的タクソノミーとCLIPスタイルの多モーダルコントラスティブ学習を組み合わせる新しいアプローチに従っています。CLIPコントラスティブ学習目的を使用することで、彼らは分類群の階層をキングダムから最も遠い分類群ランクまでフラット化して、分類名として知られる文字列に関連付けることができます。BIOCLIPは、可視化できない分類群の分類名を使用する際にも、ゼロショット分類を行うことができます。 チームは、混合テキスト型のトレーニング技術が有益であることを提案し、示しています。これは、分類名からの一般化を保ちつつ、複数のテキストタイプ(例:科学名と一般名)を組み合わせたトレーニング中に柔軟性を持つことを意味します。たとえば、ダウンストリームの使用者は一般的な種名を使用し続けることができ、BIOCLIPは非常に優れたパフォーマンスを発揮します。BIOCLIPの徹底的な評価は、植物、動物、昆虫を対象とした10の細かい画像分類データセットと、トレーニング中には使用されなかった特別に編集されたRARE SPECIESデータセットに基づいて行われています。BIOCLIPは、CLIPとOpenCLIPを大きく凌ぎ、few-shot環境では平均絶対改善率17%、zero-shot環境では18%の成績を収めました。さらに、その内在的な分析はBIOCLIPのより優れた一般化能力を説明することができます。これは、生物分類学的階層を遵守した階層的表現を学んでいることを示しています。 BIOCLIPのトレーニングは、数十万の分類群に対して視覚表現を学ぶためにCLIPの目的を利用しているということにもかかわらず、チームは分類に焦点を当てたままです。今後の研究では、BIOCLIPが細かい特徴レベルの表現を抽出できるよう、inaturalist.orgから100百万枚以上の研究用写真を取り込み、種の外見のより詳細なテキスト記述を収集する予定です。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us