Learn more about Search Results Falcon - Page 13

アーサーがベンチを発表:仕事に最適な言語モデルを見つけるためのAIツール

ニューヨーク市の通りでは、AIの新興スタートアップ「Arthur」が機械学習の世界で話題をさらっています。生成型AIに関するブンブンとした話題の中、Arthurは革新的なソリューションを提供し、企業が求める最高の言語モデルを提供するゲームチェンジャーとなるでしょう。革新の輝きと共に、同社は誇りを持って「Arthur Bench」を紹介します。これは、従来のように言語モデルのパフォーマンスを評価し比較するために設計されたオープンソースの宝石です。 また読む:大規模言語モデルの微調整の包括的なガイド 先見の明を持つリーダーの視点:Arthur Benchの誕生 Arthurの先見の明を持つCEO兼共同創設者であるAdam Wenchelは、この画期的なツールの創造の背後にあるストーリーを共有しています。彼と彼のチームは、生成型AIと言語モデルへの関心の高まりに気付き、企業が言語モデルの力を活用する方法を再定義する解決策を作り上げるために努力しました。Arthur Benchは、他のツールとの効果的な比較方法が欠如しているという問題に対処します。この欠如は、最適な言語モデルを求める企業にとってしばしば悩みの種となります。Arthur Benchは、このジレンマを解決し、アプリケーションに最適なモデルへの道を示すAIの騎士です。 Arthur Benchの解読:LLMのパフォーマンス評価の向上 Arthur Benchを手に入れることで、可能性は無限大です。このツールにより、企業は異なる言語モデルが独自の文脈でどのように機能するかを評価することができます。Arthur Benchが提供するメトリクスは、正確性や読みやすさからヘッジングなどの属性まで、包括的な評価プロセスを保証します。 また読む:大規模言語モデル(LLM)の評価方法 完璧を調整する:ニーズに合わせたカスタマイズ基準 Arthurは単なる事前パッケージ化されたソリューションを提供するだけではありません。このツールは、LLMの比較のための一連のスターター基準を提供するだけでなく、ビジネスは固有の要件に完全に合致する基準を追加することができます。それは、ニーズに合わせた卓越性を実現する絶頂です。 力を活用する:LLMテストツールの公開 Arthur Benchは、約束を守るだけではありません。方法論的なテストのために設計されたツールのスイートを提供します。しかし、真の魔力は、ツールがユーザーの現実世界の対話を反映するプロンプトに対してさまざまなLLMのパフォーマンスをシミュレートする能力にあります。100のプロンプトをテストし、アプリケーションのニーズに最適なマッチを見つけることを想像してみてください。 また読む:LLMのマスタリング:効率的なプロンプトの包括的ガイド 卓越の未来:オープンソースの創造性を受け入れる 今日、Arthur Benchはオープンソースの驚異として世界に踏み出します。シームレスな体験を希望する人々のためにSaaS版も開発中ですが、プロジェクトのオープンソースの核心に焦点が当てられています。これは、Arthurのイノベーションへの取り組みとAIの力へのアクセスの民主化を強調しています。…

トムソン・ロイターが6週間以内に開発したエンタープライズグレードの大規模言語モデルプレイグラウンド、Open Arena

この記事では、トムソン・ロイター・ラボがAWSとの協力のもとで開発したトムソン・ロイターの企業全体で使用される大規模言語モデル(LLM)のプレイグラウンド、Open Arenaについて説明しますオリジナルのコンセプトは、Simone Zucchet(AWSソリューションアーキテクト)とTim Precious(AWSアカウントマネージャー)のサポートを受けたAI/MLハッカソンで生まれ、AWSのサービスを使用して6週間以内に本番環境に開発されましたAWS Lambda、Amazon DynamoDB、Amazon SageMakerなどのAWS管理サービス、および事前に構築されたHugging Face Deep Learning Containers(DLC)がイノベーションのスピードに貢献しました

メタAIのハンプバック!LLMの自己整列と指示逆翻訳による大きな波を起こしています

大規模言語モデル(LLM)は、コンテキスト学習や思考の連鎖など、優れた一般化能力を示しています。LLMが自然言語の指示に従い、現実世界のタスクを完了するために、研究者はLLMの指示調整方法を探求しています。これは、人間の注釈付きプロンプトやフィードバック、または公開ベンチマークとデータセットを使用した監督微調整など、さまざまな関数でモデルを微調整することで実現されます。最近の研究では、人間の注釈データの品質の重要性が強調されています。しかし、そのような品質のデータセットに従って指示を注釈付けすることは、スケールするのが難しいことがわかっています。 この解決策は、LLMとの自己整列を扱います。つまり、モデルを利用して自身を改善し、モデルが書かれたフィードバック、批判、説明などの望ましい振る舞いに応じて応答を整列させることです。Meta AIの研究者は、自己整列による指示付きバックトランスレーションを紹介しました。基本的なアイデアは、大規模言語モデルを使用してWebテキストに対応する指示を自動的にラベル付けすることです。 セルフトレーニングのアプローチでは、ベースとなる言語モデル、ラベルのない例のコレクション(例えば、Webコーパス)、および少量のシードデータにアクセスできることが前提とされます。この方法の第一の前提は、この大量の人間によって書かれたテキストの一部は、いくつかのユーザー指示のための良い生成物として有用であるということです。第二の前提は、これらの応答に対して指示を予測できるということであり、これを使用して高品質の例のペアを使用して指示に従うモデルをトレーニングすることができます。 指示付きバックトランスレーション全体は、以下の手順に分割できます: セルフオーグメント:ラージ言語モデルMeta AI(LLaMA)を使用して、ラベルの付いていないデータ(Webコーパスなど)のための「良い指示」を生成し、指示の調整のためのトレーニングデータ(指示、出力のペア)を生成します。 セルフクリエイト:LLaMAを使用して生成されたデータを評価します。 そして、このデータを使用してLLaMAを微調整し、手順を繰り返して改良されたモデルを使用します。その結果、トレーニングされたLlamaベースの指示バックトランスレーションモデルは、「ハンプバック」と呼ばれました(クジラの大規模性にちなんでいます)。 「ハンプバック」は、アルパカリーダーボードのClaude、Guanaco、Falcon-Instruct、LIMAなどに関して、すべての既存の非蒸留モデルを上回りました。 現在の手順の欠点は、高度なデータがWebコーパスから派生しているため、微調整モデルはウェブデータのバイアスを強調する可能性があるということです。結論として、この方法はトレーニングデータがなくなることは絶対にありませんし、大規模言語モデルに指示に従うための堅牢なスケーラブルなアプローチを提供します。今後の課題は、より大きな未ラベルのコーパスを考慮することで、さらなる利益が得られる可能性があることです。

「HaystackパイプラインとAmazon SageMaker JumpStartを使用して、LLMsを用いたエンタープライズ検索のための本番用ジェネレーティブAIアプリケーションを構築する」

この投稿では、HaystackパイプラインとAmazon SageMaker JumpStartおよびAmazon OpenSearch ServiceからのFalcon-40b-instructモデルを使用して、エンタープライズ検索のためのエンドツーエンドの生成型AIアプリケーションを構築する方法を紹介します

「Amazon SageMaker 上での LLM を使用した多言語対応の知識型ビデオおよび音声の質疑応答システム」

「デジタルアセットは、ますますデジタル化される世界において、ビジネスにとって製品やサービス、文化、ブランドアイデンティティの重要な視覚的表現ですデジタルアセットは、記録されたユーザーの行動とともに、インタラクティブでパーソナライズされた体験を提供することにより、顧客エンゲージメントを促進し、企業がターゲットオーディエンスとより深い関係を築くことができます特定のデジタルアセットを効率的に見つけたり検索したりすることは、[…]」

「IBMとNASAが連携し、地球科学GPTを創造する:地球の謎を解読する」

データが絶対的な存在となる時代において、NASAの地球科学ミッションによって生成される膨大な情報を管理することは、膨大な挑戦をもたらします。IBM、HuggingFace、そしてNASAの共同作業により、オープンソースの地理空間の基礎モデルが生まれました。この革新は、研究者や愛好家がデータの海を楽々と航海できるようにすることを目指しています。また、これは新たな気候や地球科学のAIアプリケーションの波の設計図としても機能します。 また、以下も参照してください: データ駆動の課題:データの殺到を制御する NASAの地球科学ミッションの規模は驚異的です。2024年までに、250,000テラバイトのデータが生成される可能性が示されています。このデータリポジトリの膨大さは、この情報の豊富さを管理し活用するための独創的な解決策の必要性を引き上げています。このために、テクノロジー巨大企業であるIBM、AIプラットフォームのHuggingFace、そして尊敬されるNASAの協力によって、共同の取り組みが形成されました。 IBMのオープンソース地理空間基礎モデル この連携の核心には、AIによる探査を通じた新たな理解の時代を切り開くという狙いがあります。IBMのWatsonx.aiの機能を活用し、NASAのHarmonized Landsat Sentinel-2衛星データ(HLS)の一年分を利用して、素晴らしいオープンソースの地理空間基礎モデルが生まれました。広範なデータアーカイブの探索が可能なこのモデルは、画期的な気候や地球科学のAIアプリケーションの基盤となっています。 また、以下も参照してください:Falcon AI:新たなオープンソースの大規模言語モデル GPTにインスパイアされたプロトタイプ:NASAが気候探査を先導 この共同作業は、GPTモデルの強力な機能に着想を得て、AIプロトタイプの作成を中心としています。地球の複雑な謎を解読するために設計されたこのプロトタイプは、私たちが環境の課題を理解し対処する方法を革新する洞察をもたらすことを約束しています。このプロジェクトでは、IBMの基礎モデルの取り組みとNASAの地球衛星データのリポジトリを統合することで、気候変動研究などの重要な領域でAIの影響を高めることを目指しています。 また、以下も参照してください:NVIDIAのAIによる地球温暖化からの地球の救済 高性能のための微調整 このモデルの性能向上は、協力によって達成された素晴らしい偉業です。洪水や火災跡のマッピングなどのタスクに対してラベル付けされたデータを使用して、チームは既存の最先端モデルと比較して驚異的な15パーセントの性能向上を実現しました。さらに、この向上は半分のデータ量で達成されました。 オープンソース技術が私たちの惑星の未来を形作る役割 IBM Research AIのVPであるSriram Raghavan氏は、気候変動の領域を含む、画期的な発見を促進するためにオープンソース技術の重要な役割を強調しています。彼は、IBMの適応可能な基礎モデルの取り組み、NASAの貴重な衛星データのリポジトリ、そしてHuggingFaceの先進的なオープンソースAIプラットフォームのシナジーを称賛しています。この共同作業は、より持続可能な惑星を育む解決策の開発を加速することを目指しており、協力の精神を具現化しています。 また、以下も参照してください:Metaが彼らの有望なプロジェクトをすべてオープンソース化 | その理由を見つけよう 私たちの言葉…

オープンソース大規模言語モデルの優しい紹介

「もしもあなたが過去1年間岩の下に住んでいたのでなければ、ChatGPTの革命を目の当たりにし、どのように誰もがそれを使い続けることができないかを目撃しているでしょうこの記事では、その代替手段について探っていきます...」

「5つの最高のオープンソースLLM」

人工知能(AI)の急速に進化する世界では、大規模言語モデル(LLM)が中心となり、革新を推進し、私たちが技術とのやり取りを再構築する方法を変えましたこれらのモデルがますます洗練されるにつれて、それらへのアクセスを民主化することが重視されています特にオープンソースのモデルは、この民主化において重要な役割を果たしています[…]

「Swift Transformersのリリース:AppleデバイスでのオンデバイスLLMsの実行」

私はiOS/Macの開発者に多くの敬意を持っています。2007年にiPhone向けのアプリを書き始めたときは、まだAPIやドキュメントさえ存在しませんでした。新しいデバイスは、制約空間におけるいくつかの見慣れない決定を採用しました。パワー、画面の広さ、UIのイディオム、ネットワークアクセス、永続性、遅延などの組み合わせは、それまでとは異なるものでした。しかし、このコミュニティはすぐに新しいパラダイムに適した優れたアプリケーションを作り出すことに成功しました。 私はMLがソフトウェアを構築する新しい方法だと信じており、多くのSwift開発者が自分のアプリにAI機能を組み込みたいと思っていることを知っています。MLのエコシステムは大きく成熟し、さまざまな問題を解決する数千のモデルが存在しています。さらに、LLM(Language and Learning Models)は最近、ほぼ汎用のツールとして登場しました。テキストやテキストに似たデータで作業するため、新しいドメインに適応させることができます。私たちは、LLMが研究所から出てきて、誰にでも利用可能なコンピューティングツールになりつつあるという、コンピューティングの歴史上の転換点を目撃しています。 ただし、LlamaのようなLLMモデルをアプリに使用するには、多くの人が直面し、単独で解決する必要があるタスクがあります。私たちはこの領域を探求し、コミュニティと一緒に取り組みを続けたいと考えています。開発者がより速く開発できるように、ツールとビルディングブロックのセットを作成することを目指しています。 今日は、このガイドを公開し、MacでCore MLを使用してLlama 2などのモデルを実行するために必要な手順を説明します。また、開発者をサポートするためのアルファ版のライブラリとツールもリリースしています。MLに興味のあるすべてのSwift開発者にPRやバグレポート、意見を提供して、一緒に改善するよう呼びかけています。 さあ、始めましょう! 動画: Llama 2 (7B)チャットモデルがCore MLを使用してM1 MacBook Proで実行されています。 今日リリース swift-transformersは、テキスト生成に焦点を当てたSwiftで実装されたtransformersライクなAPIを開発中のSwiftパッケージです。これはswift-coreml-transformersの進化版であり、より広範な目標を持っています。Hubの統合、任意のトークナイザのサポート、プラグイン可能なモデルなど。 swift-chatは、パッケージの使用方法を示すシンプルなアプリです。 transformersモデルのCore ML変換のための更新されたバージョンのexporters、Core ML変換ツールであるtransformers-to-coremlの更新されたバージョン。 これらのテキスト生成ツールで使用するために準備されたLlama…

トップ投稿 7月31日〜8月6日:ChatGPTを忘れて、この新しいAIアシスタントは大きく進んでいます

ChatGPTを忘れてください、この新しいAIアシスタントははるかに進んでおり、あなたの働き方を永遠に変えるでしょう • 無料でGPT-4にアクセスする3つの方法 • ChatGPTコードインタプリタ:数分でデータサイエンスを行う • データクリーニングと前処理技術のマスターへの7つのステップ • 統計学習入門、Python...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us