Learn more about Search Results Pi - Page 10

Anthropicは、韓国の通信企業からカスタムLLMのために100ドルを調達しました

クロード・クリエイター、Anthropicは、韓国のテレコムプロバイダーであるSKテレコムからカスタムLLMのために1億ドルを調達しましたこのニュースは、Anthropicが今年5月にシリーズCラウンドで大規模な資金を調達した直後のものですSKTのプレスリリースによれば、この投資とAnthropicとのパートナーシップは...

「ゴリラ – API呼び出しの使用能力を向上させる大規模言語モデルの強化」 翻訳結果はこちらです

「現在の大規模言語モデルは、重みに保持できる情報量に制限があり、さらに、限られた文脈しか持っていませんそのため、人々は新しいアイデアを出し始めました…」

「Jupyter APIを使用してノートブックをスケジュールして呼び出す」

GCP CloudRunnerやCloud Functionsといったサーバーレスクラウドサービスのおかげで、ノートブックをデプロイして周期的に実行するために高額な仮想マシンやサーバーを管理する必要はありません

メタファーAPI:LLM向けに構築された革命的な検索エンジン

インターネットは、誰もがどんなトピックに関しても最新の情報にアクセスできるユートピアでした。しかし、ユーザーの注意を引くための激しい競争がサイトを歪めました。Metaphorチームは、これがGoogle検索の低下に最も顕著に現れていると信じています。結果のトラフィックを生かすためにGoogleの検索結果で上位にランキングすることは非常に重要であり、それには検索エンジン最適化という業界があります。その結果、ウェブサイトは最高のコンテンツを持つことよりも、Googleの検索結果でより高いランキングを獲得するために激しく競い合っています。例えば、「ナスパルメザンのレシピ」といった比較的簡単なクエリでもです。 Metaphorチームは、巨大な言語モデルの力を利用して検索の魅力を取り戻すことを目指しました。GPT3などの進歩がこれが可能であると彼らに希望を与えました。彼らはスタートアップ投資を得て、GPUクラスターを購入し、検索を向上させるために取り組みました。インターネット検索を行う際に、人類の知識の総量に手を引かれているような感覚を作り出すことを目指しています。 グループはMetaphor APIを導入しました。これは、LLMをウェブと統合するための統一されたインタフェースです。以下の数行のコードを使用できます: キーワードまたはメタファーの検索を試してみてください 解析されたHTMLが即座に返されます。ウェブをスクレイピングする必要はありません。 メタファー検索を行う場合、トランスフォーマーベースのモデルがクエリに最も関連性の高いリンクを予測するために使用されます。主な違いは、Metaphorでは返される結果がユーザーの具体的な照会により合わせてカスタマイズされていることです。例えば「AIポッドキャスト」とGoogleに入力すると、「The 11 Best AI Podcasts」といったリンクが表示されますが、Metaphorでは品質と関連性によってニューラルに整理された実際のポッドキャストが表示されます。 チームのニューラルネットワークはこのようなテキストを認識し、次のリンクを予測するように訓練されています。その結果、必要なものをオンラインで見つけるための新しいアプローチが生まれ、見つけたリンクを共有する行為を模倣します。初めはわかりにくいかもしれませんが、この方法で行われる検索は関連性の高い有益な結果を生み出すことがあります。以下はいくつかの検索オプションです: 検索を通じて説明したり感じたりする。 希望する種類のエンティティのみを検索します。 キーワードが最適なアプローチでないか、検索エンジンがそれを高く評価する必要がないため、Googleが目立たせていないコンテンツを見つけます。 検索のリンクと類似したリンクをさらに探します。 主な特徴 Metaphorはリンクの予測機能にトランスフォーマーベースのアーキテクチャを使用しています。これにより、通常の言語の表現力を活用した検索が行われます。 任意のウェブページに対して、リッチな解析されたHTMLを即座に返します。ウェブスクレイピングは問題ありません。 利用可能な基準を使用して、検索を時間枠やドメインで絞り込むことができます。 使いやすく、PythonとNodeのSDKが付属しています。すべてをGPTに任せる方法については、ガイドをご覧ください。 インデックスの任意のページのコンテンツを即座に返すことができます。 より多くの結果が返され、LLMがそれらを整理できます。 価格はBing…

「RBIは、Conversational AIとオフライン決済の使用をUPIで採用する」

デジタル決済において新たな地平を切り開くため、インド準備銀行(RBI)は高度な統合支払いインターフェース(UPI)の機能を導入する計画を発表しました。RBIの会話型AIとオフライン決済の統合は、デジタル取引の利便性、アクセシビリティ、包括性を向上させることを目指しています。 また読む:インドが先端AIを活用して支払い詐欺に立ち向かう方法 NFCテクノロジーによるオフライン取引の強化 RBIのシャクティカンタ・ダス総裁は、インターネット接続が制限されている場所に対応するために近距離無線通信(NFC)技術の導入を提案しました。この画期的な動きは、弱いまたはインターネット接続のない地域でもシームレスな支払いを保証することで、UPI取引の風景を革新するものです。 また読む:AIを使用したKYC登録の簡易化 UPI-Liteが注目を集める 2022年9月に導入されたUPI-Liteオンデバイスウォレットの成功を踏まえ、RBIの最近の方針声明は、この機能の堅調な成長を強調しています。月間1000万件以上の取引が処理されており、RBIはNFC技術を通じたオフライン取引の促進によるさらなる進展を見込んでいます。この画期的なアプローチは接続の課題に取り組み、トランザクションの失敗を大幅に減らすとともに、迅速かつ安全な取引を約束します。 包括性とアクセシビリティのビジョン 産業界の専門家やリーダーたちは、RBIの先見的な取り組みを称賛しています。KuhooのCEOであるPrashant A Bhonsle氏は、金融包摂とアクセシビリティの向上の可能性を高く評価しています。NFC対応のオフライン取引の導入は、特に未開発地域で商業の新たな可能性を開くものと期待されています。BANKITのCOO兼エグゼクティブディレクターであるAmit Nigam氏は、インターネット接続が信頼性に欠ける農村や遠隔地域への変革的な影響を強調しています。 会話型支払いの未来 RBIのビジョナリーなアプローチは、会話型支払いという革新的なコンセプトにも広がっています。AIパワードシステムの統合により、ユーザーは安全な会話を通じてトランザクションを開始し、完了させることができます。この機能はスマートフォンと携帯電話ベースのUPIチャネルで利用でき、国内のデジタル普及を深化させることを目指しています。最初はヒンディー語と英語で提供されますが、将来的には他のインドの言語も対象になる予定です。 また読む:2023年の銀行業界と金融業界における機械学習とAIの応用 AIの変革的な可能性 会話型AIは、特に高齢者や障害のある個人を含めてデジタル決済の普及を推進し、ユーザーエクスペリエンスを向上させる可能性があります。BankBazaar.comのCEOであるAdhil Shetty氏は、提案されたAIベースのインターフェースが対話を簡素化し、UPIをよりアクセスしやすくユーザーフレンドリーにすることに注目しています。 また読む:Google CloudがMacquarie BankのAIバンキング機能を強化 私たちの意見 RBIが会話型AIとオフライン決済を受け入れることで、インドのデジタル決済エコシステムは変革の渦中にあります。これらの革新的な機能は、デジタル包摂性、アクセシビリティ、セキュリティの向上に対するRBIの取り組みを強調しています。AIやNFCなどの先端技術の統合により、UPIはすべての人々にとっての利便性、シンプルさ、エンパワーメントの象徴となるでしょう。

AIは人間過ぎるようになったのでしょうか?Google AIの研究者は、LLMsがツールのドキュメントだけでMLモデルやAPIを利用できるようになったことを発見しました!

人工知能が地球を支配しようとする現代において、大規模な言語モデルは人間の脳により近づいています。Googleの研究者たちは、大規模な言語モデルが各ツールのドキュメンテーションを提供するだけで事前のトレーニングなしに未知のツールをゼロショットで使用できることを証明しました。 この解決策全体を、4歳のオードリーに自転車の乗り方を教えることに例えることができます。最初に、彼女に自転車の乗り方を教え、学ぶのを手伝いました(デモンストレーション)。トレーニングホイールを使って乗る方法と、トレーニングホイールを使わずに乗る方法を彼女に示しました。つまり、さまざまなシナリオを彼女に見せました。この解決策は、彼女が本(ドキュメント)で自転車の乗り方を読み、自転車のさまざまな機能について学び、私たちの助けなしで乗ることができるようになった部分に対応しており、それを非常に印象的に行っています。彼女はスキッドすることができ、トレーニングホイールを使ったり使わずに乗ることができます。ここにオードリーが成長した様子が見えますね? デモンストレーション(デモ)は、少数の例を使用して言語モデルにツールの使用方法を教えます。存在するすべてのツールプランをカバーするためには、多くの例が必要かもしれません。ドキュメンテーション(ドキュメント)は、ツールの機能を説明することで言語モデルにツールの使用方法を教えます。 ドキュメントとデモをプロンプトに含める/除外する組み合わせ、およびデモの数を変えて、モデルの結果とパフォーマンスを分析しました。さまざまなツールセットを使用して、複数のモダリティにまたがる6つのタスクで実験が行われました。使用されたLLMプランナーはChatGPT(gpt-3.5-turbo)で、6つのタスクは以下の通りです:ScienceQAにおけるマルチモーダルな質問応答、TabMWTabMWP(数学推論データセット)における表形式の数学推論、NLVRv2におけるマルチモーダルな推論、新たに収集されたデータセットにおける未知のAPIの使用、自然言語による画像編集、およびビデオトラッキング。 彼らは、各データセットでツールのドキュメンテーションを使用した場合と使用しなかった場合のモデルのパフォーマンスを、異なる数のデモンストレーション(デモ)で評価しました。調査結果は、ツールのドキュメント化によってデモンストレーションの必要性が低下することを示しています。ツールのドキュメントがある場合、モデルはデモンストレーションの数が削減されても安定したパフォーマンスを維持するようですが、ツールのドキュメントがない場合、モデルのパフォーマンスは使用されるデモンストレーションの数に非常に敏感であることが示されました。 品質の比較を通じて、ドキュメントに頼ることは、大規模な言語モデルが多数の利用可能なツールを備えるためのスケーラブルな解決策を提供することがわかりました。さらに、ツールのドキュメントだけでLLMは最新のビジョンモデルを理解し、新しいデモを必要とせずに画像編集やビデオトラッキングのタスクで印象的な結果を達成することができます。研究者は、結果が非常に印象的で別のブレークスルーを示唆しているものの、ドキュメントの長さが600ワードを超えると性能が低下することを発見しました。 結果として、この論文はLLMがドキュメンテーションを通じてツールを学ぶだけでなく、追加のデモンストレーションなしで「Grounded SAM」と「Track Anything」などの人気プロジェクトの結果を再現することを示し、ツールのドキュメントを通じた自動的な知識の発見の可能性を示唆しています。これにより、LLMにおけるツールの使用の視点において新たな方向性がもたらされ、モデルの推論能力を明らかにすることを目指しています。

メトリクス層:すべてのKPI定義の唯一の真実の源

メトリクスレイヤーは、組織が重要なパフォーマンス指標を集約、分析、可視化することによって、価値ある洞察を解き放ち、データに基づいた意思決定を推進するためのフレームワークです

「OpenAIを任意のLLM(Language Model)と交換し、すべてを1行で行うことを想像してください!Genoss GPTに会ってください:OpenAI SDKと互換性のあるAPIで、GPT4ALLなどのオープンソースモデルをベースにして構築されています」

Genoss GPTは、何千行ものコードとテキストの何千行もの改善を経て洗練された最新の言語モデルです。そのため、従来の言語モデルよりもより整理された、より情報的で、より創造的なコンテンツを生成することができます。Genossは、GPT 3.5や4のようなプロプライエタリなOpenAIモデルをGPT4ALLのような無料のモデルで置き換えるための革新的なオープンソースプロジェクトです。 Genoss GPTはまだ開発中ですが、初期の結果は期待されています。それは、会話型チャットボットの作成、オリジナルのフィクションの制作、外国語の解釈などに活用されています。 Genoss GPTは複雑なクエリを理解し、回答する能力が非常に注目されています。”自然の美しさについての詩を書いてください”というプロンプトを与えられた場合、システムは両方の基準を満たす作品を生成することができます。 Genoss GPTはまだ開発中ですが、人間とコンピュータのインタラクションにおいて画期的な変化をもたらす可能性があります。それは、チャットボット、ライティングアプリケーション、翻訳プログラムに組み込まれ、それらをよりスマートで効果的なものにすることができるかもしれません。 Genoss GPTの利点には以下があります: Genoss GPTは、従来の言語モデルが生成するテキストよりもより一貫性があり情報量が多いテキストを生成します。その優れた言語理解能力は、大量のテキストとコードの訓練によるものです。 より創造的なテキストを生成することも、Genoss GPTの強みです。これは、単一の形式だけでなく、さまざまな形式の創造的な文章のパターンを認識するように訓練されているためです。 Genoss GPTは複雑なクエリを理解し、回答することができるため、優れた選択肢となります。これは、従来のモデルよりも言語理解能力が優れているためです。 Genoss GPTの使用例: Genoss GPTは、よりスマートなチャットボットの開発に活用される可能性があります。これにより、チャットボットはユーザーとより自然な会話を行い、より関連性の高いデータを提供することができるでしょう。 ライター向けツール:Genoss GPTは、より効果的なライティング支援ツールの開発に活用することができます。これにより、ユーザーはよりオリジナルで洞察に富んだ文章を作成することができます。 Genoss…

キャッシング生成的LLMs | APIコストの節約

はじめに 生成AIは非常に広まっており、私たちのほとんどは、画像生成器または有名な大規模言語モデルなど、生成AIモデルを使用したアプリケーションの開発に取り組んでいるか、既に取り組んでいます。私たちの多くは、特にOpenAIなどのクローズドソースの大規模言語モデルを使用して、彼らが開発したモデルの使用に対して支払いをする必要があります。もし私たちが十分注意を払えば、これらのモデルを使用する際のコストを最小限に抑えることができますが、どういうわけか、価格はかなり上昇してしまいます。そして、この記事では、つまり大規模言語モデルに送信される応答/ API呼び出しをキャッチすることについて見ていきます。Caching Generative LLMsについて学ぶのが楽しみですか? 学習目標 Cachingとは何か、そしてそれがどのように機能するかを理解する 大規模言語モデルをキャッシュする方法を学ぶ LangChainでLLMをキャッシュするための異なる方法を学ぶ Cachingの潜在的な利点とAPIコストの削減方法を理解する この記事は、Data Science Blogathonの一部として公開されました。 Cachingとは何か?なぜ必要なのか? キャッシュとは、データを一時的に保存する場所であり、このデータの保存プロセスをキャッシングと呼びます。ここでは、最も頻繁にアクセスされるデータがより速くアクセスできるように保存されます。これはプロセッサのパフォーマンスに劇的な影響を与えます。プロセッサが計算時間がかかる集中的なタスクを実行する場合を想像してみてください。今度は、プロセッサが同じ計算を再度実行する状況を想像してみてください。このシナリオでは、前回の結果をキャッシュしておくと非常に役立ちます。タスクが実行された時に結果がキャッシュされていたため、計算時間が短縮されます。 上記のタイプのキャッシュでは、データはプロセッサのキャッシュに保存され、ほとんどのプロセスは組み込みのキャッシュメモリ内にあります。しかし、これらは他のアプリケーションには十分ではない場合があります。そのため、これらの場合はキャッシュをRAMに保存します。RAMからのデータアクセスはハードディスクやSSDからのアクセスよりもはるかに高速です。キャッシュはAPI呼び出しのコストも節約することができます。例えば、Open AIモデルに類似のリクエストを送信した場合、各リクエストに対して請求がされ、応答時間も長くなります。しかし、これらの呼び出しをキャッシュしておくと、モデルに類似のリクエストをキャッシュ内で検索し、キャッシュ内に類似のリクエストがある場合は、APIを呼び出す代わりにデータ、つまりキャッシュから応答を取得することができます。 大規模言語モデルのキャッシュ 私たちは、GPT 3.5などのクローズドソースのモデル(OpenAIなど)が、ユーザーにAPI呼び出しの料金を請求していることを知っています。請求額または関連する費用は、渡されるトークンの数に大きく依存します。トークンの数が多いほど、関連するコストも高くなります。これは大金を支払うことを避けるために慎重に扱う必要があります。 さて、APIを呼び出すコストを解決する/削減する方法の一つは、プロンプトとそれに対応する応答をキャッシュすることです。最初にモデルにプロンプトを送信し、それに対応する応答を取得したら、それをキャッシュに保存します。次に、別のプロンプトが送信される際には、モデルに送信する前に、つまりAPI呼び出しを行う前に、キャッシュ内の保存されたプロンプトのいずれかと類似しているかどうかをチェックします。もし類似している場合は、モデルにプロンプトを送信せずに(つまりAPI呼び出しを行わずに)キャッシュから応答を取得します。 これにより、モデルに類似のプロンプトを要求するたびにコストを節約することができ、さらに、応答時間も短縮されます。なぜなら、キャッシュから直接データを取得するため、モデルにリクエストを送信してから応答を取得する必要がないからです。この記事では、モデルからの応答をキャッシュするための異なる方法を見ていきます。 LangChainのInMemoryCacheを使用したキャッシュ はい、正しく読みました。LangChainライブラリを使用して、応答とモデルへの呼び出しをキャッシュすることができます。このセクションでは、キャッシュメカニズムの設定方法と、結果がキャッシュされており、類似のクエリに対する応答がキャッシュから取得されていることを確認するための例を見ていきます。必要なライブラリをダウンロードして開始しましょう。…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us