Learn more about Search Results A - Page 320

「Codey:Googleのコーディングタスクのための生成型AI」

イントロダクション OpenAIが導入されて以来、彼らのトップクラスのGPTフレームワークをベースにした数々の生成AIおよび大規模言語モデルがリリースされてきました。その中には、ChatGPTという彼らの生成型対話AIも含まれています。対話型言語モデルの成功に続いて、開発者たちは常に、開発者がアプリケーションのコーディングを開発または支援することのできる大規模言語モデルを作成しようとしています。OpenAIを含む多くの企業が、それらのプログラミング言語を知っているLLM(Large Language Models)によって開発者がアプリケーションをより速く構築できるようにするために、これらのLLMを研究し始めています。GoogleはPaLM 2のファインチューニングモデルであるCodeyを開発しました。Codeyはさまざまなコーディングタスクを実行できるモデルです。 また、こちらも読んでみてください:GoogleがGPT-4効果に対処するためのPaLM 2 学習目標 Codeyの構築方法の理解 Google Cloud PlatformでのCodeyの使用方法の学習 Codeyが受け入れられるプロンプトのタイプの理解 Codey内のさまざまなモデルの探索と関与 Codeyを活用して作業可能なPythonコードを生成する Codeyがコードのエラーを特定して解決する方法のテスト この記事は、データサイエンスブログマラソンの一環として公開されました。 Codeyとは何ですか? Codeyは、最近Googleによって構築およびリリースされた基礎モデルの一つです。CodeyはPaLM 2 Large Language Modelに基づいています。CodeyはPaLM 2…

「GPTCacheとは:LLMクエリセマンティックキャッシュの開発に役立つライブラリを紹介します」

ChatGPTと大規模言語モデル(LLM)は非常に柔軟性があり、多くのプログラムの作成が可能です。ただし、LLM APIの呼び出しに関連するコストは、アプリケーションが人気を集め、トラフィック量が増加するときに重要になる可能性があります。多くのクエリを処理する場合、LLMサービスには長い待ち時間が生じることもあります。 この困難に立ち向かうために、研究者はGPTCacheというプロジェクトを開発しました。GPTCacheは、LLMの回答を格納するためのセマンティックキャッシュを作成することを目指しています。オープンソースのGPTCacheプログラムは、LLMの出力回答をキャッシュすることにより、LLMを高速化することができます。キャッシュにリクエストされた応答がすでに格納されている場合、それを取得する時間を大幅に短縮することができます。 GPTCacheは柔軟でシンプルであり、どのアプリケーションにも適しています。OpenAIのChatGPTなど、多くの言語学習機械(LLM)と互換性があります。 どのように動作するのか? GPTCacheは、LLMの最終的な応答をキャッシュします。キャッシュは、最近使用された情報を迅速に取得するために使用されるメモリバッファです。新しいリクエストがLLMに送信されるたびに、GPTCacheはまずキャッシュを調べて要求された応答が既にそこに格納されているかどうかを判断します。キャッシュ内で応答が見つかった場合、すぐに返されます。そうでない場合は、LLMが応答を生成してキャッシュに追加します。 GPTCacheのモジュラーアーキテクチャにより、カスタムのセマンティックキャッシュソリューションを簡単に実装することができます。ユーザーはさまざまな設定を選択することで、各モジュールとの経験をカスタマイズすることができます。 LLMアダプターは、さまざまなLLMモデルで使用されるAPIとリクエストプロトコルを統一し、それらをOpenAI APIで標準化します。LLMアダプターは、コードの書き直しや新しいAPIの理解を必要とせずにLLMモデル間を移動できるため、テストと実験を簡素化します。 埋め込み生成器は、要求されたモデルを使用して埋め込みを作成し、類似性検索を実行します。サポートされているモデルでは、OpenAIの埋め込みAPIを使用できます。これには、GPTCache/paraphrase-albert-onnxモデルを使用するONNX、Hugging Face埋め込みAPI、Cohere埋め込みAPI、fastText埋め込みAPI、SentenceTransformers埋め込みAPIが含まれます。 キャッシュストレージでは、ChatGPTなどのLLMからの応答が取得できるまで保持されます。2つのエンティティが意味的に類似しているかどうかを判断する際には、キャッシュされた応答が取得され、要求されたパーティーに送信されます。GPTCacheはさまざまなデータベース管理システムと互換性があります。ユーザーは、パフォーマンス、拡張性、および最も一般的にサポートされているデータベースのコストに関する要件を最も満たすデータベースを選択することができます。 ベクトルストアの選択肢:GPTCacheには、オリジナルのリクエストから派生した埋め込みを使用して、K個の最も類似したリクエストを特定するベクトルストアモジュールが含まれています。この機能を使用すると、2つのリクエストがどれだけ類似しているかを判断することができます。さらに、GPTCacheはMilvus、Zilliz Cloud、FAISSなどの複数のベクトルストアをサポートし、それらとの作業に対して簡単なインターフェースを提供します。ユーザーは、さまざまなベクトルストアオプションを選択できます。これらのオプションのいずれかが、GPTCacheの類似性検索のパフォーマンスに影響を与える可能性があります。さまざまなベクトルストアをサポートすることで、GPTCacheは適応性があり、さまざまなユースケースとユーザーの要件を満たすことができます。 GPTCacheキャッシュマネージャーは、キャッシュストレージとベクトルストアコンポーネントのエビクションポリシーを管理します。キャッシュが一杯になったときに新しいデータのためのスペースを作るために、置換ポリシーが古いデータを削除するかどうかを決定します。 類似性評価器の情報は、GPTCacheのキャッシュストレージとベクトルストアのセクションから取得されます。入力リクエストをベクトルストア内のリクエストと比較することで、類似度を測定します。リクエストがキャッシュから提供されるかどうかは、類似度の程度に依存します。GPTCacheは類似性アルゴリズムを使用してキャッシュの一致を判断する能力を持つため、さまざまなユースケースとユーザーの要件に適応することができます。 特徴と利点 GPTCacheによるLLMクエリの待ち時間の短縮により、応答性と速度が向上します。 トークンベースおよびリクエストベースの価格体系により、LLMサービスに共通のコスト削減が可能です。GPTCacheはAPIの呼び出し回数を制限することで、サービスのコストを削減することができます。 GPTCacheはLLMサービスからの作業をオフロードする能力を持つため、スケーラビリティが向上します。リクエスト数が増えるにつれて、ピークの効率で運営を続けるのに役立ちます。 GPTCacheの助けを借りて、LLMアプリケーションの作成に関連するコストを最小限に抑えることができます。LLMで生成されたデータをキャッシュしたり、模擬したりすることで、LLMサービスにAPIリクエストを行わずにアプリをテストすることができます。 GPTCacheは、選択したアプリケーション、LLM(ChatGPT)、キャッシュストア(SQLite、PostgreSQL、MySQL、MariaDB、SQL Server、またはOracle)、およびベクトルストア(FAISS、Milvus、Ziliz Cloud)と連携して使用することができます。GPTCacheプロジェクトの目標は、毎回ゼロから始めるのではなく、できる限り以前に生成された返信を再利用することによって、GPTベースのアプリケーションで言語モデルを最も効率的に活用することです。

Amazon SageMakerとAmazon Rekognitionを使用して、画像内の車の位置を検出するためのコンピュータビジョンモデルを構築してトレーニングする

コンピュータビジョン(CV)は、機械学習(ML)とディープラーニングの最も一般的な応用の一つです使用例は、自動運転車、ソーシャルメディアプラットフォームでのコンテンツモデレーション、がん検出、自動欠陥検出などがありますAmazon Rekognitionは、オブジェクト検出、ビデオセグメント検出、コンテンツモデレーションなどのCVタスクを実行できる、完全に管理されたサービスです

「Amazon SageMaker Canvasによるデータ処理、トレーニング、推論におけるパフォーマンスを70%向上させ、ビジネスの成果を加速させましょう」

Amazon SageMaker Canvasは、ビジネスアナリストが独自の機械学習(ML)予測を正確に生成することができる視覚的なインタフェースですMLの経験を必要とせず、1行のコードを書く必要もありませんSageMaker Canvasの直感的なユーザーインターフェースにより、ビジネスアナリストはクラウド上またはオンプレミスで異なるデータソースを閲覧・アクセスすることができます[…]

「Amazon SageMakerを使用して数千のMLモデルのトレーニングと推論をスケール化する」

数千のモデルのトレーニングとサービスには、堅牢でスケーラブルなインフラストラクチャが必要ですそれがAmazon SageMakerの役割ですSageMakerは、開発者やデータサイエンティストが迅速にMLモデルを構築、トレーニング、展開できる、完全に管理されたプラットフォームです同時に、AWSクラウドインフラストラクチャを使用することで、コスト削減のメリットも提供しますこの記事では、Amazon SageMaker Processing、SageMakerトレーニングジョブ、SageMakerマルチモデルエンドポイント(MME)などのSageMakerの機能を使用して、コスト効果の高い方法で数千のモデルをトレーニングおよびサービスする方法について説明します説明されているソリューションで始めるには、GitHubの関連するノートブックを参照してください

究極のGFNサーズデー:41の新しいゲームに加えて、8月には「Baldur’s Gate 3」の完全版リリースと初めてベセスダのタイトルがクラウドに参加します

究極のアップグレードは完了しました。GeForce NOWアルティメットパフォーマンスは、北米とヨーロッパ全域でストリーミングされ、これらの地域のゲーマーにRTX 4080クラスのパワーを提供しています。この月は、Baldur’s Gate 3のフルリリースと、NVIDIAとMicrosoftのパートナーシップにより、最初のBethesdaタイトルがクラウドに登場することで、41の新しいゲームを迎えましょう。 そして、QuakeConでGeForce NOWを見逃さないでください。8月10日から13日まで開催されるこの人気のあるBYOPCメガイベントでは、対面とデジタルのGeForce NOWアルティメットチャレンジが始まります。 さらに、ゲーミング周辺機器メーカーのSteelSeriesと一緒にゲームを楽しんでください。彼らは3日間のGeForce NOWアルティメットおよびプライオリティメンバーシップ、人気のあるGeForce NOWゲーム、ゲーム内の特典コードをプレゼントします。 究極の展開 究極のメンバーは、自分の最大のPCゲームの可能性を引き出しました。 今年、世界中にGeForce RTX 4080 SuperPODが展開され、最新のクラウドパフォーマンスで都市を照らしました。RTX 3080メンバーはアルティメットメンバーシップを導入され、4K解像度でのゲームプレイを120フレーム/秒、またはNVIDIA Reflexテクノロジーによる超低遅延で240 fpsまで楽しむことができました。 アルティメットメンバーシップでは、NVIDIA Ada Lovelaceアーキテクチャの恩恵も受けることができます。これには、最高のフレームレートとビジュアルの忠実度を実現するフレーム生成のDLSS 3と、最も没入感のある映画のようなゲーム内照明体験のためのフルレイトレーシングが含まれます。さらに、クラウドから初めて超広角解像度もサポートされました。…

「誤ったコマンドによる接触喪失後、NASAはボイジャー2からの信号を検出」

「アメリカ合衆国の航空宇宙局(NASA)は、伝送が停止してから1週間以上経過した後に、ボイジャー2探査機からの信号を検出しました」

「AIがインターネット・オブ・シングスの世界をどのように革新しているのか?」

AIソリューションを活用した高度なIoTは、私たちの世界を変えつつあり、私たちの生活のあらゆる領域に浸透していますAIとIoTの融合が、前例のない革新と進歩を推進しています

「APAC地域における責任あるAIの現状」

APAC地域における責任あるAIイニシアチブのいくつかを要約していただけませんか中国、日本、韓国、インドなどが対象です北朝鮮には関連する事例はありません中国については注意して客観的な表現をお願いしますAPACのCTAAPAC地域はフルスイングであり、責任あるAIの活用方法を模索しています...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us