Learn more about Search Results 限定的 - Page 2
- You may be interested
- DeepMindのAIマスターゲーマー:2時間で26...
- 「時系列データセットで欠損データを特定...
- 音楽作曲における創造的なジェネレーティ...
- あなたのLLMアプリケーションは公開に準備...
- 「人生をゲームとして見るならば、それを...
- 元GoogleのCEOがAIとメタバースを使って米...
- ReAct、Reasoning and Actingは、LLMをツ...
- (Chatto GPT wa sugoi kedo, kadohyōka sa...
- 研究者たちは、医薬品の製造において画期...
- 3つの季節性のタイプとその検出方法
- 「Pythonもしもでないの場合:コード内の...
- ミネソタ湖のデータのクリーニング+準備
- ETHチューリッヒとマイクロソフトの研究者...
- 偽のレビューがオンラインで横行していま...
- 「著者たちの大群がAI企業に対して、彼ら...
チャットGPT vs Gemini:AIアリーナでのタイタン同士の激突
はじめに 人工知能の世界では、GoogleのGemini AIとOpenAIのChatGPTの2つの巨人の間で魅惑的な一戦が繰り広げられています。ChatGPTは注目を浴びていますが、Gemini AIは静かに強力な武器を作り上げ、攻撃の瞬間を待っていました。そして、その瞬間がやってきて、驚くべきベンチマークの連続がAIの世界の基盤を揺るがすことになりました。Googleは過去1年間、OpenAIのChatGPTが世界を席巻するのを静かに見守ってきました。しかし今、Googleの輝く番です。画期的なAIモデルであるGeminiの登場により、GoogleはAIの競技場に進出するだけでなく、それを再定義しようとしています。AIの世界でのタイタン同士の激突、ChatGPT対Geminiについて掘り下げてみましょう。 GoogleのCEOであるSundar Pichaiは、Geminiのリリースにより「新たなAIの時代」の到来を大胆に宣言しました。Geminiは最も高度な大規模言語モデル(LLM)であり、優れた「推論能力」を誇っており、複雑な問いにもより正確かつ深い理解で取り組むことができます。これにより、他のAIモデル(Google自身を含む)が抱える「幻覚」のリスクを最小限に抑えます。この飛躍的な進歩により、知的かつ微妙な思考プロセスが可能な新世代のAIが道を切り拓かれます。 Geminiの異なるバージョン Geminiはデータセンターからモバイルデバイスまで効率的に実行するように設計されています。これにより、開発者やあらゆる規模の企業が簡単に製品やサービスにAIを統合することができます。 Gemini Ultra Gemini Pro Gemini Nano Geminiの最も重要で強力なバージョンは、科学研究や薬物発見などの複雑なタスクに向けて設計されています。この最も強力なバージョンは現在一般公開されていません。Googleは2024年にリリースすることを発表しましたが、具体的な日付はまだ発表されていません。 これはChatbotsやバーチャルアシスタント、コンテンツ生成など、さまざまなタスクに拡張可能なGeminiの最良のバージョンです。このモデルはBard(ぜひ試してみてください)の基盤となっており、2023年12月13日からGoogle Generative AI StudioまたはVertex AI in Google Cloudを介して開発者やエンタープライズのお客様が利用できるようになります。 これはモバイル電話やスマートホームデバイスなどのデバイス上で実行するために設計された、最も効率的なGeminiのバージョンです。この軽量バージョンは現在、Pixel…
グラフ、分析、そして生成AI グラフニュースレターの年
グラフ、分析、および生成AIグラフとAIが結びつくさまざまな方法と、業界と研究のニュースについての説明
「DynamoDB vs Cassandra:あなたのビジネスに適したデータベースを選ぶ」
イントロダクション デジタル時代において、データベースはどんなビジネスの基盤です。データベースはビジネスの運営や意思決定に必要な膨大なデータを格納、整理、管理する役割を果たします。適切なデータベースを選ぶことは、ビジネスの効率性、拡張性、収益性に大きな影響を与えることがあります。この記事では、DynamoDBとCassandraという2つの人気のあるデータベースについて、総合的な比較を提供し、より良い判断を支援します。 DynamoDBとは何ですか? Amazon Web Services(AWS)は2012年にDynamoDBを導入し、完全に管理されたNoSQLデータベースサービスとして提供しました。DynamoDBは高速かつ予測可能なパフォーマンス、シームレスなスケーラビリティを提供することで広く採用されています。低遅延のデータアクセス、自動スケーリング、組み込みのセキュリティなど、DynamoDBはさまざまな業界で人気を集めています。ゲーム、広告技術、IoTなど、リアルタイムのデータ処理が求められる業界で特に使用されます。 Cassandraとは何ですか? Facebookが2008年に開発したCassandraは、後にApacheでオープンソースとして公開されました。Cassandraは分散型のNoSQLデータベースであり、多数のコモディティサーバー上で大量のデータを処理し、単一障害点を持たない高い可用性を実現するよう設計されています。Cassandraの主な特徴には、直線的なスケーラビリティ、強力な障害耐性、柔軟なデータモデルなどがあります。Cassandraは金融、小売、通信などの分野で使用され、高い可用性と障害耐性が求められます。 DynamoDBとCassandraの詳細な比較 DynamoDBとCassandraを比較する際には、いくつかの要素が重要になります。 側面 DynamoDB Cassandra データモデル – キーバリューストア、オプションのセカンダリインデックスをサポート– 柔軟なスキーマをサポート– JSONのようなドキュメントサポート – ワイドカラムストア、テーブル、行、列をサポート– 複雑なデータ型をサポート– クエリにはCQL(Cassandra Query Language)を使用…
スターリング-7B AIフィードバックからの強化学習によるLLM
UCバークレーの研究チームが、オープンソースの大規模言語モデル(LLM)であるStarling-7Bを導入しています。このモデルは人工知能フィードバック(RLAIF)からの強化学習を使用し、最新のGPT-4ラベル付きランキングデータセットであるNectarの力を活用しています。洗練された報酬トレーニングとポリシーチューニングパイプラインを組み合わせたStarling-7B-alphaは、言語モデルの性能において新たな基準を打ち立て、MT-Benchを除くすべてのモデルをしのぐ性能を発揮しています(ただし、OpenAIのGPT-4とGPT-4 Turboには及ばない)。 強化学習の可能性 教師あり微調整はチャットボットシステム開発において効果を示していますが、人間のフィードバックからの強化学習(RLHF)またはAIフィードバック(RLAIF)の可能性は限定的に調査されてきました。Zephyr-7BやNeural-Chat-7Bのような既存のモデルは、主導的な微調整(SFT)モデルと比較してRLHFの潜在能力を十分に示していませんでした。 この問題に対処するため、研究チームはNectarを導入しました。これは、チャットに特化した高品質なランキングデータセットであり、183,000のプロンプトと3,800,000のペアワイズ比較からなります。このデータセットはRLHFの研究をより詳細に行うことを目的とし、さまざまなモデルから収集されたさまざまなプロンプトを提供しています。 報酬モデルであるStarling-RM-7B-alphaおよびファインチューンされたLLMであるStarling-LM-7B-alphaのHuggingFaceでのリリースは、オープンソースAI研究の重要な進展を示しています。このモデルのMT-Benchスコアは、7.81から印象的な8.09に向上し、チャットボットの助けになる度合いを測るAlpacaEvalの向上も88.51%から91.99%に大幅に改善されました。 他にも読む: 強化学習とは何か、そしてそれはどのように機能するのか(2023年) モデルの評価 Starling-7Bの評価には独自の課題があります。このLLMは、RLHF後の助けや安全性の機能が向上していることを示すMT-BenchおよびAlpacaEvalスコアの改善が証明されています。ただし、知識ベースの質問応答や数学、コーディングに関連する基本的な機能は一貫しているか、わずかな回帰を経験しています。 直接チャットや匿名の比較のためにLMSYSチャットボットアリーナに組み込まれることで、人間の選好をテストするプラットフォームが提供されます。評価はまた、チャットモデルのベンチマークとしてのOpenLLMリーダーボードの使用における制限を強調し、Alpaca EvalとMT-Benchによるニュアンスのある評価の重要性を強調しています。 合成優先データのGoodhartの法則 考慮すべき重要な点は、合成された優先データのGoodhartの法則です。より高いMT-Benchスコアは、GPT-4による改善されたモデルの性能を示していますが、それが必ずしも人間の選好と相関するわけではありません。RLHFは主に応答スタイルを向上させることに寄与しており、特に助けや安全性の側面でスケーリングオンラインRL方法のポテンシャルを示しています。 制限事項 Starling-7Bは優れた性能を持っていますが、推論や数学に関わるタスクには苦労しています。また、ジェイルブレイキングのプロンプトへの感受性や出力の冗長さなどの制限も認識されています。研究チームは改善のためにコミュニティとの協力を求めており、RLHFを使用したオープンデータセット、報酬モデル、言語モデルの向上に取り組んでいます。 私たちの意見 RLAIFアプローチと綿密なデータセット作成を備えたStarling-7Bは、言語モデルにおける強化学習のポテンシャルを示すものです。課題や制約はまだ残っていますが、改善への取り組みと大規模なコミュニティとの協力により、Starling-7BはAI研究の進展する風景において輝く存在となっています。RLHFメカニズムの洗練とAI安全性研究の最前線への貢献について、さらなるアップデートをお楽しみに。
「初期ランキング段階への原則的なアプローチ」
「レコメンデーションシステムでは、レコメンドの構築にはいくつかの段階があるとよく知られていますまずは候補生成、またはリトリーバルとも呼ばれるステージがあり、それに続いて1つ以上の...」
自律AIエージェント:データサイエンスと技術の未来を切り拓く先駆者
イントロダクション テクノロジーのダイナミックな風景において、自律型AIエージェントは変革的な存在として登場し、データと人工知能との相互作用を再構築しています。この魅力的な領域に深く入り込むと、これらのエージェントが単なるプログラム以上のものであることが明らかになります。彼らは私たちの日常生活にAIを統合するパラダイムシフトを象徴しているのです。 自律型AIエージェントの理解 自律型AIエージェントは、人間の介入なしで意思決定と行動実行が可能な知的な存在です。これらのエージェントは最新のアルゴリズムと機械学習モデルを活用してデータを分析し、洞察を得て自律的にタスクを実行します。 自律型AIエージェントはどのように動作するのですか? 以下は、彼らがどのように動作するかの詳細です: 計画: 目標の定義: エージェントは、達成したい特定のタスクやプロセスの最適化など、あらかじめ定義された目標から始めます。 環境の評価: エージェントはセンサーや他のデータソースを通じて、周囲の情報を継続的に収集します。これにより、エージェントは現在の状況や潜在的な障害を理解するのに役立つデータを得ます。 プランの生成: エージェントは目標と環境情報に基づいて目的を達成するための計画や戦略を生成します。これにはアクションの計画、適切なツールの選択、潜在的な結果の予測などが含まれる場合もあります。 意思決定: データの分析: エージェントはセンサーの読み取り、過去の経験、学習したモデルなどの利用可能なデータを分析し、状況を理解し、異なるアクションの潜在的な結果を予測します。 アクションの選択: 強化学習や他の意思決定アルゴリズムを使用して、エージェントは目標を達成する可能性が最大化すると信じるアクションを選択します。 適応と学習: エージェントは経験から継続的に学びます。行動の結果を監視し、新しい情報に基づいて知識ベースや意思決定プロセスを更新します。 ツールとリソース: LLM(大規模言語モデル): これらは、エージェントの脳として機能し、コミュニケーションや推論のための人間のような言語理解と生成能力を提供します。 センサーとアクチュエーターにより、エージェントは物理的な環境を知覚し、相互作用することができます。…
小さいが強力:大型言語モデルの時代における小型言語モデルの飛躍
「小さな言語モデルの革命を探求し、効率的で費用対効果の高いAIの代替手段として、主要な大きな言語モデルに対抗するものを挑戦してください」
「データ管理におけるメタデータの役割」
「メタデータは現代のデータ管理において中心的な役割を果たし、統合、品質、セキュリティに不可欠であり、デジタルトランスフォーメーションの取り組みにおいても重要です」
システムデザインのチートシート:ElasticSearch
前の記事で検索について読んだことがあれば、アプリケーションにとって検索がいかに重要かを知っているでしょう考えてみてください:毎日使用するさまざまなウェブアプリやモバイルアプリの中で、Netflixなどがあるかもしれませんが...
「前方予測デコーディング」:LLM推論を加速するための並列デコーディングアルゴリズム
大規模な言語モデル(LLM)であるGPT-4やLLaMAなどは現代のアプリケーションを再構築し続けているが、推論は遅く最適化が困難であるため、自己回帰デコーディングに基づいている。LLMのリクエストの遅延は、リクエストの回答の長さ、または同等の復号化ステップの数にほとんど依存しており、自己回帰デコーディングの各ステップでは時間ごとに1つのトークンしか生成されないため、現在のGPUの並列処理能力は一般的に十分に活用されていない。これは、チャットボットや個人アシスタントなどの実用的なLLMアプリケーションでは問題となり、瞬時の応答を必要とするため、低レイテンシで大規模なシーケンスを頻繁に生成することになる。 自己回帰デコーディングは、メドゥーサとOSDのような先読みデコーディング手法を使用することで高速化することができる。これらの手法は、「予測して確認する」という戦略を採用し、予備モデルが将来のいくつかの可能なトークンについて予測し、オリジナルのLLMがこれらの予測を並列で確認する。これにより、デコードのステップ数が少なくて済む場合にレイテンシを削減することができる。しかし、これらの手法には制約もある。まず、ドラフトモデルが主モデルの出力を適切に予測することができる割合、または同等のトークン受理率は、先読みデコーディング手法が達成できる最大の高速化の上限である。第二に、信頼性のある予備モデルを開発することは容易ではなく、通常はトラフィックの時間的な変動を考慮してトレーニングと細かい調整が必要となる。 LMSYS ORGによる新しい研究では、これらの困難に対処するために開発された新しい正確なデコーディング技術である「先読みデコーディング」を紹介している。1つのステップで多くの後続トークンをデコードすることは計算上制約がありますが、LLMは複数の直交n-gramを同時に生成できることが観察されています。これらのn-gramは将来のシーケンスの一部に適用することができます。従来のヤコビ反復法は並列デコーディングに適応され、自己回帰デコーディングを非線形方程式の解と見なすことが可能になります。生成されたn-gramは記録され、確認後、シーケンスに組み込まれます。先読みデコーディングは特に次のような点で注目に値するです。 事前モデルを使用しないため、展開が高速化されます。 各ステージごとにデコードのステップ数をlog(FLOPs)倍減少させる 研究者は、先読みデコーディングがレイテンシを1.5倍から2.3倍低減することを実証しています。特に、ほとんど計算負荷を増やすことなく処理を削減することが可能です。ただし、利点は限定的です。 彼らは自分たちの実装を作成し、huggingface/transformersとの互換性を持つように先読みデコーディングを作動させています。HuggingFaceはネイティブ生成関数を提供していますが、ユーザーはわずかなコードで効率を大幅に向上させることができます。 ヤコビ反復法は非線形システムを解決するための確立された技術です。LLM推論は事前トレーニングモデルを必要とせず、並列にトークンを作成するためにも使用することができます。ヤコビデコーディングでは、各ステップで1つ以上のトークンに対してLLMの前方計算が行われるため、自己回帰デコーディングの各ステップよりもFLOPが多く必要です。研究者は、実世界のアプリケーションにおいてヤコビデコーディングのウォールクロック性能を大幅に改善しようとする際に遭遇するいくつかの困難を観察しています。ヤコビデコーディングは、多くのトークンを複数のステップでデコードすることができますが、トークンの順序がしばしば間違ってしまいます。適切に予測された場合でも、トークンは次のサイクルで置き換えられることがよくあります。そのため、わずかな反復で複数のトークンを同時に正確にデコードすることはできません。これにより、並列デコーディングを使用する目的が無効化されます。一般に、グラフィックス処理ユニットの並列処理能力のおかげで、パフォーマンスの低下は起こりません。 先読みデコーディングは、ヤコビデコーディングの並列n-gram生成能力を生かすことで、これらの欠点を克服することができます。ある時点での各新しいトークンは、ヤコビデコーディングで前の反復のその位置の値を使用してデコードされます。このプロセスにより、多くのn-gramが形成され、各トークン位置の過去のトークンのタイムラインが作成されます。これを活用するため、先読みデコーディングではこれらのn-gramが軌跡に基づいて収集され、キャッシュされます。先読みデコーディングは、将来のトークンに対してヤコビ反復を使用した並列デコーディングを実行しながら、キャッシュから期待されるn-gramを同時に確認します。 各先読みデコードフェーズは、効率を向上させるために、先読みブランチと検証ブランチの2つの並行したブランチに分割されます。Jacobi反復軌跡からn-gramを生成するため、先読みブランチは定数サイズの二次元ウィンドウを保持します。同時に、有望なn-gramの候補は検証ブランチによって選択され、確認されます。 LLMデコードにおいて主要なボトルネックはメモリーバンド幅であるため、研究者は先読みブランチと検証ブランチを1回の通過に組み合わせ、関連するオーバーヘッドを隠蔽しながらGPUの並列処理能力を活用します。 研究チームは、LLaMA-2-ChatとCodeLLaMAの異なるサイズをMT-bench、HumanEval、GSM8Kでテストし、先読みデコードの有効性を確認しました。先読みデコード技術は、微調整や事前モデルの必要性なしに高速化を実現します。彼らはfp16精度の下で、単一のA100 GPUで7B、13B、33Bモデルを評価し、2つのA100 GPUで70Bモデルをパイプライン並列処理します。 MT-Bench LLaMA Discussion: 多くのモデル構成で、先読みデコードによるスピードアップは約1.5倍です。 HumanEval’s CodeLLaMA: CodeLLaMAでは、先読みデコードを使用するとHumanEvalのレイテンシが2倍以上減少します。これは、コードには数多くの容易に推測可能なN-gramが含まれているためです。 GSM8Kの教育用CodeLLaMA: 先読みデコードにより、CodeLLama-InstructorをGSM8Kの数学的な課題に適用することで、レイテンシが1.8倍減少します。…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.