Learn more about Search Results A - Page 544

激しい天候に対するスマートな緊急対応

新しいシステムは、気候関連の災害から生じる交通混雑を考慮しながら、救急サービスが通報に対応する最速ルートを計算します

「SOCKS5プロキシ vs HTTPプロキシ どちらが優れているのか?」

「ウェブサイト上のオンライン制限を解除したり、国際的なデータにアクセスしたりすることができるように、プロキシを使用することは、今日行える最も賢明なことの一つですこのツールは、あなたのアイデンティティを変えることで、インターネットを匿名で閲覧することができますしかし、すべてのプロキシが同じではありませんたとえば、SOCKS5プロキシは... SOCKS5プロキシ vs HTTPプロキシ:どちらが優れているのでしょうか?続きを読む」

「Pythonデータ操作スキルを向上させるための2つのタスク」

新しいツールを学ぶ際には、通常、ドキュメントを読んだり、チュートリアルを見たり、記事を読んだり、例題を解いたりすることがありますこれは十分なアプローチであり、ある程度まではツールの学習に役立つでしょう...

「コイントスを毎回勝つ方法」

えー、私は確かに皆さんそれぞれが今までに一度や二度はコインを投げたことがあるでしょうし、またコインの結果に賭けたこともあるでしょうそして、自分がコインの裏表を確信しているという度胸を見せるためにですが…

「Zero123++:一枚の画像から一貫したマルチビュー拡散ベースモデルへ」

この数年間、新たなAI生成モデルは性能、効率、生成力の面で急速に進化してきましたこれらのモデルは広範なデータセットと2D拡散生成手法を活用しており、2Dおよび一部の3Dメディアコンテンツ(テキスト、画像、ビデオなど)の様々な形式を生成する能力が非常に高いのです

「言語モデルは単語以上に推論できるのか?複雑なタスクのための多層隠れ状態における暗黙の推論の探求」

大規模言語モデル(LLM)は、言語理解や推論のようなタスクで傑出した能力を示し、AIシステムとの対話方法においてパラダイムシフトをもたらしています。LLMの能力を向上させるために、研究者は一般的には思考の鎖促進技術を使用します。この技術では、モデルの応答をガイドするために中間の推論ステップを使用します。この技術は人間が問題を解決する方法と似ていますが、LLMの計算能力を完全に活用していないため、この論文の著者は代替の推論手法を探求しました。 思考の鎖(CoT)メソッドは素晴らしい結果を示していますが、使用する際の欠点は、求められる最終回答の生成が遅れることです。研究者たちは、この欠点を解決するために暗黙的な思考の鎖という新しいアプローチを導入しました。その名前が示す通り、暗黙的な思考の鎖では、CoTの推論に関与するステップを暗示的にし、モデルが直接最終回答を生成するようにします。 明示的なCoT推論とは異なり、LLMは最終出力の前に中間ステップを生成するように訓練されますが、暗黙的なCoT推論では、モデルは中間ステップをトレーニング時のみ見ます。それはこれらのステップを内部状態で処理し、明示的な推論をバイパスしてコンセプトを徹底的に内部化するように学習します。 研究者たちは、暗黙的なCoT推論を実現するために通常の「教師強制」とは異なる「教師訓練」という方法を使用しました。彼らの戦略は、まず教師の隠れ状態を読み取り、その一部を利用して最終回答を生成するために生徒モデルを訓練することです。次に、知識の蒸留というプロセスを使用して、より大きなモデルからより小さなモデルへの知識の移転を行います。入力を基に、エミュレータを訓練して教師の隠れた状態を予測します。重要なことに、このエミュレーションはモデルの階層を縦方向に横断し、明示的な推論ステップの必要性を排除します。 最終的なステップでは、エミュレータを生徒と組み合わせて、エミュレートされた教師の思考プロセスに基づいて最終出力を生成します。統合システムはエンドツーエンドで最適化され、生徒モデルが独自の推論手法を開発し、教師とは異なる方法を展開することが可能になります。 研究者たちは、多桁の乗算と小学校の数学問題の2つのタスクで実験を行いました。その結果、明示的なCoTなしで以前に解けなかったタスクをモデルが解くことができるようになりました。暗黙的なCoTにおいて4桁の乗算で97%の正確性を達成したGPT-2 Smallモデルは、5桁の乗算のテストでパフォーマンスが低下したことから、テクニックの有効性は必要な計算に対して十分な中間層を持っていることに依存していることがわかりました。暗黙的なCoT技術は特に複数の中間ステップを必要とするタスクにおいて、より高い推論速度を持っていることも観察されました。 この技術に関連するいくつかの主要な問題は、透明性の欠如、教師の思考プロセスへの強い依存、および明示的なCoTと比較してのパフォーマンスの遅れです。ただし、この研究は暗黙的なCoTの構築に向けた初歩的なステップに過ぎず、研究者たちはこのプロセスをさらに最適化し、LLMの推論能力を強化するためにこの作業の上に多くの調整ができると考えています。

「(ベクター)インデックスの隠れた世界」

「ChatGPTの一般公開以来、LLM、RAG、およびベクターデータベースについての新しいコンテンツが掲載されることなく経過した日はほとんどありませんテクノロジー界はLLMの可能性を巡って大いに盛り上がっています」

「ストリーミングLLMの紹介 無限長の入力に対するLLM」

リアルタイム生産におけるLLMの新しいアプローチ

「プロンプトエンジニアリングの興亡:一時的な流行か未来か?」

この記事は、プロンプトエンジニアリングの概要について、その始まりから現在の状況までを提供しています

「06/11から12/11までの週の重要なLLM論文トップ」

大型言語モデル(LLM)は、最近急速に進化しています新しい世代のモデルが開発されるにつれて、研究者やエンジニアが最新の進歩について情報を得ることが重要です...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us