Learn more about Search Results A - Page 560

2023年のランダムフォレスト:パワフルな手法の最新拡張

機械学習の時間軸において、ランダムフォレスト(RF)はブレイマンの画期的な論文で紹介された古代の手法です([1])年季が入っているにもかかわらず、その性能には驚嘆させられ、…

「ベンジオが科学技術におけるゲルハルト・ヘルツバーグカナダ金メダルを受賞しました」

「この賞は、カナダで自然科学または工学を専門とし、絶え間なく優れた業績と影響力を示した個人に対して毎年授与されます」

「Pythonによる3D地理空間データ統合:究極のガイド」

Pythonチュートリアル:マルチモーダルワークフローでのジオスペーシャルデータの統合方法3Dポイントクラウド、3Dモデル、ボクセル、ベクトル/ラスター360°イメージを組み合わせる

あなたのラップトップでデータサイエンスのポテンシャルを引き出す

データサイエンティストとして、プロジェクトに必要なすべてのタスクとツールを処理できる信頼性のある効率的なノートパソコンを持つことの重要性を理解しています大規模なデータを扱ったり、…

「では、なぜ私たちはレコメンデーションシステムを気にする必要があるのでしょうか…?フィーチャリング:トンプソンサンプリングへの優しい紹介」

今日も自分自身に気づいてしまった100...01日連続で、遅い晩ごはんの箱を手に持ったまま、Netflixで見る番組を探しながら食事をつまんでいる自分にフィードが…

「30/10から5/11までの週のトップ重要なコンピュータビジョンの論文」

「毎週、いくつかのトップレベルの学術会議やジャーナルで、画像などのさまざまなサブフィールドでの刺激的なブレークスルーを提示し、コンピュータビジョンの革新的な研究が披露されます」

GLM-130B:オープンなバイリンガル事前訓練モデル

「GLM-130Bフレームワーク」は、英語と中国語の両方でテキストを生成できる、13兆パラメータを備えたバイリンガル事前学習済み大規模言語モデルですGLM-130Bフレームワークは、1000億以上のパラメータを持つ言語モデルをオープンソースで公開する試みであり、このような大規模なフレームワークについての議論を目指しています

データから真実を解読する:大きな言語モデルが真実をモデル化するためにパーソナを使用する方法

大型言語モデル(LLM)の導入により、人工知能のサブフィールドである自然言語処理(NLP)は大幅に進化し改善されています。卓越したテキストの解釈と生成能力を持つLLMは、ますます人気が高まっています。これらのモデルは、インターネットの大量のデータを使用して事前にトレーニングされます。その中でも代表的なものは、GPT3.5およびGPT4モデルです。モデルがトレーニングされるデータ、つまりコーパスは大きく多様ですが、理想的とは言えません。それはフィルタリングされておらず、ノイズがあり、虚偽の情報や事実の誤りが含まれています。こうしたデータコーパスが真実と非真実を区別するため、LLMはどのようにしているのかという問いが浮かびます。 最近の研究では、ニューヨーク大学、ETH Zurich、ボストン大学の研究者チームが、LLMが真実のテキストをクラスタリングできる可能性を提案しています。これらのモデルは、トレーニングデータに寄与するさまざまなエージェントやソースを表しているかもしれないという前提に基づいて構築されています。研究者は、この「真実のペルソナ」と呼んでいるが、これは共有されたテキスト生成特性により、正確で信頼できる情報を生成しやすいエージェントの集合を指します。 たとえば、ScienceやWikipediaなどの信頼性のある確立したサイトは、定期的に形式的な文章スタイルを使用して事実に基づいた情報を提供しています。LLMはこの真実のペルソナをモデリングすることで、特定の状況の範囲外でも本物の回答を提供することができます。研究チームは、ペルソナ仮説を支持する2つの主要な観察結果を共有しています。 事前生成の真実評価:モデルが回答を生成する前でも、それが真実であるかどうかは判断できる。したがって、状況とソースエージェントのペルソナに応じて、LLMは回答の真実性を評価できる。 真実性の向上による微調整:LLMが事実に基づく情報の集合を使用して微調整されると、関連性のない問題や直接関連する問題についてより真実になる。したがって、真実のペルソナの影響により、モデルは真実性の原則をさまざまな主題に一般化することができる。 チームは、合成環境と数学的なプロセスを使用して、ペルソナとモデルの信頼性の関連性を評価しました。この制御されたシナリオにおいて、異なるエージェントは各数学演算子について異なる信念を持ちますが、それぞれの信念が真実か間違いかによって異なります。これらのエージェントの方程式により、LLMは先に知られていない演算子に正確に応答し、真実と偽の主張を成功裏に識別する能力を向上させることができます。この成果は、トレーニングデータのアクターが真実の生成プロセスを共有し、真実のアイデンティティの構築を可能にする場合にのみ実現します。 結論として、この研究は、LLMがトレーニングデータに含まれる階層構造を利用して真実性のような抽象的な概念を獲得することができることを示しています。これらのモデルは真実と偽の情報を見極め、幅広いトピックに適切な応答を生成する能力を真実のペルソナをモデリングすることで一般化することができます。これは、これらのトピックのソースエージェントが真摯さを示唆する特性を共有している場合であってもです。

進化的アルゴリズム-突然変異の解説

「EAを用いてNP困難問題を効率的に解決する親の選択、突然変異、再組み合わせの実装 - 可視化とコードのサポートも備わっています」

「オープンソースLLMsの歴史:初期の日々(パート1)」

言語モデリングの研究は、GTPやGPT-2などのモデル、または最新のトランスフォーマーベースの言語モデルよりも前の、RNNベースの技術(例:ULMFit)などを含め、長い歴史があります...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us