Learn more about Search Results Twitter - Page 18
- You may be interested
- 「数の力:NVIDIAとGenerative Red Team C...
- 「トレンドのAI GitHubリポジトリ:2023年...
- CI/CDパイプライン:Azure上のデータ処理...
- 『テキストブックが全て必要です:AIトレ...
- 「では、なぜ私たちはレコメンデーション...
- 「グローバル人工知能市場は31%の急成長...
- 「UCSCとTU Munichの研究者が、余震を予測...
- 「データを分析するためにOpenAIのコード...
- 「Javaを使用した脳コンピュータインター...
- 「言語モデルにアルゴリズム的な推論を教...
- 「Phi-2解放:コンパクトで輝かしい言語モ...
- データサイエンスのキャリアをワンランク...
- 「データ時代における知識の解明」
- 「PhysObjectsに会いましょう:一般的な家...
- 「OpenAIのための自然言語からSQLへの変換...
「ReactPyを使用して、フルスタックAIアプリケーションを構築しましょう」
ReactPyを使用することで、ついにPythonとReactを組み合わせることが可能になりましたこのライブラリは、Javascriptを知らなくても美しいアプリケーションを作成するためにReactフレームワークを使用することができるようにします
「Pythonによるデータクリーニングの技術をマスターする」
Pythonでデータをクリーニングして、データサイエンスプロジェクトで使用する準備をする方法
AIはリアルなターミネーターになることができるのか?
「私たちはAIの開発と使用について注意を払う必要がありますそれが善に使われ、悪に使われないようにする必要があります - 倫理的なAI」となります
「データメッシュを探索する:データアーキテクチャのパラダイムシフト」
「データメッシュを探求しましょうデータの所有権と管理を分散させる近代的なデータアーキテクチャの手法です」
無料でニュースレターを成長させる4つの方法
これらのニュースレターの成長戦略の最も素晴らしい点は、聴衆が必要なく、完全に無料であることです
ギアに乗り込んでください:「Forza Motorsport」がGeForce NOWに登場
このGFN Thursdayでは、Forza Motorsportがクラウドでの23本の新作ゲームをリードします。 さらに、AcerのPredator Connect 6EがGeForce NOW Recommended programに新しく加わり、簡単なクラウドゲームのQoS(品質サービス)設定を組み込んで、Ultimateメンバーに最高のストリーミング体験を提供します。 休みなし、制限なし、ダウンロードなし クラウドのおかげでポールポジションを獲得しましょう。Turn 10 StudiosのForza Motorsportが今週GeForce NOWライブラリに加わります。 このリアルなレーシングシミュレーターには、20のダイナミックで世界的に有名なトラックとリアルに描かれた500台以上の車があり、時間帯や天候、運転条件がダイナミックに変化するため、二度と同じく旗周回がありません。800以上のパフォーマンスのアップグレードをアンロックし、オンラインでの対戦やシングルプレイヤーのBuilders Cup Career Modeで新たな、非常に競争力の高いAIレーサーと対戦してください。 ほぼすべてのデバイスでGeForceの品質でストリーミングし、クラウドのおかげで画像品質を最大限に引き出すことができます。Ultimateメンバーは最大4Kの解像度で最大120フレーム/秒で最もリアルなドライビング体験を楽しめます。 Need for Speed 一緒により良い。…
チャットアプリのLLMを比較する:LLaMA v2チャット対Vicuna
チャットアプリケーションにおいて、LLaMA v2 ChatとVicunaのどちらを使用するべきですか?2つのLLMの詳細な比較、それぞれの利点と欠点、そして勝者を選ぶためのヒューリスティックについて詳しく解説します
データ汚染とモデル崩壊:迫りくるAIの災害
AI生成コンテンツの存在は、疫病のように広がり、検索結果を毒し、さらにAIモデルを崩壊させるでしょう
「なぜSQLはデータサイエンスのために学ぶべき言語なのか」
SQLは、普遍的なデータベースへのアクセス可能性、効率的なデータのクリーニング機能、他の言語とのシームレスな統合、およびほとんどのデータサイエンスの仕事で必要とされるため、重要なデータサイエンスの言語です
マンチェスター大学の研究者たちは、MentalLLaMAを導入しましたこれは、読みやすい精神健康分析のためのオープンソースLLMシリーズで、指導に従う能力を持っています
PTSDとその他の精神的健康問題は、グローバルに公衆衛生に影響を与えています。社会的な偏見のため、多くの人々は素早く精神科の援助を求めませんが、これには壊滅的な影響があります。オンライン技術の進歩により、ソーシャルメディアは人々の日常生活に浸透しています。ソーシャルメディアのテキストは、多くの精神的健康障害を抱えた人々がネガティブな感情を伝え、ストレスを表現するためにTwitterやRedditなどのサイトを利用するため、精神的健康分析の優れた情報源です。しかしながら、ソーシャルメディアのメッセージの急増により、ポストの手動分析は実現不可能です。そのため、多数の研究が自然言語処理(NLP)手法を使用して、ソーシャルメディアを精神的健康について自動的に分析しています。 精神的健康に関する自然言語処理(NLP)の従来のアプローチでは、精神的健康のソーシャルメディア分析をテキスト分類の問題としてモデル化し、識別的なドメイン固有の事前学習済み言語モデル(PLM)が最先端のパフォーマンスを達成しました。その主な欠点の1つは、これらのアルゴリズムが解釈可能性が少なく、ブラックボックス的な予測結果を提供することであり、実際の使用時の信頼性を著しく低下させています。最新の大規模言語モデル(LLM)であるChatGPT2やLLaMAを含む効果的な精神的健康疾患の同定と、Chain-of-Thought(CoT)アプローチを使用したその選択の詳細な説明の評価も最近行われました。また、人間のテストも実施し、ChatGPTが正しい分類の説明を人間と同等のものとして提供できることを示し、精神的健康分析の可読性の向上の可能性を示しました。 しかし、ChatGPTは現在、ゼロショットまたはフューショット学習環境で最先端の教師ありアルゴリズムのパフォーマンスには及びません。実際の状況での応用に制約を与えます。実用的な方法は、限られたデータで基盤のLLMを対象ドメインと整列させることにより、それらを微調整することです。理解可能な精神的健康分析のためのLLMの開発には、2つの主要な障壁があります。まず、LLMを最適化するために、良いトレーニングデータが必要です。ソーシャルメディア上の精神的健康の調査に関するいくつかのデータセットは、短い抽出のみを含みますが、検出結果に対する徹底した信頼性と正当性を提供するオープンソースのデータはまだ存在しません。繊細な研究対象と専門家によって書かれた説明の高い費用が、これらの主な原因です。 次に、利用可能なインタープリタブルな精神的健康分析のオープンソースLLMはほんの一部しか存在しません。ただし、ChatGPTなどのクローズドソースのLLMを促進または微調整することは非常に高価です。高いコストとリソースの不足により、関連する研究コミュニティの成長を改善する必要があります。彼らは、これらのギャップを埋めるために、105,000件のデータサンプルを備えた初めてのマルチタスクおよびマルチソースの理解可能な精神的健康指導(IMHI)データセットを作成しました。まず、8つのタスクをカバーする10の既存のソースからトレーニングデータを収集しています。これらのタスクには、バイナリの精神的健康検出タスク、マルチクラスの精神的健康検出タスク、精神的健康原因/要因検出タスク、および精神的リスクとウェルネス要因検出タスクが含まれています。 図1は、MentalLLaMAのパフォーマンスの一部を示し、精神的健康分析を含んでいます。また、MentalLLaMAのトレーニングデータと基礎モデルを要約しています。 データには、ソーシャルメディアの投稿とそれに付随するラベルが含まれています。第二に、各ラベルには注釈付きで詳細な正当化が付けられます。専門家によって作成されたフューショットの質問と収集されたラベルを使用して、ChatGPTをインスパイアし、その返信から説明を引き出します。セルフインストラクトの成功から着想を得ています。すべての取得データに自動評価を行い、説明の品質を保証します。これらの評価では、予測の正確性、ラベルと説明の対応、および説明の総合的な品質を評価します。さらに、専門家による注意事項戦略で、一部の収集データに対して人間の評価も実施します。 第三に、彼らはルールベースのアプローチを利用して、収集されたすべてのソーシャルメディアの投稿、ラベル、説明を命令ベースのクエリ-回答ペアに変換します。これらは、IMHIデータセットのトレーニングデータと評価ベンチマークの作成に使用されます。マンチェスター大学の研究者は、IMHIデータセットに基づいた解釈可能なメンタルヘルス分析のためのオープンソースLLMシリーズであるMentalLLaMAを紹介しています。LLLaMA2の基礎モデルは、MentalLLaMAモデルのトレーニングの基礎として機能します。具体的には、MentalLLaMA-7B、MentalLLaMA-chat-7B、およびMentalLLaMA-chat-13Bモデルを微調整しています。図1は、MentalLLaMAの優れた性能のいくつかのインスタンスを表示しています。 さらに、彼らはMentalLLaMAモデルがIMHI評価基準に対してどれだけ優れているかを徹底的に評価しています。彼らは、分類結果を最先端の識別テクニックと他の生成言語モデルと比較することで、MentalLLaMAの予測精度を評価しています。研究結果によると、MentalLLaMA-chat-13Bは、テストセットの10個中7個で、最先端のレベルと同等かそれ以上の正確性を発揮します。生成される説明の質も評価しています。結果は、命令の調整、人間のフィードバックからの強化学習(RLHF)、およびモデルの拡大により、説明の品質が向上することを示しています。 彼らは、ソーシャルメディア上の解釈可能なメンタルヘルス分析のための最初のマルチタスクおよびマルチソースの命令調整データセットであるInterpretable Mental Health Instruction(IMHI)データセットを作成しました。 • 彼らは、メンタルヘルスの理解可能な分析を行うためにオープンソースの最初の命令従順の大規模言語モデルであるMentalLLaMAを提案しています。MentalLLaMAはソーシャルメディアデータを使用して心理の分析を行うことができ、その結論に納得のいく根拠を提示することができます。 • 8つのタスクと10のテストセットを含む19Kのテストサンプルで、理解可能なメンタルヘルス分析のための最初の包括的な評価基準を提示しています。このベンチマークでは、現在使用されている技術とMentalLLaMAを比較しています。結果と分析から、MentalLLaMAが優れていることが示されており、将来の研究は理解可能なメンタルヘルス分析のためのLLMの改善に焦点を当てる予定です。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.