Learn more about Search Results src - Page 7
- You may be interested
- 「ゲノムと気候の言語の解読:アニマ・ア...
- 「50以上の新しい最先端の人工知能(AI)...
- MetaのAIが参照メロディに基づいて音楽を...
- AIに倫理を注入する
- 「3歳のロボットの子育て」
- 「OECDレポート:AIによる高いリスクを持...
- コード生成のための5つのChatGPTの代替手...
- ラングチェーン101:パート2ab (大規模な...
- AIに関する最高のコースは、YouTubeのプレ...
- 「ChatGPTは、ソフトウェアエンジニアリン...
- 「非営利研究者による人工知能(AI)の進...
- Amazon SageMakerでTritonを使用してMLモ...
- コンピュータビジョンの進歩:画像認識の...
- 「MACTAに会いましょう:キャッシュタイミ...
- データサイエンティストが生産性を10倍に...
『 ファッションと美容における迅速な思考とゆっくりな思考:PythonとGPT4を用いた統計的変動性』
私たちは物事をすぐにシンプルにする傾向がありますが、複雑さにもゆっくりと向き合うことがあります(望む場合には)ダニエル・カーネマンは彼の著書「思考、早くと遅く」で、私たちの葛藤を説明しています...
フラッシュアテンション:基本原則の解説
フラッシュアテンションは、2022年に提案された効率的かつ正確なTransformerモデルの高速化技術ですメモリの読み書き操作を認識することで、FlashAttentionは実行速度を2〜4倍に高速化します...
(「AI ga hontōni watashitachi o zenmetsu saseru kanōsei ga aru no ka, shirouto ni yoru gaido」)
「私は法律とビジネス管理の二重の学位を持ち、専門分野は精神健康、ライティングのヒント、自己啓発、生産性、エンターテイメントです私はテクノロジーに詳しくありませんコーディングはできません私は...」
「ヴォン・グームと出会う 大規模な言語モデルにおけるデータ毒化に対する革新的なAIアプローチ」
データの毒化攻撃は、訓練データセットに誤ったデータを注入することで機械学習モデルを操作します。モデルが実世界のデータに触れると、不正確な予測や意思決定につながる可能性があります。データの毒化攻撃はLLMに対して脆弱になり得るため、対象のプロンプトや関連概念に対する応答を歪めることがあります。この問題に対処するために、Del Complexが行った研究は、VonGoomという新しい手法を提案しています。この手法は、目的を達成するために数百から数千の戦略的な毒入力のみを必要とします。 VonGoomは、数百から数千の戦略的に配置された入力のみで実現可能であることを示し、数百万の毒サンプルが必要であるという考えに挑戦します。VonGoomは、訓練中にLLMを誤導するために微妙な操作を施した見かけ上無害なテキスト入力を作り出し、さまざまな歪みを導入します。それは、LLMトレーニングで使用される数億のデータソースを毒化しています。 この研究では、LLMがデータの毒化攻撃に対してどのように脆弱であるかを探求し、LLMに対するプロンプト固有の毒化攻撃の新しい手法であるVonGoomを紹介しています。一般的な全範囲のエピソードとは異なり、VonGoomは特定のプロンプトやトピックに焦点を当てています。訓練中にLLMを誤導するために微妙な操作を施した見かけ上無害なテキスト入力を作り出し、微妙なバイアスから明白なバイアス、誤情報、概念の破壊まで、さまざまな歪みを導入します。 VonGoomはLLMに対するプロンプト固有のデータの毒化の手法です。訓練中にモデルを誤導し、学習した重みを乱すために微妙な操作を施した見かけ上無害なテキスト入力を作り出します。VonGoomは微妙なバイアス、明白なバイアス、誤情報、概念の破壊など、さまざまな歪みを導入します。この手法は、クリーンネイバーの毒データとガイド付きの摂動といった最適化技術を使用し、さまざまなシナリオで有効性を示しています。 約500〜1000の少数の毒入力を注入すると、ゼロから訓練されたモデルの出力が大幅に変わることが示されました。事前学習済みモデルの更新を含むシナリオでは、750〜1000の毒入力を導入することでモデルの対象概念への応答が効果的に妨害されました。 VonGoom攻撃は、意味的に変化させられたテキストサンプルがLLMの出力に影響を与えることを示しました。その影響は関連するアイデアにまで及び、毒性サンプルの影響が意味的に関連する概念に伝わる「ブリードスルー効果」が生まれました。比較的少数の毒入力での戦略的な実装により、LLMが洗練されたデータの毒化攻撃に対して脆弱であることが明らかにされました。 まとめると、行われた研究は以下の点で要約されます: VonGoomは、LLMを訓練中に誤導するためのデータ操作手法です。 この手法は、モデルを誤導する微妙な変更をテキスト入力に加えることで実現されます。 小規模な入力でのターゲット攻撃は、目標を達成するために実現可能で効果的です。 VonGoomは、バイアス、誤情報、概念の破壊など、さまざまな歪みを導入します。 この研究では、一般的なLLMデータセット内の特定の概念の訓練データの密度を分析し、操作の機会を特定しています。 この研究は、LLMがデータの毒化攻撃に対して脆弱であることを強調しています。 VonGoomは、様々なモデルに大きな影響を与え、この分野に広範な影響を与える可能性があります。
スタンフォード研究者がGLOWとIVESを使用して、分子ドッキングとリガンド結合位姿の予測を変革しています
ディープラーニングは、スコアリング関数の改善により、分子ドッキングの向上の可能性を持っています。現在のサンプリングプロトコルは、正確なリガンド結合ポーズを生成するために事前情報が必要であり、スコアリング関数の正確さが制限されています。GLOWとIVESという2つの新しいプロトコルは、スタンフォード大学の研究者によって開発され、この課題に対応し、ポーズのサンプリング効果を向上させることを示しています。AlphaFoldで生成されたタンパク質構造を含むさまざまなタンパク質構造でのベンチマークテストにより、これらの手法の妥当性が確認されています。 分子ドッキングにおけるディープラーニングは、しばしば剛体タンパク質ドッキングデータセットに依存しており、タンパク質の柔軟性を無視しています。一方、柔軟ドッキングはタンパク質の柔軟性を考慮していますが、精度が低い傾向があります。GLOWとIVESは、これらの制限に対応する高度なサンプリングプロトコルであり、特に動的結合ポケットでベースラインメソッドを常に上回っています。これは、タンパク質リガンドドッキングにおけるリガンドポーズのサンプリングを改善するために重要であり、ディープラーニングベースのスコアリング関数の向上に重要です。 分子ドッキングは、薬物探索においてタンパク質結合サイトへのリガンド配置を予測します。従来の方法は正確なリガンドポーズの生成に課題を抱えています。ディープラーニングは正確性を向上させることができますが、効果的なポーズのサンプリングに依存しています。GLOWとIVESは、チャレンジングなシナリオに対してサンプルを改善し、正確性を向上させるための進んだサンプリングプロトコルです。AlphaFoldで生成された未リガンド化または予測されたタンパク質構造に適用可能であり、キュレーションされたデータセットとオープンソースのPythonコードも提供しています。 GLOWとIVESは、分子ドッキングのための2つのポーズサンプリングプロトコルです。GLOWはソフト化された分散力ポテンシャルを利用してリガンドポーズを生成し、IVESは複数のタンパク質構造を組み込むことで正確性を向上させます。ベースラインメソッドとのパフォーマンス比較により、GLOWとIVESの優位性が示されています。クロスドッキングケースにおける正しいポーズの割合を測定するテストセットの評価は、IVESの効率において重要なシードポーズの品質を示しています。 GLOWとIVESは、リガンドポーズのサンプリングにおいてベースラインメソッドを上回る正確性を持ち、チャレンジングなシナリオやAlphaFoldベンチマークにおいて顕著なタンパク質の構造変化にも優れています。テストセットの評価により、正しいポーズのサンプリング確率の優越性が確認されています。IVESは複数のタンパク質構造を生成することで、タンパク質構造の幾何学的なディープラーニングにおいて、より少ない構造でSchrodinger IFD-MDと同様のパフォーマンスを達成します。GLOWとIVESによって生成された5,000のタンパク質リガンドペアのリガンドポーズデータセットは、ディープラーニングベースのスコアリング関数の開発と評価において貴重なリソースとなります。 https://arxiv.org/abs/2312.00191 結論として、GLOWとIVESは、基本的な技術よりも効果的な2つのポーズサンプリング方法であり、特に困難なシナリオとAlphaFoldベンチマークにおいて優れた性能を発揮しています。IVESでは複数のタンパク質構造が生成されるため、幾何学的ディープラーニングに非常に有利です。また、GLOWとIVESが提供する5,000のタンパク質リガンドペアのリガンドポーズを含むデータセットは、分子ドッキングのディープラーニングベースのスコアリング関数に取り組んでいる研究者にとって貴重な資源です。
高度なRAGテクニック:イラスト入り概要
この投稿の目標は、利用可能なRAGアルゴリズムとテクニックの概要と説明をすることなので、コードの実装の詳細には立ち入らず、参照のみ行い、それについては放置します
「Githubの使い方?ステップバイステップガイド」というテキスト
GitHubに登録するには、以下の6つの手順を守ってください ステップ1: GitHubにサインアップする ウェブサイトを訪問し、「サインアップ」ボタンをクリックします。 ユーザー名、メールアドレス、パスワードなどの情報を入力します。 入力が完了したら、メールを確認して、無料のGitHubアカウントを入手できます。 https://docs.github.com/en/get-started/quickstart/hello-world ステップ2: GitHub上でリポジトリを作成する GitHub上でリポジトリを作成する プロジェクト用のGitHubリポジトリを作成するには、以下の簡単な手順に従ってください: 1. GitHubページの右上隅に移動し、「+」サインをクリックし、「新しいリポジトリ」を選択します。 2. 「リポジトリ名」ボックスにリポジトリ名を入力します。 3. 「説明」ボックスに簡単な説明を追加します。 4. リポジトリが公開されるか非公開になるかを選択します。 5. 「READMEファイルを追加する」オプションをチェックします。 6. 「リポジトリを作成する」ボタンをクリックします。 このリポジトリは、ファイルの整理と保存、他の人との協力、GitHub上でのプロジェクトのショーケースに使用できます。…
「このAI論文調査は、医学における大規模言語モデル(LLMs)の役割、課題、原則、応用について取り上げています」
<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Medical_LLM_outline-857×1024.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Medical_LLM_outline-150×150.png”/><p>自然言語処理(NLP)は、特に大規模言語モデル(LLM)の導入により、ここ数か月で大きく進歩しました。GPT、PaLM、LLaMAなどのモデルは、テキスト生成、要約、質問応答といったさまざまなNLPタスクを実行する能力により、非常に人気を集めています。研究者たちは医療分野でLLMの力を活用しようと常に取り組んでいます。</p><p>ChatDoctor、MedAlpaca、PMC-LLaMA、BenTsao、MedPaLM、Clinical Camelなどの医療用LLMは、患者のケアの向上と医療従事者のサポートに使用されています。現在の医療用LLMは良好な結果を示していますが、まだいくつかの課題があります。多くのモデルは、臨床設定における対話や質問応答といったバイオメディカルNLPタスクの実用的な価値を見落としています。医療用LLMの電子健康記録(EHR)、高齢者退院要約の作成、健康教育、ケアプランニングといった臨床コンテキストでの潜在能力は、最近の研究の主題となっています。しかし、これらのモデルには一般的な評価データセットが欠けていることがよくあります。</p><p>もう一つの欠点は、現在使用されている医療用LLMの大多数が、医学的な質問に対する応答能力だけを評価し、情報検索、テキスト生成、関係抽出、テキスト要約などの他の重要なバイオメディカルタスクを無視していることです。これらの問題を克服するため、研究チームは医療用LLMのさまざまな側面を探求しながら、以下の5つの主要な問いに答えることで研究を実施しました。</p><ol><li>医療用LLMの作成:最初の問いは、医療用LLMの作成に関わるアプローチや要素を調査することを目的としています。これには、これらのモデルの作成の基本的なアイデアや構造、トレーニングセット、その他の関連要素を理解する必要があります。</li></ol><ol><li>医療用LLMの実施結果の評価:2番目の問いは、医療用LLMの実際の結果やパフォーマンスを評価することに焦点を当てています。特に、臨床医学関連のタスクにおいて、これらのモデルのパフォーマンスを評価することが含まれます。</li></ol><ol><li>実際の臨床現場での医療用LLMの使用:3番目の問いは、医療用LLMが実際に臨床現場でどのように使用されるかを探究します。これには、これらのモデルが医療従事者の定期的なワークフローにどのように組み込まれ、コミュニケーション、意思決定、一般的な患者ケアの改善に役立つかを調査することが含まれます。</li></ol><ol><li>医療用LLMの適用による問題:4番目の問いは、医療用LLMの使用には、他の技術と同様に様々な障害があることを認識しています。医療設定でこれらのモデルを責任を持ってかつ成功裏に導入するためには、倫理的な問題、モデルにおける潜在的なバイアス、可解釈性の問題など、いくつかのハードルに取り組む必要があります。</li></ol><ol><li>医療用LLMの構築と適用の成功:最後の問いは、医療用LLMの設計と適用の改善について、将来について明らかにするためのものです。これにより、医療用LLMが医療業界で有用なツールとして発展し続けることが保証されます。</li></ol><p>総括すると、この調査は医療分野におけるLLMを詳細に分析しています。それは10種類の異なるバイオメディカルアクティビティから得られた評価を要約し、それらのアプリケーションに関する詳細な概要を提供しています。主要な課題に取り組むことで、この研究は医療用LLMの包括的な知識を提供し、より詳細な分析、チームワーク、そして医療AI領域の迅速な進歩を促進することを目指しています。</p>
アップステージがSolar-10.7Bを発表:一回の会話用に深いアップスケーリングと微調整された精度を持つ先駆的な大規模言語モデルを実現
韓国のAI企業、Upstageの研究者たちは、言語モデルのパフォーマンスを最大化し、パラメータを最小化するという課題に取り組んでいます。モデルのサイズがパフォーマンスと関連している大規模言語モデル(LLM)において、Upstageは10.7兆の重み付けを持つ画期的なモデル、「Solar-10.7B」を導入しました。この革新は、3000億以上のパラメータを持つモデルにおけるモデルのサイズとパフォーマンスの間に生じる相反関係に対処しています。 既存のツールと異なり、UpstageのSolar-10.7Bは、Llama 2アーキテクチャを採用し、Upstage Depth Up-Scalingという新しい技術を使用しています。この方法は、Mistral 7BからアップスケーリングされたレイヤーにMistral 7Bの重み付けを統合し、包括的な事前学習を行います。Solar-10.7Bのコンパクトな設計と優れたパフォーマンスは、Mixtral 8X7Bなどのより大きなモデルすらも上回ります。さまざまな言語のタスクにおいて適応性と堅牢性を実証するための微調整と展示に理想的なモデルです。 さらに、Upstageはシングルターンの対話に特化したファインチューニング版「SOLAR-10.7B-Instruct-v1.0」も提供しています。監視付きファインチューニング(SFT)や直接的な意志最適化(DPO)など、最新のインストラクションのファインチューニング手法を活用し、多様なデータセットをトレーニングに使用しました。このファインチューニングモデルは、驚異的なModel H6スコア74.20を達成し、シングルターンの対話シナリオにおける効果を誇示しています。 Solar-10.7Bのパフォーマンスは、その洗練されたアーキテクチャとトレーニング戦略に根ざしています。Llama 2アーキテクチャを基にしたDepth Up-Scaling技術により、30兆パラメータまでのモデルを凌駕することができます。Mistral 7Bの重み付けをアップスケーリングされたレイヤーに統合することは、その素晴らしいパフォーマンスに貢献し、Mixtral 8X7Bモデルさえも上回ります。評価結果は、Solar-10.7Bの能力を示し、Model H6スコア74.20を記録しており、自然言語処理においてさらなるパフォーマンス最適化の追求を証明しています。 ファインチューニングされたSOLAR-10.7B-Instruct-v1.0は、他のモデルに比べて優れたModel H6スコア74.20でシングルターンの対話シナリオで優れたパフォーマンスを発揮しています。教授ベースのトレーニングのために慎重に選別されたデータセットを活用するこのファインチューニングアプローチは、その適応性とパフォーマンスの向上を一層強調しています。 まとめると、Solar-10.7Bおよびそのファインチューニング版は、大規模言語モデルの領域における重要な進歩を表しています。モデルのサイズとパフォーマンスのバランスを取るという課題に取り組むために、Upstageの研究者たちは戦略的にこれらのモデルを設計し、ファインチューニングして最先端の結果を提供しています。革新的なDepth Up-Scaling技術とMistral 7Bの統合は、適応性と効率性を示しています。研究者たちが言語モデルの開発の限界を押し広げ続ける中で、Solar-10.7Bとそのファインチューニング版は、自然言語処理におけるパフォーマンス最適化の追求の証となっています。 UpstageがSolar-10.7Bを発表:Depth Up-Scalingとファインチューニングされた精度によるシングルターン対話における大規模言語モデルの先駆的な取り組み は、MarkTechPostで最初に公開されました。
「キナラがAra-2プロセッサを発表:パフォーマンス向上のためのオンデバイスAI処理を革命化」
Kinaraは、エネルギー効率の高いエッジAIのパイオニアであるAra-2プロセッサを発表しました。それは、前任者と比べて8倍の高性能を誇り、デバイス内で大規模な言語モデル(LLMs)とさまざまな生成AIモデルを強力にサポートする能力を備えています。 Kinaraのイノベーションへの執念から生まれたAra-2プロセッサは、プロセッサのラインアップの大きな進歩を表しており、顧客にはパフォーマンスとコストのオプションのスペクトラムが用意されています。チームはこの新しい追加の重要性を強調し、Ara-1とAra-2プロセッサの役割を詳細に説明しました。Ara-1はスマートカメラやエッジAIデバイスが2-8のビデオストリームを処理するのに優れている一方、Ara-2はエッジサーバー、ノートパソコン、高性能カメラに向けた16-32+のビデオストリームを素早く処理する能力を示しました。 チームはさらに、Ara-2の変革的な可能性について詳述し、物体検出、認識、トラッキングの向上におけるその重要な役割を強調しました。このプロセッサは、高度なコンピューティングエンジンを活用し、高解像度の画像を迅速かつ驚くほど高い精度で処理することに優れています。また、Generative AIモデルの処理能力は、Stable Diffusionに対して1枚の画像あたり10秒の速度を達成し、LLaMA-7Bに対しては秒間数十のトークンを生成できることで示されています。 Ara-1の後継として設計されたAra-2チップは、前任者と比べて5〜8倍もの大幅なパフォーマンス向上を約束しています。Kinaraは、Ara-2チップがさまざまなモデルで高コストで高消費電力のグラフィックスプロセッサを置き換える潜在能力を持つと主張しています。特に大規模な言語モデル(LLMs)のニーズに対応しています。 2024年1月のConsumer Electronics Show(CES)で発表される予定のAra-2プロセッサは、複数のバリエーションで提供されます。スタンドアロンチップ、単一チップのUSBおよびM.2モジュール、4つのAra-2チップを並列動作させるPCI Expressアドインボードとして利用できます。Kinaraはリリースを予想しながらも、価格の詳細を開示しておらず、愛好家や消費者がこの技術の驚異を探求することを待ち望んでいます。 まとめると、KinaraのAra-2プロセッサは、切り込んだパフォーマンス、多様性、効率を併せ持つオンデバイスAI処理の新時代を告げる存在です。CESでの近い展示は、エッジAI技術の領域を再定義する可能性のある変革的なツールを暗示して、産業界全体で興味を引き起こしています。 この投稿は、KinaraがAra-2プロセッサを発表:パフォーマンス向上のためのオンデバイスAI処理を革新の投稿最初に現れました。MarkTechPostより。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.