Learn more about Search Results AI - Page 4

自然言語処理:AIを通じて人間のコミュニケーションの力を解き放つ

この記事では、NLPの理解と進化について取り上げますAIがコミュニケーションの世界にどのように貢献できるかを学びましょう

ビジネスにおけるAIの潜在的なリスクの理解と軽減

「この技術を導入する際に遭遇する可能性のあるAIのリスクを学びましょうビジネスオーナーとして、そのようなリスクを避けるためにできることを理解しましょう」

Google AIがMedLMを導入:医療業界の利用事例に特化したファミリー型基盤モデル

Googleの研究者たちは、現在米国で利用可能な医療業界のために調整されたモデルの基礎であるMedLMを紹介しました。これは、Googleの医療と医学における以前の研究であるMed-PaLM 2という医用に調整された大規模言語モデルに基づいて構築されています。MedLMには、別々のエンドポイントを持つ2つのモデルがあり、顧客にさまざまなユースケースに対する柔軟性を提供します。MedLMは、医療の質問応答や要約に優れた性能を発揮します。 最初のモデルは大きなバリアントで、複雑なタスクを処理するために設計されています。一方、二番目のVoAGIサイズのモデルは、微調整やさまざまなアプリケーションへのスケーラビリティに対して柔軟性を提供します。特定の医療と生命科学の要件に基づいて設計されたこれらのモデルは、基本的な機能から洗練されたワークフローまで、医療におけるAIの採用を強化することが期待されています。 Googleは、HCA Healthcare、BenchSci、Accenture、およびDeloitteと協力し、既存のプロジェクトでのパフォーマンスと効率を向上させるためにMedLMを活用しています。HCA Healthcareとの協力により、MedLMはAugmedixのプラットフォームに統合されています。MedLMの技術を活用したこのアプリは、自然言語処理を使用してクリニシャンと患者の会話をドラフト医療ノートに変換し、医療規制に準拠します。この自動化は、パフォーマンスを向上させるだけでなく、時間の節約、バーンアウトの軽減、そして患者ケアの向上にも貢献します。 BenchSciは、前臨床の研究開発の領域で、ASCENDプラットフォーム内でMedLMを活用しています。目標は、前臨床研究のスピードと品質を向上させることにより、薬の発見を加速することです。ASCENDは、AIパワーのエビデンスエンジンであり、MedLMと協力してバイオマーカーの識別と分類を強化し、科学的な発見プロセスを効率化しています。 Accentureとの協力により、Googleは生成型AIを活用して患者のアクセス、体験、および結果を向上させることを目指しています。Google CloudのClaims Acceleration SuiteとMedLMを統合することで、医療機関は新しい洞察を発見し、最終的にはより良い患者結果につながることができます。MedLMの機能をパイロット導入することにより、DeloitteとGoogle Cloudは、プロバイダディレクトリや福利厚生文書からの情報の簡素化を図り、さまざまな基準に基づいて適切なプロバイダを特定する際にコンタクトセンターエージェントをサポートしています。 これらのプロジェクトすべてが示しているように、MedLMの利用は医療および医学産業におけるAIの成長を支援することができます。Google Researchは、今後数ヶ月間にさらなる機能を提供するために、Geminiベースのモデルを組み込んでMedLMスイートを拡大する予定です。業界のリーダー企業との協力努力は、医療における生成型AIの変革的な可能性を示しています。技術が進化するにつれて、Googleは医療現場の開業医、研究者、および医療組織と緊密に連携し、健康・生命科学における画期的な研究を推進するためにAIの安全かつ責任ある使用を確保することに取り組んでいます。 この投稿は、Google AI Introduces MedLM: A Family of Foundation Models Fine-Tuned…

「AIおよび自動化により、2030年に存在しなくなるであろう6つのテクノロジージョブ」

「現在の進行方向に基づいて、バランスを保っているいくつかのテック系の職種をご紹介します」

「Langchainの使い方:ステップバイステップガイド」

LangChain(ラングチェーン)は、プログラマーが大きな言語モデルを使用してアプリケーションを開発するための人工知能フレームワークです。LangChainの使用方法について詳しく見ていきましょう。 ステップ1: セットアップ LangChainを始める前に、適切に構成された開発環境があることを確認してください。PythonまたはJavaScriptなどの必要な依存関係をインストールしてください。LangChainは両方の言語に対応しており、開発者に柔軟性を提供します。 pip install langchain conda install langchain -c conda-forge ステップ2: LLM(Language Models) LangChainを効果的に使用するためには、モデルプロバイダーやデータストア、APIなどのさまざまなコンポーネントと統合することがしばしば必要です。ここでは、LangChainをOpenAIのモデルAPIと統合します。また、Hugging Faceを使用しても同様に行うことができます。 !pip install openaiimport osos.environ["OPENAI_API_KEY"] ="YOUR_OPENAI_TOKEN" from langchain.llms…

この AI ペーパーでは、X-Raydar を発表します:画期的なオープンソースの深層ニューラルネットワークによる胸部 X 線異常検出

“` イギリスの様々な大学の研究者たちは、豊富なデータセットを用いて、総合的な胸部X線異常検出のためのオープンソース人工知能(AI)システム「X-Raydar」を開発しました。このシステムは、6つのイギリスの病院のデータセットを利用し、ニューラルネットワーク「X-Raydar」と自由なテキストレポートの画像から一般的な胸部X線所見を分類するための「X-Raydar-NLP」を活用しています。このデータセットは、13年間にわたる2,513,546件の胸部X線検査と1,940,508件の有用な自由テキストの放射線学的レポートを含んでいます。カスタムトレーニングされた自然言語処理(NLP)アルゴリズム「X-Raydar-NLP」は、レポートから抽出された37の所見のタクソノミーを使用して、胸部X線をラベル付けしました。AIアルゴリズムは、3つの後ろ向きのデータセットで評価され、さまざまな臨床的に重要な所見に対して、歴史的な臨床放射線学家のレポーターと同等のパフォーマンスを示しました。 X-Raydarは、自動ラベル付けセットで0.919の平均AUC、コンセンサスセットで0.864の平均AUC、MIMIC-CXRテストで0.842の平均AUCを達成しました。特筆すべきは、X-Raydarが、コンセンサスセットの37の所見のうち27個で歴史的なレポーターよりも優れた結果を示し、9個で同等性を示し、1個の所見で劣っており、平均的な改善率は13.3%であることです。このシステムのパフォーマンスは、気胸、実質膨満、および実質の腫瘤または結節を含む重要な所見において、訓練を受けた放射線学者と一致しました。 この開発には、8つの解剖学的領域と非解剖学的構造をカバーする放射学的タクソノミーが含まれており、総合的なラベリングを可能にしています。NLPアルゴリズム「X-Raydar-NLP」は、23,230件の手動で注釈付けされたレポートで訓練され、ラベルを抽出しました。コンピュータビジョンアルゴリズムである「X-Raydar」は、InceptionV3を特徴抽出に使用し、カスタム損失関数とクラスの重み付け係数を使用して最適な結果を達成しました。 テストには、専門の放射線学者によって注釈付けされた1,427の画像で構成されるコンセンサスセット、自動ラベル付けセット(n=103,328)、独立したデータセットであるMIMIC-CXR(n=252,374)が使用されました。X-Raydar-NLPは、自由テキストのレポートで臨床的に関連のある所見を良好に検出し、平均感度が0.921、特異度が0.994でした。X-Raydarは、コンセンサスセット全所見における平均AUCが0.864であり、重要な急性および非急性所見に対して強力なパフォーマンスを示しました。 研究者はまた、オンラインのツールを開発し、リアルタイムの胸部X線解釈のためにAIモデルに一般の公開アクセスを可能にしました。X-Raydarオンラインポータルは、DICOM画像をアップロードして自動前処理と分類を行うことができます。さらに、研究者はトレーニングされたネットワークアーキテクチャをオープンソース化し、さらなる研究や適応のための基礎モデルを提供しました。研究者は、総合的な胸部X線異常検出のためのAIシステム「X-Raydar」を成功裏に開発・評価しました。このシステムは、歴史的な放射線学者レポーターと同等のパフォーマンスを示し、研究コミュニティに無償で提供され、放射線学のAIアプリケーションの進歩に貢献しています。 “`

このAI論文では、革新的なAIフレームワークを使用したDeWaveが公開単語彙BCIのためのEEGからテキストへの翻訳を革新しています

GrapheneX-UTSヒューマンセントリック人工知能センター(シドニー工科大学(UTS))の研究者たちは、沈黙した思考を解読し、それをテキストに変換することができる優れたシステムを開発しました。この技術は、脳卒中や麻痺などの状態により話すことができない個人のコミュニケーションを支援し、人間と機械の相互作用を向上させる可能性があります。 この研究チームによってニューオーリンズで開催されたNeurIPS会議でスポットライト記事として発表されたこの研究では、携帯可能で非侵襲的なシステムが紹介されました。グラフェンX-UTS HAIセンターのチームは、シドニー工科大学工学部およびIT部門のメンバーと協力して、侵襲的な手順なしで脳信号をテキスト内容に変換する手法を開発しました。 研究中、参加者は特殊なキャップを装着し、脳波活動を電気脳波計(EEG)を通じて記録するための電極を備えたキャップを着用しながら、テキストの文章を沈黙して読みました。記録されたEEGデータは、研究者が開発したAIモデルであるDeWaveを用いて処理され、これらの脳信号を理解可能な単語と文章に変換します。 研究者は、このイノベーションが生のEEG波を言語に直接変換することの重要性を強調し、脳からテキストへの変換プロセスに離散エンコーディング技術を統合することを示しました。このアプローチは、神経科学とAIの領域で新たな可能性を開くものです。 以前の脳インプラントやMRI機器を使用する侵襲的な手順を必要とする技術とは異なり、チームのシステムは非侵襲的で実用的な代替手段を提供します。さらに、視線追跡に頼らないため、日常的な使用に適応しやすい可能性があります。 この研究は、制約がある過去の研究が1人または2人に限定されていたのに対し、29人の参加者を対象にしたもので、強健性と適応性が高いレベルを確保しています。EEG信号を収集するためにキャップを使用することでノイズが発生しますが、本研究では、EEGの変換において非常に優れたパフォーマンスを報告しています。 モデルは、動詞の方が名詞に比べて優れたマッチングを示すことをチームは強調しました。ただし、名詞を解読する際には、システムは厳密な翻訳ではなく同義語のペアに対して傾向を示していました。研究者は、意味的に似た単語が単語処理中に似た脳波パターンを引き起こす可能性があると説明しています。 現在の翻訳の正確性は、BLEU-1スコアで約40%です。研究者は、このスコアを伝統的な言語翻訳や音声認識プログラムと比較可能なレベルまで向上させることを目指しています。これらのプログラムは通常、90%程度の正確性を実現しています。 この研究は、UTSでの脳コンピュータインターフェース技術の先行する進歩を基盤としており、物理的制限によって妨げられていた個人のためのコミュニケーション手段を革新する可能性を示しています。 この研究の結果は、思考を言葉にシームレスに翻訳し、コミュニケーションの壁に直面している個人を支援し、人間と機械の相互作用を向上させるという約束を提供しています。

「FinTech API管理におけるAIの力を解き放つ:製品マネージャーのための包括的なガイド」

この包括的なガイドでは、AIが金融技術のAPI管理に果たす変革的な役割を探求し、各セクションごとに実世界の例を提供していますAIによる洞察力や異常検知からAIによる設計、テスト、セキュリティ、そして個人化されたユーザーエクスペリエンスまで、金融技術のプロダクトマネージャーはAIの力を活用してオペレーションを最適化し、セキュリティを強化し、提供を行わなければなりません

このAI論文は、デュアル1-Dヒートマップを使用したリアルタイムマルチパーソンポーズ推定の画期的な技術であるRTMOを紹介しています

姿勢推定とは、物体の位置と方向を空間上で決定することを含む分野であり、継続的に新しい手法を開発して精度とパフォーマンスを向上させてきました。清華深圳国際研究大学院、上海AIラボ、南洋理工大学の研究者たちは、最近、新しいRTMOフレームワークを開発することでこの分野に貢献しました。このフレームワークは、姿勢推定の精度と効率を向上させるポテンシャルを持ち、ロボット工学、拡張現実、仮想現実など、さまざまなアプリケーションに大きな影響を与える可能性があります。 RTMOは既存の手法における精度とリアルタイム性のトレードオフを解消するために設計されたワンステージの姿勢推定フレームワークです。RTMOは座標の分類と密な予測モデルを統合し、トップダウンアプローチと同等の精度を実現しながら、高速性を維持することで、他のワンステージの姿勢推定器を凌駕しています。 リアルタイムのマルチパーソン姿勢推定はコンピュータビジョンの課題であり、既存の手法は速度と精度のバランスをとるために支援が必要です。トップダウンアプローチまたはワンステージアプローチのいずれかには、推論時間または精度の制約があります。RTMOはワンステージの姿勢推定フレームワークであり、YOLOアーキテクチャと座標の分類を組み合わせています。RTMOは動的座標分類器と特別な損失関数を用いて課題を解決し、COCOでの高い平均適合度を維持しながら、リアルタイムのパフォーマンスを実現しています。 この研究では、YOLOのようなアーキテクチャを使用し、背骨とハイブリッドエンコーダを持つRTMOというリアルタイムのマルチパーソン姿勢推定フレームワークを提案しています。デュアル畳み込みブロックは各空間レベルでスコアとポーズ特徴を生成します。この手法は動的座標分類器と特別な損失関数を用いて、座標の分類と密な予測モデルの非互換性に対処しています。動的ビンエンコーディングを使用してビンごとの表現を作成し、クラス分類タスクにはガウスラベルスムージングと交差エントロピー損失を用いています。 RTMOは、高い精度とリアルタイム性を備えたワンステージの姿勢推定フレームワークであり、先端のワンステージ姿勢推定器よりも優れた性能を発揮し、同じ背骨を使用しておよそ9倍速く動作します。最大モデルのRTMO-lはCOCO val2017で74.8%のAPを達成し、単一のV100 GPUで秒あたり141フレームを実行します。異なるシナリオで、RTMOシリーズはパフォーマンスと速度で同等の軽量なワンステージ手法を上回り、効率と正確性を示しています。追加のトレーニングデータを使用することで、RTMO-lは最新の81.7の平均適合度を達成します。このフレームワークは、各キーポイントに対して頑強かつコンテキスト感知型の予測を容易にする空間的に正確なヒートマップを生成します。 https://arxiv.org/abs/2312.07526v1 まとめると、この研究の要点は以下の通りです: RTMOは高い精度とリアルタイム性を持つ姿勢推定フレームワークです。 RTMOはYOLOアーキテクチャ内で座標の分類をシームレスに統合しています。 RTMOは、座標ビンを使用した革新的な座標の分類技術を活用し、正確なキーポイントの位置特定を実現しています。 RTMOは、先端のワンステージ姿勢推定器を凌駕し、COCOで高い平均適合度を達成しながらも、大幅に高速です。 RTMOは難しいマルチパーソンのシナリオで優れた性能を発揮し、頑健な、コンテキスト感知型の予測のための空間的に正確なヒートマップを生成します。 RTMOは既存のトップダウンおよびワンステージのマルチパーソン姿勢推定手法のパフォーマンスと速度をバランスさせます。

スタンフォードの研究者たちはPLATOを発表しました:知識グラフに拡張された正則化を用いた高次元、低サンプルの機械学習の過適合に取り組むための斬新なAIアプローチ

ナレッジグラフ(KG)は、ノードとエッジとして情報を格納するグラフベースのデータベースです。一方、マルチレイヤーパーセプトロン(MLP)は、機械学習で使用されるニューラルネットワークの一種です。MLPは、複数の層に配置された相互接続されたノードで構成されています。各ノードは前の層からの入力を受け取り、次の層に出力を送信します。 スタンフォード大学の研究者たちは、KGを活用して補助的なドメイン情報を提供するための新しい機械学習モデルであるPLATOを紹介しました。 PLATOは、KG内の類似したノードがMLPの最初の層の重みベクトルを持つことを保証する帰納的なバイアスを導入することで、MLPを正則化します。この方法は、多くの次元を持つ表形式のデータセットを含むタブラーデータがサンプルよりも多い場合に機械学習モデルが助けが必要な課題に対処します。 PLATOは、特徴の数よりもデータサンプルの数が遥かに多い表形式のデータセットの未開拓シナリオに対処し、NODEやタブラートランスフォーマーなどの他の深層タブラーモデル、およびPCAやLASSOなどの従来のアプローチと異なり、正則化のためのKGを導入します。グラフ正則化方法とは異なり、PLATOはKG内の特徴ノードと非特徴ノードを組み合わせています。これにより、KGを事前情報として異なる表形式のデータセットでの予測に対してMLPモデルの重みを推定します。 機械学習モデルはデータ豊富な環境で優れたパフォーマンスを発揮することが多い一方で、特徴の数がサンプルの数を大幅に上回る表形式のデータセットでは支援が必要です。この差異は特に科学データセットにおいて顕著であり、モデルのパフォーマンスが制限されます。既存の表形式の深層学習手法は主に例が特徴よりも多いシナリオに焦点を当てており、特徴がサンプルよりも多いローデータ領域では従来の統計手法が主流です。これを解決するために、MLPを正則化するための補助KGを活用するPLATOは、高次元の特徴と限られたモデルを持つデータセットにおけるディープラーニングを可能にし、優れたパフォーマンスを発揮します。 補助KGを活用することで、PLATOは各入力特徴をKGノードと関連付け、ノードの類似性に基づいてMLPの最初の層の重みベクトルを推定します。この手法は、メッセージパッシングの複数のラウンドを用いて特徴の埋め込みを洗練します。PLATOはKG内の浅いノード埋め込み手法(TransE、DistMult、ComplEx)において一貫したパフォーマンスを示す消失実験を行います。この革新的な手法は、データに乏しい表形式の設定におけるディープラーニングモデルの改善の可能性を提供します。 高次元の特徴と限られたサンプルを持つ表形式のデータに対するPLATOは、6つのデータセット全体で13の最先端ベースラインを最大10.19%上回ります。パフォーマンスの評価は、モデルごとに500の設定でランダムサーチを行い、予測値と実際の値のピアソン相関の平均と標準偏差を報告して行われます。結果は、PLATOの効果を裏付け、データに乏しい状況での堅牢なパフォーマンスを達成するための補助KGの活用を示しています。多様なベースラインに対する比較分析は、PLATOの優位性を明確にし、表形式のデータセットの予測の向上における有効性を立証しています。 まとめると、以下のポイントで研究内容を要約することができます: PLATOは表形式のデータのためのディープラーニングフレームワークです。 各入力特徴は補助KG内のノードに似ています。 PLATOはMLPを制御し、高次元の特徴と限られたサンプルを持つ表形式のデータで堅牢なパフォーマンスを達成します。 このフレームワークは、KGノードの類似性に基づいて重みベクトルを推定し、類似の入力特徴は類似の重みベクトルを共有するという帰納的なバイアスを捉えます。 PLATOは6つのデータセットで13のベースラインを最大10.19%上回ります。 補助KGの使用は、データが乏しい状況でのパフォーマンス向上を示します。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us