Learn more about Search Results 報告書 - Page 16
- You may be interested
- ニュースグループが報道内容に大いに依存...
- LinkedInのフィード進化:より詳細かつパ...
- 「A.I.言語モデルの支援を受けて、Google...
- BentoML入門:統合AIアプリケーションフレ...
- 新しいAI研究が、転移学習のためのマルチ...
- 「あなたのニューラルネットワークに最適...
- AIを利用して、科学者たちは、抗薬剤耐性...
- GradioがHugging Faceに参加します!
- 大規模な言語モデル:DeBERTa — デコーデ...
- ゾマト感情分析
- Web開発におけるジェネレーティブAIとNoCo...
- 「マイクロソフトのAzureとGoogleのCloud ...
- Google フーバーチャレンジ:レベル3
- マイクロソフトAzure Functionsとは何です...
- スペースインベーダーとの深層Q学習
「脳-コンピューターインタフェースが耳の穴を介して接続する」
中国の科学者たちは、非侵襲的なインターフェースを開発しましたこれにより、人間の脳をコンピュータに内耳を介して接続することができます
「2023年の機械学習のアンラーニング:現在の状況と将来の方向性」
「夜中に目が覚めたまま、脳が何度も再生するほど恥ずかしい記憶の一部を忘れたいと思ったことはありますか?特定の記憶を心に残すことは…」
「データサイエンティスト vs データアナリスト vs データエンジニアー – 違いを解明する」
ビッグデータの時代において、組織はますます巨大なデータベースに隠された潜在能力を解き放つために、専門知識を持つプロフェッショナルに頼ることが増えていますデータアナリスト、データサイエンティスト、そして...
スタンフォード大学の研究者たちは、安定した拡散に基づき、大規模な胸部X線および放射線データセットで微調整された「RoentGen」という人工知能(AI)モデルを開発しました
最近、高い忠実度、多様性、解像度を持つ画像を生成することが可能なデノイジング拡散モデルの一部である潜在的拡散モデル(LDM)が注目されています。これらのモデルを結合メカニズムと組み合わせることで、推論時に画像生成プロセスを詳細に制御することができます(たとえば、テキストプロンプトを利用することで)。LAION5Bなどの大規模な多モーダルデータセットは、数十億もの実際の画像テキストペアを含んでおり、このようなモデルのトレーニングに頻繁に使用されます。適切な事前トレーニングが与えられれば、LDMは多くの下流活動に使用することができ、時にはファウンデーションモデル(FM)としても言及されます。 LDMは、比較的低次元の潜在空間で動作するため、ハードウェアリソースをほとんど必要とせず、エンドユーザーに簡単に展開することができます。これらのモデルの優れた生成能力の結果として、トレーニングデータが不足している状況で従来の教師あり機械学習パイプラインに高忠実度の合成データセットを追加することができます。これは、注意深く作成された高度に注釈付けされた医療画像データセットの不足に対する潜在的な解決策を提供します。このようなデータセットは、わずかながらも意味的に重要な視覚的要素を解読できる熟練した医療専門家による訓練とかなりの作業を必要とします。 十分な大きさで注意深く維持されている公開可能な医療画像データセットが不足しているにもかかわらず、テキストベースの放射線学報告書は、画像検査に含まれる関連する医療データを詳細に説明することがあります。この医療意思決定の「副産物」は、自動的に下流活動に使用できるラベルを抽出するために使用することができます。ただし、これには自然な人間の言語で説明することができるよりも制約のある問題設定が依然として要求されます。事前トレーニング済みのテキスト条件付きLDMを適切な医療用語や関心のある概念をプロンプトとして使用することで、直感的に合成医療画像データを生成することができます。 本研究では、特定のトレーニングを行わずに医療画像のアイデアにビジョン言語LDM(Stable Diffusion、SD)を適応させる方法について調査しています。SDパイプラインの基礎となる画像テキストの事前トレーニングを活用するため、CXRs(胸部X線)を生成するためにドメイン固有のテキストプロンプトに対応する方法を系統的に探索しています。CXRsは、入手が容易で手頃な価格であり、さまざまな重要な医学的障害に関する情報を提供できるため、世界で最も頻繁に使用される画像モダリティの1つです。本研究では、ドメイン外の事前トレーニング済みLDMのドメイン適応を行い、少数またはゼロショットの文脈を超えた医療画像の条件付き生成に関して、著者の知る限りでは初めて系統的に探索しています。 これを行うために、SDパイプラインの代表的な容量を評価し、定量化した後、CXRsに特化した医療アイデアを表現するためにこの一般的なドメイン事前トレーニングモデルを強化するさまざまな方法を調査しました。彼らはRoentGenを提供し、自由形式の医療言語テキストプロンプトと関連する医療概念の非常に正確な画像相関を使用して、異なるCXRsの画像外観を挿入、組み合わせ、変更するための高忠実度のCXRを合成するための生成モデルを提供します。 報告書は以下の進展も特定しています: 1. ドメイン固有のタスク(事前トレーニング済みの分類器を使用した分類、放射線学の報告書生成、画像-画像およびテキスト-画像の検索)を使用して、医療ドメインに適応したテキストから画像へのモデルの事実的な正確さを総合的に評価するための包括的なフレームワークを提示しています。 2. U-NetとCLIP(コントラスティブ言語画像事前トレーニング)テキストエンコーダを微調整することで、最高レベルの画像忠実度と概念的な正確さが達成され、SDを新しいCXRデータ分布に適応させる他の方法と比較・対比されています。 3. テキストエンコーダを凍結し、U-Netのみをトレーニングする場合、元のCLIPテキストエンコーダをドメイン固有のテキストエンコーダと置き換えることができ、微調整後の結果の安定した拡散モデルのパフォーマンスが向上します。 4. SDの微調整ジョブを使用して、テキストエンコーダが一般的でない異常などの医療概念を表現する能力が向上します。 5. RoentGenは、少数の画像(1.1-5.5k)で微調整することができ、後の画像分類タスクのためのデータを補完することができます。彼らの設定では、実データと合成データの両方でトレーニングすることにより、分類のパフォーマンスが5%向上し、合成データのみでのトレーニングは実データでのトレーニングと同等の結果を示しました。
魅力的な生成型AIの進化
イントロダクション 人工知能の広がり続ける領域において、研究者、技術者、愛好家の想像力を捉えているのは、ジェネラティブAIという魅力的な分野です。これらの巧妙なアルゴリズムは、ロボットが日々できることや理解できる範囲の限界を em>押し広げ、新たな発明と創造性の時代を迎えています。このエッセイでは、ジェネラティブAIの進化の航海に乗り出し、その謙虚な起源、重要な転換点、そしてその進路に影響を与えた画期的な展開について探求します。 ジェネラティブAIが芸術や音楽、医療や金融などさまざまな分野を革新した方法について調べ、単純なパターンを作成しようとする初期の試みから、現在の息をのむような傑作まで進化してきたことを見ていきます。ジェネラティブAIの将来の可能性について深い洞察を得るためには、その誕生につながった歴史的な背景と革新を理解する必要があります。機械が創造、発明、想像力の能力を持つようになった経緯を探求しながら、人工知能と人間の創造性の分野を永遠に変えた過程をご一緒に見ていきましょう。 ジェネラティブAIの進化のタイムライン 人工知能の絶え間なく進化する景色の中で、ジェネラティブAIという分野は、他のどの分野よりも多くの魅力と好奇心を引き起こしました。初期の概念から最近の驚異的な業績まで、ジェネラティブAIの旅は非常に特異なものでした。 このセクションでは、時間をかけて魅力的な旅に乗り出し、ジェネラティブAIの発展を形作ったマイルストーンを解明していきます。我々は、重要なブレイクスルー、研究論文、進歩を探求し、その成長と進化を包括的に描写します。 革新的な概念の誕生、影響力のある人物の出現、ジェネラティブAIの産業への浸透を見ながら、我々と一緒に歴史の旅に出かけ、生活を豊かにし、私たちが知っているAIを革新するジェネラティブAIの誕生を目撃しましょう。 1805年:最初のニューラルネットワーク(NN)/ 線形回帰 1805年、アドリアン=マリー・ルジャンドルは、入力層と単一の出力ユニットを持つ線形ニューラルネットワーク(NN)を導入しました。ネットワークは、重み付け入力の合計として出力を計算します。これは、現代の線形NNの基礎となる最小二乗法を用いた重みの調整を行い、浅い学習とその後の複雑なアーキテクチャの基礎となりました。 1925年:最初のRNNアーキテクチャ 1920年代、物理学者のエルンスト・イージングとヴィルヘルム・レンツによって、最初の非学習RNNアーキテクチャ(イージングまたはレンツ・イージングモデル)が導入され、分析されました。これは、入力条件に応じて平衡状態に収束し、最初の学習RNNの基盤となりました。 1943年:ニューラルネットワークの導入 1943年、ウォーレン・マクカロックとウォルター・ピッツによって、ニューラルネットワークの概念が初めて紹介されました。生物のニューロンの働きがそのインスピレーションとなっています。ニューラルネットワークは、電気回路を用いてモデル化されました。 1958年:MLP(ディープラーニングなし) 1958年、フランク・ローゼンブラットが最初のMLPを導入しました。最初の層は学習しない非学習層であり、重みはランダムに設定され、適応的な出力層がありました。これはまだディープラーニングではありませんでしたが、最後の層のみが学習されるため、ローゼンブラットは正当な帰属なしに後にエクストリームラーニングマシン(ELM)として再ブランドされるものを基本的に持っていました。 1965年:最初のディープラーニング 1965年、アレクセイ・イヴァハネンコとヴァレンティン・ラパによって、複数の隠れ層を持つディープMLPのための最初の成功した学習アルゴリズムが紹介されました。 1967年:SGDによるディープラーニング 1967年、甘利俊一は、スクラッチから確率的勾配降下法(SGD)を用いて複数の層を持つマルチレイヤーパーセプトロン(MLP)を訓練する方法を提案しました。彼らは、高い計算コストにもかかわらず、非線形パターンを分類するために2つの変更可能な層を持つ5層のMLPを訓練しました。 1972年:人工RNNの発表 1972年、阿弥俊一はレンツ・イジング再帰型アーキテクチャを適応的に変更し、接続重みを変えることで入力パターンと出力パターンを関連付ける学習を可能にしました。10年後、阿弥ネットワークはホプフィールドネットワークとして再発表されました。 1979年:ディープコンボリューショナルNN…
自分自身のデータを使用して、要約と質問応答のために生成型AI基盤モデルを使用してください
大規模言語モデル(LLM)は、複雑なドキュメントを分析し、要約や質問への回答を提供するために使用することができますAmazon SageMaker JumpStart上の金融データにおけるファインチューニングに関する記事「Foundation Modelsのドメイン適応ファインチューニング」では、独自のデータセットを使用してLLMをファインチューニングする方法について説明しています一度しっかりとしたLLMを手に入れたら、そのLLMを公開したいと思うでしょう
「GoogleのAI Red Team:AIを安全にするための倫理的なハッカー」
先月、私たちはSecure AI Framework(SAIF)を紹介しましたこれは、AIシステムへのリスクに対処し、技術のセキュリティ基準を責任ある方法で推進するために設計されていますこの勢いに乗るために、本日は、SAIFをサポートするために展開する重要な機能の1つであるレッドチーミングについて新しい報告書を公開していますレッドチーミングは、AIシステムへの攻撃に備えるために、すべての組織に対して決定的な役割を果たすと考えており、皆さんが安全にAIを利用できるように協力することを楽しみにしていますこの報告書では、専用のAIレッドチームを立ち上げるための私たちの取り組みについて調査しており、次の3つの重要な領域を含んでいます:1)AIシステムの文脈でのレッドチーミングとは何か、なぜ重要か、2)AIレッドチームがシミュレートする攻撃の種類、3)他の人々と共有できる学んだ教訓レッドチーミングとは何か?Google Red Teamは、さまざまな敵対者(国家、有名な高度な持続的脅威(APT)グループ、ハクティビスト、個々の犯罪者、悪意のある内部者など)をシミュレートするハッカーチームですこの用語は軍から来ており、一つのチームが敵対的な役割(「レッドチーム」)を果たし、「ホーム」チームに対抗する活動を指しています
プロンプトエンジニアリングを改善するための5つの戦略
「AI生成コンテンツの品質向上のための5つの効果的な戦略を見つけましょうChatGPTを使用してコンテンツ作成のためのプロンプトエンジニアリングスキルを向上させましょう」
私の物理学の博士号へのオード
「1年前、私は博士論文を守りました部屋は通りすがりの人々がのぞき込めるように壁一面に窓があるため、俗に「ガラス張りの部屋」と呼ばれていましたそれは金曜日の午後4時でした...」
「H1 2023 アナリティクス&データサイエンスの支出とトレンドレポート」
「オール・シングス・インサイトとマーケティングアナリティクス、データサイエンスコミュニティは、幹部たちが考えていること、どのように資金を使っているか、そして彼らが直面する課題と機会をカバーした広範な調査を完了しました無料のコピーを今すぐ手に入れてください」
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.