Learn more about Search Results MarkTechPost - Page 19
- You may be interested
- 「ChatGPTを活用したデータクリーニングと...
- リシ・スナック、新しいグローバルAI安全...
- 「コントロールされたフェード」
- 「歴史的なアルゴリズムが最短経路問題の...
- 「ElaiのCEO&共同創業者、Vitalii Romanc...
- 「データの海を航海する:スタートアップ...
- 「BFS、DFS、ダイクストラ、A*アルゴリズ...
- 「50以上の最新の最先端人工知能(AI)ツ...
- 次の1時間の雨を予測する
- Cox回帰の隠されたダークシークレット:Co...
- 「グラミー賞のCEOによる新しいAIポリシー...
- 私たちの早期警戒システムへのサポート
- 「回転行列の解説」
- 「Quivrに会ってください:第2の脳のよう...
- 「AIにおける説明可能性の勾配の必要性」
マイクロソフトの研究者がConfidential Consortium Framework (CCF)を紹介:セキュアな状態を持つCIAアプリケーションを開発するための汎用AIフレームワーク
「CIA Trinity(CIAトリニティ)」は、よく知られた情報セキュリティフレームワークであり、データの機密性、整合性の保護、高い可用性の3つの属性で構成されています。各属性から始めて、研究チームは信頼性の高い多者参加アプリケーションを信頼できないインフラストラクチャ上で実行することに焦点を当てています。個人データのプライバシーを保護する責任は組織にあります。この責務は法律によってますます規制されるようになり、実施しない場合の影響は、たとえばGDPRの場合には売上高の4%になる可能性があります。企業は知的財産を保護したり、競争力を獲得したり、秘密を守る必要がある場合でも、データを秘密に保つことを望む場合があります。 実行中の秘密はより難しいですが、静止状態と飛行中の暗号化は試された方法です。さらに、秘密は単独では部分的にしか解決されません。むしろ、任意のデータを保護する問題をキーの保護にまで縮小し、そのキーは一連の確立されたガイドラインに従って制御、保管、発行される必要があります。これは整合性の保護です。組織は、自らの管理下のデータを違法または偶発的な変更から保護し、データの機密性を維持するという二重の責任を負います。データにアクセスするコードの整合性の維持は、データの秘密を維持するために頻繁に必要とされます。コードの整合性と透明性を組み合わせることで、データを共有するパーティーは情報の意図した使用方法に合意することができます。 たとえば、銀行は政府のために要求を処理することで反マネーロンダリング法に従うことができますが、顧客の完全な情報は提供しません。クラウドコンピューティングの広範な普及により、アプリケーションに低い参入障壁とコストの比例的な拡張性を提供するため、これらのシステムの信頼できる計算基盤(TCB)は時間の経過とともに拡大しています。信頼できないクラウドインフラストラクチャを使用する場合、リモートでデータの整合性と機密性を確保することはより困難です。そのため、健康、金融、または政府に関連するような非常に敏感なアプリケーションは、パブリッククラウドに移行することができません。 この困難な状況を考慮すると、次の研究課題にはまだ回答が必要です:クラウドプロバイダを多者参加アプリケーションのTCBから排除しつつ、開発者がクラウドの計算とストレージリソースを活用できるようにすることは可能でしょうか?多者参加シナリオの需要が増える中で、互いに完全に信頼しないパーティー間でデータシステムを統合することは特に重要です。多くのソースからのデータを統合し、それを協力して利用して価値を向上させ、新しいユースケースを作成することができます。ただし、機密性と整合性には制約があり、研究チームは複数の異なる参加者のニーズとアクセス権限を考慮する必要があります。 現代のデジタルインフラストラクチャがますます重要になっているため、アプリケーションは信頼性があり、高い可用性が求められます。デジタルインフラストラクチャは、必要な一貫性とコストトレードオフであっても、100%の利用可能性を保証することはできませんので、通常の運用中に予想される障害に対して堅牢である必要があります。研究チームは、非常に実用的でありながら倫理的に優れたアプローチを取る必要があります。これには、信頼できないクラウドインフラストラクチャや多者参加の信頼できないガバナンスなど、様々な状態保持アプリケーションや現代の展開シナリオをサポートするCIAアプリケーションの作成が含まれます。 マイクロソフト、KU Leuven、ケンブリッジ大学の研究チームは、この研究のConfidential Consortium Framework(CCF)を提案しています。CCFは、分散トラストと集中クラウドコンピューティングを統合しています。リモートで証明可能な機密性と整合性により、CCFはクラウドベースの信頼性の高い実行環境を利用しています。さらに、トランザクションキーバリューストアとステートマシンレプリケーションは、高い可用性と監査を実現するために不変の台帳と組み合わせられています。CCFの柔軟性により、開発者は高度に調整可能な監視のために独自の多者参加ガバナンスアーキテクチャを使用し、アプリケーションロジックを適用することができます。 クラウドコンピューティングや多者参加協力において、この研究チームはデータの機密性、整合性の保護、高い可用性などを探求する多くの研究チームの1つです。CCFは、多くの先行システムとは異なり、孤立した安全な実行ソリューション(代わりに二次的なストレージシステムに依存)または孤立したデータストレージソリューション(台帳、データベース、またはキーバリューストアの形式)のいずれかを提供するのではなく、実行とストレージの両方を可能にするエンドツーエンドのソリューションを提供します。CCFは、信頼できる計算基盤、柔軟性のあるプログラミングアプローチ、セキュリティと使いやすさのバランスを備えています。さらに、CCFは、スナップショット、ライブコード更新、再構成、災害復旧、インデックスなどの機能に依存するAzure Managed CCFやAzure Confidential Ledgerなどのサービスを通じて本番環境で信頼されています。これは、汎用で自己完結型の設計の重要性を強調しています。
グーグルとUIUCの研究者は、単独でトレーニングされたスタイルとサブジェクトのLoRAをシームレスに統合するための革新的な人工知能手法であるZipLoRAを提案しています
Google ResearchとUIUCの研究者は、新しい手法である独立にトレーニングされたスタイルと主題のLinearly Recurrent Attentions(LoRAs)を統合することで、テキストから画像への拡散モデルにおける個別の作成物の制御の問題に対処するZipLoRAを提案しています。これにより、任意の事柄を生成するためのより大きな制御力と効果が可能になります。この研究では、概念個別化LoRA重み行列におけるスパース性の重要性を強調し、ZipLoRAのコンテント-スタイル転送や再文脈化などの多様な画像スタイリゼーションタスクにおける効果を示しています。 写真写実性のある画像合成の既存の手法は、Stable Diffusion XL v1などの拡散モデルに頼っています。ZipLoRAのような方法は、潜在的な拡散モデル内で独立に訓練されたスタイルと主題のLoRAsを活用し、個別の作成物の制御を提供します。このアプローチは、シンプルで費用効果の高い主題とスタイルの個別化ソリューションを提供します。ベースラインおよび他のLoRA統合手法と比較して、ZipLoRAの実践では個別のスタイルを持つ多様な主題を生成することが示されました。 ユーザー指定の主題を個別のスタイルで高品質な画像を生成することは、拡散モデルにとって課題となっています。既存の手法は特定のコンセプトやテクニックに対してモデルを微調整することができますが、ユーザーが提供した主題やスタイルを支援する必要があります。この問題に対処するために、ZipLoRAというハイパーパラメータフリーの方法が開発されました。この方法は、効果的に独立してトレーニングされたスタイルと主題のLoRAsを統合し、前例のない制御を提供します。また、公開されているLoRAsの組み合わせを簡素化し、一貫性と堅牢性を提供します。 ZipLoRAは、拡散モデルで独立にトレーニングされたスタイルと主題のLoRAsを統合する方法です。ハイパーパラメータは必要ありませんが、主題とスタイルの個別化を可能にします。この技術は、シンプルな線形結合と最適化ベースの手法を用いた直接結合のアプローチを使用します。ZipLoRAは、コンテント-スタイル転送を含むさまざまなスタイリゼーションタスクで効果がありました。スカラーのウェイトを調整することで制御されたスタイリゼーションを可能にし、モデルが個々のオブジェクトとスタイルを正しく生成する能力を保持します。 ZipLoRAは、スタイルと内容の忠実度で優れており、コンテント-スタイル転送や再文脈化などの画像スタイリゼーションタスクで競合他社やベースラインを上回っています。ユーザースタディを通じて、正確なスタイリゼーションと主題の忠実度においてZipLoRAが優れていることが確認され、ユーザー指定の主題を個別のスタイルで生成するための効果的で魅力的なツールとなっています。ZipLoRAでは、独立にトレーニングされたスタイルとコンテンツLoRAsを統合することで、拡散モデル内の個別の作成物に対する前例のない制御を提供します。 まとめると、ZipLoRAは、主題とスタイルの同時個別化を可能にする非常に効果的で費用効率の高い手法です。ユーザースタディにおけるスタイルと主題の忠実度における優れた性能が確認され、LoRAウェイトのスパース性と整列に関して統合プロセスが分析されました。ZipLoRAは、前例のない制御を提供し、既存の手法を上回ります。
Google DeepMindの研究者がDiLoCoを導入:効果的かつ強靭な大規模言語モデルのトレーニングのための新しい分散型、低通信マシンラーニングアルゴリズム
現実世界のアプリケーションにおける言語モデルのソアリング能力は、標準的なバックプロパゲーションのような従来の方法を使用しての大規模トレーニングに関連する複雑な課題によってしばしば制約されます。Google DeepMindの最新のブレークスルーであるDiLoCo(Distributed Low-Communication)は、言語モデルの最適化において新たな基準を設定します。研究チームの論文「DiLoCo:分散低通信言語モデルのトレーニング」では、革新的な分散最適化アルゴリズムを紹介し、緩く接続されたデバイスのクラスタ上で操作することで、驚異的なパフォーマンス向上と通信の500倍の削減を実現しています。 Federated Learningの原則に触発され、研究者たちは広く認識されたFederated Averaging(FedAvg)アルゴリズムの変種を考案し、FedOptアルゴリズムに似た要素を注入しました。DiLoCoは内部最適化手法としてAdamWを戦略的に取り入れ、外側の最適化手法としてNesterov Momentumを活用し、従来のトレーニングパラダイムに内在する課題に立ち向かう巧妙な融合を実現しています。 DiLoCoの輝きは、3つの基本的な柱にあります: 1. 限られた共有位置の要件:各ワーカーは共有位置のデバイスを必要としますが、必要な総数は著しく小さく、物流の複雑さが軽減されます。 2. 通信頻度の削減:ワーカーはすべてのステップで通信する必要はなく、𝐻ステップごとに同期するだけで、通信オーバーヘッドを数百または数千に大幅に削減します。 3. デバイスの異質性:クラスタ内のデバイスは同一である必要がありますが、DiLoCoは異なるクラスタが異なるデバイスタイプを使用して運用できる柔軟性を提供します。 DiLoCoのトレーニングプロセスは、事前トレーニングされたモデル𝜃(0)を複数回複製することで行われます。各ワーカーは独自のデータシャードでモデルのレプリカを独立してトレーニングし、𝐻ステップ後に外部グラデーションを平均化し、外部最適化手法がグローバルパラメータコピー𝜃(1)を更新し、それがワーカーに配布されます。このサイクルは𝑇回繰り返され、各レプリカのトレーニングは異なるグローバル位置で異なるアクセラレータを使用して行われます。 C4データセットを用いた実験では、8つのワーカーを使用したDiLoCoは、通信を驚異的な500倍削減し、完全同期最適化と同等のパフォーマンスを達成します。さらに、DiLoCoはワーカー間のデータ分布の変動に対して非常に強い耐性を示し、トレーニング中にリソースの可用性の変化にシームレスに適応します。 要するに、DiLoCoは複数の接続が弱いマシン上でトランスフォーマー言語モデルのトレーニングを分散するための堅牢で革新的な解決策として浮上しています。この画期的なアプローチは、インフラの課題だけでなく、卓越したパフォーマンスと適応性を示し、言語モデルの最適化において大きな飛躍をもたらします。 この投稿は、Google DeepMind Researchers Introduce DiLoCo: A Novel…
『このAI研究は、IFPおよびリポソーム蓄積を予測するための物理ベースの深層学習を発表します』
がん治療の精緻化を追求する中、研究者たちは、腫瘍のダイナミクスを飛躍的に向上させる画期的な解決策を導入しました。この研究は、筋内腫瘍内液圧(IFP)とリポソーム蓄積を正確に予測する、先駆的な物理学に基づく深層学習モデルに焦点を当てています。この革新的な手法は、がん治療戦略の最適化や腫瘍内での治療薬の分布に対する正確な洞察を提供するという約束を持っています。 多くのナノセラピューティクスの基盤となるのは、高い浸透性および保持(EPR)効果です。これは、腫瘍の特性である血管透過性と血管間圧力勾配を利用しています。しかし、EPR効果が治療結果に与える影響は一貫性がないことが示されています。この一貫性の欠如は、固形腫瘍内での薬物送達に影響を与える要素のより深い探求を促しました。これらの要因の中で、間質液圧(IFP)が重要な決定要因として浮上し、リポソーム薬物の中心領域への送達を厳しく制約しています。さらに、高いIFPは独立した予後マーカーとして機能し、特定の固形がんにおける放射線療法や化学療法の効果に大きな影響を与えます。 これらの課題に直面し、研究者たちは、前処理および投与後の画像データを使用して、ボクセルごとの筋内腫瘍内リポソーム蓄積とIFPを予測する高度なモデルを提案しています。彼らのアプローチのユニークさは、機械学習と偏微分方程式を組み合わせた最先端の物理学に基づく機械学習の統合にあります。研究者たちは、合成生成された腫瘍から得られたデータセットにこの革新的な技術を適用することで、モデルの高い予測精度と最小限の入力データでする予測を実証しています。 既存の方法論は、腫瘍内でのリポソームの分布とIFPを一貫かつ正確に予測する必要があります。この研究の貢献は、物理学に基づいた原則と機械学習を統合する前例のないアプローチを導入することで、自らを区別しています。この革新的なモデルは、正確な予測だけでなく、がん治療の設計に即効性のある示唆を提供します。腫瘍内でのリポソームおよびIFPの空間的分布を予測できる能力は、腫瘍のダイナミクスに関するより深い理解のための新たな道を開き、より効果的かつ個別化された治療介入への道を築きます。 提案された手法の詳細に踏み込んで、ウォータールー大学とワシントン大学の研究チームは、物理学に基づいた深層学習を使用してボクセルレベルでの予測を達成する方法を説明しています。このモデルが合成腫瘍データに依存していることは、その堅牢性と効率を示し、がん治療における高いIFPがもたらす課題への潜在的な解決策を提供しています。研究者たちは、最小限の入力データでの拡張性と適用可能性を披露することで、そのポテンシャルを強調しており、腫瘍の進行予測や治療計画の支援におけるその可能性を強調しています。 まとめると、この画期的な研究は、リポソームベースのがん治療に関連する複雑さに取り組むための変革的なアプローチを示しています。物理学に基づく機械学習を統合した彼らのモデルは、筋内腫瘍内リポソーム蓄積と間質液圧の正確なボクセルレベルの予測を提供します。この革新は、腫瘍のダイナミクスの理解を進め、治療設計に即効性のある示唆を持つことで、より効果的かつ個別化された介入の可能性を強調しています。予測可能性の向上と治療の成功に向けた重要な進歩を示すこの研究の重要性は、見逃すことはできません。
KAISTの研究者たちは、地面セグメンテーションを利用した堅牢なグローバル登録フレームワークであるQuatro++を導入しましたこれは、LiDAR SLAMにおけるループクロージングに利用されます
LIADR SLAMにおけるスパースネスと退化問題に取り組むため、KAISTの研究者が開発した堅牢なグローバル登録フレームワークであるQuatro++が紹介されました。この手法は従来の成功率を上回り、地面セグメンテーションを通じてループクロージングの精度と効率を向上させました。Quatro++は学習ベースのアプローチよりも優れたループクロージング性能を示し、学習ベースの手法よりも高品質なループ制約とより正確なマッピング結果を提供します。 この研究では、グラフベースのSLAMにおけるグローバル登録がループクロージングに与える影響を調査しました。Quatro++は学習ベースの手法と比較して、特にループクロージングの改善、ループ制約の向上、より正確なマップ作成に効果的です。それは異なる視点で一貫した結果を提供し、他の手法で見られる軌道の歪みを減少させます。 Quatro++はロボティクスとコンピュータビジョンにおける基本的な3Dポイントクラウドの登録の重要な課題を解決する手法です。多くのLIADRベースのSLAM手法ではオドメトリやループ検出が優先される一方、ループクロージングにおけるループ制約の重要性は十分に研究されていません。LIADR SLAMにおけるグローバル登録手法が直面するスパースネスと退化課題を克服するために、Quatro++は地面セグメンテーションを組み込んだ堅牢なグローバル登録フレームワークを導入しています。 Quatro++はLIADR SLAMのための非常に効果的なグローバル登録フレームワークであり、スパースネスと退化の問題に取り組んでいます。特に地上車両において地面セグメンテーションを利用した堅牢な登録が可能です。Quatro++を特徴づける1つの重要な特徴は、地面セグメンテーションを用いた準-SO推定の利用です。KITTIデータセット上の実験結果は、Quatro++がループクロージングにおける並進および回転の正確性を大幅に向上させることを示しており、また、ロール角やピッチ角の補償によりINSシステムでも適用可能であることが示されています。 Quatro++は、スパースネスと退化の問題に取り組んでLIADR SLAMで優れた成功率を達成しました。フレームワークの地面セグメンテーションにより、グローバル登録における地上車両の成功率が著しく向上し、より正確なマッピングと改善されたループ制約の品質をもたらしました。Quatro++は、異なるデータセットやLIADRセンサーの構成で、ループクロージングにおいてRANSAC、FGR、TEASERを上回る性能を発揮しています。並進および回転の正確性の向上が可能なINSシステムにおける実用性は、その柔軟性と様々なシナリオでの適用可能性を示しています。 まとめると、Quatro++はスパースネスと退化の課題に取り組み、LIADR SLAMのグローバル登録において既存の手法を上回る成功率を達成しました。地面セグメンテーション手法は、登録とループクロージングの堅牢性を大幅に向上させ、より精度の高いマッピングを実現しました。フロントエンドの対応ベースの登録には制限がありますが、地面セグメンテーションにより遠距離の場合に特に高い成功率を示し、計算コストを削減しました。
「DRESS」とは、自然言語フィードバックを通じて人々と調和し、対話する大規模なビジョン言語モデル(LVLM)です
ビッグビジョン言語モデル、またはLVLMは、ビジュアルな手がかりを解釈し、ユーザーが簡単に対話するための簡単な返答を提供することができます。これは、大規模な言語モデル(LLM)を大規模なビジュアル指示の微調整と巧みに融合させることによって実現されています。しかし、LVLMは教師付き微調整(SFT)によって手作りまたはLLM生成のデータセットのみが必要です。これにより、キャプションジェネレータから指示に従うモデルに変更できるようになりますが、LVLMは依然として傷つける、悪意を持った、または役に立たない返答を生成することがあります。これは、LVLMが人間の好みとより一致する必要があることを示しています。さらに、以前の研究では、ビジュアル指示調整サンプルをマルチターン形式で組織することが推奨されていますが、異なるターン間の弱い関連性と相互依存性により、LVLMの相互作用能力が制限されています。ここで、相互作用能力は、LVLMがマルチターンインタラクションにおいて前の文脈を使用して返答を調整できるかどうかを評価します。これらの2つの欠点は、LVLMが視覚のヘルパーとしての実用性を制限します。 国際SRI研究所とイリノイ大学アーバナ・シャンペーン校の研究チームが、本研究でLLMによって生成される自然言語フィードバック(NLF)を使用してユニークに教授されるLVLM「DRESS」を提案しています(図1を参照)。研究チームは、LLMに対し、具体的なルールと詳細な写真注釈を提供することで、LVLMの返答について詳細なフィードバックを提供するよう指示します。人間と一致するLLMの作成プロセスに則って、このフィードバック注釈では3つのH基準(有用性、正直さ、無害性)を考慮しています。フィードバックは、3つのH基準に沿った返答の総合的な品質を評価し、数値スコアとNLFを提供します。研究チームの手法では、NLFを批評と改善に分けています。改善NLFは、返答がゴールド基準リファレンスに合うように改善するための正確な推奨事項をLVLMに提供しますが、批評NLFは、返答の強みと欠点を評価します。この分類は、LVLMをより人間に受け入れられるものにし、相互作用能力を高めるための2種類のNLFの自然な適用を提供します。 図1: 研究者はDRESSに自然言語入力を使用するよう指示し、これを批評と改善の2つのカテゴリに分けて、人間の好みと相互作用能力の両方を高めます。 研究チームは、NLFの微分不可能な性質に合わせて条件付き強化学習技術を一般化し、そのようなフィードバックでLVLMをトレーニングします。具体的には、研究チームは返答に対する言語モデリング(LM)損失を使用して、DRESSをトレーニングし、2つのNLFに基づいて条件付けられた同等の返答を生成するようにします。研究チームは、数値結果の分析と解釈を通じてDRESSを改善し、ユーザーの好みとより一致するようにします。推論中のマルチターンインタラクションを通じて、研究チームは改善NLFを利用したオリジナルの返答の調整メタスキルを学習するようにDRESSをトレーニングします。 研究チームは、マルチターンインタラクションでのDRESSの評価、無害性評価のための敵対的なプロンプティング、正直性評価のための画像キャプショニング、助けになるかどうかの評価のためのオープンエンドの視覚的な質問への応答を行います。実験の結果、以前のLVLMと比較して、DRESSは人間の価値と一致する返答を提供でき、フィードバックから学習し、必要に応じて返答を修正するための優れた相互作用能力を持っています。研究チームの知る限り、この取り組みはLVLMの相互作用能力と3つの3H基準を取り扱う最初の試みです。 研究チームの貢献は以下の通りです: • 研究チームは、自然言語フィードバック(NLF)を使用してLVLMの相互作用能力と人間の好みに一致する能力を高めるために、批評と改善NLFに分けることを提案します。 • モデルをトレーニングして、非微分性NLFに依存したマッチング応答を提供するようにすることによって、研究チームは条件付き強化学習手法を一般化し、成功裏に非微分性NLFに対応します。従来のSOTAに比べて、研究チームの提案モデルであるDRESSは、利用価値、誠実さ、無害性の一貫性を系統的に評価した結果、9.76%、11.52%、および21.03%の相対的な改善を示しています。 • 研究グループは、63Kの注釈付き言語NLFの例を公開し、3Hの特徴を含めて一般の利用に提供しています。さらに、研究チームは無害性の一貫性とLVLM評価のための4.7Kのサンプルを含む、公開可能なデータセットを作成しました。
日本からの新しいAI研究は、人間の表情の機械的特性を調査し、アンドロイドが感情をより効果的に認識する方法を理解することを目指しています
人工知能が人間の感情を再現するにつれて、本物の人間の表情の機械的な複雑さを徹底的に調査することが浮かび上がりました。このことは、科学 fiction を現実に結び付けることを推進しています。大阪大学の研究者たちは、人工的な感情表現と本物の感情表現のギャップを埋めるために、人間の顔面動作の多面的なダイナミクスを緻密にマッピングする画期的な研究に取り組んでいます。 この研究は、機械工学ジャーナルに詳細に記載されており、複数の機関の共同研究によって、44種類の異なる顔面動作の複雑さが明らかにされています。チームは、125個のトラッキングマーカーを使用して、これらの表情の微細なディテールを分析しました。これには、微妙な筋肉の収縮から皮膚の下のさまざまな組織の相互作用まで、微妙なニュアンスが含まれています。 表情は、筋繊維、脂肪組織、緻密な動きの重なり合いからなる局所的な変形のシンフォニーであり、さまざまな感情を伝えます。単純な笑顔のように思われるものでも、微細な動きの連鎖が絡み合っており、これらの微妙なニュアンスを人工的に再現することの難しさを強調しています。研究チームは、人間の顔は非常に馴染み深いため、その複雑さは一般的に見逃されていると指摘しています。しかし、エンジニアリングの視点から見ると、人間の顔は情報表示装置として驚くべき存在であり、さまざまな感情や意図を示しています。 この研究のデータは、デジタル形式またはアンドロイドの物理的な形において、人工的な顔に取り組む研究者にとっての指針となります。顔の緊張や圧縮に対する正確な理解は、よりリアルで正確な人工的な表現を約束します。研究者たちは、皮膚の伸縮を通じて解き明かされた皮膚の下の複雑な顔の構造が、どのように見える表情を引き起こしているかを明らかにしています。 ロボティクスの領域を超えて、この探索は有望な示唆を持っています。改善された顔認識や医療診断の成果は、大きな利益をもたらす可能性があります。現在の医療診断は、顔の動きの異常を検出するために、医師の直感的な観察に頼っていることが多いのですが、この研究はそのギャップを埋めることを目指しています。 一人の個人の顔の分析に基づいているため、この研究は多様な顔の複雑な動きを理解する基礎的なステップです。人工的に感情を解読し伝えようとするロボットが、顔の動きをさまざまな領域で洗練させる可能性を秘めており、エンターテイメントで使用されるコンピュータグラフィックスを含みます。この進展によって、「不気味の谷」効果(人間に近づいているがまだ完全に人間らしくないために不快感を引き起こす現象)が軽減される見込みです。
「人間と機械の相互作用の秘密を解き放つ:スペインのAI研究がアダプティブインターフェースデザインの進展に向けた包括的なデータセットを紹介」
“`html 人間と機械の間でやり取りを可能にするシステムや技術を人間機械インターフェース(HMI)と呼びます。これらは、コンピュータ、スマートフォン、産業機械、ロボット、スマート家電など、デバイスやシステムと情報をやり取りし、制御することができます。技術の進展により、HMIの可能性と機能はさらに拡大し、さまざまなドメインやアプリケーションで、ユーザーの対話をより直感的で効率的、シームレスにすることを目指しています。 これらのデータセットを活用することで、研究者や開発者はアルゴリズムを洗練し、より直感的なインターフェースを設計し、さまざまなユーザーのニーズや文脈に動的に適応するパーソナライズされたユーザー体験を作り出すことができます。ARやVRの技術は、ユーザーがデジタル要素と対話できる没入型の環境を作り出します。ゲーム、教育、トレーニング、シミュレーションなどの分野で活用されています。 ユーザーインターフェース(UI)は、ユーザーの行動、好み、ニーズにシームレスに対応し、研究開発の焦点となっています。個々のユーザーに適応し進化するこれらのインターフェースは、人間と機械のやり取りに由来する構造化されたデータセットに大きく依存しています。このようなデータセットは、モデルのトレーニング、アルゴリズムの洗練、ユーザー入力と文脈に動的に適応するUIの設計の基盤となります。 スペインの新しいAI研究では、研究チームが制御された構造化された方法で収集された人間と機械のやり取りのデータセットを作成しました。データセットは、形式的に定義されたユーザーインターフェース(UI)を活用したカスタムアプリケーションを使用して生成されました。彼らは生成されたやり取りを処理し、分析して、ユーザーインターフェース適応に興味のあるプロフェッショナルやデータアナリスト向けの適切なデータセットを作成しました。データ処理のステージでは、データのクリーニング、一貫性と完全性の確保が行われました。また、インタラクションのシーケンス内の要素の表面をチェックするためのデータプロファイリング分析も行われました。 シーケンスの分布は、さまざまなサービス、ユーザー、期間で分析されました。 データセットの分析により、ユーザーの行動と使用パターンに関する貴重な知見が得られました。さまざまなサービス、ユーザー、期間でのシーケンスの分布を分析することで、データサイエンティストチームはこれらの要素を考慮に入れてデータセットを使用しました。データ収集、プロファイリング、および使用ノートに使用したコードは、アダプティブなユーザーインターフェースを作成するために利用可能であり、無料でアクセスできるようになっています。 アダプティブなUIの追求には、いくつかの課題と将来の研究の展望が浮かび上がります。まず第一に、ユーザーデータの倫理的な収集と使用を確保することが重要です。第二に、相互作用の種類、文脈、ユーザーの好みを包括するより包括的なデータセットの開発は、この分野に大きな助けとなるでしょう。より堅牢で多様かつ包括的なデータセットへの求めは継続的に行われており、個々のユーザーの好みと文脈にシームレスに合わせることができるアダプティブなインターフェースで技術との対話が革新される未来を約束しています。 この記事はUnlocking the Secrets of Human-Machine Interaction: This AI Research from Spain Introduces a Comprehensive Dataset for…
研究者は、解釈可能で効率的な量子風機械学習のためのテンソルネットワークを研究しています
<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Screenshot-2023-11-30-at-11.23.30-PM.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Screenshot-2023-11-30-at-11.23.30-PM-150×150.png”/><p>コンピュータビジョン、NLP、およびその他のドメインでは、深層機械学習(ML)アプローチが深層ニューラルネットワーク(NN)に基づいて顕著な成功を収めています。しかし、解釈性vs効率の長年の問題はいくつかの厄介な障害を提起しています。深層MLアプローチの疑問、理解、および信頼性は、解釈性に依存し、多くの場合、結論の根源をつかむことができるかどうかの程度として説明されます。</p><p>ベイジアンネットワーク、ボルツマンマシン、およびその他の確率的MLモデルは、「白箱」と見なされます。なぜなら、それらは本質的に解釈可能であるからです。これらのモデルが解釈する方法の1つは、隠れた因果関係を明らかにするために確率的な推論を使用することです。これは統計的に人間の心が働く方法と一致します。遺憾ながら、最新の深層NNはこれらの確率的モデルをかなり上回っています。現在のMLモデルは、高い効率と解釈性を同時に達成することはできないようです。</p><p>量子および従来のコンピューティングの指数関数的な成長のおかげで、効率性vs解釈性のジレンマを解決する新しいツールが登場しました:テンソルネットワーク(TN)。複数のテンソルの総和はTNと呼ばれます。テンソルの緊縮方法は、ネットワーク構造で定義されます。</p><p>中国首都师范大学と中国科学院大学の新たな論文は、効率的かつ解釈可能な量子に触発されたML向けのTNにおけるエンカレッジングな展開を調査しました。”TN ML butterfly”は、MLのTNによる利点を列挙しています。量子理論の解釈可能性と量子手続きの効率性の2つの主要な領域で、量子に触発されたTNを使用したMLの利点は要約されます。量子理論(量子もつれ理論や統計)とTNを使用することで、クラシカル情報や統計的アプローチの説明を超えた解釈可能性の確率的なフレームワークを構築することができます。</p><p>逆に、量子に触発されたTN MLアプローチは、堅牢な量子力学的TNアルゴリズムと大幅に改良された量子コンピューティング技術のおかげで、クラシカルおよび量子コンピューティングプラットフォームの両方で効率的に動作することができます。特に、最近は生成予め学習されたトランスフォーマが注目されており、前例のない計算能力とモデルの複雑さの急増をもたらしています。これはTN MLにとってポテンシャルと課題を提供します。新たな人工知能(AI)である生成予め学習されたトランスフォーマに直面した場合、結果を解釈する能力は以前以上に重要になり、より効果的な調査、より安全な制御、およびより良い利用が可能になります。</p><p>研究者たちは、真の量子コンピューティング時代と現在のNISQ時代に入ると共に、TNが、理論、モデル、アルゴリズム、ソフトウェア、ハードウェア、およびアプリケーションを含む様々な観点から量子AIを研究するための主要な数学的ツールに急速になりつつあると考えています。</p><p>記事は最初に<a href=”https://www.voagi.com/ai-paper-introduces-codebook-features-for-neural-networks.html”>「解釈可能で効率的な量子に触発された機械学習のためのテンソルネットワークを研究する」</a>という記事で発表されました。</p><p>参考元:<a href=”/?s=MarkTechPost”>MarkTechPost</a>。</p>
「イノベーションと持続可能性のバランス:病理学における環境責任に対する現実的なアプローチ」
この研究は、病理学における重大な懸念である深層学習の炭素排出量(CO2eq)に焦点を当てています。この環境への影響は、医療応用における深層学習の広範な普及において潜在的な障害となります。そのため、持続可能な取り組みの迫切な必要性が生じています。世界は医療の技術革新にますます依存する中で、環境への影響を理解し、軽減することが重要です。 現在の深層学習モデルアーキテクチャの軌跡は、複雑さの増大という傾向を示しています。異なる機関からの研究者チームは、この発展とその環境への潜在的な影響を詳細に調査しています。しかし、彼らはモデル選択における戦略的な転換を提案することで、説得力のある解決策を提示しています。研究者たちは、最新かつ最大のモデルに重点を置くのではなく、計算量の少ないモデルを優先することを提案しています。この戦略的アプローチにより、エネルギー消費を削減し、モデルの最適なパフォーマンスを維持しながら、計算効率を向上させるために、不要なパラメータを外科的に除去するモデル削減の概念が導入されます。 提案された解決策は、技術革新と環境責任をバランスさせるためのいくつかの重要な戦略から成り立っています。重要な側面のひとつは、特に病理学において大型の全スライド画像(WSIs)が一般的である場合、入力データの削減です。研究者たちは、専用の組織検出深層学習モデルによる組織のない領域の自動的な除外を推奨しています。さらに、研究は、組織内で最小限に必要な領域(ROI)の選択の重要性を強調しており、プロセスをさらに効率化し、排出物を大幅に削減しています。 計算量の少ないモデルを選択することの重要性は、深層学習の環境への影響に深い影響を与えます。研究者たちは、新しいかつ大きなモデルが常に以前のモデルに比べて優れているという仮定が特定のタスクにおいては成り立たない可能性があると主張しています。以前の調査結果によれば、より単純な深層学習モデルは、さまざまな病理学のタスクにおいて、より高度なモデルと比較して同等またはより優れたパフォーマンスを発揮することができると示唆されています。特に、トレーニング可能なパラメータが少ない相対的にシンプルな深層学習モデルは、より深いモデルよりも優れたCO2eq排出量を大幅に削減しながら、性能を維持します。 さらに、研究はモデル剪定という概念を導入し、持続可能性を向上させる別の手段としています。モデル剪定とは、非必須のパラメータを戦略的に除去することを指し、研究チームの調査結果によれば、最大40%の剪定を施した分類モデルは、剪定を施さない対照群と比較して、同じ精度を保ちながらCO2eq排出量を20〜30%削減することができました。この発見は、環境に持続可能な深層学習を確保するための戦略的なモデル開発の重要性を示しています。 結論として、この研究は、技術の進歩と病理学における環境責任との重要な交差点を浮かび上がらせています。提案された手法は、効率を損なうことなく、深層学習の生態学的影響に取り組むための実用的で環境に配慮したアプローチを提供しています。医療コミュニティが技術革新を進めるにあたり、この研究は、研究者や産業が持続可能性を優先し、イノベーションを追求するためのパラダイムシフトを呼びかける旗印となります。これらの実践を採用することで、医療技術の限界を押し広げながら環境への影響を軽減する微妙なバランスが実現され、より持続可能な医療革新の未来が保証されます。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.