Learn more about Search Results Yi - Page 52

「それはすでに人間ができることを遥かに超えている」:AIは建築家を一掃するのか?

「それは建物の革命を起こしていますが、AIは一つの職業を絶滅させる可能性がありますか?」

パンダのコピー・オン・ライトモードの詳細な調査:パートI

「pandas 2.0 は4月初旬にリリースされ、新しいCopy-on-Write (CoW) モードに多くの改善がもたらされましたこの機能は、予定されている pandas 3.0 でデフォルトになることが期待されています」

PageRankによる大規模グラフの分析

ランキングは機械学習において重要な問題です与えられたドキュメントの集合に対して、特定の基準に基づいてそれらを特定の順序で並べることが目標ですランキングは情報検索で広く使用されています…

AIの力:機械学習アプリケーションの効率的な展開とスケーラビリティのためのDockerの活用

Dockerの力を活用する:機械学習モデルの展開ソリューションを合理化し、スケーラビリティを確保し、CI/CDプロセスを簡素化する

「人工知能と人間の知能の相互作用の探求」

この投稿は、人工知能と人間の知能が共存することで人類が得ることができるものを強調しています

実験から展開へ MLflow 101 | パート01

こんな感じで想像してみてください:新しいビジネスアイデアが浮かび、必要なデータがすぐに手元にあるとしますあなたは素晴らしい機械学習モデルを作り出すことにワクワクしています🤖しかし、実際には...

「3D MRIとCTスキャンに使用するディープラーニングモデルは何ですか?」

このような深い洞察を得るために、週のトップML論文、求人情報、実世界の経験に基づくMLのヒント、研究者や開発者からのMLのストーリーなどを含めて、私の参加してください...

「UCLA研究者がGedankenNetを紹介:物理法則や思考実験から学ぶ自己教示AIモデルが計算機画像処理を進化させる」

深層学習の最近の進展は、計算画像処理、顕微鏡、ホログラフィ関連の分野に大きな影響を与えています。これらの技術は、バイオメディカルイメージング、センシング、診断、3Dディスプレイなど、多様な領域での応用があります。画像の変換、強化、超解像、ノイズ除去、仮想染色などのタスクにおいて、深層学習モデルは優れた柔軟性と効果を示しています。これらは、明視野顕微鏡や蛍光顕微鏡などのさまざまなイメージングモダリティに成功裏に適用されており、深層学習の統合が、微小スケールで複雑な世界を可視化するための理解力と能力を再構築しています。 計算画像処理では、従来の技術は主に教師あり学習モデルを使用し、注釈付きの大規模なデータセットや実験的な画像が必要とされます。これらのモデルは、古典的なアルゴリズムによるトレーニング画像の取得や異なるイメージングモダリティ間の画像ペアの登録など、さまざまな方法で取得されたラベル付きのトレーニングデータに頼っています。しかし、これらのアプローチには、トレーニング画像の獲得、整列、前処理の手間や推論バイアスの導入などの制約があります。非教師あり学習や自己教師あり学習によってこれらの課題を解決しようとする試みがあるものの、実験的な測定値やサンプルラベルへの依存性は依然として存在します。一部の試みでは、トレーニングにラベル付きのシミュレーションデータを使用していますが、実験的なサンプル分布を正確に表現することは複雑であり、サンプルの特徴やイメージングセットアップに関する事前知識が必要です。 これらの固有の問題に対処するために、UCLA Samueli School of Engineeringの研究者らは、GedankenNetという革新的なアプローチを提案しました。このアプローチは、逆に革命的な自己教師あり学習フレームワークを提供します。このアプローチは、ラベル付きや実験的なトレーニングデータや現実世界のサンプルとの類似点を排除します。物理学的な一貫性と人工的なランダムイメージに基づいてトレーニングすることにより、GedankenNetは既存の手法が抱える課題を克服します。これにより、GedankenNetはホログラム再構成における新たなパラダイムを確立し、さまざまな顕微鏡、ホログラフィ、計算画像処理のタスクで一般的に使用される教師あり学習アプローチの制約に対する有望な解決策を提供します。 GedankenNetのアーキテクチャは、空間フーリエ変換(SPAF)ブロックの連結によって構成されており、効果的に空間および周波数領域の情報を捉えます。物理学的一貫性の損失関数を組み込むことで、モデルはホログラム再構成時に波動方程式に従うことを強制し、物理的に正確な複素場出力を得ます。このユニークなトレーニング戦略により、GedankenNetは合成および実験的なホログラムに対して非常に優れた汎化性能を発揮し、未知のサンプル、軸方向の焦点合わせ、照明波長の変動に直面しても正確な再構成を行うことができます。 a) 伝統的な反復型ホログラム再構成技術、自己教師あり深層ニューラルネットワークGedankenNet、既存の教師あり深層ニューラルネットワークを示すイラスト。 | b) ホログラム再構成のためのGedankenNetの自己教師ありトレーニングプロセス。 性能評価により、GedankenNetのホログラム再構成能力の優れた性能が示されました。構造的類似性指数(SSIM)、平均二乗誤差(RMSE)、誤り訂正係数(ECC)などの定量的な指標によると、GedankenNetはさまざまなホログラムのセットにおいて従来の教師あり技術を一貫して上回っています。特に、GedankenNetの物理学的一貫性の損失は非物理的なアーティファクトを効果的に軽減し、より鮮明で正確な再構成を実現します。モデルの波動方程式との互換性は、適切な波動伝播を通じて焦点のずれたホログラムから高品質なオブジェクト場を回復することを可能にし、GedankenNetの外部一般化能力の優れた性能を裏付けます。 全体として、UCLAの研究チームによるGedankenNetは、計算画像処理と顕微鏡の分野における先駆的な進歩を表しています。自己教師あり学習と物理学に基づいた思考実験の力を取り入れることで、GedankenNetはニューラルネットワークモデルのトレーニングに新しいアプローチを提供します。この革新的な方法は、現在の教師あり学習技術の制約を克服するだけでなく、さまざまな計算画像処理タスクに対してより柔軟で物理学に適合しやすく、容易にトレーニング可能な深層学習モデルへの道筋を提供します。このブレイクスルーにより、顕微鏡の進歩が大幅に加速され、より広範な応用と微小世界への深い洞察が可能となります。

Google AI Researchは、正確な時空間の位置情報と密に関連付けられた意味的に正しい豊富なビデオの説明を取得する注釈手法であるVidLNsを提案しています

ビジョンと言語の研究は、最近、特に静止画とそれに対応するキャプションの関連を確立するデータセットにおいて、著しい進展を遂げている動的に進化する分野です。これらのデータセットでは、キャプション内の特定の単語を画像内の特定の領域に関連付けるため、さまざまな方法が使用されています。最新のローカライズド・ナラティブ(ImLN)によって提案される興味深いアプローチは、魅力的な解決策を提供します。アノテーターは画像を口頭で説明しながら、同時にマウスカーソルを話題の領域の上に移動させます。この音声とカーソルの移動の二重プロセスは、自然なコミュニケーションを模倣し、各単語に対して包括的な視覚的基盤を提供します。ただし、静止画は時間の一瞬しか捉えていません。動画への注釈付けの可能性は、複数のエンティティやオブジェクトが動的に相互作用するイベントを示す完全なナラティブを描くため、さらに魅力的です。 この時間のかかる複雑なタスクに対処するために、ImLNを動画に拡張するための強化された注釈付けアプローチが提案されています。 提案された技術のパイプラインは以下に示されています。 この新しいプロトコルにより、アノテーターは制御された環境でビデオのナラティブを作成することができます。アノテーターはまずビデオを注意深く観察し、主要なキャラクター(「男性」や「ダチョウ」など)を特定し、各キャラクターの重要な瞬間を表す鍵フレームを選択します。 その後、各キャラクターごとにナラティブが構築されます。アノテーターは口頭でキャラクターの関与するさまざまなイベントを述べながら、キーフレームの上にカーソルを移動させて関連するオブジェクトとアクションを強調します。これらの口頭の説明には、キャラクターの名前、属性、特にアクションが含まれます。これには、他のキャラクターとの相互作用(例:”ダチョウと遊ぶ”)や無生物のオブジェクトとの相互作用(例:”食べ物のカップを掴む”)も含まれます。包括的なコンテキストを提供するために、アノテーターは別のフェーズで背景の簡潔な説明も行います。 キーフレームを効果的に利用することで、時間制約がなくなり、各キャラクターに対して異なるナラティブを作成することが可能になり、複雑な状況を解明することができます。この解明は、複数のキャラクターが相互におよび多数の受動的なオブジェクトと相互作用する多面的なイベントの包括的な描写を容易にします。ImLNと同様に、このプロトコルは各単語を局所化するためにマウスの軌跡セグメントを活用しています。また、この研究では、前の研究の成果を超える正確な局所化を確保するために、いくつかの追加措置も実装されています。 研究者は、Video Localized Narratives (VidLNs) を使用して異なるデータセット上で注釈付けを行いました。考慮されたビデオは、さまざまなキャラクターや無生物のオブジェクトとの相互作用を特徴とする複雑なシナリオを描いており、詳細な注釈によって説明される魅力的なナラティブが生まれています。以下に例を示します。 VidLNsデータセットの深さは、Video Narrative Grounding (VNG) やVideo Question Answering (VideoQA) などのさまざまなタスクにとって堅牢な基盤を形成しています。新たに導入されたVNGの課題は、入力ナラティブから名詞を局所化し、ビデオフレーム上にセグメンテーションマスクを生成することができるテクニックの開発を必要とします。このタスクは、テキストが頻繁に多重の同一名詞を含むため、周囲の単語からの文脈的手がかりを活用した曖昧さの解消が必要であり、重要な課題です。これらの新しいベンチマークは、完全に解決されるには遠い複雑な課題ですが、提案されたアプローチは正しい方向に向けた意味のある進歩を示しています(詳細は公開された論文を参照してください)。 これは、ビジョンと言語をつなぐ新しい形式のマルチモーダルなビデオ注釈であるVideo Localized Narrativesの概要でした。興味があり、詳細を知りたい場合は、以下に引用されているリンクを参照してください。

「LK-99超伝導体:突破かもしれない、新たな希望かもしれない」

「専門家たちは、室温超伝導体に関する非凡な主張に反対していますしかし、失敗しても新たな材料研究の道が開ける可能性があります」

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us