Learn more about Search Results A - Page 79

If you have any further questions or need assistance with anything else, feel free to ask!

多目的データキット(VDK)は、データ管理の複雑さを簡素化するために設計されたオープンソースのデータインジェスチョンおよび処理フレームワークですVDKは、さまざまなデータ統合タスクを処理できますが、以下に示すような...

このAI論文は、実世界の網膜OCTスキャンを使用して、年齢に関連した黄斑変性の段階を分類するためのディープラーニングモデルを紹介しています

新しい研究論文では、網膜光干渉断層法(OCT)スキャンを使用した老年性黄斑変性(AMD)の段階に基づいたディープラーニングを用いた分類器を紹介しています。二段階の畳み込みニューラルネットワークを利用して、モデルはTopcon OCT画像からマクラ中心の3Dボリュームを正常、早期/中間期のAMD(iAMD)、萎縮性(GA)、新生血管性(nAMD)の段階に分類します。第1段階では2D ResNet50を使用してB-スキャンの分類を行い、第2段階ではより小さなモデル(ResNet)を使用してボリュームの分類を行います。 このモデルは、大規模なデータセットでトレーニングされ、マクラ中心の3Dボリュームを正常、iAMD、GA、nAMDの段階に強力に分類します。この研究では、タイムリーな治療開始のための正確なAMD分類の重要性を強調しています。パフォーマンス指標には、ROC-AUC、バランス精度、正確度、F1スコア、感度、特異度、マシューズ相関係数が含まれます。 この研究では、網膜OCTスキャンを使用した自動AMD検出および分期システムの開発について詳細に説明しています。OCTは非侵襲的な画像技術であり、従来の方法と比較してAMD分類について詳細な洞察を提供する上で重要です。この研究では、正確なAMD分類の重要性が効果的な治療と視機能の保存において強調されています。また、堅牢な分析のための高品質のデータセットの重要性も強調されています。 この研究では、ImageNetで事前トレーニングされたResNet50および4つの別々のResNetを使用した二段階のディープラーニングモデルを実装し、OCTスキャン上のAMDバイオマーカーの2値分類を行いました。第1ステージではボリューム内の疾患カテゴリを特定し、第2ステージではボリュームレベルの分類を行いました。これらのモデルは実世界のOCTデータセットでトレーニングされ、ROC-AUC、バランス精度、正確度、F1スコア、感度、特異度、マシューズ相関係数などの有望なパフォーマンス指標を示しました。研究では、異なるデバイスからのさまざまなOCTデータセットの使用に関する課題と、ポテンシャルの一般化問題についても言及しています。 ディープラーニングベースのAMD検出および分期システムは、実世界のテストセットで平均ROC-AUC 0.94の有望なパフォーマンスを示しました。推論時にモンテカルロドロップアウトを組み込むことで、分類の不確実性の推定の信頼性が向上しました。この研究では、2079の眼からの3995のOCTボリュームからなる厳選されたデータセットを使用して、AUC、BACC、ACC、F1スコア、感度、特異度、MCCなどのさまざまな指標でパフォーマンスを評価しました。その結果、このモデルは正確なAMD分類と分期においてベースラインの手法と同等またはより良いパフォーマンスを示し、さらにB-スキャンレベルの疾患特定の利点もあります。 さらなる研究により、このディープラーニングモデルの一般化能力を向上させることができます。これには、CirrusやSpectralisなどのスキャナに対応するための適応が考慮されるべきです。データセット固有のトレーニングに関連する制限に対処するために、ドメインシフト適応方法を検討する必要があります。モデルの潜在的な用途は、神経眼科学的なAMDの開始検出に拡張することができます。不確実性の推定を実世界のスクリーニング設定での適用や、AMD以外の疾患バイオマーカーの検出モデルの探索は、将来の調査において有望なアプローチとなり、より広範な人口の疾患スクリーニングに役立ちます。

GoogleのプロジェクトOpen Se Curaをご紹介しますこれは、セキュアでスケーラブル、透明性の高い、効率的なAIシステムの開発を加速するためのオープンソースフレームワークです

AIの成長とともに、それは生活のあらゆる側面で使用されています。その応用はあらゆる分野に広がり、さまざまな分野への取り組み方を変革する上で重要な役割を果たしています。その有用性は、医療、教育、交通、製造、小売り、金融など、さまざまなセクターに広がっています。 しかし、人工知能(AI)が私たちの日常生活にますます統合されるにつれて、確実かつ安全なAI体験のために、強力で効果的なコンピューティングシステムを構築することが必要です。しかし、問題があります:ハードウェアの革新は、機械学習(ML)モデルとソフトウェア開発の進化に追いつく必要があります。このバランスの乱れが、完全で安全なフルスタックシステムの構築を困難にしています。さらに、バッテリー技術が進歩しているにもかかわらず、小型デバイス市場はこれらの進歩に追いつくことができず、AIシステムの潜在的な強さと使用を制限しています。 その結果、Googleは「Project Open Se Cura」を発表しました。これは、安全でスケーラブルで透明で効率的なAIシステムの開発を加速させるためのオープンソースフレームワークです。これは以前はGoogle内で「Project Sparrow」として知られていました。「Project Open Se Cura」は、Googleのオープンソース開発への取り組みを強調しています。このイニシアチブは、オープンソースの設計ツールと知的財産(IP)ライブラリを作成することを含み、MLワークロードを処理するフルスタックシステムの成長を加速させることを目指して協力的な共同設計と開発プロセスに取り組んでいます。セキュリティ、効率性、スケーラビリティに焦点を当てたシステム設計の強化を目指し、次世代のAI体験を支えることを重視しています。 このプロジェクトはVeriSilicon、Antmicro、lowRISCなどの重要なパートナーとの緊密な協力のもとで開発されました。研究者たちは、各パートナーが開発プロセスに不可欠な知識とリソースを提供してくれたと強調しています。例えば、lowRISCはプロジェクトに安全な信頼のルートと開発・統合ツールを提供し、安全な基盤を保証しました。AntmicroはオープンソースのシステムレベルソフトウェアとRenodeを使用したシステムシミュレーションの専門知識を提供しました。VeriSiliconは商品化、BSP(Board Support Package)開発、IPデザイン、シリコンデザインの専門知識を提供しました。これらのツールにより、安全な機械学習機能をIPライブラリに追加することで、省電力AIシステムのコンセプト実証の開発が可能となりました。 研究者たちは、Open Se Curaのさらなる強化と開発に向けて協力的に取り組む予定です。彼らは、CHERI革新のためにケンブリッジ大学と、省電力および生成的AIのためにミシガン大学などの機関とのさらなる提携を積極的に求めています。 Googleは、これらの新しいツールを用いた可能性の探求に興奮し、広範なオープンソースコミュニティに参加し、貢献することを奨励しています。共同の取り組みは、革新を促進し、安全でスケーラブルかつ非常に効率的なAI体験を生み出すことを目指しています。研究者たちは、オープンソースコミュニティとの協力がAIの進歩の新たな時代を切り拓くことになると期待しています。 投稿元:【速報】Googleの「Project Open Se Cura」:安全でスケーラブルで透明で効率的なAIシステムの開発を加速するためのオープンソースフレームワーク

「Google マップは AI 機能で強化されました」

10月下旬、Googleはブログで、人気のあるマップアプリをさまざまな方法で強化するためのAIパワード機能を5つ発表しましたGeo部門のVP兼GMであるクリス・フィリップス氏によって書かれたこのアップデートでは、アプリユーザーが楽しむことができる5つの新機能が紹介されています最初のアップグレードは、能力の向上です...

「Flapjax プロットリーとフラスクを使ったウェブ上のデータ可視化」

「データの視覚化アプリを作るのに最適なフレームワークは何ですか?StreamlitやDashかもしれませんねそれともMercuryやVoiláでJupyter Notebookをウェブアプリに変換することもできるでしょうか?これらはすべて…」

「Google の CEO Sundar Pichai は AI を気候変動にたとえる」という記事です

サンフランシスコで開催されたアジア太平洋経済協力CEOサミットで、GoogleのCEOであるサンダー・ピチャイ氏がAIを気候変動に例えましたこのコメントは、「スマートAI規制に対するグローバルな合意をどのように得るか」という質問に対して出たものですCNBCによると、彼はAIが「広まり続ける」と述べ、「AIの進歩は...」と述べました

「OpenAI、マイクロソフトの支援を受けてGPT-5開発に向けて準備を進める」

次世代AI分野を指し示す大胆な動きとして、OpenAIのCEOサム・オルトマンは人気の高いChatGPTの後継機であるGPT-5の開発を示唆しました。この取り組みは、Microsoftの財政的な支援を受ける可能性があり、AIの境界を再定義し、AGIの実現を目指しています。 生成AIの進化 主要なAI研究所であるOpenAIは、GPT(Generative Pre-trained Transformer)シリーズを通じて生成AIをリードしてきました。各イテレーションごとにモデルはより洗練されています。現行のChatGPTは、人間らしいテキスト生成の嵐であり、高度なAIソリューションへの需要が急増する中、GPT-5への期待が高まっています。 MicrosoftのAI競争への貢献 GPT-5へのマイクロソフトの潜在的な投資は、テック巨人のAIリーダーシップへの取り組みを反映しています。この協力は新しいものではなく、マイクロソフトは2019年に10億ドルを投資しました。成功した10億ドルのパートナーシップと収益成長にもかかわらず、オルトマンは大きな課題があることを認識しています。AGIへの道は、膨大な計算能力とトレーニング費用を必要とし、追加の資金が必要です。OpenAIの財務状況は非公開ですが、ChatGPTの成功によって、次の12ヶ月間において約10億ドルの売上が見込まれています。 GPT-5の憶測と業界のダイナミクス オルトマンは、次世代言語モデルであるGPT-5の開発を示唆していますが、詳細は非公開です。ソーシャルメディア上の憶測では、2023年12月の展開が示唆されていますが、オルトマンはそのモデルの予測困難な能力を強調しています。同時に、セレブリティとの仮想的な対話を可能にするチャットボットモデルであるCharacter.AIは、AIの競争の激しさを浮き彫りにしています。 AGIとOpenAIのビジョン オルトマンは、広範な研究開発を通じて、人間の知能に匹敵する人工汎用知能(AGI)の実現を目指しています。ChatGPTやGPTストアなどの現行製品をOpenAIの究極の目標である知性への道と位置付けながら、オルトマンはAGIを会社の次の進化段階と位置付けています。 私たちの意見 OpenAIがAGIに向けて航海する中、オルトマンの戦略的なマイクロソフトからの追加資金調達の追求は、同社がAI革命をリードすることへの取り組みを強調しています。GPT-5の到来に関する憶測は、展開中の物語に期待を高めます。この技術と金融のダイナミックな交差点では、OpenAIとGoogleの間でのAIの支配権を巡る競争が、人工知能の未来を形作ることを約束しています。次の大きな飛躍を待つ利害関係者たちは、知的技術の変革的な章に向けて舞台が整えられています。

「AIのトレーニングAI:ゲータートロングPTがフロリダ大学の医療AIのイノベーションの最前線に」

臨床データが少ない状況でAIに臨床言語を理解させるにはどうすればいいのでしょうか?別のAIを訓練して、訓練データを合成します。 人工知能は医学の方法を変えつつあり、様々な臨床業務にますます使われています。 これは生成AIやGatorTronGPTのようなモデルによって推進されています。GatorTronGPTはフロリダ大学のHiPerGator AIスーパーコンピュータで訓練され、Nature Digital Medicine Thursdayで紹介された論文で詳細が説明されています。 GatorTronGPTは臨床データに基づいて訓練された大規模な言語モデル(LLMs)の一つです。研究者たちは、GPT-3のフレームワークを使用してこのモデルを訓練しました。ChatGPTでも使用されているフレームワークです。 この目的のために、彼らは2770億単語の巨大なコーパスを使用しました。訓練データには、非特定化された臨床ノートから820億単語と、様々な英文書から1950億単語が含まれています。 しかし驚きはここにあります。研究チームはGatorTronGPTを使用して、約200億語の合成臨床テキストコーパスを生成しました。この合成臨床テキストは、臨床要素に焦点を当て、医師が書いた本物の臨床ノートのように読むことができます。 この合成データは、GatorTron-SというBERTベースのモデルの訓練に使用されました。 比較評価では、GatorTron-Sは臨床概念の抽出や医療関連の抽出などの臨床自然言語理解のタスクで優れたパフォーマンスを示しており、8200億単語の臨床データセットで訓練された元のBERTベースのモデルであるGatorTron-OGが打ち立てた記録を上回っています。 さらに驚くべきことに、これを少ないデータで実現できました。 GatorTron-OGとGatorTron-Sのモデルは、フロリダ大学のHiPerGatorスーパーコンピュータでNVIDIAのMegatron-LMパッケージを実行する560台のNVIDIA A100 Tensor Core GPUで訓練されました。このプロジェクトで使用されたMegatron LMフレームワークの技術は、後にNVIDIA NeMoフレームワークに組み込まれ、GatorTronGPTの最新の研究にも活用されています。 LLMsによる合成データの使用は、いくつかの課題に対処するものです。LLMsには膨大な量のデータが必要であり、品質の高い医療データが限られています。 また、合成データはHIPAAなどの医療プライバシー規制に準拠したモデル訓練を可能にします。 GatorTronGPTの研究は、昨年ChatGPTの急速な普及と共に登場したLLMsが、さらに多くの分野で活用される可能性を示す最新の例です。 また、加速されたコンピューティングによって実現される新しいAI技術の進展の一例でもあります。…

このAIの論文は「ミスからの学習(LeMa):エラー駆動学習を通じた大規模言語モデルにおける数学的推論の強化」という題目です

人間は、本質的には欠点のある存在として、成功と失敗によって特徴付けられる複雑な人生の旅を進んでいます。私たちの存在の大いなる織物の中で、間違いによって編み上げられる独自のパターンは、私たちの成長と発展に大きく寄与しています。間違いから学ぶことは、人間の経験にとって基本的であり、私たちの性格を形作り、抵抗力を育み、より啓発された未来に向かうための推進力となります。 LLMも間違いから学ぶことは可能でしょうか?可能です。GPT-3のような大規模な言語モデルは、正しい言語の使用例と誤った使用例を含む広範なデータから学習します。これらのモデルは、インターネット、本、記事などのさまざまなテキストを含む多様なデータセットでトレーニングされます。モデルはトレーニングデータのパターン、関係、文脈情報を認識します。文法、構文、意味、さらには言語の使用の微妙なニュアンスまで理解します。 このエラー駆動型学習プロセスを模倣することで、交通大学、北京大学、マイクロソフトの研究者は、GPT-4によって生成された間違い訂正データのペアを使用してLLMを微調整するLEMAを提案しています。彼らは、学生が間違いから学ぶ学習プロセスから着想を得たと述べています。 彼らの方法は、間違い訂正のデータペアを生成し、その後訂正データを使用してLLMを微調整することです。彼らは、LLaMAやGPTシリーズのモデルなどの複数のLLMを使用して、不正確な推論パスを収集し、訂正データを生成します。生成された訂正には、元の解答の間違った手順に関する3つの情報、この手順がなぜ間違っているのかの説明、正しい最終的な答えに辿り着くために元の解答をどのように訂正するかが含まれています。 彼らは、最終的な答えが間違っている訂正を除外し、このプロセスが後続の微調整段階に適切な品質を示すと述べています。彼らは、各訓練セットの質問に対してさらに多くの推論パスを生成し、誤った最終的な答えを持つパスを選別します。これにより、LLMの拡張による強力な微調整ベースラインが構築され、微調整のためのデータサイズの制御に関するさらなる削除研究が容易になります。彼らは、質問合理的なデータのみでモデルを微調整します。 CoTデータのみで微調整する場合と比較して、LEMAはさまざまなLLMおよびタスクでパフォーマンスを一貫して向上させます。LLaMA-2-70Bを使用したLEMAは、GSM8Kでは83.5%、MATHでは25.0%を達成し、CoTデータのみで微調整するとそれぞれ81.4%、23.6%です。 LLMの最近の進歩により、彼らは段階的な問題解決アプローチを実行することができるようになりました。しかしこの段階的生成プロセスが、LLMが正確な理論の基礎となる論理とルールを本当に理解しているわけではなく、単に人間の論理の表面的な振る舞いを模倣しているだけであることを暗示してはいません。LEMAは、GPT-4をワールドモデルとして使用し、小さなモデルにステップバイステップの振る舞いを単に模倣するのではなく、論理とルールに従うように教えます。

「中国AI研究チームが導入した4K4D ハードウェアラスタライゼーションをサポートし、前例のない描画速度を実現する4Dポイントクラウド表現」

ダイナミックビューシンセシスは、キャプチャされたビデオから動的な3Dシーンを再構築し、没入型仮想再生を生成しようとするコンピュータビジョンとグラフィックのタスクです。この技術の実用性は、高忠実度なリアルタイムレンダリング能力に依存しており、VR / AR、スポーツ放送、芸術的パフォーマンスキャプチャなどで使用されます。従来のアプローチでは、動的な3Dシーンをテクスチャ付きメッシュシーケンスとして表現し、複雑なハードウェアを使用して再構築しますが、制御された環境に限定されます。最近の研究では、RGBビデオから動的な3Dシーンを再構築するための暗黙のニューラル表現が、微分可能なレンダリングを通じて非常に成功しています。最近開発された手法では、対象シーンを動的な放射輝度場としてモデル化し、ボリュームレンダリングを使用して画像を合成し、最適化のために入力画像と比較します。動的ビューシンセシスで印象的な結果を達成しているにもかかわらず、既存の手法は通常、1080pの解像度で画像をレンダリングするために数秒または数分の時間を要します。 静的なビューシンセシスの手法に触発され、特定のダイナミックビューシンセシスのテクニックは、コストまたはネットワーク評価の数を減らすことによってレンダリング速度を向上させます。これらの戦略を採用することにより、MLPマップとして知られる表現は、ダイナミックな前景人物のためのレンダリング速度を41.7 fpsに達成します。ただし、レンダリング速度の課題は依然残ります。MLPマップは、中程度の解像度の画像(384×512)を合成する場合にのみリアルタイムのパフォーマンスを発揮します。4K解像度の画像をレンダリングする場合、その速度は1.3 FPSまで低下します。 この研究では、4K4Dという新しいニューラル表現を紹介し、動的な3Dシーンのモデリングとレンダリングに使用します。4K4Dは、レンダリングの速度を大幅に改善し、レンダリングの品質において競争力を維持しています。システムの概要を以下に示します。 このコアのイノベーションは、4Dポイントクラウド表現とハイブリッド外観モデルにあります。具体的には、動的なシーンでは、空間刻みアルゴリズムを使用して取得した荒いポイントクラウドシーケンスを使用し、各ポイントの位置を学習可能なベクトルとしてモデル化します。4D特徴グリッドを導入し、各ポイントに特徴ベクトルを割り当て、それをMLPネットワークに入力してポイントの半径、密度、および球面調和(SH)係数を予測します。 4D特徴グリッドは、ポイントクラウドに空間的正則化を自然に適用し、最適化のロバスト性を向上させます。さらに、異なる可能な深さの剥離アルゴリズムを開発し、ハードウェアラスタライザを使用して前例のないレンダリング速度を実現します。 研究では、MLPベースのSHモデルが動的シーンの外観を表現する際の課題を特定しています。これに対処するために、SHモデルを補完するための画像ブレンディングモデルを導入して、シーンの外観を表現します。重要な設計の選択肢により、画像ブレンディングネットワークは視線方向と独立しており、トレーニング後の事前計算を可能にし、レンダリング速度を向上させます。ただし、この戦略は、ビュー方向に沿った離散動作の課題を導入し、連続のSHモデルを使用して緩和されます。3Dガウススプラッティングとは異なり、SHモデルのみを使用するのではなく、このハイブリッド外観モデルは入力画像で捉えられた情報を十分に活用し、レンダリング品質を効果的に向上させます。 著者によって報告された広範な実験では、4K4Dは注目すべきレンダリング品質であると同時に、桁違いに高速なレンダリングを達成しています。RTX 4090 GPUを使用した場合、この手法は1080pの解像度で最大400 FPS、4Kの解像度で80 FPSに達するとのことです。 以下の画像は、最先端の技術との視覚的比較です。 これは4K4Dの概要であり、ハードウェアラスタライゼーションをサポートし、前例のない高速なレンダリングを可能にする革新的なAI 4Dポイントクラウドの表現です。詳細を知りたい方は、以下に引用されたリンクを参照していただくか、お気軽にお問い合わせください。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us