「機械学習に人間のミスを組み込む」
Integrating human errors into machine learning
イギリスのケンブリッジ大学、アラン・チューリング研究所、プリンストン大学、およびGoogle DeepMindの科学者たちは、機械学習(ML)システムに不確実性を組み込んでいます。
研究者たちは、確立された画像分類データセットを使用して、人間が特定の画像に注釈を付ける際に不確実性レベルをフィードバックし、評価することができました。
彼らは、不確実なラベルでトレーニングすることで、システムが不確実なフィードバックをより良く処理できることを学びましたが、人間のフィードバックにより全体的なパフォーマンスが急速に低下します。
ケンブリッジ大学のマシュー・バーカー氏は、「私たちは[行動研究とML]を結びつけようとしており、機械学習が人間の不確実性を処理できるようにすることが目標です。」と述べています。 ケンブリッジ大学(英国)の記事を全文で表示
- オープンソース大規模言語モデルの優しい紹介
- 「テキストから具体的なものへ:3D-LLMが言語モデルを3D世界に解き放つ」
- 「機械学習の方法の比較:従来の方法と費用削減の代替方法 – 本当に効果があるのはどれか?」
抄録の著作権は、2023年 SmithBucklin、ワシントンD.C.、アメリカ合衆国に帰属します
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「大規模言語モデルの謎解き:インフルエンス関数とそのスケーラビリティの深い探求」
- ロボットの再定義:パデュー大学の革新的なマシンビジョンソリューション
- AgentBenchをご紹介します:さまざまな状況で大規模な言語モデルをエージェントとして評価するために開発された多次元ベンチマークです
- 「仮想マシンのゲームパフォーマンスを向上させるためのガイド」
- ホームブリューや仮想マシンなしでMacBook M1またはM2にHadoopをインストールする方法
- 「多言語音声技術の障壁の克服:トップ5の課題と革新的な解決策」
- 「Nvidiaが革命的なAIチップを発表し、生成型AIアプリケーションを急速に強化する」