「機械学習リスク管理のための文化的な能力」

Culture for Machine Learning Risk Management

組織の文化は責任あるAIの重要な側面です。

Google DeepMindによる無料提供の写真

人工知能(AI)が搭載されたシステムが間違いを comit しない世界を想像してみてください。彼らがミスなくタスクを実行し続ける姿勢です。SFの夢のようなものですよね。AIの現実の世界へようこそ、そこでは常に計画通りにはいかないことがあります。責任あるAIの実践の重要な部分は、私たちが「AIインシデント」と呼ぶものを防止し、対処することです。この記事では、責任あるAIの実践を促進する概念を中心に、AIインシデントを防止し軽減することができる文化的な能力について説明します。その後、関連するビジネスプロセスについては、将来の記事で網羅的な視点を提供します。

シリーズに関する注意事項

このシリーズに取り組むにあたり、文脈を提供することが重要です。私は、Patrick HallとJames Curtisと共同執筆した「高リスクアプリケーションのための機械学習」という本の共著者の一人です。このシリーズは、本の広範な内容のわかりやすい読者向けの補完として設計されています。各記事では、本で提供された重要な洞察、概念、実践戦略を簡潔にまとめて、広範な読者に知識を提供することを目指しています。

AIインシデントの定義

MLの安全性に踏み込む前に、AIインシデントに対処することは重要です。理解していないものを効果的に軽減することはできません。AIインシデントとは、潜在的に害を引き起こす可能性のあるAIシステムから生じる結果を指します。これらのインシデントの深刻度は、それらが引き起こす損害の程度に応じて自然に異なります。これらのインシデントは、モールのセキュリティロボットが階段から転落するなどの比較的軽微な不便さから、自動運転車が歩行者の死亡事故や医療資源の大規模な転用などのより重大な事件まで様々です。

AIインシデントとは、潜在的に害を引き起こす可能性のあるAIシステムから生じる結果を指します。

AIインシデントは、主に次の3つのグループに分類できます :

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

スタンフォードの研究者たちはPLATOを発表しました:知識グラフに拡張された正則化を用いた高次元、低サンプルの機械学習の過適合に取り組むための斬新なAIアプローチ

ナレッジグラフ(KG)は、ノードとエッジとして情報を格納するグラフベースのデータベースです。一方、マルチレイヤーパーセ...

機械学習

「AIの進化と生成AIへの道のりとその仕組み」

この記事では、AI/MLの基礎、その使用方法、生成AIの進化、Prompt Engineering、およびLangChainについて説明しています

AI研究

「Microsoftの研究者がPIT(Permutation Invariant Transformation)を提案:動的まばらさのためのディープラーニングコンパイラ」

“`html 最近、深層学習は動的スパース性に最適化されたモデルの研究によって注目されています。このシナリオでは、スパ...

機械学習

「AWSとAccelが「ML Elevate 2023」を立ち上げ、インドのAIスタートアップエコシステムを力強く支援」

Amazon Web Services(AWS)とAccelは、革新的な6週間のアクセラレータープログラム「ML Elevate 2023」を発表しました。この...

AI研究

「UCLA研究者がGedankenNetを紹介:物理法則や思考実験から学ぶ自己教示AIモデルが計算機画像処理を進化させる」

深層学習の最近の進展は、計算画像処理、顕微鏡、ホログラフィ関連の分野に大きな影響を与えています。これらの技術は、バイ...

機械学習

CommonCanvasをご紹介します:クリエイティブ・コモンズの画像を使ってトレーニングされたオープンな拡散モデル

人工知能は近年、テキストから画像生成において大きな進歩を遂げています。文章の説明を視覚的な表現に変換することは、コン...