「機械学習リスク管理のための文化的な能力」

Culture for Machine Learning Risk Management

組織の文化は責任あるAIの重要な側面です。

Google DeepMindによる無料提供の写真

人工知能(AI)が搭載されたシステムが間違いを comit しない世界を想像してみてください。彼らがミスなくタスクを実行し続ける姿勢です。SFの夢のようなものですよね。AIの現実の世界へようこそ、そこでは常に計画通りにはいかないことがあります。責任あるAIの実践の重要な部分は、私たちが「AIインシデント」と呼ぶものを防止し、対処することです。この記事では、責任あるAIの実践を促進する概念を中心に、AIインシデントを防止し軽減することができる文化的な能力について説明します。その後、関連するビジネスプロセスについては、将来の記事で網羅的な視点を提供します。

シリーズに関する注意事項

このシリーズに取り組むにあたり、文脈を提供することが重要です。私は、Patrick HallとJames Curtisと共同執筆した「高リスクアプリケーションのための機械学習」という本の共著者の一人です。このシリーズは、本の広範な内容のわかりやすい読者向けの補完として設計されています。各記事では、本で提供された重要な洞察、概念、実践戦略を簡潔にまとめて、広範な読者に知識を提供することを目指しています。

AIインシデントの定義

MLの安全性に踏み込む前に、AIインシデントに対処することは重要です。理解していないものを効果的に軽減することはできません。AIインシデントとは、潜在的に害を引き起こす可能性のあるAIシステムから生じる結果を指します。これらのインシデントの深刻度は、それらが引き起こす損害の程度に応じて自然に異なります。これらのインシデントは、モールのセキュリティロボットが階段から転落するなどの比較的軽微な不便さから、自動運転車が歩行者の死亡事故や医療資源の大規模な転用などのより重大な事件まで様々です。

AIインシデントとは、潜在的に害を引き起こす可能性のあるAIシステムから生じる結果を指します。

AIインシデントは、主に次の3つのグループに分類できます :

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

PatchTST 時系列予測における画期的な技術革新

トランスフォーマーベースのモデルは、自然言語処理の分野(BERTやGPTモデルなど)やコンピュータビジョンなど、多くの分野で...

人工知能

「Lab Sessions 実験的なAIの新しいコラボレーションのシリーズ」

Lab Sessionsは、アーティストから学者、科学者から学生まで、さまざまな人々との実験的なAIコラボレーションのシリーズです

データサイエンス

ファインチューニングLLM パラメータ効率の改善 (PEFT) — LoRA および QLoRA — パート1

このブログでは、パラメータ効率的微調整(PEFT)のアイデアを理解し、PEFTの2つの最も重要な手法であるLoRAとQLoRAを探求します

データサイエンス

「解釈力を高めたk-Meansクラスタリングの改善」

「クラスタリングは、一組のオブジェクトをグループ化する非監督学習のタスクであり、同じグループ内のオブジェクトには他の...

データサイエンス

グラフ、分析、そして生成AI グラフニュースレターの年

グラフ、分析、および生成AIグラフとAIが結びつくさまざまな方法と、業界と研究のニュースについての説明

データサイエンス

「AIがあなたの問題を解決できるでしょうか?」

「AIの能力を製品やサービスに組み込むことを目指す製品企業では、AIに詳しくない人々をAIの流れに乗せるという課題が常に存...