米国AI国家研究リソース暫定報告書に関するコメント
'米国AI国家研究リソース暫定報告書に関するコメント' can be condensed to 'コメント regarding the interim report on the US National AI Research Resources.'
2022年6月下旬、Hugging Faceは、米国大統領府科学技術政策局と国立科学財団の「国家人工知能研究リソース(NAIRR)タスクフォースの中間報告結果を実装するためのロードマップ」に関する情報提供依頼に回答しました。私たちは、機械学習を民主化し、あらゆるバックグラウンドがAIに貢献できるようにすることを目指すプラットフォームとして、NAIRRの取り組みを強く支持しています。
私たちの回答では、タスクフォースに以下の点を提案しています:
-
技術的および倫理的な専門家をアドバイザーとして指名すること
- 倫理的なイノベーションの実績を持つ技術的専門家をアドバイザーとして優先的に指名するべきです。彼らはNAIRRが技術的に実現可能で実施可能であり、AIシステムに必要なだけでなく、有害なバイアスや他の悪意のあるAIシステムの使用を悪化させない方法について調整することができます。Margaret Mitchell博士は、AI分野で最も優れた技術的専門家および倫理の実践者の一人であり、Hugging FaceのChief Ethics Scientistです。
-
リソース(モデルおよびデータ)のドキュメンテーション基準
- NAIRRが提供するシステムおよびデータセットのドキュメンテーションの基準とテンプレートは、アクセシビリティを向上させ、チェックリストとして機能します。この標準化により、さまざまな対象者やバックグラウンド間での読みやすさが確保されるべきです。モデルカードは、AIモデルのドキュメンテーションのための広く採用されている構造であり、強力なテンプレートとなる可能性があります。
-
異分野の非技術的な専門家に対して機械学習を利用可能にすること
- NAIRRは、AIモデルのトレーニングなどの複雑なタスクを実行するための教育リソース、理解しやすいインターフェース、低コードまたはノーコードのツールを提供するべきです。例えば、Hugging FaceのAutoTrainは、技術的なスキルに関係なく、自然言語処理(NLP)モデルのトレーニング、評価、展開を行うことができるようにします。
-
悪用および悪意のある使用の可能性のあるオープンソースおよびオープンサイエンスの監視
- NAIRRとアドバイザーによって被害が定義され、継続的に更新されるべきですが、それは顕著な有害なバイアス、政治的なディスインフォメーション、ヘイトスピーチを含むべきです。NAIRRはまた、リソースの誤用が発生した場合に対策を講じるために法的な専門知識に投資するべきです。
-
多様な研究者の視点をアクセス可能なツールとリソースによって強化すること
- ツールとリソースは、異なる学問分野だけでなく、責任あるイノベーションを推進するために必要な多言語と多様な視点に対して利用可能でアクセス可能でなければなりません。これは、少なくとも最も話されている言語に基づいて複数の言語でのリソース提供を意味します。Hugging Faceとフランス政府が主催する異なる学問分野からの1000人以上の研究者からなるコミュニティであるBigScience Research Workshopは、最も強力なオープンソースの多言語言語モデルの構築のために60以上の国からの視点を取り入れる良い例です。
私たちのメモは、各提案についてさらに詳細に説明しています。私たちは、責任ある方法でAIを幅広く利用できるように、さらなるリソースに熱心に取り組んでいます。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles