『倫理と社会ニュースレター#5:ハグフェイスがワシントンに行くと、他の2023年夏の考え事』
『美容とファッションニュース#5:ハグフェイスのワシントン旅行と2023年夏のトレンド』
人工知能(AI)における「倫理」について知っておくべき最も重要なことの一つは、それが「価値観」に関連しているということです。倫理は何が正しくて何が間違っているかを教えてくれるのではなく、透明性、安全性、公正などの価値観の語彙と優先順位を定めるための枠組みを提供します。今年の夏、私たちはAIの価値観についての理解を欧州連合、イギリス、アメリカの立法府に伝え、AIの規制の未来を形作るのに役立ちました。ここで倫理が光を放つのです:法律がまだ整っていないときに前進するための道筋を切り開くのに役立つのです。
Hugging Faceの主要な価値であるオープンさと責任を守るために、私たちはここで私たちが言ったことや行ったことのコレクションを共有しています。これには、私たちのCEOであるクレムが米国議会に対する証言や米国上院AI Insight Forumでの発言、E.U. AI Actに関するアドバイス、NTIAに対するAIの責任に関するコメント、そして私たちのChief Ethics Scientistであるメグの民主党議員団に対するコメントなどが含まれています。これらの議論の多くで共通していたのは、なぜAIのオープンさが有益であるのかという質問でした。私たちはこの質問に対する私たちの回答のコレクションをこちらで共有しています。
Hugging Faceのコア価値である民主化に則り、私たちは多くの時間を公に話すことに費やしてきました。そしてAIの世界で今起こっていることを説明するためにジャーナリストと対話する機会を与えられています。これには以下のものが含まれます:
- サーシャのAIのエネルギー使用と炭素排出に関するコメント(The Atlantic、The Guardian、2回、New Scientist、The Weather Network、The Wall Street Journal、2回)およびWall Street Journal op-edの一部の執筆;AIの終末論的なリスクに対する考え(Bloomberg、The Times、Futurism、Sky News);生成型AIのバイアスに関する詳細(Bloomberg、NBC、Vox);マージナライズされた労働者がAIのためのデータを作成する方法の指摘(The Globe and Mail、The Atlantic);AIにおける性差別の影響の強調(VICE);およびMIT Technology ReviewでのAIテキスト検出、オープンモデルのリリース、AIの透明性に関する洞察を提供(Ars Technica)。
- ネイサンの言語モデルとオープンリリースの最先端に関するコメント(WIRED、VentureBeat、Business Insider、Fortune)。
- メグのAIとデマ情報に関するコメント(CNN、al Jazeera、the New York Times);AIにおけるアーティストの作品の適切な取り扱いの必要性(Washington Post);生成型AIの進歩とそれらが共通善との関係(Washington Post、VentureBeat);ジャーナリストが報道を通じてAIの進化をより良く形成できる方法についての説明(CJR);およびAIにおける困惑度という基本的な統計概念の説明(Ars Technica)や、性差別のパターンの強調(Fast Company)。
- アイリーンのAIの規制環境の理解に関するコメント(<
今年の夏にリリースされたいくつかのトークには、GiadaのTEDプレゼンテーション(自動英訳字幕が素晴らしいです!)や、YacineのTechにおける倫理に関するプレゼンテーション、Markkula Center for Applied EthicsでのResponsible Openness、およびWorkshop on Responsible and Open Foundation Modelsでのプレゼンテーション、Katieの健康に関する生成AIについての話、およびMegがLondon Data Weekで行ったBuilding Better AI in the Openのプレゼンテーションが含まれます。
もちろん、私たちは日々の業務(「仕事仕事」)でも進展を遂げています。アプローチ可能性の基本的な価値は、私たちの仕事全体にわたって浮かび上がりました。私たちはAIを社会と人間の価値に基づいて形作る方法に焦点を当て、誰もが歓迎される環境を作ることに集中しています。これには、Mariaとその他のメンバーによるAIオーディオの新しいコース、Katieによるオープンアクセス臨床言語モデルのリソース、Nazneenおよびその他による責任ある生成AIのチュートリアル、FAccT論文の生成AIリリースの勾配(ビデオ)および機械学習における倫理的な規約、法的ツール、および技術文書の明示(ビデオ)、参加型の学際的アプローチによるテキストから画像AIのリスク表面のマッピングに関するワークショップ、生成AIシステムの様々なモダリティや社会への影響の評価(ビデオ)などが含まれます。
公正性と正義の目標にも進展があり、バイアスとハームのテストが新しいHugging FaceのマルチモーダルモデルIDEFICSに適用されました。私たちは透明性を責任を持って具現化する方法に取り組んでおり、この過程でコンテンツポリシーの更新(Giadaが率先しています)を行いました。また、言語多様性へのサポートを進めるために、メタデータの機械学習を利用しています(Danielが率先しています)。さらに、データセットへの記述統計情報の追加(Polinaが率先しています)により、AIが学び取り評価される方法の理解を向上させる取り組みも行っています。
このシーズンの経験に基づいて、現在のAI倫理の議論で特に役立つHugging Faceのリソースの多くをまとめたコレクションを提供します。詳細はこちらからご覧いただけます:https://huggingface.co/society-ethics。
最後に、私たちは社会と倫理の専門家であるIreneとSashaの両方がMITの35歳以下のイノベーターに選ばれたこと(AI 35歳以下の1/4はHugging Faceです!)、Megは知名度のあるAIイノベーターのリストに含まれています(WIRED、Fortune);MegとClemはTIMEの100歳未満のAIリストに選ばれています。また、私たちはAIシステムの強化学習における倫理との関連性を構築する私たちの仕事において重要な存在であった同僚のNathanがお別れすることをとても悲しく思っています。別れの贈り物として、彼はRLHFにおける倫理的AIの運用の課題についての詳細を提供しています。
読んでいただきありがとうございます!
— Hugging FaceのEthics & Societyの専門家、Megより
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles