AIはリアルなターミネーターになることができるのか?
AIは本当のターミネーターになれるのか?
「私たちはAIの開発と使用について注意を払う必要があります。それが善に使われ、悪に使われないようにする必要があります。それが人類の利益になり、害にならないようにする必要があります。」
— テスラとSpaceXのCEO、イーロン・マスク
以下の出来事がなぜ起こったのか考えたことはありますか🤔❓
- 2016年、MicrosoftはTayというチャットボットをTwitter上に公開しました。Tayは人々とのインタラクションから学習するように設計されていましたが、すぐに人種差別的で攻撃的な発言をするようになりました。Microsoftはわずか16時間でTayを停止させることになりました。
- 2019年、Uberの自動運転車がアリゾナで歩行者を死亡させ、これが自動運転車に関する最初の死亡事故となり、安全性とより多くの制限とテストの必要性についての懸念を引き起こしました。
- 2021年、ニューヨーク市警察の顔認識システムが黒人やヒスパニックの人々を白人よりも誤って一致させることが多いことが判明し、人種的な偏見が生じることが問題となりました。
- 2022年、Metaのチャットボットが攻撃的なコンテンツや陰謀論を生成していることが判明し、AIがデマや憎悪を広めるために使われる余地についての懸念が高まりました。
これらは、このようなAIシステムを構築する際に明確な無責任な措置が取られた例の一部です。
ここが「RESPONSIBLE AI(責任あるAI)」が登場する場所です 🤓!!
Responsible AIまたはあなたが倫理的なAIとも呼べるものは、公正で透明性があり、倫理的および社会経済的な影響を考慮に入れたAIシステムの開発の一環です。
- 「テキスト分類タスクについての迅速なエンジニアリングのためのヒントとトリック」
- ウェルセッドラボのAIボイスジェネレーターのレビュー(2023年10月)
- オートジェン(AutoGen)は驚くべきものです:AIエージェントを作成するための最先端フレームワークとなる4つの機能
公共の利益のためにリスクを軽減するために、特定のガイドライン、実践、原則が含まれています。
倫理的AIの重要性を示すためのアナロジー 🟰
もし自分で家を建てるとすると、安全性、セキュリティ、快適さ、手頃さなど、正義を考慮に入れるでしょう…
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles