『ChatGPTや他のチャットボットの安全コントロールに研究者が問題点を指摘』
研究者がChatGPTや他のチャットボットの安全コントロールの問題点を指摘
人工知能の企業がChatGPT、Claude、Google Bardなどのオンラインチャットボットを構築する際、彼らはシステムがヘイトスピーチ、ディスインフォメーション、その他の有害な情報を生成しないようにするためのガードレールを数ヶ月かけて追加しています。
しかし、これらの安全対策システムに簡単に穴を開ける方法が存在するようになりました。
ピッツバーグのカーネギーメロン大学とサンフランシスコのA.I.セーフティセンターの研究者たちは、木曜日に発表されたレポートで、誰でもA.I.の安全対策を回避し、主要なチャットボットのいずれかを使ってほぼ無制限の量の有害情報を生成することができることを示しました。
彼らの研究は、新しいチャットボットが、作成者の努力にもかかわらず、偽情報や危険な情報でインターネットを氾濫させる可能性が増していることを強調しました。また、主要なA.I.企業間の意見の相違が、技術に対して予測不可能な環境を作り出していることも示しました。
- RT-2 新しいモデルは、ビジョンと言語をアクションに変換します
- DeepMindの研究者たちは、正確な数学的定義を用いて、連続した強化学習を再定義しました
- イギリスのインペリアル・カレッジ・ロンドンとディープマインドの研究者たちは、AIフレームワークを設計しましたこのフレームワークは、言語をRLエージェントの中核的な推論ツールとして使用します
ニューヨークタイムズより全文記事をご覧ください
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- CMUの研究者が「WebArena」を導入:有用なエージェントのベンチマーキングを行うための4つ以上の現実的で再現可能なWeb環境となる4つ以上の現実的なWebアプリを備えたもの
- 「INDIAaiとMetaが連携:AIイノベーションと共同作業の道を開く」
- 研究者たちは「絶対的に安全な」量子デジタルペイメントを実証
- ロボットが太陽エネルギー研究を推進
- スタンフォード大学の研究者たちは、「ギスティング:言語モデルにおける効率的なプロンプト圧縮のための新しい技術」というものを紹介しました
- メタAIとケンブリッジ大学の研究者は、大規模言語モデル(LLM)が音声認識能力でプロンプトされる方法を調査しました
- 「CMUの研究者たちは、TIDEEを提案します:明示的な指示なしで、これまで見たことのない部屋を整理することができる具現化エージェント」