『ChatGPTや他のチャットボットの安全コントロールに研究者が問題点を指摘』

研究者がChatGPTや他のチャットボットの安全コントロールの問題点を指摘

カーネギーメロン大学のZico Kolter氏(右)とAndy Zou氏は、全ての主要なチャットボットプラットフォームの安全対策を回避する方法を見つけた研究者の一員でした。 ¶ クレジット:マルコ・ガルシア/ニューヨークタイムズ

人工知能の企業がChatGPT、Claude、Google Bardなどのオンラインチャットボットを構築する際、彼らはシステムがヘイトスピーチ、ディスインフォメーション、その他の有害な情報を生成しないようにするためのガードレールを数ヶ月かけて追加しています。

しかし、これらの安全対策システムに簡単に穴を開ける方法が存在するようになりました。

ピッツバーグのカーネギーメロン大学とサンフランシスコのA.I.セーフティセンターの研究者たちは、木曜日に発表されたレポートで、誰でもA.I.の安全対策を回避し、主要なチャットボットのいずれかを使ってほぼ無制限の量の有害情報を生成することができることを示しました。

彼らの研究は、新しいチャットボットが、作成者の努力にもかかわらず、偽情報や危険な情報でインターネットを氾濫させる可能性が増していることを強調しました。また、主要なA.I.企業間の意見の相違が、技術に対して予測不可能な環境を作り出していることも示しました。

ニューヨークタイムズより全文記事をご覧ください

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

大規模言語モデルにおける推論力の向上:正確かつ転送可能なルールベース学習のための仮説から理論へ(HtT)フレームワークをご覧ください

論理タスクの領域では、大規模言語モデル(LLM)は、例や中間ステップを提供された場合に、驚くべきパフォーマンスを示しまし...

機械学習

「深層学習による遺伝子制御の解明:オルタナティブスプライシングの理解に向けた新たなAIアプローチ」

オルタナティブスプライシングは、遺伝子の制御において基本的なプロセスであり、単一の遺伝子が複数のmRNAバリアントと様々...

機械学習

このAIの論文では、プログラミング言語が指示調整を通じて互いを向上させる方法について説明しています

大型言語モデル(LLM)の導入は世界中で大きな話題となっています。これらのモデルは、人間のように独自で創造的なコンテンツ...

機械学習

大規模言語モデル(LLM)とは何ですか?LLMの応用と種類

コンピュータプログラムである大規模言語モデルは、テキストの解析や作成のための新しいオプションをソフトウェアに提供しま...

機械学習

「勾配降下法:数学を用いた最適化への山岳トレッカーのガイド」

勾配降下法(グラディエントディセント)は、機械学習モデルのエラーを最小化するために使用される最適化手法です最も減少す...