研究者たちは、AIシステムを取り巻くガードレールはあまり堅牢ではないと述べています

『AIシステムのガードレールは不十分であると研究者らが指摘』

左から時計回りに、Ruoxi Jia、Tinghao Xie、Prateek Mittal、Yi Zeng。人工知能システムの新たな欠陥を明らかにしたチームの一部であります。資料:The New York Times、エリアス・ウィリアムズ

昨年、サンフランシスコのスタートアップ企業OpenAIは、A.I.チャットボットChatGPTをリリースする前に、憎悪表現やディスインフォメーションを生成するなどの不適切な行動を防ぐためのデジタルな庇護装置を装着しました。GoogleもそのBardチャットボットに同様のことをしました。

しかし、プリンストン大学、バージニア工科大学、スタンフォード大学、IBMの研究者からなるチームが発表した論文によると、これらの庇護装置はA.I.開発者が考えているほど堅固ではないとのことです。

この新たな研究は、企業がA.I.の誤用を抑制しようとしている一方で、それが依然として有害なコンテンツを生成する方法を見落としているという広範な懸念に迫っています。新しいチャットボットの基盤となる技術は非常に複雑であり、これらのシステムにより多くのことが要求されるにつれて、その振る舞いを制御することはますます困難になっています。

記事全文はThe New York Timesのこちらをご覧ください

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「インプレッションGPT:放射線学報告書要約のためのChatGPTベースの反復最適化フレームワークに会いましょう」

効果的かつ正確なテキスト要約モデルの必要性は、一般的および医療分野のデジタルテキスト情報のボリュームが驚くほど拡大す...

機械学習

このAI論文は、機械学習パイプライン内のさまざまなタイプの漏えいについて包括的な概要と議論を提供しています

機械学習(ML)は、予測モデリング、意思決定支援、洞察的なデータ解釈を実現することにより、医学、物理学、気象学、気候解...

機械学習

「Google DeepMindが大規模な言語モデルを使用して解けない数学問題を解決」

彼らは生産物のほとんどを捨てなければならなかったが、ゴミの中には金があった

データサイエンス

企業がOpenAIのChatGPTに類似した自社の大規模言語モデルを構築する方法

最近の数年間で、言語モデルは大きな注目を集め、自然言語処理、コンテンツ生成、仮想アシスタントなど、さまざまな分野を革...

データサイエンス

「RAGを紹介します データソースから自然言語を使用してRAGパイプラインを作成するStreamlitアプリ」

GPTはNLPタスクにおいて人工知能の分野で際立っています。ただし、GPTを使用して構築および展開されるパイプラインは長く複雑...

データサイエンス

GPTと人間の心理学

GPTと人間の心理学との類推を行うことで、私たちは生成型AIの出力を促進する方法を理解することができます