『ChatGPTや他のチャットボットの安全コントロールに研究者が問題点を指摘』

研究者がChatGPTや他のチャットボットの安全コントロールの問題点を指摘

カーネギーメロン大学のZico Kolter氏(右)とAndy Zou氏は、全ての主要なチャットボットプラットフォームの安全対策を回避する方法を見つけた研究者の一員でした。 ¶ クレジット:マルコ・ガルシア/ニューヨークタイムズ

人工知能の企業がChatGPT、Claude、Google Bardなどのオンラインチャットボットを構築する際、彼らはシステムがヘイトスピーチ、ディスインフォメーション、その他の有害な情報を生成しないようにするためのガードレールを数ヶ月かけて追加しています。

しかし、これらの安全対策システムに簡単に穴を開ける方法が存在するようになりました。

ピッツバーグのカーネギーメロン大学とサンフランシスコのA.I.セーフティセンターの研究者たちは、木曜日に発表されたレポートで、誰でもA.I.の安全対策を回避し、主要なチャットボットのいずれかを使ってほぼ無制限の量の有害情報を生成することができることを示しました。

彼らの研究は、新しいチャットボットが、作成者の努力にもかかわらず、偽情報や危険な情報でインターネットを氾濫させる可能性が増していることを強調しました。また、主要なA.I.企業間の意見の相違が、技術に対して予測不可能な環境を作り出していることも示しました。

ニューヨークタイムズより全文記事をご覧ください

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

モデルオプスとは何ですか?

モデルオプスは、使用中のモデルを管理および実行するための手順と機器の集合ですMLチームはDevOpsチームと協力し、各モデル...

人工知能

公共関係(PR)における10以上のAIツール(2023年)

ChatGPT  簡単に説明すると、ChatGPTは、AIによる会話型ユーザーインターフェースです。ユーザーからの入力を受け取り、分析...

データサイエンス

『nnU-Netの究極ガイド』

「画像セグメンテーションの主要なツールであるnnU-Netについて、詳細なガイドに深く入り込んでください最先端の結果を得るた...

AI研究

メタAIの研究者がスタイルテーラリングを紹介する:高い視覚的品質を持つ特定のドメインにおいて潜在的な拡散モデル(LDMs)を調整するためのテキストからステッカーのレシピ

GenAI、Metaの研究者チームは、ステッカー画像生成のための潜在拡散モデル(LDM)の微調整方法であるStyle Tailoringを紹介し...

データサイエンス

「正しい方法で新しいデータサイエンスのスキルを学ぶ」

「私たちは学習曲線を整然とした滑らかな上昇線と考える傾向がありますしかし、学習の旅をよく見ると、途中には数多くの下降...

データサイエンス

「ヒープデータ構造の紹介」

この記事では、ヒープデータ構造について理解し、許可される操作、実装方法、および使用方法について説明します