「従業員は職場でChatGPTを望む上司は秘密を漏らすことを心配している」

Employees want ChatGPT in the workplace, but bosses are worried about leaking secrets.

オープンエーアイのChatGPTなどの生成型AIツールは、労働の世界において画期的とされていますが、この技術はアメリカの企業にとって困難な課題をもたらしています。 ¶ クレジット: Elena Lacey/The Washington Post; iStock

オープンエーアイのChatGPTや他の生成型人工知能ツールの支持者は、これらが職場の生産性を向上させ、特定のタスクを自動化し、問題解決を支援できると主張していますが、一部の企業のリーダーは、機密情報や顧客情報の漏洩の懸念から、これらの使用を禁止しています。

これらのリーダーは、従業員がプロプライエタリな情報や機密データをチャットボットにアップロードする可能性があり、それがトレーニングに使用されるデータベースに追加されることで、ハッカーや競合他社がその情報をチャットボットに問い合わせることができると懸念しています。

オープンエーアイのウェブサイトに掲載された投稿によれば、プライベートモードを使用することで、ChatGPTのユーザーはプロンプトをトレーニングデータから除外することができます。

マサチューセッツ工科大学のユン・キムは、技術的には可能であるが、オープンエーアイが実施しているガードレールにより、ChatGPTはトレーニングデータとして機密プロンプトを使用することができないと述べています。

キムは、ChatGPTが学習するために必要な膨大な量のデータが、プロンプトとして入力されたプロプライエタリデータへのハッカーのアクセスを困難にするだろうと付け加えました。 ワシントンポストで全文を読むには、有料のサブスクリプションが必要です。

抄録の著作権は、2023年のSmithBucklin、ワシントンD.C.、アメリカに帰属します

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

「アソシエーテッド・プレスがジャーナリスト向けのAIガイドラインを発表」

人工知能(AI)の急速な進歩は、ジャーナリズムを含むさまざまな産業への統合の道を開いています。最近、アソシエーテッドプ...

AI研究

このUCLAのAI研究によると、大規模な言語モデル(例:GPT-3)は、様々なアナロジー問題に対してゼロショットの解決策を獲得するという新たな能力を獲得していることが示されています

類推的な推論は、人間の知性と創造力の基盤となるものです。未知の課題に直面した際、個人は順序立ててそれらをより理解しや...

機械学習

「LQ-LoRAに会ってください:効率的な言語モデルの微調整のための低ランク量子化行列分解を可能にするLoRAの派生版」

人工知能の急速な進化の時代において、大規模言語モデル(LLM)の導入は、機械と人間の相互作用のあり方を変革しました。最近...

AIテクノロジー

AIの台頭が犬食い犬のテック産業を牽引している

「テクノロジー業界が根本的な変革を遂げていることについては、私と同意していただけると思いますあなたもそれを見ることが...

人工知能

「OpenLLMの紹介:LLMのためのオープンソースライブラリ」

「大規模言語モデル(LLM)を本番環境で操作するためのユーザーフレンドリーなプラットフォームで、ファインチューニング、サ...