ハッカーは、主要なセキュリティテストでAIを悪用する方法を探索しています
Hackers exploring ways to exploit AI in major security tests.

DEFCONカンファレンスのAIビレッジに参加した約2,500人のハッカーは、先週末、最も人気のある大規模な言語モデルを綿密に調査しました。
AIビレッジのGenerative Red Team Challengeは、新しいイノベーションが登場する中でセキュリティを最前線に置くことに常に苦労してきた広範な技術産業にとって、画期的な瞬間と見なされました。
Scale AIのエンジニアリング部門責任者であるRussell Kaplan氏は、週末のイベント後、LLMのテスト、評価、およびレッドチームの需要が「10倍」に増えると述べています。
このチャレンジは、ホワイトハウスといくつかの主要な生成型AI開発者に支持され、参加者の中には1時間待ちの人もいました。AIビレッジの活動は、サイバーセキュリティ業界と政策世界の両方に大きな影響を与えると予想されています。
Axiosから全文記事を読む
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles