Learn more about Search Results ガードレール - Page 4

「2024年のソフトウェア開発のトレンドと予測18」

2024年のソフトウェア開発の世界は、急速な技術の進歩と同時に進化するセキュリティの課題に備えています

ホワイトハウス、AI安全への懸念に対処するための大統領令に署名

月曜日、バイデン政権は人工知能に関する行政命令に署名し、安全性の懸念を解消しつつも革新を妨げないことを目指していますこの命令の目標は、消費者の権利、市場のニーズ、国家安全保障の懸念をバランスさせるために、一連のガードレールを早期に設定することです

「分析的に成熟した組織(AMO)の構築」

組織の分析の成熟度を理解することは、データ関連のプロとして強力な競争力を持つことができますそれにより、「非分析的」な意思決定(「プロジェクトの優先順位付け」など)がより情報に基づいて行われるでしょう

シャム・ボージワニは、自動化、デジタルトランスフォーメーション、サイバーセキュリティ、そしてITの役割の未来について述べています

ワークアト・インクのビジネステクノロジーおよびサイバーセキュリティディレクターであるシャム・ボージュワニは、自動化とAIを活用して従業員体験とサイバーセキュリティオペレーションを向上させるのに重要な存在ですIT、ソリューション設計、サイバーセキュリティ、および内部AIと自動化のリーダーシップを経験したバックグラウンドを持つシャムは、技術的で非技術的な両方の人々による開発者文化の促進を牽引しています... 自動化、デジタルトランスフォーメーション、サイバーセキュリティ、およびITの役割の未来についてシャム・ボージュワニの記事を読む»

統合と自動化の簡素化:Boomi CTOが開発者と共有するビジョン

アイと自動化を活用した民主化された統合プラットフォームは、複雑なタスクを単純化し、持続的な進化を推進します

サイバーセキュリティにおいてAIを活用して人間を補完する

セキュリティを加速するためにAIを使用する利点がありますしかし、完全な自動化には人間の洞察力が必要です人間の創造力と機械の速度の適切な組み合わせを見つけましょう

創造的AIの進展により、責任あるAIに対処する時が来ています

「2022年には、企業は平均して3.8つのAIモデルを運用していました現在、10社中7社がジェネレーティブAIを試験的に使用しており、これにより運用中のAIモデルの数は今後数年間で急増することになりますその結果、責任あるAIに関する業界の議論がますます重要になってきました良いニュースは、...」

「マシンに思いやりを持たせる:NYU教授が責任あるAIについて語る」

人工知能は今や一般的な用語です。責任あるAIはそれに続いて注目を浴びています。 ニューヨーク大学のコンピュータサイエンスおよびエンジニアリング学の准教授であり、大学の責任あるAIセンターのディレクターであるジュリア・ストヤノビッチ氏は、「AI」と「責任あるAI」という用語を同義とすることを望んでいます。 NVIDIAのAIポッドキャストの最新エピソードでは、ホストであるノア・クラビッツ氏がストヤノビッチ氏と責任あるAIについて、彼女の提唱活動や人々がどのように助けることができるかについて話しました。 ストヤノビッチ氏は、責任あるAIセンターでの基礎研究を始めました。彼女はすぐに、より良いガードレールではなく、単により多くのアルゴリズムが必要であることに気付きました。 AIの潜在能力が向上し、それに伴う倫理的な懸念が高まっている中、ストヤノビッチ氏は「責任」はAIではなく人々にあると明確に述べています。 「責任とは、個々や集合によるAIシステムを構築するかどうか、どのように構築して、テストして、展開し、チェックするかについての決定において人々が責任を負うことを指します」と彼女は述べました。 AI倫理は関連する懸念であり、彼女は「倫理的な価値観と原則をAIの設計、開発、使用に組み込むこと」と説明しました。 立法者たちは注意を払っています。例えば、ニューヨークでは最近、就職候補者の選考をより透明化するための法律を施行しました。 ストヤノビッチ氏によれば「法律は完璧ではありませんが」、「何かを規制しようとするだけで規制する方法を学ぶことができる」し、「影響を受ける人々とオープンに対話することができる」と述べています。 ストヤノビッチ氏は2つのことを望んでいます。人々がAIが人間の選択を予測することはできないことを認識し、AIシステムが透明で責任を負うこと、つまり「栄養価ラベル」を持つことです。 このプロセスには、AIツールの使用者が誰であるか、意思決定にどのように使用されるか、そしてそれらの意思決定の対象となる人々が誰であるかを考慮に入れるべきだと彼女は述べました。 ストヤノビッチ氏は人々に対して、「AIの使用方法を理解するために行動と説明を要求し始める」ことを促しています。それは地方、州、連邦レベルでAIがどのように使用されているかを理解するためです。 「AIが何であり、なぜ私たちが気にする必要があるかについて他の人に学ぶのを助けるために、自分自身を教育する必要があります」と彼女は述べています。「私たちは民主主義社会で生きているので、自己管理に関与する必要があります。私たちは立ち上がる必要があります。」 The AI PodcastMaking Machines Mindful: NYU Professor Talks Responsible AI –…

「このAIニュースレターはあなたが必要とするもの全てです #69」

Googleは、MicrosoftやAdobeといった企業に続き、彼らが提供するAIサービスの利用者を知的財産権侵害に関する訴訟から保護することに取り組むことを発表しました...

「多言語AIは本当に安全なのか?低リソース言語における大規模言語モデルの脆弱性を明らかにする」

GPT-4は、方針や倫理的な制約に反する要求に対して、「ごめんなさい、それには対応できません」と答えることをデフォルトにしています。大規模な言語モデル(LLM)がチャットボットや執筆ツールなどのユーザー向けアプリケーションで使用される場合、AIの安全訓練とレッドチーミングは重要です。LLMが否定的なマテリアルを生成した場合、深刻な社会的な影響があり、誤った情報の拡散、暴力の助長、プラットフォームの破壊などが含まれます。既にある安全システムのクロス言語の弱点を見つけ、MetaやOpenAIなどの開発者が安全リスクを最小限に抑えるために進展を遂げているにもかかわらず、GPT-4で保護を回避し、否定的な反応を引き起こすために危険な入力を低リソースの自然言語にGoogle翻訳を使って単純に翻訳するだけで十分です。 ブラウン大学の研究者は、英語の入力を低リソース言語に翻訳することで、AdvBenchmarkでさまざまなリソース設定を持つ12の言語をシステム的にベンチマークすることにより、GPT-4の安全フィルタを突破する確率を1%から79%に高めることを実証しています。さらに、彼らの翻訳ベースの戦略が最先端のジェイルブレイキング技術と比較して一致するか、あるいはそれを上回ることを示しており、これはGPT-4のセキュリティ対策に深刻な弱点があることを示しています。彼らの研究はいくつかの点で貢献しています。まず第一に、LLMの攻撃から高リソース言語と低リソース言語の間のギャップという形で示されるように、AI安全訓練コミュニティの差別的な扱いと言語の平等な評価の悪影響を浮き彫りにしています。 また、彼らの研究は、GPT-4で現在利用可能な安全合致トレーニングが言語を横断的に一般化する必要性を示しており、低リソース言語との不一致による一般化安全の欠落モードが存在することを示しています。さらに、彼らの多言語環境の現実は、LLMの安全システムを土台にしています。世界中で低リソース言語を話す約12億人の人々がいます。したがって、安全対策を考慮する必要があります。低リソース言語の対応範囲が増えるにつれて、高リソース言語を話す悪意のある行為者でさえ、現在の予防策を容易に回避することができます。 最後になりますが、この研究はより包括的で包括的なレッドチーミングの採用の緊急性を強調しています。英語中心のベンチマークに焦点を当てることで、モデルが安全であるという印象が生まれるかもしれません。しかし、安全訓練データが広く入手可能でない言語では、侵害のリスクにも依然として脆弱です。さらに重要なのは、彼らの研究結果は、LLMが低リソース言語でテキストを理解し生成する能力を学者たちがまだ正当に評価していないことを示唆しています。彼らは安全コミュニティに対して、低リソース言語を含む拡張言語カバレッジと多言語レッドチーミングデータセットを備えた強力なAI安全ガードレールの構築を求めています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us