Learn more about Search Results メール - Page 52
- You may be interested
- スタンフォードの研究者たちはPLATOを発表...
- 「サプライチェーンにおける生成型AIの役割」
- 「もっとゲーム、もっと勝利:6ヶ月のGeFo...
- チャレンジを受け入れました:アニメータ...
- 「NVIDIAのAIが地球を気候変動から救う」
- デバイス上での条件付きテキストから画像...
- MatplotlibのチャートをHTMLページに埋め...
- Google AIとテルアビブ大学の研究者は、テ...
- 何が合成データとは?その種類、機械学習...
- 「医師がAIを活用して診療を変革する方法」
- 「エッセンシャルAI、シリーズAラウンドで...
- 「コイントスを毎回勝つ方法」
- 高度なPython:関数
- 「LLMとGUIの協力:チャットボットを超えて」
- 「フィーチャー/トレーニング/推論パイプ...
新たなディープ強化学習(DRL)フレームワークは、シミュレートされた環境で攻撃者に対応し、サイバー攻撃がエスカレートする前に95%をブロックすることができます
サイバーセキュリティの防御者は、技術の発展とシステムの複雑さのレベルが上昇するにつれて、自分たちの技術と戦術を動的に適応させる必要があります。過去10年間にわたる機械学習(ML)および人工知能(AI)の研究の進歩とともに、これらの技術のサイバーセキュリティに関連するさまざまな領域での利用事例も進化してきました。既存の多くのセキュリティアプリケーションでは、頑強な機械学習アルゴリズムによって支えられたいくつかの機能が、大規模なデータセットでトレーニングされています。そのような例の1つが、MLアルゴリズムを電子メールセキュリティゲートウェイに統合した2010年代初頭です。 実世界のシナリオでは、自律型のサイバーシステム防御戦略と行動の推奨事項を作成することは非常に困難です。なぜなら、このようなサイバーシステムの防御メカニズムに対する意思決定支援には、攻撃者と防御者の間のダイナミクスの組み込みとシステム状態の不確実性の動的特性化が必要だからです。さらに、サイバー防御者は、コスト、労力、時間などのさまざまなリソース制約に直面することが多いです。AIを使用しても、積極的な防御が可能なシステムの開発は理想的な目標のままです。 この問題に対する解決策を提供するため、米国エネルギー省太平洋北西国立研究所(PNNL)の研究者たちは、シミュレートされた環境で攻撃者に対応し、サイバー攻撃の95%をエスカレートさせる前に停止できる新しいDRL(深層強化学習)に基づくAIシステムを開発しました。研究者たちは、ネットワーク内で攻撃者と防御者の間で行われるマルチステージのデジタル紛争を示すカスタムのシミュレーション環境を作成しました。そして、報酬を最大化することに基づいて妥協を回避し、ネットワークの混乱を減らすことを目指した強化学習の原則を使用して、4つのDRLニューラルネットワークをトレーニングしました。このチームの研究成果は、また、ワシントンDCで開催された人工知能の進歩協会で発表され、多くの称賛を受けました。 このようなシステムを開発する際のチームの理念は、まずDRLアーキテクチャを成功裏にトレーニングできることを示すことでした。洗練された構造に取り組む前に、彼らは有用な評価メトリックを示したいと考えました。研究者たちが最初に行ったことは、Open AI Gymツールキットを使用して抽象的なシミュレーション環境を作成することでした。次に、この環境を使用して、MITRE ATT&CKフレームワークの15のアプローチと7つの戦術から選ばれたサブセットに基づいてスキルと持続性レベルを示す攻撃者エンティティを開発しました。攻撃者の目標は、初期アクセスと偵察フェーズから他の攻撃フェーズまでの7つの攻撃チェーンステップを進むことで、最終目標である影響と流出フェーズに到達することです。 重要なポイントとして、チームは環境内で攻撃を開始する敵をブロックするためのモデルを開発する意図はありませんでした。むしろ、システムが既に侵害されていると想定しています。その後、研究者たちは強化学習を使用して4つのニューラルネットワークをトレーニングしました。研究者たちは、強化学習を利用せずにこのようなモデルをトレーニングすることも可能ですが、良いメカニズムを開発するには長い時間がかかると述べています。一方、深層強化学習は、人間の行動の一部を模倣することで、この巨大な探索空間を非常に効率的に利用します。 研究者たちがシミュレートされた攻撃環境でAIシステムをトレーニングすることができることを実証するための努力により、AIモデルがリアルタイムで攻撃に対する防御反応が可能であることが示されました。研究者たちは、実際のマルチステージの攻撃シーケンスに対する4つのモデルフリーDRLアルゴリズムのパフォーマンスを厳密に評価するために、いくつかの実験を実施しました。彼らの研究は、異なるスキルと持続性レベルを持つマルチステージの攻撃プロファイルでDRLアルゴリズムをトレーニングできることを示し、シミュレートされた環境で効果的な防御結果を生み出すことを示しました。
このAIニュースレターは、あなたが必要とするすべてです #56
今週、オープンソースとクローズドモデルの両方で、LLMの世界にいくつかの新しい競合他社が登場しました印象的な機能を持つにもかかわらず、LLaMAモデルの最初のバージョンにはライセンスの問題がありました...
「Llama 2が登場しました – Hugging Faceで手に入れましょう」
はじめに Llama 2は、Metaが本日リリースした最新のオープンアクセスの大規模言語モデルのファミリーです。私たちはHugging Faceとの包括的な統合を完全にサポートすることで、このリリースを支援しています。Llama 2は非常に寛容なコミュニティライセンスでリリースされ、商業利用も可能です。コード、事前学習モデル、ファインチューニングモデルはすべて本日リリースされます🔥 私たちはMetaとの協力により、Hugging Faceエコシステムへのスムーズな統合を実現しています。Hubで12のオープンアクセスモデル(3つのベースモデルと3つのファインチューニングモデル、オリジナルのMetaチェックポイントを含む)を見つけることができます。リリースされる機能と統合の中には、以下のものがあります: モデルカードとライセンスを備えたHub上のモデル。 Transformersの統合 単一のGPUを使用してモデルの小さなバリアントをファインチューニングするための例 高速かつ効率的なプロダクションレディの推論のためのテキスト生成インファレンスとの統合 インファレンスエンドポイントとの統合 目次 Llama 2を選ぶ理由 デモ インファレンス Transformersを使用する場合 インファレンスエンドポイントを使用する場合 PEFTによるファインチューニング 追加リソース 結論 Llama 2を選ぶ理由…
「ポッドキャスティングのためのトップAIツール(2023年)」
ポディウム ポディウムと呼ばれるAIパワードの技術は、ポッドキャストのポストプロダクションを大幅に加速することを意図しています。この技術により、トランスクリプト、ハイライト、チャプター、エピソードの要約を迅速に作成することができます。 このアプリケーションは使いやすく、アカウントの作成は必要ありません。必要なのはオーディオファイルを提出するだけです。ポディウムのAIは迅速に引用可能な箇所を見つけ出し、チャプターやタイトルを作成し、エピソードの要約を提供します。これらは簡単にソーシャルメディアで共有することができます。 また、アクセシビリティと検索エンジン最適化のために優れたトランスクリプトも提供されます。このアプリケーションは最初は無料ですが、一度に多くのエピソードを扱う必要がある場合は、安価な使用料金または特別な価格設定に変更されます。 リスナー.fm リスナー.fmのAIツールは、AIを活用したショーノート、タイトル、および説明の作成を通じて、ポッドキャストのポストプロダクションを改善することを目的としています。オーディオ録音を提出すると、AIが各オーディオエピソードに合わせた魅力的で注意を引くタイトル、説明、およびショーノートを作成します。このアプリケーションは、人間の介入なしで興味深く教育的なコンテンツを簡単に作成することができます。 このAIツールにより、すべてのポッドキャスターはオーディオファイルを簡単に管理し、コンテンツを改善し、視聴者を増やすことができます。このツールは使いやすく効果的であり、迅速かつ高品質なポストプロダクションを保証します。プラットフォームでは透明な価格設定、新機能への早期アクセス、カスタマーサポート、簡単な価格オプションを提供しています。これはアマチュア、プロ、ポッドキャストネットワークにも適しています。 ショーノート AIパワードのショーノートは、各ポッドキャストエピソードを自動的に要約し、トランスクリプトとキャプションファイルを含むランディングページを生成します。chatGPTを使用してYouTubeの自動キャプションを変換し、魅力的な引用を生成し、トランスクリプトをブログ投稿に変換することができます。 ショーノートが提供する3つのオプションは、無料プラン、クリエータープラン、およびプロプランです。無料プランには1つのショーノート、要約されたトランスクリプト、ランディングページ、および一般に公開されているすべてのショーが含まれています。 クリエータープランには毎月2つのショーノート、要約されたトランスクリプト、ランディングページ、ショーを非公開にするオプション、ランディングページエディター、完全なトランスクリプト、umsとahsが含まれています。 プロプランには無制限のショーノート、要約されたトランスクリプト、ランディングページ、ショーを非公開にするオプション、ランディングページエディター、完全なトランスクリプト、umsとahs、キャプションファイルが含まれています。 キャストマジック キャストマジックと呼ばれるAIパワードの技術は、ポッドキャスターが時間を節約し、高品質のコンテンツを作成するのに役立ちます。これにより、トランスクリプト、ショーノート、要約、ハイライト、引用、ソーシャルメディアの投稿など、公開の準備が整ったテキストにオーディオを変換できます。骨の折れるポストプロダクションの作業を自動化し、ポッドキャスターが高品質のオーディオコンテンツの制作に集中できるようにします。また、ZoomとSlackと互換性があります。 キャストマジックは、Chrome、Safari、Firefox、Windows、Linux、およびmacOSと互換性のある使いやすいプログラムで、コーディングは必要ありません。また、ユーザーは無料のトライアル期間中にプラットフォームを試すことができます。キャストマジックを使用することで、ポッドキャスターは毎週20時間以上の時間を節約できるだけでなく、リスナーごとに個別化されたコンテンツを生成することができます。特定のユーザーにカスタマイズされたダイナミックなウェブサイト体験を提供することは、ポッドキャストの露出を向上させ、収益を最適化するのに役立ちます。 Mood AI 強力なMood AIジェネレーティブポッドキャストマーケティングキットの助けを借りて、ポッドキャスターは大規模な視聴者に自分のコンテンツを届けることができます。ポッドキャストエピソードに基づいて、ジェネレーティブAIを使用して包括的なトランスクリプト、要約、キーワード、簡単な説明、重要なトピック、タイトル、ブログ投稿、ソーシャルメディアの投稿、ビデオクリップなどを自動的に作成します。 迅速なコンテンツとマーケティング資材の生成、およびコンテンツの効果を追跡することで、ポッドキャスト制作者はより広い視聴者を引き付けるのが簡単になります。 Adobe Podcast Adobe Podcastは、AIの機能を備えたオンラインのオーディオ録音および編集ツールです。オーディオの作成を簡素化するために、テキストへのオーディオ変換、ノイズリダクションなど、さまざまな機能を提供しています。ユーザーは、このプラットフォーム上で簡単かつ効果的にオーディオコンテンツを制作、編集、配布することができます。AIパワードのツールにより、Adobe…
GenAIOps:MLOpsフレームワークの進化
「2019年には、私はLinkedInのブログを公開しましたタイトルは『成功するためになぜML Opsが必要か』でした今日になって、分析、機械学習(ML)、人工知能(AI)を運用化することが求められています...」
150以上のミッドジャーニーロゴのプロンプト
「Midjourneyのような生成AIツールを使って、ビジネスのために美しいロゴを作成することができます」
「人間と高度な人工知能の間で倫理的な相互作用を育む」
AI技術の急速な進歩は、人間と機械の相互作用の景観を再定義していますAIシステムがますます自律化し洗練される中、相互の尊重、共存、理解を促進する環境を育むことが重要ですこの変革の中心には、思いやりが必要です-これは人間の基本的な特徴であり、...
「イーロン・マスクのxAIはTwitterのフィードでトレーニングされました」
テスラやSpaceXなどの企業を展開するビジョナリーであるイーロン・マスクは、人工知能(AI)の領域に再び目を向けています。彼の最新のベンチャーであるxAIは、ツイートの広範なリポジトリを活用してアルゴリズムを訓練することを目指しています。最近のTwitter Spacesの音声チャットで、マスクは好奇心旺盛で真実を追求するAIの構築をビジョンとし、データプライバシーや法的な問題についての疑問を投げかけました。本記事では、マスクの野心的なプロジェクトとAIの景色への潜在的な影響について探っています。 また読む:イーロン・マスク、中国における超知能の台頭に警鐘を鳴らす xAI:イーロン・マスクの新しいAI企業 イーロン・マスクのxAIの発表は、テクノロジー界に波紋を広げました。テスラとTwitterのCEOであるマスクは、AIの力を「宇宙を理解する」ために活用する意図を持っています。画期的なイノベーションの実績を持つ彼の最新のベンチャーは、テクノロジー愛好家やAI懐疑論者の注目を集めています。 また読む:イーロン・マスクのxAIがOpenAIのChatGPTと対決 ツイートを使ったAIのトレーニング:物議を醸す動き xAIのトレーニングデータについてのマスクの開示は、プライバシー擁護派やTwitterユーザーの間で懸念を引き起こしました。同社は公開ツイートをアルゴリズムのデータセットとして使用する予定です。公開ツイートは技術的には誰でもアクセスできるものですが、ユーザー生成コンテンツをAIのトレーニングに利用する倫理的な問題が浮上します。 また読む:すべてのオンライン投稿はAIの所有物になる、Googleが発表 AIの好奇心と真実性 xAIの開発の重要な側面の1つは、マスクが「最大限の好奇心と最大限の真実性」を持つAIを作り出すという欲望です。この野心的な目標は、AIの能力の限界を em>超え、単なるツールではなく、知識を追求し、正確性を保ちながら意識的で倫理的な存在にすることを目指しています。 また読む:イーロン・マスクが真実を追求するAI「TruthGPT」を発表 テスラとの連携:シナジスティックなアプローチ イーロン・マスクは、xAIがテスラを含む他のベンチャーと協力して動作することを想像しています。この連携は、AI技術の進歩とテスラのソフトウェアおよび自動運転システムへのAIの統合の可能性を持っています。ただし、データ使用の重複や明確な境界の必要性についても懸念が生じます。 また読む:Sanctuary AIのPhoenix Robotとテスラの最新製品Optimusとの出会い! AI企業が直面する法的な課題 データ使用に関する法的な課題については、AI業界はよく知っています。出版社は、適切な権限なしにニュース記事や他の知的財産をAI企業が使用することに対して、ますます反対しています。デイリーメールのオーナーとGoogleの間の迫り来る法的闘争は、AIデータトレーニングの論争の性質を物語っています。 また読む:Barry Diller対生成AI:著作権の法的闘争 トレーニングプロセス:AIに意思決定をさせる AIの開発の核心は、アルゴリズムがデータを解釈し、最終的に情報を持った意思決定を行う方法を学習するトレーニングプロセスです。xAIがTwitterの広範なデータセットから学習する可能性は、より洗練されたAIシステムへの道を開くかもしれませんが、データプライバシーやユーザーの同意に関する検証を招きます。…
「xTuringに会ってください:たった3行のコードで自分自身の大規模言語モデル(LLM)を作成できるオープンソースツール」
特定のアプリケーションのための大規模な言語モデル(LLM)の実用的な実装は、現在のところ、ほとんどの個人にとって困難です。特定のドメイン向けに高い精度と速度でコンテンツを生成したり、作文スタイルを模倣したりするためには、時間と専門知識が必要です。 Stochasticは、LLMの最適化と高速化に特化した明るいMLエンジニア、ポストドク、およびハーバード大学の卒業生のチームを持っています。彼らはxTuringというオープンソースのソリューションを紹介しており、ユーザーはたった3行のコードで独自のLLMを作成することができます。 自動テキストデリバリー、チャットボット、言語翻訳、コンテンツ制作などのアプリケーションは、これらの概念を活用して新しいアプリケーションを開発・作成しようとする人々の関心の対象です。これらのモデルをトレーニングや微調整することは、時間と費用がかかることがありますが、xTuringを使用すると、LLaMA、GPT-J、GPT-2、または他の手法を使用して、モデルの最適化を簡単かつ迅速に行うことができます。 xTuringの単一GPUまたはマルチGPUトレーニングフレームワークとしての汎用性により、ユーザーは特定のハードウェア構成にモデルを合わせることができます。メモリ効率の高い微調整手法(LoRAなど)をxTuringは使用しており、学習プロセスを高速化し、ハードウェアの費用を最大90%削減します。メモリの使用量を減らすことにより、LoRAはより迅速かつ効果的なモデルトレーニングを容易にします。 xTuringの微調整能力を評価するために、LLaMA 7Bモデルがベンチマークとして使用され、xTuringを他の微調整手法と比較したチームがあります。データセットは52Kの命令で構成され、335GBのCPUメモリと4つのA100 GPUが使用されました。 結果は、DeepSpeed + CPUオフロードを使用して、LLaMA 7Bモデルを1エポックあたり21時間トレーニングした場合、GPUの使用量は33.5GB、CPUの使用量は190GBでした。一方、LoRA + DeepSpeedまたはLoRA + DeepSpeed + CPUオフロードを使用して微調整する場合、メモリ使用量はそれぞれ23.7GBと21.9GBに劇的に減少しました。CPUによって使用されるRAMの量は14.9GBから10.2GBに減少しました。さらに、LoRA + DeepSpeedまたはLoRA + DeepSpeed + CPUオフロードを使用すると、トレーニング時間は1エポックあたり40分から20分に短縮されました。 xTuringを始めるのは簡単です。ツールのユーザーインターフェースは直感的に学習し使用できるように設計されています。ユーザーはマウスクリック数回でモデルを微調整し、xTuringが残りの作業を行います。使いやすさから、xTuringはLLMに初めて取り組む人や経験豊富な人にとっても優れた選択肢です。…
「ブログのための5つのAIツール(成功を加速させる)」
AIツールを使わずにブログを始めるのは愚か者だけだそれらは作業を10倍簡単で迅速にする
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.