Learn more about Search Results A - Page 337

FraudGPT AIを活用したサイバー犯罪ツールの驚異的な台頭

インターネットの暗く不気味な一角で、サイバー犯罪者たちは再び人工知能の力を利用して悪意ある目的を追求しています。悪名高いWormGPTに続いて、新たなプレイヤーが登場しました。その名はFraudGPTです。この悪質なAIツールは攻撃目的で特別に設計されており、脅威行為者が巧妙なサイバー犯罪を組織することを可能にします。スピアフィッシングから検出不可能なマルウェアの作成まで、さまざまな高度なサイバー犯罪を行うことができます。サイバーセキュリティの世界はさらなる挑戦に備えながら、FraudGPTの世界とオンラインセキュリティへの潜在的な影響を探ってみましょう。 Also Read: AIを利用して身内をなりすます犯罪者たち 恐れよ、FraudGPTの台頭: ダークウェブのセンセーション サイバーセキュリティコミュニティがWormGPTの影響から回復しようとしていたとき、FraudGPTが最新のサイバー犯罪生成AIツールとして現れました。この新たなAIの脅威について警鐘を鳴らしたのは、Netenrichのセキュリティ研究者であるラケーシュ・クリシュナン氏です。FraudGPTはダークウェブのマーケットプレイスや秘密のテレグラムチャンネルで入手でき、悪質な攻撃能力を提供しています。 Also Read: サイバー犯罪者がメールセキュリティを侵害するためにWormGPTを使用 FraudGPTの背後にいるアクター 匿名の不気味なカーテンの後ろで、オンラインの別名「CanadianKingpin」と名乗る謎のアクターがFraudGPTの開発を手掛けていると主張しています。このAIボットはサイバー犯罪者にのみ対応し、彼らの悪意ある意図に合わせたさまざまなツールと機能を提供しています。スピアフィッシングのメールからクラッキングツールやカーディングまで、FraudGPTは間違った手に渡ると強力な武器となります。 サブスクリプションとコスト サイバー犯罪の裏世界は善意によって動いているわけではありません。利益で動いています。FraudGPTも例外ではありません。月額200ドルでサブスクリプションが利用可能であり、6か月と1年のサブスクリプションには割引が適用されます(それぞれ1,000ドルと1,700ドル)。この有料モデルにより、その能力を利用しようとする人々によりアクセスしやすくなっています。 脅威の解明 FraudGPTの開発に責任を持つ正確な大規模言語モデル(LLM)は謎のままです。しかし、その影響は決して隠されているものではありません。3,000件以上の確認された販売とレビューからもわかるように、サイバー犯罪者たちはその力を悪意ある目的に利用するための創造的な方法を見つけています。検出不可能な悪意のあるコードの作成から漏洩や脆弱性の特定まで、FraudGPTはサイバーセキュリティに対する深刻な脅威です。 Also Read: PoisonGPT: Hugging Face LLMがフェイクニュースを広める サイバー犯罪活動へのAIの悪用 サイバー犯罪者たちはOpenAI…

「LangChainを使用したLLMアプリケーションのためのプロンプトエンジニアリングのマスタリング」

イントロダクション デジタル時代において、言語ベースのアプリケーションは、チャットボットや仮想アシスタントなどのさまざまなツールの動力として私たちの生活で重要な役割を果たしています。LangChainは、最先端のLLMパワードアプリケーションの作成を革新したオープンソースのPythonフレームワークであり、LLMアプリケーションのプロンプトエンジニアリングをマスターするための学習ツールです。このガイドは、LangChainを使用して動的でコンテキストに対応した言語アプリケーションを作成するための知識とツールを読者に提供することを目的としています。プロンプトの管理、追加のLLMおよび外部データの活用、高度な言語アプリケーションのためのチェイニングのマスタリングなどについて探求します。開発者でもAI愛好家でも、このガイドはLangChainを使って言語の力を解き放ち、LLMアプリケーションのアイデアを現実にするのに役立ちます。 学習目標 LangChainおよびそのアプリケーションの基本を理解する。 LLMパワードアプリケーションを向上させるための効果的なプロンプトエンジニアリング技術を学ぶ。 インテリジェントでコンテキストに対応した言語アプリケーションを作成するためのチェイニングの技術を修得する。 ガイド全体で得た知識を応用して、LangChainを使用して実世界の言語アプリケーションを作成する。 プロンプトエンジニアリングおよびLLMアプリケーションの最新の進歩と開発について常に最新情報を得る。 この記事は、データサイエンスブログマラソンの一環として公開されました。 大規模言語モデル(LLM)とは何ですか? 大規模言語モデルは、膨大な量のデータで訓練された深層学習アーキテクチャに基づく堅牢なAIシステムです。これらのモデルは、複雑な言語パターン、ニュアンス、および文脈を理解することができ、言語翻訳、テキスト生成、要約などの分野で優れた性能を発揮します。代表的なLLMの例としては、OpenAIのGPT(Generative Pre-trained Transformer)モデルがあります。 LangChainとは何ですか? LangChainは包括的なオープンソースプラットフォームであり、大規模言語モデル(LLM)によるアプリケーションの構築を簡素化するためのツール、コンポーネント、およびインターフェースを提供しています。このプラットフォームの主な目標は、開発者がゼロから始めることなく言語処理能力をアプリケーションにシームレスに統合できるようにすることです。LangChainは、LLMとの対話を管理し、さまざまなコンポーネントをシームレスにリンクし、APIやデータベースなどのリソースを組み込むためのユーザーフレンドリーで効率的なアプローチを提供します。 LangChainの応用 LangChainは、大規模言語モデル(LLM)によってパワードされるアプリケーションの開発を容易にするために設計されたオープンソースのフレームワークであり、自然言語処理(NLP)など、さまざまな領域で多くの応用可能性を提供します。以下に、LangChainの重要な応用例をいくつか示します。 チャットボットと仮想アシスタント:LangChainを使用することで、開発者はユーザーとの自然言語対話を行うインテリジェントなチャットボットや仮想アシスタントを作成することができます。これらのチャットボットは、さまざまなタスクをサポートし、質問に回答したり、カスタマーサポートを提供したり、個別の推奨事項を提供したりすることができます。 言語翻訳ユーティリティ:LangChainを使用することで、開発者は異なる言語間での円滑なコミュニケーションを可能にする言語翻訳ツールを構築することができます。ユーザーは一つの言語でテキストを入力し、アプリケーションは希望する目標言語で正確な翻訳を生成することができます。 感情分析ツール:LangChainを使用して、テキストで表現される感情や意見を評価する感情分析アプリケーションを開発することができます。企業はこのようなツールを利用して顧客のフィードバックを理解し、ソーシャルメディアの感情を分析し、ブランドの評判を監視することができます。 テキスト要約:開発者はLangChainを活用して、長いテキストの簡潔な要約を自動的に生成するテキスト要約アプリケーションを作成することができます。これらの要約ツールは、大量のテキストから重要な情報を素早く抽出するために役立ちます。 コンテンツ生成:LangChainを使用することで、指定されたプロンプトに基づいて創造的で一貫性のあるテキストを生成するコンテンツ生成アプリケーションを開発することができます。これはコンテンツマーケティング、クリエイティブライティング、パーソナライズドメッセージの生成などに役立ちます。 LangChainとOpenAIのPythonでのセットアップ pipを使用してインストール…

「AIがウクライナの戦場に参戦を望む!」

最近、ウクライナはAI企業のゴールドマインとなっています。世界のテック企業がウクライナに押し寄せ、革新的な人工知能(AI)や機械学習を実現するために貴重な戦場データにアクセスしようとしています。戦争で荒廃した風景で知られるウクライナは、将来の防衛技術の開発にこの入手困難なデータを活用しようとする最先端企業のためのホットスポットとなりました。戦争におけるAIの優位性を争う中で、ドラゴンフライやパランティアなどの企業がウクライナの独自の提供物をどのように活用しているのか、そしてそれが現代戦争の未来にどのような意味を持つのか、探ってみましょう。 また読む:元Google CEOがAIとメタバースで米軍を強化する ウクライナのAIとデータの重要性の上昇 当初はテクノロジー企業に開かれていたウクライナは、戦場データの重要性を認識するようになりました。AIシステムは高品質なトレーニングデータに大きく依存しており、ウクライナの戦争によって生成された情報は貴重なものとなっています。地元企業やグローバル企業は、この豊富なデータの恩恵を受けるために、AI技術の向上にその潜在能力を見ています。 ドラゴンフライのウクライナのデータゴールドマインへの進出 ドラゴンフライは、先進的なAI技術に取り組んできたリーディングドローン企業です。ウクライナへの進出は、継続的な紛争によって生成されたデータにアクセスするための戦略的な動きです。軍事任務に特化したドローンを供給することで、ドラゴンフライは高価値なデータインサイトにアクセスし、高度なAIシステムの開発に不可欠な情報を得ることができます。 また読む:ドローンにおける人工知能の力 パランティアのウクライナへの戦略的な存在 パランティアは、著名なデータ分析企業であり、ウクライナのテック巨人の一員となっています。キエフにオフィスを設立することで、パランティアはウクライナの戦場データの潜在能力を活用しようとしています。このユニークなデータの魅力は、パランティアにAI能力を向上させ、防衛セクターでの地位を確固たるものにする機会を提供しています。 また読む:軍事意思決定のための人工知能プラットフォームをパランティアが発表 AIの未来の戦争における重要な役割 AIの重要な役割が将来の戦争で世界的に認識されていることは、米国国防総省がAIプロジェクトに莫大な資金を投入していることからも明らかです。AIは意思決定支援システムを強化し、さまざまなドメイン間でシームレスな情報フローを作り出すために活用される予定です。これを実現するためには、高品質なデータが必要であり、ウクライナの紛争は理想的なテスト場となります。 また読む:戦場の変革:AIが軍事戦術を駆動する方法 AIトレーニングにおける現実のシナリオの活用 ウクライナの戦場データを利用する大きな利点の一つは、現実のシナリオを提供することです。企業は争われている環境でAIシステムをテストし、トレーニングすることができ、その限界や能力について貴重な洞察を得ることができます。このデータは制御された環境よりも価値があり、次世代のAI技術を洗練させるのに役立ちます。 また読む:AI制御の米軍ドローンの驚くべき決断:オペレーターを「殺す」 ウクライナ:グローバルテック企業のテスト場 ウクライナは、ClearviewやAeroDroneなどの企業の関心を惹きつけ、さまざまなテック企業のテスト場として浮上しています。戦場は、部隊の管理やスマートな自動化ソリューションの開発を分析するためのユニークな機会を提供しています。ミッション中に収集された膨大な量のデータは、さまざまな産業や紛争においてドローンを再利用するための重要な情報源となります。 また読む:Red Cat&Athena AIが夜間視認能力を持つインテリジェントな軍事ドローンを製造 米国対中国:AIの覇権争い 米国と中国がAIの覇権を争う中、ペンタゴンの調達プロセスの遅さが技術的優位性の維持に課題を投げかけています。中国のAIとデータへの大規模な投資が米国の不利に働いています。ペンタゴンの努力によってAIの採用とデータ管理が効率化されることは、AI競争で先を行くために不可欠です。…

「イギリスの全ての人に無料のAIトレーニングを提供しています」

「ジョニー・コットムは、一人でスタートアップを運営する際に必要なジャグリングの技術を知っています昨年、エコフレンドリーな水筒ブランドであるBreakBottleを立ち上げて以来、彼は投資家と話し合い、小売業者にプレゼンテーションを行い、デジタルマーケティングキャンペーンを運営する責任を一身に引き受けてきました今日、ジョニーはさまざまなAIツールを利用して、最も時間のかかる作業を効率的に管理し、クリエイティブな共同作業者としての役割を果たしていますソーシャルコピーの初稿の作成から販売戦略の策定、新しいアイデアのブレストまで、AIの活用によりジョニーは1人以上の力を持つことができ、ビジネスの成長に役立てるために自分の時間をより良く使うことができると述べています BreakBottleのような企業だけでなく、AIの信じられないほどの潜在能力による恩恵を受けることができるのは、あらゆる規模の企業や英国全体ですPublic Firstによってまとめられた最近の英国経済影響レポートは、AIパワードのイノベーションが2030年までに英国経済に対して4000億ポンド以上の経済価値を創出する可能性を示しています AIパワードの成長は、誰にとっても持続可能性がある場合になりますレポートはまた、英国における技術的なスキルの深刻な不足を指摘しましたこの問題が解決されない限り、AIやその他の技術的な専門知識への需要が急増する中で、均等な全国的な成長に対する頑固な障壁となり続けるでしょう Googleでは、健全な経済を持つためには、誰もが参加する機会を持つ必要があると長年感じてきましたそれがなぜ、私たちは長年にわたりデジタルスキルトレーニングに集中し、2015年以来、英国全土の500以上の場所で100万人以上の英国人に無料のトレーニングを提供してきたのです 全員に無料のAIトレーニング 今日、私たちはデジタルスキルトレーニングを拡大し、英国のすべての人々に新しいAIトレーニングを提供しますAIに特化した新しい基礎トレーニングシリーズは、人々や企業がAIの恩恵を受けるための実践的なスキルと知識を提供しますそれが時間の節約、新しい仕事の獲得、またはビジネスの成長であってもAIを活用する方法についての明確な理解を得ることができますGoogleの専門家が設計した10の簡単なモジュールには、実践的なアドバイスやヒントが満載で、本日2つのモジュールが公開されます AIによる生産性の向上:AIツールが時間を節約するための最もスマートな方法の紹介です学習者は、AIの利点や日常の製品でAIがどのように役立っているか、大規模な言語モデルが何を行えるのか、アイデアのブレストからコードの作成、または管理業務の負担軽減まで、AIを活用するための具体的な理解を得ることができます 機械学習の理解:小規模なビジネスリーダーやVoAGIサイズのビジネスリーダーを対象としたこのコースは、効率の改善、コストの削減、成長の推進に対する機械学習の可能性を教えてくれますさまざまな機械学習モデルの適用方法、投資のタイミングや方法、機械学習プロジェクトのためのデータとリソースの準備方法についてカバーしています英国の小規模なビジネスやVoAGIサイズのビジネスが機械学習ツールを使用しているのはわずか2%に過ぎないという、新しいデータによると、私たちは大きな潜在能力を見ています GoogleのSVP兼CFOであるルース・ポラット氏が主催するGoogle Digital Garageのイベントで最初にトレーニングを受けた85人の熱心な学習者の反応を見たことは誇りに思いますそして、今後数週間で次の8つのモジュールをリリースすることに興奮していますこれらのモジュールでは、データの使用方法、クラウドコンピューティング、サイバーセキュリティ、デジタルワールドにおけるリーダーシップなどのトピックをカバーしますこれらは、AIを活用したビジネスを運営するために必要なスキルと専門知識です 英国のAIリーダーシップをサポートするためのパートナーシップ 英国には持続可能で包括的な技術主導の成長の素晴らしい機会がありますこれを達成するためには、集団の努力が必要です そのため、この新しいAIトレーニングと並行して、私たちは新しいナショナルスキルサービスの創設を呼びかけていますこれは、英国のデジタルスキルギャップを埋め、人々を将来の機会に備えるための生涯学習を特定し、提供し、認定するものです 一方、Googleでは、BreakBottleのような人々や企業にデジタルツールとスキルを提供し、エコシステムと連携して、誰もが利益を受けるAIパワードの未来を構築するために、引き続き努力を重ねていきます」

「LLMsとHugging Faceを使用して独自の翻訳ツールを作成しましょう」

イントロダクション 言語の壁はグローバルなコミュニケーションを妨げることがありますが、AIと自然言語処理は解決策を提供します。広範なテキストデータでトレーニングされた言語モデル(LLM)は、深い言語理解を持ち、異なる言語を話す人々の間でシームレスな翻訳を可能にします。LLMは従来のルールベースの方法を超え、精度と品質を向上させます。この記事では、LLMと著名な自然言語処理プラットフォームであるHugging Faceを使用して翻訳システムを構築する方法を説明します。 ライブラリのインストールから使いやすいウェブアプリまで、翻訳システムの作成方法を学びます。LLMを取り入れることで、相互につながった世界で効果的なクロスリンガルコミュニケーションの無限の可能性が開かれます。 学習目標 この記事の終わりまでに、以下のことができるようになります: Hugging Face transformersとOpenAI Modelsをインポートしてタスクを実行する方法を理解する。 ユーザーのニーズに合わせて、任意の言語で翻訳システムを構築し、調整することができる。 この記事は、データサイエンスブロガソンの一環として公開されました。 翻訳ツールとその重要性の理解 翻訳ツールは、意味と文脈を保持しながら、テキストを一つの言語から別の言語に変換するツールやシステムです。これらは、異なる言語を話す人々の間のギャップを埋め、グローバルなスケールで効果的なコミュニケーションを可能にします。 翻訳ツールの重要性は、ビジネス、旅行、教育、外交などの様々な領域で明らかです。文書、ウェブサイト、会話の翻訳など、翻訳ツールは文化的な交流を促進し、相互理解を育んでいます。 私は最近、自分の言語が理解できず、相手の言語も理解されないツアーに参加した際に同じ問題に直面しましたが、最終的にはGoogle翻訳でなんとかなりました(笑) OpenAIとHugging Faceの概要 OpenAIについては説明は不要ですが、人工知能に焦点を当てた研究グループとしてよく知られています。彼らはGPTシリーズや言語モデルAPIなどの言語モデルを作成しました。これらのモデルは、翻訳やその他のNLPの仕事のやり方を変えました。 Hugging Faceという別のプラットフォームもあり、さまざまなNLPモデルやツールを提供しています。翻訳などの作業には、事前学習済みモデル、ファインチューニングオプション、シンプルなパイプラインなどを提供しています。Hugging Faceは、NLPの開発者や研究者にとって頼りになる情報源として台頭しています。 翻訳にLLMを使用する利点 OpenAIのGPTやHugging…

メディアでのアルコール摂取の検出:CLIPのゼロショット学習とABIDLA2ディープラーニングの画像解析のパワーを評価する

アルコールは、広範な健康上の懸念事項であり、5.1%のグローバルな疾病負荷を占め、個人や経済に重大な負の影響を与えています。ソーシャルメディアから映画、広告、人気のある音楽まで、アルコール暴露はいたるところにあります。研究者は、アルコール関連のソーシャルメディア投稿への暴露と特に若者の間でのアルコール使用との関連性を示唆しています。研究者たちは、アルコール暴露を測定し分析するための革新的な手法を探求しています。アルコール飲料の画像からの識別に関して、Alcoholic Beverage Identification Deep Learning Algorithm (ABIDLA) のような教師あり深層学習モデルは有望でありますが、トレーニングには大量の手動注釈付きデータが必要です。 これに対するもう一つのアプローチは、Zero-Shot Learning (ZSL) を利用したContrastive Language-Image Pretraining (CLIP)モデルです。研究者たちは、ZSLモデルのパフォーマンスを、画像中のアルコール飲料を特定するために特別にトレーニングされた深層学習アルゴリズム(ABIDLA2)と比較しました。評価のために研究者によって使用されたテストデータセットは、ABIDLA2の論文で使用されているABD22で、8つの飲料カテゴリを含んでいます。評価のために各クラスごとに1762のテストセットがあり、均一な分布を維持しています。評価には、加重平均再現率(UAR)、F1スコア、クラスごとの再現率などのパフォーマンスメトリックが計算され、ABIDLA2とZSLの名前付きおよび記述的なフレーズの両方について比較されました。 研究者たちは、ZSLがいくつかのタスクでうまく機能する一方で、細かい分類には支援が必要であることがわかりました。ABIDLA2モデルは、特定の飲料カテゴリの識別においてZSLを上回りました。しかし、記述的なフレーズ(例:「これはビール瓶を持っている人の写真です」)を使用したZSLは、特定の飲料をより広範な飲料カテゴリ(ビール、ワイン、スピリッツ、その他、つまりタスク2)に分類する際には、ABIDLA2とほぼ同等のパフォーマンスを発揮し、アルコール含有量の有無を分類する際にはABIDLA2を上回りました。 彼らは、フレーズエンジニアリングがZSLのパフォーマンス向上に重要であること、特に「その他」クラスにおいては不可欠であることを特定しました。 この研究の主な強みの一つは、ZSLが追加のトレーニングデータと計算リソースを最小限に抑え、教師あり学習アルゴリズムと比較してコンピュータサイエンスの専門知識を少なく必要とすることです。特に2値分類が必要な場合、画像中のアルコール含有物を正確に特定するという研究の質問に対して、ZSLは正確に対応することができます。この研究の結果は、将来の研究が実際のデータセットにおいて、異なる人口や文化の画像を含む教師あり学習モデルの一般化能力をZSLと比較することを奨励しています。

このAI論文では、「ステーブルシグネチャ:画像透かしと潜在的な拡散モデルを組み合わせたアクティブ戦略」が紹介されています

生成モデリングと自然言語処理の最近の進歩により、DALL’E 2やStable Diffusionなどのツールを使用して、写真のようなリアルなイメージの作成と操作が容易になりました。しかし、この生成AIの進歩により、写真のリアルな視覚表現への信頼の浸食について新たな懸念が生じています。 フォレンジック、つまりコンピューター生成または修正された写真を識別するための目立たない技術は、良い出発点です。ただし、既存の透かし技術は画像生成プロセスの上に重ねられることがあります。これらは、画像に見えない秘密のメッセージを埋め込み、その後、その信憑性を検証するために使用できるという原則に基づいて動作します。これにはいくつかの問題があります: 生成後の透かしは、モデルの漏洩やオープンソース化の場合に簡単に削除できます。 Stable Diffusionという別のオープンソースプロジェクトからも、わずか1行のコードをコメントアウトするだけで透かしが削除できます。 Meta AI、Centre Inria de l’Universite de Rennes’、Sorbonne Universityによる最新の研究では、シグネチャ技術を使用して透かしを生成プロセスにシームレスに組み込み、基盤となるアーキテクチャを変更することなく、生成モデルを修正して、すべての生成された画像が指定された透かしを成功裏にマスクするようにします。 この方法には多くの利点があります: ジェネレータとその出力の両方が保護されます。また、作成された画像の追加処理は不要なため、透かしを計算的に軽量化し、簡素化し、より安全なものにします。 モデルプロバイダは、異なる透かしを持つ複数のユーザーグループにモデルを配布し、その使用が倫理的であるかどうかを確認することができます。 さらに、メディア機関はAIを使用して、画像がコンピューター生成されたものであるかどうかを識別することができます。 チームは、その汎用性のために、潜在的な拡散モデル(LDM)を使用しました。この研究は、わずかな生成モデルの微調整だけで、生成されたすべての画像に透かしをネイティブに埋め込むことが可能であることを示しています。Stable Signatureは拡散プロセスを変更することなく、さまざまな種類のLDMベースの生成技術と連携します。微調整プロセスでは、透かし抽出器の知覚画像損失と隠れたメッセージ損失を使用して、LDMデコーダを再トレーニングします。透かし抽出器を準備するために、彼らは事前トレーニングのためのディープウォーターマーキング技術HiDDeNの簡略化バージョンを使用します。 研究者たちはまた、画像編集アプリケーションの評価のための現実的なテストベッドも構築しました。AI画像検出とモデルの系統追跡など、さまざまなタスクがあります。たとえば、モデルによって生成された画像が元のサイズの10%に切り取られても、研究者は106枚の写真に1つの誤検出のみで90%を検出することができました。彼らは、生成のFIDスコアに影響を与えず、生成された画像がさまざまなLDM関連のタスク(テキストから画像、インペインティング、編集など)において元のモデルによって生成された画像と知覚的に同一であることを示し、モデルの持続的な有用性を確保します。 この研究により、透かしのパッシブな検出技術に対する利点が示されました。研究者は、モデルを一般に公開する前に、他の研究者や専門家に同様の手法を取るように刺激を与えることを望んでいます。

Macでの安定したDiffusion XLと高度なCore ML量子化

Stable Diffusion XLは昨日リリースされ、素晴らしいです。大きな(1024×1024)高品質の画像を生成することができます。新しいトリックにより、プロンプトへの適合性が向上しました。最新のノイズスケジューラの研究により、非常に暗いまたは非常に明るい画像を簡単に生成することができます。さらに、オープンソースです! 一方、モデルはより大きくなり、したがって一般的なハードウェアでの実行が遅くなり、困難になりました。Hugging Faceのdiffusersライブラリの最新リリースを使用すると、16 GBのGPU RAMでCUDAハードウェア上でStable Diffusion XLを実行できるため、Colabの無料層で使用することができます。 過去数か月間、人々がさまざまな理由でローカルでMLモデルを実行することに非常に興味を持っていることが明確になってきました。これにはプライバシー、利便性、簡単な実験、または利用料金がかからないことなどが含まれます。AppleとHugging Faceの両方でこの領域を探索するために、私たちは一生懸命取り組んできました。私たちはApple SiliconでStable Diffusionを実行する方法を示したり、Core MLの最新の進化を利用してサイズとパフォーマンスを改善するための6ビットのパレット化を紹介したりしました。 Stable Diffusion XLでは、次のようなことを行いました: ベースモデルをCore MLにポートし、ネイティブのSwiftアプリで使用できるようにしました。 Appleの変換および推論リポジトリを更新し、興味のあるファインチューニングを含むモデルを自分で変換できるようにしました。 Hugging Faceのデモアプリを更新し、Hubからダウンロードした新しいCore ML Stable…

OpenAIのLLMの支配を覆すことを目指す挑戦者:XLSTM

人工知能は、ヨーゼフ・”セップ”・ホヒライター教授が言語モデルの競争に新たな挑戦者を発表する中、激しい戦いを目撃しています。LSTMは、ヨーゼフ・ホヒライター博士とユルゲン・シュミットフーバーの発明により、ニューラルネットワークを革新し、精度の向上につながりました。しかし、ホヒライター教授は、LSTMの後継者である「XLSTM」という隠された存在を明かし、OpenAIの言語モデルの支配を崩すことを目指しています。XLSTMの画期的な機能により、自己回帰型言語モデリングの支配をめぐる争いは激化しています。 この挑戦者がどのように人工知能の景観を再定義し、OpenAIを退位させるかを探ってみましょう。 LSTM:言語モデルのゲームチェンジャー 長短期記憶(LSTM)は、言語モデルの性能を大幅に向上させる画期的なニューラルネットワークモデルとして登場しました。ヨーゼフ・ホヒライター博士とユルゲン・シュミットフーバーによって90年代後半に開発され、シーケンス解析と時系列予測において大きな進歩をもたらしました。 詳細はこちら:LSTMとは?長短期記憶の紹介 XLSTMの紹介:隠された後継者 機械学習界からの最新ニュースによれば、ヨーゼフ・ホヒライター教授の新作、XLSTMが明らかになりました。まだ一般には公開されていませんが、XLSTMはLSTMの遺産を引き継ぎ、自己回帰型言語モデリングの景観を革新することになるでしょう。 OpenAIを王座から追い落とす探求 ホヒライター教授のチームは、LSTMと結合した小規模データセットを使用して、あらゆるトランスフォーマーに学習させるために献身的に取り組んでいます。究極の目標は、OpenAIの人気言語モデルであるGPTの成果を超え、自己回帰型言語モデリングにおけるトップの座を獲得することです。 また、こちらもご覧ください:GPT-3から将来の言語モデルへ ChatGPTでのOpenAIの名声の上昇 サム・アルトマンによって設立されたOpenAIは、そのチャットボットChatGPTで世界中のユーザーを魅了し、2024年までに1億ドル以上の収益を上げることが報告されています。これにより、AI市場での地位を確固たるものにしています。 LSTMの言語モデル以外での多様性 LSTMの成功は、言語モデルにとどまらず、DeepmindのStarcraft 2やOpenAIのDota 2などの強化学習の応用においても効果を発揮しました。タンパク質の配列解析や自然災害の予測など、さまざまな分野でその多様性が輝きました。 次のフロンティアとしての言語 ホヒライター教授は、人間が創造した言葉が現実世界の対象物の抽象化を提供するため、言語に焦点を当てることが重要だと考えています。AIが独自の概念と説明を発明する能力には、大きな潜在能力があり、AIの開発に新たな地平を切り拓く可能性を秘めています。 モデルの戦い:LSTM vs. Transformers トランスフォーマーは非常に人気がありますが、ホヒライター教授は、LSTMがエンジニアリングタスクにおいて重要な役割を果たすと主張しています。従来のアーキテクチャとのユニークな相互作用は、革新のための興味深い機会を提供します。 トレーニングデータの複雑さを乗り越える 大規模言語モデルのトレーニングデータに関する秘密主義は、議論の的となっています。ホヒライター教授は、不適切なコンテンツのないデータセットを作成することの難しさを強調し、LAIONイニシアティブなどの規制ガイドラインが予想される中、AI生成コンテンツに関するルールの必要性を指摘しています。…

イギリスのインペリアル・カレッジ・ロンドンとディープマインドの研究者たちは、AIフレームワークを設計しましたこのフレームワークは、言語をRLエージェントの中核的な推論ツールとして使用します

近年、深層学習の分野で重要な進展があり、特に自然言語処理(NLP)、自然言語理解(NLU)、コンピュータビジョン(CV)などの人工知能の人気のあるサブフィールドで顕著な成果が出ています。大規模言語モデル(LLM)はNLPのフレームワークで作成され、人間の才能と同等の優れた言語処理能力やテキスト生成能力を示しています。一方、CVのVision Transformers(ViTs)は明示的なガイドなしに、写真や動画から意味のある表現を学習することができました。また、Vision-linguistic Models(VLMs)も開発されており、視覚的な入力と言語的な記述を結びつけることができます。 様々な入力モダリティを含む幅広い下流アプリケーションの基礎モデルは、大量のテキストデータとビジュアルデータで事前学習されており、常識的な推論、サブゴールの提案と順序付け、視覚的理解などの重要な属性が生まれています。Foundation Modelsの能力を活用してより効果的で包括的な強化学習(RL)エージェントを作成する可能性は、研究者の研究対象です。RLエージェントは、周囲との相互作用やフィードバックとしての報酬を通じて知識を獲得することが多いですが、試行錯誤による学習は時間がかかり、実用的ではありません。 この制約に対処するため、研究者のチームは、特にゼロから学習が必要なシナリオで、言語を強化学習ロボットエージェントの中核に据えるフレームワークを提案しました。彼らの研究の主な貢献は、Foundation Modelsに保持された知識を活用することにより、特に4つのRL設定でいくつかの基本的な問題に効果的に対処できることを示すことです。 報酬が少ない設定での効率的な探索:報酬が少ない設定を探索することはRLエージェントにとって困難であり、最適な振る舞いを学習することが頻繁に難しいです。提案されたアプローチは、Foundation Modelsに保持された知識を活用することで、これらのコンテキストでの探索と学習をより効果的に行うことができます。 過去に収集したデータの再利用による連続学習:このフレームワークにより、RLエージェントは新しいタスクに取り組む際に毎回ゼロから始めるのではなく、以前に収集したデータを基に学習を進めることができ、新しいタスクの連続学習を支援します。 新しいタスクのための学習済みの能力のスケジューリング:このフレームワークは、学習済みの能力のスケジューリングをサポートし、エージェントが現在の知識を効率的に活用して新しいタスクに対処できるようにします。 エキスパートエージェントの観察からの学習:Foundation Modelsを使用してエキスパートエージェントの観察から学習することで、学習プロセスをより効率的かつ迅速に行うことができます。 研究チームは、主な貢献を以下のようにまとめています: このフレームワークは、言語モデルとビジョン言語モデルを基礎的な推論ツールとして使用することで、RLエージェントがテキスト情報に基づいてより効果的に推論と判断を行う能力を向上させます。この方法により、エージェントの困難なタスクと状況への理解力が向上します。 提案されたフレームワークは、過去には異なる特別に作成されたアルゴリズムが必要だった基本的なRLの問題を効率的に解決する効果を示します。 この新しいフレームワークは、報酬が少ないロボット操作の設定で従来のベースライン技術を上回る性能を発揮します。 このフレームワークは、以前に教えられたスキルを効率的に使用してタスクを完了することができます。学習済みの情報を新しい状況に転送する能力により、RLエージェントの一般化と適応性が向上します。 このフレームワークは、人間の専門家の映像を模倣することによってRLエージェントが観察から正確に学習できることを示します。 まとめると、この研究は、言語モデルとビジョン言語モデルが強化学習エージェントの推論の中核として機能する能力を持っていることを示しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us