Learn more about Search Results ML - Page 327

「2023年のトップデータウェアハウジングツール」

データウェアハウスは、データの報告、分析、および保存のためのデータ管理システムです。それはエンタープライズデータウェアハウスであり、ビジネスインテリジェンスの一部です。データウェアハウスには、1つ以上の異なるソースからのデータが保存されます。データウェアハウスは中央のリポジトリであり、複数の部門にわたる報告ユーザーが意思決定を支援するために設計された分析ツールです。データウェアハウスは、ビジネスや組織の歴史的なデータを収集し、それを評価して洞察を得ることができます。これにより、組織全体の統一された真実のシステムを構築するのに役立ちます。 クラウドコンピューティング技術のおかげで、ビジネスのためのデータウェアハウジングのコストと難しさは劇的に低下しました。以前は、企業はインフラに多額の投資をしなければなりませんでした。物理的なデータセンターは、クラウドベースのデータウェアハウスとそのツールに取って代わられています。多くの大企業はまだ古いデータウェアハウジングの方法を使用していますが、データウェアハウスが将来機能するのはクラウドであることは明らかです。使用料金ベースのクラウドベースのデータウェアハウジング技術は、迅速で効果的で非常にスケーラブルです。 データウェアハウスの重要性 現代のデータウェアハウジングソリューションは、データウェアハウスアーキテクチャの設計、開発、および導入の繰り返しのタスクを自動化することで、ビジネスの絶えず変化するニーズに対応しています。そのため、多くの企業がデータウェアハウスツールを使用して徹底的な洞察を獲得しています。 以上から、データウェアハウジングが大規模でボイジーサイズの企業にとって重要であることがわかります。データウェアハウスは、チームがデータにアクセスし、情報から結論を導き、さまざまなソースからデータを統合するのを支援します。その結果、企業はデータウェアハウスツールを以下の目標のために使用しています: 運用上および戦略上の問題について学ぶ。 意思決定とサポートのためのシステムを高速化する。 マーケティングイニシアチブの結果を分析し評価する。 従業員のパフォーマンスを分析する。 消費者のトレンドを把握し、次のビジネスサイクルを予測する。 市場で最も人気のあるデータウェアハウスツールは以下の通りです。 Amazon Redshift ビジネス向けのクラウドベースのデータウェアハウジングツールであるRedshiftです。完全に管理されたプラットフォームでペタバイト単位のデータを高速に処理できます。したがって、高速なデータ分析に適しています。さらに、自動の並列スケーリングがサポートされています。この自動化により、クエリ処理のリソースがワークロード要件に合わせて変更されます。オペレーションのオーバーヘッドがないため、同時に数百のクエリを実行できます。Redshiftはまた、クラスタをスケールアップしたりノードタイプを変更したりすることも可能です。その結果、データウェアハウスのパフォーマンスを向上させ、運用費用を節約することができます。 Microsoft Azure MicrosoftのAzure SQL Data Warehouseは、クラウドでホストされる関係データベースです。リアルタイムのレポート作成やペタバイト規模のデータの読み込みと処理に最適化されています。このプラットフォームは、大規模並列処理とノードベースのアーキテクチャ(MPP)を使用しています。このアーキテクチャは、並列処理のためのクエリの最適化に適しています。その結果、ビジネスインサイトの抽出と可視化が大幅に高速化されます。 データウェアハウスには数百のMS Azureリソースが互換性があります。たとえば、プラットフォームの機械学習技術を使用してスマートなアプリを作成することができます。さらに、IoTデバイスやオンプレミスのSQLデータベースなど、さまざまな種類の構造化および非構造化データをフォーラムに保存することができます。 Google BigQuery…

「AIの責任ある適用を促進するための社会的なコンテキスト知識の活用」

Google Researchの社会的な文脈理解ツールとソリューション(SCOUTS)の責任者であるテクニカルプログラムマネージャーのDonald Martin、Jr.による投稿 AI関連の製品や技術は、社会的な文脈の中で構築および展開されます。つまり、社会的、文化的、歴史的、政治的、経済的な状況の集合体です。社会的な文脈は、動的で複雑で非線形で論争の余地があり、主観的で非常に質的な要素を含むため、標準的な機械学習(ML)アプローチや責任あるAI製品開発の手法やプラクティスにおいて、量的な表現に変換することは困難です。 AI製品開発の最初のフェーズは、問題理解です。このフェーズは、問題(例:がんスクリーニングの可用性と精度の向上)がMLシステムが解決するためにどのように定式化されるか、またデータセットやMLアーキテクチャの選択など他の多くの下流の意思決定にも強力な影響を与えます。製品が動作する社会的な文脈が十分に明確にされず、堅牢な問題理解に結びつかない場合、結果として得られるMLソリューションは脆弱であり、不公平なバイアスをさらに広げる可能性があります。 AI製品開発者が開発中に社会的な文脈を効果的に理解し、考慮するための知識とツールにアクセスできない場合、彼らはそれを抽象化してしまう傾向があります。この抽象化によって、彼らは解決しようとする問題の浅い量的な理解を得る一方で、製品の利用者や社会の利害関係者は、それと同じ問題の深い質的な理解を持っています。製品利用者と社会が開発者から分かれるこの質的-量的の相違を、私たちは問題理解の隔たりと呼んでいます。 この隔たりは現実世界に影響を及ぼします。例えば、最も複雑な医療ニーズを持つ患者を特別プログラムに選択する問題を解決するために設計された広く使用されている医療アルゴリズムで発見された人種的バイアスの根本原因でした。アルゴリズムが動作する社会的な文脈の理解が不十分だったため、システム設計者は主要な問題要因について正確で過度に単純化された因果理論を形成しました。医療へのアクセスの不足、医療システムへの信頼の欠如、人間のバイアスによる診断の欠落などの重要な社会構造的要因は無視され、医療費の費用負担が複雑な健康ニーズの予測因子として強調されました。 問題理解の隔たりを責任を持って埋めるために、AI製品開発者は、複雑な社会問題に関する社会的な文脈の信頼性のある構造化された知識を指先で利用できるツールが必要です。これは問題理解から始まり、製品開発のライフサイクル全体で継続的に活用されます。この目的のために、Google Researchの責任あるAIと人間中心のテクノロジー(RAI-HCT)チームの一環として、社会的な文脈理解ツールとソリューション(SCOUTS)は「責任を持って、堅牢なAIを実現し、世界で最も複雑な社会問題を解決するために必要なスケーラブルかつ信頼性のある社会的な文脈の知識を人々に提供する」という使命に注力する研究チームです。SCOUTSは、社会的な文脈を明確にするという重要な課題に取り組み、革新的な基礎研究と応用研究を行い、構造化された社会的な文脈の知識を生み出し、AI関連の製品開発ライフサイクルのすべてのフェーズに統合しています。昨年、Googleのオープンな社会への脅威に対する解決策を開拓する技術を構築するためのインキュベータであるJigsawが、広く使用されているPerspective APIの毒性分類器のバイアス緩和を規模化するために、私たちの構造化された社会的な文脈の知識アプローチをデータの準備および評価フェーズで活用したことを発表しました。今後、SCOUTSの研究の焦点は、AI関連の製品開発の問題理解のフェーズに置かれ、問題理解の隔たりを埋めることを目指しています。 AIの問題理解の隔たりを埋める AIの問題理解の隔たりを埋めるには、2つの重要な要素が必要です。1つは、構造化された社会的な文脈の知識を整理するための参照フレーム、もう1つは、複雑な問題に関するコミュニティの専門知識を引き出し、構造化知識として表現するための参加型で抽出的でない方法です。SCOUTSは、両方の領域で革新的な研究を発表しています。 問題理解の隔たりのイラスト。 社会的な文脈の参照フレーム 構造化知識を生成するための重要な要素は、それを整理するための分類法です。SCOUTSは、他のRAI-HCTチーム(TasC、Impact Lab)、Google DeepMind、および外部のシステムダイナミクスの専門家と協力して、社会的な文脈のための分類的な参照フレームを開発しました。複雑で動的で適応的な社会的な文脈に対処するために、私たちは複雑な適応システム(CAS)理論を活用し、社会的な文脈の知識を整理するための高レベルの分類モデルを提案しています。このモデルでは、社会的な文脈の3つのキーエレメントとそれらを結びつけるダイナミックなフィードバックループを特定しています:エージェント、プリセプト、およびアーティファクトです。 エージェント:個人または機関のことです。 プリセプト:エージェントの行動を制約し、推進する先入観(信念、価値観、ステレオタイプ、バイアスなど)です。基本的なプリセプトの例は、「すべてのバスケットボール選手は身長が6フィート以上ある」というものです。この制限的な仮定は、小柄なバスケットボール選手を特定する際の失敗につながる可能性があります。 アーティファクト:エージェントの行動によって言語、データ、テクノロジー、社会的な問題や製品などさまざまな種類のアーティファクトが生成されます。 これらのエンティティ間の関係は動的で複雑です。私たちの仕事は、前提が社会的文脈の最も重要な要素であり、人々が認識する問題とそれらの問題が存在する理由についての因果関係の理論が特に影響力のある前提であり、社会的文脈を理解するための核心であることを示唆しています。たとえば、先に説明した医療アルゴリズムにおける人種的偏見の場合、デザイナーが持っていた因果関係の理論的前提は、複雑な健康問題がすべての人口において医療費を増加させるというものでした。この誤った前提は、モデルが複雑な医療ニーズを予測するためのプロキシ変数として医療費を選択することに直接的につながりました。そして、それはさらに、社会的な要因(例えば医療へのアクセスの不足やバイアスによる診断の不足など)により、ブラックの患者は複雑な医療ニーズがある場合に常により多くの医療費を費やすわけではないため、モデルがブラックの患者に対して偏見を持つことにつながりました。重要なオープンな問題は、不平等の問題に最も近い人々やコミュニティから因果関係の理論を倫理的かつ公平にどのように引き出し、有用な構造化された知識に変換することができるかということです。 社会的文脈の参照フレームのイラスト版。 社会的文脈の参照フレームの分類版。 コミュニティと協力してAIを医療に責任ある形で活用する…

「バイトダンスAI研究は、連続および離散パラメータのミックスを使用して、高品質のスタイル化された3Dアバターを作成するための革新的な自己教師あり学習フレームワークを提案しています」

デジタルワールドへの重要な入り口は、社交、ショッピング、ゲームなどの活動において現代の生活でより一般的になっており、魅力的でアニメーションのある3Dアバターです。良いアバターは魅力的で、ユーザーの外見に合わせてカスタマイズされるべきです。Zepeto1やReadyPlayer2など、よく知られたアバターシステムは、楽しく使いやすいため、カートゥーン化されたスタイルが採用されています。しかし、通常、アバターを選択し、変更するには、多くのグラフィック要素から手作業で苦労して修正する必要があり、初心者のユーザーにとっては時間がかかり、難しい作業です。この研究では、フロントから撮影された一枚のセルフィーからスタイル化された3Dアバターの自動生成を調査しています。 具体的には、セルフィー画像が与えられた場合、彼らのアルゴリズムはアバターベクトルを予測し、グラフィックエンジンによって3Dアバターを生成し、事前定義された3Dアセットからアバター画像をレンダリングします。アバターベクトルは、事前定義されたアセットに固有のパラメータで構成されており、連続的なもの(例:頭の長さ)または離散的なもの(例:髪の種類)のいずれかである場合があります。単純な解決策は、一連のセルフィー画像に注釈を付け、監督学習を介してアバターベクトルを予測するモデルをトレーニングすることです。しかし、広範なアセット(通常数百)を扱うためには、大規模な注釈が必要です。セルフサプライズアプローチでは、異なる識別と意味セグメンテーションの損失を利用して、グラフィックエンジンのレンダリングを自動的に一致させるためのイミテータを訓練することで、注釈のコストを削減します。 さらに具体的には、セルフィー写真が与えられた場合、彼らのシステムはアバターベクトルを予測し、グラフィックエンジンによって3Dアバターを生成し、指定された3Dアセットからアバター画像をレンダリングします。アバターベクトルを構成する特徴は、プリセットのアセットに固有であり、連続的なもの(例:頭の長さ)または離散的なもの(例:髪の種類)のいずれかである場合があります。単純な方法は、一連のセルフィーに注釈を付け、監督学習を使用してアバターベクトルを予測するモデルを構築することです。しかし、広範なアセット(通常数百)を管理するためには、大規模な注釈が必要です。 アバターベクトル変換、セルフサプライズアバターパラメータ化、およびポートレートスタイリゼーションは、彼らの革新的なアーキテクチャの3つのステップを構成しています。図1に示すように、識別情報(ヘアスタイル、肌の色、眼鏡など)はパイプライン全体で保持され、ドメインのギャップは3つの段階を通じて徐々に縮小されます。ポートレートスタイリゼーションステージでは、まず2Dの実写からスタイル化された外観へのドメインクロスオーバーに集中します。このステップでは、入力セルフィーをスタイル化されたアバターとして生成することで、画像空間を維持します。現在のスタイリゼーション技術の粗雑な使用は、表情などの要素を保持し、パイプラインの後続のフェーズを複雑にする可能性があります。 図1 その結果、彼らは表情の均一性を保証しながらユーザーの識別を維持するために、AgileGANの修正バージョンを開発しました。次に、セルフサプライズアバターパラメータ化ステップでは、ピクセルベースの画像からベクトルベースのアバターに移行します。彼らは、強力なパラメータの離散性の強制が収束動作を達成できないことを発見しました。彼らは、離散的なパラメータを連続的なワンホットベクトルとしてエンコードするという寛大な形式を採用し、異なる可能性を訓練できるように、差分可能性を実現するためにイミテータに教えました。アバターベクトル変換ステップでは、すべての離散的なパラメータがワンホットベクトルに変換されます。リラックスしたアバターベクトル空間から厳密なアバターベクトル空間へのドメインクロスが行われます。グラフィックエンジンは最終的なアバターを構築し、厳密なアバターベクトルを使用してそれらをレンダリングすることができます。彼らは、直接量子化よりも優れた結果を出すユニークな検索手法を使用しています。彼らは人間の好みの研究を利用して結果を評価し、F2Pや手作業の作成などのベースライン手法と比較して、彼らの手法が個人のユニークさをどれだけ効果的に保護しているかを確認しています。その結果は、ベースライン手法のスコアよりもかなり高く、手作業の作成とほぼ同等のスコアを達成しています。 彼らはパイプラインの設計決定をサポートするためのアブレーションスタディも提供しています。彼らの技術的貢献は、以下の通りです: • 連続および離散パラメータの組み合わせを用いた高品質なスタイル化された3Dアバターを生成するための新しい自己教師あり学習フレームワーク • ポートレートのスタイル化を用いたスタイルドメインの大きなギャップを埋めるための新しい方法によるスタイル化された3Dアバターの作成 • 離散アバターパラメータの最適化における収束問題に対処するためのカスケードリラクゼーションおよび検索パイプライン 彼らのサイトで論文のビデオデモンストレーションを見ることができます。

「トップの音声からテキストへのAIツール(2023年)」

インテリジェントな音声認識ソフトウェアは、AIとMLによって可能にされた最も価値のある機能の一つであり、自動的にオーディオやビデオのソースをテキストに翻訳します。これにより、ポッドキャスト、映画、会議、オンラインコースなどの転写が可能になり、さまざまな可能性が広がります。 コンピュータが人間の言語を処理、分析、解釈、推論するためには、自然言語処理(NLP)として知られるAIのサブフィールドが必要です。このサブフィールドは、AIの転写ソフトウェアとサービスの基礎となっています。自然言語処理(NLP)は、言語学やコンピュータ科学など、さまざまな学問からの手法を組み合わせた学際的な分野です。 AIの転写ソフトウェアとサービスは、製品のプロモーションなど、ビジネスの運営に大きく役立ちます。これにより、新規のクライアントを獲得することも支援されます。 優れた人工知能の転写ツールとサービスは、現在では簡単に利用できます。 Speak AI Speakは、重要な音声やビデオデータの記録と保存に複数のオプションを提供するため、AI転写サービスとして優れた選択肢です。Speakでは、埋め込み可能なレコーダーを作成したり、アプリ内で音声やビデオを録音したり、デバイスのストレージからコンテンツを簡単かつ迅速にアップロードしたりすることができます。バルクの音声/ビデオ/テキストデータのキャプチャに加えて、Speakはダッシュボードレポートの生成機能も提供します。この技術により、インタビューや通話、ビデオで議論された重要な詳細が失われないことを信頼できます。AIシステムは即座に超越し、関連する用語、テーマ、感情的ニュアンスを抽出します。Speakは、発見の共有とデータの隔離の解消も容易にします。トランスクリプト、AI分析、視覚化データはすべて1つの便利な場所にあり、包括的なデータリポジトリを構築し、ユニークで共有可能な素材を作成できます。 Trint TrintのAI転写により、オーディオやビデオファイルをテキストに迅速に変換し、他のドキュメントと同様に編集、検索、共有することができます。非構造化データを有用な情報に迅速に変換します。このサービスの最も強力な機能の一つは、メディアファイルを迅速に転写したり、リアルタイムでコンテンツを録音したりすることができる速さです。トランスクリプトから関連する部分を選択し、再生を選択して引用を読み上げたり、ストーリーを活気づけたりすることができます。タグ、ハイライト、コメントの使用も簡単で、共同作業を容易にします。一緒に魅力的なナレーションを作成し、承認のために同僚と簡単に共有することができます。Trintを使用すると、30以上の言語で情報を素早く簡単に転写し、他の50以上の言語に翻訳して国際的な観客に届けることができます。 Otter.ai Otterは、トップクラスの人工知能転写サービスです。このソフトウェアは、デスクトップ、Android、iOSデバイスで利用できるようになっています。同社はさまざまなパッケージを提供しており、それぞれ特別な利点があります。その中の一つでは、顧客が電話やコンピュータの会話を録音し、即座に転写することができます。二番目の機能では、話者を識別し区別することができます。Otterは、オーディオファイルの可変再生速度やトランスクリプトのアプリ内編集と管理を可能にします。音声やビデオファイルをインポートして転写することもでき、画像やその他のコンテンツを直接トランスクリプトに挿入することもできます。レイアウトはよく考えられており、使いやすく、録音ボタン、インポートボタン、最近のアクティビティの履歴などの便利な機能も備えています。初心者向けの有用なレッスンも含まれています。 Beey Beeyの助けを借りて、ビデオ、ポッドキャスト、会議議事録、ウェビナー、インタビュー、録音講義などをテキストに変換することができます。先進的な字幕システムにより、優れた字幕とキャプションを簡単に作成することができます。ビデオを組み込んだ機械翻訳ツールを使用して、ビデオを複数の言語に瞬時に翻訳して、より広い観客に簡単に届けることができます。自動音声認識ソフトウェアは、コンピュータ音声処理研究所が開発しました。このプラットフォームは、20以上の異なる言語に対応しており、真にグローバルな範囲を持っています。 NOVA AI NOVAは、映像のトリミング、編集、重ね合わせができる多目的なプログラムです。翻訳や字幕の追加も可能です。完全にWebベースであり、ダウンロードは必要ありません。動画のキャプションを作成する方法を学ぶ場所をお探しの場合、それを見つけました。Nova A.I.を使用すると、数回のクリックで動画の自動キャプションを生成し、視聴者の注意をより簡単に引きつけることができます。Nova A.I.は、オープンキャプションと閉じたキャプションを自動的に生成するために作られています。キャプションをビデオのソースコードに含めることで、視聴者がそれらを無効にすることができなくなります。また、字幕をSRT、VTT、TXTなどのさまざまな形式でコンピュータに保存することもできます。 Fireflies.ai Firefliesは、会議中の謄写、メモ作成、アクションを容易にするAI音声アシスタントであり、AI謄写ソフトウェアの優れた選択肢の1つです。このアプリケーションでは、他の人をセッションに招待してトークを録音して共有することができ、どのWeb会議サービスでも使用できます。ライブ会議やオーディオファイルは、簡単なアップロードで謄写することができます。トランスクリプトを素早くスキャンしながらオーディオを聴くことができます。Firefliesの強力な機能の1つは、コメントで通話を注釈付けたり、特定のセクションにフラグを立てたりすることができることです。トランスクリプトを使用すると、1時間の通話を5分で読むことができます。ツールを使用してボード全体で特定のアイテムやキーワードを検索することもできます。Firefliesには使いやすいダッシュボード、Chromeプラグイン、API/統合も備わっています。 Sonix Sonixは、多言語に対応した自動謄写サービスの中でもトップクラスです。Sonixを使用すると、ビジネスはオーディオやビデオコンテンツの謄写、カタログ化、検索を容易に行うことができます。この先進的なソフトウェアは、30分のビデオやオーディオをわずか3〜4分で謄写することができるため、迅速かつ正確な謄写が必要な企業に非常に役立ちます。コンピュータ生成のトランスクリプトでは単語が飛ばされることがあるため、Sonixではトランスクリプトを確認して編集することができます。ソフトウェアに含まれるオンラインエディタを使用すると、リアルタイムでトランスクリプトを変更することができます。最も自信のない用語がハイライトされ、さらなる研究のために示される単語信頼度も提供されます。これらの便利なツールに加えて、トランスクリプトでは後で詳しく調べるために重要なパッセージをハイライトや取り消し線で表示することもできます。話者のラベリングも簡単に行えるため、誰が何を言ったかを簡単に特定することができます。また、自動ダイアリゼーションも可能であり、Sonixは話者を自動的にタグ付けし、会話を段落ごとに分割します。 Rev.com 人工知能の謄写サービスに関して、Revは最高の1つです。大きな会社でも小さな会社でも、Revを使用してコンテンツのROIを向上させることができます。Revを使用することで、顧客層を拡大し、会社の露出を増やすことができます。Spotifyなどの多くの業界リーダーがRevを採用しています。Revは、5.6万時間以上の謄写データでスピーチモデルをトレーニングしたため、最も正確な音声認識エンジンを持っています。このソフトウェアは31の言語に対応しており、世界中の顧客にアプローチすることができます。Revは、人間と機械の両方の謄写、ビデオのクローズドキャプションや字幕など、さまざまなサービスを提供しています。ユーザーは、使いやすいドキュメンテーションと包括的なAPIを称賛しています。手続きの簡単さも称賛されており、誰でも使用できるとユーザーが指摘しています。…

「機械学習モデルからの情報漏洩を分析し、制約するための新しいAIの理論的枠組み」

機械学習アルゴリズムは、複雑で敏感な問題に適用されることから、プライバシーとセキュリティの懸念を引き起こしています。研究によると、機械学習モデルは攻撃を通じて敏感な情報を漏洩させることがあり、これらの攻撃を記憶と一般化に結び付けるための新しい形式が提案されています。従来の研究では、これらの問題を理解するための一般的なフレームワークの構築よりも、データ依存の戦略に焦点を当てて攻撃を実行することが中心でした。この文脈において、最近の研究では、推論攻撃と一般化と記憶との関連を研究するための新しい形式が提案されました。このフレームワークでは、訓練セットに与えられたモデルパラメータの分布について、一切の仮定を置かないより一般的なアプローチが考慮されています。 本記事で提案されている主なアイデアは、一般化、差分プライバシー(DP)、属性、およびメンバーシップ推論攻撃の関係を、従来の研究とは異なる視点から研究することです。本記事では、テールバウンド損失関数のより一般的なケースに結果を拡張し、ホワイトボックスアクセスを持つベイズ攻撃者を考慮しています。これにより、すべての可能な攻撃者の成功確率と一般化ギャップに上限が設定されます。本記事では、逆の主張である「一般化はプライバシーを意味する」という主張が従来の研究で証明されたことがないことを示し、一般化ギャップが0に近づくと同時に攻撃者が完全な正確性を達成する例を示しています。具体的には、本研究では機械学習(ML)システムにおけるメンバーシップおよび/または属性推論攻撃をモデリングするための形式化手法が提案されています。さまざまな問題の設定に適用できるシンプルで柔軟なフレームワークと定義を提供しています。また、本研究では推論攻撃の成功率に対する普遍的な上限を確立し、これはMLモデルのプライバシー保証と、プライバシー防御メカニズムの設計に役立つことができます。著者たちは一般化ギャップとメンバーシップ推論の関連性について調査し、悪い一般化がプライバシーリークにつながることを示しています。また、訓練されたモデルがその訓練セットについてどれだけの情報を保持しているかと、それがプライバシー攻撃における役割についても研究しており、ベイズ攻撃者の利得を相互情報量が上限することを見つけました。線形回帰と深層ニューラルネットワークを用いた数値実験により、提案手法がプライバシーリスクの評価において有効であることが示されています。 研究チームの実験は、機械学習モデルの情報漏洩に関する洞察を提供しています。チームは境界を使用して攻撃者の成功率を評価し、下限が一般化ギャップの関数であることが分かりました。これらの下限は、攻撃がより優れた結果を出せることを保証するものではありませんが、下限がランダムな推測よりも高い場合、モデルは敏感な情報を漏洩していると考えられます。チームは、メンバーシップ推論攻撃に対して脆弱なモデルは属性推論攻撃にも脆弱であることを示しました。モデルへのホワイトボックスアクセスは、著しい利益をもたらすことが示されました。ベイズ攻撃者の成功率はプライバシーの強力な保証ですが、関連する決定領域を計算することは計算的に困難です。ただし、チームは線形回帰とガウスデータを使用した合成例を提供し、関連する分布を解析的に計算することが可能でした。 結論として、機械学習(ML)アルゴリズムの普及により、プライバシーとセキュリティに関する懸念が高まっています。最近の研究では、メンバーシップおよび属性推論攻撃を通じた敏感な情報の漏洩のリスクが明らかにされています。この問題に対処するため、より一般的なアプローチを提供する新しい形式が提案されています。この形式では、攻撃と一般化、記憶との関連を理解するための指針となる普遍的な上限が確立されています。線形回帰と深層ニューラルネットワークにおける実験は、提案手法がプライバシーリスクの評価において有効であることを示しています。全体的に、この研究はMLモデルの情報漏洩に関する貴重な洞察を提供し、そのプライバシーとセキュリティの向上のために継続的な取り組みの必要性を示しています。

「日常的な言葉で説明された最も一般的な機械学習用語10選」

「料理のレシピを最初に試した時、覚えていますか?おそらくそれはチョコレートチップクッキーや辛いサルサのレシピだったかもしれません指示をスキャンすると、『折りたたむ』などの用語にぶつかりました…」

画像分類において、拡散モデルがGANより優れていることがAI研究で明らかになりましたこの研究では、BigBiGANなどの同等の生成的識別的手法に比べて、拡散モデルが分類タスクにおいて優れた性能を発揮することが示されました

統一された非教示学習視覚表現の学習は重要でありながらも困難な課題です。多くのコンピュータビジョンの問題は、識別または生成の2つの基本的なカテゴリに分類されます。個々の画像または画像のセクションにラベルを割り当てることができるモデルは、識別表現学習を通じて訓練されます。生成学習を使用する場合、画像を作成または変更し、修復、超解像などの関連する操作を実行するモデルを作成します。統一表現学習者は両方の目標を同時に追求し、最終モデルは識別し、固有の視覚的アーティファクトを作成することができます。このタイプの統一表現学習は困難です。 最初の両方の問題を同時に解決するディープラーニングの手法の1つはBigBiGANです。しかし、より最新の手法の分類および生成のパフォーマンスは、より専門化されたモデルを使用してBigBiGANを上回っています。BigBiGANの主な精度およびFIDの欠点に加えて、エンコーダーによる他の手法と比較してかなり高いトレーニング負荷があり、より遅く、より大きなGANです。 PatchVAEは、VAEのパフォーマンスを認識タスクにおいて改善するために、中間レベルのパッチ学習に集中します。残念ながら、その分類の改善はまだ教示的なアプローチに大きく遅れを取り、画像生成のパフォーマンスも大きく損なわれます。 最近の研究では、監督ありおよび監督なしの両方で生成および分類のパフォーマンスが良い結果を出しています。統一の自己教示学習表現学習は、自己教示画像表現学習の作業の数に比べてまだ探求されている領域です。一部の研究者は、識別モデルと生成モデルは本質的に異なり、それぞれが先行の欠陥のために他方に適した表現ではないと主張しています。生成モデルには、高品質の再構築と作成に低レベルのピクセルおよびテクスチャの特徴を捉える表現が必要です。 一方、識別モデルは、特定のピクセル値ではなく、画像の内容の意味に基づいて荒いレベルでオブジェクトを区別するために主に高レベルの情報に依存しています。しかし、彼らは、モデルが低レベルのピクセル情報に対して傾向を持たなければならないが、分類タスクにも優れたモデルを学習するMAEやMAGEのような現在の技術がBigBiGANの初期の成功を支持していると述べています。最新の拡散モデルも生成の目標を達成するのに非常に成功しています。ただし、その分類の可能性はほとんど活用されず、研究されていません。メリーランド大学の研究者は、ゼロから統一表現学習者を作成する代わりに、最先端の拡散モデル、強力な画像生成モデルが既に強力な分類能力を持っていると主張しています。 図1:アプローチと結果の概要。彼らは、拡散モデルが統一の自己教示画像表現を学習し、生成と分類の両方に優れたパフォーマンスを発揮できることを示唆しています。U-Netブロック番号と拡散ノイズのタイムステップに関する特徴抽出手順を調査します。さらに、さまざまな特徴マップのプーリングサイズについても調査します。線形(A)、多層パーセプトロン(B)、CNN(C)、およびアテンションベースのヘッド(D)など、いくつかの単純な特徴分類アーキテクチャも調査します。 ImageNet-50の凍結された特徴に対してトレーニングされた分類ヘッドの結果は、ブロック番号24およびノイズタイムステップ90で計算され、右側に表示されます。 図1は、これら2つの基本的に異なる課題における彼らの素晴らしい成功を示しています。BigBiGANと比較して、拡散モデルを使用した彼らの戦略は、はるかに優れた画像生成性能とより優れた画像分類性能を生み出します。その結果、拡散モデルは、分類と生成の両方を最適化するための最新の統一の自己教示表現学習者に非常に近いことを示しています。拡散モデルでの特徴の選択は、彼らの主な困難の1つです。ノイズステップと特徴ブロックを選択するのは非常に難しいため、彼らはさまざまな側面の適用可能性を調べ、比較します。これらの特徴マップは、チャンネルの深さと空間解像度に関してもかなり大きい場合があります。 彼らはまた、線形分類層を置き換えるためのいくつかの分類ヘッドを提供しており、これにより生成性能を犠牲にすることなく、またはより多くのパラメータを追加することなく分類結果を向上させることができます。彼らは、適切な特徴抽出を伴った優れた分類子として拡散モデルが分類問題に利用できることを示しています。そのため、彼らの手法は任意の事前学習済み拡散モデルに使用することができ、これらのモデルのサイズ、速度、および画像品質の今後の改善によって利益を得ることができます。拡散特徴の転移学習への有効性も検証され、他のアプローチとの特徴の直接比較も行われています。 彼らは、多くのFGVCデータセットにおけるデータの不足を示したため、ファイングレインドビジュアル分類(FGVC)を下流タスクとして選択し、教師なし特徴の使用を求めるものであり、拡散ベースのアプローチはFGVC転移コンテキストで教師なしアプローチを制限するとされる色不変性の種類に依存しないため、特に関連があります。彼らは、ResNetsとViTsからの特徴と比較するために、よく知られた中心化カーネルアラインメント(CKA)を使用して特徴を比較しています。 彼らの貢献は次のとおりです: • 無条件の画像生成において26.21 FID(BigBiGANに対して-12.37)とImageNet上の線形プロービングにおいて61.95%の精度(BigBiGANに対して+1.15%)を達成し、拡散モデルが統一表現学習として利用できることを示しています。 • 拡散プロセスから最も有用な特徴表現を得るための分析と蒸留のガイドラインを提供しています。 • 分類シナリオでの拡散表現の使用について、アテンションベースのヘッド、CNN、専門のMLPヘッドを標準的な線形プロービングと比較しています。 • さまざまな有名なデータセットを使用して、拡散モデルの転移学習特性をファイングレインドビジュアルカテゴリ化(FGVC)を下流タスクとして検証しています。 • 拡散モデルによって学習された多くの表現を、他のアーキテクチャや事前学習技術、さらには異なるレイヤーや拡散特徴と比較するためにCKAを使用しています。

Pythonのzip()関数の探索:反復とデータの組み合わせの簡略化

zipは標準のPythonインタープリターに組み込まれた機能ですこれは辞書やリストなどの反復可能なオブジェクトと一緒に作業する際に役立つ強力なメソッドですこの記事では、…を探索します

「当社の独占的なマークダウンチートシートをチェックしてください」

Markdownは、複雑なHTMLや他の書式言語の必要性なく、さまざまな目的でテキストを簡単に書式設定する方法を提供する軽量のマークアップ言語です。そのシンプルさと使いやすさから、ドキュメンテーション、ブログ、その他の執筆プラットフォームで広く使用されています。このMarkdownチートシートでは、さまざまな書式オプションとそれらを効果的に使用する方法について説明します。 Markdownファイル Markdownは、プレーンテキストの書式設定を使用して豊かに書式設定されたドキュメントを作成する軽量のマークアップ言語です。これらのファイルは通常、.mdまたは.markdownの拡張子を持っています。ドキュメンテーションの作成、ブログ投稿の執筆、Webページのテキストの書式設定に一般的に使用されます。 マークダウンファイルをオフラインで開く方法 マークダウンファイルをオフラインで開くには、テキストエディタまたは専用のマークダウンエディタを使用できます。マークダウンファイルをオフラインで開く手順は次のとおりです: コンピュータ上のマークダウンファイルを見つけます。 ファイルを右クリックし、「開く」を選択します。 使用可能なプログラムのリストからテキストエディタまたはマークダウンエディタを選択します。 選択したエディタでマークダウンファイルが開き、その内容を表示および編集できます。 オンラインマークダウンエディタ オンラインマークダウンエディタは、ウェブブラウザで直接マークダウンファイルを作成およびプレビューするためのWebベースのツールです。これらのエディタは通常、リアルタイムのプレビュー、シンタックスハイライト、その他のマークダウンの作業に役立つ機能を提供します。 Markdownファイルの利点 学習と使用が容易: Markdownは、理解しやすく書きやすいシンプルな構文を持っています。HTMLやCSSのような複雑な書式設定コードは必要ありません。 プラットフォームに依存しない: Markdownファイルは、互換性のあるテキストエディタやマークダウンビューアを使用して、どのデバイスやオペレーティングシステムでも開いて表示することができます。 軽量: Markdownファイルはプレーンテキストファイルであり、小さくて読み込みが速いです。重い書式設定やスタイル情報は含まれていません。 バージョン管理に対応: MarkdownファイルはGitなどのバージョン管理システムとうまく機能します。マークダウンファイルへの変更は簡単に追跡、比較、マージすることができます。 ポータブル: Markdownファイルはさまざまなツールやコンバータを使用してHTML、PDF、Wordなどの他の形式に簡単に変換できます。このポータビリティにより、コンテンツを異なるプラットフォームやアプリケーションで共有することができます。 広くサポートされています:多くのテキストエディタ、コンテンツ管理システム(CMS)、パブリッシングプラットフォームがMarkdownをサポートしています。Web上でのコンテンツ作成において人気のある選択肢となっています。 では、Markdownチートシートを見てみましょう!…

清華大学の研究者たちは、メタラーニングの枠組みの下で新しい機械学習アルゴリズムを紹介しました

深層学習の教師ありタスクにおける最近の成果は、大量のラベル付きトレーニングデータの利用可能性によるものです。しかし、正確なラベルを収集するには多大な労力と費用がかかります。実際のコンテキストでは、トレーニングデータの一部しかラベルが付いていないことがよくあります。半教師あり学習(SSL)は、ラベル付きおよびラベルなしの入力を使用してモデルの性能を向上させることを目指しています。ディープラーニングに適用される多くの効果的なSSL手法は、ラベルなしデータを使用するために教師なしの一貫性正則化を行います。 最新の一貫性ベースのアルゴリズムは通常、優れたパフォーマンスを達成していても、いくつかの設定可能なハイパーパラメータを導入します。最適なアルゴリズムのパフォーマンスを得るために、これらのハイパーパラメータを最適な値に調整するのが一般的な方法です。残念ながら、多くの現実世界のSSLシナリオでは、医用画像処理、ハイパースペクトル画像分類、ネットワークトラフィック認識、文書認識などのように、注釈付きデータが少ないため、ハイパーパラメータの検索は頼りないことがよくあります。ハイパーパラメータの値によってアルゴリズムのパフォーマンスが影響を受けることは、この問題をさらに深刻にします。また、ハイパーパラメータの数に関連して探索空間が指数関数的に増加するため、最新のディープラーニングアルゴリズムでは計算コストが制御不能になる可能性があります。 清華大学の研究者は、Meta-Semiというメタ学習ベースのSSLアルゴリズムを導入し、ラベル付きデータをより活用します。Meta-Semiは、さらに1つのハイパーパラメータを調整することで、多くのシナリオで優れたパフォーマンスを発揮します。 研究チームは、適切に「疑似ラベル」の付いた未注釈の例を使用してネットワークを成功裏にトレーニングできる可能性に気付きました。具体的には、オンライントレーニングフェーズでは、ネットワークの予測に基づいて未注釈データに対して疑似ソフトラベルを生成します。次に、信頼性の低いまたは不正確な疑似ラベルを持つサンプルを削除し、残りのデータを使用してモデルをトレーニングします。この研究では、正確な「疑似ラベル」データの分布はラベル付きデータの分布と比較可能であるべきだと示されています。ネットワークが前者でトレーニングされる場合、後者の最終的な損失も最小限に抑えられるべきです。 研究者たちは、最終的な損失を最小化するために最適な重み(本論文では常にニューラルネットワークのパラメータを指すのではなく、各ラベルなしサンプルを再重み付けするために使用される係数を指す)を選択することで、メタリウェーティング目標を定義しました。この問題を最適化アルゴリズムを使用して解決する際に、研究者たちは計算上の困難に直面しました。 そのため、彼らは閉形式の解が導かれる近似式を提案しています。理論的には、各トレーニングイテレーションは近似解を達成するために単一のメタ勾配ステップのみを必要とすることを示しています。 結論として、彼らは以前に疑似ラベル付けされたサンプルに0-1の重みを再重み付けする動的な重み付けアプローチを提案しています。その結果、このアプローチは最終的な教師あり損失関数の安定点に到達することが示されています。人気のある画像分類ベンチマーク(CIFAR-10、CIFAR-100、SVHN、およびSTL-10)では、提案手法が最新のディープネットワークよりも優れたパフォーマンスを発揮することが示されています。難しいCIFAR-100とSTL-10のSSLタスクでは、Meta-SemiはICTやMixMatchなどの最新のSSLアルゴリズムよりもはるかに高いパフォーマンスを発揮し、CIFAR-10ではそれらよりもわずかに優れたパフォーマンスを発揮します。さらに、Meta-Semiは一貫性ベースの手法に有用な追加要素です。一貫性正則化をアルゴリズムに組み込むことで、パフォーマンスがさらに向上します。 研究者によると、Meta-Semiはトレーニングに少し時間がかかるという欠点があります。彼らは将来的にこの問題を調査する予定です。 この研究に関する論文と参考記事をご覧ください。この研究のすべてのクレジットはこのプロジェクトの研究者に帰属します。また、最新のAI研究ニュース、クールなAIプロジェクトなどを共有している26k+ ML SubReddit、Discord Channel、Email Newsletterにぜひご参加ください。 Tensorleapの説明可能性プラットフォームでディープラーニングの秘密を解き放つ この記事はMarkTechPostに掲載されたものです。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us