Learn more about Search Results ML - Page 328

説明可能AI(XAI)

こんにちは、テクノフィルと好奇心旺盛な皆さん人工知能の本の次の章へようこそ人工知能の謎に更に深く入り込んでいきましょうAIが波を立てているような…

このAI論文は、拡散モデル内のコンセプトニューロンを分析および識別するための、コーンと呼ばれる新しい勾配ベースの手法を提案しています

複雑な脳の構造により、驚くべき認知的および創造的なタスクを実行することができます。研究によると、人間の内側の側頭葉にある概念ニューロンは、与えられた刺激の意味的な特性に異なる反応を示すとされています。これらのニューロンは、高度な知性の基盤であり、経験項目間の時空間的なギャップを超えた一時的および抽象的な関連を記憶します。したがって、現代の深層ニューラルネットワークが最も成功した人工知能システムの1つとして同様の概念ニューロンの構造を受け入れるかどうかを学ぶことは、興味深いものです。 生成拡散モデルは、人間の脳の創造的能力を模倣するために、いくつかの主題を独立してニューロンにエンコードするのでしょうか?中国の研究者は、このクエリを主題駆動型の生成からの視点で取り組んでいます。入力テキストプロンプトの意味に基づいて、彼らは、事前学習されたテキストからイメージへの拡散モデルの注意層のパラメータである小さなクラスタを見つけることを提案しています。これにより、それらのニューロンの値を変更することで、さまざまなコンテンツで一致するトピックを作成することができます。これらのニューロンは、拡散モデルの関連する主題にリンクされたアイデアニューロンとして識別されます。これらを特定することで、ディープ拡散ネットワークの基本的な仕組みについてさらに学び、主題駆動型の生成への新しいアプローチを提供することができます。この研究で提案されたユニークな勾配ベースのアプローチを使用して分析され、Cone1として知られるアイデアニューロンが特定されます。彼らは既存の知識を保持しながら、供給されたトピックをより効果的に作成するために、これらをスケーリングダウンパラメータとして使用します。この動機は、パラメータが概念ニューロンであるかどうかを決定するための勾配ベースの基準を生じる可能性があります。いくつかの勾配計算の後、この基準を使用してすべての概念ニューロンを特定することができます。それから、それらのアイデアニューロンの解釈可能性がさまざまな角度から検証されます。 彼らは、アイデアニューロンがその値の変化にどれだけ抵抗するかを調べることから始めます。彼らは、概念を埋め込む損失を最適化するために、概念ニューロンに対してfloat32、float16、四進数、バイナリのデジタル精度を使用します。これにより、トレーニングなしで直接概念ニューロンを閉じることができます。バイナリデジタルの精度は、最も少ないストレージスペースを使用し、追加のトレーニングは必要ありませんので、主題駆動型の生成においてデフォルトの技術として使用されます。結果は、すべての状況で一貫したパフォーマンスを示し、ニューロンのターゲットトピックを管理する高い堅牢性を示しています。このアプローチを使用して、異なる主題からのアイデアニューロンを連結することで、これらをすべて結果に生み出すことができ、興味深い加算性も実現できます。拡散モデルパラメータ空間における単純で強力なアフィン意味構造の発見は、おそらく初めてのものです。連結に基づく追加の微調整により、マルチコンセプト生成能力を新たなマイルストーンに進めることができます。彼らは主題駆動型の生成において、単一の画像に4つの異なる主題を成功裏に生成した最初の人物です。 最終的に、ニューロンはスパース性と強靭性により、大規模なアプリケーションで効果的に利用することができます。人間の肖像、設定、装飾など、さまざまなカテゴリに関する多くの調査が、このアプローチが解釈可能性において優れており、複数の概念を生成できることを示しています。現在の主題駆動型アプローチと比較して、特定の主題を開発するために必要なデータを格納するために約10%のメモリしか使用しないため、モバイルデバイスでの使用において非常にコスト効果が高く、環境にやさしいと言えます。 この研究については、論文をご覧ください。この研究に関しては、このプロジェクトの研究者に全てのクレジットがあります。また、最新のAI研究ニュース、素晴らしいAIプロジェクトなどを共有している26k+ ML SubReddit、Discordチャンネル、メールニュースレターにぜひご参加ください。 Tensorleapの説明可能性プラットフォームで深層学習の秘密を解き放つ このAI論文は、拡散モデルで概念ニューロンを分析および特定するための新しい勾配ベースの手法「Cones」を提案しています。これはMarkTechPostによるものです。

「LangChainとGPT-3を使用して、ドキュメント用の透明な質問応答ボットを構築しましょう」

「LangChainとGPT-3を使用して、ドキュメント用の透明な質問応答ボットを開発するためのガイドこのボットは回答の生成に使用された情報源を開示します」

最終的なDXAネーション

人工知能(AI)と機械学習(ML)は、医療を革新し、私たちを精密医療の時代に導いていますAI健康モデルを開発する動機は、死亡率を減らすことです...

「プリズマーに会いましょう:専門家のアンサンブルを持つオープンソースのビジョン-言語モデル」

最近の多くのビジョン言語モデルは、非常に注目すべき多様な生成能力を示しています。しかし、通常、それらは膨大なモデルと膨大なデータセットのトレーニングを必要とします。研究者たちは、データとパラメータの効率的なビジョン言語モデルであるPrismerを紹介し、スケーラブルな代替手法としています。Prismerは、公開されている事前トレーニング済みのドメインエキスパートからほとんどのネットワークの重みを受け継ぎ、トレーニング中にそれらを凍結することで、わずかなコンポーネントのトレーニングのみを必要とします。 大規模な事前トレーニングモデルの汎化能力は、さまざまなタスクにおいて非常に優れています。しかし、これらの機能には高い価格が付いており、トレーニングデータと計算リソースが大量に必要です。数千億のトレーニング可能なパラメータを持つモデルは、言語領域では一般的であり、yottaFLOPスケールの計算予算が必要です。 ビジュアル言語学習に関連する問題は、より困難に解決することが求められます。この分野は言語処理のスーパーセットでありながら、ビジュアルおよびマルチモーダルな思考の専門知識も必要とします。Prismerは、予測されるマルチモーダル信号を使用したデータ効率の良いビジョン言語モデルであり、さまざまな事前トレーニング済みエキスパートを使用します。ビジュアルクエスチョンアンサリングや画像キャプションなど、ビジョン言語推論のタスクの例として扱うことができます。Prismerは、プリズムを例にして、一般的な推論タスクをいくつかのより小さな、より管理しやすいチャンクに分割します。 研究者たちは、視覚的に条件付けられた自己回帰テキスト生成モデルを開発しました。Prismerの最も重要な設計特徴の2つは、(i)ビジョンのみのモデルをWebスケールの知識のためのコアネットワークバックボーンとして使用し、(ii)モダリティに特化したビジョンエキスパートが、深度などの低レベルのビジョン信号からインスタンスやセマンティックラベルなどの高レベルのビジョン信号まで、対応するネットワークの出力から直接補助的な知識をエンコードすることです。研究者たちは、探索的なビジョン言語推論タスクにおいて、さまざまな事前トレーニング済みドメインエキスパートをより良く活用するために、視覚的に条件付けられた自己回帰テキスト生成モデルを開発しました。 Prismerは、公開されている画像/代替テキストデータの13Mの例でのみトレーニングされていますが、画像キャプション、画像分類、ビジュアルクエスチョンアンサリングなどのタスクにおいて、強力なマルチモーダル推論性能を示し、多くの最先端のビジョン言語モデルと競合しています。研究者たちは、Prismerの学習習慣を徹底的に調査し、いくつかの良い特徴を見つけました。 モデル設計: Prismerモデルは、エンコーダ-デコーダトランスフォーマーのバージョンで表示され、トレーニングプロセスを高速化するために、既にトレーニング済みの専門家の大きなプールを活用しています。このシステムは、ビジョンエンコーダと自己回帰言語デコーダで構成されています。ビジョンエンコーダは、RGBとマルチモーダルラベル(凍結された事前トレーニング済みのエキスパートから予測される深度、表面法線、セグメンテーションラベル)のシーケンスを入力として受け取り、RGBとマルチモーダルの特徴のシーケンスを出力します。このクロスアテンショントレーニングの結果、言語デコーダはテキストトークンの文字列を生成するように条件付けられます。 利点: Prismerモデルにはいくつかの利点がありますが、最も注目すべきは、トレーニング中に非常に効率的にデータを使用することです。Prismerは、Webスケールの知識を利用するために事前トレーニングされたビジョンのみと言語のみのバックボーンモデルの上に構築されており、他の最先端のビジョン言語モデルと同等の性能を得るために必要なGPU時間を大幅に削減します。これらの事前トレーニングされたパラメータを使用して、利用可能な大量のウェブスケールの知識を利用することができます。 研究者たちは、ビジョンエンコーダのためのマルチモーダル信号入力も開発しました。作成されたマルチモーダルの補助的な知識は、入力画像の意味と情報をより良く捉えることができます。Prismerのアーキテクチャは、わずかなトレーニング可能なパラメータでトレーニング済みエキスパートの使用を最大限に活用するように最適化されています。 研究者は、Prismerに2種類の事前トレーニング済みエキスパートを含めました: バックボーンの専門家 テキストと画像を意味のあるトークンのシーケンスに変換するための事前トレーニング済みモデルを、それぞれ「ビジョンのみ」と「言語のみ」と呼びます。 ディスコースモデルのモデレータ タスクをさまざまな方法でラベル付けするために使用されるデータに応じて、ディスコースモデルのモデレータはタスクにラベル付けを行います。 特性 知識豊富な人々が多ければ多いほど、結果は良くなります。Prismerのモダリティの専門家の数が増えるにつれて、パフォーマンスが向上します。 より熟練した専門家、より優れた結果 研究者は、予測される深度ラベルの一部を一様分布からランダムノイズで置き換えて、破損した深度エキスパートを作成し、エキスパートの品質がPrismerのパフォーマンスに与える影響を評価しました。 無益な意見に対する耐性 研究結果は、ノイズ予測エキスパートが組み込まれた場合でも、Prismerのパフォーマンスが安定していることをさらに示しています。 弊社のPaperとGithubをご覧ください。この研究における全てのクレジットは、このプロジェクトの研究者に帰属します。また、最新のAI研究ニュースや素晴らしいAIプロジェクトなどを共有している26k+人のML SubReddit、Discordチャンネル、メールニュースレターにもぜひご参加ください。 Tensorleapの説明可能性プラットフォームでディープラーニングの秘密を解き放つ…

「VAEs、GANs、およびTransformersによる創発的AIの解放」

イントロダクション 生成AIは、人工知能と創造性の交差点に位置する興奮する分野であり、機械が新しいオリジナルなコンテンツを生成することによって、さまざまな産業を革新しています。リアルな画像や音楽の作曲から生き生きとしたテキストや没入型の仮想環境の作成まで、生成AIは機械が達成できる範囲を広げています。このブログでは、VAEs、GANs、およびTransformersを使って生成AIの有望な領域を探求し、その応用、進歩、そして将来における深い影響について検討します。 学習目標 VAEs、GANs、およびTransformersを含む生成AIの基本的な概念を理解する。 生成AIモデルの創造的なポテンシャルとその応用を探求する。 VAEs、GANs、およびTransformersの実装についての洞察を得る。 生成AIの将来の方向性と進歩を探求する。 この記事は、データサイエンスブログマラソンの一部として公開されました。 生成AIの定義 生成AIは、本質的には既存のデータから学習し、類似した特性を持つ新しいコンテンツを生成するためにモデルをトレーニングすることを含みます。既存の情報に基づいてパターンを認識し予測する従来のAIアプローチとは異なり、生成AIは完全に新しいものを作成し、創造性とイノベーションの領域を広げることを目指しています。 生成AIの力 生成AIは、創造性を解放し、機械が達成できる範囲を広げる力を持っています。VAEs、GANs、およびTransformersなど、生成AIで使用される基本原理とモデルを理解することで、この創造的な技術の背後にある技術と手法を把握することができます。 生成AIの力は、創造性を解放し、人間の創造性を模倣し、さらには超える新しいコンテンツを生成する能力にあります。アルゴリズムとモデルを活用することにより、生成AIは画像、音楽、テキストなど多様な出力を生成し、インスピレーションを与え、革新し、芸術的表現の領域を広げることができます。 VAEs、GANs、およびTransformersなどの生成AIモデルは、この力を解放するために重要な役割を果たしています。VAEsはデータの基本的な構造を捉え、学習された潜在空間からサンプリングすることで新しいサンプルを生成することができます。GANsは生成器と識別器の間の競争的なフレームワークを導入し、非常にリアルな出力を生み出します。Transformersは長距離の依存関係を捉えることに優れており、一貫性のあるコンテンツを生成するのに適しています。 詳細を探求しましょう。 変分オートエンコーダ(VAEs) 生成AIで使用される基本的なモデルの1つは変分オートエンコーダまたはVAEです。エンコーダ-デコーダのアーキテクチャを用いて、VAEsは入力データの本質を低次元の潜在空間に圧縮することによって、新しいサンプルを生成します。 VAEsは画像生成、テキスト合成などに応用され、機械が魅了し、インスピレーションを与える新しいコンテンツを作成することが可能になりました。 VAEの実装 このセクションでは、変分オートエンコーダ(VAE)をスクラッチから実装します。 エンコーダとデコーダモデルの定義 エンコーダは入力データを受け取り、ReLU活性化関数を持つ密な層を通過させ、潜在空間分布の平均と対数分散を出力します。 デコーダネットワークは、潜在空間表現を入力として受け取り、ReLU活性化関数を持つ密な層を通過させ、シグモイド活性化関数を適用することでデコーダの出力を生成します。 import…

「ODSC APAC 2023での最初のトレーニングセッションの開催をお知らせします」

データサイエンスとAIの進展は、稲妻のような速さで進んでいます最新情報に遅れることなく、ODSC APAC(8月22日〜23日)では、データサイエンスの基礎から最新のツールやフレームワークまで、専門家によるトレーニングセッションが開催されます以下にいくつかのセッションをご紹介しますフルスタック機械学習...

アマゾンセージメーカーの地理空間機能を使用して、齧歯類の被害を分析する

「ネズミやネズミなどのげっ歯類は、多くの健康リスクと関連しており、35以上の病気を広めることが知られています高いネズミの活動がある地域を特定することは、地方自治体や害虫駆除組織が効果的な介入計画を立て、ネズミを駆除するのに役立ちますこの記事では、どのように監視し、視覚化するかを紹介します...」

「OpenAI(Python)APIを解説する」

「これは、実践において大規模な言語モデル(LLM)を使用するシリーズの2番目の記事ですここでは、OpenAI APIの初心者向けの紹介を行いますこれにより、制約のあるチャットを超えることができます...」

1時間以内に初めてのディープラーニングアプリを作成しましょう

私はもう10年近くデータ分析をしています時折、データから洞察を得るために機械学習の技術を使用しており、クラシックな機械学習を使うことにも慣れています

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us