Learn more about Search Results A - Page 269

「単なる爬虫類以上:ブラックボックスモデル以外のXAIにおけるイグアナのツールキットの探索」

機械学習が意思決定プロセスの一部として採用される産業が増えるにつれて、重要な問題が生じますそれは、推論を理解できないモデルを信頼する方法ですそして…

「人工知能のイメージング:GANの複雑さとメカニズムの学術的な考察」

GANは、リアルなデータの作成能力を示しています画像の作成から医薬品の革新まで、さまざまな領域での潜在力を持っています

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であり、彼女の経歴には9,000回の生放送番組の制作と、技術者や社会学者としての活動も含まれています彼女はまた、ブルームバーグTV/ビジネスニュースネットワークの解説者でもあり、エコノミストや国際金融公社が主催する会議で講演もしています[…]

「サプライチェーンにおける生成型AIの役割」

2020年にサプライチェーンの混乱が取締役会で頻繁に議論されるようになったのと同様に、2023年には生成AIが急速に注目の的となりましたなぜなら、OpenAIのChatGPTは最初の2か月で1億人以上のユーザーに達し、これは史上最も急成長した消費者向けアプリケーションの採用となりましたサプライチェーンは、ある程度まで、適していると言えます

ChatGPTのためのエニグマ:PUMAは、LLM推論のための高速かつ安全なAIアプローチを提案するものです

大規模言語モデル(LLM)は人工知能の領域で革命を起こしています。ChatGPTのリリースはLLMの時代の火付け役となり、それ以来、これらのモデルはますます改善されてきました。これらのモデルは膨大な量のデータによって可能にされ、言語理解のマスタリングから複雑なタスクの簡素化まで、その能力に感動させられました。 ChatGPTにはさまざまな代替案が提案されており、日々改善されています。特定のタスクではChatGPTを凌駕することさえあります。LLaMa、Claudia、Falconなど、新しいLLMモデルがChatGPTの座を狙っています。 しかし、ChatGPTが今でも圧倒的に最も人気のあるLLMであることは疑いありません。お気に入りのAIアプリがおそらくChatGPTのラッパーである可能性は非常に高いです。ただし、セキュリティの観点から考えると、それは本当にプライベートで安全なのでしょうか? OpenAIはAPIデータのプライバシー保護を深く考えていることを保証していますが、同時に多くの訴訟に直面しています。彼らはモデルの使用のプライバシーとセキュリティを守るために非常に努力しているにもかかわらず、これらのモデルは制御するには強力すぎる場合があります。 したがって、プライバシーやセキュリティに関する懸念なしにLLMのパワーを利用するにはどうすればよいでしょうか?機密データを損なうことなく、これらのモデルの能力を利用するにはどうすればよいでしょうか?それでは、PUMAにお会いしましょう。 PUMAは、データの機密性を保ちながら、Transformerモデルのセキュアで効率的な評価を可能にするために設計されたフレームワークです。これはセキュアなマルチパーティ計算(MPC)を効率的なTransformer推論と統合しています。 根本的には、PUMAはGeLUやSoftmaxなどのTransformerモデル内の複雑な非線形関数を近似する新しい技術を導入しています。これらの近似は、精度を保ちつつ効率を大幅に向上させるようにカスタマイズされています。以前の方法とは異なり、パフォーマンスを犠牲にしたり、複雑な展開戦略につながったりすることなく、PUMAのアプローチは両方の世界をバランスさせ、実世界のアプリケーションに必要な正確な結果と効率を維持します。 PUMAは、モデル所有者、クライアント、計算パーティの3つの重要なエンティティを導入しています。各エンティティはセキュアな推論プロセスで重要な役割を果たします。 モデル所有者は訓練されたTransformerモデルを提供し、クライアントは入力データを提供し、推論結果を受け取ります。計算パーティは安全な計算プロトコルを共同で実行し、データとモデルの重みがプロセス全体で安全に保護されることを確保します。 PUMAの推論プロセスの基本的な原則は、関与するエンティティのプライバシーを保護するために、入力データと重みの機密性を維持することです。 セキュア埋め込みは、セキュアな推論プロセスの基本的な側面であり、トークン識別子を使用してワンホットベクトルを生成することが伝統的に行われてきました。しかし、PUMAは、Transformerモデルの標準的なワークフローに密接に従うセキュアな埋め込みデザインを提案しています。この簡略化されたアプローチにより、セキュリティ対策がモデルの固有のアーキテクチャと干渉せず、実践的なアプリケーションでのセキュアモデルの展開が容易になります。 PUMAで使用されるセキュアなGeLUとLayerNormプロトコルの概要。出典: https://arxiv.org/pdf/2307.12533.pdf さらに、セキュアな推論における大きな課題は、GeLUやSoftmaxなどの複雑な関数を、計算効率と精度のバランスを取りながら近似することです。 PUMAは、これらの関数の特性を活用して、より正確な近似を設計することで、近似の精度を大幅に向上させると同時に、ランタイムと通信コストを最適化しています。 最後に、Transformerモデル内で重要な操作であるLayerNormは、分割-平方根の計算式による一意の課題を抱えています。PUMAは、セキュアなプロトコルを使用して操作をスマートに再定義することで、LayerNormの計算が安全かつ効率的に行われるようにしています。 PUMAの最も重要な特徴の一つは、シームレスな統合です。このフレームワークは、大規模なモデルアーキテクチャの変更を必要とせず、Transformerモデルのエンドツーエンドの安全な推論を容易にします。これは、最小限の努力で事前学習済みのTransformerモデルを活用できることを意味します。Hugging Faceや他のソースからダウンロードした言語モデルであっても、PUMAはシンプルな方法で処理します。元のワークフローに合わせており、複雑な再トレーニングや変更を要求しません。

「メタ、新しいコーディングツールCode Llamaを発表」

メタは、最新のオファリングであるCode Llamaによって、コーディングの世界で大胆な一歩を踏み出しましたこの画期的な大規模言語モデル(LLM)は、私たちがコーディングタスクに取り組む方法を再定義すると約束していますここでは、Code Llamaが提供するものについて深く掘り下げますコード生成の革命Code Llamaは、ただのLLMではありません[…]

感情の解読:EmoTXによる感情と心の状態の明らかにする、新しいTransformer-Powered AIフレームワーク

映画は物語や感情の中でも最も芸術的な表現の一つです。たとえば、「ハッピネスの追求」では、主人公が別れやホームレスなどの低い状況から、一流の仕事を達成するなどの高い状況まで、様々な感情を経験します。これらの強烈な感情は、観客を引き込み、キャラクターの旅に共感することができます。人工知能(AI)の領域でこのような物語を理解するためには、キャラクターの感情や心理状態の変化を監視することが重要です。この目標は、MovieGraphsからの注釈を活用し、シーンを観察し、対話を分析し、キャラクターの感情や心理状態に関する予測を行うことで追求されます。 感情の対象は歴史を通じて幅広く探求されてきました。古代ローマのキケロの四分類から現代の脳研究まで、感情の概念は常に人類の関心を引きつけてきました。心理学者たちは、プルチキの車輪やエクマンの普遍的な顔の表情などの構造を導入することで、さまざまな理論的な枠組みを提供しました。感情は、感情、行動、認知の側面と身体的な状態を包括する心理状態にさらに分類されます。 最近の研究では、Emoticとして知られるプロジェクトが視覚コンテンツの処理時に26の異なる感情ラベルクラスターを導入しました。このプロジェクトは、画像が平和や関与など、同時にさまざまな感情を伝える可能性があることを許容するマルチラベルのフレームワークを提案しました。従来のカテゴリーのアプローチに代わり、この研究では連続的な3つの次元(快感、興奮、支配)も組み込まれています。 正確な感情の予測には、さまざまなコンテキストモダリティを網羅する必要があります。マルチモーダルな感情認識の主要なアプローチには、対話の中での感情認識(ERC)が含まれます。これにより、対話の交換ごとに感情を分類することができます。また、映画クリップの短いセグメントに対して単一の快感-活動スコアを予測するアプローチもあります。 映画のシーンレベルでの操作は、特定の場所で発生し、特定のキャストを含む、30から60秒の短い時間枠内で物語を伝える一連のショットと一緒に作業することを意味します。これらのシーンは個々の対話や映画クリップよりも長い時間を提供します。この目標は、シーン内のすべてのキャラクターの感情と心理状態、およびシーンレベルでのラベルの蓄積を予測することです。時間の長いウィンドウが与えられるため、この推定は自然にマルチラベル分類アプローチにつながります。キャラクターは同時に複数の感情(好奇心と混乱など)を伝える場合がありますし、他者との相互作用による遷移(たとえば、心配から穏やかに変化する)も起こる可能性があるためです。 さらに、感情は心理状態の一部として広く分類されることができますが、この研究では、キャラクターの態度(驚き、悲しみ、怒りなど)から明確に認識できる外部の感情と、相互作用や対話を通じてのみ識別可能な潜在的な心理状態(礼儀、決意、自信、助け)とを区別しています。著者たちは、広範な感情ラベル空間で効果的に分類するためには、マルチモーダルなコンテキストを考慮する必要があると主張しています。そのため、彼らはビデオフレーム、対話の発話、キャラクターの外観を同時に組み込むモデルであるEmoTxを提案しています。 このアプローチの概要は、以下の図に示されています。 https://arxiv.org/abs/2304.05634 EmoTxは、キャラクターごとおよび映画シーンごとに感情を特定するためにTransformerベースのアプローチを使用しています。プロセスは、初期のビデオの前処理と特徴抽出パイプラインから始まり、データから関連する表現を抽出します。これらの特徴には、ビデオデータ、キャラクターの顔、テキストの特徴が含まれます。この文脈では、モダリティ、キャラクターの列挙、および時間的なコンテキストに基づいて区別するための適切な埋め込みがトークンに導入されます。さらに、個々の感情の分類器として機能するトークンが生成され、シーンまたは特定のキャラクターにリンクされます。これらの埋め込まれたトークンは、線形層を使用して組み合わされ、Transformerエンコーダに供給されます。これにより、さまざまなモダリティ間での情報の統合が可能になります。この方法の分類コンポーネントは、以前のTransformerを用いたマルチラベル分類に関する研究から着想を得ています。 「EmoTx」の振る舞いの例は、著者によって公開され、「フォレスト・ガンプ」のシーンに関連しています。以下の図に報告されています。 https://arxiv.org/abs/2304.05634 これは、適切なマルチモーダルデータからビデオクリップに登場する被験者の感情を予測する、新しいAIベースのアーキテクチャ「EmoTx」の概要でした。興味がある場合は、以下に引用されたリンクを参照して詳細をご覧ください。

『AI入門』

「ここでは、AIの学び方についての私の以前の記事を読んでいることを前提としています再度お伝えしますが、機械学習を学ぶ際には、ドキュメンテーション以外の複数の情報源を参照することを強くお勧めします...」

「ジェネラティブAIを使用した7つのプロジェクト」

ジェネラティブAIを利用した個人プロジェクトで強力なポートフォリオを作り方を学びましょうこれにより、あなたは他の人と差をつけることができます!

「カーシブと出会う:LLMとのインタラクションのためのユニバーサルで直感的なAIフレームワーク」

大規模な言語モデル(LLM)とのインターフェースにおいて、開発者はしばしば共通のジレンマに直面します。一方では、複雑で膨大なフレームワークがありますが、他方ではゼロから多くの抽象化を構築する可能性があります。シンプルさ、デバッグの容易さ、拡張性のバランスを取ることは、依然として困難な課題です。 LLMに関わるビルダーや開発者は、伝統的にフレームワークに関する問題に直面してきました。複雑で機能が豊富なフレームワークはスペクトラムの一端に位置し、操作しづらく複雑なコードを生み出すことがあります。他方、適切なツールや抽象化の欠如は、開発者が自身のソリューションを構築するためにかなりの時間を費やすことを強いられ、効率と生産性を妨げます。これらの欠点は、機能を犠牲にすることなく、簡素化されたエクスペリエンスを提供するフレームワークの必要性を浮き彫りにしています。 この課題に直面し、Cursiveフレームワークは有望な解決策として浮かび上がります。Cursiveは、LLMとのインタラクション時に開発者エクスペリエンス(DX)を向上させるビジョンで、フィールドを再定義しようとしています。LLMとの関わりを直感的で楽しく、不必要な複雑さから解放することを目指しています。さらに、Cursiveはブラウザ、Node.js、Cloudflare Workers、Deno、Bunなど、さまざまなJavaScript環境での適用性を確保するという注目すべきステップを踏んでいます。 Cursiveの主要な約束は、開発者とLLMとの間の相互作用を簡素化し、明確で楽しいエクスペリエンスを提供する能力にあります。注目すべき機能の一つは、モデルへの質問と回答のための簡素化された方法です。開発者は最小限のコードでモデルへのクエリを行い、応答を受け取ることができます。これにより、ワークフローの効率が向上します。さらに、モデルとの会話スレッドを維持することも非常に簡単であり、シームレスな双方向のインタラクションが可能です。 Cursiveは、LLMのコンテキスト内での関数の呼び出し方にも革新をもたらします。従来の関数呼び出しでは、追跡が困難な切り離されたコードが生じることがよくあります。しかし、Cursiveは、関数定義、実行、結果の取得の作成をシームレスに統合する関数呼び出しのアプローチを導入し、コードの可読性と保守性を向上させます。 Cursiveの影響は、DXの向上や開発ワークフローの改善を反映した具体的なメトリクスによって測定されます。モデルとの相互作用に必要なコード行数の削減、直感的な関数呼び出し、一貫した会話の処理は、開発者の生産性の向上に貢献します。さらに、異なるモデル間のコストと使用状況の推定、モデル間のコンテキスト切り替えの処理は、以前は欠けていた信頼性と観測可能性をもたらします。 Cursiveの導入により、LLMとの相互作用の領域で大きな進歩が実現されます。開発者エクスペリエンスを優先することで、フレームワークは既存の課題に取り組み、より効率的で簡素化された開発プロセスの道を切り拓きます。LLMとのインタフェースを変革するツールとして、Cursiveはベストプラクティスを再定義し、イノベーションを促し、開発の領域全体で生産性を高める潜在能力を持っています。さまざまなJavaScript環境での柔軟性も、多くの開発者にとって画期的な解決策としての地位を固めています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us