Learn more about Search Results A - Page 123

AI対データアナリスト:分析の未来に影響を与えるトップ6の制約

「AIは推論能力を持ち、Python、SQL、Rなどの言語で機能するコードを生成できますデータ分析において驚くべき価値を提供することができるでしょうしかし、それらはデータアナリストの代わりになることができるのでしょうか?」

このAIニュースレターは、あなたが必要とするすべてです#71

今週、ジョー・バイデン大統領は人工知能の規制を再び注目させるために、人工知能の監督を目的とする行政命令に署名しましたこの指令は様々な政府機関に要請し、…

「プロジェクト管理におけるGenAIスキルの緊急性」

今日のGenerative AI(GenAI)の未来についての議論には、課題に先手を打ち、混乱を乗り越え、リスクを最小限に抑えることがすべて重要ですこのような課題への対応は、プロジェクト管理の専門家が数十年にわたり行ってきた仕事の一環でもありますしかし、これらの問題に日々慣れ親しんでいるにもかかわらず、多くのプロジェクトの専門家は、自身の準備がいかに不足しているかに気づくかもしれません

メタとUNC-Chapel Hillの研究者は、「Branch-Solve-Merge」という革新的なプログラムを導入しました:複雑な言語課題における大規模言語モデルの性能を向上させるプログラム

「BRANCH-SOLVE-MERGE(BSM)」は、複雑な自然言語タスクにおける大規模な言語モデル(LLM)を向上させるためのプログラムです。BSMは、枝分かれ、解決、統合のモジュールを含み、サブタスクを計画し、解決し、組み合わせるためのものです。Vicuna、LLaMA-2-chat、GPT-4などのモデルに適用されることで、BSMは人間-LLMの一致を向上させ、バイアスを減らし、LLaMA-2-chatがほとんどのドメインでGPT-4を凌駕するか、追い越す能力を得ることができます。また、ストーリーの結びつきと満足感も制約ストーリー生成において増加します。 LLMは多様な言語タスクで優れていますが、複雑さには助けが必要です。BSMはLLMプログラムであり、各タスクをステップに分割し、異なるプロンプトでそれぞれをパラメータ化します。これは従来の順次的アプローチとは異なり、LLMの評価や制約付きテキスト生成などのタスクを対象にしており、並列分解を活用することで価値のある解決策を提供します。このプロセスは、全体的な評価の必要性に対応し、複雑なテキスト生成タスクにおけるLLMの評価のための貴重な解決策となります。 LLMはテキスト生成においては優れていますが、複雑な多目的タスクにおいては助けが必要です。UNCチャペルヒル大学とMeta研究者は、このような課題に取り組むためのBSMという手法を提案しています。BSMは枝分かれ、解決、統合のモジュールを使用してタスクを並列のサブタスクに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMはこれらのタスクの正確さ、一貫性および制約の満足度を向上させ、LLaMA-2-chat、Vicuna、GPT-4などのさまざまなLLMに利益をもたらします。BSMは、複雑な言語タスクにおけるLLMの性能向上に向けた、有望な解決策を提供します。 BSMは複雑な言語タスクを枝分かれ、解決、統合の3つのモジュールに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMは正確さと一貫性を向上させ、バイアスを減らします。人間-LLMの一致を26%まで向上させ、制約の満足度を12%向上させます。BSMは多機能で分解ベースのアプローチであり、さまざまなLLMに適用できるため、さまざまなタスクとスケールでのLLM評価の向上に有望です。 BSMはLLaMA-2-70B-chatのターン1およびターン2の質問に対して、LLM-人間の一致度を12ポイント向上させます。また、ポジションバイアスと長さバイアスでは34%のバイアスを削減します。BSMは、LLaMA-2のような弱いオープンソースモデルがGPT-4と競合できるようにします。BSMの性能はさまざまなドメインにわたり、さまざまなカテゴリでGPT-4と匹敵または迫る結果を残し、一致度を向上させ、バイアスを軽減します。また、数学などのクラスでLLaMA-2-70B-chatやGPT-4を上回り、基準ベースの質問の評価に優れ、一致度を向上させ、ポジションバイアスを軽減します。 BSMの手法は、LLMの評価とテキスト生成におけるつながり、計画、タスクの分解に関する重要な課題に取り組んでいます。BSMの枝分かれ、解決、統合のモジュールは、LLMの応答評価と制約付きテキスト生成を改善し、正確さ、一貫性、人間-LLMの一致度を向上させます。BSMはバイアスを軽減し、ストーリーの結びつきを高め、制約の満足度を向上させます。さまざまなLLMおよびドメインで効果的であり、さまざまなタスクでGPT-4を凌駕することさえあります。BSMは、さまざまなタスクにおいてLLMパフォーマンスを向上させるための多機能かつ有望な手法です。 この研究に関する論文をチェックしてください。この研究には研究者の皆さんによる全てのクレジットがあります。また、最新のAI研究ニュースや面白いAIプロジェクトなどを共有している32k+のML SubReddit、40k+のFacebookコミュニティ、Discordチャネル、およびメールニュースレターにも参加してみてください。 私たちの仕事が好きなら、ニュースレターもきっと気に入るでしょう。 また、TelegramとWhatsAppでもご利用いただけます。 記事「リサーチャーのMetaとUNC-Chapel HillがBranch-Solve-Mergeを導入:複雑な言語タスクで大規模言語モデルのパフォーマンスを向上させる革命的なプログラム」は、MarkTechPostで最初に掲載されました。

マイクロソフトAzure Functionsとは何ですか?

イントロダクション マイクロソフト・アジュールの幅広いサービスは、独自のニッチを作り出すことに成功しています。アジュール・ファンクションは、優れたダイナミックで効果的なサーバーレス・コンピューティング・ソリューションです。この記事では、アジュール・ファンクションの機能や利用方法、実際の使用例をハンズオンで紹介します。 アジュール・ファンクションとは何ですか? アジュール・ファンクションは、イベント駆動型のサーバーレス・コンピューティング・プラットフォームで、開発者がアプリケーション開発を効率化するためのツールです。ハードウェアの複雑さを抽象化し、コアのビジネスロジックに集中できます。開発者は複雑なオーケストレーションを簡素化し、クラウド上でスケーラブルなソリューションをローカルに開発・デプロイすることができます。トリガーとバインディングを介して、アジュール・ファンクションはシームレスにアジュールサービスと連携します。 アジュール・ファンクションはどのように動作しますか? アジュール・ファンクションは、サーバーレス・コンピューティングの原則に基づいて動作し、イベントトリガーに基づくコードの実行をインフラストラクチャの管理なしで簡単かつ効率的に行う方法を提供しています。その動作の主な側面は以下の通りです: トリガー:アジュール・ファンクションは、HTTPリクエスト、データベースの更新、メッセージキューのメッセージ、タイマーなど、さまざまなイベントトリガーに応答します。各ファンクションは特定のトリガーと関連付けられます。 自動スケーリング:トリガーがアクティブ化されると、必要なコンピューティングリソースを動的に割り当て、さまざまなワークロードに応じた効率的なスケーリングを実現します。リソースは自動的にプロビジョニングおよび解除され、実際のコンピュート時間のみが請求されます。 実行環境:開発者は好みのプログラミング言語(C#、JavaScript、Python、Javaなど)でコードを書き、ファンクションにランタイム環境を提供する「ファンクションアプリ」内で実行します。 ステートレス:アジュール・ファンクションはステートレス設計されており、呼び出し間で永続的な状態を保持しません。必要な状態情報は通常、ストレージサービスやデータベースなど外部で管理されます。 統合:アジュール・ファンクションはさまざまなアジュールサービスや外部システムとシームレスに統合し、強力なイベント駆動型アプリケーションを作成できます。データベースに接続したり、外部イベントに基づいてアクションをトリガーしたり、結果をデータストアに保存したり、通知を送信したりすることができます。 アジュール・ファンクションを使用するのは誰ですか? アジュール・ファンクションはマイクロソフト・アジュールが提供する多目的なサーバーレス・コンピューティング・サービスであり、さまざまなユーザーや産業で利用されています。以下は、それぞれのユーザーグループについての簡単な紹介と共に、誰がそれを使用しているかをまとめた表です。 ユーザーグループ 利用例 利点 開発者 クラウドネイティブアプリケーション: 開発者はアジュール・ファンクションを使用してクラウドネイティブアプリケーションを構築し、デプロイします。 – インフラストラクチャ管理ではなく、コードの記述に焦点を当てることができます。 – 負荷が増えるにつれて自動的にスケールします。 イベント駆動型マイクロサービス:…

「YouTube動画の要約を作成するためのAIアシスタントの完全ガイド — Part 2」のための完全ガイド

このシリーズの前の部分では、YouTubeのビデオのトランスクリプトを取得しましたこの記事では、そのトランスクリプトを取り上げ、テキストを要約するパイプラインを作成します

「生成AIはその環境への足跡に値するのか?」

今日、生成AIは非常に注目されていますChatGPTには数億人ものユーザーがおり、同様の機能が多くのデジタル製品に組み込まれていると言われています…

「Data Enthusiasts向けにエキサイティングな新機能を解放するChatGPT Plus」

OpenAIは、この最先端のAIとのコミュニケーション方法を完全に変えると約束するベータバージョンをリリースしています。これはChatGPT Plusのサブスクライバーにとってエキサイティングな進歩です。この待ち望まれた最新版の重要な追加機能は、ファイルのアップロードと分析の機能、そしてマルチモーダルのサポートです。これらの革新的な追加機能により、ChatGPTエンタープライズでしか利用できなかったオフィス機能の一部が、個別のチャットボットのサブスクライバーにも提供されるようになりました。この記事では、これらの新機能がどのようにAIの利用方法を変えるかについて詳しく説明します。 詳細はこちら: ChatGPTとは?知っておくべきすべてのこと ファイルのアップロードと分析:データ愛好家にとっての革命的な機能 ChatGPT Plusのアップデートで最も注目すべき機能の1つは、アップロードしたファイルをチャットボットのインターフェースに直接追加できることです。この機能により、ユーザーは新しい可能性を手に入れ、大きな進歩を遂げることができます。手作業で情報をコピー&ペーストする必要がなくなるため、時間と労力が節約されます。 どのように機能するのか? ChatGPTは、ユーザーがアップロードしたファイルを処理して評価するために少し時間がかかります。ファイルが処理された後、チャットボットは質問や回答の提供、またはユーザーの要求に応じてデータの視覚化を作成するなど、さまざまな方法でサポートすることができます。これにより、研究者、アナリスト、データ愛好家は、より効果的なデータ分析のための強力なツールを手に入れることができます。 コンテキストに基づく直感的なマルチモーダルサポート ChatGPT Plusのアップデートには、革命的な第2の機能であるマルチモーダルサポートが追加されました。以前のバージョンでは、ユーザーがメニューから「Bingで閲覧する」などのオプションを選択する必要がありましたが、この新しい機能は人工知能のコンテキスト理解を使用して、ユーザーのニーズを自動的に検出します。 ChatGPT Plusのメンバーは、もはやモードや設定に苦労する必要がありません。会話のコンテキストによってAIシステムの振る舞いが自動的に変更されます。この直感的なアプローチにより、ユーザーエクスペリエンスがよりシンプルになり、ChatGPTの相互作用の自然さとスムーズさが向上します。 アクセシビリティの向上 これらの新機能のリリースにアクセスできるのは、上位のユーザーに限られるわけではありません。ChatGPT Plusのメンバーは、ファイルのアップロードとマルチモーダルサポートを利用することができるようになりました。これにより、AIを活用したデータ分析やコンテンツ作成の対象が広がります。 未来の一端を垣間見る ChatGPTエコシステムが発展するにつれて、未来には何が待っているのかは想像するにすぎません。最新のアップデートは、ユーザーエクスペリエンスの向上とAIへのアクセス性の向上に対するOpenAIの取り組みを示しています。ChatGPT Plusは、人工知能の洗練された能力についてさらに学ぶためのプラットフォームです。 詳細はこちら: OpenAIがユーザーエクスペリエンスを革新するために導入した6つのエキサイティングなChatGPTの機能 私たちの意見 OpenAIは、ChatGPT Plusのメンバー向けにファイルのアップロード、分析、およびマルチモーダルサポートの新しいベータ版機能をリリースしました。これらのアップデートにより、AIによるデータ分析やコンテンツ作成がより簡単で便利になりました。OpenAIは人工知能のエキサイティングな分野をリードしています。ChatGPT Plusを使用して、人工知能の果てしない可能性を探索しましょう。

スタンフォード大学とUTオースティンの研究者は、Contrastive Preference Learning (CPL)を提案します:RLHFのためのRL-Freeな方法であり、任意のMDPsとオフポリシーのデータと一緒に動作します

モデルがパフォーマンスを向上させるにつれて、人間の好みと大規模事前トレーニング済みモデルの一致は、研究の中で注目を集めています。大きなデータセットには避けられない不適切な振る舞いがある場合、この調整は特に困難になります。そのため、人間の入力による強化学習(RLHF)が人気を集めています。RLHFアプローチでは、人間の好みを使用して受け入れ可能な行動と悪い行動を区別し、既知のポリシーを改善します。このアプローチは、ロボットのルールの調整、画像生成モデルの向上、そして理想的ではないデータを使用して大規模言語モデル(LLM)を微調整する際に、励みになる結果を示しています。 RLHFアルゴリズムの大部分には、この手続きには2つの段階があります。 まず、ユーザーの好みデータを収集して報酬モデルをトレーニングします。オフシェルフの強化学習(RL)アルゴリズムがその報酬モデルを最適化します。残念ながら、この二段階のパラダイムでは、この基礎に修正が必要です。人間の好みは、アルゴリズムが好みのデータから報酬モデルを開発するための各行動セグメントの割引された報酬の合計または部分的なリターンによって割り当てられる必要があります。しかし、最近の研究では、人間の好みは、専門家の報酬関数の理想的なポリシーの下での各アクションの後悔に基づいているべきだというこの理論を否定し、人間の評価はおそらく報酬より最適性に焦点を当てていると主張しています。 したがって、最適な利点関数、すなわち後悔の否定は、フィードバックから学ぶための理想的な数値である可能性があります。二段階のRLHFアルゴリズムは、最初のフェーズで既知の報酬関数を最適化するためにRLを使用します。実世界の応用では、時間的な信用割り当ては、近似動的プログラミングの不安定性やポリシーグラデーションの高い分散など、RLアルゴリズムにさまざまな最適化の困難をもたらします。その結果、以前の研究ではこれらの問題を回避するために範囲を制限しています。たとえば、RLHFアプローチでは、LLMの場合にはコンテキストバンディット形式が想定されており、ユーザーの質問に対して単一の報酬値がポリシーに与えられます。 ユーザーのLLMsとの相互作用は、マルチステップで連続的であるため、単一ステップのバンディットの仮定は破られています。これにより、長期的な信用割り当ての要件が軽減され、ポリシーグラデーションの高い分散も軽減されます。もう1つの例は、低次元の状態ベースのロボティクスの問題にRLHFを適用することであり、近似動的プログラミングに適しています。ただし、より現実的な連続的な制御領域と画像入力を持つ高次元の制御領域にスケーリングすることはまだできていません。一般的に、RLHFアプローチでは、問題の連続性または次元に関する制約を緩和することで、RLの最適化の制約を軽減する必要があります。彼らは一般的に報酬関数のみが人間の好みを決定すると誤解しています。 この研究では、合計報酬を考慮する一部のリターンモデルとは異なり、Stanford University、UMass Amherst、UT Austinの研究者らは、後悔ベースの好みモデルを使用するこの新しいRLHFアルゴリズムの一族を提供しています。部分的なリターンモデルとは異なり、後悔ベースのアプローチは、最適な行動の正確な情報を提供します。幸いなことに、これによりRLの必要性がなくなり、汎用MDPフレームワークにおいて、高次元の状態とアクション空間のRLHF問題に対処することができます。彼らの基本的な発見は、後悔ベースの好みフレームワークを最大エントロピー(MaxEnt)の原理と組み合わせることによって、利点関数とポリシーの間の双写像を作成することです。 利点関数を最適化する代わりにポリシーを最適化することで、彼らは純粋な教師あり学習の目的を確立することができます。その最適は、専門家の報酬に基づく最良のポリシーです。彼らの手法は広く認識されている対照的な学習目的に似ているため、コントラスティブな好み学習と呼ばれます。CPLには、先行の取り組みと比べて3つの主な利点があります。まず、CPLは動的プログラミングやポリシーグラデーションを使用せずに、教師ありゴールのみを使用して最適な利点を一致させるため、教師あり学習と同じくらいスケーリングすることができます。第二に、CPLは完全にオフポリシーであり、オフラインの理想的でないデータソースを使用することが可能です。最後に、CPLは、任意のMarkov決定プロセス(MDP)の学習のためのシーケンシャルデータ上の好み検索を可能にします。 彼らによると、これまでのRLHFの技術はこの3つの要件を同時に満たすことができていません。CPLの性能を示すため、彼らはサブオプティマルな高次元オフポリシー入力を使用して連続的な意思決定問題でCPLの遵守度を証明します。興味深いことに、彼らは、対話モデルと同じRLHF微調整プロセスを使用して、MetaWorld Benchmarkで時間的に延長された操作ルールを効果的に学習することができるCPLをデモンストレーションしています。より具体的には、高次元の画像観測からの教師あり学習を使用してポリシーを事前トレーニングし、その後好みを使用して微調整します。CPLは、動的プログラミングやポリシーグラデーションなしで既存のRLベースの技術と同等のパフォーマンスを発揮することができます。また、パラメータの効率性が4倍高く、同時に1.6倍速くなります。より密な優先データを使用する場合、CPLはRLベースラインを6つのタスクのうち5つで上回ることができます。研究者は、報酬関数を学習することなく、好みから最適なポリシーを学習するために、最大エントロピーの概念を利用することで強化学習(RL)の必要性を回避することができます。

「ChatGPTのような大規模言語モデルによる自己説明は感情分析にどれほど効果的か?パフォーマンス、コスト、解釈可能性に迫る深い探求」

言語モデル(GPT-3)は、データで学習したパターンに基づいてテキストを生成するため、中立であり感情を持ちません。トレーニングに使用されたデータにバイアスが含まれている場合、そのバイアスはモデルの出力に反映されることがあります。しかし、彼らの出力は、文脈と入力に基づいてポジティブ、ネガティブ、または中立として解釈することができます。センチメントを決定する際には、テキストの文脈が重要です。一つの文は、単独で考えるとネガティブかもしれませんが、テキスト全体の広い文脈で考えるとポジティブかもしれません。大きな言語モデルは周囲のテキストを考慮に入れますが、文脈を理解することは困難な場合もあります。 曖昧さ、皮肉、または混合した感情を持つテキストのセンチメント分析は困難です。大きな言語モデルは、そのような微妙なニュアンスを正しく解釈できない場合があります。センチメント分析の誤分類や誤用は、現実世界での結果を招く可能性があります。AIを責任を持って使用する際には、これらの影響を考慮することが重要です。UCサンタクルーズの研究者は、ChatGPTやGPT-4などのさまざまなモデルのセンチメンタルな振る舞いを分析しました。彼らはLLMの自己生成機能の特徴的行動を評価しました。 評価では、2つの生成方法を研究しました。予測の前に説明を生成する方法と、予測を生成してからそれを説明する方法を比較しました。両方の方法で、モデルに、重要度スコアを含む全ての単語の特徴割り当ての完全なリストを作成し、最も重要な単語のトップk個を返すように求めました。彼らはそれらを、解釈手法である遮蔽および局所的なモデルに依存しない説明と比較しました。これらの2つの技術は、複雑なモデルの予測を解釈および説明するために機械学習および深層学習で使用されます。 また、これらのモデルは入力特徴に基づいて評価する必要もあります。勾配操作、スムース勾配、および統合勾配などの代表的な方法を使用して、入力特徴値の微小な摂動に対するモデルの応答を評価する必要があります。研究者たちは、多様な入力と複数の特徴を同時に除去することで非線形の相互作用を捉え、特徴の重要度を線形回帰係数として定義し、評価しました。 誠実性の評価によれば、自己生成された説明は他のどの評価にも明確な優位性を持ちません。合意の評価によれば、非常に異なる結果があります。その結果、現在の説明よりも優れた説明が存在する可能性があり、新しい技術がそれを明らかにする必要があるかもしれません。 この考えの連鎖は、モデルの説明と見なすことができます。特に数学の問題解決などの複雑な推論タスクにおいて、最終的な回答の正確性に役立ちます。したがって、チームの将来の研究では、GPT-4、Bard、およびClaudeなどのLLMを評価します。これらのモデルが自分自身をどのように理解しているかを理解するため、比較的な研究を実施します。また、カウンターファクトな説明や概念ベースの説明に関する研究も行いたいと考えています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us