Learn more about Search Results フ - Page 3

私のウェブサイトのためのチャットボットを作るのが簡単になりました-GenAI

最近、ウェブサイトの顧客エクスペリエンス向上のためにエキサイティングなプロジェクトに着手しましたそれはサポートのためにチャットボットを構築することでしたこの旅は挑戦的でありながらも報酬的であり、貴重な知見を提供しました...

グーグルのディープマインドリサーチは、FunSearchを紹介します:数学とコンピュータ科学の新しい解決策を検索するための新しい人工知能手法

LLMは、人間のようなテキストの理解と生成に優れており、機械と人間のコミュニケーションを改善するために、人の言語を模倣した応答を理解し生成することができます。これらのモデルは言語翻訳、要約、質問応答、テキスト生成、感情分析など、多様なタスクで柔軟かつ適応性があります。その柔軟性により、さまざまな産業やアプリケーションに展開することが可能です。 ただし、LLMは時に幻覚を見ることがあり、正当ながら誤った主張をすることがあります。GPTモデルのような大規模言語モデルは、言語理解と生成において非常に高度であり、入力やプロンプトが曖昧、矛盾、または誤解を招く場合、モデルは入力の解釈に基づいて幻覚的な応答を生成する可能性があります。 Google DeepMindの研究者は、この制限を克服するために、FunSearchと呼ばれるメソッドを提案しています。これは、事実誤認や誤ったアイデアに対してガードする、事前にトレーニングされたLLMと評価器を組み合わせています。FunSearchは、複数の重要な要素を組み合わせることで、初期のスコアの低いプログラムを高スコアのプログラムに進化させ、新しい知識を発見するプログラムを生成します。 FunSearchは繰り返しのプロセスとして機能し、各サイクルでシステムは現在のプールから特定のプログラムを選択します。これらの選択されたプログラムはLLMによって処理され、革新的に拡張された新鮮なプログラムを生成し、自動評価を受けます。最も有望なプログラムは既存のプログラムのプールに再導入され、自己向上のループが確立されます。 研究者は、性能の良いプログラムをサンプリングし、それらを改善するためにLLMに戻すことでその機能を向上させます。彼らは骨格としての初期プログラムから始め、制御を司る重要なプログラムロジックのみを進化させます。彼らは各ステップに優先関数を配置することで意思決定を行います。彼らは多様なプログラムの大規模なプールを維持するために島ベースの進化的手法を使用します。新しい結果を見つけるために非同期にスケールさせます。 FunSearchは、ビンパッキングと同じ一般的な戦略を使用します。最も容量が少ないビンにしかアイテムを割り当てないのは、アイテムを配置した後に非常にきついフィットがされている場合のみです。この戦略により、埋まらない小さな隙間がなくなります。FunSearchの重要なコンポーネントの一つは、直接的に構成物を検索するのではなく、プログラムの空間で動作することです。これにより、FunSearchは実世界の応用の可能性を持ちます。 もちろん、これはただの初期段階です。FunSearchの進歩は、LLMの広範な進化と自然に一致します。研究者は、社会に存在するさまざまな重要な科学的および技術的な課題に対処するために、その機能を拡張し続けることを約束しています。

「エンパワーリング・インサイト: マイクロソフトのデータ分析のためのファブリックの潜在能力を解き放つ」

「Microsoft Fabricを探索することは、SQLサーバー以来の最も重要なデータプラットフォームの革新ですその構成要素、利点、および採用洞察を探索してください」

スタンフォード大学の研究者が、大規模言語モデル(LLM)における相互補完的および貢献的帰属に対する統一的なAIフレームワークを紹介します

大規模言語モデル(LLMs)は、人工知能(AI)の指数関数的に進化する分野での最新の進歩です。これらのモデルは、テキスト生成、質問応答、テキスト要約などのタスクにおいて驚異的なパフォーマンスを発揮しますが、生成されるデータの正確性とセキュリティには課題があります。これらのモデルは、時には虚偽の情報を製造または生成し、信頼性のない出力を作り出すことがあります。 モデルの出力が害を引き起こす場合、その源泉を追跡することは道徳的および法的な責任を割り当てるために必要ですが、帰属は創造的な技術的研究が必要な困難なタスクです。LLMの出力の帰属に関する研究は、主に2つの領域に焦点を当てています:トレーニングデータの帰属(TDA)および引用生成。 最近の研究では、スタンフォード大学の研究チームが大規模言語モデルの帰属について統一フレームワークを導入しました。この研究は引用生成とTDAを組み合わせ、確証的および寄与的な帰属の下に統一的なフレームワークを提供します。寄与的帰属は作成されたコンテンツの源泉の検証に重点を置きますが、確証的帰属は外部の知識に基づいて出力が正確であることを検証しようとします。 チームはさまざまな状況で望ましい属性を詳細に検討し、各形式の帰属について正確な定義を提供しました。この方法は、両方の種類の徹底的な帰属を提供できる帰属システムの創造と評価を促進するものであり、言語の帰属の明確で柔軟な概念に向けた第一歩です。 このフレームワークは、その有用性を示すために実際のユースケースで利用されています。例は、一方または両方の種類の帰属が必要となる状況を示しています。法的文書の作成のプロセスでは、内部的な妥当性、つまりトレーニングデータの帰属によって情報の源泉と信頼性を確認し、外部的な妥当性、つまり引用の作成によって素材が法的要件に準拠していることを確認します。同様に、医療の質問応答の文脈では、応答の正確性の検証とモデルの知識に影響を与える源泉の理解のために両方の帰属が重要です。 チームは次のように主な貢献をまとめました。 共有要素を強調した帰属の共有フレームワークを示すインタラクションモデルが提示されました。 両方の種類の帰属に関連する属性を見つけることによって、組み合わせたフレームワークが改善されました。 現在の寄与的および確証的な帰属の実装の包括的な分析が行われ、現実世界での使用に関する洞察が提供されました。 法的文書の作成などの帰属に重要なシナリオについて、効果的に必要な特性を記述しました。 結論として、このフレームワークは素晴らしい導入であり、帰属システムの評価の標準化に役立ち、さまざまな分野でその効果の体系的かつ比較可能な評価を推進します。これにより、大規模言語モデルの使用を改善し促進し、出力の信頼性の重要な問題を解決することができます。

「EPFLとAppleの研究者が4Mをオープンソース化:数十のモダリティとタスクにわたるマルチモーダルな基盤モデルの訓練のための人工知能フレームワーク」

大量の自然言語処理(NLP)タスクを広範に扱える大型言語モデル(LLM)をトレーニングすることは、より人気があります。NLPでこれらのモデルが優れた成功を示しているにもかかわらず、ビジョンのために同様に柔軟でスケーラブルなモデルを作成する必要があります。ビジョンのスケーラビリティと多機能性には、多くの入力モダリティと出力タスクを管理する能力が不可欠です。 ビジョンモデルは、写真、3D、テキストを含むさまざまな感覚入力を処理し、さまざまなタスクを実行する必要があります。ビジョンに関しては、単一の目的でRGB画像でのトレーニングは、生のテキストに対する言語モデリングと同じ結果を生みませんでした。その結果、トレーニングではさまざまなモダリティとタスクを活用する必要があります。 データ、アーキテクチャ、トレーニングの目的は、望ましいビジョン基盤モデルの属性を持つモデルを構築する際に考慮すべき3つの重要なスケーラビリティ要素です。データのスケーラビリティは、性能を向上させるためにより多くのトレーニングサンプルを活用できる能力を指します。アーキテクチャの観点では、性能が増加するにつれてモデルサイズを大きくし、トレーニング時に安定性を保つことを意味します。最後に、スケーラブルなトレーニング目標は、計算コストが急増することなく、増加するモダリティの数に効率的に対応できる必要があります。 スイス連邦工科大学ローザンヌ校(EPFL)とAppleの新しい研究は、これらの3つの領域すべてでスケーラビリティを目指し、さまざまな入力タイプと互換性のある方法を提案しています。 これらの障壁を乗り越えるため、チームは、マルチモーダルなマスクされたモデリングのゴールを持つ単一の統合トランスフォーマーエンコーダーデコーダーをトレーニングする戦略を提案しています。4Mは「Massively Multimodal Masked Modeling」の略で、このアプローチの様々なモダリティに拡張可能な能力を強調しています。このアプローチは、マスクされたモデリングとマルチモーダル学習の最良の特徴を組み合わせています。 強力なクロスモーダル予測コーディング能力と共有シーン表現 反復サンプリングにより、モデルを生成タスクに使用できる 事前トレーニングの目的は、効果的に豊かな表現を学ぶことです 重要なのは、4Mがこれらの利点を保ちながら、多くのプロセスを通じて効率を保つことです。モダリティ固有のトークナイザーを使用することで、モダリティをさまざまな形式でセットや連続の離散トークンに変換し、テキスト、境界ボックス、画像、ニューラルネットワークの特徴など、さまざまなモダリティで単一のトランスフォーマーをトレーニングできます。これにより、表現領域が統一されます。タスク固有のエンコーダーやヘッドはもはや必要ないため、このトークナイゼーションアプローチにより、パラメータ共有が可能になり、互換性、スケーラビリティ、共有性が向上します。 また、4Mは、多くのモダリティで作業するにもかかわらず、入力と目標のマスキングを活用して効率的にトレーニングすることができます。これには、トークンの小さなサブセットをランダムに選択してモデルの入力として使用し、別の小さなサブセットを目標として使用する必要があります。スケーラブルなトレーニング目標を達成するためには、入力トークンと目標トークンの数をモダリティの数から切り離す必要があります。これにより、モダリティの数が増えても計算コストが急速に増加することを防げます。CC12Mや他の利用可能な単一モーダルまたはテキスト-画像ペアデータセットを使用して、強力な擬似ラベリングネットワークを使用してモーダルに整合したバインディングデータを作成します。 この擬似ラベリング手法により、異なる大規模データセットでのトレーニングが可能になります。4Mモデルは、出発点でさまざまな重要な視覚タスクで優れた結果を出すだけでなく、未知のダウンストリームタスクや入力モダリティでも注目すべき結果を達成するために微調整することができます。 さらに、どのモダリティでも条件付きで操作可能な操作可能な生成モデルをトレーニングするために、マルチモーダルなマスクされたモデリングゴールを利用する必要があります。これにより、ユーザーの意図やさまざまなマルチモーダルな編集タスクの多様な表現が可能になります。その後、4Mのパフォーマンスに影響を与えるパラメータを徹底的に分析します。この包括的な分析と、この手法の容易さと汎用性により、4Mは多くのビジョンタスクと今後の開発に大いに期待されます。

「LLMアプリケーション開発のための実践的なLangChain ドキュメントの読み込み」

「データとチャットできるアプリケーションを作成するためには、まずデータを作業可能な形式に読み込む必要がありますそれがLangChainのドキュメントローダーの役割です...」

「初めてのデータサイエンスプロジェクトに打ち勝つための6つの初心者向けの素晴らしいヒント」

「経験がない状態で初めてのデータサイエンスプロジェクトを始める方法を知ることは難しいかもしれませんここでインサイトを得て、データサイエンスのデビューを成功させましょう!」

「MLを学ぶ勇気:F1、再現率、適合率、ROC曲線により深く掘り下げる」

「「勇気を持って機械学習を学ぶ」シリーズへようこそこのセッションでは、メトリクスの微妙な世界を探究しています多くの資料はこれらのメトリクスを紹介したり、詳しく取り上げたりしますが…」

私はスポティファイで3回の大量解雇を乗り越えました、ここで学んだこと

数年間の努力の末、ついに夢の仕事に就くことを想像してみてくださいあなたは世界の頂点に立ち、人生を謳歌し、安定感を感じていますしかし、どこからともなくリストラが襲いかかりますこれは単なる仮説ではありません...

『 ファッションと美容における迅速な思考とゆっくりな思考:PythonとGPT4を用いた統計的変動性』

私たちは物事をすぐにシンプルにする傾向がありますが、複雑さにもゆっくりと向き合うことがあります(望む場合には)ダニエル・カーネマンは彼の著書「思考、早くと遅く」で、私たちの葛藤を説明しています...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us