Learn more about Search Results A - Page 720

トランスフォーマーによるOCRフリーの文書データ抽出(2/2)

ドーナツとPix2Structトランスフォーマーモデルは、ドキュメントをどれだけ理解していますか?トレーニング方法と、キーインデックス抽出のタスクにおける結果を比較する方法を示します

「データサイエンスの観点からFCバルセロナのディフェンスを分析する」

数日前、私は初めてのスポーツ分析の投稿をしましたまだまったくその話題に引かれている気持ちなので、ここでもう一度サッカーについて書いていますその投稿(以下のリンク)では、頻度統計学の統計を使用しました

「グリーンウォッシングとは何か、そして私たちはアナリティクスを使用してそれを検出する方法」

「データ分析がどのように私たちにグリーンウォッシングを検出し、防止し、本物の持続可能性を促進するのに役立つかを探求してください」

「Google LLMは、ドキュメントを読むだけでツールをマスターできる」

急速な技術の進歩の時代において、人工知能(AI)は時折、人間のような驚異的な進歩を遂げています。Googleの研究者たちは画期的な成果を発表しました。大規模言語モデル(LLM)は、単なるツールのドキュメントを手助けにするだけで、機械学習(ML)モデルとAPIを活用することができるようになりました。この発見により、AIと人間のような能力の融合についての議論が巻き起こりました。 また読む:人工知能 vs 人間の知能:トップ7の違い オードリー効果:AIに自転車の乗り方を教える 4歳のオードリーという名前の子供に自転車の乗り方を教えることを想像してみてください。初めは補助輪から始め、さまざまなシナリオを通じて彼女を導き、最終的にはオードリーが自信を持って乗るようになります。同様に、Googleの研究者たちはドキュメントを通じてLLMにツールの機能を紹介し、事前のトレーニングなしにこれらのツールを操作することができるようにしました。まるでオードリーが本でそれについて読んで自転車の乗り方を学んだかのような、印象的で独立した方法です。 また読む:メタがテキスト、画像、音声を同時にトレーニングしたAIモデルをオープンソース化 デモからドキュメントへ:新しい光でAIを教える 歴史的には、AIモデルはデモンストレーション(デモ)を通じてツールを学習していました。多くの例が必要でした。Googleの画期的な手法はこれを変えました。彼らはツールのドキュメント(ドキュメント)を使用してLLMに教え、各使用ケースをデモする代わりにツールの機能を説明しました。この新しい手法は、AIがツールの理解を拡大し、効果的にツールの機能を探索する能力を高めることを目指しています。 AIの卒業:多岐にわたるタスク この新しい手法の力を評価するために、Googleの研究者はLLMをさまざまなタスクに従事させました。これには、マルチモーダルな質問応答、表形式の数学的推論、マルチモーダルな推論、APIの未知の使用、画像編集、ビデオトラッキングなどが含まれます。ChatGPTとして知られるモデルは徹底的にテストされ、その結果は驚くべきものでした。 また読む:AIは今や見たり聞いたりできる:マルチモーダルAIの世界へようこそ パフォーマンスの公開:ツール+ドキュメント vs デモ Googleの実験により、ドキュメントがLLMのパフォーマンスに与える影響が明らかになりました。ツールのドキュメントを持っている場合、モデルのパフォーマンスはデモの数が減少しても一定の水準を保ちます。ただし、ツールのドキュメントがない場合、モデルのパフォーマンスはデモの数の変動に対して脆弱になります。これは、ドキュメントが多目的なツールの利用能力を備えたAIモデルに与える重要な役割を示しています。 また読む:GPTBotの公開:WebをクロールするOpenAIの大胆な動き AIの驚異的な偉業:ツールのドキュメントの力 特筆すべきことに、ツールのドキュメントは人工知能の訓練と開発において画期的な変化をもたらします。研究者たちは、ツールのドキュメントだけで駆動されるLLMが、画像編集やビデオトラッキングなどのタスクにおいて最近のビジョンモデルを巧みに使用できることを実証しました。この成果により、ツールの使用が簡素化され、AIの自律的な知識の発見の可能性が示唆されます。ただし、ドキュメントの長さが600語を超えると、モデルの制約が明らかになります。 未来への一瞥:影響と発見 ツールの使用に加えて、Googleの調査結果は、ツールのドキュメントを通じた自動的な知識の発見への飛躍を意味しています。この研究は、AIの認知能力とツールの利用能力との間のギャップを埋めるものです。追加のデモンストレーションなしで人気のあるプロジェクトを再現することにより、AIの未来は限りなく広がり、その推論能力の新たな次元を明らかにする可能性があります。 私たちの意見 Googleの研究は、AIの驚異的な進化を示し、可能性の範囲を広げるものです。人工知能がツールのドキュメントを通じてMLモデルとAPIをマスターすることで、効率性の向上だけでなく、AIシステム内での自己発見の可能性を解き明かします。AIとツールのドキュメントの交差点は、人間のような能力と技術的な優位性が出会う領域への重要な一歩です。

「ドメイン特化LLMの潜在能力の解放」

イントロダクション 大規模言語モデル(LLM)は世界を変えました。特にAIコミュニティにおいて、これは大きな進歩です。テキストを理解し、返信することができるシステムを構築することは、数年前には考えられなかったことでした。しかし、これらの機能は深さの欠如と引き換えに得られます。一般的なLLMは何でも屋ですが、どれも専門家ではありません。深さと精度が必要な領域では、幻覚のような欠陥は高価なものになる可能性があります。それは医学、金融、エンジニアリング、法律などのような領域がLLMの恩恵を受けることができないことを意味するのでしょうか?専門家たちは、既に同じ自己教師あり学習とRLHFという基礎的な技術を活用した、これらの領域に特化したLLMの構築を始めています。この記事では、領域特化のLLMとその能力について、より良い結果を生み出すことを探求します。 学習目標 技術的な詳細に入る前に、この記事の学習目標を概説しましょう: 大規模言語モデル(LLM)とその強みと利点について学びます。 一般的なLLMの制限についてさらに詳しく知ります。 領域特化のLLMとは何か、一般的なLLMの制限を解決するためにどのように役立つのかを見つけます。 法律、コード補完、金融、バイオ医学などの分野におけるパフォーマンスにおけるその利点を示すためのさまざまな領域特化言語モデルの構築について、例を交えて探求します。 この記事はData Science Blogathonの一部として公開されました。 LLMとは何ですか? 大規模言語モデル(LLM)とは、数億から数十億のパラメータを持つ人工知能システムであり、テキストを理解し生成するために構築されます。トレーニングでは、モデルにインターネットのテキスト、書籍、記事、ウェブサイトなどからの多数の文を提示し、マスクされた単語または文の続きを予測するように教えます。これにより、モデルはトレーニングされたテキストの統計パターンと言語的関係を学びます。LLMは、言語翻訳、テキスト要約、質問応答、コンテンツ生成など、さまざまなタスクに使用することができます。トランスフォーマーの発明以来、無数のLLMが構築され、公開されてきました。最近人気のあるLLMの例には、Chat GPT、GPT-4、LLAMA、およびStanford Alpacaなどがあり、画期的なパフォーマンスを達成しています。 LLMの強み LLMは、言語理解、エンティティ認識、言語生成の問題など、言語に関するさまざまな課題のためのソリューションとして選ばれるようになりました。GLUE、Super GLUE、SQuAD、BIGベンチマークなどの標準的な評価データセットでの優れたパフォーマンスは、この成果を反映しています。BERT、T5、GPT-3、PALM、GPT-4などが公開された時、それらはすべてこれらの標準テストで最新の結果を示しました。GPT-4は、BARやSATのスコアで平均的な人間よりも高得点を獲得しました。以下の図1は、大規模言語モデルの登場以来、GLUEベンチマークでの大幅な改善を示しています。 大規模言語モデルのもう一つの大きな利点は、改良された多言語対応の能力です。たとえば、104の言語でトレーニングされたマルチリンガルBERTモデルは、さまざまな言語で優れたゼロショットおよびフューショットの結果を示しています。さらに、LLMの活用コストは比較的低くなっています。プロンプトデザインやプロンプトチューニングなどの低コストの方法が登場し、エンジニアはわずかなコストで既存のLLMを簡単に活用することができます。そのため、大規模言語モデルは、言語理解、エンティティ認識、翻訳などの言語に基づくタスクにおけるデフォルトの選択肢となっています。 一般的なLLMの制限 Web、書籍、Wikipediaなどからのさまざまなテキストリソースでトレーニングされた上記のような一般的なLLMは、一般的なLLMと呼ばれています。これらのLLMには、Bing ChatのGPT-4、PALMのBARDなどの検索アシスタント、マーケティングメール、マーケティングコンテンツ、セールスピッチなどのコンテンツ生成タスク、個人チャットボット、カスタマーサービスチャットボットなど、さまざまなアプリケーションがあります。 一般的なAIモデルは、さまざまなトピックにわたるテキストの理解と生成において優れたスキルを示していますが、専門分野にはさらなる深さとニュアンスが必要な場合があります。たとえば、「債券」とは金融業界での借入の形態ですが、一般的な言語モデルはこの独特なフレーズを理解せず、化学や人間同士の債券と混同してしまうかもしれません。一方、領域特化のLLMは、特定のユースケースに関連する専門用語を専門的に理解し、業界固有のアイデアを適切に解釈する能力があります。 また、一般的なLLMには複数のプライバシーの課題があります。たとえば、医療LLMの場合、患者データは非常に重要であり、一般的なLLMに機械学習強化学習(RLHF)などの技術が使用されることで、機密データの公開がプライバシー契約に違反する可能性があります。一方、特定のドメインに特化したLLMは、データの漏洩を防ぐために閉じたフレームワークを確保します。…

「英国の選挙登録簿に対するサイバー攻撃が明らかになる」

イギリスの選挙管理委員会は、「複雑なサイバー攻撃」として、2021年8月の選挙人名簿のコピーに「敵対的な行為者」がアクセスしたことを公表しました

「最もテクノロジー志向のある米国の都市は、自動運転車について疑問を抱いています」

サンフランシスコの役人や住民は自動運転車に感銘を受けていませんこれは自律型車両企業にとって前に立ちはだかる課題を強調しています

「中国、顔認識技術の規制案を作成」

中国のネット信託庁は、顔認識技術の使用に関する規則案を発表しました一般市民の顔認識技術の過度な使用に対する懸念を受けてのことです

「ダウンフォール」の欠陥が世代を超えたインテルチップで貴重なデータを公開します

「脆弱性によって、攻撃者は情報漏えいを利用して、個人メッセージ、パスワード、暗号化キーなどの機密情報を盗むことが可能となるかもしれません」

因果推論:準実験

A/Bテストがない状況で因果推論を行う方法は?準実験による説明と例、そして議論

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us