Learn more about Search Results AI - Page 120
- You may be interested
- マイクロソフトの研究者たちは、FP8混合精...
- 大規模言語モデル:SBERT
- 合成時系列データ生成としてのLLM
- データの汚染を防ぐためのサイバーセキュ...
- Amazon SageMakerを使用してSaaSプラット...
- Googleはカナダに「リンク税」を支払わな...
- 「Pythonの型 Optionalは必須を意味するこ...
- 「機械学習における特徴エンジニアリング...
- 「ODSC EuropeのML for Financeトラックで...
- このUCLAのAI研究によると、大規模な言語...
- 「学生向けの最高のAIツール(2023年9月)」
- 「インプレッションGPT:放射線学報告書要...
- 「VoAGIの30周年おめでとう!」
- 「LLMはiPhone上でネイティブに動作できる...
- このAI論文は、大規模な言語モデルにおけ...
言語学習モデルにおけるOpenAIの関数呼び出しの力:包括的なガイド
OpenAIの関数呼び出し機能を使用したデータパイプラインの変換:PostgreSQLとFastAPIを使用した電子メール送信ワークフローの実装
SalesforceのLive Call Analyticsによる統合でエージェントの生産性を向上させる
コンタクトセンターエージェントとして、生産的な顧客との会話に集中することが好きですか?それとも、さまざまなシステムに存在する顧客情報や知識記事を調べることによって気を散らされますか?私たちは皆、そういう経験をしたことがありますマルチタスクをしながら生産的な会話をすることは難しいです1つのネガティブな経験は、[...]に傷をつける可能性があります
CVPR 2023におけるGoogle
Googleのプログラムマネージャー、Shaina Mehtaが投稿しました 今週は、バンクーバーで開催される最も重要なコンピュータビジョンとパターン認識の年次会議であるCVPR 2023の始まりを迎えます(追加のバーチャルコンテンツもあります)。Google Researchはコンピュータビジョンの研究のリーダーであり、プラチナスポンサーであり、メインカンファレンスで約90の論文が発表され、40以上のカンファレンスワークショップやチュートリアルに積極的に参加しています。 今年のCVPRに参加する場合は、是非、ブースに立ち寄って、最新のマシンパーセプションの様々な分野に応用するための技術を積極的に探求している研究者とお話ししてください。弊社の研究者は、MediaPipeを使用したオンデバイスのMLアプリケーション、差分プライバシーの戦略、ニューラル輝度場技術など、いくつかの最近の取り組みについても話し、デモを行います。 以下のリストでCVPR 2023で発表される弊社の研究についても詳しくご覧いただけます(Googleの所属は太字で表示されています)。 理事会と組織委員会 シニアエリアチェアには、Cordelia Schmid、Ming-Hsuan Yangが含まれます。 エリアチェアには、Andre Araujo、Anurag Arnab、Rodrigo Benenson、Ayan Chakrabarti、Huiwen Chang、Alireza Fathi、Vittorio Ferrari、Golnaz Ghiasi、Boqing Gong、Yedid Hoshen、Varun Jampani、Lu…
AIの仕事を見つけるための最高のプラットフォーム
あなたのキャリアの目標、好みの仕事スタイル、およびAIの専門分野に依存するAIの仕事に最適なプラットフォームについてもっと学びましょう
より小さい相手による言語モデルからの知識蒸留に深く潜入する:MINILLMによるAIのポテンシャルの解放
大規模言語モデルの急速な発展による過剰な計算リソースの需要を減らすために、大きな先生モデルの監督の下で小さな学生モデルを訓練する知識蒸留は、典型的な戦略です。よく使われる2つのKDは、先生の予測のみにアクセスするブラックボックスKDと、先生のパラメータを使用するホワイトボックスKDです。最近、ブラックボックスKDは、LLM APIによって生成されたプロンプト-レスポンスペアで小さなモデルを最適化することで、励ましを示しています。オープンソースのLLMが開発されるにつれて、ホワイトボックスKDは、研究コミュニティや産業セクターにとってますます有用になります。なぜなら、学生モデルはホワイトボックスのインストラクターモデルからより良いシグナルを得るため、性能が向上する可能性があるためです。 生成的LLMのホワイトボックスKDはまだ調査されていませんが、小規模(1Bパラメータ)の言語理解モデルについては、主にホワイトボックスKDが調査されています。この論文では、彼らはLLMのホワイトボックスKDを調べています。彼らは、一般的なKDが課題を生成的に実行するLLMにとってより優れている可能性があると主張しています。シーケンスレベルモデルのいくつかの変種を含む標準的なKD目標は、教師と学生の分布の近似前方クルバック・ライブラー発散(KLD)を最小化し、KLとして知られています。教師分布p(y|x)と学生分布q(y|x)によってパラメータ化され、pがqのすべてのモードをカバーするように強制する。出力空間が有限の数のクラスを含むため、テキスト分類問題においてKLはよく機能します。したがって、p(y|x)とq(y|x)の両方に少数のモードがあることが保証されます。 しかし、出力空間がはるかに複雑なオープンテキスト生成問題では、p(y|x)はq(y|x)よりもはるかに広い範囲のモードを表す場合があります。フリーラン生成中、前方KLDの最小化は、qがpの空白領域に過剰な確率を与え、pの下で非常にありそうもないサンプルを生成することにつながる可能性があります。この問題を解決するために、コンピュータビジョンや強化学習で一般的に使用される逆KLD、KLを最小化することを提案しています。パイロット実験は、KLを過小評価することで、qがpの主要なモードを探し、空いている領域を低い確率で与えるように駆動することを示しています。 これは、LLMの言語生成において、学生モデルがインストラクター分布の長いテールバージョンを学習しすぎず、誠実さと信頼性が必要な実世界の状況で重要な応答の正確性に集中することを意味します。彼らは、ポリシーグラディエントで目標の勾配を生成してmin KLを最適化します。最近の研究では、PLMの最適化にポリシーオプティマイゼーションの効果が示されています。ただし、モデルのトレーニングはまだ過剰な変動、報酬のハッキング、および世代の長さのバイアスに苦しんでいることがわかりました。そのため、彼らは以下を含めます。 バリエーションを減らすための単一ステップの正則化。 報酬のハッキングを減らすためのティーチャー混合サンプリング。 長さのバイアスを減らすための長さ正規化。 広範なNLPタスクを含む指示に従う設定では、The CoAI Group、清華大学、Microsoft Researchの研究者は、MINILLMと呼ばれる新しい技術を提供し、パラメータサイズが120Mから13Bまでのいくつかの生成言語モデルに適用します。5つの指示に従うデータセットと評価のためのRouge-LおよびGPT-4フィードバックを使用します。彼らのテストは、MINILMがすべてのデータセットでベースラインの標準KDモデルを常に打ち負かすことを示しています(図1を参照)。さらに研究により、MINILLMは、より多様な長い返信を生成するのに適しており、露出バイアスが低く、キャリブレーションが向上していることがわかりました。モデルはGitHubで利用可能です。 図1は、MINILLMとシーケンスレベルKD(SeqKD)の評価セットでの平均GPT-4フィードバックスコアの比較を示しています。左側にはGPT-2-1.5Bがあり、生徒としてGPT-2 125M、340M、および760Mが動作します。中央には、GPT-2 760M、1.5B、およびGPT-Neo 2.7Bが生徒であり、GPT-J 6Bがインストラクターです。右側にはOPT 13Bがあり、生徒としてOPT 1.3B、2.7B、および6.7Bが動作しています。
Google Cloudを使用してレコメンドシステムを構築する
Google CloudのRecommendation AIを使用して、高度な推薦システムを実装してください
アテンションメカニズムを利用した時系列予測
はじめに 時系列予測は、金融、気象予測、株式市場分析、リソース計画など、さまざまな分野で重要な役割を果たしています。正確な予測は、企業が情報に基づいた決定を行い、プロセスを最適化し、競争上の優位性を得るのに役立ちます。近年、注意機構が、時系列予測モデルの性能を向上させるための強力なツールとして登場しています。本記事では、注意の概念と、時系列予測の精度を向上させるために注意を利用する方法について探求します。 この記事は、データサイエンスブログマラソンの一環として公開されました。 時系列予測の理解 注意機構について詳しく説明する前に、まず時系列予測の基礎を簡単に見直してみましょう。時系列は、日々の温度計測値、株価、月次の売上高など、時間の経過とともに収集されたデータポイントの系列から構成されます。時系列予測の目的は、過去の観測値に基づいて将来の値を予測することです。 従来の時系列予測手法、例えば自己回帰和分移動平均(ARIMA)や指数平滑法は、統計的手法や基礎となるデータに関する仮定に依存しています。研究者たちはこれらの手法を広く利用し、合理的な結果を得ていますが、データ内の複雑なパターンや依存関係を捉えることに課題を抱えることがあります。 注意機構とは何か? 人間の認知プロセスに着想を得た注意機構は、深層学習の分野で大きな注目を集めています。機械翻訳の文脈で初めて紹介された後、注意機構は自然言語処理、画像キャプション、そして最近では時系列予測など、様々な分野で広く採用されています。 注意機構の主要なアイデアは、モデルが予測を行うために最も関連性の高い入力シーケンスの特定の部分に焦点を合わせることを可能にすることです。注意は、すべての入力要素を同等に扱うのではなく、関連性に応じて異なる重みや重要度を割り当てることができるようにします。 注意の可視化 注意の仕組みをよりよく理解するために、例を可視化してみましょう。数年にわたって日々の株価を含む時系列データセットを考えます。次の日の株価を予測したいとします。注意機構を適用することで、モデルは、将来の価格に影響を与える可能性が高い、過去の価格の特定のパターンやトレンドに焦点を合わせることができます。 提供された可視化では、各時間ステップが小さな正方形として描かれ、その特定の時間ステップに割り当てられた注意重みが正方形のサイズで示されています。注意機構は、将来の価格を予測するために、関連性が高いと判断された最近の価格により高い重みを割り当てることができることがわかります。 注意に基づく時系列予測モデル 注意機構の理解ができたところで、時系列予測モデルにどのように統合できるかを探ってみましょう。人気のあるアプローチの1つは、注意を再帰型ニューラルネットワーク(RNN)と組み合わせることで、シーケンスモデリングに広く使用されている方法です。 エンコーダ・デコーダアーキテクチャ エンコーダ・デコーダアーキテクチャは、エンコーダとデコーダの2つの主要なコンポーネントから構成されています。過去の入力シーケンスをX = [X1、X2、…、XT]、Xiが時間ステップiの入力を表すようにします。 エンコーダ エンコーダは、入力シーケンスXを処理し、基礎となるパターンと依存関係を捉えます。このアーキテクチャでは、エンコーダは通常、LSTM(長短期記憶)レイヤを使用して実装されます。入力シーケンスXを取り、隠れ状態のシーケンスH = [H1、H2、…、HT]を生成します。各隠れ状態Hiは、時間ステップiの入力のエンコード表現を表します。 H、_= LSTM(X)…
トヨタのAIにより、電気自動車の設計がより迅速になりました
トヨタ研究所(TRI)は、車両設計の世界で発表を行いました。彼らは、画期的な生成型人工知能(AI)技術を発表し、電気自動車(EV)の設計方法を変革することを目指しています。この新しい技術により、トヨタは、EVの設計の手動開発がしばしば妨げられる制約を克服することを目指しています。このエキサイティングなブレークスルーについて詳しく見ていきましょう。 また読む: Tech Mahindra CEO Accepts Sam Altman’s AI Challenge クリエイティブプロセスの強化 デザイナーは、既に公開されているテキストから画像を生成するAIツールを、創造プロセスの早い段階で利用することができます。 TRIの革新的な技術は、初期の設計スケッチとエンジニアリングの制約をこのプロセスに組み込むことができ、設計とエンジニアリングの考慮事項を調整するために必要な反復回数を大幅に減らすことができます。これにより、設計プロセスの効率が向上するだけでなく、時間も節約できます。 また読む:Meta Launches ‘Human-Like’ Designer AI for Images より速く、より効率的な設計 TRIの新しい技術を実装することで、電気自動車の設計を革命することができます。このツールにより、エンジニアリングの制約を設計プロセスに直接組み込むことができ、トヨタはこれまで以上に迅速かつ効率的に電動車を設計することができます。設計時間を短縮することは、EVの革新の最前線にいるトヨタを優位に立たせる重要な利点です。 また読む:zPod, India’s…
欧州とイスラエルのAIファーストスタートアップのための新しいアクセラレータ
この10週間のプログラムは、Googleとそのネットワークの最高の部分を活用して、AIをコアビジネスに使用しているスタートアップを、カスタマイズされたトレーニングとメンタリングでサポートします
データアナリストは良いキャリアですか?
労働統計局(BLS)によると、データアナリストを含む研究アナリストの雇用は、2021年から2031年までに23%増加すると予想されています。データ分析のキャリアが著しく成長することは、有望な候補者にとっても重要な展望を示しています。それは一般に提供されるサービスや製品に深い影響を与えます。データアナリストとして、コンピュータサイエンス、統計学、数学の技術的な知識と問題解決能力および分析能力を持つ必要があります。この分野は、最先端のテクノロジーを使用する機会が豊富であり、個人的および職業的な成長のための機会を提供します。しかし、この興味深いキャリアパスには、どのような期待が置かれているのでしょうか。企業にデータ分析サービスを提供する理想的な候補者に課せられる期待について探ってみましょう。 データアナリストとは何ですか? データ分析とは、ビジネスの利益に活用するために、データから情報を得ることまたは分析することを指します。この仕事の役割と責任には、以下が含まれます。 分析のためのデータ収集。これには、さまざまな方法を通じてさまざまなタイプのデータを発見または収集することが含まれます。例としては、調査、投票、アンケート、およびウェブサイトの訪問者特性の追跡が挙げられます。必要に応じて、データセットを購入することもできます。 プログラミング言語を使用して、前のステップで生成されたデータ、つまり生データをクリーニングすることが必要です。名前は、処理が必要な外れ値、エラー、重複などの不要な情報の存在を示しています。クリーニングプロセスは、データの品質を向上させて利用可能にすることを目的としています。 データは、今後モデル化する必要があります。これには、データに構造と表現を与えて整理することが含まれます。また、データの分類およびその他の関連プロセスを行うことも必要です。 したがって、形成されたデータは複数の目的に役立ちます。使用法は問題文によって異なり、解釈方法も問題文によって異なります。データの解釈は主に、データ内のトレンドやパターンを見つけることに関係しています。 データのプレゼンテーションも同様に重要なタスクであり、情報が意図した通りに閲覧者や関係者に届くようにすることが最も重要な要件です。これには、プレゼンテーションおよびコミュニケーションスキルが必要です。データアナリストは、グラフやチャートを使用し、報告書の作成や情報のプレゼンテーションを行うことがあります。 データアナリストになる理由 データアナリストになるためには、複数の理由があります。以下は、最も重要な5つの理由です。 高い需要: データの生成が増加したことにより、未処理のデータが大量に存在しています。それには、企業が活用できる多くの秘密が含まれます。このタスクを実行できる個人の要件は急速に増加しており、標準的な要件は年間3000ポジションです。 ダイナミックなフィールド: データアナリストの仕事は、課題に対処し、問題を解決することに喜びを感じる場合、多くのものを提供します。毎日興味深く、新しい課題があり、分析思考とブレストストーミングが必要な場所です。また、旅の中で多くを学ぶこともでき、自己改善に貢献します。 高い報酬: データアナリストのポジションの報酬は高く、キャリアを追求する価値があります。給与の増加は、業界によって異なり、一部の分野ではボーナスを含む高い収入が約束されています。 普遍性: データアナリストの要件は、特定の分野に限定されるものではありません。すべての業界が多くのデータを生成し、情報に基づく論理的な意思決定が必要です。したがって、背景や興味に関係なく、すべての専門分野に開かれています。 キャリアの選択をリード: 熟練したデータアナリストは、ポジションと会社に価値をもたらすことができます。成長、昇進、追加の福利厚生の可能性はどこでも開かれています。グループをリードしたり、教えたり、競争したり、ワークフォースの文化を形成することができるように、キャリアの選択をリードすることができます。 需要と将来の仕事のトレンド 現在、データアナリストの需要は高く、良い報酬が期待できます。現在のデータ生成の速度に基づいて、将来的には需要がさらに高まると予想されています。新しいテクノロジーの生成とデータ収集の容易化により、将来的には才能に新しい機会が提供されるでしょう。将来のデータアナリストの予想される新しいジョブロールには、以下が含まれます。 AIの機能性と適合性を説明する。新しく開発された機能の品質分析。 ビジネスオペレーションとデータ処理のリアルタイム分析の組み合わせに取り組む。これにより、戦略に基づいた計画に向けて導かれます。…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.