Learn more about Search Results A - Page 169

「Amazon SageMaker Data Wranglerを使用して、Amazon Personalizeのデータを準備する」

「レコメンドエンジンは、それを準備するために使用されるデータのみならず優れたものです生データをモデルに適した形式に変換することは、エンドユーザーにより良いパーソナライズされたおすすめをするための鍵ですこの記事では、GroupLens研究によって準備されたMovieLensデータセットの準備とインポート方法について解説します」

HLTH 2023 AIを責任を持って医療に導入する

今年、AIについて話す人々が増えています医療の課題を解決するためには技術だけではなく、AIも必要ですが、AIこそが私たちが現在取り組んでいる最も重要な技術であることも知っています過去数週間にわたり、国内の主任医師や医療CEO、取締役会と話をしている間も、そして今週のHLTHでもそのことが頭にあります AIに関する私たちの取り組みは新しいものではありません私たちは数年にわたり、製品全体でこの技術を使用してきました毎日何億人もの人々がGoogleに健康の質問をする際に高品質な情報を提供したり、心拍数を腕時計や呼吸数をスマートフォンでモニタリングするのをサポートしたりしていますWHOなどのパートナーと協力して、信頼性のある健康情報を何百万人に提供してきましたまた、私たちの研究チームは、医療診療試験のような質問において専門家と同等の成績を収めるMed-PaLMやMed-PaLM 2などの医療調整大規模言語モデルの構築や、X線などの医療画像や他の種類の入力も扱える多様な医療AIの開発を急速に進めてきました 医療と生命科学をサポートする生成型AI 患者の健康記録は時に複数のシステムに分散しているため、医療従事者が必要な情報を迅速に見つけることは困難ですGoogle Cloudは本日、医療および生命科学企業向けに、幅広いデータタイプで関連情報を検索するための新しいVertex AI検索機能を導入しました現在のツールがさまざまな種類のドキュメントやその他のデータソースを検索できる能力に加えて、新機能は組織がより効率的に正確な臨床情報を見つけるのをサポートします 大胆かつ責任あるアプローチ 業界のサポート方法について話すだけでなく、テクノロジー&社会のSVPであるジェームズ・マニカ氏はHLTHのメインステージで、私たちのAIに対する大胆かつ責任あるアプローチと、私たちの操作原則について強調しました 彼は、科学的なブレイクスルーや臨床医や一般の人々の日常の問題の解決において、AIが人々の健康を世界的に向上させる可能性について話しましたこれを可能にするための要素には、臨床医、コンピュータ科学者、研究者、健康格差の専門家など、さまざまな専門知識があります私たちは常に自分自身に挑戦し、次のように問いかけていますAIの社会的利益を最大化するにはどうすればよいのか、同時に責任を持ってリスクを評価する必要があるでしょうか 研究をベンチからベッドサイドへ移動させるために、ジェームズは技術が何ができるべきかを理解するためにパートナーシップが重要であると強調しましたパートナーとの緊密な連携によって、AIが人々と社会に有益な影響を与えることが保証されますたとえば、iCADとのパートナーシップにより、乳がんの診断を世界的に迅速化するための乳房画像AIモデルのスケール拡大を実現しています

Amazon SageMakerのCanvas sentiment analysisとtext analysisモデルを使用して製品レビューから洞察を抽出するために、ノーコードの機械学習を使用してください

ガートナーによると、ソフトウェアの購入者の85%はオンラインのレビューを個人の推薦と同じくらい信頼しています顧客は、レビューウェブサイト、ベンダーウェブサイト、セールスコール、ソーシャルメディアなど、さまざまなチャンネルで購入した製品についてのフィードバックとレビューを提供しています複数のチャンネルでの顧客レビューの増加による問題は、それが[…]

Lovo.ai レビュー:2023年10月の最高のAI音声生成器ですか?

究極のAI音声生成ツールをお探しですか?AIを利用して瞬時にナレーションを追加する方法を詳しく知りたい方は、このLovo.aiのレビューをお読みください

「Java での AI:Spring Boot と LangChain を使用して ChatGPT のクローンを構築する」

「Spring Boot、LangChain、Hillaを使用してJavaでChatGPTのクローンを作成する方法を学びましょう同期チャットの補完と高度なストリーミング補完の両方をカバーします」

新しいAI論文で、CMUとGoogleの研究者が言語モデルの出力を再定義します:応答を一時停止トークンで遅延させることが、QAや推論のタスクでのパフォーマンスを向上させる方法

トークンは、トランスフォーマーに基づく因果言語モデルを使用して、高速に生成されます。このモデルは、K個の前のトークンを受け取り、各隠れ層でK個の中間ベクトルを反復的に計算して(K + 1)番目のトークンを生成します。モジュールは前のレイヤーの出力ベクトルに作用し、各ベクトルはそれ自体がモジュールの出力です。全体の手順の複雑さにもかかわらず、次のトークンを決定するために必要な操作の数は、すでに表示されたトークンの数で制約されなければなりません。 カーネギーメロン大学とGoogleによる最近の研究では、デコーダのみのモデルの入力に偽のトークンを追加して出力を遅らせる戦略を調査しました。この研究では、(学習可能な)一時停止トークンを選択し、それを一度以上の連続したシーケンスで入力に追加することにしました。最後のトークンが表示された後のモデルの答えを得るために、それまでの一致する出力は単純に無視します。 重要なのは、研究者たちは、このような遅延を推論時およびダウンストリームの組織微調整および事前学習時に挿入することを考えています。この表面上小さな調整が現実世界でどのような効果をもたらすかは現時点ではわかりません。遅延は、トランスフォーマーが利用できる「広い」計算チャネルを作成します。より単純な結果としては、モデルがトークンによる遅延の能力を無視し、実行を継続する可能性があります。トークン自体も、単一のトークンを埋め込むことによって導入されるわずかな新しいパラメータの数も、トレーニングデータから追加の情報をエンコードするのに適切ではありません。これらの意味のないトークンは、有用な信号を不明確にし、モデルを弱体化させる可能性があります。 チームは、すべてのトレーニングおよび推論フェーズで(追加)遅延を導入した場合の結果を理解するために実証的な評価を行いました。彼らは、C4 (Raffel et al., 2019) で初めにトレーニングされ、抽出型質問回答、推論、一般的な理解、事実の回想をカバーする9つのダウンストリームタスクで微調整された10億パラメータのデコーダのみモデルに休止トレーニングを行った。最も重要なことは、この方法により、SQuAD抽出型質問回答タスクで1Bモデルの完全一致スコアが18%向上しました。同様に、CommonSense QAの一般的な理解タスクで8%の向上と、GSM8kの推論タスクで標準モデルの正確さ7.5%に対する1%の精度向上が観察されました。 一方、トークンが最終的な微調整段階のみで導入される場合(ベースラインの事前学習モデルを使用)、改善はごく一部のケースで見られます。チームはまた、以下の重要な欠点を含む一連の実験も行いました: トークンを追加することが一般的に前置することよりも優れていることを発見しました。 任意のダウンストリームタスクに対して最適なトークンの数があることを発見しました。 推論時のトークン数を減らすことが、優雅なパフォーマンスの低下につながることを発見しました。 チームは、通常の事前学習モデルで遅延を直接役立たせる方法の開発が、次の重要なステップであると考えています。彼らは、遅延次のトークン予測のパラダイムを拡張することで、新たな理論的および応用研究の方向性が開かれると予想しています。

「ChatGPTがGPT-4V(Vision)とともに視覚を獲得することで、マルチモーダルAIが進化します」

「OpenAIのGPT-4におけるマルチモーダルAIの進歩、その先見性のある機能、AIによる相互作用におけるテキストとビジュアルの融合の変革的な影響を探索してください」

セールスフォース・アインシュタイン:あなたは顧客との関係を築きます、AIがそれらを自動的に維持する手助けをします

「顧客関係管理(CRM)」は、現在のハイパーコネクテッドで競争の激しい商業環境において、組織の成功を促進するために極めて重要です

あなた自身の個人的なLLaMa

「チャットのクエリへの回答を改善するために、LlamaIndexを使用してカスタムデータを見つけたり、取得したり、フィードしたりする方法」

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us