Learn more about Search Results AI - Page 9

「ChatGPTがクラッシュしましたか? OpenAIのAIのダウンタイムと迅速な回復!」

人工知能コミュニティは一時的な挫折に直面しました。OpenAIが開発した人気のあるチャットボット、ChatGPTは「大規模な障害」に直面しました。OpenAIの創設者であるSam Altman氏は、ウェブサイトのお知らせを通じてその事故を確認しました。問題に関する詳細は限られていますが、OpenAIはユーザーに解決済みであることを保証しました。予期しない中断は午後5時32分から午後6時10分(PST)までの間に発生し、ユーザーはChatGPTサービスに時折アクセスできない状況がありました。 障害 指定された時間帯に、ChatGPTユーザーは問題に直面し、AIチャットボットの機能に関して懸念が生じました。Sam Altman氏率いるOpenAIは問題を迅速に認識しましたが、障害の性質に関する具体的な情報は提供しませんでした。OpenAIのウェブサイトのお知らせによれば、この問題は主にChatGPTのウェブユーザーに影響を与えた可能性があります。興味深いことに、この期間中にiOSやAndroidプラットフォームのユーザーは中断を経験しなかった可能性があります。 解決と回復 この事故に続いて、OpenAIは迅速な対応で問題を解決しました。同社がタイムリーに更新した情報によれば、ユーザーはChatGPTのサービス中断が修正されたと確認されています。OpenAIの積極的な取り組みは、人工知能アプリケーションの信頼性を維持するためのコミットメントを反映しています。 ChatGPTの中断に関連した事故は、ユーザーフィードバックや問い合わせの波を引き起こしました。ユーザーコミュニティは、OpenAIが問題を認識し、迅速に解決に取り組んだことについて透明性を評価しています。AIサービスにおけるこのような中断の重要性は、高度な言語モデルの安定性と機能性の維持における持続的な課題を浮き彫りにしています。 GPT-4の「怠慢」 この週の初めに、OpenAIは公然とそのGPT-4言語モデルが「怠惰に」なったことを認めました。同社は、11月11日以降モデルを更新していないことを明確にし、この意図しない行動が自分たちに驚きをもたらしたと述べました。OpenAIはユーザーフィードバックを認識し、問題の解決に向けて積極的に調査および取り組んでいると述べました。高度な言語モデルには予測不可能なモデル動作が絡む複雑さがあります。 私たちの意見 人工知能のダイナミックな景色では、時折中断が避けられません。OpenAIがChatGPTの障害に対して迅速に対応したことは、ユーザーの満足度と技術的な信頼性へのコミットメントを示しています。技術が進化するにつれて、予期しないモデルの動作などの課題は学習の過程に組み込まれていきます。ユーザーはOpenAIが問題を迅速に認識し解決することに対して安心感を得ることができ、彼らのAIアプリケーションとのシームレスな体験を確保できます。

このAI論文は、「Vary」という新しいアプローチを明らかにしています:高度な多言語認識タスクのための大規模なビジョン言語モデルの視覚語彙を拡張するためのアプローチ

大視覚言語モデル(LVLM)は、コンピュータビジョンと自然言語処理を組み合わせて、視覚的なコンテンツのテキストの説明を生成することができます。これらのモデルは、画像のキャプション付け、可視化された質問応答、および画像の検索など、さまざまなアプリケーションで驚異的な進展を遂げています。しかし、その優れたパフォーマンスにもかかわらず、LVLMはまだいくつかの課題に直面しています。特に、密で詳細な知覚を必要とする特殊なタスクにおいて、ビジョンの語彙が制約されているという問題です。 中国科学技術大学、MEGVIIテクノロジー、および中国科学院の研究者たちは、固有の認識力を必要とする特殊なタスクのためにLVLMを強化するVaryという方法を導入しました。Varyは、効率的に新しい特徴を獲得し、詳細な知覚を改善するためのLVLMを活性化します。実験結果は、Varyの効果を示しています。研究者たちは、さらなる探求のためのプラットフォームとしてVaryを提案しています。研究では、GPT-4をトレーニングデータ生成に使用し、Varyの応用範囲をさまざまな視覚タスクに適用することを強調しています。これにより、LVLMの能力が拡張される一方で、元の能力も維持されます。 この研究は、CLIP-VITなどの一般的なビジョン語彙の制約に取り組んでおり、LVLMにおいてビジョン語彙をスケールアップする必要性を提起しています。これにより、外国語のLVLMのテキスト語彙を拡張することに着想を得たVaryという方法を導入しました。Varyは、語彙ネットワークを使用して新しいビジョン語彙を生成し、元の語彙と統合します。これにより、非英語のOCRやチャート理解などの様々なタスクにおけるエンコーディング効率とモデルパフォーマンスが向上します。この研究は、Varyの設計が今後の研究を刺激すると予想しています。 この研究では、Varyの2つの構成「Vary-tiny」と「Vary-base」を紹介しています。細かい知覚に焦点を当てたVary-tinyは、テキスト入力ブランチを持たず、小さなOPT-125Mモデルを使用します。ドキュメントとチャートのデータを正例、自然画像を負例としてトレーニングされます。Vary-tinyの語彙ネットワークは新しいビジョン語彙を生成し、Vary-baseでは元の語彙と統合されます。Vary-baseのトレーニングでは、両方の語彙ネットワークが使用され、重みが固定されますが、LVLMのパラメータと入力埋め込み層が最適化されます。具体的な実装の詳細には、AdamW最適化、余弦退火スケジューラ、特定の学習率が含まれます。ドキュメントとチャートの理解のための合成データが作成されます。 Varyは、複数のタスクで有望なパフォーマンスを発揮し、ドキュメントレベルのOCR、チャート理解、およびMMVetタスクで優れた結果を達成しています。具体的には、DocVQAでは78.2%、MMVetでは36.2%のANLSを達成し、新しいドキュメントの解析機能における能力を示しています。また、Vary-tinyとVary-baseは、ドキュメントOCRタスクで強力な結果を示しており、Vary-baseは他のLVLMを凌駕しています。この研究はVaryの成功を認めつつ、視覚語彙をスケールアップする効果的な改善の必要性を強調しています。 まとめると、この研究の主なポイントは次のように要約されます: 提案: LVLMにおける視覚語彙のスケールアップのための効率的な方法。 手法: 提案された方法は、オリジナルの言語と統合されたネットワークを介して生成された新しいビジョン語彙を導入します。 能力: この方法は、特にドキュメントレベルのOCRやチャート理解のタスクにおいて、詳細な知覚を向上させます。LVLMの元々の機能は維持しながら、素早く新しい特徴を獲得します。 パフォーマンス: さまざまなタスクで有望なスコアが示されており、この方法はドキュメント解析機能で他のLVLMを凌駕しています。

Google AIとフロリダ中央大学の研究者が、包括性と多様性のためのオープンソースのバーチャルアバターライブラリ(VALID)を発表しました

Google AR&VRチームは、センサスビューローに従って7つの異なる人種を表す210の完全なリグ付きアバターで構成されるバーチャルアバターライブラリ「VALID」を検証するため、University of Central Floridaと協力して総合的な研究を実施しました。データ駆動型の顔の平均値を利用し、各民族のボランティア代表者と共同して42のベースアバター(7つの人種×2つの性別×3つの個人)を作成するために、7つの人種の選択は米国国勢調査局のガイダンスに従って行われました。研究には、世界中の参加者からバリデーションされたラベルとメタデータを得るため、132人の参加者(33か国)が選ばれました。 結果は、参加者がアバターの人種をどのように認識したかを理解するために、主成分分析(PCA)とK-平均クラスタリングを使用したバリデーションプロセスを採用しました。参加者の人種と性別をバランスさせることで多様な視点のバランスをとるために、世界中の33か国から合計132人の参加者が研究のために選ばれました。 結果は、アジア人、黒人、白人のアバターが、さまざまな人種の参加者によって一貫して認識されていることを示しました。しかし、米国先住民・アラスカ先住民(AIAN)、ヒスパニック、中東、北アフリカ(MENA)、ハワイと太平洋の先住民族(NHPI)を表すアバターは、参加者の人種によって認識に差異があり、曖昧さがより顕著でした。同じ人種の参加者が対応する人種として認識した場合、アバターはその人種に基づいて名前が付けられます。 研究者たちは、アジア人、黒人、白人のアバターが、すべての参加者を対象に95%以上の合意率で正しく認識されたという結果について議論し、自身と異なる人種の顔を識別する際の低い65〜80%の正確性の概念を挑戦していると述べました。これは、多様な人種グループに対する知覚の専門知識またはなじみによるものであり、おそらくグローバルなメディアの影響を受けたものと考えられます。 同じ人種の参加者によって主に正しく認識されたアバターもありました。たとえば、ヒスパニックのアバターは参加者全体で評価が分かれましたが、ヒスパニックのみの参加者によってより正確に認識されました。研究では、正確な表現を確保するためにバーチャルアバターの研究において参加者の人種を考慮することの重要性が強調されています。 髪型などの要因により、アバターが曖昧にラベルされる場合がありました。ハワイ先住民と太平洋の島々を表すアバターの検証は限界があり、表現の課題と広範な選考努力の必要性が強調されました。 研究チームは、内グループと外グループのカテゴリ化によるステレオタイプ化と社会的判断への影響を強調し、仮想現実における異人種間の相互作用を改善するための規制の導入を提案しました。 研究コミュニティへの貢献として、チームはVALIDアバターライブラリへのオープンアクセスを提供し、さまざまなシナリオに適した多様なアバターが利用可能です。このライブラリには、65の顔のブレンドシェイプを持つアバターが含まれており、UnityやUnrealなどの人気のあるゲームエンジンと互換性があります。研究者および開発者が自身の研究やアプリケーションに適した多様で包括的なアバターを求めるための貴重なリソースとして、オープンアクセスのVALIDライブラリが位置付けられています。 まとめると、研究チームは多様なバーチャルアバターライブラリを作成し、ステレオタイプに挑戦し、包括性を促進しました。研究はアバターの認識における同じ人種バイアスの影響を強調し、さまざまな分野での仮想アバターの開発と応用について貴重な洞察を提供しました。オープンアクセスのVALIDライブラリは、研究者や開発者が研究やアプリケーションに多様で包括的なアバターを求める際の貴重なリソースとされています。

「長い尾が犬に振り回される:AIの個別化されたアートに伴う予測不可能な影響」

メタの最近の生成型映画の世界でのエミューの発表は、技術と文化が前例のない形で交差する転換点を示しています。エミューは、AIの創造的な能力を進歩させるだけでなく、情報やエンターテイメントへのアクセスに革命をもたらす可能性を示す、生成型AIの新たな時代の灯台です。 私たちは、出版とエンターテイメントの本質を変える可能性を秘めた、生成型AIの革命の絶頂に立っています。言語モデルは、情報を総合的にまとめ上げ、表現するという驚異的な能力を持ち、さまざまな言語で多様な主題をカバーする、比類なき広さと深さのグローバルなライブラリーを確約しています。しかし、生成される情報の信憑性は重要であり、事実確認とレビューに対して慎重なアプローチが必要です。 エンターテイメントに注目すると、その示唆は深刻です。エミューに続く生成型AIの進展により、NetflixやAmazon Primeのようなプラットフォームが根本的に変わり、これまで想像もできなかったほどの個人化が可能となります。映画の物語をいくつかのポイントを経て作り上げ、アルゴリズムがストーリーを調整する未来を思い描いてください。主人公の運命、勝利か敗北か、全てはあなたの裁量に委ねられます。これは好みの問題だけでなく、頂点に達した個人化です。私たちはまもなく、主人公が最後に死ぬかどうかを決める映画を観ることになるでしょう。ハッピーエンドは…私が望むならのみです!しかし、この個人化には重大な警戒が必要です。芸術体験を個人の好みに合わせる能力は、多様な視点に露骨に露光することなく、世界を過度に単純化し、反響のみを反映する世界につながりかねません。 この単純化への傾向は、しばしば「5歳の子に説明する」という信条によって象徴化されます。初めの理解を促進するかもしれませんが、豊かさと理解の深さを侵食する危険もあります。ここで特に重要なことは、エジソンの「できる限りシンプルにするが、それ以下にしない」という指針です。複雑な主題の微妙なニュアンスを保持しながら、明快さを維持することの重要性を強調しています。 潜在的な落とし穴にもかかわらず、この技術の魅力は否応なく存在します。これは、NikeIdのようなカスタマイズ可能な製品の魅力を思い起こさせる、ユニークさと承認欲求に訴えるものです。しかしここでの危険は、AIが私たちの偏見を補強し、難解で多様なアイデアから遮断することです。これは創造性の本質に反するものであり、幅広い知識との関わり合いから生まれる創造活動のリスクをはらんでいます。 AIの世界で、特に強化学習の場合、探索と利用のバランスを取るようにエージェントを訓練します。これは私たち自身の知的な旅の戦略を反映しています。しかし、情報との相互作用では、私たちはしばしば既存の信念と合致するものに制限をかけます。この逆説は、AIの適用における重要な見落としを強調しています。 AIが世界を再形成する可能性の前に立つ我々としては、この強力なツールの利用方法を考慮することが重要です。真の危険は、AI自体ではなく、私たちがそれとの相互作用をどのように行うかにあります。私たちはAIを探求と理解のための触媒として利用する必要があり、複雑さを受け入れ、知的好奇心を養う環境を育むべきです。そうすることで、AIは本当に善の力となり、私たちの視野を広げ、共同の人間の経験を豊かにすることができます。 この記事はAIの個人化された芸術の予期しない結果:(長い) エンドレスに最初に表示され、MarkTechPostから転載されました。

「OpenAIはAIの安全性に対処するためにベンガルールで開発者ミートアップを計画中」

OpenAIは、AIチャットボットChatGPTの影響力のある力を持つ組織であり、2024年1月にベンガルールで開発者の集まりを開催する予定です。このイベントの主な目的は、インドの開発者と協力して、人工知能に関連する安全上の課題に取り組むことです。OpenAIのグローバルアフェア担当副社長のアンナ・マカンジュは、ニューデリーで開催されたグローバルパートナーシップ人工知能(GPAI)サミットでのイベントに対する熱意を表明しました。 開発者の集まり OpenAIは、11月に開催された最初のDevDayカンファレンスの成功を受けて、インドのテックプロフェッショナルがAIの安全性に関する懸念や洞察を声に出すプラットフォームの構築に焦点を当てています。マカンジュは、開発者とOpenAIのプロダクトリーダーを一堂に会し、人工知能の領域で最も複雑な安全上の課題に取り組む計画を発表しました。 インドの技術的重要性の認識 マカンジュはGPAIサミットでの演説で、インドが世界舞台で果たす重要な役割を強調し、優れた人材プールと優れたテクノロジービジネスを引用しました。彼女は、バイデン政権とG7との協力経験を踏まえ、強力なテクノロジーの安全性とその恩恵の公正な分配を確保するための国際機関の設立を提唱しました。 OpenAIのインドでの拡大 OpenAIは、インドでの存在感を拡大するために、エロン・マスクのXの元副社長であるリシ・ジャイトリーをシニアアドバイザーとして迎え入れる予定です。このニュースはOpenAIによって公式には確認されていませんが、ジャイトリー氏はOpenAIがインドのAI政策と規制環境を乗り越えるための指導に当たるとされています。この動きはOpenAIの広範な戦略に合致し、アルトマン氏の6月のインド訪問に続きます。 GPAIサミットとインドの取り組み ナレンドラ・モディ首相はGPAIサミットの開催を宣言し、国際的な代表者とAIに関する重要な問題について関与する予定です。イベントの一環として、インド政府はIT省のラージーヴ・チャンドラシェーカル氏を代表として、AIに関する多国間の合意ベースの宣言に取り組んでいます。このイニシアチブは、リスクを軽減し、イノベーションを促進することを目指しており、モディ首相の信頼されるAIを通じた人々の福祉を確保するという取り組みと一致しています。 私たちの意見 OpenAIがインドの開発者と協力を深める中、AIの安全上の課題に取り組む動きは、急速に変化する技術の風景における積極的な姿勢を反映しています。OpenAIとインド政府は、この取り組みでインドの重要な役割を強調するだけでなく、AIに対する堅固な規制フレームワークの策定にも取り組んでいます。OpenAIとインドの専門家の協力は、AI技術の責任ある開発と展開を確保するための有望な一歩を象徴しています。

「AIルネサンス:デジタル時代における就業成長のエンジン」

スティーブン・ホーキングの上記の引用は、人工知能の可能性と想定される危険性をとてもうまく表していますターミネーターのような予想される危険性の一部は、...

マイクロソフトAIがLLMLinguaを発表:大型言語モデル(LLM)の高速推論のためのユニークなクイック圧縮テクニックでプロンプトを圧縮

大規模言語モデル(LLM)は、その高い一般化能力と推論能力により、人工知能(AI)コミュニティを大きく押し上げています。これらのモデルは非常に優れた能力を持ち、自然言語処理(NLP)、自然言語生成(NLG)、コンピュータビジョンなどの能力を示しています。ただし、インコンテキスト学習(ICL)やチェーン・オブ・ソート(CoT)プロンプトなどの新しい展開は、数万トークン以上にも及ぶ長いプロンプトの展開を引き起こしています。これは、費用対効果と計算効率の観点からモデル推論に問題を提起しています。 これらの課題に対処するため、Microsoft Corporationの研究チームは、LLMLinguaというユニークな粗いから細かい圧縮技術を開発しました。LLMLinguaは、長いプロンプトの処理に関連する費用を最小限に抑え、モデルの推論を迅速化することを主な目的として開発されました。これを達成するために、LLMLinguaは以下のいくつかの重要な戦略を使用しています。 予算コントローラー:動的予算コントローラーを作成しました。これにより、圧縮比が元のプロンプトのさまざまな部分に均等に分配されるようになります。これにより、大きな圧縮比でもプロンプトの意味的な整合性が維持されます。 トークンレベルの反復圧縮アルゴリズム:トークンレベルの反復圧縮アルゴリズムがLLMLinguaに統合されています。この技術により、圧縮要素間の相互依存関係を捉えながら、プロンプトの重要な情報を維持したより高度な圧縮が可能となります。 指示チューニングベースのアプローチ:チームは、言語モデル間の分布の不整合問題に対処するために、指示チューニングベースのアプローチを提案しました。言語モデルの分布を整合させることで、迅速な圧縮に使用される小さな言語モデルと意図されたLLMの互換性が向上します。 チームは、LLMLinguaの有用性を検証するために、理論的なデータセットとしてGSM8KとBBHを、会話用データセットとしてShareGPTを、要約用データセットとしてArxiv-March23を使用して分析と実験を行いました。結果は、提案アプローチが各状況で最新技術のパフォーマンスを達成していることを示しました。結果は、圧縮比20倍までの大幅な圧縮を可能にする一方でパフォーマンスの面でわずかな犠牲を払いました。 実験で使用された小規模言語モデルはLLaMA-7Bであり、閉じたLLMはGPT-3.5-Turbo-0301でした。LLMLinguaは、推論、要約、議論のスキルを維持しながら最大圧縮比20倍でも従来の圧縮技術を上回り、弾力性、経済性、効率性、回復性を備えています。 LLMLinguaの効果は、さまざまな閉じたLLMと小規模言語モデルで観察されました。LLMLinguaは、GPT-2-smallを使用した場合には大きなモデルとほぼ同等のパフォーマンス結果を示しました。また、予想される迅速な結果を上回る強力なLLMでも成功を収めました。 LLMLinguaの回復性は、圧縮されたプロンプトを元に戻す際に重要な推論情報を効果的に取り出すことによって示されます。完全な9ステップのCoTプロンプトを復元するために使用されたGPT-4は、圧縮されたプロンプトの意味と類似を保ちながら重要な情報を取り戻しました。この機能により、LLMLinguaは回復性を保証し、翻訳後も重要な情報を保持し、LLMLingua全体の印象を高めています。 結論として、LLMLinguaはLLMアプリケーションにおける長いプロンプトによって引き起こされる困難に包括的な解決策を提供しました。この方法は優れたパフォーマンスを示し、LLMベースのアプリケーションの効果とコスト効率を向上させる有用な方法を提供しています。

開発者や企業のためのジェミニAPIとさらに新しいAIツール

「ジェミニAPIおよびそれ以外にも4つのAIツール、Imagen 2、MedLM、開発者向けのDuet AI、セキュリティオペレーション向けのDuet AIを介してジェミニプロを展開します」

Amazon BedrockとAmazon Transcribeを使用して、生成AIを使用して録音のサマリーを作成します

「会議のメモは共同作業の重要な一部ですが、しばしば見落とされてしまいます討論を主導し、注意深く聞きながらメモを取ることは、重要な情報が記録されずに逃げてしまうことが簡単ですメモが取られていても、整理されていないか、読みづらいことがあり、無意味になってしまうこともありますこの記事では、Amazonを使った効果的なメモの使い方について探っています」

「AIは詐欺検出にどのように使われていますか?」

西部劇にはガンスリンガー、銀行強盗、賞金が存在しましたが、今日のデジタルフロンティアではアイデンティティ盗難、クレジットカード詐欺、チャージバックが広まっています。 金融詐欺による収益は、数十億ドル規模の犯罪企業となっています。詐欺師の手に渡る「生成AI」は、これをさらに収益化することを約束します。 世界的には、2026年までにクレジットカードによる損失は430億ドルに達する見込みです。これはニルソン・レポートによるものです。 金融詐欺は、ハッキングされたデータをダークウェブから収集してクレジットカードの盗難に利用するなど、さまざまな手法で行われます。「生成AI」を用いて個人情報をフィッシングする場合もあり、仮想通貨、デジタルウォレット、法定通貨間での資金洗浄も行われています。デジタルの裏世界にはさまざまな金融詐欺が潜んでいます。 対応するために、金融サービス企業は詐欺検出にAIを活用しています。なぜなら、これらのデジタル犯罪の多くはリアルタイムで停止し、消費者や金融企業がすぐに損失を止める必要があるからです。 では、詐欺検出にはAIはどのように活用されているのでしょうか? 詐欺検出のためのAIは、顧客の行動と関連、アカウントのパターンや詐欺特性に合致する行動の異常を検出するために、複数の機械学習モデルを使用しています。 生成AIは詐欺の共同パイロットとして活用できる 金融サービスの多くはテキストと数字を扱うものです。生成AIや大規模言語モデル(LLMs)は、意味と文脈を学習する能力を持ち、新しいレベルの出力と生産性を約束するため、産業全体に破壊的な能力をもたらします。金融サービス企業は、生成AIを活用してより賢明かつ能力の高いチャットボットを開発し、詐欺検出を改善することができます。 一方で、悪意のある者は巧妙な生成AIのプロンプトを使用してAIのガードレールを回避し、詐欺に利用することができます。また、LLMsは人間のような文章を生成することができ、詐欺師はタイプミスや文法の誤りのない文脈に沿ったメールを作成することができます。さまざまなバリエーションのフィッシングメールを素早く作成することができるため、生成AIは詐欺行為を実行するための優れた共同パイロットとなります。詐欺GPTなど、生成AIをサイバー犯罪に悪用するためのダークウェブツールもあります。 生成AIは声認証セキュリティにおける金融被害にも悪用されることがあります。一部の銀行は声認証を使用してユーザーを認証しています。攻撃者がボイスサンプルを入手することができれば、ディープフェイク技術を使用して銀行の顧客の声をクローンすることができ、このシステムを破ろうとします。声データは、スパムの電話で集めることができます。 チャットボットの詐欺は、LLMsやその他の技術を使用して人間の行動をシミュレートすることに対する懸念があります。これらはインポスター詐欺や金融詐欺に応用されるディープフェイクビデオと音声クローンのためのものです。米国連邦取引委員会はこの問題に対して懸念を表明しています。 生成AIは不正使用と詐欺検出にどのように取り組んでいるのか? 詐欺審査には強力な新しいツールがあります。マニュアル詐欺審査を担当する従業員は、ポリシードキュメントからの情報を活用するために、バックエンドでRAGを実行するLLMベースのアシスタントのサポートを受けることができます。これにより、詐欺事件がどのようなものかを迅速に判断し、プロセスを大幅に加速することができます。 LLMsは、顧客の次の取引を予測するために採用されており、支払い企業は事前にリスクを評価し、詐欺取引をブロックすることができます。 生成AIはまた、トランザクション詐欺を撲滅するために精度を向上させ、レポートを生成し、調査を減らし、コンプライアンスリスクを軽減するのに役立ちます。 不正防止のための生成AIの重要な応用例の1つとして、「合成データ」の生成があります。合成データは、詐欺検出モデルのトレーニングに使用するデータレコードの数を増やし、詐欺師が最新の手法を認識するための例のバラエティと洗練度を高めることができます。 NVIDIAは、生成AIを活用してワークフローを構築し、情報検索のために自然言語プロンプトを使用するチャットボットと仮想エージェントを作成するためのツールを提供しています。 NVIDIAのAIワークフローを活用することで、様々なユースケースに対して正確な応答を生成するためのエンタープライズグレードの機能を迅速に構築し、展開することができます。これには、ファウンデーションモデル、NVIDIA NeMoフレームワーク、NVIDIA Triton Inference Server、GPUアクセラレートベクトルデータベースが使用され、RAGによって強化されたチャットボットが展開されます。 安全性に焦点を当てた産業では、悪用されにくいように生成AIを保護するための取り組みが行われています。NVIDIAはNeMoガードレールをリリースし、OpenAIのChatGPTなどのLLMsによって動作するインテリジェントアプリケーションが正確で適切、トピックに即して安全であることを確保するために役立てています。…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us