Learn more about Search Results A - Page 30

このAI研究は、大規模言語モデルにおける不誠実さのメカニズムを明らかにする:プロンプトエンジニアリングとニューラルネットワーク分析に深く没入する

大規模な言語モデル(LLM)の理解とその正直な行動の促進は、これらのモデルが成長し、社会に広く受け入れられるようになったため、ますます重要となっています。研究者らは、スケーラブルなディスインフォメーション、操作、詐欺、選挙の妨害、またはコントロールの喪失のリスクなど、モデルが欺瞞的になる可能性から新たなリスクが生じると指摘しています。彼らはこの欺瞞を「真実以外の特定の結果を追求するための虚偽の信念の系統的な誘導」と定義しています。研究によると、これらのモデルの活性化には必要な情報があるにもかかわらず、正しい結果を出すためにはミスアライメント以上のものが必要かもしれません。 以前の研究では、真実と誠実さを区別し、前者は誤った主張を避ける一方、後者は信じていない主張を避けると述べています。この区別は理解を助けるのに役立ちます。したがって、モデルが誤解を招く主張を生成する場合、その原因はスキルの欠如ではなく、不誠実さによるミスアライメントによるものかもしれません。その後、いくつかの研究では、内部モデル表現の抽出の改善を図るため、モデルに積極的な概念を考慮させるようにするためのブラックボックス技術の提案が行われています。 さらに、モデルは文脈に従った環境で「重要な」中間層を持っており、これを超えて文脈に従った真実または誤った応答の表現は分岐する傾向があります。これを「過剰に考える」という現象として知られています。先行研究に刺激を受けて、研究者たちは不正確な文脈学習から故意の不誠実さに焦点を広げ、モデルにウソをつくように明示的に指示を与えることでこの文脈での不誠実さに責任があるモデルのどの層と注意ヘッドがあるのかを特定して理解しようとしています。 以下に彼らの貢献を示します: 1. 研究チームは、真偽の質問でかなり下回る精度に基づいて、LLaMA-2-70b-chatが嘘をつくように訓練できることを示しています。研究チームによれば、これは非常に微妙で、注意深く迅速に設計する必要があります。 2. activation patchingおよびprobingを使用して、研究チームは不正行動に関連する5つのモデル層に独立した証拠を見つけました。 3. 0.9%の全ヘッドに対して誘因介入が効果的に行われ、研究チームが欺瞞的なモデルに真実を返すように強制しました。これらの処理は、複数のデータセットの分割や提示に対して弾力的です。 要するに、研究チームは、真実を言うかどうかについてLLMに指示を与えるという単純な嘘の事例を考察しました。その結果、巨大なモデルでも不正行動が表示され、正直に回答するように求められた場合には正しい回答が生成され、ウソをつくように追い込まれると誤った回答が生成されることがわかりました。これらの調査結果は、活性化探索がプロンプトでの分布外にも一般化できる可能性があることを示唆する以前の研究に基づいています。しかし、研究チームは、これがモデルが「真」トークンよりも早く「偽」トークンを出力する傾向にあるといった問題により、プロンプトのエンジニアリングに長い時間が必要になる場合があることも発見しました。 研究チームは、接頭辞の挿入により、一貫して嘘を引き起こすことができました。その後、チームは不誠実なモデルと誠実なモデルの活性化を比較し、嘘をつくために関与する層と注意ヘッドを特定しました。研究チームは、この嘘の行動を調査するために線形プローブを使用することで、初めから中間層が誠実なプロンプトとウソつきプロンプトに対して類似のモデル表現を示し、それから急激に反対向きに分岐することを発見しました。これは、文献の一部が求めるように、以前の層が文脈非依存の真実の表現を持つべきであることを示しているかもしれません。また、activation patchingは、特定の層とヘッドの動作についてさらに理解するために研究チームが使用した別のツールです。研究者たちは、局所的な介入が正直なプロンプトおよびウソつきモデル間のミスマッチを完全に解決できることを発見しました。 重要なのは、わずか46の注意ヘッドに対するこれらの介入が、データセットやプロンプトに対して強固な耐性を示していることです。研究チームは、モデルがデフォルトで誠実なモデルの正確性と誠実さを主に調査してきた以前の研究とは対照的に、アクセス可能なデータセットを使用し、明示的にモデルに嘘をつくように指示することで嘘を重点的に研究しています。この文脈によって、研究者たちは不正な行動を促進する微妙な点や大規模モデルがどのように不誠実な行動に関与しているかについて多くの知識を得ることができました。研究チームは、LLMの倫理的かつ安全な応用を保証するために、この文脈でのさらなる研究がLLMの嘘つきを防止する新しいアプローチにつながると期待しています。

データのセキュリティとコラボレーションの強化:AWS Clean Roomsが機械学習と差分プライバシー機能を導入

Amazon Web Services(AWS)は、セキュアなデータ共有サービスであるClean Roomsの新しいアップデートを発表しました。このアップデートにより、最新の機械学習(ML)と差分プライバシー機能を組み込むことで、企業はセキュリティを強化し、機械学習モデルの活用とデータのプライバシー保護を両立させながら正確なデータ分析を推進することができます。 最新のClean Roomsでは、データプライバシーを強化しセキュアな共同作業を促進するさまざまな機能が追加されました。機械学習のサポートを組み込むことにより、オリジナルデータを公開することなくMLモデルを活用することができます。この革新的な機能により、機密情報を明かすことなく共同データ分析を行うことが可能となり、データプライバシーを重視する企業にとって大きな利点となります。 差分プライバシー機能もClean Roomsに統合されることで、データクエリの結果に適切にキャリブレートされたエラー(「ノイズ」とも呼ばれる)を組み込むことができます。これにより、個々のデータ貢献を曖昧化しながら分析の正確性を確保することができます。プライバシーバジェットコンポーネントを使用してプライバシーを有限のリソースとして取り扱うことにより、この機能はデータ漏洩を防ぎ、プライバシーリソースの枯渇や潜在的な侵害の回避に寄与します。 差分プライバシーは、特定の個人情報を漏洩することなく統計的パターンを明らかにする技術であり、AWS Clean Roomsはこの技術の適用を簡略化します。ユーザーは差分プライバシー機能を有効にし、共同作業の設定内でプライバシーポリシーを設定することで、このプライバシー強化技術を簡単に使用することができます。 今回のアップデートにおける画期的な機能であるClean Rooms MLにより、ユーザーは機械学習モデルを活用しながら機密データを保護することができます。この機能はさまざまな産業に適用され、ターゲットマーケティングの効果の高化、潜在的な顧客の特定、臨床研究の迅速化などを行う際に重要な情報を保護しながら支援します。 Clean Rooms MLの導入により、ユーザーはAWSによって管理されたモデルを組織内のデータ共有のコラボレーションにおいて訓練する必要がなくなります。このML機能のシームレスな統合により、ユーザーはモデルの予測を柔軟に制御し、分析において適応性と精度を確保することができます。 さらに、Clean Roomsではプライバシーコントロール機能も導入されており、適切な権限を持つClean Roomsメンバーが実行するクエリや出力を管理する権限を使用者に与えることができます。この追加のセキュリティレイヤーにより、コラボレーションエコシステム内のデータセキュリティとプライバシーの措置がさらに強化されます。 要するに、刷新されたAWS Clean Roomsは、セキュアなデータコラボレーションにおけるパラダイムシフトを象徴し、包括的なデータ分析の可能性を引き出しつつ、重要な情報の保護を重視しています。最新の機械学習と差分プライバシーの機能を組み合わせることで、AWSはデータセキュリティを確保しつつ分析の効率を高める道を開拓し、より安全で洞察に満ちた共同作業の未来を切り拓いています。 この記事の投稿は、Enhancing…

データサイエンスへのゲートの解除:GATE 2024 in DS&AIの究極の学習ガイド

イントロダクション Graduate Aptitude Test in Engineering(GATE)は、インドで行われる大学院入学試験です。この試験は主に、工学と科学の学部の内容を総合的に理解できるかをテストします。もし、IIScバンガロールが導入するGATE 2024のデータサイエンスとAIに向けて準備をしているのであれば、正しい場所にいます。この記事は、あなたがこの新しくてエキサイティングなGATEペーパーを進む際の指針となるであろう、学習教材、講義ノート、標準的な参考書などをまとめた宝庫です。 準備の基盤となる主要な科目には、確率と統計、線形代数、機械学習、AIなどがあります。これらはただの科目ではありません。これらこそがデータサイエンスとAIの基盤です。私が紹介する情報源は、IIScバンガロールの名声高い教授陣によってテストされ、推奨されたものです。 確率と統計:チャンスとデータのゲーム 確率と統計においては、挑戦されることを予想しなければなりません。この科目は、CSEのカリキュラムに比べて非常に重要な位置を占めており、追加のトピックが多く含まれています。この難関を乗り越えるためには、正しい参考書を手にする必要があります。私はまず、“A First Course in Probability”(シェルドン・ロス著)から始めることをおすすめします。これは学部レベルでも定番です。これに慣れたら、同じ著者による“Introduction to Probability Models”に進んでください。 より高度な知識を求める方には、“Introduction to Probability Theory”(S.C. PortおよびC.J. Stone著)、さらにその後に続く“Introduction to…

ジオのHaptikがビジネス向けのAIツールを立ち上げました

インドの人工知能スタートアップ、Haptikは、Reliance Jio Infocommの一部であり、ビジネスクライアントが仮想アシスタントとバックエンド情報サポートを構築できる専門の創発型AIプラットフォームを導入しました。『Contakt』というプラットフォームは、すでに初期のパイロット展開を行っており、会社は将来の拡大に期待を示しています。技術が進歩するにつれて、Contaktはビジネス志向のAIソリューションへのエスカレートする需要に対応する重要なソリューションとして浮かび上がっています。 Contaktの強力な機能 高度なビジネスソリューションの需要の増加を受けて、HaptikのCEOであるAakrit Vaishは、Contaktのインスピレーションについて言及しました。このプラットフォームは、現在、Upstox、Tira、Starbucks、およびインドビジネス学校など、注目の企業と共に徹底的なテストを実施しています。 Contaktは、チャットインターフェースを通じてテキスト、音声、および画像のクエリを受け取り、OpenAIのGPT-3.5およびGPT-4モデルの強力なパワーを活用しています。この多目的なプラットフォームは、セルフサービスオプションを容易にし、ルーティンタスクを自動化し、Co-pilot機能によってエージェントの生産性を向上させます。HaptikのCTOであるSwapan Rajdevによれば、Contaktは、ボットのパフォーマンスを最大15%向上させ、AIのトレーニングの労力を約40%削減し、顧客満足度を20%向上させる可能性を誇っています。 ブランド向けカスタムLLM Contaktは、各ブランドがカスタマイズされた大規模な言語モデル(LLM)アシスタントを育成することで、さまざまな接点でエンドツーエンドの顧客体験を実現します。この創発型AIアシスタントは、プリセールスでの対話的なガイダンス、顧客自己サービス、生産性向上のためのエージェントの共同作業機能、および主要なメトリックのトラッキングと最適化のためのインテリジェントアナリティクスを提供します。Vaishは、特にGPT-3.5およびGPT-4モデルを含むOpenAIのLLMが、市場競争相手に先行する位置にContaktを置くと強調しています。 リライアンスリテールのAIの飛躍 Jio Haptikは、別の計画を明らかにしました。リライアンスリテールは、Tiraのeコマースサイトに創発型AIビューティーアドバイザーチャットボットを導入する意向です。Reliance Retailの最高製品およびテクノロジーオフィサーであるAnand Thakurは、統合を予想しています。彼は、Web販売アシスタントにChatGPTのような機能を組み込むことで、購入プロセスを合理化し、総合的な顧客体験を向上させることができると期待しています。Thakurは、この取り組みを重要な進歩と位置付けており、Tiraの各顧客に対して個別化された体験を提供するための小売技術の未来を形作る上で重要な役割を果たすと考えています。 私たちの意見 人工知能の進化する景色を進んで行く中で、Contaktはゲームチェンジャーとして浮かび上がっています。Haptikは、OpenAIの強力な言語モデルを戦略的に統合しています。それにより、Contaktは市場の先頭に立つ存在となっています。その約束は、ボットのパフォーマンス、AIの訓練効率、顧客満足度の向上という前例のない進化です。Contaktの導入は、AIとビジネスオペレーションの融合における重要なマイルストーンを示しています。産業が進化するにつれて、HaptikとReliance Jioの軌跡がAIの役割を強化しています。これは、企業と顧客の両方にとってより効率的で個別化された未来を形作る推進力です。

『NYU研究者が提案するGPQA 生物学、物理学、化学の3つの領域の専門家が作成した448の多肢選択問題からなる難解なデータセット』

大型言語モデル(LLM)は人工知能(AI)の最前線にあり、この急速に変化する分野で人間のスキルを凌駕する可能性を示しています。ただし、これらのモデルが超人的な能力に近づくにつれて、公正な評価や人間の理解に合わせることがより困難になります。この問題を解決することは、新しいAIシステムが正確な情報を提供することを保証するために不可欠であり、特に人間が検証できる真実が曖昧な問題において重要です。これはスケーラブルな監視として知られる問題です。 ロバストな評価のテストベッドは、これらのジョブのためのLLMの適合度を評価するために必要です。テストベッドは、特に人間が生成したデータや独立に検証された真実へのアクセスが制限されている場合に、これらのモデルから一貫して正確なデータを得る必要があります。そのようなテストベッドは、人間の知識の外の問題に対して一般化を可能にするために十分に困難でなければならず、高度に訓練された非専門家によるテストも可能にする必要があります。特に専門知識が必要な分野では、LLMの回答の正確さを評価することはより困難です。人間のフィードバックからの強化学習などの監視技術の主要なコンポーネントは、人間の注釈者がLLMの出力の正確さを評価する際の正確さです。ただし、注釈者が経験不足により正確さを区別しにくい場所では、モデルの回答における妄想や相場の悪化といった問題が悪化します。 これらの問題に対応するために、NYU、Cohere、Anthropicの研究者は、GPQA:卒業レベルのGoogle-Proof Q&Aベンチマークを提案します。GPQAは、生物学、化学、物理学の卒業レベルの多肢選択問題をカバーする評価データセットです。興味深いことに、GPQAは各質問に対して多くの時間を費やし、その質問をドメインの専門家や高度に訓練された非専門家と検証しています。これにより、問題がチャレンジングであることが保証されます。GPQAは、詳細な4つのステップの手順の結果です。質問はまず専門家によって開発され、その後他の人によって検証および修正されます。その後、2つの追加の専門家評価者が修正された質問を客観的に評価します。最終的に、各質問に時間をかけて回答する高資格の非専門家評価者がデータセットの複雑さを確認します。従業員のインセンティブは、すべてのレベルで優れた業績を認識し報酬を与えることを考慮して綿密に作成されています。 448の厳しいインスタンスを持つGPQAは、さえない最も先進的なAIシステムでも直面する課題を証明しています。最高のGPT-4ベースのモデルでも39%の正確性しか持ちませんが、専門家は65%、非専門家は34%に達します。これは、既存のモデルを凌駕する次世代モデルに対するスケーラブルな監視技術の研究にとって、このデータセットの価値を強調しています。重要性にもかかわらず、GPQAには非常に限られたモデルの訓練サイズと専門家選択におけるバイアスの可能性などの欠点があります。将来的には、監視データセットは超人的AI監視の標準として未解決の問題を見つけることを目指すかもしれません。これにより、モデルと人間の専門知識の知識ギャップが縮まります。 GPQAは、要求の高い分野で人工知能評価の最前線を拡大する先駆的な評価データセットとして機能します。その開発アプローチと検証技術は、スケーラブルな監視トライアルの洞察を提供することで、超人的なAIシステムの効率的な監視プロトコルの開発を容易にします。GPQAの開発は、AIシステムの評価を評価し、超人的モデルを人間の知識とより一致させることを目指しています。

DatategyとMath&AI Instituteの研究者、大規模言語モデルのマルチモダリティの未来に関する展望を提供

フランスのDatategy SASとトルコのMath&AI研究所の研究者は、最近注目されているマルチモーダルアーキテクチャに対する1つの可能な方向性を提案しています。彼らの研究の中心的なアイデアは、よく研究された固有表現認識(NER)の定式化が、マルチモーダルな大規模言語モデル(LLM)の枠組みに組み込まれる可能性があるということです。 最近、LLaVA、Kosmos、またはAnyMALなどのマルチモーダルアーキテクチャが注目を集め、実践でその能力を示してきました。これらのモデルは、テキスト以外のモダリティ(画像など)からデータをトークナイズし、外部のモダリティ固有のエンコーダを使用してそれらを共通の言語空間に埋め込むことができます。これにより、アーキテクチャはテキストと交互に混在したマルチモーダルデータを調整する手段を提供できます。 この論文の著者は、この一般的なアーキテクチャの選好が将来的にはさらに野心的な設定に拡張される可能性があると提案しています。彼らはこれを「オムニモーダル時代」と呼んでいます。NERの概念に何らかの形で関連する「エンティティ」は、このようなアーキテクチャのモダリティとして想像することができます。 たとえば、現在のLLMは完全な代数的推論を導き出すことが難しいとされています。特定の数学に優しいモデルや外部ツールの使用に関する研究が進められているとはいえ、この問題への一つの展望は、量的な値をこのフレームワークのモダリティとして定義することかもしれません。また、暗黙的および明示的な日付と時間のエンティティは、特定の時間認知モダリティエンコーダによって処理できます。 LLMは地理空間の理解にも非常に苦労しており、「地理的に意識した」とは言えません。また、数値的なグローバル座標を適切に処理する必要があり、近接性と隣接性の概念は言語の埋め込み空間に正確に反映されるべきです。そのため、場所を特別な地理空間のモダリティとして組み込むことで、特別に設計されたエンコーダと共同トレーニングによってこの問題を解決することもできます。これらの例に加えて、最初に取り組むべき可能なエンティティは人、機関などです。 著者たちは、この種のアプローチはパラメータ/非パラメトリックな知識のスケーリングとコンテキストの長さ制限の解決策を提供すると主張しています。複雑さと情報は数多くのモダリティエンコーダに分散されることができます。これにより、モダリティを介して更新された情報を注入する問題も解決するかもしれません。研究者たちは、このような潜在的なフレームワークの枠組みを提供し、エンティティ駆動の言語モデルの開発の約束と課題について議論しています。

ジェミニに会ってください:Googleの画期的なマルチモーダルAIモデルが人工知能の未来を再定義する

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-06-at-11.41.53-PM-1024×550.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-06-at-11.41.53-PM-150×150.png”/><p>Googleの最新の人工知能「ジェミニ」は、AI技術の大きな飛躍を表しています。驚くべき能力を持つAIモデルとして発表されたジェミニは、GoogleのAIファースト戦略に対する持続的な取り組みを証明しています。この開発は、Googleだけでなく、AIの広い領域において新たな可能性と改善をもたらします。それは、開発者、企業、そして世界中のエンドユーザーにとってのものです。</p><p>Google DeepMindとGoogle Researchの共同開発であるジェミニは、本来的にマルチモーダルな設計とされています。これは、テキスト、コード、音声、画像、動画など、さまざまな情報タイプを理解し、処理し、統合することができることを意味します。そのモデルのアーキテクチャは、データセンターからモバイルデバイスまで、さまざまなデバイスで効率的に動作することができ、その柔軟性と適応性を示しています。</p><p>ジェミニの最初のバージョンであるジェミニ1.0には、Gemini Ultra、Gemini Pro、Gemini Nanoの3つのバリアントがあります。それぞれのバリアントは、特定のユースケースに最適化されています:</p><ol><li><strong>Gemini Ultra</strong>:高度に複雑なタスクに最適化された最も包括的なモデルです。さまざまな学術ベンチマークで優れたパフォーマンスを発揮し、32のベンチマーク中30のベンチマークで現在の最先端の結果を上回っています。特に、複数のドメインでの知識と問題解決をテストするMassive Multitask Language Understanding (MMLU)では、人間の専門家を超える最初のモデルです。</li><li><strong>Gemini Pro</strong>:幅広いタスクにスケーリングするための最適なモデルとされており、能力と汎用性のバランスを提供します。</li><li><strong>Gemini Nano</strong>:オンデバイスのタスクに最適化された、最も効率的でモバイルデバイスや類似のプラットフォームに適したバージョンです。</li></ol><figure></figure><p>ジェミニの重要な強みの一つは、洗練された推論能力です。このモデルは、複雑な文章や視覚情報を分析し解釈することができるため、広範なデータセットに隠された知識を解き放つのに特に優れています。この能力は、科学や金融などさまざまな分野でのブレークスルーを促進することが期待されています。</p><p>コーディングの観点では、ジェミニ・ウルトラは驚異的な能力を発揮します。複数のプログラミング言語で高品質のコードを理解し説明、生成することができるため、コーディングのためのリーディングなファウンデーションモデルの一つとなっています。</p><figure><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-06-at-11.44.02-PM-1024×891.png”/><figcaption>https://storage.googleapis.com/deepmind-media/gemini/gemini_1_report.pdf</figcaption></figure><p>ただし、ジェミニは単一のモデルではなく、異なるニーズと計算環境に対応するために設計されたモデルのファミリーです。これは、通常、異なるモーダリティのために別々のコンポーネントをトレーニングしてからそれらを結合するという従来のマルチモーダルモデルの方法からの脱却を示しています。代わりに、ジェミニは最初からネイティブでマルチモーダルなので、さまざまな情報のよりシームレスで効果的な統合が可能です。</p><p>まとめると、Googleのジェミニは、AIの領域における重要な進歩を表しています。そのマルチモーダルの能力、柔軟性、最先端のパフォーマンスは、幅広いアプリケーションにおいて強力なツールとなります。このモデルはGoogleの野心と責任あるAI開発への取り組みを反映し、ますます高度なAIシステムの社会的および倫理的な影響を考慮しながら、可能性の限界を広げています。</p>

「Hill Climbing Algorithm in AIとは何ですか?」

はじめに 人工知能(AI)の複雑な世界では、ヒルクライミングアルゴリズムが問題解決のための基本的な手法として登場します。この技術は、比喩的な山の登りと同様に、AIの最適化問題の複雑な地形を航海するために重要です。それは多くの可能性の中から最も効果的な解を見つける戦略的なアプローチであり、さまざまなAIアプリケーションの基盤となるものです。 ヒルクライミングアルゴリズムはどのように動作するのですか? ヒルクライミングアルゴリズムは、山の麓に立っているかのような基点から始まり、隣接する解を反復的に探索します。次の最善のステップを評価する登攀者のように、各アルゴリズムの移動は目的関数に対して精査される増分の変化です。この関数はアルゴリズムをピークに向かって導き、進行を保証します。 たとえば、迷路解決アプリケーションが素晴らしい例です。このシナリオでは、アルゴリズムが実行する各ステップは、迷路内での戦略的な動きを表し、出口への最短経路を目指します。アルゴリズムは各ポテンシャルステップを評価し、出口に近づける効果を測定します。これは、山の頂上に近づけるどのステップが登攀者を高めるかを考える登山者に似ています。 出典: Javapoint ヒルクライミングアルゴリズムの特徴 ヒルクライミングアルゴリズムの主な特徴は次のとおりです: 生成と試行アプローチ:この特徴は、隣接する解を生成し、その効果を評価し、常に解空間で上昇することを目的としています。 グリーディローカルサーチ:このアルゴリズムは、即座のメリットがある動きを選択し、ローカルな改善を約束する安価な戦略を使用します。 バックトラッキングしない:他のアルゴリズムとは異なり、ヒルクライミングは以前の決定を再訪したり再考したりせず、最適解を探求するために進んで進みます。 ヒルクライミングアルゴリズムの種類 ヒルクライミングアルゴリズムにはさまざまな形式があり、それぞれ特定のシナリオに適しています: 単純なヒルクライミング このバージョンでは、隣接する解を評価し、現在の状態を改善する最初の解を選択します。たとえば、配送ルートの最適化では、最初の代替ルートを選択し、配送時間を短縮する場合でも、最適ではないとしても選択します。 アルゴリズム: ステップ 1:初期状態で開始します。 ステップ 2:初期状態が目標であるかどうかをチェックします。目標であれば、成功を返して終了します。 ステップ 3:改善された状態を連続的に探索するループに入ります。 ループ内で、現在の状態にオペレータを適用して隣接状態を選択します。…

「FacebookとInstagramにて、Metaが新しいAI機能を発表」

人工知能において注目すべき進展が詰まった2022年において、Metaは革新的な進歩を遂げ、確実にリードを取っています。仮想アシスタントの向上からコンテンツ作成の革命まで、このテックジャイアントは2023年においてAIの風景を形作る準備が整っています。Facebook、Instagram、WhatsApp、Messengerを通じて、20の新たな方法でGenerative AIがエクスペリエンスを向上させることができます。本記事では、メッセージングアプリ、画像生成、コンテンツの発見、プライバシー対策にわたるAIエクスペリエンスの最新情報について深く掘り下げます。 META AIの進化 META AI、仮想アシスタントは今ではより直感的であり、モバイル上で詳細な回答と正確な検索結果の要約を提供します。ユーザーはWhatsAppを含むメッセージングプラットフォームでAIチャットを開始したり、Ray-Ban Metaスマートグラスを使用して音声コマンドを使用することで、シームレスにMETA AIと対話することができます。さらに、META AIはチャットに限らず、FacebookやInstagramのプロダクト体験の豊かさに貢献しています。投稿へのコメントの提案から商品のコピーの向上まで、META AIはインタラクションをより魅力的にするために重要な役割を果たしています。 友達と一緒に画像を作成し、Riffしよう META AIのテキストから画像への機能には「再構築」というエキサイティングな追加があります。この新機能により、ユーザーはMessengerやInstagramのグループチャット内で協力して画像を作成し、修正することができます。ユーザーは初期の画像を生成し、友人はテキストプロンプトを提案することで、まったく新しい画像を作成することができます。この協力的でエンターテイニングな機能により、画像の作成と共有に新たな次元が加わります。 リールで新しいエクスペリエンスを見つけよう METAは、リールをMETA AIのチャットに導入し、ユーザーにコンテンツの探索、クリエイターとのつながり、インスピレーションの見つけ方を提供します。旅行の計画を立てたり、グループチャットで興味を話し合ったりする際に、リクエストしてリールを見て提案を視覚化することができます。この統合は、スイート内のアプリでよりつながりのあるパーソナライズされたエクスペリエンスを作成するというコミットメントを示しています。 Facebookでのエクスペリエンスを向上させる META AIの影響力はFacebookにも及び、革新的な機能がテストされています。パーソナライズされたバースデーグリーティングの作成やFeed投稿の編集、新しいチャットのトピックの提案など、日常のエクスペリエンスを簡素化するための取り組みです。さらにAIは、Marketplaceにおいて検索能力を向上させ、ユーザーが製品に関する関連情報をより簡単に見つけ、代替案を見つけることができるようにします。 クリエイターがファンに返信するのを助ける Instagramのクリエイターは、META AIがダイレクトメッセージ内での推奨返信を導入することで喜びに包まれます。この機能は、コミュニケーションを効率化し、クリエイターがより効果的に観客と交流することを可能にします。AIはトーンやコンテンツを分析し、関連する返信を生成することで、クリエイターとファンの間の迅速かつアクセスしやすいインタラクションを促進します。 META AIでImagineを体験する…

「ビジュアルAIがカナダ最大かつ最も賑やかな空港で飛躍する」

カナダのオンタリオ州にあるトロントピアソン国際空港は、年間約5000万人の旅客にサービスを提供する国内最大かつ最も混雑した空港です。 旅行者の体験を向上させるために、同空港は2022年6月にZensors AIプラットフォームを導入しました。このプラットフォームは、既存のセキュリティカメラの匿名映像を使用して空間データを生成し、リアルタイムで運用を最適化するのに役立ちます。 NVIDIA MetropolisのビジョンAIパートナーエコシステムの一員であるZensorsは、トロントピアソンの運用チームが通関待ち時間を大幅に短縮しました。2022年のピーク時に到着手続きにかかる平均時間は30分程度と推定されていたものが、昨年の夏にはわずか6分未満に減少しました。 同社の共同創業者であるAnuraag Jain氏は、「Zensorsは視覚AIを誰でも簡単に使用できるようにしています。」と述べています。 Jain氏はさらに、大規模なAIのスケーリングはほとんどの組織にとって容易ではないと付け加え、空港は従来のハードウェアセンサーやLiDAR、3Dステレオカメラに基づく効果の薄い解決策に頼るか、改装や新しいターミナルの建設によって運用を改善することを考えることが多いと述べています。これらの方法は数十億ドルのプロジェクトになり得ます。 Jain氏は、「当社は、既存のカメラと最新のAI技術を使用して、空港がソフトウェア企業のように考えることができるプラットフォームを提供しています。それにより、より迅速でコスト効果の高い、さらに正確なソリューションを展開することが可能になります。」と述べています。 空港運用の高速化 トロントピアソンでは、ターミナルのインフラをアップグレードするか新たに建設する通常の数か月または数年かかる作業ではなく、数週間で運用を改善する方法が必要でした。 Zensors AIプラットフォームは、空港の既存のカメラシステムからの映像フィードを構造化データに変換します。 匿名化された映像を使用して、プラットフォームは待ち列の旅行者数をカウントし、混雑したエリアを特定し、パッセンジャーの待ち時間を予測するなどのタスクを実行し、リアルタイムでスタッフに通知して運用を迅速化します。 このプラットフォームはまた、運用チームがパフォーマンスを評価し、より効果的に計画し、最適な効率性のためにスタッフを再配置するための分析レポートも提供します。 Zensors AIによるリアルタイムの待ち時間統計データは、トロントピアソンのオンラインダッシュボードおよびターミナル内の電子ディスプレイに公開されます。これにより、旅客は関税手続きやセキュリティ手続きにかかる時間について正確な情報に簡単にアクセスできます。また、全体的な顧客満足度を向上させ、接続便に乗ることができるかどうかについての潜在的な不安を軽減します。 トロントピアソンの運営会社であるGreater Toronto Airport Authorityの空港IT計画開発ディレクターであるZeljko Cakic氏は、「Zensorsプラットフォームから得られる分析は非常に正確であることがわかっています。全体的な顧客体験を向上させ、待ち時間を短縮することを目指しており、Zensorsプラットフォームを通じて収集されるデータはこの結果を推進する意思決定のための主要な要素の一つです。」と述べています。 NVIDIAによる高精度AI Zensors…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us