Learn more about Search Results AI - Page 14
- You may be interested
- この秋登場予定:NVIDIA DLSS 3.5 が Chao...
- 「カスタムファインチューニングされた大...
- AWS上で請求書処理を自動化するためのサー...
- 「事実かフィクションかを超えて:GPT-4の...
- マイクロソフトが「TypeChat」をリリース...
- データオブザーバビリティの先駆け:デー...
- カスタムGPTが登場し、AIにすべてへの影響...
- 「AIとブロックチェーンの交差点を探る:...
- 2023年のトップ5の建築学校
- 大規模な言語モデルは本当に数学をできる...
- アマゾンセージメーカースタジオを使用し...
- GPTと人間の心理学
- 「ChatGPTとCanvaを使用して1分で100のIns...
- 『CMUからの新しいAI研究は、適切な言語モ...
- 「8月7日〜13日のトップ投稿:ChatGPTを忘...
このAI論文は、イギリスのインペリアルカレッジロンドンとEleuther AIが対話エージェントの行動を理解するための枠組みとしてロールプレイを探究しています
“`html 現代社会では、人工知能(AI)の統合が人間の相互作用を根本的に変えています。ChatGPTなどの大規模言語モデル(LLMs)の出現により、人間のような認知能力と自動化された対応の間の境界が曖昧になっています。イギリスの帝国カレッジロンドンとEleuther AIの研究チームによる最新の論文では、この進化するAI知能の領域を航海するために、言語アプローチを再評価する必要性に光を当てています。 AIによって駆動されたチャットボットの魅力は、機械的なアルゴリズムではなく感情を持つ存在との会話に似た会話をエミュレートする驚異的な能力です。しかし、人間との相互作用のこのエミュレーションは、個人の感情的なつながり形成への脆弱性とリスクを引き起こす懸念があります。研究者は、これらのLLMsに関する言語と認識を再調整する必要性を強調しています。 問題の本質は、社交性と共感への内在的な人間の傾向にあります。これにより、人間のような属性を持つ存在と関わることへの脆弱性が生じます。しかし、この傾向は、詐欺やプロパガンダなどの不正目的でLLMsを悪用する悪意のある行為者による潜在的な危険性をもたらす可能性があります。チームは、「理解」「思考」「感情」といった人間的な特性をLLMsに帰因することは避けるべきだと警告し、これにより脆弱性が生まれ、保護が必要となると述べています。 論文では、過度な感情的な依存やAIチャットボットへの頼りすぎのリスクを緩和するための戦略を提案しています。まず、ユーザーの理解を簡略化するために、AIチャットボットを特定の役割を果たす俳優として捉えることが重要です。さらに、潜在的な多角的キャラクターの広範な範囲内で様々な役割を演じる指揮者として捉えることにより、より複雑で技術的な視点が得られます。研究者は、包括的な理解を促進するために、これらの異なるメタファー間でのスムーズな移行を推奨しています。 チームは、人々のAIチャットボットとの相互作用にアプローチする方法が、彼らの認識と脆弱性に大きく影響することを強調しました。多様な視点を受け入れることで、これらのシステムに備わる潜在能力をより包括的に把握することができます。 言語の改革の必要性は、意味的な変化を超えて、認知パラダイムの根本的な変化を必要としています。研究者によって示されたように、「異種の心のようなアーティファクト」を理解するには、従来の擬人化からの脱却が必要です。代わりに、AIチャットボットの単純化されたと複雑な概念モデル間を流動的に移動できるダイナミックなマインドセットが必要とされます。 結論として、この論文は、言語の適応と認知的な柔軟性が絶えず進化するAI組み込み相互作用の風景を航海する上での重要性を強調しています。技術が進化するにつれて、AIチャットボットに関するディスカッションの再構築は不可欠です。言語の再調整と多様な視点の受け入れにより、個人はこれらの知的システムの潜在能力を活用しながら内在するリスクを緩和し、人間の認知とAI知能の間に調和のとれた関係を築くことが可能です。 “`
物議を醸している:GrokがOpenAIのコードを訓練に使用
Elon Muskの最新の事業は、生成AIベースのチャットボットGrokです。しかし、OpenAIのコードが訓練に使用されているという告発が浮上し、この論争が生じています。この論争は、Elon Musk、OpenAI、そして現在のOpenAIのCEOであるSam Altmanとの複雑な歴史に新たな要素を加えています。 告発が明らかに 最近の主張によれば、Grokは誤ってOpenAIのコードベースで訓練されている可能性があります。この憶測は、ユーザーであるJax WinterbourneがGrokからOpenAIのChatGPTに似た異常な応答を受けたことから燃え上がりました。ユーザーは、xAIがGrokの訓練にOpenAIのコードを利用している可能性に懸念を抱いています。 xAIの説明 告発に対して、xAIと関係のあるIgor Babuschkinは、Grokの訓練に使用された膨大なウェブデータが問題の原因であると説明しました。Babuschkinは、訓練プロセスがChatGPTの出力を誤って取得したことを認めつつも、将来のGrokのバージョンではこの問題が発生しないようにすると保証し、Grokの作成にOpenAIのコードは使用しなかったことを強調しました。 Elon Muskの反論 Twitterの論争に慣れたElon Muskは迅速に告発に反論しました。Muskは、Grokの応答が訓練時の大量のデータ収集によるものであると主張しました。Muskらしいスタイルで「さて、息子よ、このプラットフォームからデータを集めて訓練を行った以上、あなたは知っているはずだ」と反論しました。 Grok vs. ChatGPTの詳細比較 GrokとChatGPTの比較は、それぞれのユニークな特徴を明らかにします。GrokはXプラットフォームを通じたリアルタイムの情報アクセスが特徴であり、最初のChatGPTにはこの能力が欠けていました。しかし、この論争は、Grokの訓練データの出所に関する疑問を浮上させました。 xAIの共同研究と将来の展望 xAIはElon Muskの発案だけでなく、GoogleのDeepMindやMicrosoftからの経験を持つチームによって支えられています。xAIはTeslaや他のさまざまな企業との契約を公にし、Oracleとのクラウド活用のための契約が最近明らかになり、xAIがAI技術の進歩に対する取り組みを強調しています。 私たちの意見 これらの告発と反論の中で、ユーザーはAIの開発の複雑さを理解する必要があります。Grokの訓練データに関する論争は懸念すべきですが、それは同時にインターネットの広大な領域におけるデータの純粋性を保証するための課題を浮き彫りにしています。技術の進化とともに、AI開発者はこのような問題に迅速に対処し修正することが極めて重要になってきます。
「このAIニュースレターは、あなたが必要とするすべてです #77」
今週のAIのニュースは、Google(ジェミニ)とミストラル(8x7B)による新しい大規模言語モデルのリリースが主でしたモデルの発表におけるアプローチは、プレスイベントとデモによるもので、非常に異なっていました...
ミストラルAI (8x7b)、専門家(MoE)モデルの初のオープンソースモデルをリリース
ミストラルは、最初の560億トークンモデル(8モデル、各70億トークン)をトレント経由でリリースすることによって、オープンソースの世界への取り組みを続けます!数日前、私たちはGPT4が...
このAI論文は、コントロール可能なマルチビュー画像生成および3Dコンテンツ作成を革新するニューラルネットワークアーキテクチャー、MVControlを紹介しています
最近、2D画像制作の驚くべき進展がありました。テキストの入力プロンプトにより、高精細なグラフィックスを簡単に生成することができます。テキストから画像の生成に成功することは稀であり、3Dトレーニングデータが必要なため、テキストから3Dへの移行は難しいです。拡散モデルと微分可能な3D表現の良い性質により、最近のスコア蒸留最適化(SDS)ベースの手法では、事前学習済みの大規模テキストから画像を生成するモデルから3D知識を抽出し、大量の3Dデータで完全に学習する代わりに、印象的な結果を達成しています。DreamFusionは、3Dアセットの作成に新たなアプローチを導入した模範的な研究です。 過去1年間で、2Dから3Dへの蒸留パラダイムに基づいて方法論が急速に進化してきました。複数の最適化段階を適用することで、生成品質を改善するための多くの研究が行われており、3D表現の前に拡散を最適化したり、スコア蒸留アルゴリズムをさらに精密化したり、パイプライン全体の詳細を向上させたりしています。これらの手法は細かいテクスチャを生成できますが、2Dの拡散先行は依存していないため、生成された3Dコンテンツの視点の一貫性を確保することは困難です。そのため、複数のビュー情報を事前学習済みの拡散モデルに強制的に組み込むための試みがいくつか行われています。 ベースモデルは制御ネットワークと統合され、制御されたテキストからマルチビュー画像の生成が可能になります。同様に、研究チームは制御ネットワークのみを訓練し、MVDreamの重みはすべて凍結されています。研究チームは実験的に、相対姿勢条件が条件画像に関してテキストからマルチビューの生成を制御するためにより良い結果をもたらすことを発見しました。これに対して、MVDreamが絶対座標系で記述されたカメラの姿勢で訓練されている場合でも、事前学習済みのMVDreamネットワークの記述とは異なります。さらに、視点の一貫性は、シングルイメージの作成に対応する条件付けメカニズムを持つ2D ControlNetの制御ネットワークをベースモデルとの相互作用に直接採用することで容易に達成できます。 これらの問題に対処するために、浙江大学、西湖大学、同济大学の研究チームは、制御ネットワークを基にした独自の条件付けテクニックを作成し、制御されたテキストからマルチビューの生成を提供するために十分に成功したControlNetアーキテクチャを提案しました。幅広い2DデータセットLAIONと3DデータセットObjaverseの一部を共同で使用してMVControlを訓練しました。この研究では、エッジマップを条件として使用することを調査しましたが、彼らのネットワークは深度マップ、スケッチ画像など、さまざまな種類の入力状況を活用する能力に制約はありません。訓練が終了すると、研究チームはMVControlを使用して制御されたテキストから3Dアセットの生成に3D先行を提供することができます。具体的には、MVControlネットワークと事前学習済みのStable-Diffusionモデルに基づくハイブリッド拡散先行が使用されます。細かいステップでは、ベースモデルから十分なジオメトリを得た段階でのテクスチャの最適化のみが行われます。包括的なテストにより、提案された手法が入力条件画像と書かれた説明を使用して、高精度で細かい制御が可能なマルチビュー画像と3Dコンテンツを生成できることが示されています。 まとめると、以下が彼らの主な貢献です。 ・ネットワークが訓練された後、SDS最適化を介した制御されたテキストから3Dコンテンツ合成にハイブリッド拡散の一部として使用できます。 ・独自のネットワーク設計を提案し、細かい制御が可能なテキストからマルチビュー画像の生成を実現します。 • 彼らのアプローチは、入力条件画像とテキストのプロンプトによって細かく制御されることができる高精度なマルチビュー画像と3Dアセットを生成することができます。これは、広範な実験結果によって示されています。 • SDS最適化による3Dアセットの生成に加えて、彼らのMVControlネットワークは、3Dビジョンとグラフィックのコミュニティでさまざまなアプリケーションに役立つ可能性があります。
「チャットボットとAIアシスタントの構築」
この記事は、自然言語処理(NLP)とチャットボットフレームワークの総合ガイドを紹介します詳しくは、学んでください!
「ベクターデータベースは、生成型AIソリューションの未来をどのように形作るのか?」
紹介 生成AIの急速に進化する風景において、ベクトルデータベースの重要な役割がますます明らかになってきました。本記事ではベクトルデータベースと生成AIソリューションとのダイナミックな相乗効果について探求し、これらの技術的基盤が人工知能の創造性の将来を形作っているかを紐解きます。革新的なAIソリューションの最先端にもたらすベクトルデータベースの変革的な影響を解き放つため、この強力な連携の複雑さを旅してください。 学習目標 この記事では以下のベクトルデータベースの側面を理解するのに役立ちます。 ベクトルデータベースの重要性とその主要な構成要素 従来のデータベースとのベクトルデータベースの詳細比較 応用の観点からのベクトル埋め込みの探求 Pineconeを使用したベクトルデータベースの構築 langchain LLMモデルを使用したPineconeベクトルデータベースの実装 この記事はData Science Blogathonの一部として公開されました。 ベクトルデータベースとは何ですか? ベクトルデータベースとは、空間に格納されたデータの集合の形式です。しかし、ここでは数学的な表現で格納されているため、AIモデルが入力を覚えるのに便利であり、オープンAIアプリケーションが認知検索、推奨、テキスト生成を使用してさまざまなユースケースで活用できるようになっています。データの格納と検索は「ベクトル埋め込み」と呼ばれます。また、これは数値配列形式で表されます。トラディショナルなデータベースと比べて、非常に大規模でインデックス化された機能を持つAIの観点での検索ははるかに容易です。 ベクトルデータベースの特徴 これらのベクトル埋め込みのパワーを活用し、巨大なデータセット全体でのインデックス作成と検索を実現します。 あらゆるデータ形式(画像、テキスト、データ)と互換性があります。 埋め込み技術と高度なインデックス化された機能を採用しているため、与えられた問題のデータと入力の完全なソリューションを提供できます。 ベクトルデータベースは、数百の次元を含む高次元ベクトルを通じてデータを整理します。これらは非常に迅速に構成できます。 各次元は、それが表しているデータオブジェクトの特定の特徴または属性に対応しています。 従来のデータベースとベクトルデータベースの比較 図は従来のデータベースとベクトルデータベースのハイレベルなワークフローを示しています。 フォーマルなデータベースのやり取りはSQLステートメントを通じて行われ、データは行ベースおよび表形式で格納されます。…
「金融業界におけるAIの進出:自動取引からパーソナライズドバンキングへ」
財界は、人工知能(AI)の出現と統合によって、革命的な変化を目撃していますこの技術は、単なる付加要素ではなく、金融サービスの本質的な構造を再構築するための核となる要素です超人的なスピードで取引を実行する自動化取引アルゴリズムから個別の顧客に合わせたパーソナライズされたバンキング体験まで、AIによる金融業界の侵略が進行しています... 金融業界におけるAIの進出:自動化取引からパーソナライズされたバンキングへ Read More »
マイクロソフトがアメリカの労働組合と手を結び、AI労働力に関する議論に参加します
Microsoftは最近、労働組合アメリカ連邦労働総評議会(AFL-CIO)と包括的な対話を開始するために、人工知能(AI)が労働力に与える影響に関して重要な連携を結びました。この戦略的パートナーシップは、AIの変革的な影響を理解し、適応し、規制することを目指しており、これらの進展における労働者の重要な役割を認識しています。 重要性の認識 米国ワシントン州レドモンドに本社を置くMicrosoftは、AFL-CIO傘下の60の労働組合と協力し、合計1250万人の労働者を代表しています。AFL-CIOのリズ・シューラー会長は、この連携の歴史的性格を強調し、AIおよび関連技術の開発、展開、規制における労働者の貢献を認識する重要な役割を明確にしました。 協力的な情報共有 連携は、主に労働組合リーダーとのオープンな対話と詳細な情報共有に重点を置いています。目的は、労働力が変化する環境に適応するために、AI技術のトレンドに常に精通し、十分に情報を得ることです。Microsoftの取り組みは、AI技術の持続的な発展において労働者の視点と専門知識を取り入れることまでを含んでいます。 労働者組織のための枠組み このパートナーシップの重要な要素は、将来の労働者組合組織のための中立な枠組みを提供する合意です。Microsoftのプレスリリースに述べられているように、この枠組みは従業員の団結権を尊重し、組合に参加する権利を組織化することに専念しています。また、急速な技術変化の中で労働者を支援する労使関係の構築と、労働組合に関する集団交渉協定の交渉も目指しています。 労働者の懸念と願望への対応 AIの普及が雇用の安定性について懸念を引き起こす時代において、このパートナーシップの目標には、労働者および学生に対するAI教育も含まれています。協力的な取り組みは、共同政策作成とスキル向上にも広がります。MicrosoftとAFL-CIOは、AIが労働者の仕事を強化する潜在能力を持つと同時に、そのエージェンシーと責任を低下させるのではなく、仕事を補完するために利用された場合に労働者の仕事を向上させる可能性を認識しています。 その他の関連記事:マイクロソフトのシニアデータサイエンティストの成功ストーリー 私たちの意見 マイクロソフトとAFL-CIOとのこの画期的な協力は、労働力におけるAIの課題に積極的に取り組むアプローチを象徴しています。労働組合リーダーを積極的に関与させることにより、この取り組みはAIが国の労働者に奉仕することを目指しています。マイクロソフトの労働組合リーダーや労働者のAI機能に関するトレーニングへの取り組み、従業員の組合加入をよりアクセスしやすくすることは、賞賛に値する先例を示しています。公共政策の形成に重点を置くこの連携は、責任あるAIの統合に対する専念をさらに証明しています。 他のテクノロジージャイアントが組織労働に対して異なるスタンスを取る中、マイクロソフトの協力的なアプローチは際立っています。AFL-CIOのリズ・シューラー会長が適切に述べたように、テクノロジー利用の第一線に立つ人々を巻き込むことは、単に論理的なだけでなく、本質的に重要なことです。この歴史的な連携は、ただ現在の懸念に対処するだけでなく、責任ある包括的なAIの導入の先例を産業全体に打ち立てています。
メタAIは、オープンで創造的なAIモデルを使って倫理的に建設するために、パープルラマをコミュニティの支援として発表しました
<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-12-at-12.34.25-AM-1024×710.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-12-at-12.34.25-AM-150×150.png”/><p>データの増加、モデルサイズ、自己回帰言語モデリングのための計算能力の向上により、対話型AIエージェントは過去数年で驚くべき進化を遂げました。チャットボットは、自然言語処理、推論、ツールの習熟度など、多くの有用なスキルで知られる大規模な言語モデル(LLM)を使用することがよくあります。</p><p>これらの新しいアプリケーションは、潜在的な危険を軽減するために徹底的なテストと慎重な展開が必要です。したがって、生成AIによって動作する製品には、ポリシーに違反する高リスクなコンテンツの生成を防ぐための保護策を実装することが推奨されます。さらに、アドバーサリアルな入力やモデルのジェイルブレイクの試みを防ぐためにも、これらはLlama 2 Responsible Use Guideなどのリソースで確認できます。</p><p>オンラインのコンテンツを管理するためのツールを探している場合、Perspective API1、OpenAI Content Moderation API2、およびAzure Content Safety API3はすべて良い出発点です。ただし、これらのオンラインモデレーション技術は、入出力のガードレールとして使用した場合にはいくつかの理由で失敗します。最初の問題は、ユーザーとAIエージェントの危険性を区別する方法が現在存在しないことです。結局のところ、ユーザーは情報や援助を求めますが、AIエージェントはそれを提供する可能性が高いです。さらに、すべてのツールは設定されたポリシーを強制するため、ユーザーはツールを新しいポリシーに合わせて変更できません。第三に、個々のユースケースに合わせて微調整することは不可能です。最後に、すべての既存のツールは控えめな伝統的なトランスフォーマーモデルに基づいています。より強力なLLMと比較すると、これは彼らのポテンシャルを大幅に制限します。</p><p>新しいメタ研究は、会話型AIエージェントのプロンプトとレスポンスの潜在的な危険を分類するための入出力保護ツールを明らかにします。これにより、LLMを基にしたモデレーションが可能となり、この分野でのニーズを満たします。</p><p>彼らの分類ベースのデータは、ロジスティック回帰に基づく入出力保護モデルであるLlama Guardをファインチューニングするために使用されます。 Llama Guardは関連する分類ベースをモデルの入力として受け取り、指示義務を適用します。ユーザーは、ゼロショットまたはフューショットのプロンプティングを使用してモデルの入力を個別のユーズケースに適した分類ベースでカスタマイズすることができます。推論時間では、複数のファインチューニングされた分類ベースの中から選択し、適切にLlama Guardを適用することができます。</p><p>彼らは、LLMの出力(AIモデルからの応答)とヒューマンリクエスト(LLMへの入力)のラベリングに異なるガイドラインを提案しています。したがって、ユーザーとエージェントの責任の意味差をLlama Guardが捉えることができます。 LLMモデルがコマンドに従うという能力を利用することで、彼らはたった1つのモデルでこれを実現することができます。</p><p>彼らはまた、Purple Llamaを発表しました。将来的には、これはリソースと評価をまとめたプロジェクトとなり、オープンで創造的なAIモデルを倫理的に構築するためのコミュニティを支援します。サイバーセキュリティと入出力保護ツールおよび評価は、最初のリリースの一部となり、さらに多くのツールが追加されます。</p><p>彼らは業界で初めてのLLMのための包括的なサイバーセキュリティ安全評価を提供しています。これらのガイドラインは、セキュリティの専門家と共同で開発され、業界の推奨事項や基準(CWEやMITRE ATT&CKなど)に基づいています。この最初のリリースでは、ホワイトハウスが責任あるAIの創造を約束した中で、以下のような危険を緩和するのに役立つリソースを提供することを目指しています。</p><ul><li>LLMサイバーセキュリティの脅威を数量化するためのメトリック。</li><li>安全でないコード提案の普及を評価するためのツール。</li><li>LLMをより安全に書き換えることやサイバー攻撃の実行を助けるための手段。</li></ul><p>これらのツールにより、LLMが安全でないAI生成コードを提案する頻度を減らすことによって、サイバー攻撃者へのLLMの有用性が低下すると予想されます。彼らの研究では、LLMが安全でないコードを提案したり、悪意のあるリクエストを受け入れたりする場合に、深刻なサイバーセキュリティの懸念があることがわかっています。 </p><p>LLMへのすべての入力と出力は、Llama…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.