Learn more about Search Results Meta - Page 4

「OpenAIとMetaが著作権侵害で訴えられる」

驚くべき法的な展開により、有名なコメディアンのサラ・シルバーマン、著名な作家のクリストファー・ゴールデンとリチャード・カドリーがOpenAIとMetaに対して訴訟を起こしました。これらの訴訟は、著作権侵害を主張し、AIモデルの使用を注目させました。著者たちは、OpenAIとMetaがそれぞれChatGPTとLLaMAモデルを、彼らの作品を含む不正に入手したデータセットで訓練したと主張しています。これらの法的闘争が進展するにつれ、デジタル時代における著作権保護の境界について重要な問題が提起されています。 また読む:AIが個人データを使用したトレーニングの論争:BardがGmailの使用について詳しく調査 OpenAIとMetaに対する告発 シルバーマン、ゴールデン、カドリーは、彼らの作品が「シャドウライブラリ」ウェブサイト(Bibliotik、Library Genesis、Z-Libraryなど)から入手されたと主張しています。彼らは、彼らの本がトレントシステムを通じて大量に入手可能であり、OpenAIのChatGPTとMetaのLLaMAが彼らの許可なく使用されたと主張しています。提示された証拠の展示では、これらのAIモデルが著者の本を要約し、著作権を侵害していることが示されています。さらに、著者たちは、AIチャットボットが彼らの著作権管理情報を再現していないと主張しています。 また読む:ChatGPTとモデルのトレーニングを簡単な言葉で理解する Metaに対する訴訟 Metaに対する訴訟では、同社のLLaMAモデルのトレーニングデータセットに著者の作品が含まれていると主張されています。EleutherAIによって編成されたMetaのトレーニングデータセットであるThePileは、Bibliotikのコンテンツのコピーから派生したものとされています。著者たちは、Bibliotikや他の「シャドウライブラリ」が明らかに違法なソースであると主張しています。これらのデータセットを利用することで、MetaのAIモデルは著作権法に違反しているとされています。 法的闘争の展開 シルバーマン、ゴールデン、カドリーによる訴訟は、6件の訴因で構成されています。これには、さまざまな著作権侵害、過失、不当な利益受益、不正競争などが含まれます。著者たちは、損害賠償、利益の返還などを求めています。弁護士のジョセフ・サヴェリとマシュー・バタリックが著者を代表しています。彼らは、ChatGPTが著作権のある資料に類似したテキストを生成するという多くの作家、著者、出版社の懸念を強調しています。 また読む:データセキュリティとは? |脅威、リスク、解決策 広範な影響 これらの訴訟は、OpenAIとMetaを超えて、AI技術の進展に直面する著作権保護の限界について根本的な問題を提起しています。創造性と人工知能の間の闘いは、作家やクリエイターの権利を保護するための明確なガイドラインの必要性を浮き彫りにしています。これらの法的事例の結果は、AI開発の将来に大きな影響を与え、イノベーションと知的財産権の境界を航行する企業に迫ることになります。 また読む:専門家によるAIがあなたのデータを盗んでいるという主張 私たちの意見 シルバーマン、ゴールデン、カドリー、OpenAI、Metaの間の法的紛争は、AIモデルのトレーニングデータセットの入手に関する課題を浮き彫りにしています。これらの訴訟は、デジタル時代における作家やクリエイターの権利を守るための倫理的かつ法的な枠組みの確立の重要性を強調しています。社会はAIと著作権の間の絶えず進化する関係に取り組む中で、イノベーションを促進し、知的財産を尊重する微妙なバランスを見つけることが重要です。最終的には、これらの訴訟の結果がAI技術の将来と著作権保護の限界を形作るでしょう。

MetaのTwitterライバルアプリ「Threads」に1000万人が登録

Twitterのようなマイクロブログ体験からは、Meta Platformsがプラットフォームに直接挑戦する準備を進めていることが示唆されています

Metaphy LabsのAIエバンジェリストに会いましょう

紹介 常に変化するテックの風景の中で、魅力的な現象が浮かび上がってきました。それがメタバースです。この領域をリードするのは、ビジョナリーな共同創業者であるヴァルン・シャルマ氏です。彼のAIへの情熱が、仮想領域を再構築するための旅を推進しています。ヴァルンに会ってください。彼はメタバースとAIの力を利用して、非凡な人間の相互作用、創造性、起業家精神を実現しています。彼のビジョンは物理的な制約を超え、没入型の体験を構築し、デジタルのフロンティアを開拓することを推進しています。 会話を始めましょう! AV: メタフィラボの共同創業者兼最高メタバースオフィサーとしての道のりについて教えていただけますか?何があなたをこの道に進ませたのですか? ヴァルン氏 : メタフィラボの共同創業者兼最高メタバースオフィサーとしての私の道のりは、挑戦的で充実した経験でした。私は常に技術への情熱を持ち、それが世界を変える可能性を感じていました。アクセス可能な没入型の体験や仮想世界を作り出すアイデアは、私を魅了し、この道で私をインスパイアし続けています。 さらに、人間を特別な存在にしているのは、言葉を超えてつながる能力です。しかし、技術は常に感情的なつながりの不足と結び付けられてきました。私たちはそれを変えたかったのです。私たちの独自の技術を通じて、感情的に優れた本当にパーソナルな体験を作り出しています。 AV: あなたの仕事で最も困難な側面は何ですか?それらをどのように克服していますか? ヴァルン氏 : 革新的なディープテック企業として、技術の最先端に立ち、イノベーションの先頭に立つことは、私が情熱をもって受け入れるスリリングな挑戦です。この新興のフィールドでは、認知度を高め、採用を促進することがハードルとなることもあります。しかし、クライアントに卓越した価値を提供することで、私たちはどんな障害も乗り越えることができます。 データサイエンスを用いてビジネス問題を解決する AV: 過去に取り組んだ特に興味深いプロジェクトを共有していただけますか?データサイエンスをどのように活用してビジネス問題を解決しましたか? ヴァルン氏 : データサイエンスは常に革新と私のテックの旅の核となってきました。私はデータサイエンティストでありAIエバンジェリストとしてのキャリアをスタートしました。幸運なことに、複数の可能性を秘めた人生を変えるプロジェクトに取り組む機会を得ました。 過去のプロジェクトでは、カスタムの機械学習アルゴリズムを活用してユーザーの行動を予測し、ソーシャルメディアプラットフォームのユーザーエクスペリエンスを向上させました。ユーザーデータと行動パターンを分析し、改善の余地がある領域を特定し、ターゲットを絞ったソリューションを実装しました。これにより、ユーザーのエンゲージメント、リテンション、収益の増加が大幅に実現しました。 AV: 仕事以外での趣味や興味がありますか?個人的な時間と仕事をどのようにバランスさせていますか? ヴァルン氏…

複雑なタスクの実行におけるロボットの強化:Meta AIが人間の行動のインターネット動画を使用して視覚的な手がかりモデルを開発する

メタAIは、先進的な人工知能(AI)研究機関であり、最近、ロボティクスの分野を革命的に変えると約束する画期的なアルゴリズムを発表しました。彼らの研究論文「ロボティクスのためのヒューマンビデオからの利用価値:ユーザビリティの高い表現」というタイトルで、著者たちはYouTubeビデオをロボットが人間の動作を学び、複製するための強力なトレーニングツールとしての応用を探求しています。オンラインの教育ビデオの膨大なリソースを活用することで、この最先端のアルゴリズムは、静的なデータセットと現実世界のロボットアプリケーションの間のギャップを埋め、ロボットがより柔軟性と適応性を持って複雑なタスクを実行できるようにすることを目指しています。 この革新的なアプローチの中心にあるのは、「利用価値」という概念です。利用価値は、オブジェクトや環境が提供する潜在的なアクションや相互作用を表します。人間のビデオの分析を通じてロボットにこれらの利用価値を理解し、活用するように訓練することで、メタAIのアルゴリズムは、さまざまな複雑なタスクの実行方法についての柔軟な表現をロボットに提供します。このブレイクスルーにより、ロボットは人間の動作を模倣する能力が向上し、獲得した知識を新しい未知の環境で適用することができるようになります。 この利用価値ベースのモデルをロボットの学習プロセスにシームレスに統合するために、メタAIの研究者たちは、それをオフラインの模倣学習、探索、ゴール条件付き学習、強化学習のためのアクションパラメータ化など、4つの異なるロボット学習パラダイムに取り入れています。利用価値認識の力をこれらの学習手法と組み合わせることにより、ロボットは新しいスキルを獲得し、より精度と効率性を持ってタスクを実行することができます。 利用価値モデルを効果的にトレーニングするために、メタAIはEgo4DやEpic Kitchensなどの大規模な人間ビデオデータセットを利用しています。これらのビデオを分析することで、研究者たちは既製の手-物体相互作用検出器を使用して接触領域を識別し、接触後の手首の軌跡を追跡します。しかし、シーン内の人間の存在が分布のシフトを引き起こすという重大な課題が生じます。この障害を克服するために、研究者たちは利用可能なカメラ情報を活用して接触点と接触後の軌跡を人間非依存のフレームに投影し、それを入力としてモデルに使用します。 このブレイクスルー以前、ロボットはアクションを模倣する能力に制約があり、主に特定の環境の複製に限定されていました。しかし、メタAIの最新のアルゴリズムにより、ロボットのアクションの一般化において大きな進歩が実現されました。これは、ロボットが獲得した知識を新しい未知の環境で適用できることを意味します。メタAIは、コンピュータビジョンの分野の発展と研究者や開発者間の協力を推進することを約束しています。このコミットメントに沿って、組織は自身のプロジェクトからコードとデータセットを共有する予定です。これらのリソースを他の人々にアクセス可能にすることで、メタAIはこの技術のさらなる探求と開発を促進することを目指しています。このオープンなアプローチにより、YouTubeビデオから新しいスキルと知識を獲得できるセルフラーニングロボットの開発が可能になり、ロボティクスの分野が新たなイノベーションの領域に進化します。

UCバークレーとMeta AIの研究者らは、トラックレット上で3Dポーズとコンテキスト化された外観を融合することにより、ラグランジュアクション認識モデルを提案しています

流体力学では、ラグランジュ流体場形式とオイラー流体場形式を区別することが慣習となっています。Wikipediaによると、「流体場のラグランジュ仕様は、観察者が離散的な流体粒子を空間および時間を通じて流れるように追跡する方法であり、粒子の経路線は時間の経過に伴ってその位置をグラフ化することで決定できます。これは、舟に座って川を漂っているようなものです。一方、流体場のオイラー仕様は、時間が経過するにつれて流体が流れる空間の場所に特に重点を置いて流体運動を分析する方法です。川岸に立って流れる水を観察すると、これを想像することができます。 これらの考え方は、人間の行動の記録をどのように調べるかを理解する上で重要です。オイラーの視点によると、彼らは(x、y)または(x、y、z)など、特定の場所の特徴ベクトルに注目し、その場所で空間で静止したまま時間の経過を考慮します。一方、ラグランジュの視点によると、人間などのエンティティを時空間を超えて追跡し、関連する特徴ベクトルを追跡します。たとえば、活動認識の以前の研究は、しばしばラグランジュの視点を採用しました。ただし、3D時空間畳み込みに基づくニューラルネットワークの発展により、SlowFast Networksのような最先端の方法では、オイラーの視点が一般的になりました。トランスフォーマー・システムへの切り替え後も、オイラー視点が維持されています。 これは、トランスフォーマーのトークナイズ化プロセス中に、「ビデオ分析における単語の相当物は何であるべきか」という問いを再検討する機会を提供してくれます。Dosovitskiyらは、画像パッチを良い選択肢として推奨し、その概念をビデオに拡張すると、時空立方体がビデオに適している可能性があります。しかし、彼らは自分たちの研究で、人間の行動を調べる際にはラグランジュの視点を採用しています。これにより、彼らはエンティティの時間的な経過を考えています。この場合、エンティティは高レベルなものであるか、人間のようなもの、あるいはピクセルやパッチのような低レベルなものであるかもしれません。彼らは、「人間としてのエンティティ」のレベルで機能することを選択しました。これは、人間の行動を理解することに興味があるためです。 これを行うために、彼らは、人物の動きをビデオで分析し、それを利用して彼らの活動を識別する技術を使用しています。最近リリースされた3D追跡技術PHALPとHMR 2.0を使用してこれらの軌跡を取得することができます。図1は、PHALPが個人のトラックを3Dに昇格させることでビデオから人のトラックを回収する方法を示しています。彼らはこれらの人物の3Dポーズと位置を基本要素として各トークンを構築することができます。これにより、モデル(この場合、トランスフォーマー)は、身元、3D姿勢、3D位置にアクセスできる様々な個人に属するトークンを入力として受け取る柔軟なシステムを構築することができます。シナリオ内の人物の3D位置を使用することで、人間の相互作用について学ぶことができます。 トークナイズベースのモデルは、ポーズデータにアクセスできる旧来のベースラインを上回り、3Dトラッキングを使用することができます。人物の位置の進化は強力な信号ですが、一部の活動には周囲の環境や人物の見た目に関する追加の背景知識が必要です。そのため、立場と直接的に派生した人物とシーンの外観に関するデータを組み合わせることが重要です。これを行うために、彼らは、ラグランジュの枠組みで、人物と環境の文脈化された外観に基づく補足データを供給するために、最先端のアクション認識モデルを追加で使用しています。彼らは、各トラックのルートを激しく実行することで、各トラック周辺の文脈化された外観属性を記録します。 図1は、次のようになります。与えられた映画で、まず追跡アルゴリズム(PHALPなど)を使用して各個人を追跡します。次に、トラック内の各検出をトークナイズ化して、人間中心のベクトル(姿勢や外観など)を表現します。人物の推定3D位置とSMPLパラメータを使用して、彼らの3Dポーズを表現し、MViT(MaskFeatで事前学習された)特性を使用して、文脈化された外観を表現します。そして、レールを利用して、トランスフォーマー・ネットワークをトレーニングしてアクションを予測します。青い人物は2番目のフレームで検出されていません。これらの場所では、欠落した検出を置き換えるためにマスクトークンが渡されます。 彼らのトークンは、アクション認識バックボーンによって処理され、個人の3Dスタンスに関する明示的な情報と、ピクセルからの高頻度の外観データを含んでいます。AVA v2.2の難しいデータセットでは、彼らのシステム全体が先行研究を2.8 mAPの大幅なマージンで超えています。全体的に、彼らの主要な貢献は、人間の動きを理解するためにトラッキングと3Dポーズの利点を強調する方法論の導入です。UCバークレーとMeta AIの研究者は、人々のトラックを使用して彼らの行動を予測するLagrangian Action Recognition with Tracking(LART)メソッドを提案しています。彼らのベースラインバージョンは、トラックレスの軌跡とビデオ内の人物の3Dポーズ表現を使用した以前のベースラインを上回っています。さらに、ビデオからの外観とコンテキストを単独で考慮する標準的なベースラインが、提案されたLagrangian視点のアクション検出と簡単に統合でき、主流のパラダイムを大幅に改善できることを示しています。

Meta AIとSamsungの研究者が、学習率適応のための2つの新しいAI手法、ProdigyとResettingを導入し、最先端のD-Adaptation手法の適応率を改善しました

現代の機械学習は、コンピュータビジョン、自然言語処理、強化学習など、さまざまな分野で難しい問題に効果的な解答を提供するために最適化に重点を置いています。迅速な収束と高品質のソリューションを達成する難しさは、選択された学習率に大きく依存しています。各自の最適化器を持つ多数のエージェントを持つアプリケーションでは、学習率の調整がより困難になっています。手作業で調整された最適化器はうまく機能しますが、これらの方法は通常、専門的なスキルと煩雑な作業を要求します。したがって、近年では、「パラメータフリー」の自適応学習率方法(D-Adaptationアプローチなど)が、学習率フリーの最適化のために人気を集めています。 サムスンAIセンターとMeta AIの研究チームは、D-Adaptation方法にProdigyとResettingと呼ばれる2つの独自の変更を導入し、D-Adaptation方法の最悪の非漸近収束率を改善し、より速い収束率と優れた最適化出力をもたらすようにしています。 著者は、自適応学習率方法を微調整することで、アルゴリズムの収束速度と解の品質性能を向上させるために、元の方法に2つの新しい変更を導入しています。解に対する距離を調整する方法に対する下限が確立され、提案された調整が検証されます。さらに、指数関数的に増加する反復回数に対して最悪のケースで定数倍の最適性を持つことが示され、拡張テストが実施され、増加したD-Adaptation方法が学習率を迅速に調整し、優れた収束率と最適化結果をもたらすことが示されています。 チームの革新的な戦略は、AdagradのようなステップサイズでD-Adaptationのエラー項目を微調整することです。主要なエラー項目を保持しながら、研究者は自信を持ってより大きなステップを踏み出すことができ、改善された方法はより速く収束します。ステップサイズの分母があまりにも大きくなると、アルゴリズムは遅くなります。したがって、彼らはグラデーションの隣に重みを追加します。 研究者は、提案された技術を使用して、凸ロジスティック回帰と深刻な学習課題を解決しました。複数の研究で、Prodigyは既知のどのアプローチよりも速い採用を示しました。リセットを使用したD-Adaptationは、Prodigyと同じ理論的なペースに到達し、ProdigyまたはD-Adaptationよりもはるかに単純な理論を使用します。さらに、提案された方法はしばしばD-Adaptationアルゴリズムを上回り、手動調整されたAdamと同等のテスト精度を達成できます。 最新の2つの提案された方法は、学習率適応の最新のD-adaptionアプローチを上回っています。広範な実験的証拠は、ウェイト付きのD-Adaptation変種であるProdigyが既存のアプローチよりも適応性が高いことを示しています。2番目の方法であるリセットを使用したD-Adaptationは、より複雑な理論よりもProdigyの理論ペースに合わせることができます。

MetaのAIが参照メロディに基づいて音楽を生成する方法

2023年6月13日、Meta(以前のFacebook)は、生成音楽モデルであるMusicGenをリリースし、音楽とAIコミュニティに衝撃を与えましたこのモデルは、GoogleのMusicLMを超えるだけでなく...

METAのHiera:複雑さを減らして精度を高める

畳み込みニューラルネットワークは、20年以上にわたってコンピュータビジョンの分野を支配してきましたトランスフォーマーの登場により、それらは放棄されると考えられていましたしかし、多くの実践者は…

「チャットボットの台頭:バカな機械からクリエイティブな共同作業者へ」

2023年は私たちにとって画期的な年となりましたロボットとのコミュニケーション、創造性、チームワーク、さらには操作術をマスターしたことで、私たちの能力が向上しました

「2023年、オープンLLMの年」

2023年には、大型言語モデル(Large Language Models、LLMs)への公衆の関心が急増しました。これにより、多くの人々がLLMsの定義と可能性を理解し始めたため、オープンソースとクローズドソースの議論も広範な聴衆に届くようになりました。Hugging Faceでは、オープンモデルに大いに興味を持っており、オープンモデルは研究の再現性を可能にし、コミュニティがAIモデルの開発に参加できるようにし、モデルのバイアスや制約をより簡単に評価できるようにし、チェックポイントの再利用によってフィールド全体の炭素排出量を低減するなど、多くの利点があります(その他の利点もあります)。 では、オープンLLMsの今年を振り返ってみましょう! 文章が長くなりすぎないようにするために、コードモデルには触れません。 Pretrained Large Language Modelの作り方 まず、大型言語モデルはどのようにして作られるのでしょうか?(もし既に知っている場合は、このセクションをスキップしてもかまいません) モデルのアーキテクチャ(コード)は、特定の実装と数学的な形状を示しています。モデルのすべてのパラメータと、それらが入力とどのように相互作用するかがリストとして表されます。現時点では、大部分の高性能なLLMsは「デコーダーのみ」トランスフォーマーアーキテクチャのバリエーションです(詳細は元のトランスフォーマーペーパーをご覧ください)。訓練データセットには、モデルが訓練された(つまり、パラメータが学習された)すべての例と文書が含まれています。したがって、具体的には学習されたパターンが含まれます。ほとんどの場合、これらの文書にはテキストが含まれており、自然言語(例:フランス語、英語、中国語)、プログラミング言語(例:Python、C)またはテキストとして表現できる構造化データ(例:MarkdownやLaTeXの表、方程式など)のいずれかです。トークナイザは、訓練データセットからテキストを数値に変換する方法を定義します(モデルは数学的な関数であり、したがって入力として数値が必要です)。トークン化は、テキストを「トークン」と呼ばれるサブユニットに変換することによって行われます(トークン化方法によっては単語、サブワード、または文字になる場合があります)。トークナイザの語彙サイズは、トークナイザが知っている異なるトークンの数を示しますが、一般的には32kから200kの間です。データセットのサイズは、これらの個々の「原子論的」単位のシーケンスに分割された後のトークンの数としてよく測定されます。最近のデータセットのサイズは、数千億から数兆のトークンに及ぶことがあります!訓練ハイパーパラメータは、モデルの訓練方法を定義します。新しい例ごとにパラメータをどれだけ変更すべきですか?モデルの更新速度はどのくらいですか? これらのパラメータが選択されたら、モデルを訓練するためには1)大量の計算パワーが必要であり、2)有能な(そして優しい)人々が訓練を実行し監視する必要があります。訓練自体は、アーキテクチャのインスタンス化(訓練用のハードウェア上での行列の作成)および上記のハイパーパラメータを使用して訓練データセット上の訓練アルゴリズムの実行からなります。その結果、モデルの重みが得られます。これらは学習後のモデルパラメータであり、オープンな事前学習モデルへのアクセスに関して多くの人々が話す内容です。これらの重みは、推論(つまり、新しい入力の予測やテキストの生成など)に使用することができます。 事前学習済みLLMsは、重みが公開されると特定のタスクに特化または適応することもあります。それらは、「ファインチューニング」と呼ばれるプロセスを介して、ユースケースやアプリケーションの出発点として使用されます。ファインチューニングでは、異なる(通常はより専門化された小規模な)データセット上でモデルに追加の訓練ステップを適用して、特定のアプリケーションに最適化します。このステップには、計算パワーのコストがかかりますが、モデルをゼロから訓練するよりも財政的および環境的にはるかにコストがかかりません。これは、高品質のオープンソースの事前学習モデルが非常に興味深い理由の一つです。コミュニティが限られたコンピューティング予算しか利用できない場合でも、自由に使用し、拡張することができます。 2022年 – サイズの競争からデータの競争へ 2023年以前、コミュニティで利用可能だったオープンモデルはありましたか? 2022年初頭まで、機械学習のトレンドは、モデルが大きければ(つまり、パラメータが多ければ)、性能が良くなるというものでした。特に、特定のサイズの閾値を超えるモデルは能力が向上するという考えがあり、これらの概念はemergent abilitiesとscaling lawsと呼ばれました。2022年に公開されたオープンソースの事前学習モデルは、主にこのパラダイムに従っていました。 BLOOM(BigScience Large Open-science…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us