Learn more about Search Results A - Page 351

「UCバークレーの研究者たちは、Chain of Hindsight(CoH)という新しい技術を提案しましたこれにより、LLMsがあらゆる形式のフィードバックから学び、モデルのパフォーマンスを向上させることが可能となります」

過去数年間、大規模なニューラルネットワークが研究者の注目を集めています。これは、自然言語理解や難解な数学の方程式の解決、さらにはタンパク質構造の予測など、さまざまなタスクで優れたパフォーマンスを発揮するためです。しかし、これらのモデルが社会に建設的な貢献をするためには、人間の価値観に合致し、人間の好みを考慮することが重要です。ヒューマンフィードバックの利用は、これを達成するための最も重要な要素の一つであり、正確性、公平性、バイアスなどの幅広い指標に基づいてこれらのモデルのパフォーマンスを評価し、より倫理的な出力を生成するための改善方法を提供します。ユーザーフィードバックの組み込み効率を向上させるために、研究者たちは過去数年間にさまざまなヒューマンインザループシステムのアプローチを試行してきました。その結果、ChatGPTとInstructGPTは、ヒューマンフィードバックを利用して驚くべき結果を示しました。 これらの言語モデリングのパフォーマンスの向上は、主に教師ありファインチューニング(SFT)と人間のフィードバックによる強化学習(RLHF)アプローチによる戦略によるものとされています。これらの戦略は、言語モデルのパフォーマンスに関する有望な結果を達成する上で大きく貢献していますが、それぞれに固有の欠点があります。SFTは主に人間の注釈に頼っており、これらのモデルは使用が困難でデータの利用効率も低いです。一方、強化学習は報酬関数に基づいて動作するため、これらのモデルを最適化することは非常に困難です。 これらの問題に対処するため、カリフォルニア大学バークレー校の研究者たちは、フィードバックを文に変換し、モデルがフィードバックを理解するためにファインチューニングするという新しい技術を開発しました。この技術は、言語で提供される大量のフィードバックを人間がどのように処理するかに大いに触発されたものです。この技術の設計時の研究者の目標は、強化学習を使用せずにすべてのフィードバックを十分に活用する一方で、SFTとRLHFの強みを組み合わせることで、モデルがより正確かつ効果的にさまざまなタスクを実行できるようにすることでした。 研究者たちは、人間は言語形式の豊かなフィードバックから効果的に学ぶことができるという事実を利用しました。事前学習された言語モデルが文脈で効果的に学習する能力が優れていることを考えると、すべてのフィードバックを文に変換し、モデルにフィードバックに従うように学習させる可能性について研究者たちは疑問を抱きました。具体的には、研究者たちはモデルをファインチューニングして結果を予測させる一方で、1つ以上のソートされた結果とそのフィードバックを比較の形式で使用することを提案しました。CoHは、訓練中にランダムに1つ以上のモデルの出力を選択し、比較の形で肯定的なフィードバックと否定的なフィードバックの両方を含む文を構築するためにそれらを利用します。例えば、2つの例文は「以下は悪い要約です」と「以下の要約はより良いです」となります。モデルは推論時に肯定的なフィードバックを使用して望ましい出力を生成します。 CoHのアプローチにより、モデルは肯定的なフィードバックと否定的なフィードバックの両方から学習することができ、否定的な属性やエラーを特定して修正することができます。この戦略には、より有機的なスタイルのフィードバックやトレーニングシステムなど、さまざまな利点があります。また、CoH技術は、研究者による数多くの実験的評価において、言語モデルと人間の好みの相関において以前のアプローチを大幅に上回る成果を behしました。この方法はヒューマン評価で好まれ、要約やディスカッションのタスクでも非常に優れた結果を behしました。カリフォルニア大学バークレー校のチームは、CoHが将来的に自動や数値のフィードバックなど、さまざまなタイプのフィードバックを使用する際に大きな潜在能力を持つと強く信じています。

「TALL(タール):空間および時間的な依存関係の保存を実現するため、ビデオクリップを事前定義されたレイアウトに変換するAIアプローチ」

この論文の主題は、ディープフェイク動画の検出方法の開発です。 ディープフェイクとは、人工知能を使用して、誰かが言ったり何かをしたりしたように見せるために操作された動画です。これらの操作された動画は悪用され、個人のプライバシーやセキュリティに脅威をもたらす可能性があります。研究者が解決しようとしている問題は、これらのディープフェイク動画の検出です。 既存の動画検出方法は計算量が多く、一般化能力を改善する必要があります。研究チームは、サムネイルレイアウト(TALL)というシンプルで効果的な戦略を提案しています。この戦略は、ビデオクリップを事前定義されたレイアウトに変換して、空間的および時間的な依存関係を保持します。 空間的依存性:これは、近くにあるデータ点や隣接するデータ点は、遠くにあるデータ点よりも類似している可能性が高いという概念を指します。画像やビデオ処理の文脈では、空間的依存性はしばしば画像やフレーム内のピクセル間の関係を指します。 時間的依存性:これは、現在のデータ点やイベントが過去のデータ点やイベントに影響を受けるという概念を指します。ビデオ処理の文脈では、時間的依存性はしばしばビデオ内のフレーム間の関係を指します。 研究者によって提案されたこの方法はモデルに依存せず、シンプルであり、コードのわずかな修正のみが必要です。著者たちはTALLをSwin Transformerに組み込み、効率的かつ効果的な方法であるTALL-Swinを形成しました。この論文では、TALLとTALL-Swinの妥当性と優越性を検証するために、幅広いデータセット内およびデータセット間の実験が含まれています。 Swin Transformerについての簡単な概要:マイクロソフトのSwin Transformerは、画像認識のタスクで成功したモデルのクラスであるビジョンTransformerの一種です。Swin Transformerは、画像内の階層的な特徴を処理することを特に目的としており、オブジェクト検出やセマンティックセグメンテーションなどのタスクに有益です。元のViTにあった問題を解決するために、Swin Transformerは階層的な特徴マップとシフトしたウィンドウの注意を組み込んでいます。細かい予測が必要な状況でSwin Transformerを適用することにより、階層的な特徴マップを使用して解決することが可能になりました。今日、さまざまなビジョンのジョブでは、Swin Transformerがバックボーンアーキテクチャとして一般的に使用されています。 論文で提案されたサムネイルレイアウト(TALL)戦略:マスキング:最初のステップでは、各フレームの固定位置に連続するフレームをマスキングします。論文の文脈では、各フレームが「マスク」され、モデルがマスクされていない部分に焦点を当ててより堅牢な特徴を学習する可能性があります。 リサイズ:マスキング後、フレームはサブイメージにリサイズされます。このステップにより、モデルの計算量が削減される可能性があります。小さなイメージは処理により少ない計算リソースを必要とします。 並べ替え:リサイズされたサブイメージは、事前定義されたレイアウトに並べ替えられ、サムネイルが形成されます。このステップは、ビデオの空間的および時間的な依存関係を保持するために重要です。サブイメージを特定の方法で配置することにより、モデルは各サブイメージ内のピクセル間の関係(空間的依存性)および時間の経過におけるサブイメージ間の関係(時間的依存性)を分析することができます。ディープフェイク動画の検出のためのTALL-Swinメソッドの効果を評価する実験: データセット内評価: 著者たちは、FF++データセットを使用して、複数の高度な方法とTALL-Swinを比較しました。低品質(LQ)および高品質(HQ)ビデオの両方で、TALL-Swinは以前のビデオトランスフォーマーメソッドと比較して、同等の性能を持ち、より低い消費量を示しました。 未知のデータセットへの一般化: 著者たちはまた、FF++(HQ)データセットでモデルをトレーニングし、Celeb-DF(CDF)、DFDC、FaceShifter(FSh)、DeeperForensics(DFo)データセットでテストすることでTALL-Swinの一般化能力を試験しました。TALL-Swinは最先端の結果を達成しました。 サリエンシーマップの可視化: 著者たちは、TALL-Swinがディープフェイクの顔に注目している箇所を可視化するためにGrad-CAMを使用しました。TALL-Swinは、特定の方法固有のアーティファクトを捉え、顔や口の領域などの重要な領域に焦点を当てることができました。 結論:最後に、著者たちは、彼らのTALL-Swinメソッドがディープフェイク動画の検出に効果的であり、既存の方法と比較して同等または優れたパフォーマンスを示し、未知のデータセットに対する良好な一般化能力と一般的な干渉に対する堅牢性を示したことを結論付けました。

ジョージア工科大学のこのAI論文は、より速く信頼性の高い方法で潜在的な超伝導体の新しい候補を特定するための人工知能手法を提案しています

超電導体は、臨界温度以下に冷却されると、電気抵抗を無視することができ、ゼロ抵抗を示します。この素晴らしい超電導体の特性により、エネルギー、交通、最先端のエレクトロニクスなど、さまざまな現実世界の応用が可能になります。過去10年間、高臨界温度超電導体の探索には大きな進展がありました。この論文では、ジョージア工科大学とハノイ科学技術大学(ベトナム)の研究者が、機械学習経路に原子レベルの情報を組み込むための最初のステップとして、新しい従来型(またはBCS)超電導体、特に周囲圧での発見に取り組んでいます。 ゼロ温度での高温超電導の予測は研究者にとって困難な課題でした。研究者は、異なる圧力で計算されたλおよびωlogの1100以上の値を持つ584の原子構造のデータセットを慎重にキュレーションしました。λおよびωlogのためのMLモデルが開発され、マテリアルプロジェクトデータベースの80,000以上のエントリをスクリーニングし、Tcが約10−15KおよびP = 0に等しい可能性のある2つの熱力学的かつ力学的に安定した材料が発見されました(第一原理計算による)。研究者は、原子構造を数値ベクトルに変換するためにmatminerパッケージを使用し、MLアルゴリズムとしてガウスプロセス回帰を使用してこれを達成しました。 研究者は、35の候補に対して超電導特性を予測するためにMLモデルを使用しました。その中で、最も高い予測されたTc値を持つものは6つでした。いくつかは不安定であり、さらなる安定化計算が必要でした。残りの2つの候補、すなわちCrHとCrH2の立方構造の安定性を検証した後、第一原理計算を使用してそれらの超電導特性を計算しました。研究者は、予測結果の正確性を報告された値の2-3%以内と確認するために、ローカル密度近似(LDA)XC機能を使用して追加の計算を実施しました。また、研究者は、これらの超電導体の合成可能性を調査するために、無機結晶構造データベース(ICSD)での起源を追跡しました。これらは過去に実験的に合成されたことがわかり、将来のテストで予測された超電導性が確認されることを期待しています。 将来の研究では、研究者はデータセットを拡大し多様化させ、ディープラーニング技術を使用し、逆設計戦略を統合して実質的に無限の材料を効率的に探索するためのMLアプローチを向上させる予定です。研究者は、高Tc超電導体の発見を容易にするためにアプローチをさらに改善し、実世界のテストと合成のために実験の専門家と協力することを想定しています。 論文をチェックしてください。この研究に関しては、研究者に全てのクレジットがあります。また、最新のAI研究ニュース、クールなAIプロジェクトなどを共有している26k+ ML SubReddit、Discordチャンネル、およびメールニュースレターに参加するのをお忘れなく。 このAI論文は、ジョージア工科大学の研究者が、高速かつ信頼性のある方法で潜在的な超電導体の新たな候補を特定するための人工知能手法を提案しています。この記事はMarkTechPostで最初に掲載されました。

ケンブリッジ大学とUCLAの研究者が、信頼性のある機械学習システムの開発をガイドするための新しいデータ中心のAIチェックリストスタイルフレームワークであるDC-Checkを紹介しました

機械学習(ML)アルゴリズムの革新的な進歩により、電子商取引、金融、製造、医療など、さまざまな産業でAIを活用したアプリケーションが可能になりました。しかし、複雑なデータ環境で実世界のMLシステムを開発することは困難であり、多くの高名な失敗例がデータやアルゴリズムのバイアスに起因することが示されています。 この問題に対処するため、ケンブリッジ大学とUCLAの研究チームは、DC-Checkという新しいデータ中心のAIフレームワークを紹介しました。このフレームワークは、機械学習アルゴリズムのトレーニングに使用されるデータの重要性を強調することを目指しています。DC-Checkは、実践者や研究者がMLパイプラインの各ステージ(データ、トレーニング、テスト、展開)でデータの影響について批判的に考えるための質問と実用的なツールを提供するアクション可能なチェックリストスタイルのフレームワークです。 研究者たちは、現在の機械学習のアプローチはモデル中心であり、モデルの反復と改善に焦点を当てて予測性能の向上を図っていると指摘しています。しかし、このアプローチはしばしばMLライフサイクル全体でのデータの重要性を過小評価しています。一方、データ中心のAIは、信頼性のあるMLシステムの構築においてデータを鍵と見なし、これらのシステムに使用されるデータを体系的に改善しようとします。研究者たちは、データ中心のAIを次のように定義しています。「データ中心のAIは、モデルのトレーニングと評価に使用される基盤となるデータを体系的に特徴付け、評価、監視するための手法とツールを包括的に扱う。データに焦点を当てることで、予測性が高いだけでなく、信頼性のあるAIシステムを作成することを目指しています」と研究者は論文で述べています。 研究者たちは、データ中心のAIには大きな関心がある一方で、データ中心のAIシステムを設計する際には現在標準化されたプロセスがないため、実践者がそれを適用することが困難であると指摘しています。 DC-Checkは、データ中心のAIの普及を促進するための最初の標準化されたフレームワークとしてこの課題を解決します。DC-Checkのチェックリストは、パイプラインの各ステージでデータの影響を考えるための一連の質問を提供し、実用的なツールと技術も提供します。また、解決すべき課題についても強調しています。 DC-Checkは、機械学習パイプラインの4つの主要なステージ(データ、トレーニング、テスト、展開)をカバーしています。データのステージでは、DC-Checkは積極的なデータ選択、データのキュレーション、データ品質評価、およびモデルトレーニングに使用されるデータの品質向上のための合成データを考慮するよう実践者に促します。トレーニングのステージでは、DC-Checkはデータに基づくモデル設計、ドメイン適応、およびグループの頑健なトレーニングを推進します。テストの考慮事項には、情報を得たデータの分割、ターゲット指標とストレステスト、およびサブグループでの評価が含まれます。最後に、展開の考慮事項には、データの監視、フィードバックループ、および不確実性推定などの信頼性手法が含まれます。 チェックリストの対象は実践者と研究者ですが、DC-Checkは組織の意思決定者、規制当局、政策立案者がAIシステムについて的確な判断を下すのにも利用できるとされています。 DC-Checkの研究チームは、このチェックリストがデータ中心のAIの広範な採用を促進し、信頼性の高い機械学習システムをもたらすことを期待しています。また、DC-Checkの論文とともに、DC-Checkのチェックリストとツール、さらに追加のリソースを提供するコンパニオンウェブサイトも提供しています。 The post Cambridge and UCLA Researchers Introduce DC-Check: a new Data-Centric AI Checklist-Style Framework to Guide…

「ChatGPTなどの大規模言語モデル(LLM)がファインチューニングにおいて教師あり学習ではなく強化学習を使用する理由」の5つの理由

過去数ヶ月間でのGenerative Artificial Intelligenceの大成功により、Large Language Modelsは絶えず進化と改善を遂げています。これらのモデルは、いくつかの注目に値する経済的および社会的変革に貢献しています。OpenAIが開発した人間と同様に有意義なテキストを生成できる自然言語処理モデルであるChatGPTは、質問に答えたり、長い段落を要約したり、コードやメールを作成したりすることができます。Pathways Language Model(PaLM)、Chinchillaなどの他の言語モデルも、人間を模倣する上で優れたパフォーマンスを示しています。 Large Language Modelsは、fine-tuningに強化学習を使用しています。強化学習は、報酬システムに基づくフィードバック駆動の機械学習手法です。エージェントは、特定のタスクを完了し、その行動の結果を観察することで、環境でのパフォーマンスを学習します。エージェントは、良いタスクごとに正のフィードバックを受け取り、悪い行動ごとにペナルティを受けます。ChatGPTのようなLLMは、強化学習のおかげで優れたパフォーマンスを発揮しています。 ChatGPTは、モデルのバイアスを最小化するためにHuman Feedbackからの強化学習(RLHF)を使用しています。しかし、なぜ教師あり学習ではなく強化学習を使用するのでしょうか?基本的な強化学習のパラダイムは、モデルをトレーニングするために使用されるラベルで構成されています。しかし、なぜこれらのラベルを教師あり学習のアプローチで直接使用できないのでしょうか?AIおよびMLの研究者であるSebastian Raschkaは、なぜ教師あり学習の代わりにfine-tuningに強化学習が使用されるのかについて、いくつかの理由を彼のツイートで共有しています。 教師あり学習を使用しない最初の理由は、それがランクのみを予測するためです。それは整合性のある応答を生成しないだけでなく、モデルはトレーニングセットに似た応答に高いスコアを与えることを学習します。一方、RLHFはランキングスコアだけでなく、生成された応答の品質を推定するように訓練されます。 Sebastian Raschkaは、教師あり学習を使用してタスクを制約最適化問題として再定式化するアイデアを共有しています。損失関数は、出力テキストの損失と報酬スコアの項を組み合わせます。これにより、生成された応答とランクの品質が向上します。ただし、このアプローチは、正しく質問-回答のペアを生成することを目的とする場合にのみ成功します。しかし、ユーザーとChatGPTの間で整合性のある会話を可能にするためには、累積報酬も必要であり、これは教師あり学習では提供できません。 教師あり学習は、トークンレベルの損失を最適化するためにクロスエントロピーを使用します。テキストパッセージのトークンレベルでは、応答の個々の単語を変更しても全体の損失にはほとんど影響がありませんが、整合性のある会話を生成するという複雑なタスクでは、単語が否定されると文脈が完全に変わる可能性があります。したがって、文脈と一貫性を考慮するためには、教師あり学習に頼ることは十分ではなく、RLHFが必要です。 教師あり学習はモデルをトレーニングするために使用できますが、経験的にはRLHFの方が優れたパフォーマンスを発揮することがわかっています。2022年の論文「Learning to Summarize from Human Feedback」は、RLHFがSLよりも優れた性能を発揮することを示しています。その理由は、RLHFが整合性のある会話の累積報酬を考慮する一方、SLはトークンレベルの損失関数のために捉えることができないためです。 InstructGPTやChatGPTなどのLLMは、教師あり学習と強化学習の両方を使用しています。この2つの組み合わせは、最適なパフォーマンスを得るために重要です。これらのモデルでは、モデルはまずSLを使用して基本的な構造と内容を学習し、その後RLを使用してさらに更新されます。SLステージでは、モデルはタスクの基本的な構造と内容を学習しますが、RLHFステージでは、モデルの応答をより正確に洗練します。…

「GPTモデルのTransformerアーキテクチャー」

2017年、Googleの著者たちは「Attention is All You Need」という論文を発表し、Transformerアーキテクチャを紹介しましたこの新しいアーキテクチャは言語の領域で前例のない成功を収めました...

MySQLのJSON_ARRAYAGG関数をハッキングして、動的で複数値の次元を作成する

「データチームのメンバーとして、定期購入ボックス会社で働いていると想像しましょうMySQLデータベースでは、購入の取引記録がsubscriptionsというテーブルに書き込まれますメタデータを除いた場合、...」

著者たちはAI企業に対して団結し、著作権保護された作品に対する尊重と報酬を求めます

著名な作家、マーガレット・アトウッド、ヴィエット・タン・グエン、フィリップ・プルマンなどの文学の巨匠たちが、人工知能(AI)企業に対し、著作権で保護された彼らの作品を利用する前に許可を求めるよう要求するために一致団結しました。作家のためのアメリカ最大の専門組織であるAuthors Guildがこの取り組みを主導しています。この運動は、OpenAI、アルファベット、メタ、StabilityAI、IBMなどの主要なAI企業に変革を求めるものです。 また読む:OpenAIとMetaが著作権侵害で訴えられる 許可を求める要求 このオープンレターは、約8,000の署名を集め、OpenAIなどのAI企業から3つの重要な要求を提示しています。まず第一に、これらの企業に対し、著作権で保護された作品を利用する前に、明示的な許可を得るように懇願しています。これにより、作家がAIの世界で自身の創造物の使用に対する制御権を保持することができます。 公正な報酬を求めます 第二に、作家たちはAIによる過去および現在の作品の使用に対して公正な報酬を要求しています。文学界におけるAIの成長は、世界中の作家の数え切れないほどの時間と努力によって確立されたものです。したがって、人工知能の発展への貢献に対してこれらの創作者に公正な報酬を支払うことは当然のことです。 「AIの出力は常に派生的な性質を持っています」と、Authors Guildの会長であるマヤ・シャンバグ・ラングは述べています。「AIは取り込んだものを吐き出すだけであり、それは人間の作家の作品です。作家がAIに「餌」を与え続け、その進化を続けることに対して、報酬を受けるのは公平なことです。」 また読む:ハリウッドの脚本家たちはAIツールに対してストライキを行い、「盗作機械」と呼びます 著作権の尊重 第三の要求は、作家がAIの出力で自身の作品を使用する際に公正な報酬を受けることです。これは、これらの出力が現行の著作権法に違反しているかどうかに関わらずです。作家たちは、AIの出力が創造的なコンテンツとその創造主の倫理的な扱いと共存するシステムを作り出すことを目指して、この問題に取り組んでいます。 文学の偉人たちがAIの搾取に対する戦いで一致団結 文学界で人工知能の使用が増えていることに対抗する運動は、大きな勢いを増しています。わずか1か月前、北米の作家モナ・アワッドとポール・トレンブレイの2人がOpenAIに対して著作権法違反を主張して訴訟を起こしました。この法的行動は、作家の創作物が適切な同意と報酬なしに搾取されるべきではないという強力なメッセージをAIコミュニティに送りました。 また読む:バリー・ディラー対生成AI:著作権の法的戦い Society of Authorsが支援を提供 作家のための英国の業界団体であるSociety of Authors(SoA)もこの取り組みを全面的に支持しています。SoAは、Authors Guildのオープンレターやアワッドとトレンブレイの法的努力を完全に支持しています。SoAの最高経営責任者であるニコラ・ソロモンは、同意、クレジット、報酬が知的財産制度の基本的な要素であり、すべての作家が自身の作品を守り、生計を立てる能力を持つことに不可欠であると強調しています。 課題:利益動機と倫理的な影響をバランスさせる 作家たちがAI開発者に影響を与える努力は重要ですが、ニコラ・ソロモンは、より大きな課題に取り組むには多角的なアプローチが必要であると認識しています。大企業の利益動機が主に次世代のAIシステムの構築を推進してきました。その結果、不透明で規制されていない環境が生まれました。そのため、倫理的な考慮事項はしばしば後退し、より強力な監査と保護が必要です。…

ChatGPTでリードマグネットのアイデアをブレインストームする

バリューパックされたリードマグネットのアイデアを考えるのに苦労している場合、ChatGPTは素晴らしいブレインストーミングツールです

「新しいアプリが、生成AIを使用してサウスパークの短編エピソードを作成します」

新しいアプリ「Showrunner AI」では、ユーザーは生成AIを使用してSouth Parkの短編エピソードを作成することができますトレイ・パーカーとマット・ストーンは、AIには詳しくありませんが、今年初めにディープフェイクVFXスタジオへの大きな投資を行いましたただし、彼らは...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us