Learn more about Search Results -Crunchbase - Page 2
- You may be interested
- 「マルチラベル分類:PythonのScikit-Lear...
- VRスーツはあなたがメタバース内で「感じ...
- 「Ph.D.学生や研究者向けの無料オンライン...
- 「ICML 2023でのGoogle」
- 「OpenAI Pythonライブラリ&Pythonで実践...
- LangChain表現言語とLLMを使用した検証実...
- Google AIは、高いベンチマークパフォーマ...
- パーソナライズされたAIの簡単な作成方法...
- 「リサーチアナリストになるには? 職務内...
- AdobeのAI研究が提案する「ラージリコンス...
- ランウェイの新しい「モーションブラシ」...
- インドのスタートアップ、OpenHathiをリリ...
- 光を基にした機械学習システムは、より強...
- このAIサブカルチャーのモットーは、「行...
- ハギングフェイスがIDEFICSを導入:視覚言...
「バイデン政権によるAIヘルスケアアプリのラベリングシステム案」
バイデン政権が、健康ケアアプリに人工知能を活用した新しいラベリングシステムを導入し、安全性と信頼性を最優先にしていますこれにより、より良い健康ケアを提供することが可能になります
MITエンジニアによって開発された心臓右心室のロボティックレプリカ
マサチューセッツ工科大学(MIT)の名門研究者たちは、革新的な心臓右室のロボットレプリカを開発しましたこの画期的な創造物は、人間の心臓の理解を大きく広げるだけでなく、医学研究と技術の進歩にも大きく貢献する可能性があります
「🤖 リーダーズエンダーリークのための道を作ります:水中技術のブレイクスルー 🌊」
「スイス連邦工科大学ローザンヌ校による最先端のイノベーションは、ウナギの動きに着想を得た驚くべき耐水性ロボットを生み出しましたこの高度な装置は様々なパターンでうねることができ、潜在的な用途において貴重なアセットとなります」
「チャットボットの台頭:バカな機械からクリエイティブな共同作業者へ」
2023年は私たちにとって画期的な年となりましたロボットとのコミュニケーション、創造性、チームワーク、さらには操作術をマスターしたことで、私たちの能力が向上しました
📱 アップルが不正な認証からのiMessageアクセスをブロック
アップルは積極的な対策を実施することで顧客の安全を最優先に考えていますしかし、Beeperによると、彼らの最新の行動は逆効果になってしまったようですしかし、アップルは顧客の安全を重視し、積極的な対策を実施する姿勢は評価されるべきです
「注目メカニズムの解読:トランスフォーマーモデルにおける最大幅解法に向けて」
アテンションメカニズムは、自然言語処理と大規模な言語モデルにおいて重要な役割を果たしてきました。アテンションメカニズムによって、トランスフォーマーデコーダは入力シーケンスの最も関連性の高い部分にフォーカスすることができます。このメカニズムは、入力トークン間のソフトマックス類似度を計算し、アーキテクチャの基礎的なフレームワークとしての役割を果たすことで、重要な役割を果たしています。ただし、アテンションメカニズムによってモデルが最も関連性の高い情報に集中することができることはよく知られていますが、この最も関連性の高い入力部分にフォーカスするプロセスの複雑性や具体的なメカニズムはまだ不明です。 そのため、アテンションメカニズムを理解するためには多くの研究が行われています。ミシガン大学の研究チームによる最近の研究では、トランスフォーマーモデルが使用するメカニズムを探求しています。研究者たちは、トランスフォーマーが多くの人気のあるチャットボットのバックボーンアーキテクチャである隠れ層を利用して、サポートベクターマシン(SVM)に似たアテンションメカニズムを利用していることを発見しました。これらの分類器は、データ内の境界を引くことで2つのカテゴリー(関連する情報と関連しない情報)を識別するために学習します。 研究者たちは、トランスフォーマーがデータを関連する情報と関連しない情報に分類するために、サポートベクターマシン(SVM)に似た昔ながらの手法を利用していることを強調しています。例えば、チャットボットに対して長い記事の要約を依頼する場合を考えてみましょう。トランスフォーマーはまずテキストをトークンと呼ばれる小さな部分に分割します。そして、対話中にアテンションメカニズムは各トークンに重みを割り当てます。テキストの分割や重みの割り当ては反復的に行われ、進化する重みに基づいて応答を予測し形成します。 会話が進むにつれて、チャットボットは全体の対話を再評価し、重みを調整し、繊細なコヒーレントな文脈に基づいた返答を行います。要するに、トランスフォーマーのアテンションメカニズムは多次元の数学を実行します。この研究は、アテンションメカニズム内での情報検索の基本的なプロセスを説明しています。 この研究は、トランスフォーマーアーキテクチャ内のアテンションメカニズムがどのように機能するかを理解するための重要な一歩です。この研究は、長く複雑なテキスト入力に対してチャットボットがどのように応答するかの謎を解明しました。この研究に基づいて、大規模な言語モデルをより効率的かつ解釈可能にすることができる可能性があります。研究者たちは、この研究の結果を利用してAIの効率とパフォーマンスを向上させることを目指しており、NLPや関連分野においてアテンションメカニズムを洗練させる可能性が開かれています。 まとめると、この研究はアテンションメカニズムの動作について議論し、解明するだけでなく、効果的かつ解釈可能なAIモデルの将来的な開発にも希望を抱かせます。アテンションメカニズムがSVMのようなメカニズムを適用していることを示すことで、自然言語処理の分野での進歩だけでなく、アテンションが重要な役割を果たす他のAIアプリケーションの進歩も約束しています。
バイトダンスAI研究がStemGenを紹介:音楽の文脈を聞いて適切に反応するためにトレーニングされたエンドツーエンドの音楽生成ディープラーニングモデル
音楽生成は、既存の音楽に存在するパターンと構造を模倣するためにモデルを訓練することで行われるディープラーニングの一環です。RNN、LSTMネットワーク、トランスフォーマーモデルなど、ディープラーニングの技術が一般的に使用されます。この研究では、音楽のコンテキストに応じて反応する非自己回帰型のトランスフォーマーベースのモデルを使用して音楽音声を生成する革新的なアプローチを探求しています。従来のモデルが抽象的な調整に頼っているのに対し、この新しいパラダイムは聞くことと反応することを重視しています。この研究では、フィールドの最新の進歩を取り入れ、アーキテクチャの改良について議論しています。 SAMIと字節跳動社の研究者は、音楽コンテキストに反応する非自己回帰型のトランスフォーマーベースのモデルを紹介し、MusicGenモデルのための公開されたエンコードチェックポイントを活用しています。評価には、Frechet Audio Distance(FAD)やMusic Information Retrieval Descriptor Distance(MIRDD)などの標準的な指標や音楽情報検索ディスクリプタのアプローチが使用されています。その結果、このモデルは客観的な指標と主観的MOSテストを通じて、競争力のある音声品質と強固な音楽のコンテキストに対する整合性を示しています。 この研究は、画像と言語処理からの技術を借用して、ディープラーニングを通じたエンドツーエンドの音楽音声生成の最新の進展を強調しています。音楽作曲におけるステムの整合性の課題を重視し、抽象的な調整に頼る従来のモデルに対する批判を行っています。音楽のコンテキストに対して反応するためのモデルに非自己回帰型のトランスフォーマーベースのアーキテクチャを使用するトレーニングパラダイムを提案しています。モデルの評価には、客観的な指標、音楽情報検索ディスクリプタ、および聴取テストが必要です。 この手法では、音楽生成に非自己回帰型のトランスフォーマーベースのモデルを使用し、別個の音声エンコーディングモデルで残差ベクトル量子化を組み合わせています。複数の音声チャンネルを連結された埋め込みを介して単一のシーケンス要素に組み合わせます。トレーニングにはマスキング手法が使用され、強化された音声コンテキストの整合性を向上させるためにトークンサンプリング中にクラシファイアフリーガイダンスが使用されます。フレーシェ音声距離や音楽情報検索ディスクリプタ距離などの客観的な指標によってモデルのパフォーマンスが評価されます。生成されたサンプルを実際のステムと比較することで評価が行われます。 この研究では、標準的な指標や音楽情報検索ディスクリプタアプローチ(FADやMIRDDなど)を使用して生成されたモデルを評価しています。実際のステムとの比較により、モデルは最先端のテキスト条件付きモデルと同等の音声品質を達成し、音楽のコンテキストに強い音楽的な整合性を示しています。音楽のトレーニングを受けた参加者を対象としたMean Opinion Scoreテストは、このモデルが現実的な音楽の結果を生成する能力を確認しています。生成されたステムと実際のステムの分布整合性を評価するMIRDDは、音楽の一貫性と整合性の尺度となります。 まとめると、行われた研究は以下のように要約できます: この研究では、音楽のコンテキストに応答できる生成モデルの新しいトレーニングアプローチを提案しています。 このアプローチは、トランスフォーマーバックボーンを持つ非自己回帰言語モデルと、未検証の2つの改良点(マルチソースのクラシファイアフリーガイダンスと反復デコーディング中の因果バイアス)を導入しています。 これらのモデルは、オープンソースおよび独自のデータセットでトレーニングすることで最先端の音声品質を達成しています。 標準的な指標や音楽情報検索ディスクリプタのアプローチによって最先端の音声品質が検証されています。 Mean Opinion Scoreテストは、モデルが現実的な音楽の結果を生成する能力を確認しています。
「ODSC East 2024 Pre-Bootcamp Primer コースのお知らせ」
私たちは、ODSC東プリブートキャンププライマーコースで2024年をスタイリッシュにスタートさせます!今年は、新しく3つのコースが追加されました2024年のトップAIスキル、機械学習入門、大規模言語モデルとプロンプトエンジニアリング入門です以下で全セッションをご覧ください2024年のトップAIスキル...
安定した拡散:インテリアデザインの芸術をマスターする
この速い世界で、パンデミックの後、私たちの多くは、現実から逃れるための心地よい環境を持つことがどれだけ貴重で、追求すべき目標であるかを実感しましたそれが家であろうと、外であろうと、私たちの日常生活において居心地の良い場所を作り出すことは、心の安息であり、幸福感を与えてくれるのです
「2023年、オープンLLMの年」
2023年には、大型言語モデル(Large Language Models、LLMs)への公衆の関心が急増しました。これにより、多くの人々がLLMsの定義と可能性を理解し始めたため、オープンソースとクローズドソースの議論も広範な聴衆に届くようになりました。Hugging Faceでは、オープンモデルに大いに興味を持っており、オープンモデルは研究の再現性を可能にし、コミュニティがAIモデルの開発に参加できるようにし、モデルのバイアスや制約をより簡単に評価できるようにし、チェックポイントの再利用によってフィールド全体の炭素排出量を低減するなど、多くの利点があります(その他の利点もあります)。 では、オープンLLMsの今年を振り返ってみましょう! 文章が長くなりすぎないようにするために、コードモデルには触れません。 Pretrained Large Language Modelの作り方 まず、大型言語モデルはどのようにして作られるのでしょうか?(もし既に知っている場合は、このセクションをスキップしてもかまいません) モデルのアーキテクチャ(コード)は、特定の実装と数学的な形状を示しています。モデルのすべてのパラメータと、それらが入力とどのように相互作用するかがリストとして表されます。現時点では、大部分の高性能なLLMsは「デコーダーのみ」トランスフォーマーアーキテクチャのバリエーションです(詳細は元のトランスフォーマーペーパーをご覧ください)。訓練データセットには、モデルが訓練された(つまり、パラメータが学習された)すべての例と文書が含まれています。したがって、具体的には学習されたパターンが含まれます。ほとんどの場合、これらの文書にはテキストが含まれており、自然言語(例:フランス語、英語、中国語)、プログラミング言語(例:Python、C)またはテキストとして表現できる構造化データ(例:MarkdownやLaTeXの表、方程式など)のいずれかです。トークナイザは、訓練データセットからテキストを数値に変換する方法を定義します(モデルは数学的な関数であり、したがって入力として数値が必要です)。トークン化は、テキストを「トークン」と呼ばれるサブユニットに変換することによって行われます(トークン化方法によっては単語、サブワード、または文字になる場合があります)。トークナイザの語彙サイズは、トークナイザが知っている異なるトークンの数を示しますが、一般的には32kから200kの間です。データセットのサイズは、これらの個々の「原子論的」単位のシーケンスに分割された後のトークンの数としてよく測定されます。最近のデータセットのサイズは、数千億から数兆のトークンに及ぶことがあります!訓練ハイパーパラメータは、モデルの訓練方法を定義します。新しい例ごとにパラメータをどれだけ変更すべきですか?モデルの更新速度はどのくらいですか? これらのパラメータが選択されたら、モデルを訓練するためには1)大量の計算パワーが必要であり、2)有能な(そして優しい)人々が訓練を実行し監視する必要があります。訓練自体は、アーキテクチャのインスタンス化(訓練用のハードウェア上での行列の作成)および上記のハイパーパラメータを使用して訓練データセット上の訓練アルゴリズムの実行からなります。その結果、モデルの重みが得られます。これらは学習後のモデルパラメータであり、オープンな事前学習モデルへのアクセスに関して多くの人々が話す内容です。これらの重みは、推論(つまり、新しい入力の予測やテキストの生成など)に使用することができます。 事前学習済みLLMsは、重みが公開されると特定のタスクに特化または適応することもあります。それらは、「ファインチューニング」と呼ばれるプロセスを介して、ユースケースやアプリケーションの出発点として使用されます。ファインチューニングでは、異なる(通常はより専門化された小規模な)データセット上でモデルに追加の訓練ステップを適用して、特定のアプリケーションに最適化します。このステップには、計算パワーのコストがかかりますが、モデルをゼロから訓練するよりも財政的および環境的にはるかにコストがかかりません。これは、高品質のオープンソースの事前学習モデルが非常に興味深い理由の一つです。コミュニティが限られたコンピューティング予算しか利用できない場合でも、自由に使用し、拡張することができます。 2022年 – サイズの競争からデータの競争へ 2023年以前、コミュニティで利用可能だったオープンモデルはありましたか? 2022年初頭まで、機械学習のトレンドは、モデルが大きければ(つまり、パラメータが多ければ)、性能が良くなるというものでした。特に、特定のサイズの閾値を超えるモデルは能力が向上するという考えがあり、これらの概念はemergent abilitiesとscaling lawsと呼ばれました。2022年に公開されたオープンソースの事前学習モデルは、主にこのパラダイムに従っていました。 BLOOM(BigScience Large Open-science…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.