複数の画像やテキストの解釈 AI研究 - Section 33
AI 研究とイノベーションの最前線に留まります
マイクロソフトの研究者は、テキスト重視の画像の機械読み取りのためのマルチモーダルリテラシーモデルであるKosmos-2.5を紹介しました
近年、大規模言語モデル(LLM)が人工知能の中で注目を浴びていますが、これまで主にテキストに焦点を当て、視覚的な内容の理...
「大規模な言語モデルがコンパイラ最適化のメタAI研究者を驚かせる!」
「これは、LLMの明らかな不備についての論文だと思っていましたが、将来の賢いアイデアの動機づけとなるものとして役立つもの...
「大規模な言語モデルは、長い形式の質問応答においてどのようにパフォーマンスを発揮するのか?Salesforceの研究者によるLLMの頑健性と能力についての詳細な解説」
大規模な言語モデル(LLM)であるChatGPTやGPT-4は、いくつかのベンチマークでより優れたパフォーマンスを示していますが、MM...
「UCSD研究者がオープンソース化したGraphologue:GPT-4のような大規模言語モデルの応答をリアルタイムでインタラクティブな図表に変換するユニークなAI技術」
大規模言語モデル(LLM)は、最近、その利便性と幅広いユーザークエリに対するテキスト応答を生成する驚異的な能力により、非...
ソウル国立大学の研究者たちは、効率的かつ適応性のあるロボット制御のための革新的なAI手法であるロコモーション・アクション・マニピュレーション(LAMA)を紹介しています
ソウル国立大学の研究者は、ロボット工学における効率的かつ適応性のあるロボットの制御という基本的な課題に取り組んでいま...
「マイクロソフトと清華大学によるこのAI研究は、EvoPromptという新しいAIフレームワークを紹介しますこのフレームワークは、LLMと進化アルゴリズムを接続するための自動的な離散プロンプト最適化を実現します」
大規模言語モデル(LLM)はほとんどすべての自然言語処理(NLP)のタスクで優れた成績を収めています。しかし、従来のファイ...
「ReLU vs. Softmax in Vision Transformers Does Sequence Length Matter? Insights from a Google DeepMind Research Paper」 ビジョン・トランスフォーマーにおけるReLU vs. Softmax:シーケンスの長さは重要か?Google DeepMindの研究論文からの洞察
今日一般的な機械学習アーキテクチャは、トランスフォーマーアーキテクチャです。トランスフォーマーの主要なパーツの1つであ...
東京大学の研究者たちは、攻撃者から機密性の高い人工知能(AI)ベースのアプリケーションを保護するための新しい技術を紹介しました
近年、人工知能(AI)の急速な進歩により、コンピュータビジョン、音声認識など、さまざまな分野で広範な応用が行われるよう...
「MITの新しい機械学習の研究では、階層的な計画(HiP)のための組成的な基礎モデルを提案しています:長期的な課題の解決のために言語、ビジョン、行動を統合する」
見知らぬ家でお茶を準備するという課題について考えてみましょう。このタスクを効率的に完了するための戦略は、抽象レベル(...
UCIと浙江大学の研究者は、ドラフティングと検証のステージを使用した自己推測デコーディングによるロスレスな大規模言語モデルの高速化を紹介しました
トランスフォーマーに基づく大規模言語モデル(LLM)は、GPT、PaLM、LLaMAなど、さまざまな実世界のアプリケーションで広く使...

- You may be interested
- Intel CPUのNNCFと🤗 Optimumを使用した安...
- アリババAI研究所が提案する「Composer」...
- 遺伝予測モデルをより包括的にする
- 「時系列の外れ値を解読する:1/4」
- 「金融ソフトウェア開発の世界:財務ソリ...
- スタンフォード大学の研究は、PointOdysse...
- 「回答を見つける(最良の回答を見つける...
- マイクロソフトAI研究チームが提案する「A...
- 事例研究:Hugging Face Infinityとモダン...
- 「最初の原則から旅行セールスマン問題を...
- 「ヒュメインが革命的なAIパワードウェア...
- 「生成AI:開発者のツールボックスにおけ...
- 「ニュースレコメンデーションのための大...
- 「全体的な実験の影響を推定する」
- 「AIがクリーンエネルギーの未来を支える...
Find your business way
Globalization of Business, We can all achieve our own Success.