Learn more about Search Results この - Page 9

このAI論文では、大規模なマルチモーダルモデルの機能を拡張する汎用のマルチモーダルアシスタントであるLLaVA-Plusを紹介しています

“`html 多様な現実世界の活動を効率的に実行できる汎用アシスタントを作成することは、長年にわたり人工知能の目標となってきました。最近では、新しいマルチモーダルな理解とオープンワールドの課題における生成スキルを持つ基礎モデルの創造に関心が高まっています。自然言語タスクのための汎用アシスタントを生成する大規模言語モデル(LLMs)の有効性にもかかわらず、コンピュータビジョンとビジョン言語の活動に対するマルチモーダルで汎用性の高いアシスタントの作成方法はまだ見つかっていません。 マルチモーダルなエージェントを作成する現在の取り組みは、一般に2つのグループに分けることができます: (i) LLMを使用したエンドツーエンドのトレーニング。これにより、ビジュアル情報を解釈するためのLLMのトレーニングが連続的に行われ、画像テキストデータとマルチモーダルな命令実行データを使用して大規模なマルチモーダルモデル(LMMs)が作成されます。LLaVAやMiniGPT-4などのオープンソースのモデル、およびFlamingoやマルチモーダルGPT-4などの非公開のモデルは、印象的なビジュアル理解と推論スキルを示しています。これらのエンドツーエンドのトレーニングのアプローチは、LMMが状況に応じた学習などの新たなスキルを獲得するのには適していますが、実際の世界のマルチモーダルアプリケーションに不可欠な画像セグメンテーションや生成などの幅広い能力をシームレスに統合できる一貫したアーキテクチャを作成することはまだ難しい課題です。 (ii) LLMを使用したツールチェイン。これにより、LLMがトレーニングされたビジョンモデルなどのさまざまなツールを呼び出して必要な(サブ)タスクを実行することができるように、適切に設計されたプロンプトを使用します。VisProg、ViperGPT、Visual ChatGPT、X-GPT、MM-REACTなどがよく知られています。これらのアプローチの強みは、(新しい)ツールを安価に開発しAIエージェントに統合することで、さまざまなビジュアルタスクを処理できる能力です。ただし、プロンプトの柔軟性と信頼性を向上させる必要があります。広範で多様なツールセットから適切なツールを信頼性高く選択し、アクティブ化して最終的なマルチモーダルタスクの解決策を提供できるようにするためです。 図1:LLaVA-Plusが習得したスキルを活用した可能性を示すグラフィカルな表現。 清華大学、マイクロソフトリサーチ、ウィスコンシン大学マディソン校、香港科技大学、およびIDEA Researchの研究者は、この論文で、LLaVA-Plus(大規模な言語とビジョンアシスタント)を紹介しています。このマルチモーダルアシスタントは、視覚的な指示の微調整を通じてLMMの能力を体系的に強化するエンドツーエンドのトレーニング手法を用いてツールの使用スキルを獲得します。これまでに説明されたツールチェインとエンドツーエンドのトレーニングの利点を組み合わせる試みとして、これが初めて文書化された試みであると述べています。LLaVA-Plusに付属するスキルリポジトリには、多様なビジョンとビジョン言語のツールが豊富に用意されています。この設計は、「心の社会」という理論の例であり、個々のツールは特定のタスクのために作成され、それ単体では限定的な利用が可能ですが、これらのツールが組み合わさると、より高い知性を示す新たなスキルが生まれます。 例えば、LLaVA-Plusはユーザーのマルチモーダルな入力に応じて、新しいワークフローを即座に作成し、スキルライブラリから適切なツールを選択してアクティブ化し、その実行結果を組み立てて、モデルトレーニング中には見えない様々な実世界のタスクを完了することができます。指示の微調整により、LLaVA-Plusは時間の経過とともに追加の機能やインストゥルメントを獲得することが可能です。特定のユースケースや機能のために作成された新しいマルチモーダルツールを考えてみてください。調整のための指示実行データを作成するために、このツールを必要とする関連するユーザー指示とその実行結果または後続結果を収集します。指示の微調整後、LLaVA-Plusはこの新しいツールを使用して以前には不可能だったジョブを達成する方法を学習し、より多くの機能を獲得します。 “` さらに、LLaVA-Plusは、マルチモーダルツールと組み合わせて視覚的な手がかりのみを使用することによって、これまでのLLMのツール使用トレーニングに関する研究とは異なるアプローチを取っています。一方、LLaVA-Plusは、すべての人間-AI接触セッションで未処理の視覚信号を使用することにより、LMMの計画と推論の能力を向上させます。要約すると、彼らの論文の貢献は以下の通りです: • 新しいマルチモーダルの指示従属ツールに関するデータの使用。ChatGPTとGPT-4をラベリングツールとして使用し、人間-AIインタラクションセッションでのツールとして使用するための視覚言語の指示従属データの選択のための新しいパイプラインを説明しています。 • 新しい大規模なマルチモーダルヘルパー。彼らはLLaVAを補完する広範で多様な外部ツールの統合を含む、多くの用途を持つLLaVA-Plusを作成しました。図1は、LLMの可能性を大幅に拡張するLLaVA-Plusの様子を示しています。彼らの実証調査は、特に幅広い実世界の活動におけるVisiT-Benchでの新しいSoTAのより良い結果を一貫して示すことにより、LLaVA-Plusの有効性を確認しています。 • ソースフリー。彼らが公開する資料には、生成されたマルチモーダルの指示データ、コードベース、LLaVA-Plusのチェックポイント、およびビジュアルチャットデモが含まれます。

このAI論文は、実世界の網膜OCTスキャンを使用して、年齢に関連した黄斑変性の段階を分類するためのディープラーニングモデルを紹介しています

新しい研究論文では、網膜光干渉断層法(OCT)スキャンを使用した老年性黄斑変性(AMD)の段階に基づいたディープラーニングを用いた分類器を紹介しています。二段階の畳み込みニューラルネットワークを利用して、モデルはTopcon OCT画像からマクラ中心の3Dボリュームを正常、早期/中間期のAMD(iAMD)、萎縮性(GA)、新生血管性(nAMD)の段階に分類します。第1段階では2D ResNet50を使用してB-スキャンの分類を行い、第2段階ではより小さなモデル(ResNet)を使用してボリュームの分類を行います。 このモデルは、大規模なデータセットでトレーニングされ、マクラ中心の3Dボリュームを正常、iAMD、GA、nAMDの段階に強力に分類します。この研究では、タイムリーな治療開始のための正確なAMD分類の重要性を強調しています。パフォーマンス指標には、ROC-AUC、バランス精度、正確度、F1スコア、感度、特異度、マシューズ相関係数が含まれます。 この研究では、網膜OCTスキャンを使用した自動AMD検出および分期システムの開発について詳細に説明しています。OCTは非侵襲的な画像技術であり、従来の方法と比較してAMD分類について詳細な洞察を提供する上で重要です。この研究では、正確なAMD分類の重要性が効果的な治療と視機能の保存において強調されています。また、堅牢な分析のための高品質のデータセットの重要性も強調されています。 この研究では、ImageNetで事前トレーニングされたResNet50および4つの別々のResNetを使用した二段階のディープラーニングモデルを実装し、OCTスキャン上のAMDバイオマーカーの2値分類を行いました。第1ステージではボリューム内の疾患カテゴリを特定し、第2ステージではボリュームレベルの分類を行いました。これらのモデルは実世界のOCTデータセットでトレーニングされ、ROC-AUC、バランス精度、正確度、F1スコア、感度、特異度、マシューズ相関係数などの有望なパフォーマンス指標を示しました。研究では、異なるデバイスからのさまざまなOCTデータセットの使用に関する課題と、ポテンシャルの一般化問題についても言及しています。 ディープラーニングベースのAMD検出および分期システムは、実世界のテストセットで平均ROC-AUC 0.94の有望なパフォーマンスを示しました。推論時にモンテカルロドロップアウトを組み込むことで、分類の不確実性の推定の信頼性が向上しました。この研究では、2079の眼からの3995のOCTボリュームからなる厳選されたデータセットを使用して、AUC、BACC、ACC、F1スコア、感度、特異度、MCCなどのさまざまな指標でパフォーマンスを評価しました。その結果、このモデルは正確なAMD分類と分期においてベースラインの手法と同等またはより良いパフォーマンスを示し、さらにB-スキャンレベルの疾患特定の利点もあります。 さらなる研究により、このディープラーニングモデルの一般化能力を向上させることができます。これには、CirrusやSpectralisなどのスキャナに対応するための適応が考慮されるべきです。データセット固有のトレーニングに関連する制限に対処するために、ドメインシフト適応方法を検討する必要があります。モデルの潜在的な用途は、神経眼科学的なAMDの開始検出に拡張することができます。不確実性の推定を実世界のスクリーニング設定での適用や、AMD以外の疾患バイオマーカーの検出モデルの探索は、将来の調査において有望なアプローチとなり、より広範な人口の疾患スクリーニングに役立ちます。

このAIの論文は「ミスからの学習(LeMa):エラー駆動学習を通じた大規模言語モデルにおける数学的推論の強化」という題目です

人間は、本質的には欠点のある存在として、成功と失敗によって特徴付けられる複雑な人生の旅を進んでいます。私たちの存在の大いなる織物の中で、間違いによって編み上げられる独自のパターンは、私たちの成長と発展に大きく寄与しています。間違いから学ぶことは、人間の経験にとって基本的であり、私たちの性格を形作り、抵抗力を育み、より啓発された未来に向かうための推進力となります。 LLMも間違いから学ぶことは可能でしょうか?可能です。GPT-3のような大規模な言語モデルは、正しい言語の使用例と誤った使用例を含む広範なデータから学習します。これらのモデルは、インターネット、本、記事などのさまざまなテキストを含む多様なデータセットでトレーニングされます。モデルはトレーニングデータのパターン、関係、文脈情報を認識します。文法、構文、意味、さらには言語の使用の微妙なニュアンスまで理解します。 このエラー駆動型学習プロセスを模倣することで、交通大学、北京大学、マイクロソフトの研究者は、GPT-4によって生成された間違い訂正データのペアを使用してLLMを微調整するLEMAを提案しています。彼らは、学生が間違いから学ぶ学習プロセスから着想を得たと述べています。 彼らの方法は、間違い訂正のデータペアを生成し、その後訂正データを使用してLLMを微調整することです。彼らは、LLaMAやGPTシリーズのモデルなどの複数のLLMを使用して、不正確な推論パスを収集し、訂正データを生成します。生成された訂正には、元の解答の間違った手順に関する3つの情報、この手順がなぜ間違っているのかの説明、正しい最終的な答えに辿り着くために元の解答をどのように訂正するかが含まれています。 彼らは、最終的な答えが間違っている訂正を除外し、このプロセスが後続の微調整段階に適切な品質を示すと述べています。彼らは、各訓練セットの質問に対してさらに多くの推論パスを生成し、誤った最終的な答えを持つパスを選別します。これにより、LLMの拡張による強力な微調整ベースラインが構築され、微調整のためのデータサイズの制御に関するさらなる削除研究が容易になります。彼らは、質問合理的なデータのみでモデルを微調整します。 CoTデータのみで微調整する場合と比較して、LEMAはさまざまなLLMおよびタスクでパフォーマンスを一貫して向上させます。LLaMA-2-70Bを使用したLEMAは、GSM8Kでは83.5%、MATHでは25.0%を達成し、CoTデータのみで微調整するとそれぞれ81.4%、23.6%です。 LLMの最近の進歩により、彼らは段階的な問題解決アプローチを実行することができるようになりました。しかしこの段階的生成プロセスが、LLMが正確な理論の基礎となる論理とルールを本当に理解しているわけではなく、単に人間の論理の表面的な振る舞いを模倣しているだけであることを暗示してはいません。LEMAは、GPT-4をワールドモデルとして使用し、小さなモデルにステップバイステップの振る舞いを単に模倣するのではなく、論理とルールに従うように教えます。

このAI論文は、MITが化学研究のために深層学習モデルのスケーリングを探究しています

MITの研究者は、化学のための生成的事前トレーニングモデル(ChemGPT)とグラフニューラルネットワークフォースフィールド(GNNs)の両方に焦点を当てて、大規模な化学言語モデルのスケーリング挙動を調査しました。彼らは、モデルのパフォーマンスが経験的なスケーリング則によって特徴付けられるニューラルスケーリングの概念を紹介しました。特に、モデルのパラメータの数、データセットのサイズ、または計算リソースに関連する損失のスケーリングについてのべています。この研究では、大規模な化学モデルのスケーリングに関連する課題と機会について探究し、事前トレーニング損失の改善のためのリソースの最適な割り当てについての洞察を提供することを目指しています。 化学言語モデリングにおいて、研究者はSELFIES(分子の自己参照埋め込み文字列)表現のためのトークナイザーを使用した、GPT-Neoに基づいたGPT-3スタイルのモデルであるChemGPTを設計しています。このモデルはPubChemの分子で事前トレーニングされ、研究ではデータセットとモデルのサイズが事前トレーニングの損失に与える影響を調査しています。 言語モデルに加えて、この論文では、分子の幾何学と3次元構造を必要とするタスクのためのグラフニューラルネットワークフォースフィールド(GNNs)についても言及しています。E(3)不変量のみを操作する内部レイヤーを持つモデルから、E(3)が同変量を使用し、物理学に基づいたモデルアーキテクチャを持つモデルまで、4つのタイプのGNNが考慮されています。筆者らは、ニューラルスケーリングの実験中に、これらのGNNの深さと幅という観点での能力を評価しています。 深層化学モデルのハイパーパラメータ最適化(HPO)を効率的に扱うために、この論文では「Training Performance Estimation(TPE)」という技術を紹介しています。これは、コンピュータビジョンアーキテクチャで使用されている手法を適応させたものです。TPEは、トレーニング速度を利用して、異なるドメインやモデル/データセットのサイズでパフォーマンスを推定することを可能にします。この論文では、実験設定、NVIDIA Volta V100 GPU、PyTorch、およびモデルの実装とトレーニングのための分散データパラレルアクセラレーションの使用について詳細に説明されています。 全体として、この研究は大規模な化学言語モデルのコンテキストでのニューラルスケーリングの包括的な探索を提供し、生成的事前トレーニングトランスフォーマーとグラフニューラルネットワークフォースフィールドの両方を考慮に入れ、ハイパーパラメータ最適化の効率的な方法を紹介しています。実験結果と洞察は、科学的なディープラーニングアプリケーションにおける異なるモデルアーキテクチャのリソース効率を理解するために貢献しています。

「このタイトルを無視してHackAPrompt:LLMのシステム的な脆弱性の暴露」

想像してください:あなたはバーに入ろうとしていて、用心棒が入れないと言います個人的な招待が必要ですどうしますか?通常、受け入れて家に帰るか、次のバーを試しますもしも...

この人工知能論文は、大規模なマルチモーダルモデル(GLaMM)を導入していますこれは、画像と領域の両方の入力を処理する柔軟性を備えた、エンドツーエンドトレーニングされた大規模なマルチモーダルモデルで、ビジュアルグラウンディング能力を提供します

大型マルチモーダルモデル(LMM)は、生成型AIの波によって推進され、言語とビジュアルタスクの間のギャップを埋める重要な存在になりました。LLaVa、miniGPT4、Otter、InstructBLIP、LLaMA-Adapter v2、およびmPLUGOWLは、入力された写真に応じて効率的なテキストの回答を示す早期バージョンの例です。これらのモデルは洗練されていますが、その決定は視覚環境に基づかなければなりません。地域限定のコンテンツの変更、対話型の具現エージェント、深いビジュアル理解などの高度な応用では、このアンカリングが必要です。最近の研究では、この制約を克服するために、モデル内でバウンディングボックスを使用してユーザー定義のゾーンを分析する作業が始まっています。 最近の研究では、根付いたテキスト応答生成が注目されていますが、ピクセルレベルの正確な根付けを提供していません。さらに、関連するセグメンテーションの文献では、自然な写真におけるテキストの説明をアンカリングする試みが行われています。しかし、それらは単一のアイテムをアンカリングするだけであり、実際の一貫した会話を行うことはできません。これにより、書かれた情報や視覚的な材料の徹底的な理解を必要とする対話型の仕事での有用性が制限されます。本論文では、深層学習戦略(図1)を介して、詳細な領域認識、ピクセルレベルの根付け、および会話の能力を同時に提供するGrounding LMM(GLaMM)を提案します。 図1:GLaMMベースのGrounded Conversation Generation マルチモーダル対話モデルを使用すると、入力画像のピクセルレベルに根ざした自然言語の応答を生成することができます。オブジェクトの属性(白い家、赤い屋根、きれいに手入れされた芝生)やオブジェクトの関係(芝生が歩道に広がり、建物の上には空が広がる)といったさまざまなレベルの詳細が、出力の根づけに代表されています。例えば、物(建物、木)、もの(芝生、空、歩道)、およびオブジェクトの部分(屋根は建物の一部)などです。 彼らは、視覚的に根付いた対話の基準の不足に対処するために、Grounded Conversation Generation(GCG)というユニークな仕事を提供しています。GCGの目標は、自然言語の応答と交互に配置されたオブジェクトのセグメンテーションマスクを生成することです。この困難な課題では、フレーズの根付け、画像と領域レベルのキャプション付け、参照表現のセグメンテーション、ビジョン言語の相互作用など、通常は別々に処理されるさまざまなコンピュータビジョンのタスクが組み合わさっています。そのため、組み合わせモデルと提案された事前訓練データセットは、会話型のQA、領域レベルのキャプション付け、画像キャプション付け、および表現セグメンテーションなどのさまざまなダウンストリームタスクで成功裏に使用することができます。 モハメドビンザイードAI大学、オーストラリア国立大学、Aalto大学、カーネギーメロン大学、カリフォルニア大学メルセド、リンシェーピング大学、およびGoogle Researchの研究者は、この困難な課題に特化して作成された最初のモデルであるGLaMMを紹介しています。従来の取り組みとは異なり、GLaMMはテキストとビジュアルの提案と視覚的に根付いた結果を使用して、多様なユーザーエクスペリエンスを提供します。領域レベルでの詳細な理解のために、領域ごとの包括的なアノテーションを収集する煩雑な作業が必要です。彼らは、労力のかかる手作業のラベリングプロセスを削減するために、包括的なGrounding-anything Dataset(GranD)の自動ワークフローを提案しています。GranDは、特定の検証プロセスを持つコンピュータ化されたパイプラインを使用し、セグメンテーションマスクを伴う810百万の領域にアンカーされた750万の異なるアイデアを持っています。 このデータセットは、先進的なビジョンと言語モデルを利用して、マルチレベル階層的手法を使用してSAMの写真にアノテーションを付けています。GranDは、1100万枚の写真と33,000万枚の根付いたキャプション、8400万の参照用語などの特性を持つことで包括性を再定義しています。彼らは、根付いた会話や自動生成されたGCGデータセットのために、以前に手動でアノテーションされたデータセットをGPT-4を用いたインコンテキスト学習を使用して再定義しました。彼らは、大規模な自動生成データをGranDpとし、高品質なデータセットをGranDfと指定しており、フィネチューニングに適しています。GLaMMは、GranDfとGranDpを使用してプリトレーニング-フィネチューニングのフェーズでトレーニングされます。 結論として、彼らの研究は主に3つの貢献があります: • Grounding Large Multimodal Model(GLaMM)の導入: これは、オブジェクトセグメンテーションマスクとスムーズに組み合わされた自然言語の応答を提供する初めてのモデルです。現行のモデルとは異なり、GLaMMは視覚的な手がかりとテキストの両方をサポートしており、マルチモーダルなユーザーエンゲージメントが向上しています。 • 新しいタスクと評価基準:…

この中国のAI研究は、最新のSOTAビジュアル言語モデルGPT-4V(ision)の詳細な評価と自動運転シナリオへの応用を提供しています

上海人工知能研究所、GigaAI、華東師範大学、香港中文大学、WeRide.aiの研究チームは、自律走行シナリオでのGPT-4V(ision)と呼ばれるビジュアル言語モデルの適用可能性を評価しています。GPT-4Vは、シーン理解と因果推論の分野で優れた性能を発揮し、さまざまなシナリオの処理と意図の認識において潜在的な可能性を示しています。方向判断や信号機の認識には依然として課題があり、さらなる研究と開発が必要とされています。この研究は、自動運転の実際の運転状況におけるGPT-4Vの有望な能力を明らかにし、改善のための具体的な領域を特定しています。 この研究では、自律運転の状況でGPT-4V(ision)のシーン理解、意思決定、運転能力を評価しています。包括的なテストにより、GPT-4Vは既存のシステムに比べてシーン理解と因果推論の分野で優れたパフォーマンスを示しています。ただし、方向判断や信号機の認識などのタスクには課題が残り、自律運転能力を向上させるためにさらなる研究と開発が求められています。この研究結果は、GPT-4Vの潜在能力を強調し、引き続きの探索と改善の努力を通じて特定の制約に取り組む必要性を強調しています。 従来の自律車両へのアプローチでは、オブジェクトの正確な認識と他の交通参加者の意図の理解に課題があります。LLMはこれらの問題に対処する可能性がありますが、視覚データの処理能力に制約があります。GPT-4Vの登場により、自動運転におけるシーン理解と因果推論を向上させる機会が提供されます。この研究は、実際の運転状況で様々な条件の認識と意思決定能力を包括的に評価し、自動運転の将来の研究に基礎的な示唆を提供することを目指しています。 この手法は、自律運転シナリオの文脈におけるGPT-4V(ision)の包括的な評価を提供しており、ドライビングシーンの理解、意思決定、ドライバーとしての役割を評価しています。基本的なシーン認識、複雑な因果推論、さまざまな条件下でのリアルタイムの意思決定などのタスクが含まれます。評価には、オープンソースのデータセット、CARLAシミュレーション、インターネットからの選りすぐりの画像やビデオが使用されています。 GPT-4Vは、現行の自律システムに比べてシーン理解と因果推論の能力が向上しており、配布範囲外のシナリオの処理、意図の認識、実際の運転状況での的確な意思決定能力を示しています。ただし、方向判断、信号機の認識、ビジョンの基礎付け、空間推論などの課題が残っています。この評価は、GPT-4Vの能力が既存のシステムを上回っており、自動運転の将来の研究に基礎的な示唆を提供しています。 この研究は、自律運転シナリオにおいてGPT-4V(ision)の包括的な評価を行い、既存のシステムに比べてシーン理解と因果推論の優れた性能を明らかにしています。GPT-4Vは、配布範囲外の手順の処理、意図の認識、実際の運転状況での的確な意思決定能力を示し、潜在的な可能性を示しています。ただし、方向判断、信号機の認識、ビジョンの基礎付け、空間推論などの課題が残ります。 この研究は、方向判断、信号機の認識、ビジョンの基礎付け、空間推論の課題に対処するための追加の研究と開発の必要性を認識しています。また、最新バージョンのGPT-4Vでは、現在の研究で提示されたテスト結果と異なる応答が得られる可能性があることを指摘しています。

このAI論文は、機械学習パイプライン内のさまざまなタイプの漏えいについて包括的な概要と議論を提供しています

機械学習(ML)は、予測モデリング、意思決定支援、洞察的なデータ解釈を実現することにより、医学、物理学、気象学、気候解析などの分野を大きく変革しました。学習アルゴリズムやデータ操作ツールが豊富に備わったユーザーフレンドリーなソフトウェアライブラリの普及により、MLを基盤としたソフトウェアの成長が促進され、学習の障壁が大幅に低下しました。これらのツールは使いやすさを提供しますが、データ、前処理、特徴エンジニアリング、パラメータ最適化、モデル選択における特定の要件のためのカスタマイズが必要となるため、カスタムのMLベースのデータ分析パイプラインの構築は依然として課題です。 見た目には簡単なMLパイプラインでも、誤って構築または解釈されると致命的な結果につながる可能性があります。したがって、MLパイプラインにおける再現性が正確な推論を保証するものではないということを強調することが重要です。これらの問題に取り組むことは、アプリケーションの向上とML手法の社会的な受け入れを促進する上で重要です。 この議論は特に教師あり学習に焦点を当てており、ユーザーは特徴-ターゲットのペアとして提示されたデータを扱います。多くのテクニックやAutoMLにより、高品質なモデルの構築が民主化されましたが、この作業の範囲の限界を把握することが重要です。MLにおける包括的な課題であるデータの漏洩は、モデルの信頼性に大きな影響を与えます。漏洩の検出と防止は、モデルの正確性と信頼性を確保するために重要です。テキストでは、包括的な例、データ漏洩の事例の詳細な説明、および同定に関するガイダンスが提供されます。 集合的な研究では、ほとんどの漏洩の事例に基づいていくつかの重要なポイントが提示されています。この研究は、Institute of Neuroscience and Medicine、Institute of Systems Neuroscience、Heinrich-Heine-University Düsseldorf、Max Planck School of Cognition、University Hospital Ulm、University Ulm、Principal Global Services(India)、University College London、London、The Alan…

このAIニュースレターは、あなたが必要とするすべてです#73

今週の会話は、再びOpenAIのDevdayの余波、新製品のリリース、そしてGPTStoreの将来の可能性についての推測で占められていましたすでに10,000以上のGPTが作成されています...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us