Learn more about Search Results 大規模な言語モデル - Page 3

「3D-GPT(3D-指示駆動型モデリングのための人工知能フレームワーク)に会ってください 大規模な言語モデル(LLM)を利用した指示駆動型3Dモデリングのための人工知能フレームワーク」

細心緻密的模型在元宇宙時代的3D內容製作中,重新定義了遊戲、虛擬現實和電影行業中的多媒體體驗。然而,設計師們在耗時的3D建模過程中往往需要幫助,從基本形狀(如立方體、球體或圓柱體)開始使用諸如Blender之類的工具進行精確輪廓、細節和紋理修飾。渲染和后處理使這種勞動密集型製作工作完成並產生精緻的最終模型。儘管可變參數和基於規則的系統使程序式生成在自動化內容開發方面非常有效,但這需要對生成規則、算法框架和個體參數有深入的了解。 當這些過程與客戶的創意愿望協調時,增加了更多的復雜性,需要高效的溝通。這強調了在元宇宙時代使傳統的3D建模方法更加簡化以使創作者事半功倍的重要性。語言遷移模型(LLM)展示了卓越的計劃和工具使用能力以及理解能力。此外,LLM在表徵結構和紋理等對象特性方面表現出色,能夠根據基本描述改進細節。他們還擅長理解複雜的代碼功能和解析簡短的文本素材,同時輕鬆實現有效的用戶互動。他們探索了這些卓越能力在程序式3D建模中的新用途。 他們的主要目標是充分利用LLM的潛力,以滿足用戶需求,對3D創意軟件進行控制。為了實現這一目標,澳大利亞國立大學、牛津大學和北京人工智能研究院的研究人員介紹了3D-GPT,一個旨在促進以指令驅動的3D內容合成的框架。通過將3D建模過程分為更小、更可管理的段落,並決定何時、何地和如何完成每個段落,3D-GPT使LLM能夠扮演解決問題的代理人。概念化代理、3D建模代理和工作派發代理是組成3DGPT的三個主要代理。通過調整3D生成函數,前兩個代理一起工作以滿足3D概念化和3D建模的職責。 第三個代理通過接受第一個文本輸入,管理後續命令並促進第一個和第二個代理之間的高效溝通,從而控制系統。在此過程中,他們實現了兩個重要目標。首先,它通過指向更深入且與上下文相關的形式改善初始場景描述,然後根據進一步的指示修改文本輸入。其次,它使用程序生成,這是一種與3D軟件進行交互的方法,它使用可變參數和基於規則的系統,而不是直接創建3D材料的每個組件。他們的3D-GPT可以從改進的文本中推導出相關參數值,並理解程序生成程序。通過使用用戶的書面描述作為指南,3D-GPT提供準確且可定制的3D創作。 在具有多個不同元素的複雜場景中,手動指定程序式創作中的每個可控參數可以減少工作量。此外,3D-GPT提高了用戶參與度,簡化了創作過程並把用戶放在首位。此外,3D-GPT與Blender無縫集成,使用戶可以使用各種操作工具,包括網格編輯、物理運動模擬、對象動畫、材質變更和基本圖元添加等。根據他們的測試,他們聲稱LLM可以處理更複雜的視覺信息。 以下是他們貢獻的總結: • 提出3D-GPT,一個用於3D場景創建的框架,提供免費培訓。他們的方法利用LLM內置的多模態推理能力,提高最終用戶的程序性3D建模的生產力。 • 探索了一種文本到3D生成的替代方法,其中他們的3D-GPT創建Python程序來操作3D軟件,可能為現實應用提供更大的靈活性。 • 實證研究表明LLM在創建3D材料時具有很大的潛力,可以思考、計劃和使用工具。

このAI論文は、大規模な言語モデルを最適化する秘訣を明らかにします:報酬のバランスと過剰最適化の防止

UC Berkeley、UCL、CMU、Google Deepmindの研究者チームは、複数の単純な報酬モデルから導かれた合成報酬モデルを使用して、大規模な言語モデルの最適化の課題に取り組んでいます。これらのハイブリッドモデルは、成分モデルの適切な重み付けの支援を必要とすることが多く、報酬が高いほど人間の評価が悪くなる過度の最適化が起こります。彼らの方法は、制約付き強化学習を使用して、エージェントが各成分モデルの有用性の閾値を超えないようにする解決策を提案しています。 この研究は、制約を強化学習に統合するための広範な研究の歴史を参照しています。Borkar、Padakandla、Cheung、Lecarpentierなどの著者の研究を挙げています。また、報酬関数の非定常性に取り組む重要性を強調し、Moskovitz、O’Donoghue、Tarbouriechの研究を引用しています。さらに、正則化ポリシーオプティマイゼーションの使用についても議論しています。 LLM(大規模言語モデル)は自然言語処理において優れた性能を発揮しますが、安全な展開や人間の好みとの整合性に問題があります。人間のフィードバックからの強化学習(RLHF)は、人間の選択を模倣した報酬モデルを使用してLLMを適応させます。しかし、報酬モデルの過度の最適化はテキストの品質低下につながることがあります。彼らの研究では、過度の最適化を解決するための合成報酬モデルを提案し、プロキシポイントを特定し、制約付き最適化を使用しています。動的な重み付けは、各報酬モデルが学習プロセスに与える影響を制御します。 この分析では、Lagrange乗数を使用して合成報酬モデルにおける過度の最適化を管理する制約付き強化学習を紹介しています。成分報酬モデルに制約を課し、効果的な人間評価範囲内に保ちます。プロキシポイントを特定し、報酬モデルの過剰使用を防ぐための適応的な勾配フリーな最適化手法が提示されています。KL divergenceを含む、さまざまなタスク報酬および制約の閾値の定式化も考慮されています。 彼らのアプローチは、合成報酬モデルにおける過度の最適化に関する初めての研究を行い、相関の重要性が過度の最適化ポイントに与える影響を明らかにしています。報酬モデルの閾値を超えることを防ぐために、適応的な勾配フリーな最適化手法が使用されています。制約付き強化学習の実装には、PPO-SATやAll-PPOを含むPPOアルゴリズムが議論されています。さまざまなタスク報酬および制約の閾値の定式化をカバーする詳細な疑似コードも提供されています。 この研究は、言語品質評価に影響を与える合成報酬モデルの最適化の課題を解決することに焦点を当てています。過度の最適化ポイントを特定し、最適化するために適応的な勾配フリーな最適化手法を使用しています。PPO-SATやAll-PPOなどのPPOアルゴリズムの実装について探究し、成分報酬モデル間の適切な重み付けと相関の考慮の重要性を強調しています。 今後の研究では、ReLOADなどの信頼性のある手法を適用して、合成報酬モデルにおける過度の最適化に取り組むことが検討されるべきです。確定的な最適ポリシーのない場合にモデルの出力問題を防ぐためにCMDPの形式を利用することの有用性を探求することが重要です。さまざまなドメインや複雑な合成報酬モデルを対象とした幅広いテストが必要です。代替の強化学習手法の調査や、重み付け戦略や相関指標が提案手法の性能に与える影響を評価することは、さらなる進展に重要です。

イェール大学とGoogle DeepMindの研究者は、大規模な言語モデルに対する高度な微調整技術を使用して数学の問題解決の成功を解き明かしました

“`html 最も先進的な大型言語モデル(LLMs)であるGPT-4やPaLM 2でも、数学の問題を解くのは困難です。なぜなら、それには想像力、数理的推論、計算が必要だからです。問題に複数回取り組むことが許可されると、LLMsが正しい答えを見つける可能性はかなり高くなります。したがって、LLMsはすでにこの数学の問題解決の課題を改善する可能性を示しています。例えば、事前学習済みのPaLM 2-Lは、greedy decodingを使用した場合に約33.4%の正確さを達成することができます。しかし、temperature samplingを使用して64の解をサンプリングすると、少なくとも1つの正解(pass@64)が79.4%の確率で得られます(表1)。 表1:教師あり解の微調整の結果。トレーニングデータの2つの異なるソースであるMATHデータセットとPRM800Kデータセットを比較しています。 この大きな性能の差は、LLMsが正確な答えを生成できる一方で、正しい解と誤った解を区別することが困難であることを示しています。したがって、上記の性能差を縮小するために、彼らはタスク固有の微調整技術を調査して、LLMの解決力と評価力を向上させようとしています。 彼らは3つの微調整技術を検討しています: (1)SSFT、教師あり段階的解の微調整。事前学習済みLLMsが出発点として教師あり微調整ステップを受けることで利益を得られるかどうかを調査します。 LLMsを調整して、完全な解答を提供するようにします。 (2)解クラスタ再順位付け(SCR)。候補解の再順位付けのための解評価器として生成器を改善し、LLMの解評価能力を向上させます。以前の研究では解のサンプル順位付けまたは再順位付けが行われてきましたが、彼らは多数決の利点と再順位付けを組み合わせる新しい手法を提案し、ランキングのコストを削減します。より具体的には、多数決の初期段階で、数学的等価性に基づいて候補解をいくつかのグループに分類します。さらに多数決の結果をさらに向上させるために、最頻クラスタの解に解評価器を適用します。 (3)シーケンシャルマルチタスク微調整。解評価タスクに加えて、LLMの解生成タスクの性能向上にも関心があり、解評価タスクのトレーニング目標がモデルの解生成に役立つかどうかを判断します。 これを実現するために、解評価タスクを自然言語生成問題としてフレーム化し、そのトレーニング目標が解生成モデルに有益な監督信号を提供できるようにします。さらに具体的には、モデルを3つのステージで調整します:(1)生成器として(SSFT)、(2)解評価器として(SCR)、および(3)再び生成器として(SSFT)。 彼らは、難しいMATHデータセット上でPaLM 2-S*とPaLM 2-LのようなPaLM 2の小さな形式と大きな形式を使用して包括的な研究を行い、以下の結論を示しています: • 微細な、適切なフォーマットの解答によっては、SSFTがより良いパフォーマンスを発揮するため、ステップバイステップの解の品質とスタイルは洗練されたモデルに大きな影響を与えることがあります。 • 最も一般的な解クラスタのみを再順位付けすることで、すべての解を再順位付けするよりも性能が向上し、演算効率も向上します。これが将来の作業におけるより良い標準的な方法であると考えられます。 • 解生成モデルの性能を向上させるために、解生成と評価の両方のタスクでモデルをトレーニングする利点を示し、評価タスクの学習信号が生成モデルにとって有益であるという成功した試みを示しています。教師あり解微調整のみよりも、彼らの提案するマルチタスクシーケンシャル微調整は解生成モデルのパフォーマンスをより効果的に向上させることができます。…

「大規模な言語モデルが医療テキスト分析に与える影響」

イントロダクション 技術革命の進行する世界において、人工知能と医療の融合は医学の診断と治療の風景を再構築しています。この変革の背後にいる静かな英雄の一つが、医療分野での大規模言語モデル(LLM)の応用です。本稿では、テキストベースの医療アプリケーションの文脈でLLMの世界に踏み込み、これらの強力なAIモデルが医療業界を革新している方法について探ります。 ソース – John Snow labs 学習目標 医療テキスト解析における大規模言語モデル(LLM)の役割を理解する。 現代の医療における医療画像の重要性を認識する。 医療画像のボリュームがもたらす課題を把握する。 LLMが医療テキスト解析と診断の自動化にどのように役立つのか理解する。 LLMが重要な医療ケースのトリアージにおける効率性を評価する。 患者の経歴に基づく個別治療計画におけるLLMの効果を探求する。 放射線科医を支援するためのLLMの共同作業について理解する。 医学生と医師の教育においてLLMがどのように役立つのか発見する。 この記事はData Science Blogathonの一環として公開されました。 見えない医療画像と医療の世界 LLMの世界に飛び込む前に、医療画像の存在を一瞬に留め、感謝しましょう。それは最新の医学において視覚化し、疾患を検出し、治療の進捗を監視するのに欠かせないものです。特に放射線科学は、X線、MRI、CTスキャンなどの医療画像に重要に依存しています。 しかしこの多くの医療画像の宝庫は課題を伴っています:その膨大な量です。病院や医療機関は毎日大量の医療画像を使用しています。この洪水を手作業で分析および解釈することは困難で、時間がかかり、人為的なミスも起こりやすいです。 ソース –…

「ジェーン・ザ・ディスカバラー:大規模な言語モデル(因果的Python)を用いた因果探索の向上」

私たち人間や他の多くの非人間動物は、この世界に生まれてくる時点で、環境について学ぶのに役立つシステムを備えていますが、出生の日には環境についてはあまり知りません

「Mini-DALLE3と出会おう:大規模な言語モデルによるテキストから画像へのインタラクティブアプローチ」

人工知能コンテンツ生成の急速な進化、特にテキストから画像へのモデル(T2I)の進展により、高品質で多様性に富み創造的なAIによるコンテンツ生成の新たな時代が到来しました。しかしながら、自然言語の説明を用いてこれらの先進的なT2Iモデルと効果的にコミュニケーションを行うという重要な制約が残り、プロンプトエンジニアリングにおける専門知識のないユーザーにとって魅力的な画像を生成することが困難となっています。 Stable DiffusionなどのT2Iモデルの最新手法は、テキストプロンプトから高品質な画像を生成することで優れた成果を収めています。しかし、これらのモデルでは複雑なプロンプトやマジックタグ、注釈を作成する必要があり、それによってユーザーフレンドリーさに制約が生じます。さらに、既存のT2Iモデルは自然言語の理解においてまだ限定されており、効果的なコミュニケーションのためにはモデル特有の言葉遣いを習得する必要があります。さらに、単語の重み付け、ネガティブプロンプト、スタイルキーワードなどのT2Iパイプラインでのテキストと数値の配置の多様性は、非専門家のユーザーにとって複雑です。 そこで、中国の研究チームが最近発表した論文で、新しい手法である「インタラクティブテキストから画像へ」(iT2I)を紹介しています。この手法では、ユーザーが大型言語モデル(LLM)と対話をして画像要件を具体化し、フィードバックを提供し、自然言語を使って提案することができます。 iT2I手法は、プロンプト技術と市販のT2Iモデルを活用して、LLMの画像生成と改善の能力を向上させます。複雑なプロンプトや構成の必要性を排除することで、ユーザーフレンドリーさを大幅に向上させ、非専門家のユーザーにもアクセス可能にします。 iT2I手法の主な貢献は、ユーザーとAIエージェントの間での対話型画像生成を実現する画期的な手法であることです。iT2Iは、視覚的一貫性を確保し、言語モデルとの構成可能性を提供し、画像生成、編集、選択、改善のためのさまざまな指示をサポートします。論文ではまた、iT2I用の言語モデルを向上させる手法を提案しています。その多目的性は、コンテンツ生成、デザイン、インタラクティブストーリーテリングのアプリケーションにおいて優れたユーザーエクスペリエンスを提供し、テキストの説明から画像を生成する際の効果的な手段となります。さらに、提案された手法は既存のLLMに容易に統合することができます。 提案手法の評価のために、著者らは実験を実施し、LLMの性能への影響を評価し、さまざまなシナリオでの実用的なiT2Iの例を提供しました。実験では、iT2IプロンプトがLLMの能力に与える影響を考慮し、商業用LLMは対応するテキスト反応とともに画像を生成することに成功し、オープンソースのLLMは異なる程度の成功を示しました。実例では、単発および複数回の画像生成やテキストと画像の交替するストーリーテリングが実演され、システムの機能が紹介されました。 まとめると、この論文ではAIコンテンツ生成における革新的な手法であるインタラクティブテキストから画像へ(iT2I)を紹介しています。この手法により、ユーザーとAIエージェントの間での対話型画像生成が可能となり、画像生成がユーザーフレンドリーになります。iT2Iは、言語モデルを向上させ、画像の一貫性を確保し、さまざまな指示をサポートします。実験の結果、言語モデルのパフォーマンスへの影響はわずかであり、iT2IはAIコンテンツ生成の有望なイノベーションとなります。

QLoRA:16GBのGPUで大規模な言語モデルの訓練を行う

「我々は、モデルのための量子化などの体重減少技術と、パラメータ効率の良いファインチューニング技術であるLoRAを組み合わせる予定ですこの組み合わせの結果として生まれるのが、QLoRAです」

大規模な言語モデルは本当に行動し思考できるのか?イリノイ大学アーバナ・シャンペーン校の研究者が意思決定の向上のためにLATSを導入

LLMは、推論や意思決定のタスクにおいて価値のある存在となっています。複雑な問題を連続したステップに分解することで優れたパフォーマンスを発揮しますが、自己整合性や多段階分解といった方法を用いることで更なる改善が可能です。LLMはまた、さまざまなドメインにおける意思決定にも有効ですが、動的な環境への適応には苦労することがよくあります。Monte Carlo tree search (MCTS)などの木構造ベースの探索手法を活用することで、LATSはLLMの能力を探索し代替案を展開し、別個の価値関数のトレーニングの必要性を排除します。 推論と意思決定能力を持つ自律エージェントは、AIの重要な焦点です。従来の強化学習が主流でしたが、LLMはその代替手段となります。LLMは、自然言語処理や複雑な環境を含む推論や適応性のタスクで優れた成績を収めています。ただし、彼らの能力を向上させるためのプロンプト技術では、思慮深い意思決定が不足していることがよくあります。 イリノイ大学の研究者たちは、LATSというフレームワークを紹介し、意思決定、計画、推論のためのLLMの能力を結集させました。LATSは、LLMをエージェント、価値関数、最適化器として再定義します。MCTSを活用して異なる意思決定パスを探索し、外部のフィードバックを統合して適応型の問題解決を行います。実験的評価では、GPT-4やGPT-3.5などのLLMを用い、プログラミングやWeb閲覧など多様なドメインで高得点を獲得しました。 LATSは、プログラミング、HotPotQA、WebShopなどの異なるドメインをカバーした広範な実験的評価を通じて、その多目的性と効果を示しています。GPT-4を用いたプログラミングにおいては、驚異的な94.4%の成功率を達成しました。WebShopでのWeb閲覧では、GPT-3.5を用いて平均スコア75.9を達成し、その多様な応用可能性を示しました。彼らの結果は、LLMを活用した自律的な意思決定を強化するための有望なフレームワークであるLATSを示しています。利用可能な情報源は、フレームワークの効果を紹介し評価することに重点を置いており、潜在的な欠点についての詳細な情報が必要です。 まとめると、本研究では、意思決定を向上させるためにLLMの様々な側面を統合したLATSというフレームワークを紹介しました。LATSは、探索アルゴリズム、外部のフィードバック、経験的な学習を組み込むことで、以前の制約を克服しています。多様なドメインでの実験的評価は、LATSの効果を示し、追加のトレーニングなしでの自律的な意思決定のためのその多用途性を強調しています。LATS内で提案されたシナジーは、汎用性のあるエージェントの開発を推進するための約束を持っています。しかし、LATSフレームワークの自律的な推論と意思決定への応用における制約と改善の余地については、さらなる研究と分析が必要です。

「どのようにして、1ビットのウェイトで大規模な言語モデルを効果的に圧縮できるのか?この人工知能の研究では、PB-LLMを提案しています:部分的にバイナリ化されたLLMの潜在能力を探索する」

大規模言語モデル(LLM)において、部分二進化LLM(PB-LLM)は、言語の論理的推論能力を損なうことなく、極低ビットの量子化を実現するための最先端の技術です。PB-LLMは、二進化中に目立つ重みを戦略的にフィルタリングし、より高ビットのストレージに確保します。また、事後トレーニング量子化(PTQ)および量子化感知トレーニング(QAT)の手法を導入することで、量子化されたLLMの推論能力を回復させます。この手法は、LLMのネットワーク二進化における重要な進歩を表しています。 イリノイ工科大学、Huomo AI、UCバークレーの研究者たちは、PB-LLMを言語の論理的推論能力を保持しながら極低ビットの量子化を実現する革新的な手法として紹介しました。彼らの研究では、既存の二進化アルゴリズムの限界に対処し、目立つ重みの重要性を強調しています。さらに、彼らの研究では、量子化されたLLMの推論能力を回復させるためのPTQおよびQATの手法を探求しています。彼らの研究成果は、PB-LLMのコードを利用してさらなる探求と実装を可能にしています。 彼らの手法は、メモリ制約のあるデバイスにLLMを展開する課題に取り組んでいます。ネットワーク二進化を探究し、重みのビット幅を1ビットに減らしてLLMを圧縮する方法を探索しています。彼らの提案された手法であるPB-LLMは、非常に低ビットの量子化を実現しながら、言語の論理的推論能力を保持することを目指しています。彼らの研究では、LLMの量子化における目立つ重みの特性を探求し、PTQおよびQATの手法を用いて量子化されたLLMの推論能力を回復させています。 彼らの手法は、PB-LLMを言語の論理的推論能力を保持しながらLLMの極低ビットの量子化を実現する革新的な手法として紹介しています。彼らは既存の二進化アルゴリズムの制約に対処し、目立つ重みの重要性を強調しています。PB-LLMは、目立つ重みの一部を高ビットのストレージに部分二進化することで、選択的に二進化します。 PB-LLMは、これらの目立つ重みの一部を選択的に二進化し、それらを高ビットのストレージに割り当てます。論文ではPTQおよびQATの手法を用いてPB-LLMの能力を拡張し、低ビットの量子化されたLLMのパフォーマンスを向上させています。これらの進歩は、LLMのネットワーク二進化に大きく貢献し、さらなる探求のためのアクセス可能なコードも提供しています。彼らの手法は、LLMの量子化における二進化手法の実現可能性を探究しています。現在の二進化アルゴリズムはLLMを量子化することが困難であり、効果的な新たな手法の必要性を示唆しています。 彼らの研究は、効果的な二進化における目立つ重みの役割を強調し、最適なスケーリング戦略を提案しています。PTQおよびQATの組み合わせによって、量子化されたLLMの能力を回復させることが可能です。提供されたPB-LLMのコードは、特にリソース制約のある環境におけるLLMネットワーク二進化の研究開発を促進しています。 まとめとして、論文はLLMでの極低ビットの量子化を実現しながら言語の論理的推論能力を保持するための革新的な解決策としてPB-LLMを紹介しています。既存の二進化アルゴリズムの制約に対処し、目立つ重みの重要性を強調しています。PB-LLMは目立つ重みを選択的に二進化し、それらを高ビットのストレージに割り当てます。彼らの研究では、PTQおよびQATの手法を用いてPB-LLMを拡張し、低ビットの量子化されたLLMのパフォーマンスを活性化させています。これらの進歩は、LLMのネットワーク二進化に大きく貢献しています。

このAIの論文は、FELM:大規模な言語モデルの事実性評価のベンチマーキングを紹介します

大型言語モデル(LLM)は驚異的な成功を収め、プロンプティングを通じて生成型AIにおけるパラダイムシフトをもたらしました。しかし、LLMに関連する課題の一つは、不正確な情報を生成したり内容を作り出したりする傾向があることであり、その広範な適用には重大な障害となっています。ChatGPTのような最新のLLMでさえ、この問題に対して脆弱性を示しています。 大型言語モデル(LLM)によって生成されたテキストの事実性の評価は、LLMの出力の信頼性を向上させ、ユーザーに潜在的なエラーを知らせることを目的とした重要な研究領域として浮上しています。しかし、事実性を評価する評価者は、自身の領域での進歩と発展を測定するために適切な評価ツールも必要としています。残念ながら、この研究の側面は比較的未開拓のままであり、事実性評価者にとって重大な課題を引き起こしています。 この研究の著者たちは、この課題に対応するために、Factuality Evaluation of Large Language Models(FELM)と呼ばれる基準を導入しています。上記の画像は、事実性評価システムの例を示しており、LLMからのテキストスパンを強調表示することができます。 回答には事実の誤りがある場合には、その誤りを説明し、決定を正当化するための参照を提供することができます。この基準では、LLMによって生成された応答を収集し、事実性のラベルを細かく注釈付けすることが含まれています。 これまでの研究とは異なり、FELMでは主にWikipediaなどからの情報源としての世界の知識の事実性を評価することに焦点を当てていたのではなく、一般的な知識から数学的および推論に関連するコンテンツにわたる事実性の評価に重点を置いています。テキストの異なる部分を一つずつ見て理解し、間違いがある可能性のある箇所を特定します。さらに、これらの間違いにラベルを付け、どのような種類の間違いがあるのかを示し、テキストで述べられていることを証明または反証する他の情報へのリンクも提供します。 次に、彼らのテストでは、大型言語モデルを使用するさまざまなコンピュータプログラムがテキスト内のこれらの誤りをどれほどうまく見つけることができるかを確認します。通常のプログラムと、より良い考え方や誤りを見つけるための追加ツールで改良されたプログラムをテストします。これらの実験の結果からは、情報の検索機構が事実性評価を支援することができる一方で、現在のLLMは事実の誤りを正確に検出する能力にはまだ不足していることがわかります。 全体的には、このアプローチは事実性の評価における理解を深めるだけでなく、テキストにおける事実の誤りを特定するための異なる計算手法の効果に関する貴重な知見を提供し、言語モデルとその応用の信頼性向上への継続的な取り組みに貢献しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us