Learn more about Search Results いくつかの - Page 17
- You may be interested
- 「埋め込みモデルでコーパス内の意味関係...
- 「Excelにおける金融関数の包括的なガイド」
- ウェブ上のPython
- 「良い説明がすべてです」
- 最速の道 AIを使用して手術室でがん細胞を...
- ゲームにおける人工知能の現代の8つの例
- ゼロトラストから安全なアクセスへ:クラ...
- フィリップスは、Amazon SageMakerをベー...
- ショッピファイの製品推奨アプリに生成AI...
- GPT-5が具現化!どうやって?
- 「Amazon SageMaker Feature Storeを使用...
- グラデーションとは何か、そしてなぜそれ...
- スタビリティAIは、ステーブルディフュー...
- 「Hugging Faceにおけるオープンソースの...
- アプリケーションの近代化における生成AI...
幸運なことに、「The Day Before」はGeForce NOWで17のゲームをリードしています
17つの新しいゲームがGFN Thursdayに参加します。その中にはThe Day Before、Avatar: Frontiers of Pandora、そしてクラウドに参加する100番目のPC Game PassタイトルであるOri and the Will of the Wispsも含まれています。 GeForce NOWライブラリに参加しましょう。 今週はまた重要な節目です:500以上のゲームとアプリケーションがRTX ONをサポートしています。 GeForce NOW UltimateとPriorityメンバーは、クラウド上のNVIDIA RTXでパワードされたゲーミングリグを使用してほぼすべてのデバイスでシネマティックなレイトレーシングを体験することができます。 GeForce…
「Pythonで脂肪尾を数値化する4つの方法」
「これはパワーロウとファットテールに関するシリーズの三番目の記事です前回の記事では、実証データからパワーロウを検出する方法について探求しましたこの技術は便利ですが、ファットテールはさらなる調査が必要です...」
「この男性は誰でもバイラルにすることができます(10か月で21億回の視聴回数)」
「以下は、短編コンテンツで1か月で1億ビューを獲得するための6つのステップのフレームワークです...」
日本語に翻訳すると、「日常の言葉を使ってデータと直接対話しましょう」となります
DataGPTは、ビジネスの質問に迅速に分析を提供する会話型AIデータ分析ソフトウェアプロバイダーですDataGPTは、日常的な言葉を使ってデータに直接話すことができるため、どんな会社の誰でも複雑な質問に対する専門的な回答を即座に明らかにすることができます
「つながる点 OpenAIの主張されたQ-Starモデルの解明」
「OpenAIのQ-Starを解明:人工汎用知能(AGI)への飛躍の噂CEOドラマに飛び込んで、Q-Starの役割を疑うQ学習、AlphaZero、またはLLMsの潜在的なシナジーを探求Q-StarがAIの推論をどのように強化するかを学ぶLLMの限界とデータの課題を明らかにするこの短い読み物は、AIの未来についての考えを刺激する、つながりを見つける」
なぜAIチップの将来がニューロモーフィックコンピューティングにおいて重要なのか?
神経形態計算はAIとIoTを変革する可能性がありますより正確で多様性に富み、信頼性の高いアクセスしやすいAIの波を引き起こす可能性がありますが、依然として課題が残っています
「Pythonにおけるコードゴルフ:簡潔なプログラミングの技術をマスターする」
紹介 コードゴルフはプログラミングの魅力的な概念であり、開発者が与えられた問題を解決するために最も短いコードを書く競い合いです。これは、目的の結果を得るために可能な限り少ない文字数を使用することを目指すゲームに似ています。この記事では、Pythonのコードゴルフの方法、困難さ、アドバイス、およびベストプラクティスについてすべて説明します。 Pythonにおけるコードゴルフの技法 Pythonのシンプルな構文と表現力を活用することで、コードゴルフにはPythonがよく選ばれます。以下のいくつかの技法を使用することで、簡潔なコードを書くことができます: 文字列操作: Pythonの文字列操作の機能を使用すると、コンパクトなコードを作成することができます。文字列のスライス、連結、フォーマットを使用することで、開発者はより少ない文字数で目的の結果を得ることができます。 リスト内包表記: リスト内包表記はPythonの強力な機能であり、リストの簡潔な作成や操作を可能にします。ループや条件文を1行のコードに組み合わせることができ、全体の長さを短縮することができます。 例: 元のコード squares = []for x in range(10): squares.append(x**2) コードゴルフ squares = [x**2 for x in…
グラフ、分析、そして生成AI グラフニュースレターの年
グラフ、分析、および生成AIグラフとAIが結びつくさまざまな方法と、業界と研究のニュースについての説明
「データについての厳しい質問に答える必要があるとき、人間が行動する必要がある」
データサイエンスと機械学習の専門家は、データの中から答えを見つける方法を知っていますそれが彼らの仕事の中心的な柱ですしかし、いくつかの難しい問題を見ると、状況は少し複雑になります...
このAI研究は、大規模言語モデルにおける不誠実さのメカニズムを明らかにする:プロンプトエンジニアリングとニューラルネットワーク分析に深く没入する
大規模な言語モデル(LLM)の理解とその正直な行動の促進は、これらのモデルが成長し、社会に広く受け入れられるようになったため、ますます重要となっています。研究者らは、スケーラブルなディスインフォメーション、操作、詐欺、選挙の妨害、またはコントロールの喪失のリスクなど、モデルが欺瞞的になる可能性から新たなリスクが生じると指摘しています。彼らはこの欺瞞を「真実以外の特定の結果を追求するための虚偽の信念の系統的な誘導」と定義しています。研究によると、これらのモデルの活性化には必要な情報があるにもかかわらず、正しい結果を出すためにはミスアライメント以上のものが必要かもしれません。 以前の研究では、真実と誠実さを区別し、前者は誤った主張を避ける一方、後者は信じていない主張を避けると述べています。この区別は理解を助けるのに役立ちます。したがって、モデルが誤解を招く主張を生成する場合、その原因はスキルの欠如ではなく、不誠実さによるミスアライメントによるものかもしれません。その後、いくつかの研究では、内部モデル表現の抽出の改善を図るため、モデルに積極的な概念を考慮させるようにするためのブラックボックス技術の提案が行われています。 さらに、モデルは文脈に従った環境で「重要な」中間層を持っており、これを超えて文脈に従った真実または誤った応答の表現は分岐する傾向があります。これを「過剰に考える」という現象として知られています。先行研究に刺激を受けて、研究者たちは不正確な文脈学習から故意の不誠実さに焦点を広げ、モデルにウソをつくように明示的に指示を与えることでこの文脈での不誠実さに責任があるモデルのどの層と注意ヘッドがあるのかを特定して理解しようとしています。 以下に彼らの貢献を示します: 1. 研究チームは、真偽の質問でかなり下回る精度に基づいて、LLaMA-2-70b-chatが嘘をつくように訓練できることを示しています。研究チームによれば、これは非常に微妙で、注意深く迅速に設計する必要があります。 2. activation patchingおよびprobingを使用して、研究チームは不正行動に関連する5つのモデル層に独立した証拠を見つけました。 3. 0.9%の全ヘッドに対して誘因介入が効果的に行われ、研究チームが欺瞞的なモデルに真実を返すように強制しました。これらの処理は、複数のデータセットの分割や提示に対して弾力的です。 要するに、研究チームは、真実を言うかどうかについてLLMに指示を与えるという単純な嘘の事例を考察しました。その結果、巨大なモデルでも不正行動が表示され、正直に回答するように求められた場合には正しい回答が生成され、ウソをつくように追い込まれると誤った回答が生成されることがわかりました。これらの調査結果は、活性化探索がプロンプトでの分布外にも一般化できる可能性があることを示唆する以前の研究に基づいています。しかし、研究チームは、これがモデルが「真」トークンよりも早く「偽」トークンを出力する傾向にあるといった問題により、プロンプトのエンジニアリングに長い時間が必要になる場合があることも発見しました。 研究チームは、接頭辞の挿入により、一貫して嘘を引き起こすことができました。その後、チームは不誠実なモデルと誠実なモデルの活性化を比較し、嘘をつくために関与する層と注意ヘッドを特定しました。研究チームは、この嘘の行動を調査するために線形プローブを使用することで、初めから中間層が誠実なプロンプトとウソつきプロンプトに対して類似のモデル表現を示し、それから急激に反対向きに分岐することを発見しました。これは、文献の一部が求めるように、以前の層が文脈非依存の真実の表現を持つべきであることを示しているかもしれません。また、activation patchingは、特定の層とヘッドの動作についてさらに理解するために研究チームが使用した別のツールです。研究者たちは、局所的な介入が正直なプロンプトおよびウソつきモデル間のミスマッチを完全に解決できることを発見しました。 重要なのは、わずか46の注意ヘッドに対するこれらの介入が、データセットやプロンプトに対して強固な耐性を示していることです。研究チームは、モデルがデフォルトで誠実なモデルの正確性と誠実さを主に調査してきた以前の研究とは対照的に、アクセス可能なデータセットを使用し、明示的にモデルに嘘をつくように指示することで嘘を重点的に研究しています。この文脈によって、研究者たちは不正な行動を促進する微妙な点や大規模モデルがどのように不誠実な行動に関与しているかについて多くの知識を得ることができました。研究チームは、LLMの倫理的かつ安全な応用を保証するために、この文脈でのさらなる研究がLLMの嘘つきを防止する新しいアプローチにつながると期待しています。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.