Learn more about Search Results T5 - Page 16

「包括的な革新:Amazon SageMakerでのHack.The.Bias」

この投稿は、ETH ZürichのAWS学生ハッカソンチームのメンバーであるDaniele Chiappalupiと共同で執筆されましたAmazon SageMaker JumpStartを使用して、誰でも簡単に機械学習(ML)を始めることができますこの投稿では、大学のハッカソンチームがSageMaker JumpStartを使用して、ユーザーが識別して削除するのを支援するアプリケーションを迅速に構築した方法を紹介します

「オープンソースモデルと商用AI/ML APIの違い」

「最近数ヶ月間、おそらく多くの議論に遭遇したことでしょうそれは、大規模言語モデル(LLM)に対してオープンソースのAPIを使うべきか、商用のAPIを使うべきかというものですしかし、これは特定のものではありません…」

「時間差学習と探索の重要性:図解ガイド」

最近、強化学習(RL)アルゴリズムは、タンパク質の折りたたみやドローンレースの超人レベルの到達、さらには統合などの研究課題を解決することで、注目を集めています

プログラム合成 – コードが自己書きすることを実現する

「プログラム合成」という言葉を聞いたことはあるかもしれませんが、完全に理解していないかもしれませんこれは、しばしばAIがコードを作成するための試みとして捉えられますこの記事は、これを解明するために設計された3部作の最初の記事です...

ChatGPTを使用して顧客の洞察を見つける

「マーケティングの目的は、顧客をよく知り理解することであり、その商品やサービスが彼に適合し、自然と売れるようにすることです企業は顧客の興味、ニーズ、購買履歴を知る必要があります...」

「BlindChat」に会いましょう:フルブラウザおよびプライベートな対話型AIを開発するためのオープンソースの人工知能プロジェクト

BlindChatは、MithrilSecurityによって立ち上げられたオープンソースでプライバシー重視のChatGPTの代替案です。BlindChatは、第三者のアクセスなしで完全にウェブブラウザ内で動作する世界初の対話型AIを作成することを目指すオープンソースのAIイニシアチブです。現在の一般的なAIソリューションでは、AIモデルの使用と引き換えにユーザーデータをAIサービスプロバイダーと共有することが一般的です。これを許可すると、ユーザーデータが盗まれるリスクがあります。データはLLMの強化に貴重なリソースですので、いくつかの手法はユーザーデータを暗黙的に調整してモデルの学習をより良くすることがあります。ユーザーは、このような方法でLLMが個人情報を記憶する危険にさらされます。 BlindChatは、ローカル推論を実行するか、セキュアな環境であるセキュアエンクレーブを使用することにより、ユーザーデータが常にプライベートに保たれ、ユーザーが完全なコントロールを保持することを保証します。 BlindChatには、主に2つの対象者がいます: 消費者:ユーザープライバシーを優先する新しい、より安全なオプションを提供します。現在、ほとんどの消費者はデータをAIサービスに提供していますが、プライバシー設定が明確でないか存在しないことがよくあります。 BlindChatチームは、開発者がより簡単にプライバシーに配慮した対話型AIを提供できるように、プラットフォームの構成と展開の簡素化に幅広い作業を行っています。 MithrilSecurityは、ブラウザが通常サーバーが行う機能を実行できるようにプログラムを変更しました。したがって、AIサービスプロバイダーは信頼モデルに含まれておらず、プライバシーが保護されます。 透明かつ安全なAIは、機能をサーバーからユーザー側のブラウザに移動することで実現されます。これにより、エンドユーザーの個人情報が保護され、データに対する主体性が与えられます。たとえば、トランスフォーマーを使用すると、推論をローカルで実行することができ、JavaScriptを使用することで、チャットはユーザーのブラウザ履歴に保存されます。その結果、AIサービスの管理者はユーザーの情報を見ることができません。このため、このサービスは「BlindChat」と呼ばれています。 リモートエンクレーブモードがアクティブになっている場合、データはサーバーにのみ送信されます。この設定では、サーバーはエンクレーブという検証済みで安全なコンテナ内に展開され、完全な周辺防御を提供し、外部からのアクセスをブロックします。エンクレーブのAIプロバイダーの管理者でさえ、ユーザー情報にアクセスすることはできません。 MithrilSecurityには、ユーザーに利用可能な2つの異なるプライバシーオプションがあります: オンデバイス設定では、モデルがユーザーのブラウザにローカルにダウンロードされ、推論がローカルで処理されます。 利用可能な帯域幅と処理能力の制約のため、このモードはより複雑なモデルには適しています。 ゼロトラストAI APIを使用する場合、情報はモデルが保存されている安全な場所であるエンクレーブに送信され、リモートで推論されます。これらの設定は、強力な分離と検証により包括的なセキュリティを提供します。AIサービスプロバイダーはユーザーデータに対して暗号化されていないアクセス権を持ちません。 このプロジェクトは、3つの主要な部分で構成されています: ユーザーインターフェース:チャットとのやり取り時にユーザーが見る画面です。チャットウィンドウがあり、将来的にはドキュメントの読み込みや音声制御などのためのウィジェットやプラグインが追加されます。 開発者は、ユーザー要求を処理するために使用するプライベートLLMを完全に制御します。現在のソリューションはローカルモデルまたはリモートエンクレーブであり、透明性と機密性のある推論を提供します。 チャットログなどのデータの保存に使用されるストレージのタイプは、開発者によって設定可能です。 MithrilSecurityは現在、LaMini-Flan-T5の推論のみを許可しています。370Mがリリースされた後、パフォーマンス向上のためにMicrosoft phi-1.5を統合する予定です。クライアント側でLlamaIndex-TSの統合も開発中であり、RAGを使用してブラウザ内で機密なドキュメントをクエリすることができます。

高度なPython:関数

タイトルを読んだ後、おそらく「Pythonの関数は高度な概念なのか?どうして?すべてのコースで関数は言語の基本的な要素として紹介されているのに」と自問するかもしれません

「環境持続可能性のために生成型AIのワークロードを最適化する」

「AWS上でのディープラーニングワークロードの持続可能性を最適化するためのガイダンスに追加するために、この投稿では生成AIワークロードに特化した推奨事項を提供します特に、ゼロからモデルをトレーニングする、追加データを使用してファインチューニングする(フルまたはパラメータ効率のテクニックを使用する)、Retrieval Augmented Generation(RAG)、およびプロンプトエンジニアリングの異なるカスタマイズシナリオに対する実用的なベストプラクティスを提供します」

「信頼性と価値志向型AIへの道:正しい質問から始めよう」

最近の生成AIの進展は、ビジネスに関わらず、この技術を導入して具体的なビジネスの利益を得るために注目されていますしかし、その多くは...

LLMs(Language Model)と知識グラフ

LLMとは何ですか? Large Language Models (LLMs)は、人間の言語を理解し生成できるAIツールです。これらは、膨大な量のテキストデータでトレーニングされた数十億のパラメータを持つ強力なニューラルネットワークです。これらのモデルの広範なトレーニングにより、人間の言語の構造と意味について深い理解を持っています。 LLMsは、翻訳、感情分析、チャットボットの会話など、さまざまな言語タスクを実行することができます。LLMsは、複雑なテキスト情報を理解し、エンティティとその関係を認識し、繋がりを保ち、文法的に正しいテキストを生成することができます。 ナレッジグラフとは何ですか? ナレッジグラフは、異なるエンティティに関するデータと情報を表し結びつけるデータベースです。これには、オブジェクト、人物、場所を表すノードと、ノード間の関係を定義するエッジが含まれます。これにより、機械はエンティティがどのように関連し、属性を共有し、私たちの周りの世界の異なるものとの関係を把握することができます。 ナレッジグラフは、YouTubeの推奨ビデオ、保険詐欺の検出、小売業での製品推奨、予測モデリングなど、さまざまなアプリケーションで使用することができます。 出典:https://arxiv.org/pdf/2306.08302.pdf | ナレッジグラフの例 LLMsとナレッジグラフ LLMsの主な制限の1つは、「ブラックボックス」であること、つまり、彼らが結論にどのようにたどり着いているかを理解するのが難しいということです。さらに、彼らはしばしば事実情報を把握し取得するのが難しく、幻覚として知られる誤りや不正確さが生じることがあります。 ここで、ナレッジグラフがLLMsを推論するための外部知識を提供することができます。ただし、ナレッジグラフは構築が困難であり、進化している性質を持っています。そのため、LLMsとナレッジグラフを一緒に使用して、それぞれの強みを最大限に活かすことは良いアイデアです。 LLMsは、次の3つのアプローチを使用してナレッジグラフ(KGs)と組み合わせることができます: KGを活用したLLMs:これらは、トレーニング中にKGをLLMsに統合し、より理解力を高めるために使用します。 LLMを拡張したKGs:LLMsは、埋め込み、完了、質問応答など、さまざまなKGタスクを改善することができます。 シナジー効果のあるLLMs + KGs:LLMsとKGsは互いに補完し合い、データと知識に基づいた双方向の推論を促進します。 KGを活用したLLMs LLMsは、広範なテキストデータから学習することによって、さまざまな言語タスクで優れた能力を持つことで知られています。ただし、誤った情報(幻覚)を生成したり、解釈可能性に欠けたりするという批判も受けています。研究者は、これらの問題に対処するために、LLMsをナレッジグラフ(KGs)で拡張することを提案しています。 KGsは構造化された知識を保存しており、それを使用してLLMsの理解を向上させることができます。一部の手法では、LLMの事前トレーニング中にKGsを統合して知識の獲得を支援し、他の手法では推論中にKGsを使用してドメイン固有の知識アクセスを向上させます。KGsは、LLMsの推論と事実の解釈に使用され、透明性を改善します。…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us