「大規模な言語モデルを使ったフェイクニュースの検出」を活用する
大規模な言語モデルを活用したフェイクニュース検出の進展
フェイクニュースは、偽の情報、捏造された情報、あるいは故意に誤解を招く情報を伝えるニュースと定義されます。印刷機の台頭と同時にフェイクニュースは登場して以来、オンラインでのフェイクニュースとディスインフォメーションの迅速な拡散は、単に一般の人々を欺くだけでなく、社会や政治、経済、文化にも深刻な影響を与える可能性があります。具体的な例は以下の通りです:
- メディアへの不信感の育成
- 民主的プロセスの崩壊
- 偽または信用できない科学の拡散(例:ワクチン反対運動など)
人工知能(AI)と機械学習(ML)の進歩により、フェイクニュースを作成し共有するためのツールの開発がさらに容易になりました。初期の例では、高度なソーシャルボットや自動化されたアカウントがフェイクニュースの拡散の最初の段階を促進しています。一般的に、一般の人々にとって、そのようなアカウントが人間かボットかを判断するのは容易ではありません。さらに、ソーシャルボットは違法なツールではなく、多くの企業がそれらを合法的なマーケティング戦略の一部として購入しています。そのため、ソーシャルボットの使用を体系的に抑制することは容易ではありません。
生成AIの分野の最近の発見により、大規模言語モデル(LLM)の助けを借りて、前例のない速度でテキストコンテンツを生成することが可能になりました。LLMは10億以上のパラメータを持つ生成AIテキストモデルであり、高品質なテキストの合成を促進します。
この記事では、LLMを使用してフェイクニュースの検出という普遍的な課題に取り組む方法を紹介します。特に、情報検索ツールと組み合わせてChain-of-ThoughtやReActなどの改良されたプロンプト技術が使用される場合、LLMはこのタスクに十分に高度です。
具体例として、LangChainアプリケーションを作成し、ニュース記事を入力すると、自然言語を使用してその記事が真実かフェイクかをユーザーに知らせる方法を示します。このソリューションはまた、Amazonおよびサードパーティのモデルプロバイダからのファウンデーションモデル(FM)をAWS管理コンソールおよびAPIを介して利用可能にする完全管理型サービスAmazon Bedrockも使用しています。
LLMとフェイクニュース
フェイクニュース現象は、インターネットの出現とさらに具体的にはソーシャルメディアの普及とともに急速に進化しています(Nielsen et al., 2017)。ソーシャルメディアでは、フェイクニュースはユーザーのネットワーク内で迅速に共有され、一般の人々が間違った集団意見を形成する原因となっています。さらに、人々はしばしばフェイクニュースを衝動的に拡散し、ニュースの内容の真実性を無視します(Tsipursky et al. 2018)。社会科学の研究では、認知バイアス(確認バイアス、群集心理効果、選択的支持バイアス)がフェイクニュースの作成および消費における非合理的な意思決定の最も重要な要素の一つであることが示唆されています(Kim, et al., 2021)。これはまた、ニュースの消費者が自身の信念を強化する方向にのみ情報を共有および消費することを意味しています。
生成AIの力は、テキストや豊かなコンテンツを前例のない速度で生成する能力によってフェイクニュースの問題を悪化させています。例として深いフェイク技術が挙げられます。これは、元のビデオに様々な画像を組み合わせて異なるビデオを生成するものです。ヒューマンアクターがミックスにもたらすディスインフォメーションの意図に加えて、LLMは次のような新たな課題を追加します:
- 事実の誤り – LLMは、文の次の単語を生成する際に創造的な能力を持つため、事実の誤りを含むリスクが増加します。LLMのトレーニングは、モデルに不完全な入力を繰り返し示し、MLのトレーニング技術を使用して欠落部分を正しく埋めるまで行います。これにより、言語の構造と言語に基づく世界モデルを学習します。結果として、LLMは優れたパターンマッチャーであり再結合能力を持っていますが、論理的な推論や数学的な帰納法を要するいくつかの単純なタスクには失敗し、回答を幻覚することもあります。さらに、温度はLLMの入力パラメータの一つであり、次の単語を生成する際にモデルの振る舞いを制御する役割を果たします。より高い温度を選択することで、モデルはより低確率の単語を使用し、よりランダムな応答を提供します。
- 長さ – 生成されるテキストはしばしば長く、個々の事実に明確な定義が欠けています。
- 事実チェックの不足 – テキスト生成のプロセス中に使用できる標準化されたツールはありません。
全体的に、人間の心理とAIシステムの制約が、オンラインでのフェイクニュースと誤情報の拡散を生み出す絶好の機会を作り出しました。
ソリューションの概要
LLMは、言語生成、理解、およびフューショット学習の分野で優れた能力を示しています。インターネット上の広範なテキストコーパスで訓練され、抽出した自然言語の品質と正確さは保証されないかもしれません。
この投稿では、チェーンオブソートとリアクト(推論と行動)プロンプトアプローチをベースとしたフェイクニュースの検出ソリューションを提供します。まず、これらの2つのプロンプトエンジニアリング技術について説明し、次にLangChainとAmazon Bedrockを使用したその実装を示します。
以下のアーキテクチャ図では、フェイクニュース検出器のソリューションが概説されています。
フェイクニュース検出のためのアーキテクチャ図。
私たちは、FEVERデータセットのサブセットを使用して、文とその文の真偽を示す偽、真、または検証不可能な主張についての基本事実を含みます(Thorne J. et al., 2018)。
ワークフローは以下のステップに分解することができます:
- ユーザーがフェイクまたは真実をチェックするための文のいずれかを選択します。
- 文とフェイクニュース検出タスクがプロンプトに組み込まれます。
- プロンプトはLangChainに渡され、LangChainはAmazon BedrockのFMを呼び出します。
- Amazon Bedrockは、ユーザーのリクエストに対して文が真または偽であるという応答を返します。
この投稿では、Anthrophic(anthropic.claude-v2)のClaude v2モデルを使用します。Claudeは、信頼性のある、解釈可能な、および制御可能なAIシステムの開発に関するAnthropicの研究に基づいて作成された生成的なLLMです。憲法AIや無害性トレーニングなどの技術を使用して作成されているため、Claudeは思慮深い対話、コンテンツ作成、複雑な推論、創造性、およびコーディングに優れています。ただし、Amazon Bedrockと当社のソリューションアーキテクチャを使用することで、Amazon、AI21labs、Cohere、およびStability.aiが提供する他のFMの中から選択する柔軟性もあります。
実装の詳細は以下のセクションで見つけることができます。ソースコードはGitHubリポジトリで入手可能です。
前提条件
このチュートリアルには、Linux、Mac、またはWindows Subsystem for Linux上にインストールされたPython 3.9以降のbashターミナルと、AWSアカウントが必要です。
Amazon SageMaker Studioノートブック、AWS Cloud9インスタンス、またはAmazon Elastic Compute Cloud(Amazon EC2)インスタンスを使用することもお勧めします。
Amazon Bedrock APIを使用したフェイクニュース検出の展開
このソリューションでは、Amazon Bedrock APIを使用します。これは、AWSコマンドラインインターフェース(AWS CLI)、AWS SDK for Python(Boto3)、またはAmazon SageMakerノートブックを介してアクセスできます。詳細については、Amazon Bedrockユーザーガイドを参照してください。この投稿では、Python用のAWS SDKを介してAmazon Bedrock APIを使用します。
Amazon Bedrock API環境のセットアップ
Amazon Bedrock API環境をセットアップするために、以下の手順を完了してください:
-
最新のBoto3をダウンロードするか、アップグレードします:
pip install --upgrade boto3
-
aws configure
コマンドを使用してAWSの資格情報を設定するか、それらをBoto3クライアントに渡すことを確認します。 -
最新版のLangChainをインストールします:
pip install “langchain>=0.0.317” --quiet
以下のPythonシェルスクリプトを使用してセットアップをテストできます。このスクリプトではBoto3を使用してAmazon Bedrockクライアントをインスタンス化します。次に、list_foundation_models
APIを呼び出して使用可能な基礎モデルのリストを取得します。
import boto3 import json bedrock = boto3.client( 'bedrock', region_name=YOUR_REGION) print(json.dumps(bedrock.list_foundation_models(), indent=4))
前述のコマンドを正常に実行すると、Amazon BedrockからFMのリストが取得できます。
プロンプトチェーンソリューションとしてのLangChain
与えられた文章についてのフェイクニュースを検出するために、以下の手順でゼロショットのChain-of-Thought推論プロセス(Wei J. et al., 2022)に従います:
- まず、モデルはニュースに関する文を作成しようとします。
- モデルは主張の箇条書きリストを作成します。
- 各主張について、モデルはその主張が真か偽かを判断します。この手法では、モデルは判断結果を出すために内部知識(事前学習フェーズで計算された重み)にのみ依存します。この時点では外部データで検証されません。
- 事実を考慮に入れた上で、モデルは与えられた文のTRUEまたはFALSEを答えます。
これらの手順を実現するために、LangChainを使用して言語モデルによってパワードされたアプリケーションを開発するためのフレームワークであるLangChainを使用します。このフレームワークを使用すると、さまざまなコンポーネントをチェーンして高度なユースケースを作成することができます。このソリューションでは、LangChainの組み込みのSimpleSequentialChainを使用してシンプルな連続チェーンを作成します。これは非常に便利です。なぜなら、1つのチェーンの出力を次のチェーンの入力として使用できるからです。
Amazon BedrockはLangChainと統合されているため、Amazon Bedrockオブジェクトをインスタンス化する際にmodel_id
を渡すだけで済みます。必要に応じて、モデル推論パラメータをmodel_kwargs
引数で指定することもできます。例:
- maxTokenCount – 生成される応答のトークンの最大数
- stopSequences – モデルが使用する停止シーケンス
- temperature – 0から1の範囲の値で、0が最も決定的で1が最も創造的です
- top – 0から1の範囲の値で、トークンの選択を潜在的な選択肢の確率に基づいて制御するために使用されます
これがAmazon Bedrockの基礎モデルを初めて使用する場合は、Amazon BedrockコンソールのModel accessページでモデルのリストから選択してモデルへのアクセスをリクエストする必要があります。この例では、Anthropicのclaude-v2です。
from langchain.llms.bedrock import Bedrockbedrock_runtime = boto3.client( service_name='bedrock-runtime', region_name= YOUR_REGION,)model_kwargs={ 'max_tokens_to_sample': 8192 }llm = Bedrock(model_id=" anthropic.claude-v2", client=bedrock_runtime, model_kwargs=model_kwargs)
以下の関数は、前述したフェイクニュースの検出のためのChain-of-Thoughtプロンプトチェーンを定義しています。この関数では、Amazon Bedrockオブジェクト(llm)とユーザープロンプト(q)を引数として使用します。ここではLangChainのPromptTemplate機能を使用してプロンプトを生成するためのレシピを事前定義しています。
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from langchain.chains import SimpleSequentialChain
def generate_and_print(llm, q):
total_prompt = """""" # モデルに、アサーションの箇条書きリストを作成するように依頼する
template = """次の文について述べます:
{statement}
上記の文が与えられたとき、以下に述べる仮定の箇条書きリストを作成してください。\n\n"""
prompt_template = PromptTemplate(input_variables=["statement"], template=template)
assumptions_chain = LLMChain(llm=llm, prompt=prompt_template)
total_prompt = total_prompt + template
# モデルに、アサーションの箇条書きリストを作成するように依頼する
template = """次にアサーションの箇条書きリストを示します:
{assertions}
各アサーションが真か偽かを判断してください。偽である場合はその理由を説明してください。\n\n"""
prompt_template = PromptTemplate(input_variables=["assertions"], template=template)
fact_checker_chain = LLMChain(llm=llm, prompt=prompt_template)
total_prompt = total_prompt + template
# 各アサーションに対して、モデルに内部知識だけで真か偽かを判断するように依頼する
template = """上記のアサーションに基づいて、最終的な回答は、アサーションのいずれかが偽の場合は偽です。それ以外の場合は真です。真または偽で回答するようにしてください。'{}'""".format(q)
template = """{facts}\n""" + template
prompt_template = PromptTemplate(input_variables=["facts"], template=template)
answer_chain = LLMChain(llm=llm, prompt=prompt_template)
total_prompt = total_prompt + template
# SimpleSequentialChainを使って、1つのチェーンからの出力を次のチェーンの入力として使用する
overall_chain = SimpleSequentialChain(chains=[assumptions_chain, fact_checker_chain, answer_chain], verbose=True)
answer = overall_chain.run(q)
return answer
次のコードは、先ほど定義した関数を呼び出して回答を得ます。文は TRUE
または FALSE
となります。TRUE
は与えられた文が正しい情報を含んでいることを意味し、FALSE
は少なくとも1つの間違った情報を含んでいることを意味します。
from IPython.display import display, Markdown
q="最初の女性がコンピュータ科学で博士号を取得したのは、1968年にスタンフォード大学で彼女の博士号を取得したDr. Barbara Liskovです。"
print(f'文は次の通りです:{q}')
display(Markdown(generate_and_print(llm, q)))
以下の出力は、文とモデルの回答の例です:
文は次の通りです:最初の女性がコンピュータ科学で博士号を取得したのは、1968年にスタンフォード大学で彼女の博士号を取得したDr. Barbara Liskovです。> SimpleSequentialChain チェーンに移行しています...私が文についての仮定の箇条書きリストを作成します。- Dr. Barbara Liskovはコンピュータ科学で博士号を取得した最初の女性であること- Dr. Liskovはスタンフォード大学で博士号を取得したこと- 彼女は1968年に博士号を取得したこと- 1968年以前に他の女性はコンピュータ科学で博士号を取得していないこと- スタンフォード大学は1968年にコンピュータ科学の博士号プログラムを持っていたこと- この文はアメリカで取得された博士号について言及していること各アサーションについて次の評価を行います:- Dr. Barbara Liskovはコンピュータ科学で博士号を取得した最初の女性であること - 真です。Dr. Liskovはアメリカの女性として初めてコンピュータ科学で博士号を取得しました。1968年にスタンフォード大学から博士号を授与されました。- Dr. Liskovはスタンフォード大学で博士号を取得したこと - 真です。複数の情報源が彼女が1968年にスタンフォードから博士号を受けたことを確認しています。- 彼女は1968年に博士号を取得したこと - 真です。これは情報源に一貫して言及されています。- 1968年以前に他の女性はコンピュータ科学で博士号を取得していないこと - 偽です。彼女はアメリカの女性として初めてである一方、Mary Kenneth Kellerは1965年にウィスコンシン大学でコンピュータ科学の博士号を取得しました。ただし、Kellerもまたアメリカで博士号を取得しました。- スタンフォード大学は1968年にコンピュータ科学の博士号プログラムを持っていたこと - 真です。スタンフォードは1965年にコンピュータ科学の学科と博士号プログラムを開設しました。- この文はアメリカで取得された博士号について言及していること - 偽です。元の文は国を特定していません。アメリカを前提とした私の仮定は誤りです。Kellerの博士号はLiskovの前に取得されました。 偽
リアクトとツール
前の例では、モデルは文が偽であることを正しく識別しました。ただし、クエリを再度送信すると、モデルが事実の正当性を区別することができないことがわかります。モデルには、自分自身の学習メモリを超えて文の真偽を確認するためのツールがないため、同じプロンプトの後続の実行では、偽の文を真と見なす可能性があります。以下のコードでは、同じ例の別の実行があります:
文は次のとおりです:計算機科学の博士号を受けた最初の女性は1968年にスタンフォード大学から学位を取得した博士バーバラリスコフ博士です。> 新しいSimpleSequentialChainチェーンを入力しています... 文に関して私が行った仮定の箇条書きリストは次のとおりです:- バーバラ・リスコフ博士は計算機科学の博士号を取得した最初の女性でした- リスコフ博士は1968年に博士号を取得しました- リスコフ博士はスタンフォード大学で博士号を取得しました- スタンフォード大学は1968年に計算機科学の博士号を授与しました- リスコフ博士は女性でした- 1968年には博士号が存在しました- 1968年にはコンピュータ科学が存在しました それぞれの主張についての私の評価は次のとおりです:- バーバラ・リスコフ博士は計算機科学の博士号を取得した最初の女性でした - 正しいです。リスコフ博士は1968年にスタンフォード大学で計算機科学の博士号を取得した最初の女性でした。- リスコフ博士は1968年に博士号を取得しました - 正しいです。複数の情報源が確認しています。彼女は1968年にスタンフォードでコンピュータ科学の博士号を取得しました。- リスコフ博士はスタンフォード大学で博士号を取得しました - 正しいです。リスコフ博士は1968年にスタンフォード大学で計算機科学の博士号を取得しました。- スタンフォード大学は1968年に計算機科学の博士号を授与しました - 正しいです。スタンフォードは1968年にリスコフに計算機科学の博士号を授与したため、その時点でその学位を提供していました。- リスコフ博士は女性でした - 正しいです。すべての伝記情報は、リスコフ博士が女性であることを示しています。- 1968年には博士号が存在しました - 正しいです。博士号は19世紀末から存在しています。- 1968年にはコンピュータ科学が存在しました - 正しいです。1960年代にはコンピュータ科学は比較的新しい分野でしたが、スタンフォードなどの大学では1968年までにそれを学問と研究の対象として提供していました。正しい
真実性を保証するための1つの手法はリアクトです。リアクト(Yao S. et al., 2023)は、エージェントの行動スペースを使ったプロンプト技術です。本記事およびリアクト論文では、行動スペースがシンプルなWikipediaウェブAPIを使用して検索、ルックアップ、およびフィニッシュアクションを実装しています。
チェーンオブソートと比較してリアクトを使用する理由は、外部の知識取得を使用して基礎モデルを拡張し、与えられたニュースの真偽を検出することです。
この記事では、LangChainのリアクトの実装をエージェントZERO_SHOT_REACT_DESCRIPTIONを使用しています。前の関数を変更して、リアクトを実装し、langchain.agentsのload_tools関数を使用してWikipediaを利用します。
また、Wikipediaパッケージをインストールする必要があります:
!pip install Wikipedia
以下は、前述の関数に同じ文を指定して実行した場合の出力です:
> 新しいAgentExecutorチェーンに入る... ここでは、文が真実か偽りかを判断するための私の考えと行動を示します:考え:このコンピュータ科学の博士号を取得した最初の女性に関する文が真実かどうかを推定するために、Wikipediaのような信頼できる情報源を参照すべきです。行動:Wikipedia行動入力:コンピュータ科学で最初の女性の博士号観察:ページ:Fu Foundation School of Engineering and Applied Science要約:Fu Foundation School of Engineering and Applied Science(SEASまたはコロンビアエンジニアリングとしても知られる)は、コロンビア大学の工学および応用科学学校です。 それは1863年に鉱山学校として設立され、その後鉱山学校、エンジニアリング学校、化学学校となり、その後工学および応用科学学校となりました。 1997年10月1日、学校は中国の実業家Z.Y. Fu氏に敬意を表して改名されました。 彼は学校に2600万ドルを寄付しました。Fu Foundation School of Engineering and Applied Scienceは、NASA、IBM、MIT、およびEarth Instituteを含む他の機関との緊密な研究関係を保っています。 学校が所有する特許は、大学に年間1億ドル以上の収益をもたらしています。 SEASの教員や卒業生は、FMラジオやメーザーの開発などの技術的成果に責任があります。 この学校の応用数学、生体工学、コンピュータ科学、およびオペレーションズリサーチの金融工学プログラムは非常に有名で高く評価されています。 現在のSEAS教員には、全米工学アカデミーのメンバー27人とノーベル賞受賞者1人が含まれています。 全体として、コロンビア工学部の教員と卒業生は、物理学、化学、医学、経済学の10つのノーベル賞を受賞しています。 学校は、卒業するごとに約300人の学部生を擁しており、その学部リベラルアーツの姉妹校であるコロンビアカレッジとの密接な関係を保っています。 学校の現在の学部長はShih-Fu Changで、2022年に任命されました。ページ:Doctor of Science要約:Doctor of Science(ラテン語:Scientiae Doctor;一般的にはDScまたはScDと略される)は、世界中のいくつかの国で授与される学術研究博士号です。 一部の国では、Doctor of Scienceは科学の標準的な博士号として使用されるが、他の国ではDoctor of Scienceは、博士号(PhD)に必要なものを超えた科学的知識への重要かつ持続的な貢献を認めるための「高等博士号」として授与される。ページ:Timeline of women in science要約:これは女性の科学史のタイムラインであり、古代史から21世紀までの範囲をカバーしています。 タイムラインは、主に天文学、生物学、化学、物理学などの自然科学に関与した女性に焦点を当てていますが、社会科学(社会学、心理学など)や形式科学(数学、コンピュータ科学)の女性、さらには注目すべき科学教育者や医学者も含まれています。 タイムラインにリストされている時系列のイベントは、科学的な成果と科学における性平等の両方に関連しています。考え:Wikipediaのページを基に判断すると、文は偽のようです。 Wikipediaの「Women in Scienceのタイムライン」ページによれば、バーバラリスコフ(1968年)ではなく、アデルゴールドスタイン(1964年、ミシガン大学)がコンピュータ科学の博士号を最初に取得した女性であることが示されています。したがって、私の最終的な回答は:最終回答:偽
整理
コストを節約するために、チュートリアルの一環として展開されたリソースをすべて削除します。AWS Cloud9またはEC2インスタンスを起動した場合は、コンソールまたはAWS CLIを使用して削除できます。同様に、SageMakerコンソールで作成したノートブックも削除できます。
制限事項と関連研究
フェイクニュースの検出分野は科学コミュニティで積極的に研究されています。この記事ではChain-of-ThoughtとReActの技術を使用して評価を行いましたが、その評価では、プロンプト技術の分類(与えられた文が真実か偽りか)の正確さに焦点を当てただけです。そのため、レスポンスの速度などの重要な側面やWikipedia以外の追加の知識ベースソースへのソリューションの拡張は考慮していません。
この記事ではChain-of-ThoughtとReActの2つの技術に焦点を当てましたが、LLM(言語モデル)がフェイクニュースを検出、排除、または緩和する方法についての幅広い研究が行われています。Lee et al.では、NER(固有表現認識)を使用して名前付きエンティティをマスクするエンコーダーデコーダーモデルの使用を提案し、トークンのマスク処理が言語モデルによってエンコードされた知識を正しく使用していることを保証します。Chern et.al.では、Chain-of-Thoughtの原則を使用してプロンプトから主張を抽出し、主張の関連根拠を収集します。その後、LLMは、取得した関連根拠のリストに基づいて主張の事実性を判断します。Du E. et al.では、複数のLLMが個別の回答と推論プロセスを提案し、複数のラウンドで個別の回答と推論プロセスを議論し合い、共通の最終回答に至る補完的なアプローチを示しています。
文献に基づくと、LLM(言語モデル)の効果は、外部知識とマルチエージェントの会話機能を備えたLLMの場合、フェイクニュースの検出能力が向上することがわかります。ただし、これらのアプローチは複数のモデル呼び出しと対話を必要とするため、計算的により複雑です。また、より長いプロンプトやネットワークレイヤーの呼び出しにも時間がかかります。最終的に、この複雑さは総合的なコストの増加につながります。類似のソリューションを本番環境に展開する前に、コストと性能の比率を評価することをおすすめします。
結論
この記事では、現代社会の主要な課題であるフェイクニュースの問題に取り組むために、LLMの利用方法について詳しく説明しました。まず、フェイクニュースがもたらす問題に焦点を当て、公衆の感情を操り、社会的な混乱を引き起こす可能性について説明しました。
次に、大量のデータで訓練された高度なAIモデルであるLLMの概念を紹介しました。この充実した訓練により、これらのモデルは言語の理解力が高まり、人間のようなテキストを生成することができます。この能力を生かし、Chain-of-ThoughtとReActという2つの異なるプロンプト技術を使用することで、LLMがフェイクニュースとの戦いにどのように活用されるかを示しました。
LLMが膨大な量のテキストを迅速に処理・分析できる能力から、彼らは前例のない規模でファクトチェックサービスを支援できることを強調しました。リアルタイム分析の可能性は、フェイクニュースの早期検出と封じ込めにつながることができます。私たちは、この能力を実証するために、Pythonスクリプトを作成し、文を入力すると、その記事が真実か偽りかを自然言語を使ってユーザーに提示する方法を紹介しました。
現行のアプローチの限界を強調し、LLMがフェイクニュースとの戦いで不可欠なツールになる可能性について希望が持てることを結論としました。
皆さんのご意見をお聞かせください。コメント欄かGitHubリポジトリの問題フォーラムにてお知らせください。
免責事項:この記事で提供されるコードは教育と実験の目的でのみ使用することを意図しています。実際のトップシステムにおけるフェイクニュースや誤情報の検出には依存すべきではありません。このコードを使用してフェイクニュースの検出を行う際の正確性や完全性については何の保証もありません。ユーザーは慎重に行動し、機密情報を含むアプリケーションにこれらの技術を利用する前に適切な審査を行うべきです。
Amazon Bedrockを使用するための始め方については、Amazon Bedrockコンソールをご覧ください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「06/11から12/11までの週のトップ重要コンピュータービジョン論文」
- このAIニュースレターは、あなたが必要とするすべてです#73
- 「ローカルCPUで小規模言語モデルを実行するための7つの手順」
- 「大規模言語モデルによってプログラミングは終わるのか?」
- ディープラーニング実験の十のパターンとアンチパターン
- 再生医療テキスト生成が臨床NLPタスクを革命化することができるのか? クリニカルナレッジ抽出とコンテキストに基づいたLLMプロンプトを組み込んだAIモデル「ClinGen」に会いましょう
- 「トランスフォーマーブロックは、効率を損なうことなく簡素化することはできるのか? このAIの研究論文は、設計の複雑さと性能のバランスを探求しますETHチューリッヒ大学の論文」