Learn more about Search Results A - Page 185

「言語復興のための生成型AI」

はじめに 言語は単なるコミュニケーション手段ではなく、文化、アイデンティティ、遺産の保管庫でもあります。しかし、多くの言語が絶滅の危機に直面しています。言語の再活性化は、このトレンドを逆転させることを目指し、生成AIがこの取り組みにおいて強力なツールとなっています。 言語の再活性化は、絶滅危惧種の言語や文化遺産を保存するために不可欠です。生成AIは、その自然言語処理の機能を活用して、この使命に大きく貢献することができます。このガイドでは、以下について探求します: 言語再活性化のための生成AIの使い方 実践的なPythonの実装 音声合成、テキスト生成、評価の学び この記事は、データサイエンスブログマラソンの一環として公開されました。 言語再活性化の理解 言語再活性化は、絶滅または休眠状態にある言語を復活するための取り組みを指します。言語の文書化、教育、言語リソースの作成などを包括します。 AI言語再活性化の理解には、人工知能が絶滅危惧種の言語を保存および再活性化するための変革的な潜在能力を認識することが含まれます。特にGPT-3のような自然言語処理(NLP)モデルのように、AIシステムは言語を理解し、生成し、翻訳することができるため、それらは文書化や伝達危機にある言語の教育において非常に貴重なツールとなっています。これらのAI駆動の取り組みにより、大規模な言語コーパスの作成、自動翻訳サービスの提供、さらには対話形式の言語学習アプリケーションの作成が可能となり、言語再活性化がよりアクセスしやすくなります。 さらに、AIは文化に配慮したコンテンツの作成にも貢献することができ、言語と遺産とのより深いつながりを育むことができます。AI言語再活性化における微妙な課題と機会を理解することで、関係者は技術を活用して言語のギャップを埋め、若い世代を巻き込み、これらの言語が繁栄することを保証することができます。 最終的には、AI言語再活性化は、言語学者、コミュニティ、技術者が協力して言語の多様性を守り、絶滅危惧種の言語によってエンコードされた人類の文化の豊かな織物を保存するための多様な取り組みとなります。 生成AIと自然言語処理 深層学習によって推進される生成AIは、人間のようなテキストの理解と生成が可能です。自然言語処理(NLP)は、コンピュータが人間の言語を理解、解釈、生成するための技術に焦点を当てています。 言語コーパスの構築 生成AIを適用する前に、十分な言語データセットが必要です。このセクションでは、AIアプリケーションのために言語データを収集、整理、前処理する方法について説明します。 PythonとGPT-3によるテキスト生成 OpenAIのGPT-3は、人間のようなテキストを生成するパワフルな言語モデルです。OpenAI APIのセットアップ方法と、対象言語でテキストを生成するためのPythonの実装を案内します。 # PythonコードによるGPT-3を使ったテキスト生成import openai# OpenAI APIキーのセットアップapi_key…

「複雑さを排除したデータレイクテーブル上のデータアクセスAPI」

データレイクテーブルは、主にSparkやFlinkなどのビッグデータコンピュートエンジンを使用するデータエンジニアリングチームや、モデルやレポートを作成するデータアナリストや科学者によって利用されます

「NASAがAIを利用して、特定できない異常を監視するために空を取り込む」

フォックスニュースを通じた記者会見で、NASAは人工知能の新たな進展を利用して、未確認の異常事象をより効果的に空を監視することを始めると発表しました宇宙機関によれば、AIを利用して異常な現象に関わるデータをより良く理解することが目標です...

MITとCUHKの研究者たちは、LLM(Long Context Large Language Models)に対して効率的なファインチューニングAIアプローチであるLongLoRA(Long Low-Rank Adaptation)を提案しています

Large language models(LLMs)の導入により、人工知能の領域で大きな進歩がもたらされました。自然言語処理(NLP)、自然言語理解(NLU)、自然言語生成(NLG)の概念に基づいて、LLMsは驚異的な能力を持って世界を席巻しています。LLaMAとLLaMA2などのよく知られているモデルは、自然言語の理解と生成に非常に効果的なツールとなっています。 ただし、LLMには制約があり、LLaMAの最大コンテキストサイズは2048トークン、LLaMA2の最大コンテキストサイズは4096トークンです。これにより、長いドキュメントや長いクエリを処理する必要があるタスクに対しては苦労します。シーケンスを長く訓練することでコンテキストウィンドウを拡張する方法もありますが、これには計算上の困難が伴い、リソースを過度に消費する可能性があります。 ローランク適応(LoRA)は、コンテキストウィンドウを拡張するための簡単な方法です。LoRAは、自己注意ブロックの線形射影層を変更するために計算効率が高く、トレーニング可能なパラメータの数を制限した低ランク行列を使用します。ただし、長いコンテキストモデルを単純なローランク適応で訓練することは、経験的な研究によるとあまり効果的ではないようです。通常の自己注意メカニズムにより、コンテキストの拡張が進むにつれ、混乱が生じ、効果が低下します。 制約を克服するために、研究チームはLongLoRAという効率的な微調整手法を開発しました。この手法は、過度な計算コストをかけることなく、事前学習済みの大規模言語モデルのコンテキストサイズを効果的に拡張するために開発されました。LongLoRAは、LLaMA2などの事前学習済みLLMのコンテキストウィンドウを拡大するプロセスを2つの重要な方法で高速化します。 まず、LongLoRAは、微調整中に有効なコンテキスト拡張を実現するために、シフトショートアテンション(S2-Attn)を利用します。LLMが推論中にうまく機能するためには、依然として密なグローバルアテンションが必要ですが、微調整プロセスでは疎なローカルアテンションを利用することで効果的かつ迅速に実行することができます。従来のアテンション技術を使った微調整と比較して、S2-Attnはコンテキストの拡張を可能にし、計算上の節約につながります。なぜなら、トレーニング中に実装するための2行のコードだけで済むオプションの部分なので、推論とは別に容易に統合できるからです。 次に、LongLoRAはパラメータの効果的なコンテキスト拡張技術に重点を置いて微調整手順を再検討します。研究チームは、モデルにトレーニング可能な埋め込み層と正規化層がある場合、LoRAはコンテキストの拡張に優れたパフォーマンスを発揮することを発見しました。この認識は、計算負荷を大幅に増やすことなくコンテキストを拡張するために重要な要素です。 7B/13Bから70BまでのサイズのLLaMA2モデルに対して、LongLoRAはさまざまなタスクに対して注目すべき経験的な結果を示しました。1つの8 x A100 GPUコンピュータでは、この手法によりLLaMA2 7Bのコンテキストを4kトークンから100kトークン、LLaMA2 70Bのコンテキストを32kトークンまで拡大することができます。これにより、元のモデル構造を維持しながら、既存の使用方法やFlashAttention-2などのツールと互換性があります。 また、実際のLongLoRAの使用を支援するために、LongQAというデータセットが開発されています。このデータセットには、広範なコンテキストを持つ3,000以上の質問-回答のペアが含まれています。このデータセットの提供により、LLMの機能を拡張したいと考えている学術研究者やプロフェッショナルにとって、LongLoRAの有用性が向上しています。

スタビリティAIによるステーブルオーディオはどのように機能するのでしょうか?

そうですね研究の文脈でそれを行うことができるだけでなく、自分でコーディングすることもできますが、簡単なテキストの説明を入力するだけで音楽のサンプルを取得できるウェブサイトでもできます!そして...

実験、モデルのトレーニングおよび評価:AWS SageMakerを使用して6つの主要なMLOpsの質問を探求する

今回の記事は、'31の質問がフォーチュン500のML戦略を形作る' AWS SageMakerシリーズの一部です以前のブログ投稿「データの入手と調査」と「データ...」

「なぜ80%の企業のAI/ML導入が失敗するのか」

人工知能(AI)導入の失敗の背後にある理由とAI委員会の重要な役割を明らかにします企業における倫理的なAI統合のベストプラクティスを学んでください

「Amazon EUデザインと建設のためにAmazon SageMakerで動作する生成AIソリューション」

アマゾンEUデザイン・コンストラクション(Amazon D&C)チームは、ヨーロッパとMENA地域全体でアマゾン倉庫を設計・建設するエンジニアリングチームですプロジェクトの設計と展開のプロセスには、アマゾンとプロジェクト固有のガイドラインに関するエンジニアリング要件についての情報リクエスト(RFI)の多くの種類が含まれますこれらのリクエストは、基本ラインの取得から簡単なものから始まります [...]

MDauditは、AIを使用して医療関係者の収益結果を改善することを目指しています

MDauditは、7万以上の医療提供者と1,500以上の医療施設にクラウドベースの請求のコンプライアンスと収益の正確性を保証するソフトウェアサービス(SaaS)プラットフォームを提供しています健康関連のお客様が規制のコンプライアンスを保持し、収益を維持できるようにしていますトップ60以上の米国の医療ネットワークとの取り組みを行っているMDauditは、人工知能(AI)の能力を拡張する必要があります...

最速の道 AIを使用して手術室でがん細胞を分析するヘルスケアスタートアップ

医療機器会社のInvenio Imagingは、手術室で組織生検を評価することができる技術を開発しており、サンプル採取後すぐに、病理学研究所で数週間かかるであろう情報をわずか3分で提供します。 手術の生検では、医療専門家ががんなどの病気のために解析する細胞や組織のサンプルを取ります。治療室内のコンパクトなAI駆動の画像システムを通じて、Invenioは迅速な臨床的意思決定をサポートすることを目指しています。 シリコンバレー拠点のInvenioのテクノロジーチームのCTOであるChris Freudigerは、「この技術は生検や手術時に外科医が臨床的な意思決定を行うのを支援します。組織のサンプルにがん細胞が含まれているかどうかを迅速に評価でき、さらに、Invenioが開発しているAIモデルで分子診断を行い、数分で個別の医療治療を行うことができるかもしれません」と述べています。 より迅速な診断は、より迅速な治療を可能にします。特に、専門の病理学研究所からの生検結果が戻るまでの数週間の間に成長したり広がったりする可能性のある悪性腫瘍にとっては、特に重要です。 Invenioは、先進的なスタートアップ企業に技術的なサポートとAIプラットフォームのガイダンスを提供するプログラムであるNVIDIA Inceptionのメンバーです。同社は、NVIDIAのGPUとソフトウェアライブラリを使用して、AIのトレーニングと推論を加速させています。 がん治療におけるレーザー焦点 NIOレーザーイメージングシステムにより、新鮮な組織生検のイメージングが加速されます。 InvenioのNIOレーザーイメージングシステムは、新鮮な組織生検のイメージングを加速するデジタル病理学ツールです。これは、アメリカとヨーロッパで何千もの手術で使用されています。2021年には、欧州での規制承認のCEマークを受けました。 同社は、次世代イメージングシステムにNVIDIA Jetson OrinシリーズのエッジAIモジュールを採用する予定であり、NVIDIA TensorRT SDKによるほぼリアルタイムのAI推論を含むものとなります。 Chris Freudigerは、「私たちは、イメージングの能力の上にAIモデルの層を構築しており、医師に診断イメージだけでなく、彼らが見ているものの分析結果を提供します。NVIDIA Jetsonが提供するAIパフォーマンスにより、生検画像にどのようながん細胞が存在するかを迅速に判断することができるようになります」と述べています。 Invenioは、組織学データに基づいて、数千万のパラメータを持つニューラルネットワークをNVIDIA RTX A6000 GPUのクラスターを使用してトレーニングします。これらのモデルは、TensorFlowディープラーニングフレームワークを使用して開発され、NIOイメージングシステムで取得した画像でトレーニングされました。 Freudiger氏は、「RTX…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us