Learn more about Search Results Tome - Page 5
- You may be interested
- スケールにおけるトランスフォーマーの最...
- データサイエンスにおけるツールに依存し...
- CommonCanvasをご紹介します:クリエイテ...
- 「木々の中の森を見る:データ保存は鋭い...
- 基本に戻る週3:機械学習の紹介
- 「トランスフォーマーは長い入力をどのよ...
- 「ODSC Europe 2023の写真とハイライト」
- 「キャンドルとファルコン:Rustでの大規...
- 「コーネリスネットワークスのソフトウェ...
- 「5分でPythonとTkinterを使用してシンプ...
- 「GPTからMistral-7Bへ:AI会話のエキサイ...
- 「ソフトウェアテストの革命化」
- 「ターシャーに会ってください:GPT4のよ...
- WAYVE社がGAIA-1を発表:ビデオ、テキスト...
- 「DeepMindからスタートアップの成功へ:A...
一緒にAIを学ぶ- Towards AIコミュニティニュースレター#3
おはようございます、AI愛好家のみなさん!今週のポッドキャストエピソードをシェアできることをとても嬉しく思います今回は、AIの分野で有名なキーパーソンであるKen Jeeさんとの対談ですKenさんのデータサイエンスへの道のりは非常にインスピレーションに満ちています...
データサイエンスプロジェクトにおけるGitHubのトップ5の代替案
「このブログでは、GitHubが提供する以上の大規模データセット、モデル、ワークフロー、およびコラボレーションの専門的な機能を持つデータサイエンティスト向けに設計された5つのプラットフォームについて議論しています」
新しいツールと機能の発表:責任あるAIイノベーションを可能にする
生成AIの急速な成長は、有望な新しいイノベーションをもたらし、同時に新たな課題も引き起こしていますこれらの課題には、生成AI以前から存在したバイアスや説明可能性などの共通のものだけでなく、基盤モデル(FMs)に固有のものも含まれますこれには、幻覚や有害性などが含まれますAWSでは、責任を持って生成AIの開発に取り組んでいます[…]
「OpenAIモデルに対するオープンソースの代替手段の探索」
序文 AIの領域では、11月はドラマチックな展開がありました。GPTストアやGPT-4-turboのローンチ、そしてOpenAIの騒動まで、まさに忙しい一ヶ月でした。しかし、ここで重要な問題が浮かび上がります:クローズドモデルとその背後にいる人々はどれだけ信頼できるのでしょうか?自分が実際に運用しているモデルが内部の企業ドラマに巻き込まれて動作停止するのは快適な体験とは言えません。これはオープンソースモデルでは起こらない問題です。展開するモデルには完全な管理権限があります。データとモデルの両方に対して主権を持っています。しかし、OSモデルをGPTと置き換えることは可能でしょうか?幸いなことに、既に多くのオープンソースモデルが、GPT-3.5モデル以上の性能を発揮しています。本記事では、オープンソースのLLM(Large Language Models)およびLMM(Large Multi-modal Models)の最高の代替品をいくつか紹介します。 学習目標 オープンソースの大規模言語モデルについての議論。 最新のオープンソース言語モデルとマルチモーダルモデルについての探求。 大規模言語モデルを量子化するための簡易な導入。 LLMをローカルおよびクラウド上で実行するためのツールやサービスについて学ぶ。 この記事は、データサイエンスブログマラソンの一環として公開されました。 オープンソースモデルとは何ですか モデルがオープンソースと呼ばれるのは、モデルの重みとアーキテクチャが自由に利用できる状態にあるからです。これらの重みは、例えばMeta’s Llamaのような大規模言語モデルの事前訓練パラメータです。これらは通常、ファインチューニングされていないベースモデルやバニラモデルです。誰でもこれらのモデルを使用し、カスタムデータでファインチューニングして下流のアクションを実行することができます。 しかし、それらはオープンなのでしょうか?データはどうなっているのでしょうか?多くの研究所は、著作権に関する懸念やデータの機密性の問題などの理由から、ベースモデルの訓練データを公開しません。これはまた、モデルのライセンスに関する部分にも関連しています。すべてのオープンソースモデルは、他のオープンソースソフトウェアと同様のライセンスが付属しています。Llama-1などの多くのベースモデルは非商用ライセンスとなっており、これらのモデルを利用して収益を上げることはできません。しかし、Mistral7BやZephyr7Bなどのモデルは、Apache-2.0やMITライセンスが付属しており、どこでも問題なく使用することができます。 オープンソースの代替品 Llamaのローンチ以来、オープンソースの領域ではOpenAIモデルに追いつこうとする競争が繰り広げられています。そしてその結果は今までにないものでした。GPT-3.5のローンチからわずか1年で、より少ないパラメータでGPT-3.5と同等またはそれ以上のパフォーマンスを発揮するモデルが登場しました。しかし、GPT-4は依然として理性や数学からコード生成までの一般的なタスクには最も優れたモデルです。オープンソースモデルのイノベーションと資金調達のペースを見ると、GPT-4のパフォーマンスに近づくモデルが間もなく登場するでしょう。とりあえず、これらのモデルの素晴らしいオープンソースの代替品について話しましょう。 Meta’s Llama 2 Metaは今年7月にLlama-2という彼らの最高のモデルをリリースし、その印象的な能力により一瞬で人気を集めました。MetaはLlama-7b、Llama-13b、Llama-34b、Llama-70bの4つの異なるパラメータサイズのLlama-2モデルをリリースしました。これらのモデルは、それぞれのカテゴリにおいて他のオープンモデルを上回る性能を発揮しました。しかし、現在ではmistral-7bやZephyr-7bのような複数のモデルが、多くのベンチマークで小さなLlamaモデルを上回る性能を発揮しています。Llama-2 70bはまだそのカテゴリーで最高のモデルの一つであり、要約や機械翻訳などのタスクにおいてGPT-4の代替モデルとして価値があります。 Llama-2はGPT-3.5よりも多くのベンチマークで優れたパフォーマンスを発揮し、GPT-4に迫ることもできました。以下のグラフは、AnyscaleによるLlamaとGPTモデルのパフォーマンス比較です。…
「Amazon SageMaker Canvasを使用したノーコードでSalesforce Data CloudでのMLの民主化」
この記事はSalesforce Einstein AIの製品ディレクターであるダリル・マーティスと共同執筆ですこれはSalesforce Data CloudとAmazon SageMakerの統合について議論するシリーズの3回目の投稿ですパート1とパート2では、Salesforce Data CloudとEinstein StudioのSageMakerとの統合によって、企業が自分たちのデータにアクセスすることができる方法を示しています
AWS AIサービスの能力がFMによって強化されました
「人工知能(AI)は、私たちがビジネスを行い、顧客にサービスを提供する方法を変革し続けていますAWSは、アプリケーションに即座に使用できる知能を提供する事前学習されたAIサービスの範囲を提供していますこの記事では、新しいAIサービスの機能と、それらがファウンデーションモデル(FM)を使用してどのように強化されるかについて探求します以下の主要なアップデートに焦点を当てます[...]」
Amazon Lexの新しい生成AI機能で、セルフサービスアシスタントを向上させましょう
この投稿では、生成AIが会話型AI業界を変えて、新しい顧客とボットビルダーの体験を提供し、これらの進歩を活用するアマゾンレックスの新機能についてお話しします会話型AIの需要がさらに高まる中、開発者は人間のような対話体験を持つチャットボットを向上させる方法を求めています
Amazon Transcribeは、100以上の言語に対応する新しいスピーチ基礎モデル搭載のASRシステムを発表しました
アマゾン・トランスクライブは、完全に管理された自動音声認識(ASR)サービスであり、アプリケーションに音声からテキストへの機能を追加することが簡単になります本日、私たちは次世代の数十億パラメータ音声基礎モデル駆動のシステムを発表し、自動音声認識を100以上の言語に拡張することをうれしく思いますこの記事では、いくつかの話題について説明します
中国のこのAI研究は、AIの幻覚を探求する:大型言語モデルにおける幻視に深く潜る
大型言語モデルは最近、自然言語処理におけるパラダイムの変化をもたらし、以前には考えられなかった言語の創造、理解、推論の進歩をもたらしました。しかし、LLMの急速な発展と共に共起する懸念すべき傾向は、信憑性があるように思える情報を誘発し、事実の裏付けがないというものです。現在の幻覚の定義は、それらが与えられたソースコンテンツに対して不合理であるかまたは不忠実であると説明しており、以前の研究と一致しています。元の素材との不一致の程度に基づいて、これらの幻覚は内在的な幻覚と外在的な幻覚のカテゴリーにさらに分けられます。 タスク固有のバリアントが存在しますが、このカテゴリはいくつかの自然言語生成の仕事で共有されています。タスク固有のモデルと比較して、LLMはその優れた適応性と優れた性能のため、特にオープンドメインの応用において、幻覚を引き起こす可能性が高いです。LLM内では、幻覚は事実の不正確さに主眼を置いたより広範かつ包括的な概念であり、その幻覚タクソノミーはLLMの進化に合わせて関連性と柔軟性を向上させるために修正する必要があります。中国の哈爾滨工业大学と Huawei の研究チームがこの研究で幻想的なタクソノミーを再分類し、LLMの応用により専門化された基盤を提供しています。 彼らは幻覚を主に2つのカテゴリに分けています:忠実度幻覚と事実性幻覚。事実性の幻覚では、作成されたコンテンツと検証された現実世界の事実との違いに重点が置かれます;これらの違いは通常、でっち上げや事実の不一致として現れます。例えば、図1に示すように、月に初めて足を踏み入れた人物に関する質問に対して、モデルは1951年にチャールズ・リンドバーグがそうしたと自信を持って回答するでしょう。しかし、1969年のアポロ11号のミッションにより、ニール・アームストロングが初めて月に足を踏み入れました。一方、「信頼性の幻想」は生成されたコンテンツがユーザーの指示や入力の文脈からの不一致や離反を表す用語です。 図1に見られるように、ニュースストーリーを説明するように求められた際にイスラエルとハマスの対立に関する出来事の日付を間違ってしまい、2023年10月を2006年10月と誤解するモデルが生成しました。彼らはまた、事実性を検証可能なソースの存在に応じて、事実の不一致と事実のでっち上げの2つのサブカテゴリに細分化しています。彼らはユーザーの視点から不一致を解消することに重点を置き、論理的な、文脈的な、指示的な不一致に分類しています。これにより、現在のLLMの使用方法により一致するようになりました。これはNLGのタスクの文脈で調査されてきましたが、幻覚の根本的な原因は最新のLLMにとって特別な困難をもたらし、さらなる研究が必要です。 図1:LLMの幻覚を自然な形で示したイラスト 彼らの徹底的な調査は、LLMにおける幻覚の特定の原因に焦点を当てており、トレーニングやデータから推論フェーズまで、幅広い関連要素を扱っています。この枠組みの中で、不十分なソースや未活用のリソース、不十分なトレーニング戦略による事前トレーニングやアライメントの幻覚、および推論中の確率的デコーディング手法や不正確な表現に起因する幻覚など、データ関連の原因が考えられます。 さらに、彼らはLLMにおける幻覚を特定するための効率的な検出技術の詳細な説明と、LLMの幻覚の度合いを評価するためのベンチマークの包括的な概要を提供しています。また、幻覚の認識源を軽減するために設計された徹底的な戦術も提供しています。彼らは、この研究がLLMの分野をさらに発展させ、LLMの幻覚に関連する潜在的な利点と困難についての洞察を提供することを期待しています。この調査により、既存のLLMの欠点に対する理解が改善され、さらなる研究とより信頼性のある強力なLLMの作成に向けた重要な方向性も提供されます。
「SnapLogicがAmazon Bedrockを使用してテキストからパイプラインアプリケーションを構築し、ビジネスの意図を行動に変換します」
この投稿は、SnapLogicのChief ScientistであるGreg Benson、Sr. Product ManagerであるAaron Kesler、Enterprise Solutions ArchitectであるRich Dillと共同で執筆されました多くのお客様がAmazon BedrockとAmazon CodeWhisperer上で生成型AIアプリを構築し、自然言語に基づくコードアーティファクトを作成していますこのユースケースでは、大規模な言語モデル(LLM)がどのようにして[…]を行っているかを強調しています
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.