「ODSC West 2023に参加すべき10の言語モデルセッション」
「ODSC West 2023で参加したい10の言語モデルセッション」
今年、LLMsとGenerative AIは業界だけでなく日常生活でも主導権を握りました。10月30日から11月2日にかけて開催されるODSC Westでは、この変化によってもたらされた新しいテクノロジーやアプリケーション、必要とされるスキルに備えることを目標にしています。カンファレンスでは、実践的なトレーニングセッション、ワークショップ、LLMs、Generative AI、およびプロンプトエンジニアリングに関するトークが用意されています。以下は一部のセッションです。
Feature Storeを用いたLLMsの個別化
Jim Dowling | CEO | Hopsworks
- 「ユーザーの入力、プロンプト、および応答のシーケンスを理解する大型言語モデルを活用した対話型アプリケーション」
- 新興の脅威:言語モデルの時代におけるアプリケーションのセキュリティ確保
- LMSYS-Chat-1Mとは、25の最新のLLM(Large Language Models)を使用して作成された、100万件の実世界の会話を含む大規模データセットです
このセッションでは、Feature Storeとプロンプトエンジニアリングを使用してLLMsを個別化する方法を紹介します。Hopsworksを使用したサーバーレスで個別化されたLLMアプリケーションの作成方法、プロンプトのテンプレートの作成方法、リアルタイムのコンテキストデータでプロンプトテンプレートを埋める方法、およびベクトルデータベースからのドキュメントをプロンプトに組み込む方法について説明します。
大規模言語モデルの評価技術
Rajiv Shah, PhD | Machine Learning Engineer | Hugging Face
ニーズに合ったLLMを選択することはますます複雑になりました。このチュートリアルでは、評価やLLMの選択のための実践的なツールやベストプラクティスについて学びます。
小規模な従来のMLモデルとの能力の比較や、EleutherAI Harnessなどの評価スイート、ヘッド対ヘッド競争手法、LLMsを評価するためのLLMsの使用など、さまざまな手法について探求します。最後に、プロンプト、トークン化、事実の正確さの要件、モデルのバイアスと倫理など、評価に影響を与える微妙な要因に触れます。
オープンソースのツールとLLMsを使用したエキスパートな質問応答ボットの作成
Chris Hoge | Head of Community | Heartex
LLMsは世界の「理解」に加えて、理解や制御が難しいバイアスも引き継いでいます。これらの問題は、実世界のアプリケーションで取り組む際に解決する必要があります。このセッションでは、Label Studio、LangChain、Chroma、Gradioを使用した持続的な改善のためのツールとして、質問応答(QA)システムの構築方法について探求します。
大規模モデルのランドスケープの理解
Lukas Biewald | CEO and Co-founder | Weights & Biases
GPT-3からStable Diffusionまでの大規模モデルの現在の状況を探るために、このセッションに参加しましょう。また、いくつかのオープンソースプロジェクトのチームが、W&Bを使用して作業を加速させている方法についても議論します。
ジョイントシステム最適化を用いたオープンソース大規模モデルの緻密チューニングを民主化する
Kabir Nagrecha | PhD Student | UC San Diego
このセッションでは、Saturnの基本アイデア、ランタイムとコストを削減するためのSaturnの技術的な動作方法、および大規模モデルのチューニングにSaturnを使用するプロセスについて概説します。わずかなコードでSaturnが大規模モデルのワークロードを加速し最適化する方法、産業界や学界における高付加価値の実世界のユースケースも説明します。
LlamaIndexを使用したデータ上のLLMパワーを持つ知識労働者の構築
Jerry Liu | Co-founder and CEO | LlamaIndex
LLMsは、検索、インタラクション、新しいコンテンツの生成において、新たな方法を提供します。このセッションでは、LlamaIndexがLLMパワードの検索・検索システムの構築、およびより洗練された方法でデータソースとのインターフェースを行う自動化された知識労働者を作成する方法について説明します。このワークショップでは、シンプルなQAボットと自動化されたワークフローエージェントの両方を構築する方法を確認することができます。
データ2vecを使用した一般的で効率的な自己教師あり学習
Michael Auli | FAIRの主任研究員 | Meta AIのディレクター
このセッションでは、データ2vecについて探求します。データ2vecは、音声、NLP、またはコンピュータビジョンのいずれにも同じ学習方法を使用する一般的な自己教師付き学習のフレームワークです。ワード、視覚トークン、または局所的な人の話し言葉の単位など、モダリティに特化したターゲットを予測するのではなく、data2vecはコンテキストに基づいた潜在表現を予測し、入力全体から情報を含んでいます。音声認識、画像分類、自然言語理解の主要なベンチマークでの実験は、従来のアプローチと比較して、最新の性能や競争力のある性能を示しています。
解釈可能で言語非依存のLLM
Walid S. Saba | ノースイースタン大学・経験的AI研究所・シニアリサーチサイエンティスト
真の言語理解と説明可能性の課題に対処するために、このセッションでは、象徴的表現の強さと大規模な言語のボトムアップ逆工学が組み合わさることを探求します。このプロジェクトがどのように達成されるかについて、複数の著者によって示唆されているヒントを詳しく議論します。
デモやプロトタイプを超えて:オープンソースLLMを使用して本番用アプリケーションを構築する方法
Suhas Pai | Bedrock AI・最高技術責任者
このワークショップでは、オープンソースLLMの範囲を探求し、本番用アプリケーションを効果的に構築するための手引書を提供します。タスクに最適なLLMを選ぶ方法、LLMを関心領域に適応させるためのいくつかの微調整技術、推論の制約、幻覚、バイアス、公正性の問題に対処する技術について学びます。
大規模言語モデル-一般的な落とし穴と課題
Nils Reimers | Cohere.ai・機械学習ディレクター
このセッションでは、大規模言語モデル(LLM)をセマンティックサーチを介してデータに接続する方法について紹介します。多くの落とし穴や課題に焦点を当て、適切な技術を使用することで解決できるものと、まだ未解決の課題について議論します。
参加希望の方はこちら!
LLM、Generative AI、機械学習、NLP、ディープラーニング、データエンジニアリングなどを専門家によるセッションで学びたい方は、数週間後のODSC Westに参加しましょう。金曜日までの40%オフセールをお見逃しなく、今すぐ登録してください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles