このAIニュースレターは、あなたが必要なもの全てです#58
This AI newsletter is all you need #58.
ルイによる今週のAIの出来事
今週、自然言語処理の領域以外でAIの2つの新しい進展を見ることができました。Meta AIの最新開発では、彼らのOpen Catalystシミュレーターアプリケーションの公開が行われ、デモとしてリリースされました。このアプリケーションはAIの力を利用して、触媒材料の反応性を驚異的なスピードで予測することができ、既存の手法をほぼ1000倍も上回る性能を発揮します。この技術は、コスト効率の良い材料の発見を大幅に加速する可能性があるとチームは考えています。材料科学はタンパク質(およびAlphaFold)に比べて機械学習にとってより複雑なテーマだと思いますが、同様のモデルが宇宙で興味深い材料を研究者にスクリーニングするのを支援するための潜在的な可能性を見出しています。さらに、将来的には超伝導体の探索に貢献するためのモデルのリリースも期待されています。今週はその分野での潜在的なブレイクスルーが焦点となっています!
もう一つの興奮する発表として、Googleがロボティクス・トランスフォーマー2(RT-2)モデルを発表しました。彼らはこれを世界初のビジョン・ランゲージ・アクション(VLA)モデルと呼んでいます。このネットワークは、ウェブから抽出したテキストと画像を使用してトレーニングを行い、少量のロボットのトレーニングデータを用いて直接ロボットのアクションを出力することができます。このモデルは「ゴミを捨てる」といった複雑な命令を理解する驚異的な能力を持っており、複雑な推論を行っています。例えば、バナナの皮は消費された後にゴミになることを認識し、明示的なタスクのトレーニングがなくてもゴミを廃棄するという概念を自律的に把握します。試験中、RT-2モデルは未知のシナリオでも性能が大幅に向上し、以前のバージョンの2倍の効果を発揮しました。
NLPの常に興奮するニュースに囲まれている中、今週はロボティクスと材料科学の分野で同様に刺激的な進展を目撃することができて新鮮です。NLPでの進歩と投資の波が他の分野の進歩を加速するのを喜んで見ています。
– ルイ・ピーターズ — Towards AIの共同設立者兼CEO
- 「UniDetectorであなたが望むものを検出しましょう」
- 「QLORAとは:効率的なファインチューニング手法で、メモリ使用量を削減し、単一の48GB GPUで65Bパラメーターモデルをファインチューニングできるだけでなく、完全な16ビットのファインチューニングタスクのパフォーマンスも保持します」
- 「LLMは強化学習を上回る- SPRINGと出会う LLM向けの革新的なプロンプティングフレームワークで、コンテキスト内での思考計画と推論を可能にするために設計されました」
最新ニュース
- 大型かつ強力なインストラクション・ファインチューン・モデル、フリーウィリーに会ってみよう
Stability AIとそのCarperAIラボは、Stable Beluga 1とその後継のStable Beluga 2(以前のコード名はフリーウィリー)をリリースしました。Stable Beluga 1は元のLLaMA 65B基盤モデルを活用し、Supervised Fine-Tune(SFT)技術を使用して微調整されています。同様に、Stable Beluga 2はLLaMA 2 70B基盤モデルを活用しています。どちらのモデルも非商用ライセンスで公開されています。
2. Stability AIがStable Diffusion XL 1.0を発表
Stability AIは、そのフラッグシップのテキストから画像への変換スイートであるStable Diffusion XL(SDXL)1.0のリリースを発表しました。SDXLは、驚異的な6.6兆パラメータのモデルアンサンブルパイプラインを持つオープンアクセスの画像モデルであり、色彩、コントラスト、照明、影の改善が著しく示されています。
3. Stack OverflowがOverflowAIを発表
Stack Overflowは、OverflowAIを通じてジェネレーティブAIをプラットフォームに統合しています。これにはベクトルデータベースを使用した意味検索とパーソナライズされた結果が含まれます。さらに、異なるプラットフォーム間での検索機能の強化や、Stack Overflow for Teams向けのエンタープライズ知識摂取機能の導入も行われています。
4. Bittensor Language Model(BTLM)のご紹介 – モバイルおよびエッジデバイス向けの最先端の30億パラメータモデル
Opentensor FoundationとCerebrasは、Bittensor Language Model(BTLM)を発表しました。このモデルは、AIのさまざまなベンチマークでの画期的な精度を実現する、新しい最先端の30億パラメータ言語モデルです。これは、限られたRAMを持つモバイルおよびエッジデバイスで効率的に動作し、中央集権化されたクラウドインフラストラクチャの必要性を減らします。
5. OpenAIが「低い精度率」のためAIによるテキスト検出器を廃止
OpenAIは、AIによるテキスト生成の検出において低い精度率を示したため、AI分類器を廃止することを決定しました。大規模な言語モデルの急速な開発により、効果的な特徴やパターンの識別が困難になっています。
5分間で学ぶための5つの読み物/ビデオ
- オープンソースLLMの歴史: ベースモデルの改善
この記事は、オープンソースLLMの歴史に関する3部作のうちの2部です。オープンソースLLMの初期、ベースモデルの改善の現在の革命、およびオープンソースLLMの現在と将来のトレンドなどについて取り上げています。
2. Gradioを使用した生成型AIアプリケーションの構築
Hugging FaceとDeepLearning.aiは、Gradioを使用した生成型AIアプリケーションの新しい短期コースを開講しました。このコースでは、テキスト要約から画像分析、画像生成までのプロジェクトを含む、オープンソースの言語モデルを使用したユーザーフレンドリーなアプリの作成に焦点を当てています。
3. たった50行でどんなデータセットにも適応できるAIチャート生成器を構築する
このチュートリアルは、自動化されたチャート生成器の開発についてのものです。このチュートリアルでは、GPT-3.5またはGPT-4とLangchainを使用して簡単にAIチャート生成器を作成することができます。わずか50行のコードしか必要ありません。
4. ウェブリサーチの自動化
この記事では、ウェブリサーチエージェントの開発について探求します。このアプローチでは、LLMを使用して検索クエリを生成し、検索を実行し、ページをスクレイピングし、ドキュメントをインデックス化し、各クエリに対して最も関連性の高い結果を見つけることを目指しています。
5. WhisperとGPT-4を使用した自動会議議事録生成ツールの作成
このガイドでは、WhisperとGPT-4を活用した会議議事録生成ツールの開発について探求します。議論を効率的に要約し、重要な詳細を抽出し、感情を分析するために、WhisperとGPT-4を活用しています。
論文とリポジトリ
- karpathy/llama2.c: 純粋なCの1つのファイルでLlama 2の推論を行う
Andrew Karpathy氏は、純粋なCでのLLaMA 2推論の教育用実装をリリースしました。このプロジェクトでは、PyTorchでLLaMA 2 LLMアーキテクチャをトレーニングし、その重みを効率的な推論のための単一のCファイルに読み込むことができます。
2. アラインされた言語モデルへの普遍的で移植可能な攻撃
最近の研究では、オープンソースおよびクローズドソースの言語モデルに対する攻撃の自動構築について探求しており、これにより有害なコマンドに対して脆弱になる可能性があります。これらの攻撃は、広く使用されているチャットボットにも移植されますが、これによりこれらの脆弱性の効果的な修正に関する懸念が高まっています。
3. FLASK: アラインメントスキルセットに基づく細かい粒度の言語モデル評価
この論文では、LLMのパフォーマンス評価に特化した評価プロトコルであるFLASKを紹介しています。これにより、論理的な堅牢性、事実性、理解力などの特定のスキルに基づいたモデルの詳細な分析が可能となります。
4. 計画、長い文脈理解、プログラム合成を備えた現実のウェブエージェント
WebAgentは、Flan-U-PaLMとHTML-T5を利用して、実際のウェブサイトでの自律的なウェブナビゲーションとタスク完了を向上させるために使用されるLLM駆動のエージェントです。指示を分解し、HTMLドキュメントを要約し、Pythonプログラムを生成することにより、以前のモデルと比較して成功率が50%向上します。
5. WebArena: 自律エージェントの構築に向けた現実的なウェブ環境
WebArenaは、電子商取引、ソーシャルフォーラム、ソフトウェア開発、コンテンツ管理に関連するタスクでスキルを向上させるための現実的なウェブ環境です。タスク完了の評価のためのベンチマークを提供し、GPT-4などの高度なモデルでも成功率がわずか10.59%であることを示しています。
これらの論文とニュースの概要を楽しんでいただけましたか?デイリーレキャップをメールで受け取ることもできます!
Learn AI Togetherコミュニティセクション!
AI4 2023:業界をリードするAIカンファレンス
ただのお知らせですが、AI業界をリードするAIカンファレンス「Ai4 2023」に参加しませんか?このカンファレンスは、2023年8月7日から9日までラスベガスのMGMグランドで開催されます。Ai4の成長が業界によるAIの採用と似ていることについて詳しく読んで、2200人以上のAIリーダー、240人のスピーカー、100の最先端のAI展示に参加しましょう。無料パスの申し込みもできます。
日程:2023年8月7日〜9日(ラスベガス、MGMグランド)
今週のミーム!
archiesnakeさんが共有したミームです。
Discordからの注目のコミュニティ投稿
Operandは、HF Agent APIやLangChainなどの既存のライブラリを補完するために設計されたオープンソースのPythonライブラリを共有しています。このライブラリを使用すると、アクション、コールバック、およびアクセスポリシーを定義することで、エージェントをソフトウェアシステムやユーザーと接続することができます。これにより、エージェントの統合、監視、および制御が容易になります。Agencyは通信の詳細を処理し、パーティ間でアクションの発見と呼び出しを可能にします。GitHubでチェックして、コミュニティメンバーをサポートしてください。フィードバックと使用方法をこちらのスレッドで共有してください。
今週のAI投票!
ディスコードでのディスカッションに参加しましょう。
TAIキュレーションセクション
今週の記事
LangChain 101: Part 1. Building Simple Q&A App by Ivan Reznikov
LangChainは、テキストを生成し、質問に答え、言語を翻訳し、その他のテキスト関連のタスクを実行するアプリケーションを作成するための強力なフレームワークです。この記事はLangChain 101コースのスタートを切ります。この記事から始めて、著者は概念、プラクティス、経験について説明しながら、独自のLangChainアプリケーションの作り方を紹介します。
必読記事
Modern NLP: A Detailed Overview. Part 3: BERT by Abhijit Roy
Forget 32K of GPT4: LongNet Has a Billion Token Context by Dr. Mandar Karhade, MD. Ph.D.
Graph Attention Networks Paper Explained With Illustration and PyTorch Implementation by Ebrahim Pichka
「Towards AI」と一緒に投稿に興味がある場合は、ガイドラインをチェックしてサインアップしてください。編集方針と基準を満たす場合、当社のネットワークであなたの作品を公開します。
求人情報
Software Engineer III (Drupal) @Clarity Innovations, Inc. (Remote)
Distributed Systems Software Engineer @INSHUR (Brighton, UK)
Intern — Software Engineering Interns — ACI 01 @Activate Interactive Pte Ltd (Singapore)
Machine Learning Engineer (Risk) @SHIELD (Singapore)
Machine Learning Engineer @Robotec.ai sp. z o.o. (Warsaw, Poland/ Freelancer)
Machine Learning Engineer, Fast Optimized Inference @Hugging Face (US Remote)
求人機会をこちらで共有したい場合は、[email protected]にご連絡ください。
次の機械学習の面接に備えている場合は、トップクラスの面接準備ウェブサイト、confettiをぜひチェックしてみてください!
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles