このAIニュースレターは、あなたが必要とするすべてです#71
「このAIビューティー&ファッション情報誌は、あなたの必要を叶える全てです#71」
アート・フィッシュの週間AIニュース
先週、ジョー・バイデン大統領は人工知能の監督を目的として、執行令に署名することでAI規制に再び注目を集めました。この指令により、さまざまな政府機関がAIの安全性、データプライバシー、サイバーセキュリティに関する新しいガイドラインの策定を求められます。注目すべき部分としては、プライバシー保護に関する研究に資金を充てることが含まれています。政府は明らかに、プライバシー、公正、市民権などの領域で規制を重視しています。ただし、この執行令は議会の支持がない限り、法的な効力を持ちません。今後の数か月間では、欧州連合からの取り組みが見られる可能性があり、中国からは既に厳格な規制が見られています。
このニュースは、Xで(以前のTwitter)大きな議論を引き起こしました。著名なAI研究者たちは、AI規制に対する懸念とオープンソースプロジェクトへの潜在的な悪影響についてコメントしました。アンドリュー・エンジ氏は「明らかにオープンソースと競合しなくて済む大手企業が存在します」とコメントしました。一方、メタの最高データサイエンティストであるヤン・ルクン氏は、「もし…恐怖を煽るキャンペーンが成功した場合、*避けられなく*小数の企業がAIを制御することになるでしょう」と述べました。AIのリスクを軽減し、大企業だけを優遇する壁を防ぐ正しいバランスを見つけることは困難であることが明らかです。
– ルイ・ピータース — Towards AIの共同創設者兼CEO
最新ニュース
アメリカ合衆国のジョー・バイデン大統領は、新たな執行令により、消費者、労働者、少数派グループ、および国家安全保障へのAIのリスクを減らすことを目指しています。一部のスタートアップはこの指令を歓迎しましたが、一部のCEOはそれが小規模企業に影響を与え、イノベーションを阻害する可能性に懸念を表明しました。
- 「カートゥーンアニメーションの未来を照らす:ラインドローイングインビトのイノベーション」
- 「NExT-GPT あらゆるモダリティに対応したマルチモーダル大規模言語モデル」の紹介
- 「ChatGPTのような大規模言語モデルによる自己説明は感情分析にどれほど効果的か?パフォーマンス、コスト、解釈可能性に迫る深い探求」
2. Jina AIが世界初のオープンソース8Kテキスト埋め込みを発表し、OpenAIに匹敵
Jina AIは、8Kの文脈長をサポートするオープンソースの埋め込みモデルであるjina-embeddings-v2を紹介しました。これは、MTEBリーダーボードの分類平均、再ランキング平均、検索平均、および要約平均など重要な領域でOpenAIの8Kモデルと同等の性能を持っています。
3. GoogleがAnthropicに最大20億ドルを投資する
GoogleはAIスタートアップのAnthropicに大口投資をすることを決め、最大20億ドルをAIスタートアップに予算化しました。Anthropicは、Slack、Notion、Quoraなどの企業で使用されているClaude 2というチャットボットの開発者です。
4. Anthropic、Google、Microsoft、およびOpenAIが新しいAI安全基金に1,000万ドル以上を投資することを発表
Anthropic、Google、Microsoft、およびOpenAIは、未来のAIモデルの責任ある安全な開発のための研究を促進するために、1,000万ドル以上を新しいAI安全基金に投資しました。この動きは、先進的なAIシステムがもたらす課題に対応するための業界全体の取り組みを象徴しています。
5. ChatGPTがアップグレードにより全機能を一つに統合
OpenAIは、ChatGPTの新バージョンを展開し始めました。このバージョンでは、選択肢を切り替える必要なく、Browsing、DALL-E 3、Data Analysisなどの全てのGPT-4機能にアクセスできます。このアップデートにより、複数のモードを切り替える必要なく、主要なインターフェース内ですべてのChatGPTの機能にアクセスできるようになりました。
5分で読める/見れるおすすめの記事/動画
このガイドでは、大規模言語モデル(LLM)の効果的な評価とベンチマークの方法について共有しています。パープレキシティ、その他の評価指標、およびLLMのパフォーマンスを比較するための厳選されたベンチマークについて詳しく学ぶことができます。また、ニーズやタスクに適したモデルを選択するための実用的なツールも提供しています。
このブログ記事では、LLMによって生成された出力の評価についていくつかの技術を紹介しています。また、ユーザーフィードバックや人間の注釈者などの技術や、LLMを使用した人間の評価方法の複製についても解説しています。
3. LLMチャットボットの動作:検索拡張生成(RAG)によるチャットの探索
この記事では、チャットボットの生成部分を構築することに焦点を当て、RAGによってLLMチャットボットを強化する方法について説明しています。RAGは、APIを外部データに接続して拡張生成を可能にするChatエンドポイントの重要なコンポーネントです。
この記事では、大規模言語モデルに逆さまの呪いが及ぼす影響について解説しています。人間とは異なり、LLMは情報の逆転を伴う質問にうまく答えることができない場合があります。さらに、LLMは人間の熟練度が高い領域で苦戦することが分かっています。
5. アリストテレスによると、ChatGPTは思考できるのでしょうか?
この投稿では、ChatGPTなどの大規模言語モデル(LLM)がアリストテレスの演繹法のような推論能力を持っているかという哲学的な問題について議論しています。具体的には、AIと哲学、特に論理的な推論の関係を探求しています。
論文とリポジトリ
QMoEは、SwitchTransformerなどの兆パラメータモデルを<1ビット/パラメータに圧縮する実用的な解決策です。精度の損失を最小限に抑えながら、20倍の圧縮率を実現し、手頃なハードウェア上で効率的に実行することができます。
2. JudgeLM:ファインチューニングされた大規模言語モデルはスケーラブルな判定者です
JudgeLMは、大規模言語モデルの評価を向上させるために、スケーラブルな判定者としてファインチューニングを行う手法です。データセットのコンパイルと拡張技術を使用することで、JudgeLMはバイアスに対処し、ベンチマークで優れたパフォーマンスを発揮します。人間の判断を凌駕し、さまざまな形式で優れた柔軟性を示します。
3. コントラスティブ・プリファレンス・ラーニング:強化学習なしで人間のフィードバックから学習する
コントラスティブ・プリファレンス・ラーニング(CPL)は、従来の強化学習手法を必要としない人間のフィードバックからの強化学習の新しいアプローチです。報酬ではなく後悔に焦点を当てることで、CPLは学習プロセスを簡素化し、高次元の強化学習に効果的に適用する可能性を持っています。
4. ConvNets Match Vision Transformers at Scale
Google DeepMindによる研究では、畳み込みニューラルネットワーク(ConvNets)とビジョン・トランスフォーマー(ViTs)を大規模な画像分類について比較しています。要約すると、同様のリソースが与えられた場合、ConvNetsとViTsは同様のパフォーマンスを発揮します。
5. HallusionBench:思うがままに見えますか?それとも見えるがままに思いますか?
HallusionBenchは、GPT4-VやLLaVA-1.5などのビジョン・ランゲージ・モデルでの言語妄想と視覚錯覚を研究するために設計された新しいベンチマークです。このベンチマークは、モデルが画像コンテキストを考慮して推論する能力を問い、ビジョンモジュールの潜在的な弱点を明らかにします。
これらの論文とニュースの要約を楽しんでいますか?毎日の要約を受け取る!
Learn AI Togetherコミュニティセクション!
週のミーム!
ミームシェア:rucha8062
Discordからの注目コミュニティ投稿
NYLeeは、LLMベースのアプリケーションパターンに対応する統一的でオープンで拡張可能なフレームワークであるLLMwarreを開発しました。このプロジェクトは、初心者から最も洗練されたAI開発者まで誰でも使用できる包括的なツールセットを提供します。これには、PDFおよびOfficeドキュメントの解析、テキストのチャンキング、Milvus、FAISS、またはPineconeを使用した埋め込みベクトル、ハイブリッド検索などが含まれます。GitHubで確認してサポートする。ここでフィードバックを共有してください!
週のAI投票!
TAIキュレーションセクション
今週の記事
YouTubeビデオ要約のためのAIアシスタントの作成完全ガイド — Part 1 by Amin Kamali
この記事は、YouTubeビデオを要約するためのAIアシスタントをステップバイステップで構築するための3つのブログ記事のうちの1つです。OpenAIのWhisperを使用してYouTubeビデオのトランスクリプトをキャプチャするための詳細な手順から始め、Langchainを使用したテキスト要約、GradioとHugging Face Spacesを使用した解決プロトタイプのデモンストレーションまでを説明しています。
必読の記事
順序の重要性: AIが逆転に苦労する理由 by Salvatore Raieli
Pythonで完全に理解するElasticNet回帰 by Amit Chauhan
もしTowards AIでの出版に興味がある場合は、ガイドラインをチェックしてサインアップしてください。編集方針と基準を満たす場合、私たちはあなたの作品を私たちのネットワークで公開します。
求人情報
Jr. Machine Learning Engineer @ BreederDAO(リモート)
Machine Learning Engineer @ CloudHire(リモート)
Machine Learning/AI Engineer @ Imagine.io(リモート)
AI Machine Learning Scientist @ PayPal(サンノゼ、CA、米国)
エシカルレッドチーマー – セールスフォース(リモート)でのコンピュータビジョン
サマー2024インターンシップ – データサイエンス、データ&アナリティクス(リモート)@セールスフォース
ソリューションアーキテクト、LLM @ NVIDIA(リモート)
ここで求人の機会を共有したい場合は、[email protected] にご連絡ください。
次の機械学習のインタビューの準備をしている場合は、ぜひ私たちのリーディングインタビュー準備のウェブサイト confetti をチェックしてください!
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- ニューラルネットワークにおける系統的組み合わせ可能性の解除:組み合わせ可能性のためのメタラーニング(MLC)アプローチによるブレイクスルー
- 「ULTRAに会おう:あらゆるグラフで機能する事前学習済みの知識グラフ推論用基礎モデルで、50以上のグラフで教師あり最先端モデルを上回るパフォーマンスを発揮します」
- 「Amazon Bedrockへのプライベートアクセスを設定するために、AWS PrivateLinkを使用してください」
- 「Amazon SageMaker JumpStartを使用して、2行のコードでファウンデーションモデルを展開して微調整する」
- Pythonでの機械学習のためのテキストの前処理−自然言語処理
- 「Xenovaのテキスト読み上げクライアントツール:自然な音声合成を実現する頑強で柔軟なAIプラットフォーム」
- 「機械学習手法を用いたJava静的解析ツールレポートのトリアージに関する研究」