このAIニュースレターは、あなたが必要とするすべてです #55

このAIニュースレターは、必要とするすべてです #55

今週のAIニュース by ルイ

今週、私たちはついにOpen AIのCode Interpreterをテストする機会を得て、GPT-4内の新機能であるCode Interpreterに興奮しました。OpenAIは、次の4年間でスーパーアライメントを達成するために専門チームを設立する計画を明らかにするなど、他の発表でも活発な活動をしていました。

初期のアルファ版リリースの後、コーディングおよびデータの可視化機能を備えたCode Interpreter機能は、現在、すべてのChatGPT Plusユーザー向けにベータ版モードで利用可能です。Code Interpreterは、データ分析、グラフ作成、ファイルのアップロードと編集、数学的な演算、コードの実行など、さまざまな機能を備えたChatGPTを強化します。

Code Interpreterの使用は、ほとんどのユースケースにおいて比較的簡単ですが、特にアナリストとしてアプローチした場合にはさらに簡単です。ZIPアーカイブなどの圧縮ファイルを含むデータは、プラスボタンをクリックするだけで簡単にアップロードすることができます。初期のプロンプトは最小限にすることができ、AIはコンテキストからデータの意味と構造を理解することに優れています。ロードされると、AIはデータのマージや洗練されたデータのクリーニングなどのタスクを自動的に処理します。Ethan Mollickは、Code Interpreterの多くの興味深いユースケースを彼のTwitterとこのブログで文書化しています。特に強力なのは、間違い(コードの実行に失敗したため)を認識し、モデルがそれを修正するために反復する能力です。

この機能は、データ分析や可視化、トレンドの特定、トピックの分析、エンゲージメントのパターンの調査、SEOの最適化、KPIの分析、ビデオの作成、さらには機械学習のデータセットやモデルの構築など、さまざまなユニークなアプリケーションに使用することができます。Code Interpreterへのアクセスが拡大するにつれて、可能性も広がっています。ChatGPTへの関心が減退している兆候が最近見られました(APIを介してGPT-TurboとGPT-4が他の地域でより広く展開されているとの報告があるものの)、そのため、この新機能はOpenAIにとって良いタイミングで登場しています。

私たちは、Code InterpreterがLLM(Language Model)からさらに多くの機能を引き出し、基本的なデータ分析のコストと参入障壁を大幅に削減する可能性があると考えています。ただし、適切な質問をするための人間の監視と人間の想像力は依然として必要です。LLMには、作業に役立つより強力なツールが与えられるにつれて、この方向性でさらなる進歩が期待されます。

他のAIニュースでは、10月に紹介した教育スタートアップのKinnuが650万ドルの資金調達を成功させました。Kinnuは、主に成人の愛好家の学習者を対象にし、AIを活用して各個人の学習コンテンツを最適化しています。「私たちは常に、ほとんどのオンライン教育の提供が従来の学校教育の最悪の側面を拡大しているということを奇妙に思っていました」と、Kinnuの共同創設者兼CEOであるクリストファー・カーラー氏は述べています。「AIを活用した学習が人間の学習のペースを加速することに重点を置いた可能性が大きいと考えています。」私たちはKinnuの進歩に大いに喜んでおり、AIが教育の向上に貢献する可能性についても同意しています。

– ルイ・ピーターズ — Towards AI共同創設者兼CEO

注目のニュース

  1. スーパーアライメントの導入

OpenAIは、高度な知能を持つAIシステムが人間の意図と整合するために、科学的および技術的なブレークスルーが必要であるというスーパーアライメントの概念を導入しました。組織は、革新的なガバナンス機関の確立や、この整合性を達成するための新しいアプローチの探求の重要性を強調しています。

2. MinerがクリプトからAIへのGPUを3万8000台転換

クリプトマイニング企業であるHive Blockchainは、EthereumのマイニングからAIのワークロードに焦点を変えています。彼らは3万8000台のGPUを手に入れ、一部のGPUパワーをクリプトマイニングに使用しながら収益を生み出す意向です。ただし、AIコンピューティングへの移行には課題があり、古いETHマイニングGPUはこの市場での価値が限られています。

3. AWSが1億ドルの生成型AIイノベーションセンターを立ち上げ

AWSは、生成型AIの進展に大きな投資を発表しました。1億ドルのコミットメントを持つ新設されたAWS Generative AI Innovation Centerは、世界中の顧客やパートナーが生成型AIの潜在能力を引き出すのを支援することを目指しています。このイノベーションセンターは、すでにHighspot、Lonely Planet、Ryanair、Twilioなどの企業と協力して生成型AIソリューションに取り組んでいます。

4. Googleの医療AIチャットボットがすでに病院でテストされています

GoogleのMed-PaLM 2は、医療情報に関する回答を提供するために開発されたAIツールで、Mayo Clinicの研究病院でテストされました。言語モデルPaLM 2のバリアントであるMed-PaLM 2は、推論、コンセンサスに基づく回答の提供、理解などの面で有望な結果を示していますが、一部の精度の問題が残っています。

5. アリババがテキストから画像を生成するためのA.I.ツールを発表

中国のテクノロジージャイアント、アリババは、Tongyi Wanxiangという人工知能ツールを発表しました。このツールは、提示された情報から画像を生成することができます。ユーザーは、マンダリンと英語の両方で情報を入力し、2Dイラスト、スケッチ、3Dアニメーションなど、さまざまなスタイルの画像を生成することができます。

学び続けるための5つの5分間の読み物/動画

  1. スケールにおける量子化の興味深い特性

最近の研究によると、大規模言語モデルの事後トレーニング量子化(PTQ)の品質は、事前トレーニングのハイパーパラメータに強く影響されることが明らかになりました。この研究では、重み減衰、勾配クリッピング、データ型の選択などの最適化の選択肢がPTQのパフォーマンスに重要な影響を与えることを示しており、float16とbfloat16には特に影響があります。この研究は、頑健な言語モデルの開発における最適化の選択肢の重要性を強調しています。

2. 次のプロジェクトに最適な機械学習用の最高のGPU

この記事では、機械学習におけるGPUの利用の増加を強調し、AIアプリケーションに最適なGPUを選ぶためのガイドを提供しています。互換性やメモリ容量などの重要な要素を考慮することを示し、Titan RTXやTesla V100などのNVIDIAのトップGPUオプションや、EVGA GeForce GTX 1080やAMD Radeon GPUなどのコスト効果の高い代替品を紹介しています。

3. AIの重みは「オープンソース」ではありません

この記事では、AIモデルの重みとそのオープンソースでの利用可能性について掘り下げています。AIモデルのソースコードはオープンであるかもしれませんが、実際の学習知識を含む重みは一般的にオープンに共有されていないと主張しています。これには知的財産、プライバシー、商業利益などの様々な理由が関係しています。

4. 人工知能用語集:知っておく必要のある60以上の用語

AIは急速に成長しており、それに関する認識のレベルも異なります。この用語集は、AIに初めて触れる人や参照や語彙の復習を求める人のためのリソースとして役立つことを目指しています。

5. ChatGPTでCode Interpreterを使い始める

この記事では、Ethan Mollick氏がTwitterでCode Interpreterのさまざまな興味深いユースケースを文書化しています。また、その特徴や使用方法なども紹介しています。

論文とリポジトリ

  1. 大規模言語モデルの評価に関する調査

この記事では、言語モデルの評価方法について包括的なレビューを提供しています。評価すべき内容(推論、倫理、アプリケーションなどのさまざまな側面)や評価する場所(一般的なベンチマークと特定のベンチマーク)などに焦点を当て、人間の評価と自動評価の比較など、評価方法についても触れています。

2. 脳のEEG信号から高品質の画像を生成するDreamDiffusion

この論文は、脳の脳波(EEG)信号を直接的に文字に変換する必要なく、高品質の画像を生成するための新しい手法であるDreamDiffusionを紹介しています。事前トレーニングされたモデルと高度な信号モデリング技術を使用することで、情報の制限やノイズなどの課題に対処します。

3. LongNet:1,000,000,000トークンにスケーリングするTransformer

この研究では、短いシーケンスのパフォーマンスを損なうことなく、シーケンスの長さを10億トークン以上までスケーリングすることができるTransformerの派生版であるLongNetを紹介しています。ダイレーションアテンションを使用して、より長いシーケンスを効率的に処理する一方、短いシーケンスでのパフォーマンスを維持します。この技術を使用することの主な利点の1つは、既存の最適化手法との互換性です。既に使用されている他の方法とシームレスに統合され、最適化のための選択肢の範囲を拡大します。

4. 再帰の呪い:生成データでトレーニングするとモデルが忘れる

研究者たちは、他のモデルからのコンテンツを使用してモデルをトレーニングする際に、元のコンテンツ分布が消失する「モデル崩壊」について探求しています。この現象は、LLM、変分オートエンコーダ、ガウス混合モデルに影響を与え、ウェブから収集されたデータの利点を維持するために、本物の人間の相互作用からのデータを理解し保持する必要性を強調しています。

5. ChatLaw:統合された外部知識ベースを備えたオープンソースの法律言語モデル

ChatLawは、中国の法的領域に特化したオープンソースの法的言語モデルです。ベクトルとキーワードの検索技術の組み合わせを利用して、データの取得中にモデルの幻覚を解消するため、より正確な応答を実現します。参照データにおける正確性と信頼性を向上させるためにセルフアテンションが使用されています。

これらの論文とニュースの要約を楽しんでいただけましたか?毎日の要約をメールで受け取ることもできます!

Learn AI Togetherコミュニティセクション!

週刊AIポッドキャスト

今週の「What’s AI」ポッドキャストのエピソードでは、ルイ・ブシャールがDeepMindの研究科学者であり、ケンブリッジ大学の非常勤講師でもあるペタル・ヴェリチコビッチ氏とインタビューを行っています。ペタルはPh.D.の価値について洞察を共有し、研究へのゲートウェイとしての役割や、つながりを築く機会、適応性を提供する重要性を強調しています。また、多様なバックグラウンドや貢献の重要性を強調しながら、AI研究の進化する風景にも触れています。このインタビューでは、学術と産業の比較、研究科学者の役割、DeepMindでの仕事、教育、影響力のある研究を推進する好奇心の重要性について貴重な視点を提供しています。AI研究に興味がある方は、YouTube、Spotify、またはApple Podcastsで聴いてみてください!

今週のミーム!

mrobinoさんが共有したミーム

Discordの注目コミュニティ投稿

weaver159#1651さんが最近、MetisFLという新しいプロジェクトを紹介しました。これは、開発者が分散データシロにわたる機械学習ワークフローを容易に連携させ、モデルをトレーニングするためのフェデレーテッドラーニングフレームワークです。このフレームワークのコアはC++で書かれており、拡張性、速度、耐障害性を重視しています。現在、このプロジェクトはプライベートな実験バージョンからパブリックベータフェーズに移行しています。GitHubでチェックし、コミュニティメンバーをサポートしましょう。このプロジェクトについての意見をスレッドで共有してください。

今週のAIアンケート!

ディスカッションに参加するためには、Discordに参加してください。

TAIの厳選セクション

今週の記事

SQLクエリのためのGPT-4よりも優れたNSQL(完全オープンソース) by Dr. Mandar Karhade, MD. PhD.

SQLはまだ最も一般的に使用されている言語です。大規模な言語モデルに質問してSQLクエリを書くことができたら素晴らしいですよね。それによって、ほとんどの人が会社で洞察を手に入れることができ、アクセスが民主化されるでしょう。この記事では、SQL生成タスクに特化した新しいオープンソースの大規模基盤モデル(FM)であるNSQLについて著者が語っています。

必読記事

分類メトリクスを明確に説明! by Jose D. Hernandez-Betancur

データインサイトを解き放て:強力な分析のためのAIマスタリー by Amit Kumar

Salesforce XGen-7Bによる完全オープンソース基盤モデルに会いましょう by Dr. Mandar Karhade, MD. PhD.

Towards AIでの公開を希望する場合は、ガイドラインをご確認の上、サインアップしてください。編集ポリシーと基準を満たしていれば、当社のネットワークにあなたの作品を公開します。

求人情報

Data Architect @ShyftLabs(カナダ、トロント)

Machine Learning Specialist — Legal Systems @Uni Systems(ベルギー、ブリュッセル)

Graphics AI Research Developer @Plain Concepts(リモート)

Data Engineer @Tomorrow(フリーランス/ルーマニア)

Growth Manager, Data & Analytics @WillowTree(リモート)

Client Platform Engineer @Chainalysis(リモート)

Intern — Software Engineering Interns — ACST @Activate Interactive Pte Ltd(シンガポール)

ここで求人情報を共有したい場合は、[email protected] までご連絡ください。

次の機械学習の面接に備えている場合は、トップの面接準備ウェブサイト、confettiをぜひご覧ください!

https://www.confetti.ai/

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

コンピュータサイエンス

「アリババは、量子コンピューティングよりもこれを優先します」

中国のテック巨人であるアリババは最近、量子コンピューティング部門を廃止するという戦略的な重点の大幅な転換を発表しまし...

AI研究

「Microsoftの研究者がPIT(Permutation Invariant Transformation)を提案:動的まばらさのためのディープラーニングコンパイラ」

“`html 最近、深層学習は動的スパース性に最適化されたモデルの研究によって注目されています。このシナリオでは、スパ...

AI研究

CMUの研究者がMultiModal Graph Learning(MMGL)を導入「複数の多様な隣接情報から関係構造を持つ情報を抽出するための新たなAIフレームワーク」としています

多モーダルグラフ学習は、機械学習、グラフ理論、およびデータフュージョンの概念を組み合わせた多様なデータソースとその相...

AIニュース

「イギリスの全ての人に無料のAIトレーニングを提供しています」

「ジョニー・コットムは、一人でスタートアップを運営する際に必要なジャグリングの技術を知っています昨年、エコフレンドリ...

機械学習

「LLaMA-v2-Chat対アルパカ:どのAIモデルを使用するべきですか?」

この記事は以下の質問に答えます:LLaMA-v2-Chat vs アルパカ、どちらを使うべきですか?両方のAIモデルの利点と欠点は何です...

AIニュース

Googleの機能や製品をラボで試してください

Google の大胆で責任ある実験を最初に見て、それらの背後にいるチームにフィードバックを共有しましょう