ハグフェイスでの夏
Summer at Hugface
夏は公式に終わり、この数か月はHugging Faceでかなり忙しかったです。Hubの新機能や研究、オープンソースの開発など、私たちのチームはオープンで協力的な技術を通じてコミュニティを支援するために一生懸命取り組んできました。
このブログ投稿では、6月、7月、8月のHugging Faceで起こったすべてのことをお伝えします!
この投稿では、私たちのチームが取り組んでいるさまざまな分野について取り上げていますので、最も興味のある部分にスキップすることを躊躇しないでください 🤗
- Gradioを使用して、Spacesで自分のプロジェクトをショーケースしましょう
- リモートセンシング(衛星)画像とキャプションを使用してCLIPの微調整
- 1Bのトレーニングペアで文埋め込みモデルをトレーニングする
- 新機能
- コミュニティ
- オープンソース
- ソリューション
- 研究
新機能
ここ数か月で、Hubは10,000以上のパブリックモデルリポジトリから16,000以上のモデルに増えました!コミュニティの皆さんが世界と共有するために素晴らしいモデルをたくさん共有してくれたおかげです。そして、数字の背後には、あなたと共有するためのたくさんのクールな新機能があります!
Spaces Beta ( hf.co/spaces )
Spacesは、ユーザープロファイルまたは組織hf.coプロファイルに直接機械学習デモアプリケーションをホストするためのシンプルで無料のソリューションです。GradioとStreamlitの2つの素晴らしいSDKをサポートしており、Pythonで簡単にクールなアプリを構築することができます。数分でアプリをデプロイしてコミュニティと共有することができます! 🚀
Spacesでは、シークレットの設定、カスタム要件の許可、さらにはGitHubリポジトリから直接管理することもできます。ベータ版にはhf.co/spacesでサインアップできます。以下はいくつかのお気に入りです!
- Chef Transformerの助けを借りてレシピを作成
- HuBERTを使用して音声をテキストに変換
- DINOモデルを使用してビデオ内のセグメンテーションを行う
- 与えられた画像から絵画を作成するためにPaint Transformerを使用
- または、100以上の既存のSpacesを探索することもできます!
愛を共有する
http://huggingface.coでモデル、データセット、またはSpaceにいいねをすることができるようになりました。これにより、コミュニティと愛を共有することができます ❤️。また、いいねボックスをクリックすると、誰が何にいいねをしているかを確認することもできます 👀。自分自身のリポジトリにもいいねをしても構いません、私たちは判断しません 😉。
TensorBoardの統合
6月下旬に、すべてのモデルに対してTensorBoardの統合を開始しました。リポジトリにTensorBoardのトレースがある場合、自動的に無料のTensorBoardインスタンスが起動されます。これはパブリックリポジトリとプライベートリポジトリの両方、およびTensorBoardのトレースを持つ任意のライブラリで動作します!
メトリクス
7月に、モデルリポジトリに評価メトリクスをリストアップする機能を追加しました📈。モデルカードのmodel-index
セクションに評価メトリクスを追加すると、モデルリポジトリで自動的に表示されます。
それだけではなく、これらのメトリクスは自動的にPapers with Codeの対応するリーダーボードにリンクされます。つまり、Hubでモデルを共有するとすぐに、コミュニティの他の人々との結果を並べて比較することができます。 💪
自動的にPapers with Codeでメトリクスを見つけるためには、このリポジトリを例に見て、モデルカードのmodel-index
セクションに注意してください。
新しいウィジェット
Hubには18個のウィジェットがあり、ユーザーはブラウザで直接モデルを試すことができます。
Sentence Transformersとの最新の統合により、フィーチャー抽出と文の類似性の2つの新しいウィジェットも導入されました。
最新の音声分類ウィジェットは、多くのクールなユースケースを可能にします:言語識別、街の音検出 🚨、コマンド認識、話者識別など!今日、transformers
とspeechbrain
モデルで試すことができます! 🔊(いくつかのモデルを試す際には、大きな声で吠える必要があるかもしれませんのでご注意ください)
Scikit-learnを使用した構造化データ分類の早期デモをお試しください。そして最後に、画像関連モデル用の新しいウィジェットも紹介しました:テキストから画像へ、画像分類、および物体検出。GoogleのViTモデルを使用した画像分類はこちらで、Facebook AIのDETRモデルを使用した物体検出はこちらでお試しください!
その他の機能
これだけではありません。Hubの新しい改良されたドキュメンテーションを導入しました。また、ユーザーはリポジトリの移動/名前変更と新しいファイルの直接アップロードも行えるようになりました。
コミュニティ
Hugging Faceコース
6月には、無料のオンラインコースの第1部を開始しました!このコースでは、🤗エコシステムについてすべてを学ぶことができます:Transformers、Tokenizers、Datasets、Accelerate、およびHub。また、公式ドキュメンテーションのコースレッスンへのリンクも見つけることができます。すべての章のライブセッションは、YouTubeチャンネルでご覧いただけます。今年後半に開始されるコースの次の部分もお楽しみに!
JAX/FLAXスプリント
7月には、史上最大のコミュニティイベントを開催しました!このイベントは、JAX/FlaxとGoogle Cloudチームと共同で開催され、計算集約型のNLP、コンピュータビジョン、音声プロジェクトを、自由にTPUv3を提供することで、より広範なエンジニアと研究者の参加者に利用可能にしました。参加者は170以上のモデル、22のデータセット、38のスペースデモを作成しました🤯。すべての素晴らしいデモとプロジェクトをこちらでご覧いただけます。
JAX/Flax、Transformers、大規模言語モデリングなどについての話題もありました!すべての録画はこちらでご覧いただけます。
私たちは、3つの優勝チームの作業を紹介することに本当に興奮しています!
-
Dall-e mini . DALL·E miniは、与えられたプロンプトから画像を生成するモデルです!DALL·E miniは、元のDALL·Eの27倍小さく、それでも印象的な結果を示しています。
-
DietNerf . DietNerfは、2Dビューを使用した3Dシーンの再構成のための少数ショット学習に向けた3Dニューラルビューシンセシスモデルです。これは、「Putting Nerf on a Diet」の論文のオープンソース実装です。
-
CLIP RSIC . CLIP RSICは、リモートセンシング画像データでファインチューニングされたCLIPモデルであり、ゼロショットの衛星画像分類とキャプション付けを可能にします。このプロジェクトは、ファインチューニングされたCLIPモデルが特化されたドメインにおいてどれだけ効果的であるかを示しています。
これらの非常にクールなプロジェクト以外にも、コミュニティイベントが複数の言語向けの大規模かつモードの異なるモデルのトレーニングを可能にすることに興奮しています。たとえば、Swahili、Polish、Marathiなどの低リソース言語向けの最初のオープンソースの大規模言語モデルが登場しました。
ボーナス
これまで共有したことに加えて、私たちのチームはさまざまな活動を行ってきました。以下にその一部を示します:
- 📖 この3部構成のビデオシリーズでは、最新の文埋め込みモデルのトレーニング理論を説明しています。
- PyTorchコミュニティVoicesでプレゼンテーションを行い、QAに参加しました(ビデオ)。
- Hugging Faceは、NLP in SpanishとSpainAIと共同で、コンセプトと最新のアーキテクチャ、およびユースケースを通じた応用について教えるスペイン語コースを開催しました。
- MLOps World Demo Daysでプレゼンテーションを行いました。
オープンソース
Transformersの新機能
🤗 Transformersにとって、夏はエキサイティングな時期でした!このライブラリは50,000のスター、30 millionの総ダウンロード、そしてほぼ1000のコントリビューターに到達しました!🤩
新しい情報は何ですか?JAX/Flaxは、Hubで5000以上のモデルをサポートする3番目のフレームワークとなりました!テキスト分類などのさまざまなタスクに対して、積極的にメンテナンスされている例を見つけることができます。また、TensorFlowのサポートを改善するために努力しています:すべての例はより堅牢で、TensorFlowのイディオムに合ったもので、より明確になるように再構築されています。これには、要約、翻訳、固有表現認識などの例が含まれます。
モデルカード、評価メトリクス、TensorBoardインスタンスを含むモデルを簡単にHubに公開できるようになりました。新しいtransformers.onnx
モジュールを使用してモデルをONNXにエクスポートするためのサポートも増えました。
python -m transformers.onnx --model=bert-base-cased onnx/bert-base-cased/
最後の4つのリリースでは、多くの新しいモデルが導入されました!
- DETRは高速なエンドツーエンドの物体検出と画像セグメンテーションができます。コミュニティのチュートリアルをチェックしてみてください!
- ByT5はHubで最初のトークナイザーフリーモデルです!すべての利用可能なチェックポイントはこちらで確認できます。
- CANINEはGoogle AIによるもう1つのトークナイザーフリーエンコーダーモデルであり、文字レベルで直接操作します。すべての(多言語)チェックポイントはこちらで確認できます。
- HuBERTは、コマンド分類や感情認識などの下流オーディオタスクにおいて興味深い結果を示しています。モデルはこちらで確認できます。
- LayoutLMv2とLayoutXLMは、テキスト、レイアウト、視覚情報を組み合わせてドキュメントイメージ(PDFなど)を解析することができる2つの素晴らしいモデルです。Spaceデモを作成しましたので、直接試すことができます!デモノートブックはこちらで見つけることができます。
- Microsoft ResearchのBEiTは、自己教師ありビジョントランスフォーマーをBERTに触発された巧妙な事前トレーニング目標で上回ることができます。
- RemBERTは、ゼロショット転送においてXLM-R(および同じパラメータ数を持つmT5)を上回る大規模な多言語トランスフォーマーです。
- Splinterは、少数の例だけで質問応答を行うことができます。128の例のみを与えると、SplinterはSQuADで約73%のF1を達成し、MLMベースのモデルを24ポイント上回ります!
Hubは現在transformers
に統合されており、Pythonランタイムを離れずにHubの構成、モデル、トークナイザーファイルを直接プッシュすることができます!Trainer
は、チェックポイントが保存されるたびに直接Hubにプッシュすることができるようになりました:
Datasetsの新機能
すばらしいコミュニティの貢献のおかげで、https://huggingface.co/datasetsには1400のパブリックデータセットがあります。
datasets
へのサポートは拡大し続けており、JAXで使用することができ、parquetファイルを処理し、リモートファイルを使用し、自動音声認識や画像分類などの他のドメインにも広範なサポートがあります。
ユーザーはまた、単純にデータファイルをリポジトリにアップロードするだけで、データセットをコミュニティと共有することもできます。
新しいデータセットのハイライトは何ですか?Microsoft CodeXGlueの複数のコーディングタスク(コード補完、生成、検索など)のデータセット、C4やMC4などの巨大なデータセット、そしてRussianSuperGLUEやDISFL-QAなどが含まれます。
Hubへの新しいライブラリの導入
transformers
ベースのモデルとの深い統合に加えて、HubはオープンソースのMLライブラリとの素晴らしいパートナーシップを築いて、無料のモデルホスティングとバージョン管理を提供しています。このことをhuggingface_hubオープンソースライブラリおよび新しいHubドキュメントで実現しています。
すべてのspaCyの公式パイプラインは、公式のspaCy組織で見つけることができます。また、ユーザーは単一のコマンドpython -m spacy huggingface-hub
で自分のパイプラインを共有することができます。詳細については、https://huggingface.co/blog/spacyにアクセスしてください。すべての公式のspaCyモデルをHubで直接試すことができます!
もう一つのエキサイティングな統合はSentence Transformersです。ブログの発表で詳細が読めます:Hubには200以上のモデルがあり、簡単にコミュニティとモデルを共有でき、コミュニティからモデルを再利用できます。
しかし、それだけではありません!Hubには100以上のAdapter Transformersがあり、ブラウザで直接ウィジェットを使ってSpeechbrainモデルを試すこともできます。音声分類などのさまざまなタスクに対応しています。新しいMLライブラリをHubに統合するための共同作業に興味がある場合は、こちらで詳細を読むことができます。
ソリューション
近日公開: Infinity
Transformerのレイテンシを1ミリ秒まで下げる? 🤯🤯🤯
最新のTransformerモデルの効率性を実現するための非常にスリムなソリューションに取り組んでいます。これは企業が自社のインフラストラクチャに展開できるようになります。
- Infinityは単一のコンテナとして提供され、どのプロダクション環境にもデプロイできます。
- GPU上のBERTのようなモデルでは1ミリ秒のレイテンシを実現でき、CPU上では4〜10ミリ秒です 🤯🤯🤯
- Infinityは最も厳しいセキュリティ要件を満たし、インターネットアクセスなしでシステムに統合できます。すべての入出力トラフィックに対して制御が可能です。
⚠️ 9月28日には、Infinityを初めて一般公開するライブ発表とデモに参加しましょう!
新機能: ハードウェアアクセラレーション
Hugging Faceは、Intel、Qualcomm、GraphCoreなどの主要なAIハードウェアアクセラレータと提携し、最先端のプロダクションパフォーマンスを実現し、SOTAハードウェアでのトレーニング能力を拡張しています。この旅の最初のステップとして、新しいオープンソースライブラリを導入しました : 🤗 Optimum – プロダクションパフォーマンスのためのML最適化ツールキット 🏎。詳細はこのブログ記事で確認できます。
新機能: SageMakerでの推論
私たちはAWSとの新しい統合を発表しました。これにより、SageMakerでの🤗 Transformersの展開がこれまで以上に簡単になりました。🤗 Hubモデルページから直接コードスニペットを取得することができます!SageMakerでtransformersを活用する方法については、ドキュメントをご覧いただくか、これらのビデオチュートリアルをご覧ください。
質問がある場合は、フォーラムでお問い合わせください:https://discuss.huggingface.co/c/sagemaker/17
新機能: ブラウザでのAutoNLP
新しいAutoNLP体験をリリースしました:ブラウザから直接モデルをトレーニングできるウェブインターフェース!自分のデータに対して🤗 Transformersモデルをトレーニング、評価、展開するのに数回のクリックだけです。コードは必要ありません!
推論API
ウェビナー :
わずか数行のコードで機械学習機能を追加する方法を実演するために、ライブウェビナーを開催しました。また、Hugging Face Inference APIを活用してPythonコードを説明するコメントを生成するためのVSCode拡張機能も開発しました。
Hugging Face + Zapierデモ
3,000以上のアプリに接続された20,000以上の機械学習モデル? 🤯 Inference APIを活用することで、Gmail、Slack、Twitterなどのアプリにモデルを簡単に接続できます。このデモビデオでは、このコードスニペットを使用して、Twitterのメンションを分析し、ネガティブなメンションについてSlackでアラートを受け取るzapを作成しました。
Hugging Face + Google Sheetsデモ
Inference APIを使用すると、Google Sheetsのスプレッドシートに直接ゼロショット分類を簡単に使用できます。Tools -> Script Editorにこのスクリプトを追加するだけです。
実践におけるFew-shot Learning
私たちはFew-Shot Learningとは何か、そしてGPT-Neoと🤗 Accelerated Inference APIが独自の予測を生成するためにどのように使用されるのかについてのブログ記事を書きました。
エキスパートアクセラレーションプログラム
エキスパートアクセラレーションプログラムの新しいホームページをご覧ください。Machine Learningの専門家から直接的でプレミアムなサポートを受けることができ、より良いMLソリューションをより速く構築することができます。
研究
BigScienceでは、7月にBigScience Episode #1という最初のライブイベント(キックオフ以来)を開催しました。2021年9月20日には、技術的な話やBigScienceの作業グループによる最新情報、Jade Abbott(Masakhane)やPercy Liang(Stanford CRFM)、Stella Biderman(EleutherAI)などの招待講演が行われたBigScience Episode #2も開催されました。13Bの英語のみのデコーダーモデル(詳細はこちらでご確認いただけます)で最初の大規模トレーニングを完了しました。現在は2つ目のモデルのアーキテクチャを決定中です。組織作業グループは2番目の計算予算の申請を行いました:Jean Zay V100:2,500,000 GPU時間。🚀
6月には、Yandexの研究チームとの共同研究結果であるDeDLOCを共有しました。これは、HPCクラスターを使用せずにGoogle ColaboratoryやKaggleノートブック、個人のコンピューターまたは先取り的なVMなど、さまざまなアクセス可能なリソースを使用して大規模なニューラルネットワークを共同でトレーニングするための方法です。この方法により、40人のボランティアと共に、ベンガル語の言語モデルであるsahajBERTをトレーニングすることができました!そして、私たちのモデルは最新の技術と競合し、Soham News Article Classificationデータセットの分類の下流タスクにおいて最も優れています。詳細については、このブログ記事をご覧ください。これは、モデルの事前トレーニングを(財政的にも)よりアクセスしやすくする非常に興味深い研究分野です!
6月には、私たちの論文「How Many Data Points is a Prompt Worth?」がNAACLでベストペーパー賞を受賞しました!この中で、事前トレーニングモデルの適応における従来のアプローチとプロンプトアプローチを調和させ、比較しています。その結果、人間が書いたプロンプトは、新しいタスクにおいて数千の監視データポイントに相当する価値があることを発見しました。そのブログ記事もお読みいただけます。
今年のEMNLPを楽しみにしています!私たちは4つの論文が採択されました!
- 私たちの論文「Datasets: A Community Library for Natural Language Processing」はHugging Face Datasetsプロジェクトを文書化しています。このコミュニティプロジェクトには300人以上の貢献者がいます。このプロジェクトにより、研究者は数百のデータセットに簡単にアクセスすることができます。これにより、クロスデータセットNLPの新しいユースケースが可能になり、インデックス作成や大規模データセットのストリーミングなどのタスクに対する高度な機能が提供されています。
- TU Darmstadtの研究者との共同研究により、会議で採択された別の論文「Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning」が生まれました。この論文では、フューショットセットアップで強力なパフォーマンスを達成するプロンプトベースのファインチューニング言語モデルは、学習表層のヒューリスティック(データセットバイアスとも呼ばれることがあります)にまだ苦しんでいることを示しています。これはゼロショットモデルでは起こらない落とし穴です。
- 私たちの提出物「Block Pruning For Faster Transformers」も長い論文として採択されました。この論文では、ブロックスパース性を使用して高速で小さなTransformerモデルを取得する方法を示しています。私たちの実験では、SQuAD上でBERTよりも2.4倍高速で74%小さいモデルを得ることができました。
最後の言葉
😎 🔥 夏は楽しかったです!たくさんのことが起こりました!このブログ記事をお楽しみいただき、私たちが取り組んでいる新しいプロジェクトを共有するのを楽しみにしています。冬にお会いしましょう! ❄️
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles