Hugging Face HubでのSentence Transformers
Hugging Face HubでのSentence Transformers
過去数週間、私たちは機械学習エコシステム内の多くのオープンソースフレームワークと協力関係を築いてきました。特に私たちが興奮しているのは、Sentence Transformersです。
Sentence Transformersは、文、段落、画像の埋め込みのためのフレームワークです。これにより、意味のある埋め込みを導出することができます(1)。これは、意味検索や多言語ゼロショット分類などのアプリケーションに役立ちます。Sentence Transformers v2のリリースの一環として、たくさんのクールな新機能があります:
- ハブでモデルを簡単に共有することができます。
- 文の埋め込みと文の類似性のためのウィジェットおよび推論API。
- より優れた文の埋め込みモデルが利用可能になりました(ベンチマークとハブ内のモデル)。
ハブには、100以上の言語の90以上の事前学習済みSentence Transformersモデルがあり、誰でもそれらを利用し、簡単に使用することができます。事前学習済みモデルは、数行のコードで直接ロードして使用できます:
from sentence_transformers import SentenceTransformer
sentences = ["Hello World", "Hallo Welt"]
model = SentenceTransformer('sentence-transformers/paraphrase-MiniLM-L6-v2')
embeddings = model.encode(sentences)
print(embeddings)
しかしこれだけではありません。人々はおそらくモデルをデモしたり、他のモデルと簡単に遊んだりしたいと思うでしょう。そのため、私たちはハブで2つの新しいウィジェットのリリースを嬉しく思います!最初のものは、文の埋め込みを表示するfeature-extraction
ウィジェットです。
- Hugging Face Hubへようこそ、spaCyさん
- スケールにおけるトランスフォーマーの最適化ツールキット、Optimumをご紹介します
- Hugging FaceとGraphcoreがIPU最適化されたTransformersのために提携
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles