Learn more about Search Results A - Page 272

「人々はAIを恐れていますが、AppleのChatGPTはAIをみんなの友達にするかもしれません」

「以前からMP3プレーヤーは存在しましたが、iPodのようなものではありませんでした以前からタッチスマートフォンも存在しましたが、iPhoneのようなものではありませんでしたそして、以前から基于大規模言語モデルのAIチャットボットも存在しましたが、歴史が教えるように、Appleの今後のインテリジェントチャットボットは既に使用されているものとは全く異なり、[…]を提供するでしょう」

「ODSC West Data PrimerシリーズでAIの学習を始めましょう」

「ODSC West Mini-Bootcamp Passの一環としてのData Primerシリーズは、AIの旅を始めるための黄金のチケットです8月から10月までの間に開催されるこれらのライブで仮想的なプレブートキャンプセッションは、10月30日から開催されるODSC Westカンファレンスで最大限の効果を得る準備を整えます」

パーシステントシステムは、Amazon CodeWhispererと共にソフトウェアエンジニアリングの未来を形作っています

グローバルなデジタルエンジニアリングプロバイダーであるPersistent Systemsは、Amazon CodeWhispererとのいくつかのパイロット実験と形式的な研究を実施しましたそれにより、ソフトウェアエンジニアリング、生成AI主導の近代化、責任あるイノベーションなどにおける変化が示唆されましたこの記事では、PersistentのAmazon CodeWhispererの実験から浮かび上がった4つのテーマについて紹介しますそれは私たちが知っているソフトウェアエンジニアリングを変える可能性があります

なぜ私たちはHugging Face Inference Endpointsに切り替えるのか、そしてあなたも切り替えるべきかもしれません

Hugging Faceは最近、Inference Endpointsをリリースしました。これは、彼らが言うように「トランスフォーマーを本番環境で解決する」というものです。Inference Endpointsは、次のことができるマネージドサービスです: Hugging Face Hub上で(ほぼ)任意のモデルをデプロイする 任意のクラウド(AWS、Azure、GCPも近日中に)にデプロイする GPUを含むさまざまなインスタンスタイプで実行する 私たちは、CPU上で推論を行ういくつかの機械学習(ML)モデルを、この新しいサービスに切り替えています。このブログでは、なぜ切り替えるのか、また切り替えを検討する理由について説明します。 これまでの取り組み 私たちがInference Endpointsに切り替えたモデルは、以前は内部で管理され、AWS Elastic Container Service(ECS)上で実行されていました。これにより、コンテナベースのタスクを実行できるサーバーレスクラスターが提供されます。私たちのプロセスは次のようなものでした: GPUインスタンスでモデルをトレーニングする(transformersでトレーニングされたCMLで供給) Hugging Face Hubにアップロードする モデルを提供するためのAPIを構築する(FastAPI) APIをコンテナにラップする(Docker) コンテナをAWS Elastic…

「Snorkel AI x Hugging Face 企業向けの基盤モデルを解放する」

この記事は、2023年4月6日にSnorkelのブログでFriea Bergによって最初に公開された記事をクロスポストしています。 OpenAIがGPT-4をリリースし、Googleがベータ版でBardを導入するにつれて、世界中の企業は基盤モデルの力を活用することに興奮しています。この興奮が高まるにつれて、ほとんどの企業や組織が基盤モデルを適切に活用するための準備ができていないことが明らかになっています。 基盤モデルは企業にとって独自の課題を提供します。これまで以上に大きくなったサイズのため、自社でホストすることは困難で高額になります。また、製品の使用ケースにオフシェルフのFMsを使用することは、パフォーマンスの低下やガバナンスとコンプライアンスのリスクの増加を意味する可能性があります。 Snorkel AIは、基盤モデルと実際の企業の使用ケースとのギャップを埋める役割を果たしており、PixabilityなどのAIイノベーターによって印象的な結果をもたらしています。我々は、大量の使いやすいオープンソースモデルのリポジトリで最もよく知られているHugging Faceと提携し、AIアプリケーションの開発に柔軟性と選択肢を提供します。 Snorkel Flowにおける基盤モデル Snorkel Flow開発プラットフォームを使用すると、ユーザーは基盤モデルを特定の使用ケースに適応させることができます。アプリケーションの開発は、データ上の選択した基盤モデルの予測を「そのまま」検査することから始まります。これらの予測は、それらのデータポイントのトレーニングラベルの初期バージョンとなります。Snorkel Flowは、そのモデルのエラーモードを特定し、プログラムによるラベリングを効率的に修正するためのユーザーを支援します。これには、ヒューリスティックやプロンプトを使用したトレーニングラベルの更新が含まれる場合もあります。基盤モデルは、更新されたラベルで微調整され、再評価されます。この反復的な「検出と修正」プロセスは、適応された基盤モデルが十分な品質に達するまで続きます。 Hugging Faceは、この強力な開発プロセスを可能にするために、150,000以上のオープンソースモデルを1つのソースから直ちに利用できるようにしています。これらのモデルの多くは、BioBERTやSciBERTなどの特定のドメインのデータに特化しています。これらのモデルの1つ、あるいはさらに良い場合は複数の特化したベースモデルは、ユーザーに初期予測やラベルの改善のためのプロンプト、または展開用の最終モデルの微調整のスタートを与えることができます。 Hugging Faceはどのように役立ちますか? Snorkel AIのHugging Faceとのパートナーシップにより、Snorkel Flowの基盤モデルの機能が強化されます。最初はわずかな数の基盤モデルのみを提供していました。それぞれが専用のサービスを必要とし、費用対効果が低く、急速に増え続けるさまざまなモデルを提供することが難しかったため、企業が柔軟に利用できるようにすることは困難でした。Hugging FaceのInference Endpointサービスを採用することで、ユーザーが利用できる基盤モデルの数を拡大することができました。 Hugging Faceのサービスを使用すると、ユーザーは数回のクリックでモデルAPIを作成し、すぐに使用することができます。重要なのは、この新しいサービスには「一時停止と再開」の機能があり、クライアントが必要な場合にモデルAPIをアクティブにし、必要ない場合には休眠させることができる点です。…

Databricks ❤️ Hugging Face 大規模言語モデルのトレーニングとチューニングが最大40%高速化されました

生成AIは世界中で大きな注目を集めています。データとAIの会社として、私たちはオープンソースの大規模言語モデルDollyのリリース、およびそれを微調整するために使用した研究および商用利用のための内部クラウドソーシングデータセットであるdatabricks-dolly-15kのリリースと共にこの旅に参加してきました。モデルとデータセットはHugging Faceで利用可能です。このプロセスを通じて多くのことを学びましたが、今日はApache Spark™のデータフレームから簡単にHugging Faceデータセットを作成できるようにするHugging Faceコードベースへの初めての公式コミットの1つを発表することを喜んでお知らせします。 「Databricksがモデルとデータセットをコミュニティにリリースしてくれたのを見るのは素晴らしいことでしたが、それをHugging Faceへの直接のオープンソースコミットメントにまで拡張しているのを見るのはさらに素晴らしいことです。Sparkは、大規模なデータでの作業に最も効率的なエンジンの1つであり、その技術を使用してHugging Faceのモデルをより効果的に微調整できるようになったユーザーを見るのは素晴らしいことです。」 — Clem Delange、Hugging Face CEO Hugging Faceが一流のSparkサポートを受ける 過去数週間、ユーザーから、SparkのデータフレームをHugging Faceデータセットに簡単にロードする方法を求める多くのリクエストを受け取りました。今日のリリースよりも前は、SparkのデータフレームからHugging Faceデータセットにデータを取得するために、データをParquetファイルに書き込み、それからHugging Faceデータセットをこれらのファイルに指定して再ロードする必要がありました。たとえば: from datasets import load_dataset train_df…

複雑な生成型AIユースケースにおいて、Hugging Faceを活用する

この会話では、Jeff BoudierがWriterの共同創業者兼CTOであるWaseem Alshikhに、Hugging Faceのユーザーから顧客へ、そしてオープンソースモデルの貢献者への旅について尋ねています。 なぜWriterは始まったのですか? 現在の生成AIにおける最も一般的な誤解は何ですか? なぜWriterは今、オープンソースモデルに貢献しているのですか? Writerにとって、Hugging Face Expert Acceleration Programサービスの価値は何ですか? WriterはCPUとGPUでLLMをスケールするためのプロダクションにどのように取り組んでいますか? 効率性とCPUの使用は、プロダクションにおいてどれくらい重要ですか? 貴社がHugging Face Expert Acceleration Programに興味がある場合は、こちらからお問い合わせください – 弊社のチームがお客様の要件についてご相談させていただきます!

「25以上のChatGPTのプロンプトで、より多くのリードを生成し(そしてより多くの売り上げを生み出す)」

「競合他社がより多くのリードを得るためにAIツールを使用しているため、あなたは彼らに負けていますあなたも同じことをすべきです」

「AudioLDM 2をご紹介します:音声、音楽、効果音を融合した独自の音声生成AIフレームワーク」

人工知能と深層学習の概念にますます依存する現代において、音声生成の領域はAudioLDM 2の導入により画期的な変革を経験しています。この革新的なフレームワークは、音声合成の統合的な手法を開拓し、音声を生成し、様々な文脈(音声、音楽、効果音など)で音を生み出し、認識する方法を革新しています。テキスト、音素、ビジュアルなどの特定の変数に基づいて音声情報を生成することを音声生成といいます。これには声、音楽、効果音などのサブドメインが含まれ、バイオリンの音や足音のような特定の音も含まれます。 それぞれのサブドメインにはそれぞれの課題があり、以前の研究ではそれらの課題に特化した専門モデルがしばしば使用されてきました。これらのモデルでは、学習プロセスを特定の問題に対応するように導く事前に決められた制約がタスク固有のバイアスとなっています。これらの制約により、専門モデルの進展にもかかわらず、映画のシークエンスなど、多様な形式の音が共存する複雑な状況での音声生成の使用は制限されています。多様な音声信号を提供できる統一的な戦略が必要です。 これらの問題に対処するため、一連の研究者チームが、ドメイン固有のバイアスに依存せず、あらゆるタイプの音声を生成しようとする調整可能な条件を持つ、AudioLDM 2というユニークなフレームワークを導入しました。チームは、音声クリップの意味情報を表すベクトルのシーケンスである「音声の言語」(LOA)を導入しました。LOAは、人間が理解する情報を音声生成に適した形式に変換することができ、細かい音響特性と粗い意味情報の両方を捉えることができます。 このために、チームはさまざまな音声ソースで事前トレーニングされたオーディオマスクオートエンコーダ(AudioMAE)を構築することを提案しました。事前トレーニングフレームワークは、再構築活動と生成活動を含むことで、生成的なタスクに最適な音声表現を生成します。その後、テキスト、音声、グラフィックスなどの条件付き情報は、GPTベースの言語モデルを使用して、AudioMAEの特徴に変換されます。AudioMAEの特性に応じて、潜在的な拡散モデルを使用して音声を合成し、このモデルは自己教師付き最適化に適しており、ラベルのない音声データでの事前トレーニングが可能です。言語モデリングの技術は、以前の音声モデルの計算コストとエラー蓄積の問題に対処しながら、最近の言語モデルの進歩を活用しています。 評価により、AudioLDM 2はテキストから音声や音楽を生成するタスクにおいて最先端の性能を発揮することが示されました。テキストから音声への変換においても、強力なベースラインモデルを上回ります。また、イメージから音への変換などの活動において、フレームワークには視覚モダリティの基準も追加できます。音声、音楽、声のインコンテキスト学習も補助的な機能として研究されます。品質、適応性、理解可能な音声の生成において、AudioLDM 2はAudioLDMに比べて優れた性能を発揮します。 チームによると、主な貢献は以下の通りです。 条件付きで音声、音楽、理解可能な音声を生成することができる革新的かつ適応性のある音声生成モデルを導入しました。 アノテーションされたオーディオデータを必要とせずに、コアの潜在的な拡散モデルの自己教師付き事前トレーニングを広範に行うことができる、ユニバーサルな音声表現に基づいてアプローチを構築しました。この統合は、自己回帰的なモデルと潜在的な拡散モデルの両方の利点を組み合わせています。 実験により、AudioLDM 2はテキストから音声や音楽を生成するタスクにおいて、最先端のパフォーマンスを達成することが検証されました。また、テキストから音声への変換においても、現在の最先端の手法に匹敵する競争力のある結果を達成しました。

「ニューヨーク・タイムズ」がOpenAIに対する訴訟を検討中

NPRによる報告によると、ニューヨーク・タイムズの弁護士は知的財産権に関してOpenAIに対して訴訟を検討していますNPRは、両組織の間で行われている議論に直接的な知識を持つ2つの情報源を引用しています過去数週間にわたり、ニューヨーク・タイムズと...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us