Learn more about Search Results クラウド - Page 19
- You may be interested
- トップ3のデータアーキテクチャのトレンド...
- このAI研究は、パーソン再識別に適したデ...
- Google研究者がAudioPaLMを導入:音声技術...
- Rによるディープラーニング
- WAYVE社がGAIA-1を発表:ビデオ、テキスト...
- 「AIチャットボットが$1未満で数分でソフ...
- ロボットが4億5000万年前の絶滅した海洋生...
- AI記事スキャンダルがアリーナグループに...
- ユリーカに会ってください:大規模な言語...
- AWSが開発した目的に特化したアクセラレー...
- VoAGIニュース、9月20日:ExcelでのPython...
- 「LoRAアダプターにダイブ」
- 「ODSC Europe 2023の写真とハイライト」
- 「LLMの解読:PythonでスクラッチからTran...
- 「Rを使った南アメリカのマッピング:ジオ...
AIの進歩における倫理的な課題のナビゲーション
「AIの進展に伴う倫理的な課題の多面的な景観を探求してみましょうAIが社会により統合されるにつれて倫理と責任に関する懸念をどのように対処するかについて、詳細な視点を提供します」
リアルタイムなSlackボットを生成的AIで構築する
「Apache NiFi、LLM、Foundation Models、およびストリーミングを使用して、クールなSlackbotを構築する方法を学びましょうモデルの選択肢と統合についても取り上げます」
「AWSとNVIDIAは新たな戦略的なパートナーシップを発表」
AWS reInventでの注目の発表で、Amazon Web Services(AWS)とNVIDIAは戦略的な協力関係の大規模な拡大を発表し、生成型AIの領域で新たな基準を確立しましたこのパートナーシップは、AWSの堅牢なクラウドインフラストラクチャーとNVIDIAの最先端のAI技術を結びつける、分野における画期的な瞬間を象徴していますAWSは初めてとなりました...
「時空のホットスポット:洞察力の新たな次元を開放する方法」
「80%以上のデータが空間要素を持つという統計データを聞いたことがあるかもしれませんが、時間次元を持つデータはほぼ100%ですしかし、これらの2つの要素の相互作用を効果的に分析する方法はありますか?空間-時間クラスタリングという手法がありますこの技術は、空間的な要素と時間的な要素の両方を分析します...」
MLOps(エムエルオプス)とは何ですか?
“`html 機械学習オペレーション(MLOps)は、機械学習(ML)の開発とデプロイメントを結びつけることにより、生産環境での高性能モデルの継続的なデリバリーを標準化し効率化するための一連のプロセスです。 MLモデルの作成と改善をML開発と呼びます。機械学習モデルのデプロイメントは、それらを実稼働環境で使用可能にすることです。 MLモデルを開発から実稼働環境に移動させるために必要なプロセスを自動化することで、MLOpsは開発とデプロイメントの間のギャップを埋めます。これにより、MLモデルの迅速かつ効果的なデプロイメント、および産業環境での持続的な成功が支援されます。 MLOpsの利点は何ですか? MLOpsの価値は、企業が以下のことが可能になることです: MLOpsは、MLモデルを開発から実稼働環境に迅速にデプロイするためのプロセスを合理化し、デプロイメントを迅速化します。これにより、組織に利点をもたらすMLモデルの迅速なデプロイメントが実現されます。 MLOpsは、MLモデルをトレーニング環境と一致する実稼働環境にデプロイして、機械学習(ML)モデルの品質を向上させます。これにより、モデルが時間の経過とともに精度を失う、基本的なデータ分布が変化することのリスクを軽減します。 MLOpsは、実稼働環境でのMLモデルの管理と監視のプロセスを自動化することで、MLオペレーションの高コストを削減します。従業員は新しいMLモデルの作成など、他のプロジェクトに時間を費やすことができます。 MLOpsは具体的にどのように機能しますか? MLOpsを実装するためには、通常、継続的な統合とデリバリー(CI/CD)パイプラインが使用されます。ソフトウェアアプリケーションのビルド、テスト、リリースなどのプロセスは、CI/CDパイプラインの助けを借りて自動化することができます。 MLOps用のCI/CDパイプラインの典型的な手順の例は次のとおりです: 過去に収集されたデータを使用して、MLモデルをトレーニングします。 ホールドアウトデータセットと比較することで、MLモデルをテストします。 MLモデルを実稼働環境にデプロイメントします。 MLモデルを監視し、実稼働環境での性能を確認します。 CI/CDワークフローは手動または自動で開始することができます。たとえば、機械学習モデルの新バージョンが学習された場合にパイプラインがアクティブ化されることがあります。 MLOpsに使用されるツールは何ですか? MLOpsで使用できるさまざまな有用なツールがあります。一般的なツールには次のものがあります: トレーニングやMLモデルのデプロイメントに使用される一連のツールは、MLフレームワークとして知られています。MLフレームワークの中でも特によく使用されるのは、TensorFlow、PyTorch、scikit-learnです。 クラウドコンピューティングプラットフォームは、実稼働環境でのMLモデルのインストールと管理に必要なインフラストラクチャとサービスを提供します。代表的なクラウドコンピューティングプラットフォームには、Amazon Web Services(AWS)、Google Cloud…
「OpenAIモデルに対するオープンソースの代替手段の探索」
序文 AIの領域では、11月はドラマチックな展開がありました。GPTストアやGPT-4-turboのローンチ、そしてOpenAIの騒動まで、まさに忙しい一ヶ月でした。しかし、ここで重要な問題が浮かび上がります:クローズドモデルとその背後にいる人々はどれだけ信頼できるのでしょうか?自分が実際に運用しているモデルが内部の企業ドラマに巻き込まれて動作停止するのは快適な体験とは言えません。これはオープンソースモデルでは起こらない問題です。展開するモデルには完全な管理権限があります。データとモデルの両方に対して主権を持っています。しかし、OSモデルをGPTと置き換えることは可能でしょうか?幸いなことに、既に多くのオープンソースモデルが、GPT-3.5モデル以上の性能を発揮しています。本記事では、オープンソースのLLM(Large Language Models)およびLMM(Large Multi-modal Models)の最高の代替品をいくつか紹介します。 学習目標 オープンソースの大規模言語モデルについての議論。 最新のオープンソース言語モデルとマルチモーダルモデルについての探求。 大規模言語モデルを量子化するための簡易な導入。 LLMをローカルおよびクラウド上で実行するためのツールやサービスについて学ぶ。 この記事は、データサイエンスブログマラソンの一環として公開されました。 オープンソースモデルとは何ですか モデルがオープンソースと呼ばれるのは、モデルの重みとアーキテクチャが自由に利用できる状態にあるからです。これらの重みは、例えばMeta’s Llamaのような大規模言語モデルの事前訓練パラメータです。これらは通常、ファインチューニングされていないベースモデルやバニラモデルです。誰でもこれらのモデルを使用し、カスタムデータでファインチューニングして下流のアクションを実行することができます。 しかし、それらはオープンなのでしょうか?データはどうなっているのでしょうか?多くの研究所は、著作権に関する懸念やデータの機密性の問題などの理由から、ベースモデルの訓練データを公開しません。これはまた、モデルのライセンスに関する部分にも関連しています。すべてのオープンソースモデルは、他のオープンソースソフトウェアと同様のライセンスが付属しています。Llama-1などの多くのベースモデルは非商用ライセンスとなっており、これらのモデルを利用して収益を上げることはできません。しかし、Mistral7BやZephyr7Bなどのモデルは、Apache-2.0やMITライセンスが付属しており、どこでも問題なく使用することができます。 オープンソースの代替品 Llamaのローンチ以来、オープンソースの領域ではOpenAIモデルに追いつこうとする競争が繰り広げられています。そしてその結果は今までにないものでした。GPT-3.5のローンチからわずか1年で、より少ないパラメータでGPT-3.5と同等またはそれ以上のパフォーマンスを発揮するモデルが登場しました。しかし、GPT-4は依然として理性や数学からコード生成までの一般的なタスクには最も優れたモデルです。オープンソースモデルのイノベーションと資金調達のペースを見ると、GPT-4のパフォーマンスに近づくモデルが間もなく登場するでしょう。とりあえず、これらのモデルの素晴らしいオープンソースの代替品について話しましょう。 Meta’s Llama 2 Metaは今年7月にLlama-2という彼らの最高のモデルをリリースし、その印象的な能力により一瞬で人気を集めました。MetaはLlama-7b、Llama-13b、Llama-34b、Llama-70bの4つの異なるパラメータサイズのLlama-2モデルをリリースしました。これらのモデルは、それぞれのカテゴリにおいて他のオープンモデルを上回る性能を発揮しました。しかし、現在ではmistral-7bやZephyr-7bのような複数のモデルが、多くのベンチマークで小さなLlamaモデルを上回る性能を発揮しています。Llama-2 70bはまだそのカテゴリーで最高のモデルの一つであり、要約や機械翻訳などのタスクにおいてGPT-4の代替モデルとして価値があります。 Llama-2はGPT-3.5よりも多くのベンチマークで優れたパフォーマンスを発揮し、GPT-4に迫ることもできました。以下のグラフは、AnyscaleによるLlamaとGPTモデルのパフォーマンス比較です。…
「データ管理におけるメタデータの役割」
「メタデータは現代のデータ管理において中心的な役割を果たし、統合、品質、セキュリティに不可欠であり、デジタルトランスフォーメーションの取り組みにおいても重要です」
NVIDIAのGPUはAWS上でOmniverse Isaac Simにおいて2倍のシミュレーションの進化を提供し、スマートなロボットの加速を実現します
クラウド上でよりインテリジェントなロボットを開発することが、スピードの倍増をもたらします。 NVIDIA Isaac SimとNVIDIA L40S GPUsがAmazon Web Servicesに導入され、開発者はクラウド上で加速されたロボットアプリケーションを構築および展開することができます。 AI対応ロボット用の拡張可能なシミュレータであるIsaac Simは、NVIDIA Omniverse開発プラットフォーム上に構築され、OpenUSDアプリケーションの構築と接続を可能にします。 AIコンピューティングの強力さとグラフィックスおよびメディアの高速化を組み合わせると、L40S GPUは次世代のデータセンターワークロードのパワーになります。 Ada Lovelaceアーキテクチャに基づいたL40Sは、過去の世代と比較してOmniverseに対して最大3.8倍の性能向上をもたらし、エンジニアリングおよびロボティクスチームの性能を向上させます。 加速による世代間の飛躍により、Isaac Simを使用した幅広いロボットシミュレーションタスクにおいて、L40S GPUはA40 GPUと比較して2倍の高速パフォーマンスを実現します。 L40S GPUは、言語モデルの微調整から画像へのテキスト変換やチャットアプリケーションへのリアルタイム推論など、生成的AIのワークロードでも活用することができます。 NVIDIA L40Sの新しいAmazon Machine…
「NVIDIA BioNeMoがAWS上での薬剤探索のための生成型AIを可能にする」
主要な製薬会社やテクバイオ企業の研究者や開発者は、Amazon Web Servicesを通じてNVIDIA Claraソフトウェアとサービスを簡単に展開できるようになりました。詳細はこちらをご覧ください。 本日のAWS re:Inventで発表されたこの取り組みにより、AWSクラウドリソースを使用しているヘルスケアおよびライフサイエンスの開発者は、NVIDIAの加速オファリングを柔軟に統合することができるようになります。これにはNVIDIA BioNeMo(創成AIプラットフォーム)も含まれており、AWS上のNVIDIA DGX Cloudに追加され、高性能コンピューティングのためのAWS ParallelClusterクラスタ管理ツールとAmazon SageMakerマシンラーニングサービスを介して現在利用可能です。 北薬やライフサイエンス企業の数千社がAWSを利用しています。彼らは今やBioNeMoにアクセスして、専有データを使用してデジタル生物学の基礎モデルを構築またはカスタマイズし、NVIDIA GPUアクセラレートクラウドサーバーを使用してモデルのトレーニングとデプロイをスケールアップすることが可能です。 Alchemab Therapeutics、Basecamp Research、Character Biosciences、Evozyne、Etcembly、LabGeniusなどのテクバイオイノベーターは、既にBioNeMoを使用して創成AIによる医薬品の探索と開発を行っています。このコラボレーションにより、彼らはバイオモレキュラーデータ上でトレーニングされた創成AIモデルを開発するためにクラウドコンピューティングリソースを迅速にスケールアップするためのより多くの方法を得ることができます。 この発表により、NVIDIAの既存のヘルスケアに特化したオファリングがAWS上で利用可能になります。それには、医療画像処理のためのNVIDIA MONAIおよびジェノミクスの加速のためのNVIDIA Parabricksも含まれています。 AWSでの新機能:NVIDIA BioNeMoが創成AIを推進する BioNeMoは、デジタル生物学のためのドメイン固有のフレームワークであり、事前学習済みの大規模言語モデル(LLM)、データローダー、最適化されたトレーニングレシピを含んでいます。これにより、ターゲットの同定、タンパク質構造の予測、薬剤候補のスクリーニングを加速することで、コンピュータ支援の薬剤探索を推進することができます。 薬剤探索チームは、BioNeMoを使用して専有データを活用し、クラウドベースの高性能コンピューティングクラスター上でモデルを構築または最適化することができます。…
「6Gは、気候変動の監視に二重の役割を果たすかもしれません」
東北大学の研究者は、空中分光法を使用した次世代の6Gネットワークによって、気候変動や大気汚染のモニタリングが可能になると述べた
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.