Learn more about Search Results A - Page 758

人工知能、IoT、深層学習、機械学習、データサイエンス、その他のソフトウェアアプリケーションに最適なトップデータベース

データベースがなければ、ほとんどのソフトウェアアプリケーションは実現不可能です。データベースは、ウェブベースのデータストレージから大量のデータをネットワークを通じて高速に転送するために必要なエンタープライズレベルのプロジェクトまで、あらゆるタイプとサイズのアプリケーションの基盤です。組み込みシステムでは、リアルタイムシステムとは異なるタイトなタイミング要件を持つ低レベルのインタフェースを見つけることができます。もちろん、データに完全に依存し、後でそれらを保存して処理するためにデータベースが必要な人工知能、ディープラーニング、機械学習、データサイエンス、HPC、ブロックチェーン、IoTなども見逃せません。 では、いくつかの主要なデータベースの種類について読んでみましょう。 Oracle: オラクルは、およそ40年にわたり、丈夫でエンタープライズグレードのデータベースを提供してきました。DB-Enginesによると、オープンソースのSQLデータベースやNoSQLデータベースとの激しい競争にもかかわらず、まだ最も使用されているデータベースシステムです。組み込みのアセンブリ言語として、C、C++、Javaを備えています。このデータベースの最新版である21cには、多数の新機能が含まれています。JSONからSQLなどの追加機能を備えた、コンパクトで高速なデータベースです。 MySQL: ウェブ開発ソリューションが最も一般的な利用方法です。MySQLはCとC++で構築された構造化クエリ言語です。MySQLのエンタープライズグレードの機能と無料で柔軟な(GPL)コミュニティライセンス、および更新された商用ライセンスは、瞬時に業界とコミュニティで有名になりました。このデータベースの主な目標は、安定性、堅牢性、成熟性です。SQLデータベースには、それぞれ独自の機能が備わったいくつかのエディションがあります。 PostgreSQL: PostgreSQLは最も高度なオープンソースの関係型データベースです。大量のデータを扱う企業で使用されるCベースのデータベース管理システムです。このデータベース管理ソフトウェアは、さまざまなゲームアプリ、データベース自動化ツール、ドメイン登録などで使用されています。 Microsoft SQL Server: MS SQLは、構造化データ(SQL)、半構造化データ(JSON)、および空間データをサポートするマルチモデルデータベースです。WindowsとLinuxオペレーティングシステムでサポートされています。過去30年間、Windowsシステム上で最も人気のある商用中堅データベースでした。マイクロソフトSQL Serverは、他のデータベースと比べて革新的または先進的ではないものの、年々大幅な改良と改装を行ってきました。開発プラットフォームが他のマイクロソフト製品と強く結びついている場合には非常に有益です。 MongoDB: オブジェクト指向プログラミング言語を使用してRDBMSでデータをロードおよび取得するには、追加のアプリケーションレベルマッピングが必要です。2009年に、特にドキュメントデータの処理に対応するために、MongoDBが最初のドキュメントデータベースとしてリリースされました。一貫性が可用性よりも重要な半構造化データに使用されます。 IBM DB2: DB2は、構造化(SQL)、半構造化(JSON)、およびグラフデータをサポートするマルチモデルデータベースです。また、IBM BLU Accelerationによる優れたOLAP機能を備えた統合データベースでもあります。DB2 LUWはWindows、Linux、Unixにも利用できます。 Redis: よく知られたオープンソースのデータベースです。Redisは、メモリ内で動作する分散キーバリューデータベースとして使用することができます。また、メッセージブローカーや分散キャッシュとしても使用できます。大量のデータを処理することができます。さまざまなデータ構造をサポートしています。 Cassandra: オープンコアで広範なカラムストアであるCassandraは、広範なデータを扱うために頻繁に使用されるデータベースです。分散型のデータベース(リーダーレス)は自動レプリケーションを備えており、障害に強くなっています。Cassandra Query Language(CQL)は、ユーザーフレンドリーでSQLに似たクエリ言語です。 Elasticsearch: 2010年にリリースされたElasticsearchは、REST APIを備えたオープンソースの分散型マルチテナント全文検索エンジンです。また、構造化データとスキーマレスデータ(JSON)の両方をサポートしており、ログ解析やモニタリングデータの分析に最適です。大量のデータを処理することができます。…

「2023年の小売り向けデータストリーミングの状況」

ウォルマート、アルバートソンズ、オットー、AOなどからの小売業におけるデータストリーミングの状況には、オムニチャネル、ハイブリッドショッピング、ライブコマースなどが含まれています

「ラマ-2、GPT-4、またはクロード-2;どの人工知能言語モデルが最も優れているのか?」

大規模言語モデル(LLMs)は、自然言語処理と自然言語理解の分野で世界的な評価を受け、非常に人気があります。これにより、研究者はより洗練された言語の理解を持つ知的システムを説明することができるようになりました。GPT-3、T5、PaLMなどの有名なモデルは、人間の模倣からテキストの生成、コードの補完、言語の翻訳、長い段落の要約など、あらゆることを行います。LLMsは膨大なデータでトレーニングされ、人間の言語の構文、意味論、語用論を理解することができます。優れたパフォーマンスを発揮し、非凡な能力を持つトップ3のモデルは、Llama 2、GPT-4、Claude-2です。 Llama-2 Metaは、マイクロソフトとの協力で、人気のある言語モデルLLaMaの最新バージョンであるLLaMA 2を発表しました。この革新的なモデルは、さまざまな言語で流暢に理解し、コンテンツを生成する能力を持っています。LLaMA 2は、LLamaの堅固な基盤の上に構築され、多言語機能の基準を確かに引き上げました。このモデルは、研究やビジネスで使用するためにライセンスを取得することができ、近々、Microsoft AzureプラットフォームカタログおよびAmazon SageMakerを介してアクセスできるようになる予定です。 Llama 2の主な特徴は、複数の言語での熟達度と200以上の言語でのテキストの理解と生成能力です。これにより、以前は国や文化を超えて効果的なコミュニケーションを困難にしていた言語の障壁が取り除かれ、Llama 2は今や世界中で役立つことができます。さらに、Llama 2の注目すべき改善点は、文化的な文脈分析を通じてより明確に見ることができます。この機能により、モデルは文脈とユーザーの文化的な微妙さや感受性により敏感な応答を生成することができます。 Llama 2は、一つの言語で学んだ知識を他の言語での理解と生成の向上に活用するという驚くべき能力も示しています。モデルは、多言語で処理した膨大な量のデータを活用することができるため、Llama 2はさまざまな言語でのコンテンツの理解と生成能力を向上させ、非常に柔軟かつ効果的な言語モデルとなっています。 GPT-4 最新バージョンのGPT-4は、GPT 3.5と比較して、テキストと画像の両方の入力を許可します。以前のバージョンではChatGPTはテキストの入力のみを許可していました。GPT 4モデルは、以前のバージョンに比べてより制御可能と言われています。その信頼性と創造性の高さにより、人間レベルのパフォーマンスを発揮します。 GPT-4のユニークさは、そのサイズと複雑さに影響を与える無類の要素の数にあります。モデルは、優れた効率で大量のデータを処理・分析することができます。GPT-4は、パラメータの数が多いため、データ内の複雑なパターン、依存関係、リンクを捉えることができ、より一貫性のある文脈に適したテキストの開発を実現します。 GPT-4の洗練されたアーキテクチャは、人間の理解に密接に似た方法で言語を解釈するように構築されています。広範なトレーニングデータと洗練されたニューラルネットワークを使用することで、入力テキストの微妙なニュアンスや文脈的な手がかりを認識することができます。巨大なサイズと複雑さにもかかわらず、GPT-4は優れた応答速度を持ち、さまざまなドメインでのスムーズで流動的なユーザーとの対話を保証します。 Claude-2 エンパシーと感情的知性に特化した驚異的なAI言語モデルであるClaude-2が作成されました。Claude-2は、人間の感情を理解し模倣する非凡な能力を持っており、人間と機械のインタラクションを革新し、AIシステムとの対話方法を再定義する可能性を秘めています。プロンプトで75,000語に相当する最大1,00,000トークンを処理する能力を持つClaude 2は非常に効果的です。…

「LLMはiPhone上でネイティブに動作できるのか? MLC-LLMとは、GPUアクセラレーションを備えた広範なプラットフォームに直接言語モデル(LLM)を導入するためのオープンフレームワークです」

大型言語モデル(LLM)は、人工知能の分野で現在の注目のトピックです。医療、金融、教育、エンターテイメントなど、さまざまな業界で大きな進歩が既になされています。GPT、DALLE、BERTなどのよく知られた大型言語モデルは、驚異的なタスクを実行し、生活を楽にしています。GPT-3はコードを完成させたり、人間のように質問に答えたり、短い自然言語プロンプトだけでコンテンツを生成したりすることができます。一方、DALLE 2は単純なテキストの説明に応じて画像を作成することができます。これらのモデルは人工知能と機械学習の大きな変革に貢献し、パラダイムシフトを実現するのに役立っています。 増え続けるモデルの開発に伴い、それらの広範な計算、メモリ、ハードウェアアクセラレーションの要件を収容するために強力なサーバーが必要となります。これらのモデルを非常に効果的かつ効率的にするためには、それらが消費者のデバイス上で独立して実行できる必要があります。これにより、アクセス性と利用可能性が高まり、ユーザーはインターネット接続やクラウドサーバーへの依存なしに、個人のデバイスで強力なAIツールにアクセスできるようになります。最近、MLC-LLMが導入されました。これはLLMをCUDA、Vulkan、Metalなどの広範なプラットフォームにGPUアクセラレーションとともに直接導入するオープンフレームワークです。 MLC LLMは、CPUやGPU、ネイティブアプリケーションを含むさまざまなハードウェアバックエンドにモデルを展開することができます。これは、サーバーやクラウドベースのインフラストラクチャが必要なく、任意の言語モデルをローカルデバイス上で実行できることを意味します。MLC LLMは、開発者が自然言語処理(NLP)やコンピュータビジョンなどの自分のユースケースに合わせてモデルのパフォーマンスを最適化するための生産性の高いフレームワークを提供します。さらに、ローカルのGPUを使用してアクセラレーションすることもできるため、個人のデバイス上で高精度かつ高速な複雑なモデルを実行することが可能です。 LLMやチャットボットをデバイス上でネイティブに実行するための具体的な手順が、iPhone、Windows、Linux、Mac、Webブラウザーに提供されています。iPhoneユーザー向けには、MLC LLMがTestFlightページを介してインストールできるiOSチャットアプリが提供されています。アプリはスムーズに実行するために少なくとも6GBのメモリが必要であり、iPhone 14 Pro MaxとiPhone 12 Proでテストされています。iOSアプリ上でのテキスト生成速度は、時折不安定になることがあり、最初は遅くなることがありますが、通常の速度に回復します。 Windows、Linux、Macユーザー向けには、MLC LLMがターミナルでボットとチャットするためのコマンドラインインターフェース(CLI)アプリを提供しています。CLIアプリをインストールする前に、Condaなどの依存関係と、WindowsとLinuxのNVIDIA GPUユーザー向けの最新のVulkanドライバーなどをインストールする必要があります。依存関係をインストールした後、ユーザーはCLIアプリをインストールし、ボットとチャットを開始するための手順に従うことができます。Webブラウザーを使用するユーザー向けには、MLC LLMはWebLLMという補完プロジェクトを提供しており、モデルをブラウザーにネイティブに展開します。すべての操作はブラウザー内で実行され、サーバーのサポートなしでWebGPUでアクセラレーションされます。 結論として、MLC LLMは多様なハードウェアバックエンドとネイティブアプリケーション上でLLMを展開するための信じられないほどの汎用的なソリューションです。様々なデバイスとハードウェア構成で実行できるモデルを構築したい開発者にとって、これは素晴らしいオプションです。

「P+にお会いしましょう:テキストから画像生成における拡張テキスト反転のための豊かな埋め込み空間」

テキストから画像の合成は、テキストのプロンプト記述から現実的な画像を生成するプロセスを指します。この技術は、人工知能(AI)の分野での生成モデルの一部であり、近年ますます注目を集めています。 テキストから画像生成は、ニューラルネットワークが人間の言語を視覚的な表現に解釈し、様々な合成組み合わせを可能にすることを目指しています。さらに、教示されない限り、生成ネットワークは同じテキストの説明に対して複数の異なる画像を出力します。これは、新しいアイデアを収集したり、インターネット上で見つけることができない正確なビジョンを表現するのに非常に役立ちます。 この技術は、仮想現実や拡張現実、デジタルマーケティング、エンターテイメントなど、さまざまな分野での応用が可能です。 最も採用されているテキストから画像生成ネットワークの中には、拡散モデルがあります。 テキストから画像の拡散モデルは、テキストの入力に応じてノイズ分布を反復的に洗練させることによって画像を生成します。与えられたテキストの説明を潜在ベクトルにエンコードし、ノイズ分布を拡散プロセスを使用して反復的に洗練します。このプロセスにより、入力テキストに一致する高解像度で多様な画像が生成されます。これは、入力テキストの視覚的特徴をキャプチャし組み込むU-netアーキテクチャを介して実現されます。 これらのモデルの条件付け空間は、言語モデルのトークン埋め込み空間によって定義されるP空間と呼ばれます。基本的に、Pはテキストの条件付け空間を表し、テキストエンコーダを通過した入力インスタンス「p」が合成中のU-netのすべてのアテンション層に注入されます。 次に、denoising diffusionモデルのテキスト条件付けメカニズムの概要を以下に示します。 このプロセスにより、U-netアーキテクチャには1つのインスタンス「p」しか供給されないため、エンコードされたテキスト上の解体と制御が制限されます。 そのため、著者らはP+という新しいテキスト条件付け空間を紹介しています。 この空間には、異なるレイヤーごとに注入される複数のテキスト条件が含まれます。これにより、P+はより高い表現力と解体能力を保証し、合成された画像のより良い制御を提供します。著者によれば、U-netの異なるレイヤーは合成された画像の属性に対して異なる程度の制御を持っています。特に、粗いレイヤーは主に画像の構造に影響を与え、細かいレイヤーは主に外観に影響を与えます。 P+空間を紹介した後、著者らはExtended Textual Inversion(XTI)という関連プロセスを紹介しています。これは、クラシックなTextual Inversion(TI)の再検討版であり、少数の入力画像で表される特定の概念を専用のトークンとして表現するモデルの学習プロセスです。XTIでは、入力画像をレイヤーごとに異なるトークン埋め込みのセットに反転させることが目標です。 これら2つの違いを明確にするために、2つのレイヤーからなるU-netに「緑のトカゲ」の写真を入力すると想像してみてください。TIの目標は、出力で「緑のトカゲ」を得ることです。一方、XTIでは、この場合は「緑」と「トカゲ」という異なるインスタンスが出力される必要があります。 著者らの研究では、P+における拡張された反転プロセスがTIよりも表現力と正確さがあり、さらに高速であることが証明されています。 さらに、P+における解体能力の向上により、オブジェクトスタイルのミキシングなど、テキストから画像の生成を介したミキシングが可能になります。 以下に、先述の研究からの例を示します。 これが、拡張テキスト反転のための豊かなテキスト条件付け空間であるP+の概要です。

「日常的な言葉で説明された最も一般的な機械学習用語10選」

「料理のレシピを最初に試した時、覚えていますか?おそらくそれはチョコレートチップクッキーや辛いサルサのレシピだったかもしれません指示をスキャンすると、『折りたたむ』などの用語にぶつかりました…」

MLflowを使用して機械学習の実験を追跡し、可視化する方法

「機械学習においては無料の昼食はありません具体的な問題に対して最適なデータ前処理や機械学習アルゴリズムがどれなのかはわかりません一つだけの唯一のアルゴリズムは存在しません...」

Pythonのzip()関数の探索:反復とデータの組み合わせの簡略化

zipは標準のPythonインタープリターに組み込まれた機能ですこれは辞書やリストなどの反復可能なオブジェクトと一緒に作業する際に役立つ強力なメソッドですこの記事では、…を探索します

「当社の独占的なマークダウンチートシートをチェックしてください」

Markdownは、複雑なHTMLや他の書式言語の必要性なく、さまざまな目的でテキストを簡単に書式設定する方法を提供する軽量のマークアップ言語です。そのシンプルさと使いやすさから、ドキュメンテーション、ブログ、その他の執筆プラットフォームで広く使用されています。このMarkdownチートシートでは、さまざまな書式オプションとそれらを効果的に使用する方法について説明します。 Markdownファイル Markdownは、プレーンテキストの書式設定を使用して豊かに書式設定されたドキュメントを作成する軽量のマークアップ言語です。これらのファイルは通常、.mdまたは.markdownの拡張子を持っています。ドキュメンテーションの作成、ブログ投稿の執筆、Webページのテキストの書式設定に一般的に使用されます。 マークダウンファイルをオフラインで開く方法 マークダウンファイルをオフラインで開くには、テキストエディタまたは専用のマークダウンエディタを使用できます。マークダウンファイルをオフラインで開く手順は次のとおりです: コンピュータ上のマークダウンファイルを見つけます。 ファイルを右クリックし、「開く」を選択します。 使用可能なプログラムのリストからテキストエディタまたはマークダウンエディタを選択します。 選択したエディタでマークダウンファイルが開き、その内容を表示および編集できます。 オンラインマークダウンエディタ オンラインマークダウンエディタは、ウェブブラウザで直接マークダウンファイルを作成およびプレビューするためのWebベースのツールです。これらのエディタは通常、リアルタイムのプレビュー、シンタックスハイライト、その他のマークダウンの作業に役立つ機能を提供します。 Markdownファイルの利点 学習と使用が容易: Markdownは、理解しやすく書きやすいシンプルな構文を持っています。HTMLやCSSのような複雑な書式設定コードは必要ありません。 プラットフォームに依存しない: Markdownファイルは、互換性のあるテキストエディタやマークダウンビューアを使用して、どのデバイスやオペレーティングシステムでも開いて表示することができます。 軽量: Markdownファイルはプレーンテキストファイルであり、小さくて読み込みが速いです。重い書式設定やスタイル情報は含まれていません。 バージョン管理に対応: MarkdownファイルはGitなどのバージョン管理システムとうまく機能します。マークダウンファイルへの変更は簡単に追跡、比較、マージすることができます。 ポータブル: Markdownファイルはさまざまなツールやコンバータを使用してHTML、PDF、Wordなどの他の形式に簡単に変換できます。このポータビリティにより、コンテンツを異なるプラットフォームやアプリケーションで共有することができます。 広くサポートされています:多くのテキストエディタ、コンテンツ管理システム(CMS)、パブリッシングプラットフォームがMarkdownをサポートしています。Web上でのコンテンツ作成において人気のある選択肢となっています。 では、Markdownチートシートを見てみましょう!…

清華大学の研究者たちは、メタラーニングの枠組みの下で新しい機械学習アルゴリズムを紹介しました

深層学習の教師ありタスクにおける最近の成果は、大量のラベル付きトレーニングデータの利用可能性によるものです。しかし、正確なラベルを収集するには多大な労力と費用がかかります。実際のコンテキストでは、トレーニングデータの一部しかラベルが付いていないことがよくあります。半教師あり学習(SSL)は、ラベル付きおよびラベルなしの入力を使用してモデルの性能を向上させることを目指しています。ディープラーニングに適用される多くの効果的なSSL手法は、ラベルなしデータを使用するために教師なしの一貫性正則化を行います。 最新の一貫性ベースのアルゴリズムは通常、優れたパフォーマンスを達成していても、いくつかの設定可能なハイパーパラメータを導入します。最適なアルゴリズムのパフォーマンスを得るために、これらのハイパーパラメータを最適な値に調整するのが一般的な方法です。残念ながら、多くの現実世界のSSLシナリオでは、医用画像処理、ハイパースペクトル画像分類、ネットワークトラフィック認識、文書認識などのように、注釈付きデータが少ないため、ハイパーパラメータの検索は頼りないことがよくあります。ハイパーパラメータの値によってアルゴリズムのパフォーマンスが影響を受けることは、この問題をさらに深刻にします。また、ハイパーパラメータの数に関連して探索空間が指数関数的に増加するため、最新のディープラーニングアルゴリズムでは計算コストが制御不能になる可能性があります。 清華大学の研究者は、Meta-Semiというメタ学習ベースのSSLアルゴリズムを導入し、ラベル付きデータをより活用します。Meta-Semiは、さらに1つのハイパーパラメータを調整することで、多くのシナリオで優れたパフォーマンスを発揮します。 研究チームは、適切に「疑似ラベル」の付いた未注釈の例を使用してネットワークを成功裏にトレーニングできる可能性に気付きました。具体的には、オンライントレーニングフェーズでは、ネットワークの予測に基づいて未注釈データに対して疑似ソフトラベルを生成します。次に、信頼性の低いまたは不正確な疑似ラベルを持つサンプルを削除し、残りのデータを使用してモデルをトレーニングします。この研究では、正確な「疑似ラベル」データの分布はラベル付きデータの分布と比較可能であるべきだと示されています。ネットワークが前者でトレーニングされる場合、後者の最終的な損失も最小限に抑えられるべきです。 研究者たちは、最終的な損失を最小化するために最適な重み(本論文では常にニューラルネットワークのパラメータを指すのではなく、各ラベルなしサンプルを再重み付けするために使用される係数を指す)を選択することで、メタリウェーティング目標を定義しました。この問題を最適化アルゴリズムを使用して解決する際に、研究者たちは計算上の困難に直面しました。 そのため、彼らは閉形式の解が導かれる近似式を提案しています。理論的には、各トレーニングイテレーションは近似解を達成するために単一のメタ勾配ステップのみを必要とすることを示しています。 結論として、彼らは以前に疑似ラベル付けされたサンプルに0-1の重みを再重み付けする動的な重み付けアプローチを提案しています。その結果、このアプローチは最終的な教師あり損失関数の安定点に到達することが示されています。人気のある画像分類ベンチマーク(CIFAR-10、CIFAR-100、SVHN、およびSTL-10)では、提案手法が最新のディープネットワークよりも優れたパフォーマンスを発揮することが示されています。難しいCIFAR-100とSTL-10のSSLタスクでは、Meta-SemiはICTやMixMatchなどの最新のSSLアルゴリズムよりもはるかに高いパフォーマンスを発揮し、CIFAR-10ではそれらよりもわずかに優れたパフォーマンスを発揮します。さらに、Meta-Semiは一貫性ベースの手法に有用な追加要素です。一貫性正則化をアルゴリズムに組み込むことで、パフォーマンスがさらに向上します。 研究者によると、Meta-Semiはトレーニングに少し時間がかかるという欠点があります。彼らは将来的にこの問題を調査する予定です。 この研究に関する論文と参考記事をご覧ください。この研究のすべてのクレジットはこのプロジェクトの研究者に帰属します。また、最新のAI研究ニュース、クールなAIプロジェクトなどを共有している26k+ ML SubReddit、Discord Channel、Email Newsletterにぜひご参加ください。 Tensorleapの説明可能性プラットフォームでディープラーニングの秘密を解き放つ この記事はMarkTechPostに掲載されたものです。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us