Learn more about Search Results A - Page 51

最終フロンティアの記録:30日間の#30DayMapChallengeの旅を完遂する

「#30DayMapChallengeが終わりに近づいている中で、コミュニティと協力の力に感銘を受けています毎日新たなテーマがもたらされ、各テーマごとに新たな洞察がもたらされ、その過程で、一つの織物のようなものが作り上げられてきました...」

VoAGIニュース、11月29日:機械学習をマスターするための5つの無料コース• ChatGPTで魅力的なデータ可視化

今週のVoAGIでは、無料の機械学習コースで機械学習モデルの構築方法を学び始めましょうChatGPTがわずか数語で驚くほど素晴らしいデータビジュアライゼーションを作成する様子をご覧くださいさらに、その他にもたくさんの情報があります!

「AWSとNVIDIAは新たな戦略的なパートナーシップを発表」

AWS reInventでの注目の発表で、Amazon Web Services(AWS)とNVIDIAは戦略的な協力関係の大規模な拡大を発表し、生成型AIの領域で新たな基準を確立しましたこのパートナーシップは、AWSの堅牢なクラウドインフラストラクチャーとNVIDIAの最先端のAI技術を結びつける、分野における画期的な瞬間を象徴していますAWSは初めてとなりました...

「#30DayMapChallange」の四週目

2019年から、地理情報システム(GIS)と空間分析のコミュニティは、毎年11月に非常に忙しいです — その楽しいチャレンジ「#30DayMapChallange」のおかげで毎年、これが…

注釈の習得:LabelImgとのシームレスなDetectron統合

イントロダクション コンピュータビジョンの大局において、画像のラベリングや写真の注釈付けは困難でありました。私たちの調査は、LabelImgとDetectronのチームワークに深く入り込んでおり、正確な注釈付けと効率的なモデル構築を組み合わせた強力なデュオです。簡単で正確なLabelImgは、注意深い注釈付けでリーダーシップを発揮し、明確なオブジェクト検出のための堅固な基盤を築きます。 LabelImgを試行し、境界ボックスの描画についてのスキルを向上させると、Detectronにシームレスに移行します。この堅牢なフレームワークは、マークされたデータを整理し、高度なモデルのトレーニングに役立ちます。LabelImgとDetectronは、初心者からエキスパートまで、誰にでも簡単にオブジェクト検出を可能にします。マークされた各画像が視覚情報のフルパワーを解き放つのをお手伝いいたします。 学習目標 LabelImgの使い方を学ぶ。 環境のセットアップとLabelImgのインストール。 LabelImgの理解と機能。 VOCまたはPascalデータをCOCO形式に変換してオブジェクト検出する。 この記事はData Science Blogathonの一環として発表されました。 フローチャート 環境のセットアップ 1. 仮想環境の作成: conda create -p ./venv python=3.8 -y このコマンドはPythonバージョン3.8を使用して、「venv」という名前の仮想環境を作成します。 2. 仮想環境のアクティブ化:…

「OpenAIモデルに対するオープンソースの代替手段の探索」

序文 AIの領域では、11月はドラマチックな展開がありました。GPTストアやGPT-4-turboのローンチ、そしてOpenAIの騒動まで、まさに忙しい一ヶ月でした。しかし、ここで重要な問題が浮かび上がります:クローズドモデルとその背後にいる人々はどれだけ信頼できるのでしょうか?自分が実際に運用しているモデルが内部の企業ドラマに巻き込まれて動作停止するのは快適な体験とは言えません。これはオープンソースモデルでは起こらない問題です。展開するモデルには完全な管理権限があります。データとモデルの両方に対して主権を持っています。しかし、OSモデルをGPTと置き換えることは可能でしょうか?幸いなことに、既に多くのオープンソースモデルが、GPT-3.5モデル以上の性能を発揮しています。本記事では、オープンソースのLLM(Large Language Models)およびLMM(Large Multi-modal Models)の最高の代替品をいくつか紹介します。 学習目標 オープンソースの大規模言語モデルについての議論。 最新のオープンソース言語モデルとマルチモーダルモデルについての探求。 大規模言語モデルを量子化するための簡易な導入。 LLMをローカルおよびクラウド上で実行するためのツールやサービスについて学ぶ。 この記事は、データサイエンスブログマラソンの一環として公開されました。 オープンソースモデルとは何ですか モデルがオープンソースと呼ばれるのは、モデルの重みとアーキテクチャが自由に利用できる状態にあるからです。これらの重みは、例えばMeta’s Llamaのような大規模言語モデルの事前訓練パラメータです。これらは通常、ファインチューニングされていないベースモデルやバニラモデルです。誰でもこれらのモデルを使用し、カスタムデータでファインチューニングして下流のアクションを実行することができます。 しかし、それらはオープンなのでしょうか?データはどうなっているのでしょうか?多くの研究所は、著作権に関する懸念やデータの機密性の問題などの理由から、ベースモデルの訓練データを公開しません。これはまた、モデルのライセンスに関する部分にも関連しています。すべてのオープンソースモデルは、他のオープンソースソフトウェアと同様のライセンスが付属しています。Llama-1などの多くのベースモデルは非商用ライセンスとなっており、これらのモデルを利用して収益を上げることはできません。しかし、Mistral7BやZephyr7Bなどのモデルは、Apache-2.0やMITライセンスが付属しており、どこでも問題なく使用することができます。 オープンソースの代替品 Llamaのローンチ以来、オープンソースの領域ではOpenAIモデルに追いつこうとする競争が繰り広げられています。そしてその結果は今までにないものでした。GPT-3.5のローンチからわずか1年で、より少ないパラメータでGPT-3.5と同等またはそれ以上のパフォーマンスを発揮するモデルが登場しました。しかし、GPT-4は依然として理性や数学からコード生成までの一般的なタスクには最も優れたモデルです。オープンソースモデルのイノベーションと資金調達のペースを見ると、GPT-4のパフォーマンスに近づくモデルが間もなく登場するでしょう。とりあえず、これらのモデルの素晴らしいオープンソースの代替品について話しましょう。 Meta’s Llama 2 Metaは今年7月にLlama-2という彼らの最高のモデルをリリースし、その印象的な能力により一瞬で人気を集めました。MetaはLlama-7b、Llama-13b、Llama-34b、Llama-70bの4つの異なるパラメータサイズのLlama-2モデルをリリースしました。これらのモデルは、それぞれのカテゴリにおいて他のオープンモデルを上回る性能を発揮しました。しかし、現在ではmistral-7bやZephyr-7bのような複数のモデルが、多くのベンチマークで小さなLlamaモデルを上回る性能を発揮しています。Llama-2 70bはまだそのカテゴリーで最高のモデルの一つであり、要約や機械翻訳などのタスクにおいてGPT-4の代替モデルとして価値があります。 Llama-2はGPT-3.5よりも多くのベンチマークで優れたパフォーマンスを発揮し、GPT-4に迫ることもできました。以下のグラフは、AnyscaleによるLlamaとGPTモデルのパフォーマンス比較です。…

「Bingチャットは、最新のリアルタイムな知識を提供する点でChatGPTを上回るのか? 検索補完強化ジェネレーション(RAG)によるご紹介」

近年、大規模言語モデル(LLM)の開発により、人工知能(AI)と機械学習の分野において革新的な変化がもたらされました。これらのモデルは大衆やAIコミュニティから重要な注目を集め、自然言語処理、生成、理解において驚異的な進歩を遂げています。よく知られたChatGPTというLLMの最良の例は、OpenAIのGPTアーキテクチャに基づいており、人間がAIパワードの技術と対話する方法を変えました。 LLMは、テキスト生成、質問応答、テキスト要約、言語翻訳などのタスクにおいて優れた能力を示していますが、それでも独自の欠点があります。これらのモデルは、時に正確でない情報や時代遅れの情報として出力することがあります。さらに、適切なソースの引用がない場合、LLMによって生成された出力の信頼性を検証することが困難になることがあります。 Retrieval Augmented Generation(RAG)とは何ですか? Retrieval Augmented Generation(RAG)という手法は、上記の制限に対処しています。RAGは、外部知識ベースから事実を収集し、大規模言語モデルが正確かつ最新の情報にアクセスできるようにする人工知能ベースのフレームワークです。 外部知識の取り込みにより、RAGはLLMを変革することができました。RAGは従来のLLMの制限を解消し、外部検索と生成手法をスムーズに組み合わせることにより、より信頼性のある、文脈に敏感な、知識のあるAIによるコミュニケーション環境を保証します。 RAGの利点 応答の品質向上 – Retrieval Augmented Generationは、不一致のあるLLM生成の応答問題に焦点を当て、より正確で信頼性のあるデータを保証します。 最新の情報の取得 – RAGは外部情報を内部表現に統合することで、LLMが最新かつ信頼性のある事実にアクセスできるようにします。これにより、回答が最新の知識に基づいており、モデルの正確性と関連性が向上します。 透明性 – RAGの実装により、ユーザーはLLMベースのQ&Aシステムにおけるモデルのソースを取得できます。ユーザーに文の整合性を検証する機能を提供することで、LLMは透明性を促進し、提供するデータへの信頼性を高めます。 情報の欠落と幻覚の減少 – RAGは、LLMを独立かつ検証可能な事実に基づいて構築することにより、モデルが機密情報を漏洩したり、誤った結果を生成する可能性を低減します。より信頼性のある外部知識ベースに依存することで、LLMが情報を誤解する可能性を減らします。…

このAI研究は、車両の後続振る舞いモデリングのための包括的なベンチマークデータセット「FollowNet」を紹介します

他の車に続くことは、最も一般的で基本的な運転行動です。他の車に安全に従うことは、衝突を減らし、交通の流れを予測しやすくします。ドライバーが道路上で他の車に従うとき、適切な車両追跡モデルは、この行動を数学的または計算的に表現します。 運転データの実世界での利用可能性と機械学習の進歩は、過去10年間にデータ駆動型の車両追従モデルのブームに大きく貢献しました。車両に従うためにデータに依存するモデルには、ニューラルネットワーク、再帰型ニューラルネットワーク、強化学習などがあります。ただし、次のようないくつかの制約もあります: まず、車両追従モデルは、標準のデータ形式の不在のためにまだ十分に評価されていません。NGSIMやHighDなどの公開運転データセットが利用可能であるにもかかわらず、車両追従モデルの新規提案モデルのパフォーマンスを既存のものと比較するのは困難です。 第二に、現在の研究の限られたデータセットでは、混合交通流における車両追従行動を正確に描写することは不可能です。自律型車両を考慮しない小規模なデータセットで車両追従行動をモデリングしているということが先行研究の主な焦点であり、これは人力および自動運転車両が道路を共有している時期に行われたものです。 これらの問題を解決し、標準的なデータセットを作成するために、香港科技大学、広東省統合通信キーラボ、同济大学、ワシントン大学の研究者らによる新しい研究によって、FollowNetというベンチマークが作成されました。彼らは一貫した基準を使用して、5つの公開データセットから車両追跡イベントを抽出し、ベンチマークを確立しました。研究者らはベンチマーク内で5つのベースラインの車両追従モデルを実行し、評価し、従来の手法とデータ駆動型の手法を包括しています。彼らは車両追従モデルの作成を容易にするために、一貫したデータ形式を使用してこのような行動の最初の基準を設定しました。さまざまなデータ構造やフレームワークの取り扱いは困難かもしれませんが、彼らの標準化された車両追従ベンチマークはそれを考慮に入れています。 ベンチマークを使って、GHR、IDM、NN、LSTM、DDPGの2つの従来型および3つのデータ駆動型の車両追従モデルがトレーニングおよび評価されます。HgihD53、Next Generation Simulation(NGSIM)54、Safety Pilot Model Deployment(SPMD)55、Waymo56、およびLyf57という5つの人気のある公開運転データセットは、提案されたベンチマークを構成する車両追従イベントを含んでいます。研究者らは複数のデータセットについて車両追従行動のパターンや基本的な統計情報を調査しました。結果は、一貫した評価指標を用いてベースラインモデルのパフォーマンスを評価することを示しています。特にWaymoとLyfのデータセットでは、車両追従の発生が混合交通状況であることが示されています。静止時間が90%以上のイベントは含まれていません。 データ駆動型のモデルがクラシックなモデルよりもスペーシングのMSEが低くなったとしても、衝突はまだ起こり得ます。衝突率がゼロで、スペーシングエラーが少ない車両追従モデルの開発は望ましいです。データ駆動型モデルを現実世界で実用的かつ安全に使用するために、衝突回避機能を組み込むことは有益です。提案されたベンチマークでは、すべての車両が一貫して似たような行動パターンを示すと考えられています。しかし現実的には、運転習慣はドライバーや車両、交通状況によって大きく異なることがあります。そのため、幅広い運転スタイル、行動、交通状況をカバーする適応可能なアルゴリズムと代表的なデータセットを作成することは、車両追従モデルに運転の異質性を含めるために不可欠です。 研究者らは、将来のデータセットが更なる性能と現実性を向上させるために、追加のフィーチャーを取り入れる必要があると提案しています。例えば、交通信号や道路の状況データを追加することで、より完全な道路環境の全体像が得られるかもしれません。さらに、アルゴリズムは、近くの車両やその活動に関するデータを統合すれば複雑な関係性を考慮し、より良い予測を提供することができます。これらの追加データソースを使用することで、将来のデータセットはより現実世界の運転シナリオを反映できるようになり、頑健かつ効果的な車両追従アルゴリズムの作成を可能にします。

最大のLLMベンチマーキングスイート:MEGAVERSE

「LLMがより高度かつ網羅的になるにつれて、評価フレームワークも複数のモダリティ、言語、バリエーションを対象にしたパフォーマンス評価能力に対応しなければなりません...」 (LLMがよりこうどかつもうらてきになるにつれて、ひょうかフレームワークもふくすうのもだりてぃ、げんご、ばりえーしょんをたいしょうにしたぱふぉーまんすひょうかのうりょくにたいおうしなければなりません...)

データ駆動型生成AI:データと分析の利点

ジェネラティブAIは、データと分析の領域を革命化し、生産性を高め、納期を短縮すると位置付けられています

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us