Learn more about Search Results VICE - Page 2

2024年にフォローするべきデータサイエンスのトップ12リーダー

データサイエンスの広がりを見据えると、2024年の到来は、革新を牽引し、分析の未来を形作る一握りの著名人にスポットライトを当てる重要な瞬間として迎えられます。『Top 12 Data Science Leaders List』は、これらの個人の卓越した専門知識、先見のリーダーシップ、および分野への重要な貢献を称えるビーコンとして機能します。私たちは、これらの画期的なマインドの物語、プロジェクト、そして先見の見通しをナビゲートしながら、データサイエンスの進路を形作ると約束された航跡を探求します。これらの模範的なリーダーたちは単なるパイオニアにとどまることはありません。彼らは無類のイノベーションと発見の時代へと私たちを導く先駆者そのものです。 2024年に注目すべきトップ12データサイエンスリーダーリスト 2024年への接近とともに、データサイエンスにおいて傑出した専門知識、リーダーシップ、注目すべき貢献を示す特異なグループの人々に焦点を当てています。『Top 12 Data Science Leaders List』は、これらの個人を認識し、注目することで、彼らを思想リーダー、イノベーター、およびインフルエンサーとして認め、来年重要なマイルストーンを達成することが予想されます。 さらに詳細に突入すると、これらの個人の視点、事業、イニシアチブが、さまざまなセクターを横断する複雑な課題に対するメソッドとデータの活用方法を変革することが明らかになります。予測分析の進展、倫理的なAIの実践の促進、または先進的なアルゴリズムの開発など、このリストでハイライトされた個人たちが2024年にデータサイエンスの領域に影響を与えることが期待されています。 1. Anndrew Ng 「AIのゲームにおいて、適切なビジネスコンテキストを見つけることが非常に重要です。私はテクノロジーが大好きです。それは多くの機会を提供します。しかし結局のところ、テクノロジーはコンテクスト化され、ビジネスユースケースに収まる必要があります。」 Dr. アンドリュー・エングは、機械学習(ML)と人工知能(AI)の専門知識を持つ英米のコンピュータ科学者です。AIの開発への貢献について語っている彼は、DeepLearning.AIの創設者であり、Landing AIの創設者兼CEO、AI Fundのゼネラルパートナー、およびスタンフォード大学コンピュータサイエンス学科の客員教授でもあります。さらに、彼はGoogle AIの傘下にある深層学習人工知能研究チームの創設リードでありました。また、彼はBaiduのチーフサイエンティストとして、1300人のAIグループの指導や会社のAIグローバル戦略の開発にも携わりました。 アンドリュー・エング氏は、スタンフォード大学でMOOC(大規模オープンオンラインコース)の開発をリードしました。また、Courseraを創設し、10万人以上の学生に機械学習のコースを提供しました。MLとオンライン教育の先駆者である彼は、カーネギーメロン大学、MIT、カリフォルニア大学バークレー校の学位を保持しています。さらに、彼はML、ロボット工学、関連する分野で200以上の研究論文の共著者であり、Tiime誌の世界で最も影響力のある100人のリストに選ばれています。…

「エンパワーリング・インサイト: マイクロソフトのデータ分析のためのファブリックの潜在能力を解き放つ」

「Microsoft Fabricを探索することは、SQLサーバー以来の最も重要なデータプラットフォームの革新ですその構成要素、利点、および採用洞察を探索してください」

高度なRAGテクニック:イラスト入り概要

この投稿の目標は、利用可能なRAGアルゴリズムとテクニックの概要と説明をすることなので、コードの実装の詳細には立ち入らず、参照のみ行い、それについては放置します

「キナラがAra-2プロセッサを発表:パフォーマンス向上のためのオンデバイスAI処理を革命化」

Kinaraは、エネルギー効率の高いエッジAIのパイオニアであるAra-2プロセッサを発表しました。それは、前任者と比べて8倍の高性能を誇り、デバイス内で大規模な言語モデル(LLMs)とさまざまな生成AIモデルを強力にサポートする能力を備えています。 Kinaraのイノベーションへの執念から生まれたAra-2プロセッサは、プロセッサのラインアップの大きな進歩を表しており、顧客にはパフォーマンスとコストのオプションのスペクトラムが用意されています。チームはこの新しい追加の重要性を強調し、Ara-1とAra-2プロセッサの役割を詳細に説明しました。Ara-1はスマートカメラやエッジAIデバイスが2-8のビデオストリームを処理するのに優れている一方、Ara-2はエッジサーバー、ノートパソコン、高性能カメラに向けた16-32+のビデオストリームを素早く処理する能力を示しました。 チームはさらに、Ara-2の変革的な可能性について詳述し、物体検出、認識、トラッキングの向上におけるその重要な役割を強調しました。このプロセッサは、高度なコンピューティングエンジンを活用し、高解像度の画像を迅速かつ驚くほど高い精度で処理することに優れています。また、Generative AIモデルの処理能力は、Stable Diffusionに対して1枚の画像あたり10秒の速度を達成し、LLaMA-7Bに対しては秒間数十のトークンを生成できることで示されています。 Ara-1の後継として設計されたAra-2チップは、前任者と比べて5〜8倍もの大幅なパフォーマンス向上を約束しています。Kinaraは、Ara-2チップがさまざまなモデルで高コストで高消費電力のグラフィックスプロセッサを置き換える潜在能力を持つと主張しています。特に大規模な言語モデル(LLMs)のニーズに対応しています。 2024年1月のConsumer Electronics Show(CES)で発表される予定のAra-2プロセッサは、複数のバリエーションで提供されます。スタンドアロンチップ、単一チップのUSBおよびM.2モジュール、4つのAra-2チップを並列動作させるPCI Expressアドインボードとして利用できます。Kinaraはリリースを予想しながらも、価格の詳細を開示しておらず、愛好家や消費者がこの技術の驚異を探求することを待ち望んでいます。 まとめると、KinaraのAra-2プロセッサは、切り込んだパフォーマンス、多様性、効率を併せ持つオンデバイスAI処理の新時代を告げる存在です。CESでの近い展示は、エッジAI技術の領域を再定義する可能性のある変革的なツールを暗示して、産業界全体で興味を引き起こしています。 この投稿は、KinaraがAra-2プロセッサを発表:パフォーマンス向上のためのオンデバイスAI処理を革新の投稿最初に現れました。MarkTechPostより。

Pythonの地図を使って貿易流をビジュアライズする – 第1部:双方向貿易流マップ

商品やサービスの交換は、それらの対応する価値と引き換えに私たちの日常生活の重要な一部です同様に、国々はさまざまな種類の貿易関係を築いています

「FinTech API管理におけるAIの力を解き放つ:製品マネージャーのための包括的なガイド」

この包括的なガイドでは、AIが金融技術のAPI管理に果たす変革的な役割を探求し、各セクションごとに実世界の例を提供していますAIによる洞察力や異常検知からAIによる設計、テスト、セキュリティ、そして個人化されたユーザーエクスペリエンスまで、金融技術のプロダクトマネージャーはAIの力を活用してオペレーションを最適化し、セキュリティを強化し、提供を行わなければなりません

Amazon DocumentDBを使用して、Amazon SageMaker Canvasでノーコードの機械学習ソリューションを構築してください

Amazon DocumentDB(MongoDB互換)とAmazon SageMaker Canvasの統合のローンチをお知らせできることを喜びますこれにより、Amazon DocumentDBのお客様はコードを書かずに生成AIや機械学習(ML)ソリューションを構築・使用することができますAmazon DocumentDBはフルマネージドのネイティブJSONドキュメントデータベースであり、重要な業務をスムーズかつ効率的に運用することができます

このAI論文では、アマゾンの最新の機械学習に関する情報が大規模言語モデルのバグコードについて明らかにされています

プログラミングは複雑であり、エラーのないコードを書くことは時には難しいです。コードの大規模言語モデル(Code-LLMs)はコード補完に役立つために開発されていますが、コードの文脈に潜んでいるバグを見落とすことがあります。この問題に対応するために、ウィスコンシン大学マディソン校とAmazon Web Servicesの研究者が、コード生成中に潜在的なバグを検出するためのLLMsの性能向上についての研究を行いました。 コード-LLMsを活用した自動プログラム修正の研究は、プログラミングのバグの特定と修正の負担を軽減することを目指しています。他のドメインの敵対的な例と同様に、意味を保持したままの小さなコード変換は、コード学習モデルの性能を低下させることがあります。CodeXGLUE、CodeNet、HumanEvalなどの既存のベンチマークは、コード補完とプログラム修復の研究に重要な役割を果たしています。データの利用可能性を高めるために、バグを生成するためのコードミュータントやバグを作成する方法などが開発されています。 統合開発環境における重要な機能であるコード補完は、コードをベースとするTransformerベースの言語モデルの進化とともに進化してきました。しかし、これらのモデルはソフトウェア開発でよく起こるバグの存在を見落とすことが多いです。この研究では、コードの文脈に潜在的なバグが存在するバギーコード補完(bCC)の概念を紹介し、そのようなシナリオでのCode-LLMsの振る舞いを探求しています。バグを含んだデータセットであるバギーHumanEvalとバギーFixEvalを導入し、合成的なバグと現実的なバグの存在下でCode-LLMsの評価を行い、著しい性能低下が明らかになりました。この問題に対処するために、ポストミティゲーション手法が探求されています。 提案されたミティゲーション手法には、バギーフラグメントを削除する「削除して補完」、補完後にバグを修正する「補完して書き直す」、補完前にコード行を書き直してバグを解決する「書き直して補完する」などがあります。合格率によって測定されるパフォーマンスは、補完して書き直すと書き直して補完するが有利です。これらの手法では、RealiTやINCODER-6BのようなCode-LLMsがコードフィクサーとして機能します。 潜在的なバグの存在は、Code-LLMsの生成パフォーマンスを著しく低下させます。1つのバグにつき合格率が50%以上減少します。バグの場所の知識を持つヒューリスティックオラクルは、バギーHumanEvalとバギーFixEvalの間に顕著なパフォーマンスギャップを示し、バグの位置の重要性を強調しています。尤度ベースの手法は、2つのデータセットで異なるパフォーマンスを示し、バグの性質が集約方法の選択に影響を与えることを示しています。バグの存在下でのパフォーマンス改善を提案する削除して補完や書き直して補完などのポストミティゲーション手法もありますが、まだギャップが存在し、潜在的なバグとのコード補完の改善についてのさらなる研究の必要性を示しています。 この研究では、以下の要点でまとめることができます: この研究では、bCCと呼ばれる新しいタスクが紹介されています。 bCCは、潜在的なバグが存在するコードの文脈から機能的な実装を生成します。 この研究は、バギーHumanEvalとバギーFixEvalという2つのデータセットで評価されています。 Code-LLMsのパフォーマンスは著しく低下し、テストケースの合格率が5%以下になります。 削除して補完、書き直して補完などのポストミティゲーション手法が提案されていますが、まだパフォーマンスのギャップが存在します。 この研究は、bCCにおけるCode-LLMsの理解を向上させるものです。 この研究は、潜在的なバグの存在下でコード補完を改善する方法を示唆しています。

『ELS+ Stream Tool』

ELS+は、企業がデータから有益な洞察を抽出し、意思決定を改善し、パフォーマンスを向上させるためのAIパワードアナリティクスツールです

「オープンソースツールを使用して、プロのように音声をクローンし、リップシンク動画を作る方法」

紹介 AI音声クローンはソーシャルメディアで大流行しています。これにより、創造的な可能性が広がりました。ソーシャルメディアで有名人のミームやAI声の上書きを見たことがあるかもしれません。それがどのように行われているのか疑問に思ったことはありませんか?Eleven Labsなど、多くのプラットフォームがAPIを提供していますが、オープンソースソフトウェアを使用して無料で行うことはできるのでしょうか?短い答えは「YES」です。オープンソースには音声合成を実現するためのTTSモデルとリップシンクツールがあります。したがって、この記事では、音声クローンとリップシンクのためのオープンソースのツールとモデルを探求してみましょう。 学習目標 AI音声クローンとリップシンクのためのオープンソースツールを探求する。 FFmpegとWhisperを使用してビデオを転写する。 Coqui-AIのxTTSモデルを使用して声をクローンする。 Wav2Lipを使用してビデオのリップシンクを行う。 この技術の実世界での使用例を探求する。 この記事はData Science Blogathonの一環として公開されました。 オープンソーススタック 既にご存じのように、私たちはOpenAIのWhisper、FFmpeg、Coqui-aiのxTTSモデル、およびWav2lipを私たちの技術スタックとして使用します。しかし、コードに入る前に、これらのツールについて簡単に説明しましょう。そして、これらのプロジェクトの作者に感謝します。 Whisper: WhisperはOpenAIのASR(自動音声認識)モデルです。これは、多様なオーディオデータと対応するトランスクリプトを用いて、650,000時間以上のトレーニングを受けたエンコーダ-デコーダトランスフォーマーモデルです。そのため、オーディオからの多言語の転写に非常に適しています。 エンコーダは、30秒のオーディオチャンクのログメルスペクトログラムを受け取ります。各エンコーダブロックは、オーディオ信号の異なる部分を理解するためにセルフアテンションを使用します。デコーダは、エンコーダからの隠れ状態情報と学習済みの位置エンコーディングを受け取ります。デコーダはセルフアテンションとクロスアテンションを使用して次のトークンを予測します。プロセスの最後に、認識されたテキストを表すトークンのシーケンスを出力します。Whisperの詳細については、公式リポジトリを参照してください。 Coqui TTS: TTSはCoqui-aiのオープンソースライブラリです。これは複数のテキスト読み上げモデルをホストしています。Bark、Tortoise、xTTSなどのエンドツーエンドモデル、FastSpeechなどのスペクトログラムモデル、Hifi-GAN、MelGANなどのボコーダなどがあります。さらに、テキスト読み上げモデルの推論、調整、トレーニングのための統一されたAPIを提供しています。このプロジェクトでは、xTTSというエンドツーエンドの多言語音声クローニングモデルを使用します。これは英語、日本語、ヒンディー語、中国語などを含む16の言語をサポートしています。TTSについての詳細情報は、公式のTTSリポジトリを参照してください。 Wav2Lip: Wav2Lipは、「A Lip Sync…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us