Learn more about Search Results CPU - Page 12

チューリングのミル:AIスーパーコンピューターが英国の経済エンジンを加速

産業革命の発祥地であるイギリスが、次なる革命に巨額な投資を行うことを発表しました。 イギリス政府は、世界最速のAIスパーコンピューターを構築するために、2億2500万ポンド(2億7300万ドル)を費やすことを発表しました。 名前はイサンバードAIと呼ばれ、19世紀の伝説的なイギリスのエンジニアにちなんで命名され、ブリストル大学でホストされています。来年完全に設置されると、5,448のNVIDIA GH200 Grace Hopper Superchipsを搭載し、国内外の研究者に対して驚異的な21エクサフロップのAIパフォーマンスを提供します。 この発表は、AIの安全サミットで行われました。このサミットは、100人以上の国際的な政府と技術リーダーが集まったもので、世界初のデジタルプログラム可能コンピューターの場所であるブレッチリーパークで開催されました。この場所は、アラン・チューリングなどの革新者の仕事を反映しており、AIの父とされています。 「AIは産業革命、電気の登場、インターネットの誕生と同様に、産業に変革をもたらす」と、イギリスの首相であるリシ・スナック氏は先週のスピーチでこのイベントについて述べました。このイベントは、国際的な協力を促進することを目的としています。 現代経済の推進力 イサンバード・ブルネルが創造したものの一つ、世界初のプロペラ駆動の航海鉄船のように、彼の名前を冠したAI技術は既に国を前進させています。 先日、国の科学、イノベーション、技術担当大臣であるミシェル・ドネラン氏がこのシステムについて行った発表によると、AIはイギリス経済に37億ポンド以上の貢献をし、5万人以上の人々を雇用しているとのことです。 このブリストルにおけるAI研究リソースへの投資は、「科学的な発見を促進し、イギリスをAI開発の最先端に位置づけます」とドネラン氏は述べました。 AI自体と同様に、このシステムは機械学習の潜在能力を活用して、ロボット工学、データ分析、薬物探索、気候研究など、さまざまな組織で使用されるでしょう。 「イサンバードAIは、イギリスのAI計算能力の大きな飛躍を表しています」と、イサンバード国立研究施設のブリストル大学教授であるサイモン・マッキントッシュ=スミス氏は述べています。「現在のイサンバードAIは、世界で最速のスーパーコンピューターのトップ10にランクインし、2024年後半に稼働すると、どこにでもあるオープンサイエンスのための最も強力なAIシステムの一つになるでしょう。」 次なる製造業の革命 産業革命と同様に、AIは製造業の進歩を約束しています。それが、イサンバードAIがイギリスの7つの製造研究センターの一つであるブリストル・バス科学公園に拠点を置く理由の一つです。 また、フロンティアAIタスクフォースという研究グループは、フロンティアAIの安全な開発に関してグローバルな取り組みをリードする役割を果たしており、このシステムの主要な利用者になる予定です。 イサンバードAIを構築しているヒューレット・パッカード・エンタープライズは、イギリス政府のネットゼロカーボン目標をサポートするエネルギー効率の計画において、ブリストル大学とも協力しています。 エネルギー効率の高いHPC 来年ブリストル・バス科学公園に導入される2つ目のシステムは、非加速のハイパフォーマンスコンピューティングワークロードのArmのエネルギー効率を示すものです。 イサンバード-3は、推定2.7ペタフロップスのFP64ピークパフォーマンスを提供し、消費電力は270キロワット以下であり、世界でトップ3の最もエネルギー効率の高い非加速スーパーコンピューターの一つに位置づけられます。これは、バース、ブリストル、カーディフ、エクセターの大学の間で研究連携が行われる一環で、医学や科学の研究に使用される予定のArmベースの384のNVIDIA Grace CPU…

「PythonでCuPyを使ってGPUのパワーを最大限に活用する」

「機械学習、科学計算、または巨大なデータセットを扱っている場合でも、CuPyはまさにゲームチェンジャーです」

CI/CDパイプライン:Azure上のデータ処理アプリケーションのためのパート1:コンテナインスタンス

「手動でAzureや他のクラウドプロバイダにリソースを作成および展開することは比較的簡単であり、場合によっては十分であるかもしれませんしかし、ほとんどの場合、展開されたリソースは変更が必要になるでしょう...」

「初心者からニンジャへ:なぜデータサイエンスにおけるPythonのスキルが重要なのか」

「データサイエンティストとして、Pythonのスキルを向上させる価値はありますか?さまざまなレベルの専門知識をもつ人々のコード比較にダイブし、「十分」は本当に十分なのかを見つけましょう」

「分散データパラレル(DDP)の包括的ガイド」

みなさんこんにちは!私はメタの研究科学者、フランソワです新しいチュートリアルシリーズ「素晴らしいAIチュートリアル」の一部として、ようこそお越しくださいましたこのチュートリアルでは、よく知られているテクニックの1つである…を解説していきます

「IntelのOpenVINOツールキットを使用したAI最適化と展開のマスタリング」

イントロダクション 人間の労働力を置き換えるAIの影響が増しているため、私たちはほぼ毎日AIについて話題にしています。AIを活用したソフトウェアの構築は、短期間で急速に成長しています。企業やビジネスは、信頼性のある責任あるAIをアプリケーションに統合し、収益を増やすことを信じています。アプリケーションにAIを統合する最も困難な部分は、モデルの推論とモデル訓練に使用される計算リソースです。既に多くのテクニックが存在しており、モデルの推論時のパフォーマンスを最適化し、より少ない計算リソースでモデルを訓練します。この問題を解決するために、IntelはOpenVINO Toolkitを導入しました。OpenVINOは革新的なオープンソースツールキットであり、AIの推論を最適化して展開することができます。 学習目標 この記事では、以下の内容を理解します。 OpenVINO Toolkitとは何か、AIの推論モデルを最適化し展開するための目的を理解します。 OpenVINOの実用的なユースケース、特にエッジにおけるAIの将来における重要性を探求します。 Google ColabでOpenVINOを使用して画像内のテキスト検出プロジェクトを実装する方法を学びます。 OpenVINOの主な特徴と利点、モデルの互換性とハードウェアアクセラレータのサポート、およびさまざまな産業とアプリケーションに与える影響を探求します。 この記事はData Science Blogathonの一環として公開されました。 OpenVINOとは何ですか? OpenVINO(オープンビジュアル推論およびニューラルネットワーク最適化)は、Intelチームによって開発されたオープンソースツールキットで、ディープラーニングモデルの最適化を容易にするものです。OpenVINOツールキットのビジョンは、AIのディープラーニングモデルを効率的かつ効果的にオンプレミス、オンデバイス、またはクラウド上で展開することです。 OpenVINO Toolkitは特に価値があります。なぜなら、TensorFlow、PyTorch、Onnx、Caffeなどのような人気のあるディープラーニングフレームワークをサポートしているからです。好きなフレームワークを使用してモデルをトレーニングし、OpenVINOを使用してIntelのハードウェアアクセラレータ(CPU、GPU、FPGA、VPUなど)にデプロイするために変換と最適化を行うことができます。 推論に関しては、OpenVINO Toolkitはモデルの量子化と圧縮のためのさまざまなツールを提供しており、推論の精度を損なうことなくディープラーニングモデルのサイズを大幅に削減することができます。 なぜOpenVINOを使用するのですか? AIの人気は現在も衰える気配がありません。この人気により、オンプレミスやオンデバイスでAIアプリケーションを実行するためのアプリケーションがますます開発されることは明らかです。OpenVINOが優れているいくつかの重要な領域は、なぜOpenVINOを使用することが重要かを理解するための理想的な選択肢となっています。 OpenVINOモデルズー OpenVINOは、安定した拡散、音声、オブジェクト検出などのタスクに対する事前トレーニング済みのディープラーニングモデルを提供するモデルズーを提供しています。これらのモデルはプロジェクトの出発点として利用することができ、時間とリソースを節約することができます。…

「4つの簡単なステップであなたのMLシステムを超高速化する」

「ML最適化のローラーコースターへようこそ!この投稿では、4つのシンプルなステップで、いかなるMLシステムを高速訓練と推論に最適化するプロセスをご紹介しますこんなことを想像してみてください:あなたは…」

「IBMが脳をモチーフにしたコンピュータチップを発表、これにより人工知能(AI)がより高速かつ省電力で動作する可能性が高まる」

人工知能の絶え間なく進化する領域において、より速く、効率的な処理能力の必要性は、コンピュータサイエンティストやエンジニアにとって絶えずの課題でした。 IBM Researchからの最新のブレークスルー、NorthPoleという専用のコンピュータチップは、有望な解決策を提供しています。この革新的なチップは、専門家の大きなチームによって精巧に作られ、現行の市場提供のAIベースの画像認識アプリケーションと比較して22倍もの速度向上を実証しています。 ChatGPTなどの人気ツールを含む既存のAIアプリケーションは、インターネットアクセス可能なデータに頼ることで時間の遅延に苦労することが多いです。この課題に対応するため、研究者は「エッジ」コンピューティングシステムへの移行の必要性を強調しました。このアプローチでは、データをAIアプリケーションに物理的に近い位置に配置し、より高速な処理と迅速な応答時間を実現します。 NorthPoleは、この目標を達成するために重要な進歩を表しています。その設計は、人間の脳の入念な働きからインスピレーションを受けています。メモリブロックと相互接続されたCPUの二次元配列を通じて、このデジタル全体のアーキテクチャは、コンピューティングコアが近くのブロックと遠くのブロックとの間でシームレスに通信することを可能にします。この革新的なアプローチにより、データの迅速な処理と迅速な応答が容易になります。 研究チームは、NorthPoleを含む様々な既存のチップ、NVIDIA GPUなどとのパフォーマンスを入念に評価しました。その結果は驚くほどでした。NorthPoleは競合他社を上回り、タスクを最大22倍速く完了しました。さらに、トランジスタ速度もより速かったことでその驚異的な能力が強調されました。 ただし、革命的である一方で、NorthPoleには制約があります。このチップは特定のAIプロセスを実行することに特化しており、トレーニングプロセスやChatGPTのような大規模な言語モデルのサポートはできません。この点を認識し、研究者たちは既に次の進展を見据えています。NorthPoleチップの複数の統合をテストする計画が進行中であり、現在の制約を克服し、さらに大きな処理能力を引き出す可能性があります。 結論として、IBM ResearchによるNorthPoleチップの発表は、人工知能の分野における重要なマイルストーンを示しています。この専用チップの驚異的な速度と効率は、AIベースの画像認識アプリケーションを実行する能力において、コンピューティングパワーの限界を超えた未来の一端を垣間見ることができます。現在の制約があるとはいえ、複数のNorthPoleチップの統合を通じた機能の向上の約束は、莫大な可能性を秘めています。将来を見据えると、NorthPoleは人工知能のフィールドを革新し、長年にわたり技術的な景色を形作ることは明らかです。

「LangchainとOllamaを使用したPDFチャットボットのステップバイステップガイド」

イントロダクション 情報との相互作用方法が技術の進化によって変化し続ける時代において、PDFチャットボットの概念は利便性と効率性を新たなレベルにもたらします。この記事では、オープンソースモデルを最小限の設定で利用できるようにするLangchainとOllamaを使用してPDFチャットボットを作成する魅力的な領域について説明します。フレームワークの選択やモデルパラメータの調整の複雑さにさようならを言い、PDFチャットボットの潜在能力を解き放つ旅に出かけましょう。Ollamaのシームレスなインストール方法、モデルのダウンロード方法、およびクエリに対して知識のある応答を提供するPDFチャットボットの作成方法を発見しましょう。技術と文書処理のエキサイティングな融合を探求し、情報の検索を今まで以上に簡単にしましょう。 学習目標 Ollamaをコンピュータにインストールする方法を理解する。 Ollamaを使用してオープンソースモデルをダウンロードおよび実行する方法を学ぶ。 LangchainとOllamaを使用してPDFチャットボットを作成するプロセスを発見する。 この記事はデータサイエンスブログマラソンの一環として公開されました。 前提条件 この記事を正しく理解するためには、以下が必要です: Pythonの良い知識と、 Langchainの基本的な知識、つまりチェーン、ベクトルストアなど。 Langchainは、LLMアプリの作成にさまざまな機能を提供します。それは独立した記事そのものに値するものです。Langchainが何であるかわからない場合は、Langchainに関する記事やチュートリアルをいくつか読んでください。このビデオもご覧いただけます。this Ollamaとは何ですか? Ollamaは、オープンソースモデルをダウンロードしてローカルで使用する機能を提供します。最も適したソースからモデルを自動的にダウンロードします。コンピュータに専用のGPUがある場合、モデルをGPUアクセラレーションで実行します。手動で設定する必要はありません。プロンプトを変更することでモデルをカスタマイズすることもできます(そのためLangchainは必要ありません)。OllamaはDockerイメージとしても利用可能であり、独自のモデルをDockerコンテナとして展開できます。エキサイティングですね?さあ、Ollamaをコンピュータにインストールする方法を見てみましょう。 Ollamaのインストール方法 残念ながら、OllamaはMacOSとLinuxのみ利用可能です。しかし、WindowsユーザーでもOllamaを使用できる方法があります – WSL2。コンピュータにWSL2がない場合、thisの記事を読んでください。ここでは、WSL2についてすべてを説明し、VS Codeでの使用方法も説明しています。すでにインストール済みの場合は、Ubuntuを開き、ターミナルで以下のコマンドを実行します。 curl https://ollama.ai/install.sh | sh これにより、OllamaがWSL2にインストールされます。使用しているMacOSの場合は、こちらを参照してください。これでOllamaを使用してモデルをダウンロードする準備が整いました。ターミナルを開いたままにして、まだ完了していません。…

「Intuitivoは、AWS InferentiaとPyTorchを使用して、AI/MLのコストを節約しながら、より高いスループットを実現します」

「これは、インテュイティボの創設者兼ディレクターであるホセ・ベニテスと、インフラストラクチャの責任者であるマティアス・ポンションによるゲスト投稿ですインテュイティボは、小売業の革新を牽引するクラウドベースのAIと機械学習(AI/ML)トランザクション処理システムでショッピングを革命化していますこの画期的な技術により、数百万の自律型購買ポイント(A-POPs)を運営することが可能になります...」

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us