Learn more about Search Results RoPE - Page 4

新しいAmazon SageMakerコンテナでLLMの推論パフォーマンスを強化する

今日、Amazon SageMakerは、大規模モデル推論(LMI)Deep Learning Containers(DLCs)の新バージョン(0.25.0)をリリースし、NVIDIAのTensorRT-LLMライブラリのサポートを追加しましたこれらのアップグレードにより、SageMaker上で最先端のツールを簡単に使用して大規模言語モデル(LLMs)を最適化し、価格パフォーマンスの利点を得ることができます - Amazon SageMaker LMI TensorRT-LLM DLCは、レイテンシを33%削減します[...]

「AIアシスタントと共に気候変動に備える」

この記事では、優れたProbable Futures APIと新しいOpenAI Assistants APIからの気候変動データを使用して、対話型AIエージェントを作成する方法について探求しますこのAIエージェントは、回答する能力を持っています...

見えない現実の暴露:アルバータ州における人身売買の明らかにする

私はデータフォーグッドのボランティアとしてアルバータ州での人身売買対策を推進するためにNot In My Cityが主催するPolicywiseとの協力の機会を得ました私たちの共通の目標は...

「Pythonを用いた巡回セールスマン問題の実装、解決、および可視化」

この記事は、スプリント2で終了したところから旅を続けますここでは、前の記事で提案した数学モデルを取り上げ、Pyomoを使用してPythonで実装します

ポッドキャストのアクセシビリティを向上させる:LLMテキストのハイライト化ガイド

イントロダクション ポッドキャストを愛して、最高の部分を覚えておきたいと思ったけれど、音声だけでテキストがない場合、どうすればいいでしょうか? そこで、LLMや音声からテキストへの翻訳などの便利なツールが登場します。 これらのツールは、話された言葉を書かれたノートに魔法のように変換し、簡単に重要なポイントをピックアップして便利な箇条書きを作成します。 そのため、お気に入りのポッドキャストの瞬間は、転写まであと一歩! 2022年11月の最初のデビュー以来、LLMは大流行しています。LLMはさまざまなタスクに使用でき、テキストの要約化は重要なアプリケーションです。 テキスト以外、オーディオやビデオなどの他のモードにも要約化できます。 LLMを使用してポッドキャストのアクセシビリティを向上させ、簡単に利用できる箇条書きのハイライトを生成したり、将来の参照のためにノートを取ることができます。 PaLM(Pathways Language LLM)は、2022年4月にGoogle AIによって確立された重要なLLMです。 今年の2023年3月、PaLM 2の第2バージョンがリリースされ、改良された最新バージョンとなりました。 優れたバイリンガル、コーディング、思考能力を持つことを目指しています。 PaLM 2 LLM APIの利点は、そのAPIが無料で利用できることです。 OpenAIのChatGPTとは異なり、他のLLMよりもパフォーマンスが向上し、推論能力も向上しています。 この記事では、PaLM 2 APIとMaker Suiteという2つのツールを使用して、シンプルなポッドキャストテキストハイライトを作成し、LLMモデルの設定を最適化する方法を学びます。…

「ビルドの学び方 — Towards AI コミュニティ ニュースレター第2号」

「最近の数日間、OpenAIのドラマを追っていないと見逃しているよ信じられないことが起こったんだ多くの従業員がOpenAIの理事会に宛てて手紙に署名し送ったんだよ…」

このフィンランド拠点のAIスタートアップがポロを発表:革命的なオープンソース言語モデルは、ヨーロッパの多言語AI能力を向上させます

ヨーロッパの言語に対して、英語よりもデータが少ない場合に大規模な言語モデルを作成することは、人工知能の世界では困難です。テックワールドの企業たちはこの問題に取り組んでおり、最近、フィンランドのヘルシンキに拠点を置くスタートアップ企業がこの問題に対する新しい解決策を提案しました。 この前までは、いくつかの言語モデルが利用可能でしたが、それらは通常特定の言語に固有で、データが少ない言語に対しては性能が向上できる可能性がありました。問題は、これらのモデルがヨーロッパの各言語の固有の特性、文化、価値基盤を捉える必要があったということです。既存の解決策は限定的であり、より包括的なものが必要でした。 今では、フィンランドのAIスタートアップがPoroというオープンソースのソリューションを開発しました。これは、欧州連合の公用語である24の言語をカバーすることを目指した大規模な言語モデルです。そのアイデアは、ヨーロッパの言語の多様性を理解し表現するモデルの系列を作ることです。このスタートアップは、これがデジタル主権にとって重要であり、これらのモデルによって生み出される価値がヨーロッパにとどまるようにする必要があると考えています。 Poroは、フィンランド語などのデータが少ない言語のための言語モデルのトレーニングの課題に取り組むために設計されています。クロスリンガルトレーニングの手法を使っており、よりデータが豊富な言語(例: 英語)のデータから学び、データが少ない言語におけるパフォーマンスを向上させるのです。 Poro 34Bモデルは、342億のパラメータを持ち、ALiBiエンベッディングと呼ばれるユニークなアーキテクチャであるBLOOM変換子を使用しています。これは、PythonやJavaなどの言語やプログラミング言語をカバーする大規模なマルチリンガルデータセットでトレーニングされます。そのトレーニングは、ヨーロッパで最速のスーパーコンピュータの1つで行われ、膨大な計算能力を提供します。 スタートアップは、モデルのトレーニングプロセス中にチェックポイントをリリースし、進捗状況を示しています。Poroは30%の進捗でも最先端の結果を示しており、テストではフィンランド語において既存のモデルを上回り、英語のパフォーマンスに追いつくかそれを超える見込みです。 まとめると、Poroはヨーロッパの言語にとって、AIにおける一歩前進を意味します。パワフルな言語モデルを作成するだけでなく、オープンで透明性のある方法でこれを行い、ヨーロッパの言語と文化の多様性を尊重することが重要です。成功すれば、Poroは主要なテック企業からの言語モデルに代わる国産の選択肢となり得る可能性があります。 記事「This Finland-Based AI Startup Unveils Poro: A Revolutionary Open Source Language Model Boosting European Multilingual…

「リアルAI社が、ヨーロッパのオープンソースの大規模言語モデルの構築プロジェクトに勝利」

2023年11月23日(木)、ベルグラードで開催されたデータサイエンスカンファレンス2023で、Real AIがISCRAプロジェクトを受賞したと発表されました。Real AIは、世界第4位のAIコンピュータクラスター「LEONARDO」において、ヨーロッパ初の人間中心のLLM(Large Language Model)を構築するために選ばれました。 LEONARDO – 世界第4位のAIクラスターボローニャのCINECAデータセンターにあるLeonardoスーパーコンピュータは、高性能なコンピューティングパワーを備えた存在です。Atos BullSequana XH2000コンピュータシステムを基盤とし、約14,000のNvidia Ampere GPUを組み込んで構築されています。2022年11月のオープン時点では、Leonardoは世界で4番目に速いスーパーコンピュータであり、ヨーロッパで2番目に速い位置にありました。この技術力は、Leonardoをヨーロッパ全体でAIアプリケーションの発展に重要な資産として位置付けています。 REAL AIの特筆すべき機会「私たちは、責任あるAIの開発にヨーロッパの答えを提供することを目指しています。UNINAとAIスーパーコンピュータークラスター’Leonardo’と共に、これを可能にすることができます。」- Real AI B.V.のCEOであるタリー・シン氏 Real AIは、Leonardoから大幅な計算能力を割り当てることにより、ゼロからLLMの開発を大幅に加速するため、初の人間中心のLLMを構築します。この野心的なプロジェクトにより、Real AIはAI開発の最前線に立ち、環境保護と技術革新に取り組むことを表明しています。 プロジェクトHOMINIS:インテリジェントで中立かつ包括的なシステムのためのヒューマンセンタードなオープンソースモデル。プロジェクトHOMINISは、オープンで検査可能なデータセットを使用して、倫理的かつバイアスのないAIシステムの革新を目指しています。ウェブスケールのデータセットにおける有害性への対処により、AIの基盤モデルに持続可能な代替手段を提案しています。このプロジェクトの4つの主要目標は次のとおりです:1)科学論文や知識ベースなど、さまざまな情報源からハイバリューで多様なデータセットを編集し、バイアスのあるコンテンツを排除すること。2)トランスフォーマーモデルに関する広範な検討研究を実施し、代替アーキテクチャを探索すること。3)高度な技術を用いて基盤モデルを最適化し、コミュニティの協力のもとに予備版をリリースすること。4)倫理的一致性となるための指示のチューニングを実装し、責任あるトレーニング済みAIモデルの最終リリースにつなげること。さらに、HOMINISはFlash Attentionとルーティングといった革新的な手法を用いてエネルギー消費を削減し、データ処理効率を向上させ、モデルの干渉と知識統合を強化することを目指しています。REAL AIとUNINA、NVIDIAのパートナーシップ:The University…

「コスト効率の高い高性能 AI 推論用の Amazon EC2 DL2q インスタンスが一般提供開始されました」

Qualcomm AIのA.K Royさんによるゲスト記事ですAmazon Elastic Compute Cloud(Amazon EC2)DL2qインスタンスは、Qualcomm AI 100 Standardアクセラレータによってパワーアップされ、クラウド上で効率的に深層学習(DL)タスクを展開するために使用することができますDLタスクのパフォーマンスや精度を開発し、検証するためにも利用できます

十代の夢:コンピュータ科学の専攻を志す高校生がメイク・ア・ウィッシュの訪問でNVIDIAの人生を体験する

多くのミーティング、電話、研究所の訪問が詰まったカレンダーは、多くの人にとっては典型的な仕事の一日のように思えるかもしれませんが、NVIDIAで働くことについて何が起こるかを体験することが最大の願いだったルカ・ロフランコにとっては夢が叶った瞬間でした。 カナダのトロント近くの故郷からやって来た18歳のロフランコは、重篤な病気を持つ子供たちのために人生を変える願いを叶える非営利団体であるメイクア・ウイッシュの支援を受けて、サンタクララのキャンパスで一日過ごすことができました。この願いは、ホジキンリンパ腫を患っているロフランコのためのものであり、これはNVIDIAが過去10年間に参加した5番目の願いです。 NVIDIAチームは当日の予定を秘密にしておき、デモルームやロボット工学研究室の見学、大学採用チームとのチャット、自動運転車での乗車、NVIDIAの創設者兼CEOジェンセン・ホアンとのビデオ通話などでロフランコを驚かせました。コンピュータサイエンス専攻を目指す彼は、母親のカサンドラが共有するように「NVIDIAは彼のディズニーランドです」と言っています。 NVIDIAの自動車ガレージ 長年のNVIDIAファン 8歳の時に最初のコンピュータサイエンスの夏キャンプに参加した後、ロフランコはAutodesk Mayaで3Dモデリング、Pythonでのプログラミング、そして3Dプリントを学びました。彼の興味は徐々にテクノロジーに広がり、すぐに自分自身のゲーミングマシンを組み立てるようになりました。 彼曰く、すぐにNVIDIAがお気に入りのテクノロジ企業になり、実際にコンピュータ数値制御機械を使ってNVIDIAのロゴを木の一枚から彫り出しました。 彼はゲームでNVIDIA GeForce RTX 3070やGeForce GTX 1080 Ti GPUを使用することを楽しんでいます。しかし、LofrancoがNVIDIAに引かれた最大の理由は、その製品ではなくそのカルチャーでした。 「皆が同じ結果を見るために努力し、それを実現するために集まっています」と彼は言います。「すべてが協力のために設計されています」。 NVIDIAのギアを着たLofranco VIPエクスペリエンス Lofrancoが訪れる前に、NVIDIAチームは彼にお土産の箱を送りました。それにはフーディー、帽子、カスタムNVIDIAバッジが含まれていました。 キャンパスに到着すると、NVIDIAのボランティアたちが彼を歓迎し、キャンパスツアーに連れて行きました。その後、医療、自動車、AI、クラウドサービスプロバイダ、大規模言語モデルに焦点を当てたNVIDIAチームとの会議がありました。 次に、ロフランコの「メーカー」好奇心を満たすためにロボット工学研究室を訪れました。彼はNVIDIA DGX StationやNVIDIA…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us