Learn more about Search Results リリース - Page 94
- You may be interested
- クラスの不均衡:SMOTEからSMOTE-NCおよび...
- SalesForce AIはCodeChainを導入:代表的...
- 「USENET、OGソーシャルネットワークが、...
- FlashAttentionアルゴリズムの深い探求-パ...
- 「マルチタスクアーキテクチャ:包括的な...
- 「グリオブラストーマ患者におけるMGMTメ...
- 「ディズニーは小さなロボットに大きな感...
- 「生成AI解放:ソフトウェアエンジニアの...
- 「LangChainとOpenAI GPTを使用して初めて...
- 「UCサンディエゴのコンピュータサイエン...
- データサイエンス予測の検査:個別+負の...
- 事例研究:Hugging Face Infinityとモダン...
- BentoML入門:統合AIアプリケーションフレ...
- 「Sierra DivisionがNVIDIA Omniverseを使...
- CFXplorer カウンターファクチュアル説明...
より一般化されたAIツールを使用してコンピュータシステムを最適化する
強化学習に基づいて、私たちのAIモデルであるAlphaZeroとMuZeroはゲームで超人的なパフォーマンスを発揮し、勝利を収めてきました現在、彼らはデータセンターのリソース最適化やビデオ圧縮の進展に向けて能力を拡大していますそして最近では、AlphaZeroの特殊バージョンであるAlphaDevが新しいアルゴリズムを発見し、既に私たちのデジタル社会の基盤となるソフトウェアアプリケーションの高速化に貢献しています
自律生成AIとオートコンプリートの違いを愛するようになった方法
生成型AIは、ユニットテストにおいて開発者の最良のパートナーとなる可能性がありますが、強化学習ツールはコードのレビューなしに直ちに成功をもたらすことができます
Taipy:ユーザーフレンドリーな本番用データサイエンティストアプリケーションを構築するためのツール
データサイエンティストとして、データの視覚化のためのダッシュボードを作成したり、データを視覚化したり、さらにはビジネスアプリケーションを実装して利害関係者が実行可能な意思決定を行うのをサポートするかもしれません
次のLangChainプロジェクトのための基本を学ぶ
大型言語モデルは昨年、楽しみのためにメインストリームに参入し、時にはまったくばかげた実験のツールとして登場しました私たちの中でChatGPTに新しいノック・ノック・ジョークを作り出すよう挑戦したことがない人は誰もいないでしょう
AIが生成したコンテンツは開発者のリスクを高める可能性があります
最近の出来事において、人気のあるゲームプラットフォームであるSteamは、著作権法に違反する可能性のあるAI生成コンテンツに対して厳しい姿勢を取っています。いくつかの開発者は、AI生成のアセットを使用したゲームをプラットフォームに公開しようと試みる中で、拒絶と欲求不満に直面しています。これにより、ゲーミングコミュニティでは、AI技術の使用とその潜在的な法的影響についての議論が巻き起こっています。 関連記事:2023年のゲーム開発における機械学習とAI Redditユーザーの苦境 すべてはRedditユーザーのpotterharry97がSteamの承認プロセスでの痛い経験を共有したことから始まりました。彼らは、AIによって作成されたアセットを含むゲームを提出する予定でした。フルローンチ前にこれらのアセットを改善する意図がありましたが、Valveは迅速にその提出を拒否し、潜在的な著作権問題を理由に挙げました。Valveは、ゲームの配布前にAIのトレーニングデータの所有権の適切な確認が必要であるとの回答で明確にしました。 開発者の失望 potterharry97の経験に続いて、別の開発者であるArtoonuというペンネームを使用した開発者もRedditで同様の苦境を報告しました。この開発者は以前、Steamで数多くのNSFWビジュアルノベルを成功裏にリリースしていました。しかし、新しいゲームにAI生成のアートを使用しようとした際、Valveによって提出が拒否されました。繰り返される拒否により、Artoonuのような開発者たちは、クリエイティブプロセスにおけるAI技術の有用性について疑問を抱いています。彼らは、商業利用のためにAI生成のアセットを利用できない場合、その技術はアイデアや参考資料の生成以外の目的にはほとんど役立たないと述べています。 Oleg Skutteの出来事 不満が高まる中、インディーゲーム開発者のOleg Skutteは、Valveとの経験を語りました。Skutteは最近、Locomotoricという物理シミュレーションゲームをリリースしました。しかし、彼は新しいAIパワードの冒険ゲーム、DREAMIOを公開しようとした際に同じ問題に直面しました。彼はイラストにStable Diffusionを使用し、ストーリーを生成するためにChatGPTを使用しました。しかし、彼の提出はSteamによって拒否されました。 SteamではAIコンテンツが禁止されているのか? これらの出来事にもかかわらず、Steamは明示的にAIコンテンツを禁止していません。Steamのガイドラインは、特定のタイプのコンテンツ(ヘイトスピーチ、実在する人物の露骨な画像、児童を巻き込む搾取的な素材など)を許可していないことを明確に述べています。しかし、ガイドラインの重要な段落には、適切な配布権を持っていないコンテンツやアップローダーが所有していないコンテンツを許可しないと記載されています。 関連記事:AIコンテンツ作成:トップ10のツール、インパクト、将来[2023] Valveの立場 Valveが著作権侵害の可能性のあるAI生成コンテンツに対して厳しい姿勢を取ることは、知的財産権を保護するための一歩です。AI技術はゲーム業界において革新的な可能性を示していますが、著作権侵害や誤用への懸念も抱えています。Valveの決定は、クリエイターの権利を守り、プラットフォーム上での倫理基準を維持するという同社の取り組みを反映しています。 今後の展望 ゲーミング業界が進化する中で、開発者は著作権法に注意を払い、倫理的なガイドラインに従う必要があります。AI生成コンテンツにおいては、トレーニングデータが著作権の制約から解放されていることを検証することが重要です。これには、コンテンツクリエイターからの明示的な許可や公開されているデータセットの使用が必要となる場合があります。 Valveが著作権侵害の可能性のあるAIアートを含むゲームを承認しないことは、クリエイティブな権利を保護するための大胆な一歩です。一部の開発者には欲求不満を引き起こしましたが、これは責任あるAIの使用と知的財産の尊重の重要性を示しています。ゲーミングワールドが技術の進歩を受け入れるにつれて、開発者は適法かつ倫理的な基準を遵守し、活気ある持続可能なゲーミングエコシステムを提供するために適応する必要があります。 関連記事:2023年におけるAIがゲームテストを革新する方法
Falcon AI 新しいオープンソースの大規模言語モデル
はじめに Open AIによるGPT(Generative Pre Trained)の発表以来、世界はGenerative AIによって大いに沸き立っています。その後、多くのGenerative Modelsが登場しました。新しいGenerative Large Language Modelsがリリースされるたびに、AIは人間の知性により近づいてきました。しかし、Open AIコミュニティはGPTファミリーの強力なLarge Language Modelsをクローズドソース化しました。幸いなことに、Falcon AIという非常に能力が高いGenerative Modelが他のLLMsを凌駕し、オープンソースとなり、誰でも使用できるようになりました。 学習目標 Falcon AIがLLM Leaderboardのトップになった理由を理解する Falcon AIの能力を学ぶ Falcon AIのパフォーマンスを観察する PythonでFalcon…
GPT-1からGPT-4まで:OpenAIの進化する言語モデルの包括的な分析と比較
OpenAIは、さまざまなアプリケーションのニーズに応じて、それぞれ独自の特徴とコスト構造を備えた幅広いモデルを提供しています。モデルは定期的に更新され、最新の技術の進歩を反映しています。ユーザーはモデルを調整して、より良いパフォーマンスを引き出すこともできます。OpenAIのGPTモデルは、主要な自然言語処理(NLP)の進歩を実現しています。 GPTとは、簡単に言えば何ですか? NLPアプリケーション用の1つの機械学習モデルは、Generative Pre-trained Transformer(GPT)です。これらのモデルは、書籍やウェブサイトなどの大量の情報を事前学習して、自然で構造化されたテキストを生成するために使用されます。 より簡単に言えば、GPTは、人間が書いたかのように見えるテキストを生成することができるコンピュータプログラムですが、それを目的として設計されていません。そのため、質問応答、翻訳、テキスト要約などのNLPアプリケーションに適用することができます。自然言語処理に関しては、GPTは機械が言語を理解し、流暢かつ正確に生成することを可能にするため、大きな進歩です。以下では、元のGPTから最新のGPT-4までの4つのGPTモデルについて、それぞれの強みと弱点について説明します。 GPT-1 2018年、OpenAIはTransformerアーキテクチャに基づく言語モデルの最初のバージョンであるGPT-1を発表しました。その117万のパラメータは、当時の最も先進的な言語モデルよりも大幅な進歩でした。 GPT-1は、プロンプトやコンテキストに対して自然で理解可能なスピーチを生成する能力がありました。このモデルのトレーニングには、数十億の単語を含む巨大なウェブページのデータセットであるCommon Crawlと、さまざまなトピックの11,000冊以上の書籍からなるBookCorpusデータセットが使用されました。さまざまなデータセットの助けを借りて、GPT-1は言語モデリングのスキルを磨くことができました。 GPT-2 OpenAIは、GPT-1の代わりにGPT-2を2019年に公開しました。GPT-2はGPT-1よりも大幅に大きく、15億のパラメータを持っていました。Common CrawlとWebTextを統合することで、より大きく、より多様なデータセットを使用してモデルをトレーニングしました。 GPT-2の能力の1つは、論理的で妥当なテキストシーケンスを構築することです。人間の反応を模倣する能力も、コンテンツ生成や翻訳など、自然言語処理のさまざまなアプリケーションにとって有用なリソースになります。 ただし、GPT-2にはいくつかの欠点もあります。複雑な推論や文脈の理解には多くの作業が必要でした。しかし、GPT-2は、短いテキストにおける優れたパフォーマンスにもかかわらず、長い文章を一貫して文脈に沿って保つのは難しいという課題に直面しました。 GPT-3 2020年にGPT-3がリリースされ、自然言語処理のモデルの指数関数的な成長の時代を迎えました。GPT-3のサイズは1750億のパラメータであり、GPT-2の10倍以上、GPT-1の100倍以上です。 BookCorpus、Common Crawl、Wikipediaなどのさまざまな情報源を使用してGPT-3をトレーニングしました。GPT-3は、ほとんどまたはまったくトレーニングデータがなくても、データセット全体で約1兆の単語にわたるさまざまなNLPタスクで高品質な結果を生成することができます。 GPT-3の文章を作成する能力、コンピュータコードの書き込み能力、アートの創造能力は、以前のモデルと比べて大きな進歩です。先行モデルとは異なり、GPT-3はテキストの文脈を解釈し、関連する応答を考え出すことができます。チャットボット、オリジナルコンテンツの生成、言語翻訳など、自然な音声を生成する能力は、さまざまな用途に大きな利益をもたらすことができます。 GPT-3の強力な言語モデルの倫理的な影響や潜在的な誤用に関する懸念も、GPT-3の能力が明らかになったことで浮上しました。多くの専門家は、このモデルがハイジャック、フィッシングメール、ウイルスなどの有害なコンテンツを作成するために誤用される可能性について懸念しています。犯罪者たちはChatGPTを使用してマルウェアを開発しています。 GPT-4 第4世代のGPTは2023年3月14日にリリースされました。これは、革命的だったGPT-3よりも大幅に改善されたものです。モデルのアーキテクチャとトレーニングデータはまだ公開されていませんが、前のバージョンの欠点を解消し、いくつかの重要な点でGPT-3を上回ることが明らかです。 ChatGPT…
Amazon Pollyを使用してテキストが話されている間にテキストをハイライト表示します
Amazon Pollyは、テキストを生き生きとした音声に変換するサービスですこのサービスは、テキストを複数の言語に音声に変換するアプリケーションの開発を可能にしますこのサービスは、他のAWS AIや機械学習(ML)サービスと組み合わせて、チャットボットやオーディオブックなどのテキスト読み上げアプリケーションで使用することができます[…]
2023年の最高の人工知能(AI)ニュースレター
人工知能(AI)分野では、AIの進展について情報を得て先を見るために、様々なAIニュースレターが登場しています
プリンストンの研究者たちは、革新的な軽量フレームワーク「InterCode」を導入しましたこれにより、人間のような言語からコード生成のための言語モデルの相互作用が効率化されました
ChatGPTは、OpenAIによって開発された最新のチャットボットであり、リリース以来話題になっています。このGPTトランスフォーマーアーキテクチャベースのモデルは、人間のように正確に質問に答えるだけでなく、ブログやソーシャルメディア、研究などのためのコンテンツを生成し、言語を翻訳し、長いテキスト段落を要点を保持しながら要約し、コードサンプルさえ生成します。GPT、BERT、PaLM、LLaMaなどの大規模言語モデルは、人工知能の分野の進歩に成功を収めています。これらのディープラーニングモデルは、自然言語処理と自然言語理解の可能性を効果的に活用しています。 近年では、自然言語仕様からコードを自動生成するモデルの開発が人気を集めています。これらのモデルは、数千のコードベースでの広範な事前学習により、静的ベンチマークで印象的なパフォーマンスを発揮していますが、タイプミス、コードの作成プロセスと実行の間のギャップ、限られた人間の関与など、特定の制限もあります。 これらの課題に対処するために、プリンストン大学のコンピュータサイエンス部の研究者は、インタラクティブなコーディングを標準的な強化学習(RL)環境として容易に行えるようにする軽量かつ柔軟なフレームワークであるInterCodeを提案しました。InterCodeでは、コードをアクションとして扱い、実行フィードバックを観測として考慮します。このRLベースの手法により、コーディングをより反復的に行うことができ、言語やプラットフォームに依存しないように設計されているため、多くのプログラミング言語や環境と使用することができます。 InterCodeは、安全で繰り返し可能な実行を保証するために独立したDocker環境も使用します。これは従来のシーケンス対シーケンス(seq2seq)コーディング技術と互換性があり、現在の手法を簡単に採用および統合することができます。また、インタラクティブなコード生成に特化した新しいアプローチの開発を容易にすることも可能です。 評価のために、チームはBashとSQLをアクションスペースとして使用した2つのインタラクティブなコード環境を構築し、InterCodeの有用性を示しました。彼らはReActやPlan&Solveなどのさまざまなプロンプティング手法を備えたいくつかの優れた言語モデルを、静的なSpiderとNL2Bashデータセットのデータを使用して訓練および評価しました。InterCodeの実験は、インタラクティブなコード生成の利点を示しながら、コード理解と生成能力の向上を目指す難しいベンチマークとしての潜在能力を強調しました。 チームは以下のように主な貢献をまとめています。 InterCodeは、新しい汎用的なインタラクティブコード生成フレームワークであり、使いやすさ、拡張性、安全性を提供します。ユーザーフレンドリーでアクセスしやすく、研究者が簡単に実験に利用できます。 InterCodeを使用して、いくつかの信じられないほど優れた最先端のモデルにアクセスし、評価し、潜在的な改善点を指摘しました。 InterCodeベンチマークは、インタラクティブなコード生成タスクの標準化された評価プラットフォームとして機能し、異なるモデルのパフォーマンスを共通のフレームワークを使用して比較することができます。これにより、静的なコードの新しいデータセットをインタラクティブな活動に変換することができます。 結論として、InterCodeは、人工知能の分野の進歩において有望なアプローチであり、インタラクティブなコード生成を大幅に進化させ、標準化された評価プラットフォームを提供し、この領域のさらなる研究と開発を促進します。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.