Learn more about Search Results いくつかの
- You may be interested
- 「GPTからMistral-7Bへ:AI会話のエキサイ...
- 「LlaMA 2の始め方 | メタの新しい生成AI」
- 「C# で GPT(一般目的テンプレート)を拡...
- 「I2D2に会ってください:制約付きデコー...
- 「データ駆動の旅路の解読:Paisabazaarの...
- 「AIにおけるアメリカのリーダシップの確...
- ジェミニと共に、バードはこれまで最大の...
- AI生成テキストの検出の課題
- RAGのNLPにおける検索と生成の統一的な革...
- 「ODSC APAC 2023の最初のセッションが発...
- HuggingFace Researchが紹介するLEDITS:D...
- 「音波センサーを使用したロボットのネッ...
- オープンソースのAmazon SageMaker Distri...
- 「顔認識システムにおけるバイアスの解消 ...
- あなたのデータサイエンスの可視化はもは...
チューリッヒ大学の研究者たちは、スイフトという自律型ビジョンベースのドローンを開発しましたこのドローンは、いくつかの公平なヘッドトゥヘッドレースで人間の世界チャンピオンに勝つことができます
ファーストパーソンビュー(FPV)ドローンレーシングは、特殊なFPVゴーグルを使用してパイロットがファーストパーソン視点からレーシングドローンを制御する、刺激的で急速に成長しているスポーツです。このスポーツでは、ドローンはパワフルなモーター、軽量なフレーム、高品質なカメラを備え、低遅延のビデオ伝送が可能です。パイロットはドローンのカメラからのライブビデオフィードを提供するFPVゴーグルを装着しています。この没入型の体験により、彼らはリアルタイムでドローンが見ているものを見ることができます。 人間のチャンピオンをレースで破ることができる自律型のモバイルドローンは可能でしょうか?チューリッヒ大学のロボティクスとパーセプショングループの研究者たちは、物理的なビークルと同等のレベルで競争することができる「SWIFT」というドローンシステムを開発しました。Swiftは、センサーを使用してサーキット内での速度と位置を推定しながら、物理的な限界で飛行することができます。 Swiftは、シミュレーションで収集されたデータと共にディープ強化学習(RL)を組み合わせています。それは高次元の表現を変換する知覚システムと、知覚システムによって生成された低次元の表現を取り込み、制御コマンドを持つ制御ポリシーで構成されています。 知覚システムには、ビジュアル慣性推定器とゲート検出器(レーシングゲートを検出するCNN)が含まれています。検出されたゲートは、ドローンの軌跡とトラック上で必要なドローンの方向を推定するためにさらに使用されます。Swiftは、トラックの地図と組み合わせたカメラリセクションアルゴリズムを使用して、この分析を行います。より正確なドローンの方向を得るために、ゲート検出器から得られたグローバルポーズとフィルターを使用して、視覚慣性推定器を利用します。 制御ポリシーには、フィルターの出力をドローンの制御コマンドにマッピングする2層のパーセプトロンがあり、次のゲートをカメラの視野に保つことにより知覚目標を最大化します。次のゲートを見ることは有望です、なぜならそれはポーズ推定の精度を高めるからです。ただし、シミュレーションでこれらの方法を純粋に最適化すると、シミュレーションと実際の間に不一致がある場合にはパフォーマンスが低下します。 シミュレートされたダイナミクスと実際のダイナミクスの違いは、ドローンが間違った軌跡を選択し、クラッシュにつながる原因となります。安全な軌跡に影響を与えるもう一つの要因は、ドローンの状態のノイズのある推定です。チームは、ドローンがトラックを通過する間、モーションキャプチャシステムからの高精度な推定を伴うオンボードセンサーを使用して、実世界でわずかな量のデータを収集し、このデータをシミュレータの現実性を高めるために使用していると述べています。 研究者は、Swiftがほとんどのレースで人間のパイロットに勝ち、最速のレースタイムを記録し、人間のパイロットの最速タイムよりも0.5秒優位に立っていると述べています。彼らは、ターンで人間のパイロットよりも一貫して速く、ポジャムからの離陸時の反応時間が人間のパイロットよりも平均で120ミリ秒早いと述べています。
私は5ヶ月間、毎日ChatGPTを使用しましたここには、あなたの人生を変えるいくつかの隠れた宝石があります
これらのChatGPTの隠れた宝石を使って、あなたの人生を変えてください
「言語モデルの逆スケーリングの謎を解明する」
This aspect of inverse scaling is a crucial point to keep in mind, as it can affect the performance of larger LLMs. However, this…
学校でのAI教育の台頭:現実と未来の可能性のバランス
多くの野心的なティーンエイジャーたちは、AIについて学ぶ機会をより充実させるよう学校に提唱しています
驚くべき発見:AIが未解決の数学問題を解決する方法
「生産の大部分を捨てる必要があったにもかかわらず、価値のある宝石が捨てられた不用品の中に見つかりました」
マウス用のVRゴーグル:ネズミの世界の秘密を解き放つ
ノースウェスタン大学の研究者たちは、マウス向けの仮想現実ゴーグルを作り出すことで画期的な成果を達成しましたこの革新的な技術により、より高度な実験を行い、マウスの行動や認知機能をより深く理解することが可能になりましたこのブレークスルーは、科学研究を大幅に向上させ、将来の発見の道を開拓する可能性を秘めています
「チャットボットの台頭:バカな機械からクリエイティブな共同作業者へ」
2023年は私たちにとって画期的な年となりましたロボットとのコミュニケーション、創造性、チームワーク、さらには操作術をマスターしたことで、私たちの能力が向上しました
「2023年、オープンLLMの年」
2023年には、大型言語モデル(Large Language Models、LLMs)への公衆の関心が急増しました。これにより、多くの人々がLLMsの定義と可能性を理解し始めたため、オープンソースとクローズドソースの議論も広範な聴衆に届くようになりました。Hugging Faceでは、オープンモデルに大いに興味を持っており、オープンモデルは研究の再現性を可能にし、コミュニティがAIモデルの開発に参加できるようにし、モデルのバイアスや制約をより簡単に評価できるようにし、チェックポイントの再利用によってフィールド全体の炭素排出量を低減するなど、多くの利点があります(その他の利点もあります)。 では、オープンLLMsの今年を振り返ってみましょう! 文章が長くなりすぎないようにするために、コードモデルには触れません。 Pretrained Large Language Modelの作り方 まず、大型言語モデルはどのようにして作られるのでしょうか?(もし既に知っている場合は、このセクションをスキップしてもかまいません) モデルのアーキテクチャ(コード)は、特定の実装と数学的な形状を示しています。モデルのすべてのパラメータと、それらが入力とどのように相互作用するかがリストとして表されます。現時点では、大部分の高性能なLLMsは「デコーダーのみ」トランスフォーマーアーキテクチャのバリエーションです(詳細は元のトランスフォーマーペーパーをご覧ください)。訓練データセットには、モデルが訓練された(つまり、パラメータが学習された)すべての例と文書が含まれています。したがって、具体的には学習されたパターンが含まれます。ほとんどの場合、これらの文書にはテキストが含まれており、自然言語(例:フランス語、英語、中国語)、プログラミング言語(例:Python、C)またはテキストとして表現できる構造化データ(例:MarkdownやLaTeXの表、方程式など)のいずれかです。トークナイザは、訓練データセットからテキストを数値に変換する方法を定義します(モデルは数学的な関数であり、したがって入力として数値が必要です)。トークン化は、テキストを「トークン」と呼ばれるサブユニットに変換することによって行われます(トークン化方法によっては単語、サブワード、または文字になる場合があります)。トークナイザの語彙サイズは、トークナイザが知っている異なるトークンの数を示しますが、一般的には32kから200kの間です。データセットのサイズは、これらの個々の「原子論的」単位のシーケンスに分割された後のトークンの数としてよく測定されます。最近のデータセットのサイズは、数千億から数兆のトークンに及ぶことがあります!訓練ハイパーパラメータは、モデルの訓練方法を定義します。新しい例ごとにパラメータをどれだけ変更すべきですか?モデルの更新速度はどのくらいですか? これらのパラメータが選択されたら、モデルを訓練するためには1)大量の計算パワーが必要であり、2)有能な(そして優しい)人々が訓練を実行し監視する必要があります。訓練自体は、アーキテクチャのインスタンス化(訓練用のハードウェア上での行列の作成)および上記のハイパーパラメータを使用して訓練データセット上の訓練アルゴリズムの実行からなります。その結果、モデルの重みが得られます。これらは学習後のモデルパラメータであり、オープンな事前学習モデルへのアクセスに関して多くの人々が話す内容です。これらの重みは、推論(つまり、新しい入力の予測やテキストの生成など)に使用することができます。 事前学習済みLLMsは、重みが公開されると特定のタスクに特化または適応することもあります。それらは、「ファインチューニング」と呼ばれるプロセスを介して、ユースケースやアプリケーションの出発点として使用されます。ファインチューニングでは、異なる(通常はより専門化された小規模な)データセット上でモデルに追加の訓練ステップを適用して、特定のアプリケーションに最適化します。このステップには、計算パワーのコストがかかりますが、モデルをゼロから訓練するよりも財政的および環境的にはるかにコストがかかりません。これは、高品質のオープンソースの事前学習モデルが非常に興味深い理由の一つです。コミュニティが限られたコンピューティング予算しか利用できない場合でも、自由に使用し、拡張することができます。 2022年 – サイズの競争からデータの競争へ 2023年以前、コミュニティで利用可能だったオープンモデルはありましたか? 2022年初頭まで、機械学習のトレンドは、モデルが大きければ(つまり、パラメータが多ければ)、性能が良くなるというものでした。特に、特定のサイズの閾値を超えるモデルは能力が向上するという考えがあり、これらの概念はemergent abilitiesとscaling lawsと呼ばれました。2022年に公開されたオープンソースの事前学習モデルは、主にこのパラダイムに従っていました。 BLOOM(BigScience Large Open-science…
AIアドバイザーと計画ツール:金融、物流、それ以上を変革する
「AIアドバイザーやプランニングツールが金融、物流、医療、教育の根本的な変革を遂げる方法を探索してくださいこれらのAIシステムがどのようにデータ駆動の洞察を提供し、複雑なプロセスを最適化し、未来を形作っているのか学んでください」
「科学者がスーパーバグと戦うため、分子を死から甦らせる」
調査チームは、絶滅した人類の祖先から遺伝情報を採掘するために計算手法を使用し、新しい抗生物質の候補を特定しています
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.