Learn more about Search Results A - Page 658

「データサイエンスブートキャンプ後の就職方法」

こんにちは、データサイエンスのブートキャンプを完了したことおめでとうございます!簡単ではなかったでしょうが、頑張ってプロセスを乗り越えることができましたねその間に、きっと貴重なスキルをたくさん学び、自分の強みや弱点を発見し、データサイエンスについてもたくさん学んだことでしょう...

ファイル共有を簡単にする

最近、データ共有の問題が再び発生し、私は共有フォルダと一緒に作業するための方法を設計する良いタイミングだと思いました私は独立したGIScienceの専門家として働いており、頻繁に...

「機械学習アルゴリズムの理解:詳細な概要」

「マシンラーニングの理解:タスク、アルゴリズム、そして最適なモデルの選択を明らかにする」となります

「高い基数を持つカテゴリカルな特徴をエンコードするための4つの方法 — Pythonでの実装」となります

高カーディナリティの特徴量に対して、scikit-learnとTensorFlowを使用してターゲットエンコーディング、カウントエンコーディング、特徴ハッシング、埋め込みを適用する方法を学びます

「洞察を求める詩的な探求としてのインディゴスによる機械学習」

すべてのデータサイエンティストは、インスピレーションはどこからでもやってくることを知っています最近の同僚やクライアントとの会話に導かれ、彼らのニーズに最も適したモデリングを提供するために取り組むこともありますしかし、ときには本当に予期しない場所からインスピレーションが生まれることもあります先日、エクササイズの準備中に私は...

ヒストグラムに対する3つの最良の(しばしばより良い)代替方法

ヒストグラムは、データサイエンティストとしての旅を始める際に最初に使用したいプロットかもしれません分布の形状を理解するために直感的で簡単なプロットですしかし、…

「芸術家にとっての小さな一歩、クリエイティブ界にとっての大きな飛躍」

編集者注:この投稿は、弊社の週刊「NVIDIA Studio」シリーズの一部であり、注目のアーティストを紹介し、クリエイティブのヒントやトリックを提供し、NVIDIA Studioテクノロジーがクリエイティブなワークフローを向上させる方法を実証しています。 2Dのコンセプトを3Dの傑作に変換する際、独学のビジュアルデベロプメントアーティストであるアレックス・トレビーノは、すべての熱望するクリエイターの潜在能力に自信を持っています。 「複雑なプロセスだと思うかもしれませんが、信じてください、思っているよりも簡単です」と彼は言いました。 今週の「NVIDIA Studio」シリーズの取り上げられたコンテンツクリエイターであるトレビーノは、AENDOMというプロジェクトの創設者であり、ストーリーテリングの要素に基づいたアートを作成し、クリエイティブなプロセスを共有し、次世代のアーティストたちを教育し、インスピレーションを与えることを使命としています。 https://blogs.nvidia.com/wp-content/uploads/2023/09/360-textured.mp4   このイニシアチブから、ルナローバーコレクションが生まれました。 月を目指して ルナローバーコレクションの背後にあるストーリーは、悲しみを探求し、アーティストのマティアス・アドルフソンの作品に触発されています。 しかし、トレビーノは、アドルフソンの詳細で遊び心のある風刺画スタイルを自身の3Dデザインに翻訳したかったのです。 トレビーノのインスピレーション、クレジット:マティアス・アドルフソン トレビーノは、独立したプログラムであるPureRefを使用して、リファレンスイメージを収集し、ムードボードを作成しました。これにより、コンセプトフェーズで異なる視点とスタイルで遊ぶことができました。 「孤独感や見捨てられ感にもかかわらず、悲しみの感情を連想させるように、キャラクターが荒涼とした風景を探索し続けることを望みました」とトレビーノは言いました。 Blenderでの高度なスカルプティング 次に、トレビーノは好みの3DアプリであるBlenderでモデルを形作り、スカルプトしました。彼のGeForce RTX 3080 Ti GPU搭載のPCで動作するCyclesのRTXアクセラレーテッドOptiXレイトレーシングを使用して、ビューポートでのインタラクティブで写実的なモデリングとスムーズな動きを実現しました。 「NVIDIAのGPUは幅広いサポートと強力なパフォーマンスを持っており、正確に動作し、高速で高品質なイメージをレンダリングできることを保証してくれます」とトレビーノは語りました。 次に、トレビーノはモデルにUVマッピングを適用し、Adobe…

データサイエンスにおける統計学:理論と概要

「統計学の役割をデータサイエンスで高レベルに探求する」

「ファイングレインド画像分類における背景誘発バイアスをどのように軽減できるか? マスキング戦略とモデルアーキテクチャの比較的研究」

細かい画像の分類は、広いカテゴリ内で密接に関連するサブクラスを区別することに取り組んでいます。例えば、単に画像を「鳥」として識別するのではなく、このアプローチでは特定の鳥の種を区別します。これらのタスクの複雑さにより、これらのモデルは頻繁に画像の背景から微細な情報を意図せずに頼りにすることがあります。背景情報は文脈的な手がかりを提供するかもしれませんが、バイアスを生成する可能性もあります。例えば、モデルが訓練中に都市の背景で頻繁に鳥を観察すると、すべての都市の背景をスズメと関連付ける可能性があります。より正確な結果のために背景によるバイアスを排除することは重要です。なぜなら、それはモデルの現実世界での適用範囲を制限する可能性があるからです。 細かい画像分類のための現代のアルゴリズムは、畳み込みニューラルネットワーク(CNN)やビジョン変換器(ViT)をその構造的な基盤として頼りにすることがよくあります。しかし、基本的な問題がまだ存在しています:オブジェクトが表示される文脈は、人間と機械に大きな影響を与える可能性があります。ディープラーニングモデルは、背景に意図せずに集中しすぎることがあり、場合によってはそれだけでカテゴリ分類を行うことがあります。これらのモデルは、異常な、見慣れない背景の状況で使用されると、性能の低下が著しくなります。 背景バイアスが引き起こす課題に対処するために、フランスのモンペリエ大学の研究チームによって最近発表された新しい研究では、主に2つの戦略を調査することが提案されました: 早期マスキング:画像のレベルで背景の詳細が最初から除去される方法。 後期マスキング:この方法では、モデル内のより高い、より抽象的な段階で背景に関連する特徴がマスクされます。 この研究の主要な貢献は、細かい画像分類における背景によるバイアスの徹底的な調査です。CNNやViTなどの高度なモデルがこれらのバイアスに直面した場合のパフォーマンスを注意深く分析し、それらに対処する創造的なマスキング技術を提供しています。 具体的には、早期マスキングでは、画像の入力段階で背景が除去されます。CNNやVision Transformersなどのモデルによる分類の前に、画像の背景領域はバイナリセグメンテーションネットワークを使用してマスクされ、モデルは主要なオブジェクトに集中するようになります。対照的に、後期マスキングでは、モデルは最初に全体の画像を処理しますが、より高度な段階で背景がマスクされます。主要なモデルのバックボーンが画像を処理した後、背景に関連する高レベルの空間特徴が選択的に除外されます。両方の方法は、モデルが関心の対象であるオブジェクトに焦点を当て、カテゴリ間の微妙な違いがある細かい分類における背景詳細から生じるバイアスを減らすことを目指しています。 研究者は、2つの戦略を評価するために実験を行いました。CUBデータセットを使用してモデルを実験的に訓練し、200種類の鳥の画像が含まれています。CUBテストセットとWaterbirdsデータセット、つまりCUB画像の背景がPlacesデータセットのものに変更された外部分布 (OOD) セットで、これらのモデルのパフォーマンスが評価されました。研究者は、ConvNeXtやViTなどのいくつかのモデルレイアウト、およびSmall、Base、Largeなどのモデルサイズを使用しました。その結果、早期マスキングで訓練されたモデルの方が、それを使用しないモデルよりも性能が向上することがよくありました、特にOOD Waterbirdsテストセットでは。これは、早期マスキングを使用することで、画像の背景によるバイアスが減少し、モデルの汎化性能が向上することを示しています。 結論として、著者はCNNとViTモデルの汎化性能に対する背景によるバイアスの影響を検証しました。さまざまな背景マスキング技術をテストし、早期マスキングが両方のモデルタイプにとって最も効果的であることがわかりました。この研究は、画像タスクにおける背景の考慮の重要性を強調し、バイアスを減らし、汎化性能を向上させる戦略を提案しています。

「Google DeepMindの研究者たちは、PROmptingによる最適化(OPRO)を提案する:大規模言語モデルを最適化器として」

人工知能の分野では、自然言語処理、自然言語生成、自然言語理解、およびコンピュータビジョンなどのサブフィールドがますます人気を集めています。最近注目を浴びている大規模言語モデル(LLM)は、最適化のための最適化器として使用されています。その能力は最適化手法の向上のために自然言語の理解に利用されています。最適化はさまざまな産業やコンテキストで実用的な意味を持っています。派生ベースの最適化手法は、さまざまな問題をうまく処理することが実証されています。 これには、グラデーションが現実的な状況では時々しか利用できない場合があるため、困難な問題が生じます。この問題に対処するために、Google DeepMindの研究者チームは、Optimisation by PROmpting (OPRO) と呼ばれる独自のアプローチを提案しました。LLMを最適化器として使用することで、OPROは直感的で非常に強力な技術を提供します。この場合、主な新しさは、最適化タスクを表現するために日常言語を使用することで、プロセスがより簡単でアプローチしやすくなることです。 OPROは、最適化問題の自然言語での説明を提供することから始まります。これにより、問題が複雑な数式ではなく簡単な言語で表現されるため、理解しやすくなります。次に、反復的な解生成が提供されます。LLMは、与えられた自然言語プロンプトに基づいて、各最適化ステップごとに新しい候補解を作成します。このプロンプトは重要であり、以前に作成された解とそれに関連する値の詳細を含んでいます。これらの従来のオプションは、さらなる開発の出発点として機能します。 更新および評価された解が開発され、そのパフォーマンスまたは品質が評価されます。次の最適化ステップのプロンプトには、これらの解が検査された後に含まれます。反復プロセスが進むにつれて、解は徐々に改善されます。OPROの有効性を示すために、いくつかの実用的な例が使用されています。最初に、OPROは2つのよく知られた最適化問題、線形回帰問題と巡回セールスマン問題に取り組むために使用されました。これらの問題は顕著であり、手法の有効性を評価するための基準となります。OPROは、これらの問題に対して優れた解を見つける能力を示しました。 次に、OPROはプロンプトの最適化に使用されました。OPROは、特定の最適化問題に対処するだけでなく、プロンプト自体の最適化にも取り組んでいます。タスクの精度を向上させる指示を見つけることが目標です。特に自然言語処理を含むタスクでは、プロンプトの構造と内容が結果に大きな影響を与えることがあります。 チームは、OPROによって最適化されたプロンプトが一貫して人間が作成したものよりも優れていることを示しました。ある例では、OPROはBig-Bench Hardのワークロードのパフォーマンスを驚異的な50%向上させ、GSM8Kベンチマークでは最大8%向上させました。これは、OPROが最適化結果の改善において非常に大きな潜在能力を持っていることを示しています。 結論として、OPROは大規模言語モデルを利用した最適化の革新的な手法を提案しています。OPROは、最適化問題を通常の言語で説明し、解を繰り返し生成および改善することで、一般的な最適化問題の解決とプロンプトの改善において、従来の手法に比べて著しいパフォーマンスの向上を示しています。特に、グラデーション情報が利用できないか収集が困難な場合には、その効果が顕著です。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us