Learn more about Search Results 比較 - Page 3

「画像の匿名化はコンピュータビジョンのパフォーマンスにどのような影響を与えるのか? 伝統的な匿名化技術とリアルな匿名化技術の比較」

画像匿名化は、識別可能な特徴をぼかすことにより、個人のプライバシーを保護するために視覚データを変更することを指します。デジタル時代が進むにつれて、画像内の個人データを保護する必要性が増しています。しかし、コンピュータビジョンモデルのトレーニング時には、匿名化されたデータが重要な情報を失うために精度に影響を与えることがあります。プライバシーとモデルのパフォーマンスのバランスをとることは、依然として重要な課題です。研究者は、データの有用性を維持しながらプライバシーを保護する方法を継続的に探求しています。 特に自律型車両(AV)の研究において、視覚データの個人のプライバシーへの懸念は非常に重要です。ぼかしといった従来の画像匿名化の方法は、プライバシーを保護する一方で、コンピュータビジョンのタスクにおけるデータの有用性を低下させる可能性があります。顔のぼかしは、特に人間が主な焦点の場合にさまざまなコンピュータビジョンモデルの性能に悪影響を与えることがあります。最近の進歩では、生成モデルから合成されたコンテンツでプライバシーに関連するデータを置き換える現実的な匿名化が提案され、従来の方法よりもより多くの有用性を保持しています。また、歩様や服装などの顔以外の手がかりから個人を識別できる可能性を考慮した全身の匿名化の新たなトレンドも存在しています。 同じ文脈で、最近発表された新しい論文では、これらの匿名化方法が自律型車両に関連する主要なタスクに与える影響を具体的に探求し、従来の技術とより現実的な技術を比較しています。 以下は論文で提案された手法の簡潔な要約です: 著者らは、コンピュータビジョンタスクにおける異なる画像匿名化手法の効果と結果を、特に自律型車両に関連するものに焦点を当てて探求しています。ぼかしやマスクアウトといった従来の手法と、現実的な匿名化と呼ばれる新しい手法の3つの主な手法を比較しています。後者は、生成モデルから合成されたコンテンツでプライバシーに関連する情報を置き換え、従来の手法よりも画像の有用性をより保持することを主張しています。 彼らの研究では、2つの匿名化の主要領域、つまり顔と全身を定義するためにデータセットの注釈を利用しています。 顔の匿名化には、DeepPrivacy2からのモデルを使用し、顔を合成します。全身の匿名化には、キーポイントの注釈に依存するU-Net GANモデルを利用しています。このモデルはDeepPrivacy2フレームワークと統合されています。 最後に、合成された人体がローカルなコンテキスト(例:画像内の周囲の状況)に適合するだけでなく、画像の広範なコンテキストとも一致するようにするという課題に取り組んでいます。彼らは2つの解決策を提案しています:アドホックなヒストグラム均等化と潜在的な最適化を介したヒストグラムマッチング。 研究者は、COCO2017、Cityscapes、およびBDD100Kの3つのデータセットを使用して、匿名化手法がモデルのトレーニングに与える影響を調査しました。結果は次のとおりです: 顔の匿名化:CityscapesとBDD100kにはわずかな影響がありますが、COCOのポーズ推定では性能が著しく低下しました。 全身の匿名化:すべての手法でパフォーマンスが低下し、現実的な匿名化はわずかに良い結果を示しましたが、元のデータセットには及びませんでした。 データセットの違い:BDD100kとCityscapesの間には注釈と解像度の違いがあるため、顕著な相違があります。 要するに、匿名化はプライバシーを保護しますが、選択した方法はモデルのパフォーマンスに影響を与える可能性があります。高度な技術でも、元のデータセットのパフォーマンスに近づけるために改良が必要です。 本研究では、自律型車両向けのコンピュータビジョンモデルへの匿名化の影響を調査しました。顔の匿名化は特定のデータセットにほとんど影響を与えませんが、他のデータセットでは性能が劇的に低下し、現実的な匿名化が対策となりました。ただし、全身の匿名化は一貫してパフォーマンスが低下しましたが、現実的な手法の方がやや効果的でした。現実的な匿名化は、データ収集時のプライバシー上の懸念に対処するのに役立ちますが、完全なプライバシーを保証するものではありません。この研究の制限事項には、自動注釈の依存性や特定のモデルアーキテクチャが含まれます。将来の研究では、これらの匿名化手法を改良し、生成モデルの課題に取り組むことができるでしょう。

「AIはどれくらい環境に優しいのか?人間の作業と人工知能の二酸化炭素排出量を比較する」

近年、人工知能(AI)は驚異的な進展を遂げ、その応用は医療、銀行業、交通、環境保護などさまざまな産業に広がっています。しかし、AIの利用が広がるにつれて、環境への影響に関する懸念が浮上しています。特に、AIモデルの稼働と訓練に必要なエネルギーとそれによる温室効果ガスの排出についての懸念です。例えば、現在使用されている最も強力なAIシステムの1つであるGPT-3は、トレーニング中において、その寿命の間に5台の車によって生成される排出物と同等の排出物を生成します。 最近の研究では、多数のAIシステムの環境への影響が調査されており、特に文章の作成や絵画制作などのタスクを実行する能力に焦点が当てられています。研究チームは、ChatGPT、BLOOM、DALL-E2、MidjourneyといったさまざまなAIシステムによって生成される排出物と、同じタスクを人間が実行した場合に生じる排出物とを比較しました。文章の作成と画像の制作という2つの一般的なタスクが特に注目されました。 この研究の目的は、人間がこれらのタスクを実行する場合とAIが実行する場合の環境への影響を対比することです。研究チームは、AIに関連する環境費用にもかかわらず、これらのコストが通常人間が同様の活動を行う場合よりも低いことを示すことで、人間とAIの交換可能性を強調しました。結果は、言葉を生成する場合に驚くほどの差があることを示しています。 テキストを作成する際、AIシステムは人間が生成する二酸化炭素換算量(CO2e)の130倍から1500倍少なくなります。この大きな違いは、この状況でのAIの環境上の利点を強調しています。同様に、画像を作成する際、AIシステムは人間が生成するCO2eの310倍から2900倍少なくなります。これらの数字は、AIを使用して画像を作成する際にどれだけ少ない排出物が生成されるかを明確に示しています。 研究チームは、排出物の研究だけでは完全な情報を提供することができないことを理解することが重要であり、以下の重要な社会的な影響や要素が考慮される必要があることを共有しました。 職業的な置き換え:一部の産業では、AIが従来人間が担当してきた仕事を引き受けることによって、雇用の置き換えが生じる可能性があります。この置き換えの潜在的な経済的および社会的影響を適切に対処することが重要です。 合法性:AIシステムが道徳的および法的な原則に従って開発・利用されることが重要です。AIによって生成されるコンテンツの合法性とその潜在的な悪用に対処する必要があります。 リバウンド効果:AIがさまざまな産業に導入されると、予期せぬ影響が生じる場合があります。これらの結果は、使用量や生産量の増加として現れる可能性があります。 AIによっては代替できない人間の機能もあることを理解することが重要です。AIは、人間の創造性、共感性、意思決定を必要とする一部のタスクやポジションを行うことはできません。ただし、現在の研究は、さまざまなタスクにおいて人間と比較してAIが排出物を劇的に削減する可能性があることを示しています。これらの結果は環境の観点からは励みとなりますが、AIの統合が共有された目標と価値観に一致するように、より広範な倫理的、経済的、社会的要素の文脈で考慮される必要があります。排出物を大幅に減らすためにAIを使用するというアプローチは、現在の環境問題を解決するための有効な手段です。

メディアでの顔のぼかしの力を解き放つ:包括的な探索とモデルの比較

現代のデータ駆動型の世界において、個人のプライバシーと匿名性を確保することは非常に重要です個人のアイデンティティを保護したり、GDPRなどの厳しい規制に準拠したりすることから、...

「ファイングレインド画像分類における背景誘発バイアスをどのように軽減できるか? マスキング戦略とモデルアーキテクチャの比較的研究」

細かい画像の分類は、広いカテゴリ内で密接に関連するサブクラスを区別することに取り組んでいます。例えば、単に画像を「鳥」として識別するのではなく、このアプローチでは特定の鳥の種を区別します。これらのタスクの複雑さにより、これらのモデルは頻繁に画像の背景から微細な情報を意図せずに頼りにすることがあります。背景情報は文脈的な手がかりを提供するかもしれませんが、バイアスを生成する可能性もあります。例えば、モデルが訓練中に都市の背景で頻繁に鳥を観察すると、すべての都市の背景をスズメと関連付ける可能性があります。より正確な結果のために背景によるバイアスを排除することは重要です。なぜなら、それはモデルの現実世界での適用範囲を制限する可能性があるからです。 細かい画像分類のための現代のアルゴリズムは、畳み込みニューラルネットワーク(CNN)やビジョン変換器(ViT)をその構造的な基盤として頼りにすることがよくあります。しかし、基本的な問題がまだ存在しています:オブジェクトが表示される文脈は、人間と機械に大きな影響を与える可能性があります。ディープラーニングモデルは、背景に意図せずに集中しすぎることがあり、場合によってはそれだけでカテゴリ分類を行うことがあります。これらのモデルは、異常な、見慣れない背景の状況で使用されると、性能の低下が著しくなります。 背景バイアスが引き起こす課題に対処するために、フランスのモンペリエ大学の研究チームによって最近発表された新しい研究では、主に2つの戦略を調査することが提案されました: 早期マスキング:画像のレベルで背景の詳細が最初から除去される方法。 後期マスキング:この方法では、モデル内のより高い、より抽象的な段階で背景に関連する特徴がマスクされます。 この研究の主要な貢献は、細かい画像分類における背景によるバイアスの徹底的な調査です。CNNやViTなどの高度なモデルがこれらのバイアスに直面した場合のパフォーマンスを注意深く分析し、それらに対処する創造的なマスキング技術を提供しています。 具体的には、早期マスキングでは、画像の入力段階で背景が除去されます。CNNやVision Transformersなどのモデルによる分類の前に、画像の背景領域はバイナリセグメンテーションネットワークを使用してマスクされ、モデルは主要なオブジェクトに集中するようになります。対照的に、後期マスキングでは、モデルは最初に全体の画像を処理しますが、より高度な段階で背景がマスクされます。主要なモデルのバックボーンが画像を処理した後、背景に関連する高レベルの空間特徴が選択的に除外されます。両方の方法は、モデルが関心の対象であるオブジェクトに焦点を当て、カテゴリ間の微妙な違いがある細かい分類における背景詳細から生じるバイアスを減らすことを目指しています。 研究者は、2つの戦略を評価するために実験を行いました。CUBデータセットを使用してモデルを実験的に訓練し、200種類の鳥の画像が含まれています。CUBテストセットとWaterbirdsデータセット、つまりCUB画像の背景がPlacesデータセットのものに変更された外部分布 (OOD) セットで、これらのモデルのパフォーマンスが評価されました。研究者は、ConvNeXtやViTなどのいくつかのモデルレイアウト、およびSmall、Base、Largeなどのモデルサイズを使用しました。その結果、早期マスキングで訓練されたモデルの方が、それを使用しないモデルよりも性能が向上することがよくありました、特にOOD Waterbirdsテストセットでは。これは、早期マスキングを使用することで、画像の背景によるバイアスが減少し、モデルの汎化性能が向上することを示しています。 結論として、著者はCNNとViTモデルの汎化性能に対する背景によるバイアスの影響を検証しました。さまざまな背景マスキング技術をテストし、早期マスキングが両方のモデルタイプにとって最も効果的であることがわかりました。この研究は、画像タスクにおける背景の考慮の重要性を強調し、バイアスを減らし、汎化性能を向上させる戦略を提案しています。

「AI時代における学術的誠実性の再考:ChatGPTと32のコースの大学生の比較分析」

機械学習アルゴリズムを使用して以前に作成されたテキスト、音声、または視覚情報を元に新しいコンテンツを生成する人工知能(AI)は、生成型AIとして知られています。この分野における最近のブレイクスルーとこれまでにないアクセシビリティにより、多くの人々がこのセクターを「社会と産業が準備しなければならないゲームチェンジャー」と見なしています。たとえば、Stable DiffusionとDALL-Eは、さまざまなジャンルで作品を制作する能力からアート界で注目されています。また、Amper Musicという生成型AI技術は、これまでにアルバム全体を構築し、任意のジャンルで音楽を生成するために利用されてきました。 この分野の最新のツールはChatGPTであり、複数の言語で人間の反応に似たテキストの返信を生成することができます。より具体的には、それは対話的な方法で行い、ユーザーが以前の情報を連続した対話形式で自然に展開することができます。クリエイティブライティング、マーケティング、カスタマーサービス、ジャーナリズムなど、さまざまなアウトオブボックスのアプリケーションでほぼ無制限の価値を持つため、このツールは「非凡なヒット」と「生産性の革命」と評されています。ChatGPTは、デビューからわずか5日で100万人のユーザーを獲得し、わずか2か月で1億人以上の月間ユーザー数を達成したことで、その能力が注目されました。 驚異的な能力にもかかわらず、生成型AIには倫理的な問題がつきまとっています。オンラインで利用可能な大量のデータを所有するのは誰であり、それらのデータを使用して生成型AIモデルを訓練するのかについて、継続的な議論が行われています。さらに、これらのツールが発展するにつれて、人間の創作物とアルゴリズムによる創作物の区別が困難になっています。ChatGPTがエッセイや課題の解答を生成する能力により、高校生や大学生による学術的誠実性の違反に関する教育に関連する議論が引き起こされています。たとえば、ニューヨーク市、ロサンゼルス、ボルチモアの教育区では、アメリカ合衆国での使用を禁止しています。 同様に、オーストラリアの大学では、エッセイを書くために技術を使用する学生を防止するために、「ペンと紙」の試験を再開すると発表しています。多くの教員が盗作を心配しているため、ジョージ・ワシントン大学、ラトガーズ大学、アパラチアン州立大学などの学術機関は、テイクホームのオープンブックの課題を完全に廃止することを決定しました。学術論文や出版物でも、ChatGPTを利用した学術的執筆を禁止しているものがいくつかあります。これは、ChatGPTによって生成された要約が人間が生成したものと同一であることが実証されているため、予想されることではありません。 しかし、いくつかの人々はChatGPTを擁護し、さらなる執筆生産性の向上を提唱しています。教育の分野では、以前の研究が医療およびヘルスケア、コンピュータおよびデータサイエンス、法律、ビジネス、ジャーナリズムおよびメディア、言語習得など、さまざまな分野での大規模な言語モデルの効果と有用性を調査しています。これらの研究は、ChatGPTの標準テストへのパフォーマンスを学生のパフォーマンスと比較したときに、結果が異なることを示していますが、特に大規模な言語モデルとの比較では、質問応答のタスクが大幅に改善されたことがわかりました。 過去の研究では、米国の医師資格試験でのChatGPTのパフォーマンスを評価し、追加の特殊なトレーニングや強化学習の必要性なしに、試験の3つのフェーズすべてで合格水準に近いパフォーマンスを発揮したことがわかりました。同様に、他の研究では、ChatGPTモデルを米国の基盤工学試験にテストし、そのパフォーマンスをエンジニアリングの文脈で評価しました。彼らの研究では、モデルのパフォーマンスが試験のさまざまなセクションによって変動することを示し、プロフェッショナルプラクティスと倫理のような一部のセクションでは高いスコアを獲得し、水文学などの他のセクションでは低いスコアを獲得したことを示しました。 しかし、これらの例にもかかわらず、文献では、同じ大学の異なる学術領域の学生とChatGPTのパフォーマンスを対比した体系的な調査がまだ改善の余地があります。また、この技術の使用について学生や教員の立場が国際的にどのようになっているのかも明確にする必要があります。最後に、ChatGPTによって生成された課題の解答が検出可能かどうかは不明です。ここでは、ニューヨーク大学アブダビ校の研究者が、チャットGPTのパフォーマンスを8つの異なる分野からの32の大学レベルのコースの学生と比較し、そのプラギアリズムツールとしての潜在能力を分析するために、これらのテキストの検出アルゴリズムを回避するために使用できる曖昧化手法の実現可能性を調査しています。 彼らは、ブラジル、インド、日本、イギリス、アメリカ合衆国の5つの異なる国から選ばれた参加者(N=1601)を調査し、ChatGPTの有用性やその使用に関連する倫理的および規範的問題についての学生や教育者の視点をよりよく理解しました。また、著者の大学での151人の学部生と60人の教授を対象に、さまざまな分野がChatGPTをどのように見るかの違いを調査しました。彼らは、32のコースのうち9つでChatGPTが学生と同等またはそれ以上のパフォーマンスを発揮することを発見しました。また、現在の検出アルゴリズムは、ChatGPTの応答をAI生成ではなく人間が生成したものと誤って識別することがよくあります。 さらに悪いことに、難読化攻撃により、これらのアルゴリズムは無意味になり、ChatGPTの応答の95%が欠落します。最後に、学生たちの間でChatGPTを学術的な仕事に利用することに合意が見られ、教員たちはそれを盗作として扱うことになるとのことです。これらの2つの間には本質的な緊張関係があるため、教育機関は生成型AI全般および特にChatGPTに対して受け入れ可能な学術的誠実性の規制を整備する必要があります。生成型AIの時代において、彼らの調査結果は教育改革に関する政策議論に向けられる現代的な洞察を提供しています。

Rとbrmsを用いた学校卒業者の結果のベイズ比較

学校を卒業した後に私たちがしたいことについては、たくさん話されます私たちは幼い頃から、大人になったら何をしたいかと聞かれ、その後13年間を予備教育で過ごします公立の…

Google AIはWeatherBench 2を紹介します:さまざまな天気予測モデルの評価と比較のための機械学習フレームワーク

機械学習(ML)は近年、天気予報においてますます使用されています。MLモデルが運用物理モデルと精度の面で競争できるようになったことから、この進歩により世界中の天気予報の精度を向上させる可能性があることを期待しています。客観的で確立された評価基準を使用した革新的な手法のオープンかつ再現可能な評価は、この目標を達成するために重要です。 Google、Deepmind、およびヨーロッパ気象予報センターによる最新の研究によれば、天気予測モデルのベンチマークと比較フレームワークであるWeatherBench 2が発表されました。WeatherBench 2は、ほとんどのMLモデルの訓練に使用されるERA5データセットを忠実に再現するだけでなく、オープンソースの評価コードとクラウド最適化された基準データセットも提供しています。 現在、WeatherBench 2は、世界的なVoAGI範囲(1-15日)の予測に最適化されています。研究者は、近い将来、ノウキャストや短期(0-24時間)および長期(15日以上)の予測など、さらに多くのジョブに対する評価とベースラインの組み込みを検討する予定です。 天気予測の正確さを単純なスコアで評価することは困難です。平均気温が風の突風の頻度や重症度よりも重要な場合があります。そのため、WeatherBench 2には多くの指標が含まれています。いくつかの重要な基準、または「ヘッドライン」メトリックスは、気象機関と世界気象機関によって実施される標準評価と一貫した方法で研究を要約するために定義されています。 WeatherBench 2.0(WB2)は、データ駆動型の世界的な天気予測のゴールドスタンダードです。これは、最初のWeatherBenchベンチマークがリリースされて以来登場したすべての新しいAI技術に触発されています。WB2は、多くの気象センターで使用されている運用予測評価を忠実に模倣するように構築されています。また、実験的手法をこれらの運用基準と比較するための堅固な基盤も提供しています。 研究者は、評価コードとデータを公開することで効率的な機械学習作業と再現可能な結果を実現することを目指しています。研究者は、コミュニティの要望に基づいて追加の指標やベースラインをWB2に追加することができると考えています。論文では、局所観測を通じて極端な状況や影響変数を評価するためのさまざまな潜在的な拡張についても示唆しています。

インクから洞察:ブックショップの分析を使用してSQLとPythonのクエリを比較する

SQLは、データサイエンティストのツールボックスの基本ですデータベースからデータを素早く取り出して分析する能力は、大量のデータを扱う人にとって必須のスキルです

深層学習フレームワークの比較

「開発者に最適なトップのディープラーニングフレームワークを見つけてください機能、パフォーマンス、使いやすさを比較して、AIのコーディングの旅を最適化してください」

MSSQL vs MySQL データベースのパワーハウスを比較する

イントロダクション データベース管理システムの賑やかな競技場には、2つの重量級のライバルが現れます。1つはエンタープライズレベルの優れた能力を持つ洗練されたMicrosoft SQL Server (MSSQL)で、もう1つはコミュニティ主導の柔軟性を備えた開放的なMySQLです。それでは、MSSQLとMySQLが提供する機能を比較し、どちらがより適しているか見てみましょう。 MSSQL vs MySQL – 概要 要素 Microsoft SQL Server (MSSQL) MySQL ライセンス プロプライエタリでさまざまなエディションとライセンス オープンソースでコミュニティおよびエンタープライズエディション パフォーマンス 大企業と複雑なクエリに最適化されています 小規模から中規模のアプリケーションに適しています スケーラビリティ 堅牢なスケーラビリティオプションとクラスタリングサポート…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us