Learn more about Search Results Nature - Page 7

Siameseネットワークの導入と実装

イントロダクション シャムネットワークは、たった1つの例に基づいて正確な画像分類を可能にする興味深いアプローチを提供します。これらのネットワークは、データセット内の画像のペアの類似性を測定するためにコントラスティブロスと呼ばれる概念を使用します。画像の内容を解読する従来の方法とは異なり、シャムネットワークは画像間の変動と類似点に集中しています。この独特な学習方法は、限られたデータのシナリオにおいても強さを発揮し、ドメイン固有の知識なしでも性能を向上させます。 この記事では、シャムネットワークのレンズを通して署名の検証の魅力的な領域に深く入り込みます。PyTorchを使用して機能的なモデルを作成する方法について、洞察と実装手順を提供します。 学習目標 シャムネットワークの概念と双子のサブネットワークを含むユニークなアーキテクチャの理解 シャムネットワークで使用されるロス関数(バイナリクロスエントロピー、コントラスティブロス、トリプレットロス)の違いを理解する シャムネットワークが効果的に使用できる実世界のアプリケーション(顔認識、指紋認識、テキストの類似性評価など)を特定し説明する シャムネットワークの1ショット学習、汎用性、ドメインに依存しないパフォーマンスに関する利点と欠点をまとめる この記事はデータサイエンスブログマラソンの一部として公開されました。 シャムネットワークとは何ですか? シャムネットワークは、ワンショット分類のために2つの同じ構造のサブネットワークを使用するネットワークのカテゴリに属しています。これらのサブネットワークは、異なる入力を受け入れながら、同じセットアップ、パラメータ、重みを共有します。シャムネットワークは、複数のクラスを予測するために豊富なデータで訓練される従来のCNNとは異なり、類似性関数を学習します。この関数により、少ないデータを使用してクラスを識別することができるため、ワンショット分類に非常に効果的です。このユニークな能力により、これらのネットワークは多くの場合、1つの例で正確に画像を分類することができます。 シャムネットワークの実世界の応用例として、顔認識や署名の検証のタスクがあります。例えば、会社が自動顔認識に基づいた出席システムを導入するとします。従来のCNNでは、各従業員の1枚の画像しか利用できないため、正確に何千人もの従業員を分類するのは困難です。そこでシャムネットワークが登場し、このようなシナリオで優れた性能を発揮します。 フューショットラーニングの探求 フューショットラーニングでは、モデルは限られた数の例に基づいて予測を行うためのトレーニングを行います。これは、従来のアプローチとは対照的で、トレーニングには大量のラベル付きデータが必要です。フューショットモデルのアーキテクチャは、わずかな数のサンプル間の微妙な違いを活用し、わずかな数やたった1つの例に基づいて予測を行うことができます。シャムネットワーク、メタラーニングなどのさまざまな設計フレームワークが、この機能を可能にします。これらのフレームワークは、モデルが意味のあるデータ表現を抽出し、それを新しい、未知のサンプルに使用することができるようにします。 フューショットラーニングが活躍する実用例には、以下のものがあります: 監視カメラにおける物体検出: フューショットラーニングは、物体の検出において、それらの物体の例がわずかしかない場合でも効果的に識別することができます。わずかなラベル付きの例を使ってモデルをトレーニングした後、それらの物体を新しい映像で検出することができます。 2. 個別のヘルスケア: 個別のヘルスケアでは、医療専門家は患者の医療記録の限られたセットを持っている場合があります。これにはCTスキャンや血液検査の少数の例が含まれます。フューショットラーニングモデルを使用すると、トレーニング用のわずかな例から、患者の将来の健康状態を予測することができます。これには、特定の疾患の発症の予測や特定の治療法への反応の予測などが含まれます。 シャムネットワークのアーキテクチャ Siameseネットワークの設計には、2つの同一のサブネットワークが含まれており、それぞれが入力の1つを処理します。最初に、入力は畳み込みニューラルネットワーク(CNN)を介して処理されます。このCNNは、提供された画像から有意な特徴を抽出します。その後、これらのサブネットワークはエンコードされた出力を生成し、通常は完全に接続された層を介して、入力データの縮約表現を生成します。 CNNは、2つのブランチと共有の特徴抽出コンポーネントで構成される、畳み込み、バッチ正規化、ReLU活性化、最大プーリング、およびドロップアウト層のレイヤーからなります。最後のセグメントでは、抽出された特徴を最終的な分類結果にマッピングするFC層が含まれています。関数は、線形層の後にReLU活性化のシーケンスと連続的な操作(畳み込み、バッチ正規化、ReLU活性化、最大プーリング、およびドロップアウト)の系列が続きます。フォワード関数は、入力をネットワークの両方のブランチに案内します。 差分層は、入力の類似性を特定し、異なるペア間の差を増幅するためにユークリッド距離関数を使用します:…

「生成AIの余波におけるオープンソースAIの戦い」

テックジャイアントやAI実践者がリスクと報酬を考慮しながら、オープンソースAIの議論の進化する性質について学びましょう

関数呼び出し:GPTチャットボットを何にでも統合する

OpenAIのGPTの新しい関数呼び出し機能を探索し、チャットボットが外部ツールやAPIと対話できるようにしますAIパワーを活用したアプリケーションの可能性を解き放つ

このUCLAのAI研究によると、大規模な言語モデル(例:GPT-3)は、様々なアナロジー問題に対してゼロショットの解決策を獲得するという新たな能力を獲得していることが示されています

類推的な推論は、人間の知性と創造力の基盤となるものです。未知の課題に直面した際、個人は順序立ててそれらをより理解しやすいシナリオと比較することで、実行可能な解決策を頻繁に考案します。このアプローチは、日常の問題の解決から創造的な概念の育成、科学的発見の限界の押し上げまで、様々な活動において人間の思考の重要な役割を果たしています。 ディープラーニングと大規模言語モデル(LLM)の進化により、LLMは類推的な推論のテストと研究が広範に行われています。高度な言語モデルは、独立した思考と抽象的なパターン認識の能力を備えており、人間の知性の基本原理として機能しています。 UCLAの研究チームによる研究は、LLMの真の能力に光を当てました。この研究はその重要な発見のために注目を浴びています。これらの結果は最新号のNature Human Behaviorに掲載され、『Emergent Analogical Reasoning in Advanced Language Models』という記事で紹介されています。この研究では、大規模言語モデル(LLM)が人間のように考え、統計に基づいた思考を模倣していないことが示されています。 この研究では、人間の推論者と頑健な言語モデル(text-davinci-003、GPT-3のバージョン)との間で、様々な類推的な課題を比較しました。 研究者は、言語モデルGPT-3を、事前のトレーニングなしでさまざまな類推的な課題について調査し、人間の応答と直接比較しました。これらの課題は、Raven’s Standard Progressive Matrices(SPM)のルール構造に着想を得た、明確なテキストベースの行列推論の課題と、視覚的な類推の課題を含んでいます。 モデルの出発点は、実世界の言語データの大規模なウェブベースのコレクション(総トークン数4000億以上)でトレーニングされたベースバージョンでした。このトレーニングプロセスは、次のトークンの予測目標によってガイドされ、モデルが与えられたテキストのシーケンスで最も確率の高い次のトークンを予測することを学習しました。 この評価では、以下の4つの異なる課題カテゴリを包括的に調査し、類推的な推論のさまざまな側面を探求しました: テキストベースの行列推論の課題 文字列の類推 四項目の言語的な類推 ストーリーの類推 これらのドメインを横断して、モデルのパフォーマンスと人間のパフォーマンスを直接比較し、人間の類推的な推論に近い条件の範囲内でのエラーのパターンと全体的な効果を調べました。 GPT-3は、抽象的なパターンを把握する能力において、さまざまなシナリオでしばしば人間と同等またはそれ以上のパフォーマンスを発揮しました。GPT-4の初期試験も非常に有望な結果を示すようです。これまでのところ、GPT-3のような大規模言語モデルは、幅広い類推パズルを自発的に解く才能を持っているようです。…

「IBMの「脳のような」AIチップが、環境にやさしく効率的な未来を約束します」

興味深い進展として、テクノロジー巨人IBMが人工知能(AI)の世界を革新するかもしれない「脳のような」チップのプロトタイプを発表しました。エネルギーを大量に消費するAIシステムの環境への影響についての懸念が高まる中、この革新はよりエネルギー効率が高く持続可能なAI技術への重要な一歩となる可能性があります。この画期的なチップは、人間の脳の複雑なつながりからインスピレーションを得ており、さまざまなプラットフォームでAIシステムを再構築する可能性を提供しています。 また読む:IBMとNASAが連携して地球科学GPTを作成:地球の謎を解読する 将来のエネルギー効率の高いAI IBMのプロトタイプチップは、AIのエネルギー効率を劇的に改善することを約束しています。エネルギーを大量に消費するAIインフラストラクチャに関連する炭素排出量への懸念が高まる中、この革新的なチップは希望の光です。このチップのデザインは、最小の電力消費で高性能を実現する人間の脳の驚異的な効率にインスピレーションを得ています。このブレークスルーは、先進的で環境に配慮したAI技術の道を開くかもしれません。 また読む:AI技術がリサイクルをどのように変革しているのか? 人間のつながりを模倣する このプロトタイプチップの中心には、革新的なアプローチがあります。それは、人間の脳内のつながりのように機能するコンポーネントであるメモリスターを使用することです。0と1のバイナリデータストレージに頼る従来のデジタルチップとは異なり、メモリスターをベースとしたチップは情報を処理する私たちの脳の複雑な方法と似たような範囲の値を格納することができます。この「アナログ」アプローチは、より微妙で複雑な人間の認知をより良く模倣したAIシステムへとつながる可能性があります。 また読む:人工知能と人間の知能:トップ7の違い 自然を模倣したコンピューティングの活用 サリー大学のフェランテ・ネリ教授によると、メモリスターをベースとしたアプローチは自然を模倣したコンピューティングの一環です。この分野は、人間の脳の機能を模倣しようとします。メモリスターの「電気の履歴を記憶する」能力は、生物学的なシステムのシナプスの振る舞いを反映しています。相互に接続されたメモリスターは、人間の脳の働きに近いネットワークを生み出す可能性があります。 前途に立ちはだかる課題と機会 脳のようなチップの可能性は非常に大きいものですが、専門家は注意を促しています。ネリ教授は、メモリスターをベースとしたコンピュータを実現することは複雑であり、材料費や製造の複雑さなどの課題があります。しかし、彼は慎重な楽観主義を持ちながら、脳のようなチップの出現が近い将来にあるかもしれないと示唆しています。 また読む:NVIDIAが発表したゲーム変革的なAIチップは、生成型AIアプリケーションを高速化する AIエコシステムの環境への配慮 IBMのチップは、既存のAIシステムとの互換性とエネルギー効率を提供しています。この革新は、スマートフォンから自動車まで、バッテリー寿命の延長や新しいアプリケーションへと展開する可能性があります。さらに、大規模に統合されれば、これらのチップはデータセンターのエネルギー消費量を大幅に削減し、冷却に必要な水量を減らすことができます。 また読む:NVIDIAのAIが地球温暖化から地球を救う 私たちの意見 持続可能な未来を目指す世界において、IBMのプロトタイプチップの可能性は輝いています。広範な採用に向けた道のりには課題が残りますが、この革新は持続可能でより効率的なAI技術の基盤を築くかもしれません。継続的な研究と開発による可能性は魅力的であり、AIと持続可能性が調和して共存する未来の一端を示唆しています。

新しいタンパク質設計のためのディープラーニング

ワシントン大学とベルギーのゲント大学の科学者たちは、深層学習技術を用いて、デノボ計算タンパク質設計における現在のエネルギーベースの物理モデルを強化しました

「ジョンズ・ホプキンス大学の研究者たちは、がんに関連するタンパク質フラグメントを正確に予測することができる深層学習技術を開発しました」

ジョンズ・ホプキンス大学のエンジニアとがん研究者は、最先端の深層学習技術を駆使して、個別のがん治療における画期的な突破を共同で成し遂げました。この革新的な技術であるBigMHCは、免疫系の反応を促す可能性があるがん関連のタンパク質の断片を正確に予測することで、この分野を革新する可能性を秘めています。この成果は、Nature Machine Intelligenceジャーナルに掲載され、個別の免疫療法やがんワクチンの開発における重要なハードルを克服することが期待されています。 ジョンズ・ホプキンス大学内のさまざまな部門のエンジニアとがん研究者からなるチームは、BigMHCががん細胞上に存在するタンパク質断片を特定する能力を持っていることを示しました。これらの断片は、がん細胞を排除するための免疫反応を引き起こす可能性があります。この認識プロセスは、T細胞が細胞表面上のがん特異的なタンパク質断片に結合することによって実現され、がん免疫療法において重要なフェーズとなります。深層学習の力を活用することで、この技術は免疫療法の反応の理解とカスタマイズされたがん治療の開発を加速することを約束しています。 免疫反応を引き起こすタンパク質断片は、しばしばがん細胞内の遺伝的変異に由来しており、ミュータント関連新抗原として知られています。各患者の腫瘍内のこれらの新抗原の固有のセットは、腫瘍と健康な細胞との類似性の度合いを決定します。免疫反応を引き起こす最も効力のある新抗原を特定することは、効果的ながんワクチンや免疫療法のカスタマイズ、およびこれらの治療の患者選択を指示するために重要です。しかし、このような免疫反応を引き起こす新抗原を特定し検証するための従来の技術は、労力がかかり、費用がかかるため、時間のかかる湿式実験に大きく依存しています。 新抗原の検証に必要なデータ量が限られているため、リソースの消費が多いため、研究者たちはBigMHCのトレーニングには2段階の転移学習アプローチを採用しました。まず、BigMHCは細胞表面上に提示される抗原を識別することを学びます。これは免疫反応のフェーズであり、多くのデータが利用可能です。その後、T細胞の認識を予測するために、データの利用可能性が限られた後のフェーズに対して微調整が行われます。この戦略により、研究者たちは抗原提示の包括的なモデルを構築し、効果的に免疫原性のある抗原を予測することができました。 BigMHCの経験的なテストでは、広範な独立したデータセットでの予測の正確性が、他の既存の手法と比較して優れていることが明らかになりました。さらに、研究者が提供したデータに適用した場合、BigMHCはT細胞の反応を引き起こす新抗原の特定において、他の7つの代替手法よりも優れた性能を発揮しました。この成果は、BigMHCの驚異的な予測精度だけでなく、がん免疫療法を個別化するという重要な臨床的ニーズに対するその潜在能力を示しています。 チームはBigMHCの有用性をさまざまな免疫療法の臨床試験全般に拡大して調査を進める中で、免疫反応の有望な新抗原の特定を効率化する可能性がますます明らかになっています。究極の目標は、BigMHCを活用して複数の患者に適用可能な免疫療法の開発、または個々の患者のがん細胞に対する免疫反応を高めるためのカスタマイズされたワクチンの開発を進めることです。 BigMHCなどの機械学習ベースのツールを活用することにより、研究者たちは将来の展望を描いています。医師やがん研究者は効率的に膨大なデータセットを処理し、より効率的で費用対効果の高い個別のがん治療手法を実現する道を開くことができるようになるでしょう。この先駆的な研究によって示されるように、深層学習を臨床がん研究と実践に統合することは、革新的な技術と学際的な協力を通じてがんを克服するための重要な一歩となります。

「PythonとLinuxでのポスト量子暗号化」

もしエドワード・スノーデンの言葉を信じるなら、暗号化は「監視に対する唯一の真の保護手段」[1]ですしかし、量子技術の進歩によって、この安全装置が危険にさらされる可能性があります本記事では、その理由について議論します...

IBMの研究者が、深層学習推論のためのアナログAIチップを紹介:スケーラブルなミックスドシグナルアーキテクチャの重要な構成要素を披露

AI革命が進行中であり、ライフスタイルや職場を再構築することが期待されています。深層ニューラルネットワーク(DNN)は、基盤モデルと生成AIの出現により重要な役割を果たしています。しかし、これらのモデルをホストする従来のデジタルコンピューティングフレームワークは、パフォーマンスとエネルギー効率の潜在的な制約となっています。AI固有のハードウェアが登場していますが、多くの設計ではメモリと処理ユニットを分離しているため、データのシャッフルと効率の低下が生じます。 IBM Researchは、AI計算を再構想するための革新的な方法を追求しており、アナログインメモリコンピューティングまたはアナログAIという概念を提案しています。このアプローチは、神経回路網がニューロンの通信を制御するシナプスの強度から着想を得ています。アナログAIは、相変化メモリ(PCM)などのナノスケールの抵抗デバイスを使用して、導電性の値としてシナプスの重みを格納します。PCMデバイスは非終励性を持ち、範囲の値をエンコードし、重みをローカルに保存することができます。 IBM Researchは、最近のNature Electronics誌で、アナログAIの実現に向けて重要な進展を達成しました。彼らは、さまざまなDNN推論タスクに適した最先端のミックスドシグナルアナログAIチップを紹介しました。このチップは、IBMのアルバニーナノテックコンプレックスで製造され、各々が256×256のクロスバーアレイのシナプスユニットセルを持つ64個のアナログインメモリコンピュートコアを特徴としています。統合されたコンパクトな時間ベースのアナログ・デジタル変換器により、アナログとデジタルのドメイン間のシームレスな切り替えが可能となっています。さらに、各コア内のデジタル処理ユニットは基本的なニューロン活性化関数とスケーリング演算を処理します。 このチップのアーキテクチャにより、各コアはDNNレイヤーに関連する計算を処理する能力を持っています。シナプスの重みはPCMデバイスにアナログ導電値としてエンコードされます。グローバルなデジタル処理ユニットは、特定のニューラルネットワークの実行に重要な複雑な操作を管理します。チップのデジタル通信パスは、すべてのタイルと中央のデジタル処理ユニットを接続しています。 性能に関しては、このチップはCIFAR-10画像データセットで92.81%という印象的な正答率を示し、アナログインメモリコンピューティングにおいて非常に優れた成果を収めています。この研究では、アナログインメモリコンピューティングをデジタル処理ユニットとデジタル通信ファブリックとシームレスに統合することで、より効率的なコンピューティングエンジンを実現しました。チップの面積あたりのGiga-operations per second(GOPS)におけるスループットは、従来の抵抗メモリベースのインメモリコンピューティングチップの15倍以上を超えるエネルギー効率を維持しながら実現されました。 アナログ・デジタル変換器、積和演算能力、およびデジタル計算ブロックの突破的な進歩を活用し、IBM Researchは高速で低消費電力のアナログAI推論アクセラレータチップに必要な多くの要素を実現しました。以前提案されたアクセラレータのアーキテクチャは、多数のアナログインメモリコンピューティングタイルを専用のデジタルコンピュートコアに接続し、並列な2Dメッシュを介して接続されています。このビジョンとハードウェアに対するトレーニング技術は、将来のさまざまなモデルでソフトウェアと同等のニューラルネットワークの精度を提供すると期待されています。

「データサイエンスは難しいのか?現実を知ろう」

過去数年間、熟練なデータサイエンティストへの需要は増加してきましたが、AIによって風景は変わりました。重点はルーチンタスクからより複雑な役割に移りました。最新のデータサイエンスの進歩にしっかりと理解を持つことは、有望なキャリアに欠かせません。データサイエンスは難しいのでしょうか?学習の道は本質的に簡単または難しいものではありませんが、データサイエンスには険しい学習曲線があります。しかし、常に最新の情報にアップデートし続ける意欲を持ち続けることで、課題にもかかわらず、旅はよりスムーズになることがあります。 データサイエンスを学ぶ価値はあるのでしょうか? 企業は主にデータの潜在能力を活用して意思決定を行っています。このタスクはデータサイエンスを通じて貢献された技術的進歩を用いて行われます。それはその分野で優れた能力を持つ専門家によって処理されます。したがって、データサイエンスは、キャリアを選ぶ個人や成長のためにそれを利用する組織にとって有望な機会を提供しています。数多くの課題と連続的な進化のプラットフォームを提供することで、この分野は非常にダイナミックであり、自己のマインドセットと知識を磨くために最適です。データサイエンスの高い価値により、「データサイエンスは難しいのか」という質問は無意味です。 データサイエンスが良いキャリア選択肢なのかどうかを知るために、この記事を読んでください! データサイエンティストはコーディングをするのでしょうか? データサイエンティストは膨大な量のデータを扱います。これらに取り組むためには、プログラミング言語RとPythonの習熟が必要です。そのようなデータの処理には基本的なコーディングの知識が必要です: クリーニング、前処理、データ変換 Matplotlibやggplot2などのPythonとRのライブラリやツールを使ってインサイトを伝えるための支援 統計分析、機械学習、データモデリング データ関連の問題に対するカスタマイズされたソリューションの作成 データの前処理、結果の評価、モデルのトレーニングなどの繰り返しタスク アイデアや仮説の素早いテスト アルゴリズムによるパターンの識別 データサイエンスの多面的な性質 データサイエンスは、多くの分野を包括する広範な分野です: 統計学:確率、回帰分析、仮説検定、実験設計の理解は、正確かつ意味のある分析には重要です。 プログラミングとデータ操作:いくつかのデータ最適化技術や専門ソフトウェアを用いたプログラミング言語の知識 ドメイン知識:産業固有の知識、ビジネスプロセス、適切な質問の提起、関連する特徴の選択、結果の解釈など コミュニケーション:技術的な観点と非技術的な観点の両方と対話し、明確かつ正確に自分自身を理解して伝える能力 この情報は、データの処理、データのコミュニケーション、データの取り扱いに必要な技術的な専門知識の重要性を示しています。産業固有の知識と問題解決能力を持つことで、データサイエンスの効率は何倍にも向上し、個人のビジネスやキャリアに役立ちます。 学習曲線と継続的な学習 データサイエンスは絶えず進化する分野であり、継続的な学習が必要です。初心者の学習曲線は険しいものであり、プログラミング言語の学習に直面する課題があるためです。 では、「データサイエンスは難しいのか?」いいえ、データサイエンスの知識と興味を持った個人にとっては難しくありません。ただし、データサイエンスの分野での定期的かつ急速な進歩は、分野内で最新の情報にアップデートし続ける必要性を増大させています。 例えば、現在の進歩としては、自動機械学習やエッジコンピューティングの導入があります。トップのデータサイエンスのトレンドはTinyML、small…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us