「高次元におけるデータの驚くべき挙動」

「美容とファッションの驚くべきトレンド動向」

高次元データの驚きの世界への旅:恩恵と課題

ギジェルモ・フェルラによる写真、出典:Unsplash

著名な物理学者のリチャード・ファインマンは、かつて「量子力学を正確に理解している人はいない」と述べていました。彼の「リチャード・ファインマンとの想像する楽しみ」というインタビューでは、原子やサブアトミック粒子レベルのものの奇妙な振る舞いに触れ、それらが私たちの常識に反することがよくあると指摘しています。興味深いことに、より高次元のデータレベルでも似たような振る舞いが見られるのです。それは量子力学とは少し違いますが、低次元から高次元に移行するときには驚きと美しさがあり、いくつかの課題が混じり合います。

この記事と将来の記事では、この魅力的なトピックについていくつかの見識を提供したいと思います。特にそれに馴染みのない人々に高次元データの世界について興味を持ち、学ぶことを促すことが目標です。

データ分析や機械学習の文脈において、高次元データまたは高次元空間のデータは、一般的に多数の変数、特徴、属性を持つデータセットを指します。それぞれがデータの異なる「次元」を表しています。

まずは、低次元空間から高次元空間へ移行する際に生じる違いをハイライトするいくつかの基本的な例を検討してみましょう。

高次元空間における体積集中

まず、高次元空間における体積集中の概念を探ってみましょう。0から1までの範囲の各辺を持つ超立方体内でランダムな点を生成することを考えてみます。これらの点がこの超立方体の中央領域に落ちる可能性はどれくらいでしょうか?

作者による画像

上の画像では、xが0.1などの小さな値であると仮定します。この中央領域(端ではなく)にランダムに点が落ちる確率が、次元の増加に伴ってどのように変化するかを決定しようとしています。

  1. 一次元空間(直線)

0から1までの範囲の直線セグメントを考えてみましょう。中央部は0.1から0.9の間であり、ランダムな点がここに落ちる確率は、この中央セグメントの長さを全体の長さで割ったものである0.8となります。

2. 二次元空間(正方形)

次に、各辺が0から1まで範囲にある正方形を想像してみましょう。中央領域は0.1から0.9の辺を持つ小さな正方形です。確率の計算には、この小さな正方形の面積を全体の面積で比較して、確率0.64を得ます。

3. 三次元空間(立方体)

各辺の長さが1である立方体の場合、中央領域は0.1から0.9の辺を持つ小さな立方体です。ここでは、確率はこの小さな立方体の体積を全体の体積で割ったものとなり、0.512となります。

4. 高次元(ハイパーキューブ)

n次元のハイパーキューブでは、中央領域の「体積」は次元が増加するにつれて急激に縮小します。例えば、4Dの場合、確率は0.4096です。5Dの場合は0.32768、そして10Dでは約0.10737に低下します。

この考え方の一般化は、上の画像のように、辺を小さな距離xと考えることから始まります。直線の場合、中央領域に点が落ちる確率は1–2xです。正方形の場合は(1–2x)*(1–2x)となり、点は両方の次元の中央に落ちる必要があります。

このパターンはn次元にも続きます。中央領域に落ちる確率は(1–2x)^nであり、より高次元では非常に小さくなります。

ここで、各辺の長さを1と見なすことで簡略化しています。

超立方体内に超球面を含むこと

体積濃縮の概念をさらに説明するために、私はPythonを使用して単純なシミュレーションを行いました。ここでは、超立方体内に超球面を含み、次元が増加するにつれて超球面の体積と超立方体の比率を比較します。

では、超立方体とは何でしょうか?

正方形を思い浮かべてください。それを立方体にふくらませます。それが2Dから3Dへの飛躍です。そして、第4次元以上に想像力の飛躍をしてください。それが超立方体の出番です。超立方体は本質的にはより高次元に広がった立方体です。辺の長さが等しい形状で、私たちのシミュレーションでは辺の長さ2の超立方体を考えています。その体積の計算式は、n次元の超立方体では単に2^n(2のn乗)になります。

超球面とは何でしょうか?

超球面は、2Dの円を3Dに拡張することで現れる、球の高次元相当です。ただし、その体積を計算するのは簡単ではありません。有名な3.14159…である円周率と、ガンマ関数(ステロイドを服用した階乗のようなもの)が関与します。要するに、半径1の超球面の体積は、n次元空間で以下のとおりです:

ガンマ関数Γ(n)は、階乗関数を実数や虚数にまで拡張します。正の整数nに対して、Γ(n)=(n−1)!です。非整数の値に対しては数値計算されます。

この比率をPythonで計算するために、次のコードを使用できます:

import math
import matplotlib.pyplot as plt

def hypersphere_volume(dim):
    """ Calculate the volume of a hypersphere with radius 1 in 'dim' dimensions. """
    return math.pi ** (dim / 2) / math.gamma(dim / 2 + 1)

def hypercube_volume(dim):
    """ Calculate the volume of a hypercube with side length 2 in 'dim' dimensions. """
    return 2 ** dim

# Number of dimensions to consider
max_dim = 20

# Lists to hold volumes and dimension values
dimensions = range(1, max_dim + 1)
sphere_volumes = [hypersphere_volume(dim) for dim in dimensions]
cube_volumes = [hypercube_volume(dim) for dim in dimensions]
ratios = [sphere_volumes[i] / cube_volumes[i] for i in range(max_dim)]

# Plotting the results
plt.figure(figsize=(10, 6))
plt.plot(dimensions, ratios, marker='o')
plt.xlabel('Number of Dimensions')
plt.ylabel('Ratio of Volumes (Hypersphere/Hypercube)')
plt.title('Volume Concentration in Higher Dimensions')
plt.grid(True)
plt.show()

上記のコードの出力は次のグラフです:

Image by author

明らかに、次元が高くなるにつれて比率が急速に減少し、最も体積が集中するのは超立方体の隅になります。

これらの例は、高次元空間の直感に反する性質として、中央領域の体積が総体積の比例として徐々に小さくなることを示しています。

質問: この体積濃縮現象が機械学習アルゴリズムのパフォーマンスにどのような影響を与えるのか、そのいくつかの示唆は何ですか?

紙とDVDの実験

四角い穴のある紙片にDVDが合うかどうかの実験を考えてみてください。最初は不可能に思われます。なぜなら、四角形の対角線はDVDの直径よりも小さいからです。しかし、紙を折り曲げることでDVDを通すことができます。

紙の折り畳みは、空間の次元をわずかに調整することで、このパズルのカギを握っています。高次元空間の複雑さを理解するための興味深い類推が、この実験に見出せます。

最初に紙を広げると、それは二次元の平面を形成します。四角いスロットは、設定された寸法のためにDVDを通すのに狭すぎるように見えます。

この仮想的な状況は、長さ、幅、高さがサイズと距離の計測単位となる三次元の環境での私たちの日常の経験と一致しています。しかし、紙を折り始めると、別の次元が追加されます。この折りたたみによって、穴とDVDの空間的な関係は完全に変化します。

この新しい三次元の環境では、二次元では固定的で明確だった距離の概念は、より柔軟で直感性に欠けるものとなります。紙は折られ、紙のエッジが生成する角度と穴周りの点の間の距離が効果的に変更されます。

この新しい三次元形状の穴にDVDが収まり、二次元の空間で絶望的に見える課題が達成可能になることを示しています。この実験の数学的な基礎は、林偉偉らによる興味深い研究で詳しく説明されています。

おもちゃにインスピレーションを受けた切り紙のパターンとその運動学的なパフォーマンス…

要約。シンプルな折り目を紙に設定し、それに沿って折り畳むことでさまざまな形状を形作ることができる折り紙…

ms.copernicus.org

また、以下の「The Action Lab」による美しいビデオもご覧いただけます。

小さな四角い穴を通る丸いディスク

この視点の変化には重要な意味があり、特に数学、物理学、機械学習の分野において影響を及ぼします。このアイデアは、サポートベクターマシン(SVM)などの機械学習手法に反映されています。

SVMとカーネルトリック

サポートベクターマシン(SVM)におけるカーネルトリックは似たようなアイデアを示しています。SVMでは、線形に分離できないデータによく遭遇します。カーネルトリックは、データを高次元空間に変換することでこれを克服します。これは紙を折り畳むのと同様の効果です。ただし、実際にはSVMはデータを高次元に変換するわけではなく、カーネルトリックを使用して高次元のような関係性を計算します(高次元への変換自体は計算コストが高いため、行いません)。

簡単に言えば、SVMは通常、低次元空間で分離線(またはハイパープレーン)を見つけます。しかし、非線形データではこれは不可能です。カーネルトリックは、紙を折り畳むのと同様に次元を追加し、仕事を果たすハイパープレーンを見つけやすくします。

カーネルトリックは単に次元を変えるだけでなく、複雑な問題を簡略化します。これは、より高次元の思考が低次元では不可能と思われる問題に対する解決策を提供する素晴らしい例です。

import numpy as npimport matplotlib.pyplot as pltfrom sklearn.svm import SVC# ここでは1Dで線形に分離できないデータを手動で入力していますx = np.array([1,2,3,4,5,6,7,8,9,11,12,13,14,15,16,17,18,19,20,21,23,24,25,26,27,28,29,30]).reshape(-1, 1)  # YOUR_X_VALUESをデータに置き換えてくださいy = np.array([1,1,1,1,1,1,1,1,1,0,0,0,0,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1])                 # YOUR_Y_VALUESをクラスラベルに置き換えてください# 2Dへの非線形変換(二乗)def transform_to_2d(X):    return np.c_[X, X**2]# データを2Dに変換X_transformed = transform_to_2d(x)# 2D空間で線形カーネルを持つSVMに適合svm = SVC(kernel='linear')svm.fit(X_transformed, y)fig, axes = plt.subplots(1, 2, figsize=(12, 5))# 1Dデータのプロットaxes[0].scatter(x, np.zeros_like(x), c=y, cmap='bwr', edgecolors='k')axes[0].set_title('オリジナルの1Dデータ')axes[0].set_xlabel('特徴量')axes[0].set_yticks([])# 2D変換されたデータのプロットaxes[1].scatter(X_transformed[:, 0], X_transformed[:, 1], c=y, cmap='bwr', edgecolors='k')axes[1].set_title('変換された2Dデータ')axes[1].set_xlabel('元の特徴量')axes[1].set_ylabel('変換された特徴量(X^2)')# 2D空間での決定境界のプロットax = axes[1]xlim = ax.get_xlim()ylim = ax.get_ylim()xx = np.linspace(xlim[0], xlim[1], 30)yy = np.linspace(ylim[0], ylim[1], 30)YY, XX = np.meshgrid(yy, xx)xy = np.vstack([XX.ravel(), YY.ravel()]).T# 分離ハイパープレーンの取得Z = svm.decision_function(xy).reshape(XX.shape)# 決定境界とマージンのプロットax.contour(XX, YY, Z, colors='k', levels=[-1, 0, 1], alpha=0.5,           linestyles=['--', '-', '--'])plt.tight_layout()plt.show()

上記のコードの結果は次のグラフです:

投稿者による画像

明らかに、左側では最初は非線形に分離できなかったデータが、2Dで分離可能になります。この変換は、右側のグラフに示されているように、私たちの問題を効果的に解決します。これは素晴らしいことではありませんか?

まとめ

本記事では、高次元データの世界についていくつかの考えを探求しました。私たちは、体積の集中から始まり、論文とDVDの実験の実生活の例、そして最後にSVMのカーネルトリックまで、問題にアプローチするための視点と方法を高次元にすることでどのように変わるかを示しました。

次回の記事では、「次元の呪い」という、高次元空間のナビゲーションに関連する困難と複雑さについて議論します。これが機械学習やデータ分析にどのように影響するか、その影響を軽減するための戦略についても検討します。

ここまでお読みいただきありがとうございます!この記事を読んでいただいた時間を本当にありがたく思っていますし、お題に興味を持っていただけたと嬉しいです。今後の記事に対するご提案や編集の可能性について、お気軽にご意見をお寄せください!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more