スキップしてメイン コンテンツに移動

Map

Introduction
sorry, this page is Japanese only

今回は写像の厳密な定義をして行きたいと思います。写像は大学数学では線形代数や微積分の分野で 序盤から正しい定義をされることもなく当たり前のように使われているのではないでしょうか。 写像とは何となく関数のようなものだが、しかし先生は関数ではないといいます。これに私も、 ずいぶん悩まされましたが、大学二回生の集合と位相という講義で厳密な定義を習ったので、 ここで共有させていただこうと思います。

写像(map)
写像f:A->Bの定義
任意のAの要素はBの中に対応するbという要素がただ一つ存在する。 記号で書くと以下のようになります。

$$\forall a \in A \exists ! b \in B ~~s.t~~ f(a) = b$$

この定義は二つの事柄について分けて考えることで写像の定義を正しく確認できます。


  • 全てのAの要素aについてfで送ると対応するbの要素がBの中に存在する。
  • Aの中の一つの要素から対応するBの要素が二つ存在することはあり得ない。
この二つは後に述べる逆写像が存在するための必要十分条件のために必要なので覚えておいてください。

全射
写像$f:A \rightarrow B$が全射

$$f(A) = B$$

つまり、Bの全ての要素が余ることなく、Aの中のある要素aをfで送ることで対応しているということです。

単射
写像$f:A \rightarrow B$が単射
$$\forall a_1, \forall a_2 \in A if f(a_1) = f(a_2) \implies a_1 = a_2$$

これは対偶をとると以下のように解釈できます。

$$\forall a_1, \forall a_2 \in A if a_1 \neq a_2 \implies f(a_1) = f(a_2)$$

つまり、fで送る要素$a_1,a_2$が違えば必ず違う行く先に対応しているということです。

写像fが全射であり、単射であるとき、fは全単射といいます。


逆写像
逆写像とは写像$f:A \rightarrow B$に対して、以下を満たす写像のことを言います。
$$\b in \V \exists a \in A ~s.t~ f^{-1}(b) = a$$
逆写像はどのような写像fについても定義できるのでしょうか。
逆写像も写像なので、当然写像の定義を満たしていなければいけません。 

写像の定義から

  • 全てのBの要素bについて $f^{-1}$ で送ると対応するaの要素がAの中に存在する。
  • Bの中の一つの要素から対応するAの要素が二つ存在することはあり得ない。
また、fも写像なので 
  • 全てのAの要素aについてfで送ると対応するbの要素がBの中に存在する。
  • Aの中の一つの要素から対応するBの要素が二つ存在することはあり得ない。 

これらを見ていると集合Aと集合Bが一対一対応していなければいけないことがわかるはずです。 

よって逆写像が定義される必要十分条件は写像fが全単射であることです。







コメント

このブログの人気の投稿

カーネルK-means 理論編

Introduction English ver 今日は、カーネルK-meansの理論について書きます。カーネルK-meansは通常のK-meansの欠点を補うことができます。通常のK-meansの欠点とカーネルK-meansの強みも説明します。もし、まだ御覧になられていなければ、通常の K-means 理論編 の記事を見ていただけるとよいのではないかと思います。 カーネルK-meansの実装編 も併せてご覧ください。 概要 K-meansの弱点 カーネルトリック カーネルK-means アルゴリズム K-meansの弱点 例えば、次のようなデータを用意します。 このデータはK-meansによってうまく分類することはできません。なぜなら通常のK-meansでは、データとプロトタイプのユークリッド距離に依存しているからです。そのため、このような円状に分布しているデータはうまく分類することができません。 プロトタイプとはそれぞれのクラスにあり、そのクラスを代表するようなもののことです。K-meansでは各クラスの平均ベクトルとなります。それゆえ、以下のような分類になってしまいます。 このようなデータではK-meansはうまくいきません。 K-meansで分類できるデータセットは次のように各クラスで固まっている必要があります。 カーネルK-meansはK-meansの弱点を補います。 カーネルトリック 初めに、カーネルトリックを説明します。 線形分離できないようなデータ$X$を例えば次のように線形分離できるように$\phi(x)$に送る写像$\phi$を考えます。 カーネルは次のように定義されます。 $$K(x,y) = \phi(x)^T \phi(y)$$ $\phi$を具体的に計算することは難しいですが、$K(x,y)$を計算することなら簡単です。 この手法をカーネルトリックと呼ばれます。 カーネルK means K-meansの目的関数を復習しておきます。 $$J = \sum_{n=1}^{N} \sum_{k=1}^{K} r_{nk} ||x_n-\mu_k||^2$$ ここで、 プロトタイプは$\mu_i ~\forall k \in K$としま...

変分法の可視化

Introduction English ver 今日は、変分法の可視化を実装しました。変分法は、汎関数を最小化させるために使われます。汎関数とは、関数の関数のようなものです。変分法については、  [1] , [2] , [3] , [5] ,  [6] などを参考にしてください。 概要 汎関数 実装 可視化 汎関数 今回は、次のような汎関数を使います。 $$F(x) = \sqrt{1+(\frac{du}{dx}(x))^2}$$ $$l(u) = \int_{0}^{1} \sqrt{1+(\frac{du}{dx}(x))^2} dx$$ l(u)はu(x)という曲線の長さです。.  $u(0)=a$ and $u(1)=b$という制約のもと、$l(u)$を最小化したいといます。 最適な$l(u)$は $$u(x) = (b-a)x+a$$ となります。 (0,a) から (1,b)への直線になっているのがわかります。 これは、$l(u)$は$u$の曲線の長さなので、これを最小化するためには直線が一番であることが直観的にわかります。 変分法での導出は、 [5] を参考にしてください。 実装 変分法における最適な曲線とそうでない曲線の違いを可視化する実装をしました。 $u_A$を $$u_A = (b-a)x+a + A sin(8t)$$ とします。 $A sin(8t)$ は$u$から話す役割を持ちます。. $A \in [0,0.5]$であり、もし$A=0$であれば、$u_A=u$です。 github でcodeを公開しています。 可視化 上側の画像は$u_A(x)$を表しています。下側の画像は$l(u_A)$の値を表しています。 $u_A(x)$が$u$に近づくほど、$l(u_A)$が小さくなることがわかります。 Reference [1] http://www2.kaiyodai.ac.jp/~takenawa/optimization/resume10-4.pdf [2] http://hooktail.sub.jp/mathInPhys/brach...

Mahalanobis' Distance

Introduction 日本語 ver Today, I will write about Mahalanobis’ Distance. Mahalanobis’ Distance is used when each dimension has a relationship. This distance is fulfilled definition of distance. Mahalanobis’ Distance is important for Statics. If you interested in Statics or Machine Learning, Please see my this blog. Overview definition of distance deficition of Mahalanobis’ Distance image of Mahalanobis’ Distance definition of distance if d is distance function, d if fulfilled following condtion. \(d:X \times X -> R\) \(d(x,y) \geq 0\) \(d(x,y) = 0 \leftrightarrow x = y\) \(d(x,y) = d(y,x)\) \(d(x,z) \leq d(x,y) + d(y,z)\) Mahalanobis’ Distance Mahalanobis’ Distance is distance function. Mahalanobis’ Distance is defined by following from \[D_{M}(x) = \sqrt{(x-\mu)^T \Sigma^{-1} (x-\mu)}\] here, \(\mu\) is mean vector \[\mu = (\mu_1,\mu_2,....,\mu_n)\] and, \(\Sigma\) is variance-convariance matrix. Mahalanobis’ Distance between x and y is \begin{eqnarray...