スキップしてメイン コンテンツに移動

Map

Introduction
sorry, this page is Japanese only

今回は写像の厳密な定義をして行きたいと思います。写像は大学数学では線形代数や微積分の分野で 序盤から正しい定義をされることもなく当たり前のように使われているのではないでしょうか。 写像とは何となく関数のようなものだが、しかし先生は関数ではないといいます。これに私も、 ずいぶん悩まされましたが、大学二回生の集合と位相という講義で厳密な定義を習ったので、 ここで共有させていただこうと思います。

写像(map)
写像f:A->Bの定義
任意のAの要素はBの中に対応するbという要素がただ一つ存在する。 記号で書くと以下のようになります。

$$\forall a \in A \exists ! b \in B ~~s.t~~ f(a) = b$$

この定義は二つの事柄について分けて考えることで写像の定義を正しく確認できます。


  • 全てのAの要素aについてfで送ると対応するbの要素がBの中に存在する。
  • Aの中の一つの要素から対応するBの要素が二つ存在することはあり得ない。
この二つは後に述べる逆写像が存在するための必要十分条件のために必要なので覚えておいてください。

全射
写像$f:A \rightarrow B$が全射

$$f(A) = B$$

つまり、Bの全ての要素が余ることなく、Aの中のある要素aをfで送ることで対応しているということです。

単射
写像$f:A \rightarrow B$が単射
$$\forall a_1, \forall a_2 \in A if f(a_1) = f(a_2) \implies a_1 = a_2$$

これは対偶をとると以下のように解釈できます。

$$\forall a_1, \forall a_2 \in A if a_1 \neq a_2 \implies f(a_1) = f(a_2)$$

つまり、fで送る要素$a_1,a_2$が違えば必ず違う行く先に対応しているということです。

写像fが全射であり、単射であるとき、fは全単射といいます。


逆写像
逆写像とは写像$f:A \rightarrow B$に対して、以下を満たす写像のことを言います。
$$\b in \V \exists a \in A ~s.t~ f^{-1}(b) = a$$
逆写像はどのような写像fについても定義できるのでしょうか。
逆写像も写像なので、当然写像の定義を満たしていなければいけません。 

写像の定義から

  • 全てのBの要素bについて $f^{-1}$ で送ると対応するaの要素がAの中に存在する。
  • Bの中の一つの要素から対応するAの要素が二つ存在することはあり得ない。
また、fも写像なので 
  • 全てのAの要素aについてfで送ると対応するbの要素がBの中に存在する。
  • Aの中の一つの要素から対応するBの要素が二つ存在することはあり得ない。 

これらを見ていると集合Aと集合Bが一対一対応していなければいけないことがわかるはずです。 

よって逆写像が定義される必要十分条件は写像fが全単射であることです。







コメント

このブログの人気の投稿

カーネルK-means 理論編

Introduction English ver 今日は、カーネルK-meansの理論について書きます。カーネルK-meansは通常のK-meansの欠点を補うことができます。通常のK-meansの欠点とカーネルK-meansの強みも説明します。もし、まだ御覧になられていなければ、通常の K-means 理論編 の記事を見ていただけるとよいのではないかと思います。 カーネルK-meansの実装編 も併せてご覧ください。 概要 K-meansの弱点 カーネルトリック カーネルK-means アルゴリズム K-meansの弱点 例えば、次のようなデータを用意します。 このデータはK-meansによってうまく分類することはできません。なぜなら通常のK-meansでは、データとプロトタイプのユークリッド距離に依存しているからです。そのため、このような円状に分布しているデータはうまく分類することができません。 プロトタイプとはそれぞれのクラスにあり、そのクラスを代表するようなもののことです。K-meansでは各クラスの平均ベクトルとなります。それゆえ、以下のような分類になってしまいます。 このようなデータではK-meansはうまくいきません。 K-meansで分類できるデータセットは次のように各クラスで固まっている必要があります。 カーネルK-meansはK-meansの弱点を補います。 カーネルトリック 初めに、カーネルトリックを説明します。 線形分離できないようなデータ$X$を例えば次のように線形分離できるように$\phi(x)$に送る写像$\phi$を考えます。 カーネルは次のように定義されます。 $$K(x,y) = \phi(x)^T \phi(y)$$ $\phi$を具体的に計算することは難しいですが、$K(x,y)$を計算することなら簡単です。 この手法をカーネルトリックと呼ばれます。 カーネルK means K-meansの目的関数を復習しておきます。 $$J = \sum_{n=1}^{N} \sum_{k=1}^{K} r_{nk} ||x_n-\mu_k||^2$$ ここで、 プロトタイプは$\mu_i ~\forall k \in K$としま...

ロジスティック回帰 理論編

Introduction English ver 今日はロジスティック回帰について書こうと思います。ロジスティック回帰は機械学習の中でも基本とされています。ロジスティック回帰は二値を分類するためのアルゴリズム、モデルです。 概要 この記事はPRMLを参考に書かせていただいています。 最適化には反復再重みづけ最小二乗法を用いています。 シグモイド関数 分類のための確率を定義 交差エントロピー誤差関数 反復再重みづけ最小二乗法 シグモイド関数 初めにシグモイド関数を定義します。 以下のような関数です。 \[\sigma(a) = \frac{1}{1+\exp(a)}\] 後に扱うので、シグモイド関数の微分を計算しておきます。きれいな形をしています。 \begin{eqnarray*} \frac{d}{d a} \frac{1}{1+\exp(a)} &=& \frac{\exp(-a)}{(1+\exp(-a))^2} \\ &=& \frac{1}{1+\exp(-a)} \frac{\exp(-a)}{1+\exp(-a)}\\ &=& \frac{1}{1+\exp(-a)} \{ \frac{1+\exp(-a)}{1+\exp(-a)} - \frac{1}{1+\exp(-a)} \} \\ &=& \sigma(a)(1-\sigma(a)) \end{eqnarray*} シグモイド関数は機械学習において大事な役割を果たしています。 シグモイド関数は以下のような形をしています。 これを見てわかる通り、シグモイド関数は次のような性質を持っています。 シグモイド関数は 定義域は\((-\infty,\infty)\)で定義され、値域は\((0,1)\)で定義されています シグモイド関数は単調増加関数です シグモイド関数は(0,0.5)で点対称です シグモイド関数の値を確率として考えることができるようになります。 分類のための確率の定義 初めにデータが正しく分類されたかの確率を考えてみる。 この直線は超平面だと思ってください。 超平面は以下のように表されます。 \[w^T x= 0\] wは超平面に対する法線ベク...

Mahalanobis' Distance

Introduction 日本語 ver Today, I will write about Mahalanobis’ Distance. Mahalanobis’ Distance is used when each dimension has a relationship. This distance is fulfilled definition of distance. Mahalanobis’ Distance is important for Statics. If you interested in Statics or Machine Learning, Please see my this blog. Overview definition of distance deficition of Mahalanobis’ Distance image of Mahalanobis’ Distance definition of distance if d is distance function, d if fulfilled following condtion. \(d:X \times X -> R\) \(d(x,y) \geq 0\) \(d(x,y) = 0 \leftrightarrow x = y\) \(d(x,y) = d(y,x)\) \(d(x,z) \leq d(x,y) + d(y,z)\) Mahalanobis’ Distance Mahalanobis’ Distance is distance function. Mahalanobis’ Distance is defined by following from \[D_{M}(x) = \sqrt{(x-\mu)^T \Sigma^{-1} (x-\mu)}\] here, \(\mu\) is mean vector \[\mu = (\mu_1,\mu_2,....,\mu_n)\] and, \(\Sigma\) is variance-convariance matrix. Mahalanobis’ Distance between x and y is \begin{eqnarray...