スキップしてメイン コンテンツに移動

Map

Introduction
sorry, this page is Japanese only

今回は写像の厳密な定義をして行きたいと思います。写像は大学数学では線形代数や微積分の分野で 序盤から正しい定義をされることもなく当たり前のように使われているのではないでしょうか。 写像とは何となく関数のようなものだが、しかし先生は関数ではないといいます。これに私も、 ずいぶん悩まされましたが、大学二回生の集合と位相という講義で厳密な定義を習ったので、 ここで共有させていただこうと思います。

写像(map)
写像f:A->Bの定義
任意のAの要素はBの中に対応するbという要素がただ一つ存在する。 記号で書くと以下のようになります。

$$\forall a \in A \exists ! b \in B ~~s.t~~ f(a) = b$$

この定義は二つの事柄について分けて考えることで写像の定義を正しく確認できます。


  • 全てのAの要素aについてfで送ると対応するbの要素がBの中に存在する。
  • Aの中の一つの要素から対応するBの要素が二つ存在することはあり得ない。
この二つは後に述べる逆写像が存在するための必要十分条件のために必要なので覚えておいてください。

全射
写像$f:A \rightarrow B$が全射

$$f(A) = B$$

つまり、Bの全ての要素が余ることなく、Aの中のある要素aをfで送ることで対応しているということです。

単射
写像$f:A \rightarrow B$が単射
$$\forall a_1, \forall a_2 \in A if f(a_1) = f(a_2) \implies a_1 = a_2$$

これは対偶をとると以下のように解釈できます。

$$\forall a_1, \forall a_2 \in A if a_1 \neq a_2 \implies f(a_1) = f(a_2)$$

つまり、fで送る要素$a_1,a_2$が違えば必ず違う行く先に対応しているということです。

写像fが全射であり、単射であるとき、fは全単射といいます。


逆写像
逆写像とは写像$f:A \rightarrow B$に対して、以下を満たす写像のことを言います。
$$\b in \V \exists a \in A ~s.t~ f^{-1}(b) = a$$
逆写像はどのような写像fについても定義できるのでしょうか。
逆写像も写像なので、当然写像の定義を満たしていなければいけません。 

写像の定義から

  • 全てのBの要素bについて $f^{-1}$ で送ると対応するaの要素がAの中に存在する。
  • Bの中の一つの要素から対応するAの要素が二つ存在することはあり得ない。
また、fも写像なので 
  • 全てのAの要素aについてfで送ると対応するbの要素がBの中に存在する。
  • Aの中の一つの要素から対応するBの要素が二つ存在することはあり得ない。 

これらを見ていると集合Aと集合Bが一対一対応していなければいけないことがわかるはずです。 

よって逆写像が定義される必要十分条件は写像fが全単射であることです。







コメント

このブログの人気の投稿

ヘッセ行列

Introduction English ver 今日は、ヘッセ行列を用いたテイラー展開について書こうと思います。 これは最適化を勉強するにあたって、とても大事になってくるので自分でまとめて残しておくことにしました。とくに、機械学習では最適化を必ず行うため、このブログのタイトルにもマッチした内容だと思います。 . 概要 ヘッセ行列の定義 ベクトルを用いたテイラー展開 関数の最適性 ヘッセ行列の定義 仮定 f は次のような条件を満たす関数です。. f はn次元ベクトルから実数値を出力します。 このベクトルは次のように表せます。 \[x = [x_1,x_2,,,,x_n]\] \(\forall x_i , i \in {1,2,,,n}\), f は二回偏微分可能です。 定義 ヘッセ行列は \(\frac{\partial^2}{\partial x_i \partial x_j}を (i,j)要素に持ちます。\) よってヘッセ行列は次のように表せます。 \[ H(f) = \left( \begin{array}{cccc} \frac{\partial^ 2}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1 \partial x_2} & &\ldots \frac{\partial^2 f}{\partial x_1 \partial x_n} \\ \frac{\partial^ 2 f}{\partial x_1 \partial x_2} & \frac{\partial^ 2 f}{\partial x_2^ 2} & \ldots & \frac{\partial^2 f}{\partial x_2 \partial x_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial^ 2 f}{\partial x_n \partial x_2} & \frac{\partial^ 2 f}{\partial x_n \partial x_2} & \ldo...

Plane in two dimention

Introduction 日本語 ver Today, I prove this theorem. Plane in two dimention is expressed following. \[\{x|<x,v> = 0\}\] however, v is orthogonal vector for plane and not zero vector. Proof \[\forall k \in \{x|<x,v> = 0\},\] k is fulfill this form. \[<k,v> = 0\] Now, because k and v in two dimentinal space, each vector express following. \[k = (k_1,k_2)\] \[v = (v_1,v_2)\] Thus, \(<k,v>=k_1v_1 + k_2v_2=0\) Change this equation. \[k_2 = -\frac{v_1}{v_2} k_1\] This equation is plane that slope is \(-\frac{v_1}{v_2}\). Q.E.D

Rolle’s theorem

Introduction 日本語 ver This post is written Rolle’s theorem. The mean-value theorem is proved by Rolle’s theorem. I will write Mean-value theorem at a later. I introduce Maximum principle because proving Rolle’s theorem need Maximum principle. Maximum principle It is very easy. f is continuous function on bounded closed interval.\(\implies\)** f have max value.** Proof This proof is difficult. I write this proof in other posts. Maximum Principle Rolle’s theorem f is continuous function on [a,b] and differentiable function on (a,b). \[f(a) = f(b) \implies \exists ~~c ~~s.t~~ f'(c) = 0 , a<c<b\] Proof f(x) is constant function \[\forall c \in (a,b) , f'(c) = 0\] else when \(\exists t ~~s.t~~f(a) < f(t)\), \(\exists c ~~s.t~~ \max f(x) = f(c)\) by Maximum principle I proof \(f'(c)=0\) f is differentiable on \(x = c\) and \(f(c) >= f(c+h)\). Thus \[f'(c) = \lim_{h \rightarrow +0} \frac{f(c+h) - f(c)}{h} \leq 0\] \[f'(c) = \lim...