スキップしてメイン コンテンツに移動

位相の定義

Introduction

今日から位相空間論について書いていきます。自分の復習のためですが、、、
位相空間は数学を学ぶ上でとても重要になってきます。
位相空間を定義する利点の一つは写像の連続性を位相を用いて定義できるからです。
今日は位相の定義について書いていきたいと思います。


概要

  •   距離空間
  • 位相の公理
  • 位相空間
  • 開集合


距離空間
初めに距離空間を定義します。
Xを集合,関数dを $d:X\times X ->\mathbb{R}$とします。この時、

(X,d)が距離空間である$\iff$

  • $\forall x,y \in X,~~~~~d(x,y) \geq 0$
  • $\forall x,y \in X,~~~~~x = y \implies d(x,y) = 0$
  • $\forall x,y \in X,~~~~~d(x,y) = d(y,x)$
  • $\forall x,y,z \in X, ~~~~d(x,y) + d(y,z) \geq d(x,z)$

この条件は距離の公理と呼ばれています。
dは距離関数と呼ばれています。

位相空間
(X,d)を距離空間とします。この時、
$\mathbb{O} \in 2^X$が(X,d)の位相$\iff$


  • $\phi,X \in \mathbb{O}$
  • $\forall O_1,O_2 \in \mathbb{O} \implies O_1 \cap O_2 \in \mathbb{O}$
  • $\forall \Lambda ,~~\forall \{O_\lambda \}_{\lambda \in \Lambda} \in O \implies \bigcup_{\lambda \in \Lambda} O_\lambda \in \mathbb{O}$


ここで$2^X := \{A | A \subset X \}$です。

この条件は位相の公理と呼ばれています。

気を付けるべき点は $\Lambda$ は任意の添え字集合であることです。つまり、$\mathbb{N}$でなくても$\mathbb{R}$のような実数無限集合でもよいのです。


この時、$(X,d,\mathbb{O})$を位相空間と呼びます。
$(X,\mathbb{O})$と書くことが多いです。

開集合
$A \subset X$が開集合$\iff$

$$\forall x \in A,~~\exists \epsilon > 0, ~~s.t.~~ B(x,\epsilon) \subset A$$
ここで、$$B(x,\epsilon):= \{y\in A| d(x,y) < \epsilon\}$$とします。

この開集合の定義は位相の公理を満します。

X:集合, $d:X \times X -> \mathbb{R}$:距離関数とします。

$$\mathbb{O} := \{A \subset X|A :open set\}$$.
と定義するとき、 $\mathbb{O}$は位相の公理を満たす。


証明.


  • $\phi,X \in \mathbb{O}$


これは明らかです。なぜなら、$\phi$は要素を持っていないため、 $\phi$は開集合の定義を満たします。そして、$\forall x \in X, \exists \epsilon > 0 ~~s.t.~~ B(x,\epsilon) \subset X$.これはXが全体集合なので明らかに成り立ちます。


  • $\forall O_1,O_2 \in \mathbb{O} \implies O_1 \cap O_2 \in \mathbb{O}$


$\forall O_1,O_2 \in \mathbb{O}$について、$\forall x \in O_1 \cap O_2$を考えます。
$x \in O_1$and $x \in O_2$なので、 $\exists \epsilon_1 ~~s.t.~~ B(x,\epsilon_1) \in O_1$ and $\exists \epsilon_2 ~~s.t.~~ B(x,\epsilon_2) \in O_2$
よって$\epsilon := \min\{\epsilon_1,\epsilon_2\}$と定義すると、
$$B(x,\epsilon) \subset B(x,\epsilon_1)$$
$$B(x,\epsilon) \subset B(x,\epsilon_2)$$
が満たされます。
よって$$B(x,\epsilon) \subset O_1 \cap O_2$$


  • $\forall \Lambda ,~~\forall \{O_\lambda \}_{\lambda \in \Lambda} \in O \implies \bigcup_{\lambda \in \Lambda} O_\lambda \in \mathbb{O}$


$\forall \{O_\lambda\}_{\lambda \in \Lambda}$について、
$$\forall x \in \bigcup_{\lambda \in \Lambda} \{O_\lambda\}_{\lambda \in \Lambda},$$を考えます。
 $\forall x \in \{O_\lambda\}_{\lambda \in \Lambda},$について、
$$\exists \lambda_0 \in \Lambda ~~.st.~~ x \in O_{\lambda_0}$$
が成り立つので、
 $$\exists \epsilon ~~s.t.~~ B(x,\epsilon) \subset O_{\lambda_0}$$
従って、 $$B(x,\epsilon) \subset \{O_\lambda\}_{\lambda \in \Lambda}$$

Q.E.D

結論
位相にはほとんど開集合が使われます。
位相を用いた写像の定義はまた、別の機会に書こうと思います。

Reference
https://ja.wikipedia.org/wiki/%E8%B7%9D%E9%9B%A2%E7%A9%BA%E9%96%93

https://ja.wikipedia.org/wiki/%E4%BD%8D%E7%9B%B8%E7%A9%BA%E9%96%93

コメント

このブログの人気の投稿

Rolle’s theorem

Introduction 日本語 ver This post is written Rolle’s theorem. The mean-value theorem is proved by Rolle’s theorem. I will write Mean-value theorem at a later. I introduce Maximum principle because proving Rolle’s theorem need Maximum principle. Maximum principle It is very easy. f is continuous function on bounded closed interval.\(\implies\)** f have max value.** Proof This proof is difficult. I write this proof in other posts. Maximum Principle Rolle’s theorem f is continuous function on [a,b] and differentiable function on (a,b). \[f(a) = f(b) \implies \exists ~~c ~~s.t~~ f'(c) = 0 , a<c<b\] Proof f(x) is constant function \[\forall c \in (a,b) , f'(c) = 0\] else when \(\exists t ~~s.t~~f(a) < f(t)\), \(\exists c ~~s.t~~ \max f(x) = f(c)\) by Maximum principle I proof \(f'(c)=0\) f is differentiable on \(x = c\) and \(f(c) >= f(c+h)\). Thus \[f'(c) = \lim_{h \rightarrow +0} \frac{f(c+h) - f(c)}{h} \leq 0\] \[f'(c) = \lim...

ヘッセ行列

Introduction English ver 今日は、ヘッセ行列を用いたテイラー展開について書こうと思います。 これは最適化を勉強するにあたって、とても大事になってくるので自分でまとめて残しておくことにしました。とくに、機械学習では最適化を必ず行うため、このブログのタイトルにもマッチした内容だと思います。 . 概要 ヘッセ行列の定義 ベクトルを用いたテイラー展開 関数の最適性 ヘッセ行列の定義 仮定 f は次のような条件を満たす関数です。. f はn次元ベクトルから実数値を出力します。 このベクトルは次のように表せます。 \[x = [x_1,x_2,,,,x_n]\] \(\forall x_i , i \in {1,2,,,n}\), f は二回偏微分可能です。 定義 ヘッセ行列は \(\frac{\partial^2}{\partial x_i \partial x_j}を (i,j)要素に持ちます。\) よってヘッセ行列は次のように表せます。 \[ H(f) = \left( \begin{array}{cccc} \frac{\partial^ 2}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1 \partial x_2} & &\ldots \frac{\partial^2 f}{\partial x_1 \partial x_n} \\ \frac{\partial^ 2 f}{\partial x_1 \partial x_2} & \frac{\partial^ 2 f}{\partial x_2^ 2} & \ldots & \frac{\partial^2 f}{\partial x_2 \partial x_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial^ 2 f}{\partial x_n \partial x_2} & \frac{\partial^ 2 f}{\partial x_n \partial x_2} & \ldo...

MAP推定

Introduction English ver 今日はMAP推定(事後確率最大化法)について書きました。MAP推定ではベイズの定理を使います。データが少ないとき、最尤推定の結果をあまり信用できない話は、最尤推定の時に書きました。この時、MAP推定では自分の事前に持っている情報を取り入れることができます。 概要 ベイズの定理 MAP推定 共役分布 MAP推定の例 ベイズの定理 ベイズの定理は $$P(A|B) = \frac{P(B|A)P(A)}{P(B)}$$ です。 ただし、 $P(A|B)$ はBが起こった時のAの起こる確率です。 詳しくは  http://takutori.blogspot.com/2018/04/bayes-theorem.html  を見てください。 Map推定 MAP推定ではベイズの定理を使います。MAP推定は事後確率が最大になるようなパラメータを選びます。 いま、$x_1,x_2,...,x_n$というデータを$\theta$というパラメータを持つ分布から得られたとする。この時$P(\theta|x_1,x_2,...,x_n)$を求めたい。 ここで、ベイズの定理を使う。 $$P(\theta|x_1,x_2,...,x_n) = \frac{P(x_1,x_2,...,x_n | \theta ) P(\theta)}{P(x_1,x_2,...,x_n)}$$ ここで、$P(\theta)$は$\theta$の事前分布である。 $x_1,x_2,...,x_n$はそれぞれ独立であるので、 $$P(x_1,x_2,...,x_n | \theta ) = \Pi_{i=1}^n P(x_i|\theta)$$. よって、マップ推定は $$\theta^{\star} = \arg \max_{\theta} \frac{\Pi_{i=1}^n P(x_i|\theta) P(\theta)}{P(x_1,x_2,...,x_n)}$$ となる。 $P(x_1,x_2,...,x_n)$という値は$\theta$には依存しない。よって、定数であり、最適化に定数は関係ないので、排除すると、MAP推定は次のようになる。 $$\th...