スキップしてメイン コンテンツに移動

位相を用いた写像の連続性の定義

Introduction


今日は写像の連続性の定義を位相を用いて行います。こちらの記事では位相の定義、開集合、開集合が位相の公理を満たすことを示しました。しかし、写像の連続性の定義は行いませんでした。この記事ではそれをやっていきます。重要なことであり、証明を書きます。

概要

  •  開集合
  • $\epsilon-\delta$論法
  • 開集合による写像の連続性の定義
  • 同値の証明


開集合

(X,d)を距離空間とします。
$A \subset X$:開集合
$$\iff$$
$$\forall x \in A,~~\exists \epsilon > 0, ~~s.t.~~ B(x,\epsilon) \subset A$$

ここで、$$B(x,\epsilon):= \{y\in A| d(x,y) < \epsilon\}$$

この定義は位相の公理を満たすので位相として距離空間に入れることができます。そのことは前回の記事で書きました。

$\epsilon-\delta$ 論法

$\epsilon-\delta$論法について確認します。この論法は学部一年生で習うと思います。

f:X-> Y:写像で、
fが$x=x_0$で連続とは
$$\iff$$
$$\lim_{x \rightarrow x_0} f(x) = f(x_0)$$
$$\iff$$
$$\forall \epsilon > 0,~~\exists \delta >0 ~~s.t~~ d(x,x_0) < \delta \implies d(f(x),f(x_0)) < \epsilon $$

開集合を用いた写像の連続性の定義

Define1.0

$(X,\mathbb{O}_X),(Y,\mathbb{O}_Y)$を位相空間とします。
$f:X \rightarrow Y$が$x=x_0$で連続
$$\iff$$
$$f(x_0) \in \forall V:\textrm{open set} \subset Y~~,f^{-1} (V) \subset X ~~\textrm{is open set}$$
ここで、$\mathbb{O_X}$ and $\mathbb{O_Y}$はそれぞれ、X,Yの開集合族です。さらに、$f^{-1} (V) := \{a \in X| f(a) \in V \}$とします。

この定義は$\epsilon-\delta$論法と同値になります。
同値の証明


  • Define 1.0 $\implies$ $\epsilon-\delta$論法

$\forall V, f(x_0) \in V$.よって、 $x_0 \in f^{-1}(V)$.
$f^{-1}(V)$は開集合なので、$\exists \delta > 0 ~~s.t.~~ B(x_0,\delta) \subset f^{-1}(V)$.
よって、$\forall x \in X ,~~x \in B(x_0,\delta) \implies x \in f^{-1}(V)$.
$x \in B(x_0,\delta) \iff d(x,x_0) < \delta$
$x \in f^{-1}(V) \iff f(x) \in V$.
ここで、$V$の半径を$\frac{\epsilon}{2}$とします。
$f(x) \in V$なので、$~~d(f(x),f(x_0)) < \epsilon$.

結果、$V$が任意なので、
$$\forall \epsilon ~~\exists \delta ~~s.t.~~ d(x,x_0) < \delta \implies d(f(x),f(x_0)) < \epsilon$$


  • $\epsilon-\delta$ reasoning. $\implies$ Define 1.0

$\forall x \in f^{-1}(V)$,$f(x) \in V$と$f(x_0) \in V$が成り立つので、 $d(f(x),f(x_0)) < \epsilon$.ここで、$\frac{\epsilon}{2}$は$V$の半径とします。
$\epsilon-\delta$論法により、 $\exists \delta > 0 ~~s.t.~~ d(x,x_0) < \delta$.

$B(x,\delta):= \{y \in X|d(x,y) < \delta \}$とします。
$\forall y \in B(x,\delta),$ because $d(x,y) < \delta$, $d(f(x),f(y)) < \epsilon$. よって、$f(y) \in B(f(x),\epsilon) \subset V$
$f(y) \in V$なので、$y \in f^{-1}(V)$.
よって、$y \in B(x,\delta) \implies y \in f^{-1}(V)$.
結果、$B(x,\delta) \subset  f^{-1}(V)$.
よって、$f^{-1}(V)$は開集合。

Q.E.D

コメント

このブログの人気の投稿

MAP estimation

Introduction 日本語 ver Today, I will explain MAP estimation(maximum a posteriori estimation). MAP estimation is used Bayes' thorem. If sample data is few, we can not belive value by Maximum likelihood estimation. Then, MAP estimation is enable to include our sense.  Overveiw Bayes' theorem MAP estimation Conjugate distribution Bayes' theorem  Bayes' theorem is $$P(A|B) = \frac{P(B|A)P(A)}{P(B)}$$ $P(A|B)$ is Probability when B occur. Please go on  http://takutori.blogspot.com/2018/04/bayes-theorem.html to know detail of Bayes' theorem. Map estimation Map estimation is used Bayes' theorem. Map estimation estimate parameter of population by maximuzing posterior probability. Now, suppoce we get data $x_1,x_2,...,x_n$ from population which have parameter $\theta$. Then, we want to $P(\theta|x_1,x_2,...,x_n)$. Here, we use Bayes' theorem. $$P(\theta|x_1,x_2,...,x_n) = \frac{P(x_1,x_2,...,x_n | \theta ) P(\theta)}{P(x_1,x_2,...,x_n)}...

MAP推定

Introduction English ver 今日はMAP推定(事後確率最大化法)について書きました。MAP推定ではベイズの定理を使います。データが少ないとき、最尤推定の結果をあまり信用できない話は、最尤推定の時に書きました。この時、MAP推定では自分の事前に持っている情報を取り入れることができます。 概要 ベイズの定理 MAP推定 共役分布 MAP推定の例 ベイズの定理 ベイズの定理は $$P(A|B) = \frac{P(B|A)P(A)}{P(B)}$$ です。 ただし、 $P(A|B)$ はBが起こった時のAの起こる確率です。 詳しくは  http://takutori.blogspot.com/2018/04/bayes-theorem.html  を見てください。 Map推定 MAP推定ではベイズの定理を使います。MAP推定は事後確率が最大になるようなパラメータを選びます。 いま、$x_1,x_2,...,x_n$というデータを$\theta$というパラメータを持つ分布から得られたとする。この時$P(\theta|x_1,x_2,...,x_n)$を求めたい。 ここで、ベイズの定理を使う。 $$P(\theta|x_1,x_2,...,x_n) = \frac{P(x_1,x_2,...,x_n | \theta ) P(\theta)}{P(x_1,x_2,...,x_n)}$$ ここで、$P(\theta)$は$\theta$の事前分布である。 $x_1,x_2,...,x_n$はそれぞれ独立であるので、 $$P(x_1,x_2,...,x_n | \theta ) = \Pi_{i=1}^n P(x_i|\theta)$$. よって、マップ推定は $$\theta^{\star} = \arg \max_{\theta} \frac{\Pi_{i=1}^n P(x_i|\theta) P(\theta)}{P(x_1,x_2,...,x_n)}$$ となる。 $P(x_1,x_2,...,x_n)$という値は$\theta$には依存しない。よって、定数であり、最適化に定数は関係ないので、排除すると、MAP推定は次のようになる。 $$\th...

Implementation of Robbins monro

Robbins monro の実装 sorry, this page is Japanese only.   今回はRobbins monro の実装をしてみました。 Robbins monroは確率勾配降下法の学習率を入りテーション回数の逆数で割っていくものです。 使っているprogram言語はpython 3です。osはwindowsです。(macほしい...) アルゴリズム 確率勾配降下方とは目的関数の最適解を求めるアルゴリズムです。目的関数をf(X)とすると、手順は以下のようになっています。 初期学習率$n_0$を決めます。訓練データDを用意します。この訓練データは複数の初期値の集まりです。 訓練データから一つ初期値をランダムに取り出し、これを$x_0$とし、最初の予測値とします。 次の式に現在の予測値$x_0$を代入し、新たな予測値$x_{n+1}$を得ます。$$x_{n+1} = x_{n} - \frac{n_0}{n} grad f(X_n)$$ 収束して入れば4へ、収束していなければ2で得られた値$x{n+1}$を新たに$x_n$としてもう一度2を行う。 訓練データを一周していなければ2へ、一周していれば各初期値から得られた解の中から目的関数を最も小さくするものを選ぶ。   実装例 以下の目的関数を最小化させてみましょう。 $$f(x,y) = (x-2)^2 + (y-3)^2 $$ コマンドラインでpythonを実行していきます。 予想通り、(2,3)という解を導き出してくれました。目的関数が簡単だったので、初期値をどの値でとってもばっちり正解にたどり着いてくれました。 CODE 以下にRobbins monroの関数だけ置いておきます。 こちら にすべてのコードを載せています。 def Robbins_monro(function,grad,number_variable_gradient): init_learning_rate = 1.5 stepsize = 1000 init_value = np.array([range(-1000,1020,20) for i in range(number_v...