
당황스럽네

당황스럽네
작성하신 필기 노트는 Rudin의 PMA(Principles of Mathematical Analysis) 1장의 핵심 흐름인 수 체계의 구성(Construction of Number System)을 완벽하게 관통하고 있습니다. 집합론적 기초에서 시작해 실수의 완비성을 증명하고, 대수적 닫힘을 위해 복소수까지 나아가는 과정을 엄밀하게 정리했습니다.
필기하신 "$0 \to 1 \to \dots$ (Induction)" 부분은 폰 노이만 서수(Von Neumann Ordinals)를 통한 자연수의 정의입니다.
여기에 페아노 공리(Peano Axioms), 그중에서도 5번째 공리인 수학적 귀납법(Induction)이 더해져 자연수 체계의 논리적 토대가 완성됩니다.
자연수는 덧셈에 대해 닫혀있지만, 역원(뺄셈)이 존재하지 않아 $3+x=1$ 같은 방정식을 풀 수 없습니다.
정수는 나눗셈에 대해 닫혀있지 않아 $2x=1$ 같은 방정식을 해결할 수 없습니다.
가장 핵심적인 단계입니다. 유리수는 조밀(Dense)하지만 빈틈(Gap)이 있습니다($p^2=2$인 유리수 없음). 이를 메워 해석학(극한, 미분)을 가능하게 합니다.
필기 노트에서 상세히 증명하신 방법입니다. 실수를 '점'이 아닌 '유리수 집합의 분할(Cut)' 그 자체로 정의합니다.
이 정의를 통해 LUB Property(최소상한 성질)가 증명됩니다. 즉, "위로 유계인 모든 집합은 실수인 상한(Supremum)을 가진다."
거리가 가까워지는 유리수열들의 집합(동치류)으로 실수를 정의하는 방법입니다. 결과적으로 데데킨트 절단과 동형인 체(Isomorphic Field)를 만듭니다.
실수는 완비적이지만, $x^2 + 1 = 0$과 같은 방정식의 해가 없는 대수적 불완전함(Algebraically Incomplete)이 남습니다. Rudin 1장의 마지막 퍼즐입니다.
유클리드 평면 $\mathbb{R}^2$ (순서쌍)에 특수한 곱셈 구조를 부여하여 대수적으로 닫힌 체(Algebraically Closed Field)를 만들기 위함입니다.
| 개념 | 설명 |
|---|---|
| Uncountable | Cantor의 대각선 논법에 의해 실수는 셀 수 없음이 증명됨 ($|\mathbb{R}| > |\mathbb{N}|$). |
| Euclidean Space | $\mathbb{R}$을 $k$번 곱한 $\mathbb{R}^k$ 공간으로 확장되며, 내적(Inner product)과 거리(Metric) 개념으로 이어집니다. |
Based on Rudin's PMA & Your Lecture Notes
| [Rudin] 251222 학습노트 (Chap 2) (1) | 2025.12.22 |
|---|---|
| [W. Rudin] 1.12-2 (0) | 2025.12.15 |
| [Rudin] PMA Chap 1 Dedekind Cut (0) | 2025.12.08 |
일본의 위대한 수학자 오카 기요시(Oka Kiyoshi)의 에세이를 읽고 정리한 독서 노트입니다. 수학적 난제에 도전했던 그의 치열한 과정과 그가 깨달은 '수학의 본질(정서)'에 대한 통찰을 담았습니다.
저자: 오카 기요시
교토대학 졸업 후 39년 동안 한눈팔지 않고 수학에만 매진했다.
"수학이란 정서를 지성으로 표현하는 예술이다."
무슨 쓸모가 있을까? 제비꽃은 제비꽃으로 피어있으면 그만이다.
몰입의 메커니즘: 긴장 → 이완 → 해결
* 참고 인물: 아쿠타가와 류노스케, 나쓰메 소세키, 니시다 기타로
* 비교 통찰: 동양 vs 서양 / 정서 vs 영감
Thinking with Gemini
| 우리 집 보물창고 (0) | 2025.12.06 |
|---|---|
| 김 교수님은 왜 (0) | 2025.11.15 |
| About 젠슨 황 (0) | 2025.11.15 |
순수 수학(Pure Mathematics)과 이론 물리학(Theoretical Physics)은 같은 언어를 공유하지만, 그 언어를 사용하는 목적과 철학에는 근본적인 차이가 있습니다. 수학적 엄밀함과 물리적 실재성 사이에서, 핵심 개념들(Tensor, Group, Hilbert Space)이 어떻게 다르게 정의되고 해석되는지 정리해 봅니다.
두 학문은 정의를 내리는 출발점부터 다릅니다.
텐서는 두 학문의 관점 차이가 가장 극명하게 드러나는 개념입니다.
수학자에게 텐서는 벡터 공간 $V$와 그 쌍대 공간 $V^*$ 사이의 함수입니다.
$$T: V^* \times \dots \times V^* \times V \times \dots \times V \to \mathbb{R}$$
핵심: Coordinate-free (좌표계 무관). 기저(Basis)를 정하지 않아도 텐서 자체는 대수적으로 존재합니다. 성분은 나중에 기저를 선택했을 때 나타나는 그림자일 뿐입니다.
물리학자에게 텐서는 좌표계가 바뀔 때($x \to x'$) 특정 규칙에 따라 변환되는 물리량입니다.
$$T'^{\mu\nu} = \frac{\partial x'^\mu}{\partial x^\alpha} \frac{\partial x'^\nu}{\partial x^\beta} T^{\alpha\beta}$$
핵심: Invariance (불변성). "좌표를 돌려도 물리 법칙이 깨지지 않는가?"가 중요합니다. 응력(Stress)이나 전자기장과 같은 물리적 실체를 기술합니다.
집합 $G$와 연산이 4가지 공리(닫힘, 결합법칙, 항등원, 역원)를 만족하면 군입니다.
핵심: Classification (분류). 유한 단순군의 분류처럼, 추상적인 구조 그 자체를 연구합니다. 대상이 정수이든 행렬이든 구조가 같으면 같은 것(Isomorphic)으로 취급합니다.
시스템을 변환시켰을 때 물리 법칙이 변하지 않는 성질, 즉 '대칭성'을 기술하는 언어입니다.
핵심: Noether's Theorem (뇌터 정리). 대칭성은 곧 보존 법칙을 의미합니다. (예: 시간 대칭 $\to$ 에너지 보존, 공간 회전 대칭 $\to$ 각운동량 보존)
거리와 각도가 정의되며, 극한을 취했을 때 그 극한값이 공간 밖으로 빠져나가지 않는(Complete) 무한 차원 공간입니다.
핵심: Convergence (수렴성). 무한 급수가 수렴하는지, 해가 존재하는지를 따지는 해석학적 엄밀함이 중요합니다 ($L^2$ 공간 등).
관측 가능한 양자 상태(파동함수)들이 거주하는 공간입니다.
핵심: Superposition & Probability (중첩과 확률). 상태를 더할 수 있다는 점(벡터 공간)은 양자 중첩을 설명하며, 공간의 완비성은 확률 보존(총합 1)을 수학적으로 보장합니다.
| 개념 | 순수 수학 (Pure Math) | 물리학 (Physics) |
|---|---|---|
| Tensor | 다중 선형 사상 (기저 무관) | 좌표 변환 규칙을 따르는 물리량 |
| Group | 공리를 만족하는 대수적 구조 | 대칭성과 보존 법칙 |
| Hilbert Space | 함수 해석학의 완비 내적 공간 | 양자 역학의 상태 공간 |
이 글은 수학적 정의와 물리적 직관 사이의 연결 고리를 이해하기 위해 작성되었습니다.
| [Axler] Orthonormal Basis and Shur's Theorem (0) | 2025.12.13 |
|---|---|
| [Axler] Inner Product and Norm (0) | 2025.12.13 |
| [Axler] Eigenvalues, Invariant Subspaces, Diagonal Matrix (0) | 2025.12.12 |
| [Axler] The Existence of Eigenvalue (0) | 2025.12.12 |
| [Axler] The Fundamental Theorem of Algebra (0) | 2025.12.12 |
Principles of Mathematical Analysis (Rudin) 1~2장 학습 점검 및 심화 정리
본 포스팅은 Principles of Mathematical Analysis (일명 Baby Rudin)를 독학하며 작성한 학습 노트의 내용을 바탕으로, 개념이 모호했던 Compact Set(콤팩트 집합) 파트를 보강하고, 오개념을 수정한 오답 노트입니다.
노트 마지막 부분인 2.31부터 2.42까지의 내용을 정리합니다. [cite_start]해석학에서 가장 중요하고 추상적인 개념인 만큼 정확한 정의가 필수적입니다[cite: 522].
거리 공간 $X$의 부분집합 $E$가 있을 때, 어떤 열린 집합들의 모임 $\{G_\alpha\}$가 $E \subset \bigcup_\alpha G_\alpha$를 만족하면, $\{G_\alpha\}$를 $E$의 Open cover라고 합니다.
집합 $K$의 "모든" 열린 덮개(Open cover)가 "유한한" 부분 덮개(Finite subcover)를 가질 때, $K$를 Compact하다고 합니다.
👉 의미: 무한히 많은 열린 집합으로 덮더라도, 그중 유한 개만으로도 충분히 덮을 수 있다는 뜻. (무한을 유한으로 다루는 도구)
유클리드 공간 $\mathbb{R}^k$의 부분집합 $E$에 대하여 다음 두 명제는 동치입니다[cite: 522].
※ 중요: 추상적인 'Compact' 개념을 우리가 직관적으로 아는 'Closed & Bounded'로 판별할 수 있게 해주는 강력한 정리입니다. (단, $\mathbb{R}^k$에서만 성립)
학습 노트 작성 중 발생한 오개념이나 모호한 부분을 교정합니다.
User Note: "유리수를 특정 지점에서 잘라서 끊임없이 근사해서 새로운 수에 접근시킬 계획인가?"
Correction: '근사(Approximation)'가 아니라 '정의(Definition)' 그 자체입니다. $\sqrt{2}$로 다가가는 것이 아니라, $p^2 < 2$인 유리수 집합(Cut) 그 덩어리를 $\sqrt{2}$라는 실수로 정의해버리는 방식입니다.
User Note: "half-closed도 되지 않다? inf는 아니지만."
Correction: 집합 $E$가 유계라면 $\sup E$와 $\inf E$는 실수 상에 반드시 존재합니다. 하지만 그것이 집합 $E$ 안에 포함되느냐는 $E$가 Closed일 때만 보장됩니다. (예: $(0, 1)$의 $\sup$은 1이지만 $1 \notin (0, 1)$)
노트 여백에 적혀있던 "11차원, 4원수, 2차원 연산"에 대한 심화 해설입니다[cite: 453, 462].
"The only way to learn mathematics is to do mathematics." - Paul Halmos
다음 단계는 Chapter 3. Numerical Sequences and Series입니다. 수열의 극한과 코시 수열로 이어집니다!
| Number System (0) | 2026.01.05 |
|---|---|
| [W. Rudin] 1.12-2 (0) | 2025.12.15 |
| [Rudin] PMA Chap 1 Dedekind Cut (0) | 2025.12.08 |
Walter Rudin의 Principles of Mathematical Analysis 중, 순서체의 성질부터 위상수학의 기초(Point Set Topology)까지의 내용을 정리합니다.
실수체 $\mathbb{R}$은 순서체(Ordered Field)입니다. 순서 공리에 의해 다음과 같은 산술적 성질들이 유도됩니다.
$\mathbb{R}^k$는 모든 $k$-tuples $\mathbf{x} = (x_1, \dots, x_k)$의 집합으로 정의되며, 벡터 공간의 성질을 가집니다.
* 이 부등식들은 이후 Metric Space 거리 개념의 기초가 됩니다.
해석학 논증의 언어가 되는 집합론적 위상수학 개념들입니다. (Metric Space 중심)
거리 함수 $d(p, q)$가 정의된 집합 $X$를 거리 공간이라 합니다. $\mathbb{R}^k$는 $d(\mathbf{x}, \mathbf{y}) = |\mathbf{x}-\mathbf{y}|$인 거리 공간입니다.
Chapter 2의 핵심 개념입니다. 유한(Finite)의 성질을 무한으로 확장한 개념으로 이해할 수 있습니다.
Reference: W. Rudin, Principles of Mathematical Analysis, 3rd Edition.
| Number System (0) | 2026.01.05 |
|---|---|
| [Rudin] 251222 학습노트 (Chap 2) (1) | 2025.12.22 |
| [Rudin] PMA Chap 1 Dedekind Cut (0) | 2025.12.08 |
Based on Linear Algebra Done Right by Sheldon Axler
This post covers the concept of Orthonormal Bases, the Gram-Schmidt procedure, and important theorems like Schur's Theorem and the Riesz Representation Theorem.
(Assumption: $V$ denotes an inner product space over $F$, where $F$ is $\mathbf{R}$ or $\mathbf{C}$.)
A list of vectors in $V$ is called orthonormal if:
Mathematically, a list $e_1, \dots, e_m$ is orthonormal if:
$$ \langle e_j, e_k \rangle = \begin{cases} 1 & \text{if } j = k \\ 0 & \text{if } j \ne k \end{cases} $$1. Norm of a Linear Combination:
If $e_1, \dots, e_m$ is an orthonormal list, then for any scalars $a_1, \dots, a_m$:
2. Linear Independence:
Every orthonormal list of vectors is linearly independent.
An orthonormal basis of $V$ is an orthonormal list of vectors that is also a basis of $V$.
Orthonormal bases make finding coefficients in a linear combination extremely simple.
If $e_1, \dots, e_n$ is an orthonormal basis of $V$ and $v \in V$, then:
$$ v = \langle v, e_1 \rangle e_1 + \dots + \langle v, e_n \rangle e_n $$And the norm of $v$ is given by:
$$ \|v\|^2 = |\langle v, e_1 \rangle|^2 + \dots + |\langle v, e_n \rangle|^2 $$This means the coefficient of each basis vector is simply the inner product of the vector $v$ with that basis vector.
This is a standard algorithm for turning any linearly independent list into an orthonormal list with the same span.
Using the Gram-Schmidt procedure, we can prove:
Suppose $V$ is a finite-dimensional complex inner product space and $T \in \mathcal{L}(V)$. Then $T$ has an upper-triangular matrix with respect to some orthonormal basis of $V$.
Suppose $V$ is finite-dimensional. Then for every linear functional $\varphi$ on $V$ (a linear map from $V$ to $F$), there exists a unique vector $u \in V$ such that:
$$ \varphi(w) = \langle w, u \rangle $$for every $w \in V$.
This concludes the video on orthonormal bases.
| [LA] 텐서(다중 선형 사상), 힐베르트 공간(내적 공간의 확장), 군론(행렬군 표현) (0) | 2025.12.22 |
|---|---|
| [Axler] Inner Product and Norm (0) | 2025.12.13 |
| [Axler] Eigenvalues, Invariant Subspaces, Diagonal Matrix (0) | 2025.12.12 |
| [Axler] The Existence of Eigenvalue (0) | 2025.12.12 |
| [Axler] The Fundamental Theorem of Algebra (0) | 2025.12.12 |
Based on Linear Algebra Done Right by Sheldon Axler
Hello, I'm Sheldon Axler, the author of Linear Algebra Done Right. This video discusses part one of the section titled "Inner Products and Norms." In this video, we will focus on inner products.
Let's quickly recall our standard notation. $F$ denotes either the scalar field $\mathbf{R}$ of real numbers or the scalar field $\mathbf{C}$ of complex numbers. We also let $V$ denote a vector space over $F$.
To motivate the definition of the inner product, we'll start by considering the dot product on $\mathbf{R}^n$. Specifically, we'll begin by examining the case in $\mathbf{R}^2$. We have a vector with coordinates $(x_1, x_2)$, and the length of this vector is the square root of the sum of the squares of the coordinates: $\sqrt{x_1^2 + x_2^2}$.
If we move from $\mathbf{R}^2$ to $\mathbf{R}^n$, looking at a vector $\mathbf{x} = (x_1, \dots, x_n)$, we define the norm of $\mathbf{x}$, denoted $\|\mathbf{x}\|$, to be the square root of the sum of the squares of its components:
$$ \|\mathbf{x}\| = \sqrt{\sum_{k=1}^{n} x_k^2} $$However, linearity is not immediately apparent in this formula. To introduce linearity, we define the dot product.
We see immediately that $\mathbf{x} \cdot \mathbf{x} = \|\mathbf{x}\|^2$. Now let's look at some key properties of the dot product:
The properties above form the basis for the abstract definition of an inner product. This works perfectly for real vector spaces. For complex vector spaces, however, we need to consider an additional factor.
For a vector $\mathbf{z} = (z_1, \dots, z_n)$ in $\mathbf{C}^n$, we define its norm $\|\mathbf{z}\|$ using magnitudes:
$$ \|\mathbf{z}\| = \sqrt{\sum_{k=1}^{n} |z_k|^2} $$To recover the relationship $\|\mathbf{z}\|^2 = \langle \mathbf{z}, \mathbf{z} \rangle$, the inner product for vectors $\mathbf{w}$ and $\mathbf{z}$ in $\mathbf{C}^n$ must be defined using the complex conjugate:
$$ \langle \mathbf{w}, \mathbf{z} \rangle = \sum_{k=1}^{n} w_k \overline{z_k} $$We are now ready to define an inner product generally for vector spaces over either $\mathbf{R}$ or $\mathbf{C}$.
An inner product on a vector space $V$ is a function that takes each ordered pair of vectors $(\mathbf{u}, \mathbf{v})$ in $V$ to a scalar, denoted $\langle \mathbf{u}, \mathbf{v} \rangle$, with the following properties:
* Note: An inner product space is a vector space $V$ together with a specific inner product defined on it.
Based on the definition, we can derive the following properties:
(Note: In the real case where $F = \mathbf{R}$, the inner product is linear in the second argument as well.)
This concludes part one of the video on inner products and norms.
Based on Linear Algebra Done Right by Sheldon Axler
This discussion covers part two of the section on Inner Products and Norms. Throughout this post, we assume $V$ denotes an inner product space.
For a vector $v \in V$, the norm of $v$, denoted $\|v\|$, is defined as:
$$ \|v\| = \sqrt{\langle v, v \rangle} $$Since $\langle v, v \rangle \ge 0$ by definition of the inner product, this square root is always valid.
Two vectors $u, v \in V$ are called orthogonal if $\langle u, v \rangle = 0$. This generalizes the geometric concept of perpendicularity.
If $u$ and $v$ are orthogonal vectors in $V$, then:
$$ \|u + v\|^2 = \|u\|^2 + \|v\|^2 $$
Proof:
$\|u + v\|^2 = \langle u + v, u + v \rangle = \langle u, u \rangle + \langle u, v \rangle + \langle v, u \rangle + \langle v, v \rangle$
Since $u, v$ are orthogonal, $\langle u, v \rangle = 0$ (and thus $\langle v, u \rangle = 0$).
Therefore, $\|u + v\|^2 = \|u\|^2 + 0 + 0 + \|v\|^2$.
For any vectors $u, v \in V$:
$$ |\langle u, v \rangle| \le \|u\| \, \|v\| $$Equality holds if and only if one vector is a scalar multiple of the other.
Applications:
For any vectors $u, v \in V$:
$$ \|u + v\| \le \|u\| + \|v\| $$Equality holds if and only if one vector is a non-negative real multiple of the other.
For any vectors $u, v \in V$:
$$ \|u + v\|^2 + \|u - v\|^2 = 2\|u\|^2 + 2\|v\|^2 $$This identity reflects the geometry of a parallelogram: the sum of the squares of the lengths of the diagonals ($u+v$ and $u-v$) equals the sum of the squares of the lengths of the four sides.
This concludes part two on inner products.
| [LA] 텐서(다중 선형 사상), 힐베르트 공간(내적 공간의 확장), 군론(행렬군 표현) (0) | 2025.12.22 |
|---|---|
| [Axler] Orthonormal Basis and Shur's Theorem (0) | 2025.12.13 |
| [Axler] Eigenvalues, Invariant Subspaces, Diagonal Matrix (0) | 2025.12.12 |
| [Axler] The Existence of Eigenvalue (0) | 2025.12.12 |
| [Axler] The Fundamental Theorem of Algebra (0) | 2025.12.12 |
Based on Linear Algebra Done Right
This post covers the definition of the matrix of an operator, the properties of upper triangular matrices, and the concept of eigenspaces.
Previously, defining the matrix of a linear map from one vector space to another required two bases. However, for an operator (a linear map $T: V \to V$), we use a single basis.
Let $v_1, \dots, v_n$ be a basis of $V$. The matrix of the operator $T$ with respect to this basis is the $n \times n$ matrix determined by:
$$ T(v_k) = A_{1,k}v_1 + \dots + A_{n,k}v_n $$The coefficients of this linear combination form the $k$-th column of the matrix.
A matrix is called upper triangular if all entries below the diagonal are zero (i.e., $A_{j,k} = 0$ if $j > k$).
Let $T \in \mathcal{L}(V)$ and let $v_1, \dots, v_n$ be a basis for $V$. The following are equivalent:
If $V$ is a finite-dimensional complex vector space and $T \in \mathcal{L}(V)$, then there exists a basis of $V$ such that the matrix of $T$ is upper triangular.
*(Note: This requires a complex vector space because operators on real vector spaces may not have eigenvalues.)*
Connection to Eigenvalues: If the matrix of $T$ is upper triangular, the eigenvalues of $T$ are exactly the entries on the diagonal. (In the example above, eigenvalues are 2, 5, and 8.)
A diagonal matrix is a square matrix where all entries off the diagonal are zero. (Every diagonal matrix is upper triangular.)
$$ \begin{bmatrix} 8 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 5 \end{bmatrix} $$If an operator has a diagonal matrix with respect to some basis, the diagonal entries are its eigenvalues.
For $\lambda \in F$, the eigenspace of $T$ corresponding to $\lambda$ is defined as:
$$ E(\lambda, T) = \operatorname{null}(T - \lambda I) $$This subspace contains all eigenvectors corresponding to $\lambda$, plus the zero vector.
Let $V$ be finite-dimensional and let $\lambda_1, \dots, \lambda_m$ be distinct eigenvalues of $T$. Then:
This theorem implies that eigenvectors corresponding to distinct eigenvalues are linearly independent.
This concludes the summary of Part 2 & 3.
| [Axler] Orthonormal Basis and Shur's Theorem (0) | 2025.12.13 |
|---|---|
| [Axler] Inner Product and Norm (0) | 2025.12.13 |
| [Axler] The Existence of Eigenvalue (0) | 2025.12.12 |
| [Axler] The Fundamental Theorem of Algebra (0) | 2025.12.12 |
| [Axler] The Fundamental Theorem of Linear Maps (0) | 2025.12.11 |
Based on Linear Algebra Done Right by Sheldon Axler
This post covers the foundational concepts required to understand eigenvalues and eigenvectors, including operator polynomials, and presents the proof for the existence of eigenvalues over complex vector spaces.
For an operator $T \in \mathcal{L}(V)$ and a positive integer $m$:
Exponent Rules:
$T^m \circ T^n = T^{m+n}$
$(T^m)^n = T^{mn}$
Let $p(z) = a_0 + a_1 z + \dots + a_m z^m$ be a polynomial with coefficients in $\mathbf{F}$. We define $p(T)$ as:
$$ p(T) = a_0 I + a_1 T + \dots + a_m T^m $$The map $p \mapsto p(T)$ is a linear map from $P(\mathbf{F})$ to $\mathcal{L}(V)$. A crucial property is multiplicativity:
$$ (pq)(T) = p(T) \circ q(T) $$Corollary (Commutativity):
Any two polynomials in $T$ commute with each other.
$$ p(T) \circ q(T) = q(T) \circ p(T) $$
Since operator multiplication is generally not commutative, this property is very useful.
Every operator on a finite-dimensional, nonzero, complex vector space has an eigenvalue.
Let $V$ be a complex vector space with $\dim V = n > 0$, and $T \in \mathcal{L}(V)$.
| [Axler] Inner Product and Norm (0) | 2025.12.13 |
|---|---|
| [Axler] Eigenvalues, Invariant Subspaces, Diagonal Matrix (0) | 2025.12.12 |
| [Axler] The Fundamental Theorem of Algebra (0) | 2025.12.12 |
| [Axler] The Fundamental Theorem of Linear Maps (0) | 2025.12.11 |
| [Axler] Duality (0) | 2025.12.11 |