Axler LADR Summary: Ch 6 & 7

Axler LADR Summary: Ch 6 & 7

Inner Product Spaces & The Spectral Theorem

Chapter 6: Inner Product Spaces

벡터공간에 내적(Inner Product)을 정의함으로써 길이(Norm)와 각도(Orthogonality)를 측정할 수 있게 됩니다. 이는 기하학적 직관을 선형대수학으로 가져오는 핵심 단계입니다.

1. Inner Products and Norms

Inner Product (내적) $\langle u, v \rangle$ Positive definiteness, Additivity, Homogeneity, Conjugate symmetry를 만족하는 함수.
Cauchy-Schwarz Inequality $$ |\langle u, v \rangle| \le \|u\| \|v\| $$ 이 부등식은 해석학(Analysis)의 모든 부등식 중 가장 중요합니다. 등호는 $u, v$가 선형 종속일 때만 성립합니다.
  • Norm: $\|v\| = \sqrt{\langle v, v \rangle}$.
  • Orthogonality: $\langle u, v \rangle = 0$. 피타고라스 정리($\|u+v\|^2 = \|u\|^2 + \|v\|^2$)가 성립한다.

2. Orthonormal Bases & Gram-Schmidt

Orthonormal Basis (정규직교기저) 길이가 1이고 서로 수직인 벡터들로 이루어진 기저 $e_1, \dots, e_n$.
  • 정규직교기저가 있으면 벡터의 좌표를 구하기가 매우 쉽다: $v = \langle v, e_1 \rangle e_1 + \dots + \langle v, e_n \rangle e_n$.
  • Gram-Schmidt Procedure: 임의의 기저를 정규직교기저로 바꾸는 알고리즘.

3. Orthogonal Projection & Minimization

Orthogonal Projection $P_U$ $U$가 $V$의 부분공간일 때, 모든 $v \in V$는 $u \in U$와 $w \in U^\perp$의 합으로 유일하게 표현된다 ($v = u + w$).
이때 $P_U v = u$라 정의한다.
Minimization Problem $v \in V$가 주어졌을 때, $\|v - u\|$를 최소화하는 $U$의 원소 $u$는 정확히 $P_U v$이다.
(이 원리는 근사 이론, 통계학의 최소자승법의 기초가 됩니다.)

4. Linear Functionals (Riesz Representation)

Riesz Representation Theorem 유한차원 내적공간 $V$ 위의 모든 선형 범함수(Linear Functional) $\varphi: V \to \mathbb{F}$는 어떤 유일한 벡터 $u \in V$에 의해 내적으로 표현된다. $$ \varphi(v) = \langle v, u \rangle $$

Chapter 7: Operators on Inner Product Spaces

선형대수학의 입니다. "행렬을 언제 대각화할 수 있는가?"에 대한 완벽한 답을 제공합니다. $\mathbb{C}$와 $\mathbb{R}$의 상황이 다르다는 점에 주목하세요.

1. Adjoints (수반 연산자)

Adjoint $T^*$ $\langle Tv, w \rangle = \langle v, T^*w \rangle$를 만족하는 유일한 연산자.
(행렬로 표현하면 Conjugate Transpose $\bar{A}^T$에 해당)
  • Self-Adjoint (Hermitian): $T = T^*$. (행렬이 대칭적 성질을 가짐)
  • Normal: $TT^* = T^*T$. (Self-Adjoint보다 넓은 개념)

2. The Spectral Theorems (스펙트럼 정리)

이 정리들은 연산자가 정규직교기저(Orthonormal Basis)에 의해 대각화(Diagonalizable)될 수 있는 조건을 말해줍니다.

Complex Spectral Theorem ($\mathbb{F}=\mathbb{C}$) $V$가 복소수 내적공간일 때, 다음은 동치이다.
  • $T$ is Normal ($TT^* = T^*T$).
  • $V$ has an orthonormal basis consisting of eigenvectors of $T$.
  • $T$ represents a diagonal matrix with respect to some orthonormal basis.
Real Spectral Theorem ($\mathbb{F}=\mathbb{R}$) $V$가 실수 내적공간일 때, 다음은 동치이다.
  • $T$ is Self-Adjoint ($T = T^*$).
  • $V$ has an orthonormal basis consisting of eigenvectors of $T$.
  • $T$ represents a diagonal matrix with respect to some orthonormal basis.
주의: $\mathbb{R}$에서는 Normal이라고 해서 대각화되지 않음 (예: 90도 회전변환). 반드시 Self-Adjoint여야 함.

3. Positive Operators & Isometries

  • Positive Operator ($T \ge 0$): Self-Adjoint이고, 모든 $v$에 대해 $\langle Tv, v \rangle \ge 0$.
    특징: 고윳값이 모두 0 이상이며, 유일한 제곱근 연산자 $\sqrt{T}$가 존재함.
  • Isometry ($S$): 모든 $v$에 대해 $\|Sv\| = \|v\|$.
    동치 조건: $S^*S = I$. (Unitary Operator)

4. Polar Decomposition & SVD

모든 연산자(정사각형이 아니어도 됨)를 분석할 수 있는 가장 강력한 도구입니다.

Polar Decomposition 임의의 연산자 $T$는 $T = S\sqrt{T^*T}$로 분해된다.
($S$는 Isometry. 복소수의 $z = e^{i\theta}r$과 유사한 구조.)
Singular Value Decomposition (SVD) 임의의 연산자 $T$에 대해, $V$와 $W$의 정규직교기저 $e_i, f_i$가 존재하여 다음이 성립한다. $$ Tv = \sum_{i=1}^{\dim V} s_i \langle v, e_i \rangle f_i $$ 여기서 $s_i$는 $T$의 특이값(Singular Values)으로, $\sqrt{T^*T}$의 고윳값들이다.
SVD는 데이터 압축, 노이즈 제거, 추천 시스템 등 현대 응용수학의 핵심입니다.
Generated based on "Linear Algebra Done Right" by Sheldon Axler.
Summary designed for advanced integration with Analysis and Geometry.

'수리과학 > Linear Algebra' 카테고리의 다른 글

[Axler] Subspaces  (0) 2025.12.10
[Axler] Complex Numbers and Vector Spaces  (0) 2025.12.10
[Axler] Chap4, Chap5 예습노트  (0) 2025.12.09
[Axler] 챕터1~챕터3 예습노트  (0) 2025.12.09
[Axler] 1A, 1B 복습노트  (1) 2025.12.05

+ Recent posts