당황스럽네

 

작성하신 필기 노트는 Rudin의 PMA(Principles of Mathematical Analysis) 1장의 핵심 흐름인 수 체계의 구성(Construction of Number System)을 완벽하게 관통하고 있습니다. 집합론적 기초에서 시작해 실수의 완비성을 증명하고, 대수적 닫힘을 위해 복소수까지 나아가는 과정을 엄밀하게 정리했습니다.

1. 집합에서 자연수로 ($\text{Set} \to \mathbb{N}$)

필기하신 "$0 \to 1 \to \dots$ (Induction)" 부분은 폰 노이만 서수(Von Neumann Ordinals)를 통한 자연수의 정의입니다.

  • $0 = \emptyset$ (공집합)
  • $1 = \{0\} = \{\emptyset\}$
  • $2 = \{0, 1\} = \{\emptyset, \{\emptyset\}\}$
  • $n+1 = n \cup \{n\}$ (계승자, Successor)

여기에 페아노 공리(Peano Axioms), 그중에서도 5번째 공리인 수학적 귀납법(Induction)이 더해져 자연수 체계의 논리적 토대가 완성됩니다.

2. 자연수에서 정수로 ($\mathbb{N} \to \mathbb{Z}$)

자연수는 덧셈에 대해 닫혀있지만, 역원(뺄셈)이 존재하지 않아 $3+x=1$ 같은 방정식을 풀 수 없습니다.

  • 구성 (Construction): 자연수의 순서쌍 $\mathbb{N} \times \mathbb{N}$을 생각합니다. $(a, b)$는 직관적으로 $a-b$를 의미합니다.
  • 동치 관계 (Equivalence Relation):
    $(a, b) \sim (c, d) \iff a + d = b + c$
  • 위 관계를 만족하는 동치류(Equivalence Class)들의 집합이 바로 정수 $\mathbb{Z}$입니다.

3. 정수에서 유리수로 ($\mathbb{Z} \to \mathbb{Q}$)

정수는 나눗셈에 대해 닫혀있지 않아 $2x=1$ 같은 방정식을 해결할 수 없습니다.

  • 구성 (Field of Fractions): 정수의 순서쌍 $(a, b)$ (단, $b \neq 0$)를 생각합니다. 이는 $a/b$를 의미합니다.
  • 동치 관계:
    $(a, b) \sim (c, d) \iff ad = bc$
  • 특징: 유리수 집합 $\mathbb{Q}$는 가산 집합(Countable)입니다. 즉, 자연수와 일대일 대응이 가능합니다($\aleph_0$).

4. 유리수에서 실수로 ($\mathbb{Q} \to \mathbb{R}$): 완비성(Completeness)

가장 핵심적인 단계입니다. 유리수는 조밀(Dense)하지만 빈틈(Gap)이 있습니다($p^2=2$인 유리수 없음). 이를 메워 해석학(극한, 미분)을 가능하게 합니다.

Method A. 데데킨트 절단 (Dedekind Cut)

필기 노트에서 상세히 증명하신 방법입니다. 실수를 '점'이 아닌 '유리수 집합의 분할(Cut)' 그 자체로 정의합니다.

정의 (Cut $\alpha$): $\alpha \subset \mathbb{Q}$
  1. $\alpha \neq \emptyset, \alpha \neq \mathbb{Q}$ (Non-trivial)
  2. $p \in \alpha, q < p \implies q \in \alpha$ (Closed downwards)
  3. $\alpha$에는 최댓값이 없다. (No largest element)

이 정의를 통해 LUB Property(최소상한 성질)가 증명됩니다. 즉, "위로 유계인 모든 집합은 실수인 상한(Supremum)을 가진다."

Method B. 코시 수열 (Cauchy Sequence)

거리가 가까워지는 유리수열들의 집합(동치류)으로 실수를 정의하는 방법입니다. 결과적으로 데데킨트 절단과 동형인 체(Isomorphic Field)를 만듭니다.

5. 실수에서 복소수로 ($\mathbb{R} \to \mathbb{C}$)

실수는 완비적이지만, $x^2 + 1 = 0$과 같은 방정식의 해가 없는 대수적 불완전함(Algebraically Incomplete)이 남습니다. Rudin 1장의 마지막 퍼즐입니다.

Why Complex Numbers?

유클리드 평면 $\mathbb{R}^2$ (순서쌍)에 특수한 곱셈 구조를 부여하여 대수적으로 닫힌 체(Algebraically Closed Field)를 만들기 위함입니다.

  • 정의: 복소수 $z = (a, b)$ ($a, b \in \mathbb{R}$)
  • 연산의 정의:
    • 덧셈: $(a, b) + (c, d) = (a+c, b+d)$
    • 곱셈: $(a, b) \times (c, d) = (ac - bd, ad + bc)$
  • 허수 단위 $i$: $(0, 1)$을 $i$라 정의하면, 위 곱셈 정의에 의해
    $i^2 = (0, 1)(0, 1) = (0\cdot0 - 1\cdot1, 0\cdot1 + 1\cdot0) = (-1, 0) = -1$ 이 됩니다.
  • 성질:
    • Algebraic Closure: 모든 $n$차 다항식은 복소수 내에서 $n$개의 해를 가집니다.
    • 순서 상실 (Unordered): 복소수 체 $\mathbb{C}$는 순서체(Ordered Field)가 될 수 없습니다. (양수/음수의 개념이 없음)

6. 결론: 수학적 구조의 완성

개념 설명
Uncountable Cantor의 대각선 논법에 의해 실수는 셀 수 없음이 증명됨 ($|\mathbb{R}| > |\mathbb{N}|$).
Euclidean Space $\mathbb{R}$을 $k$번 곱한 $\mathbb{R}^k$ 공간으로 확장되며, 내적(Inner product)과 거리(Metric) 개념으로 이어집니다.

Based on Rudin's PMA & Your Lecture Notes

'수리과학 > Analysis' 카테고리의 다른 글

[Rudin] 251222 학습노트 (Chap 2)  (1) 2025.12.22
[W. Rudin] 1.12-2  (0) 2025.12.15
[Rudin] PMA Chap 1 Dedekind Cut  (0) 2025.12.08

일본의 위대한 수학자 오카 기요시(Oka Kiyoshi)의 에세이를 읽고 정리한 독서 노트입니다. 수학적 난제에 도전했던 그의 치열한 과정과 그가 깨달은 '수학의 본질(정서)'에 대한 통찰을 담았습니다.


1. 발견의 황홀한 기쁨 (난제 해결의 과정)

1) 배경과 도전

  • 1929년의 상황: 하인리히 벵케와 페터 툴렌의 공저 『다변수 해석수론』이 독일에서 출간됨. 당시까지의 논문을 총망라했으나 세 가지 중심적 문제가 미해결 상태로 남아있음.
  • 도전과 좌절: 이 문제들에 도전하여 150페이지 분량의 논문을 작성했으나, 스스로 리뷰한 결과 중심 문제를 전혀 다루지 못했음을 깨닫고 포기함.
  • 결심: 기존 논문은 요약해서 발표하고, 이듬해 1월부터 미해결 문제에 본격적으로 재도전하기로 결심.

2) 고뇌의 시간과 전환점

  • 관련 문헌을 찾기 위해 히로시마에서 교토대학까지 오감.
  • 두 달간 매달렸으나 문제는 거대한 산맥처럼 느껴졌고, 매일 방법을 바꿔가며 밤까지 시도함.
  • 세 달간의 낙담 끝에 지극히 단순한 문제조차 풀 수 없는 지경에 이름. (억지로 집중하면 10분 만에 졸음이 쏟아짐)
  • 전환점 (Hokkaido): 물리학자 나카야 우키치로의 연락으로 홋카이도 방문. 응접실에서 잠들었다가 좋지 않은 소문이 돌기 시작함.
  • 해결: 식사 후 연구실에 가만히 앉아있을 때, 비로소 생각이 정리됨 (2시간 30분 소요).

💡 몰입(Flow)이 찾아오는 조건

  1. 극한의 긴장감
  2. 처음 가는 길
  3. 아무것도 모르는 상태
  4. +α: 졸음이 쏟아지는 일종의 '방심 상태' (이완)

2. 추천의 말 및 저자의 말

추천의 말

  • 황농문 (서울대 교수, '몰입' 저자):
    "성선설도 성악설도 아닌 '동물→교육→인간'의 과정이라 생각한다. 오카 기요시가 바로 그 예시이다. 그의 삶, 문학, 예술에 대한 통찰은 남다르다."
  • 김성연 (KIAS 수학난제연구센터 교수):
    "명상하듯 수학 연구를 한 것으로 유명하다. 이 책에는 누구나 고민해봤을 '공부의 본질'에 대한 대가의 대답이 있다."
  • 나카자와 신이치 (인류학자):
    "물질문명은 정서 구조로 새롭게 재창조되어야 한다."
  • 변준기 (서울대 대학원생):
    "'계산으로 얻을 수 없는' 새로운 차원의 수학이 이 책에 담겨 있다."
저자: 오카 기요시

교토대학 졸업 후 39년 동안 한눈팔지 않고 수학에만 매진했다.
"수학이란 정서를 지성으로 표현하는 예술이다."
무슨 쓸모가 있을까? 제비꽃은 제비꽃으로 피어있으면 그만이다.

3. 정서가 깊을수록 경지가 넓어진다

몰입의 메커니즘: 긴장이완해결


  • 의문: 긴장을 길게 유지해야 하는 것 아닐까? 시각적 정보가 패턴으로 연결되는 것 아닐까?
  • 결론: 무의식의 작용이 필수적이다.
  • 핵심 철학: (정서가) 깊을수록 학문의 경지가 넓어진다.

* 참고 인물: 아쿠타가와 류노스케, 나쓰메 소세키, 니시다 기타로
* 비교 통찰: 동양 vs 서양 / 정서 vs 영감



Thinking with Gemini

'교양' 카테고리의 다른 글

우리 집 보물창고  (0) 2025.12.06
김 교수님은 왜  (0) 2025.11.15
About 젠슨 황  (0) 2025.11.15

수학과 물리학이 '같은 개념'을 바라보는 두 가지 시선

순수 수학(Pure Mathematics)과 이론 물리학(Theoretical Physics)은 같은 언어를 공유하지만, 그 언어를 사용하는 목적과 철학에는 근본적인 차이가 있습니다. 수학적 엄밀함과 물리적 실재성 사이에서, 핵심 개념들(Tensor, Group, Hilbert Space)이 어떻게 다르게 정의되고 해석되는지 정리해 봅니다.


1. 근본적인 접근 방식 (Philosophy)

두 학문은 정의를 내리는 출발점부터 다릅니다.

  • 순수 수학 (Pure Math): 공리(Axioms)와 논리적 구조가 기준입니다. "정의된 규칙 안에서 모순 없이 성립하는가?"를 탐구하며, 절대적인 엄밀성을 추구합니다.
  • 물리학 (Physics): 관측(Observation)과 자연 현상이 기준입니다. "이것이 실재(Reality)와 대응되는가?"가 중요하며, 현상을 설명하기 위해 수학적 도구를 가져다 씁니다.

2. 텐서 (Tensor)

텐서는 두 학문의 관점 차이가 가장 극명하게 드러나는 개념입니다.

Math: 다중 선형 사상 (Multilinear Map)

수학자에게 텐서는 벡터 공간 $V$와 그 쌍대 공간 $V^*$ 사이의 함수입니다.

$$T: V^* \times \dots \times V^* \times V \times \dots \times V \to \mathbb{R}$$

핵심: Coordinate-free (좌표계 무관). 기저(Basis)를 정하지 않아도 텐서 자체는 대수적으로 존재합니다. 성분은 나중에 기저를 선택했을 때 나타나는 그림자일 뿐입니다.

Physics: 좌표 변환의 불변량 (Transformation Rule)

물리학자에게 텐서는 좌표계가 바뀔 때($x \to x'$) 특정 규칙에 따라 변환되는 물리량입니다.

$$T'^{\mu\nu} = \frac{\partial x'^\mu}{\partial x^\alpha} \frac{\partial x'^\nu}{\partial x^\beta} T^{\alpha\beta}$$

핵심: Invariance (불변성). "좌표를 돌려도 물리 법칙이 깨지지 않는가?"가 중요합니다. 응력(Stress)이나 전자기장과 같은 물리적 실체를 기술합니다.


3. 군론 (Group Theory)

Math: 대수적 구조의 탐구 (Structure)

집합 $G$와 연산이 4가지 공리(닫힘, 결합법칙, 항등원, 역원)를 만족하면 군입니다.

핵심: Classification (분류). 유한 단순군의 분류처럼, 추상적인 구조 그 자체를 연구합니다. 대상이 정수이든 행렬이든 구조가 같으면 같은 것(Isomorphic)으로 취급합니다.

Physics: 대칭성과 보존 법칙 (Symmetry)

시스템을 변환시켰을 때 물리 법칙이 변하지 않는 성질, 즉 '대칭성'을 기술하는 언어입니다.

핵심: Noether's Theorem (뇌터 정리). 대칭성은 곧 보존 법칙을 의미합니다. (예: 시간 대칭 $\to$ 에너지 보존, 공간 회전 대칭 $\to$ 각운동량 보존)


4. 힐베르트 공간 (Hilbert Space)

Math: 완비 내적 공간 (Complete Inner Product Space)

거리와 각도가 정의되며, 극한을 취했을 때 그 극한값이 공간 밖으로 빠져나가지 않는(Complete) 무한 차원 공간입니다.

핵심: Convergence (수렴성). 무한 급수가 수렴하는지, 해가 존재하는지를 따지는 해석학적 엄밀함이 중요합니다 ($L^2$ 공간 등).

Physics: 양자 상태의 공간 (Quantum State Space)

관측 가능한 양자 상태(파동함수)들이 거주하는 공간입니다.

핵심: Superposition & Probability (중첩과 확률). 상태를 더할 수 있다는 점(벡터 공간)은 양자 중첩을 설명하며, 공간의 완비성은 확률 보존(총합 1)을 수학적으로 보장합니다.


요약 (Summary)

개념 순수 수학 (Pure Math) 물리학 (Physics)
Tensor 다중 선형 사상 (기저 무관) 좌표 변환 규칙을 따르는 물리량
Group 공리를 만족하는 대수적 구조 대칭성과 보존 법칙
Hilbert Space 함수 해석학의 완비 내적 공간 양자 역학의 상태 공간

이 글은 수학적 정의와 물리적 직관 사이의 연결 고리를 이해하기 위해 작성되었습니다.

Baby Rudin 독학 노트: Ch.2 Basic Topology (Compact Set & 오답노트)

Principles of Mathematical Analysis (Rudin) 1~2장 학습 점검 및 심화 정리

본 포스팅은 Principles of Mathematical Analysis (일명 Baby Rudin)를 독학하며 작성한 학습 노트의 내용을 바탕으로, 개념이 모호했던 Compact Set(콤팩트 집합) 파트를 보강하고, 오개념을 수정한 오답 노트입니다.


1. Compact Set (콤팩트 집합) 핵심 정리

노트 마지막 부분인 2.31부터 2.42까지의 내용을 정리합니다. [cite_start]해석학에서 가장 중요하고 추상적인 개념인 만큼 정확한 정의가 필수적입니다[cite: 522].

2.31 Definition: Open Cover (열린 덮개)

거리 공간 $X$의 부분집합 $E$가 있을 때, 어떤 열린 집합들의 모임 $\{G_\alpha\}$가 $E \subset \bigcup_\alpha G_\alpha$를 만족하면, $\{G_\alpha\}$를 $E$의 Open cover라고 합니다.

2.32 Definition: Compact (콤팩트) ★

집합 $K$의 "모든" 열린 덮개(Open cover)가 "유한한" 부분 덮개(Finite subcover)를 가질 때, $K$를 Compact하다고 합니다.

👉 의미: 무한히 많은 열린 집합으로 덮더라도, 그중 유한 개만으로도 충분히 덮을 수 있다는 뜻. (무한을 유한으로 다루는 도구)

  • 2.33 Compactness is Intrinsic: $K \subset Y \subset X$일 때, $K$가 $X$에서 콤팩트인 것과 $Y$에서 콤팩트인 것은 동치입니다. (전체 공간에 의존하지 않는 절대적 성질)
  • 2.34 Theorem: 콤팩트 집합의 부분집합들은 모두 Closed(닫힌 집합)입니다.
  • 2.35 Theorem: 콤팩트 집합 $K$의 닫힌 부분집합 $F$는 Compact입니다.
  • 2.36 Finite Intersection Property: 콤팩트 집합 내의 닫힌 집합들이 유한 교차 성질을 가지면, 전체 교집합도 공집합이 아닙니다.
  • 2.38 & 2.40 k-Cells: $\mathbb{R}^k$ 상의 k-cell(폐구간 직육면체)은 Compact입니다.

2.41 Theorem: Heine-Borel Theorem (하이네-보렐 정리)

[cite_start]

유클리드 공간 $\mathbb{R}^k$의 부분집합 $E$에 대하여 다음 두 명제는 동치입니다[cite: 522].

  1. $E$ is Closed and Bounded (닫혀있고 유계이다).
  2. $E$ is Compact.

※ 중요: 추상적인 'Compact' 개념을 우리가 직관적으로 아는 'Closed & Bounded'로 판별할 수 있게 해주는 강력한 정리입니다. (단, $\mathbb{R}^k$에서만 성립)


2. 오답 노트 (Correction Log)

학습 노트 작성 중 발생한 오개념이나 모호한 부분을 교정합니다.

[cite_start]

① Dedekind Cuts (데데킨트 절단) [cite: 282, 291]

User Note: "유리수를 특정 지점에서 잘라서 끊임없이 근사해서 새로운 수에 접근시킬 계획인가?"

Correction: '근사(Approximation)'가 아니라 '정의(Definition)' 그 자체입니다. $\sqrt{2}$로 다가가는 것이 아니라, $p^2 < 2$인 유리수 집합(Cut) 그 덩어리를 $\sqrt{2}$라는 실수로 정의해버리는 방식입니다.

[cite_start]

② Sup/Inf의 포함 관계 [cite: 512, 518]

User Note: "half-closed도 되지 않다? inf는 아니지만."

Correction: 집합 $E$가 유계라면 $\sup E$와 $\inf E$는 실수 상에 반드시 존재합니다. 하지만 그것이 집합 $E$ 안에 포함되느냐는 $E$가 Closed일 때만 보장됩니다. (예: $(0, 1)$의 $\sup$은 1이지만 $1 \notin (0, 1)$)


3. Note 확장: 차원과 대수 구조

[cite_start]

노트 여백에 적혀있던 "11차원, 4원수, 2차원 연산"에 대한 심화 해설입니다[cite: 453, 462].

  • Q. 2차원 이상의 공간($\mathbb{R}^k$)에서 곱셈은?
    일반적인 벡터 공간 $\mathbb{R}^k$에서는 벡터 간의 곱셈이 정의되지 않습니다. 하지만 $\mathbb{R}^2$에 특수한 곱셈 규칙($(a,b) \times (c,d) = \dots$)을 부여하여 복소평면($\mathbb{C}$)이라는 '체(Field)'를 만듭니다.
  • Q. [cite_start]4원수(Quaternions, $\mathbb{H}$)란? [cite: 455]
    $\mathbb{R}^4$ 공간에 곱셈 구조를 부여한 것입니다. 하지만 치명적인 대가가 따르는데, 바로 "교환법칙이 성립하지 않는다($ij \neq ji$)"는 점입니다. 따라서 Field가 아닌 Division Ring(나눗셈 환)으로 분류됩니다.
  • Q. [cite_start]11차원 등의 고차원 연산? [cite: 457]
    수학적으로 실수 위에서 '거리(크기)를 보존하며 나눗셈이 가능한 구조'는 1, 2, 4, 8차원($\mathbb{R}, \mathbb{C}, \mathbb{H}, \mathbb{O}$)까지만 존재한다는 것이 증명되어 있습니다 (Hurwitz's Theorem). 11차원 등에서는 우리가 아는 사칙연산 체계를 완벽히 유지할 수 없습니다.

"The only way to learn mathematics is to do mathematics." - Paul Halmos

다음 단계는 Chapter 3. Numerical Sequences and Series입니다. 수열의 극한과 코시 수열로 이어집니다!

'수리과학 > Analysis' 카테고리의 다른 글

Number System  (0) 2026.01.05
[W. Rudin] 1.12-2  (0) 2025.12.15
[Rudin] PMA Chap 1 Dedekind Cut  (0) 2025.12.08

Rudin PMA: Ch 1.12 ~ Ch 2. Basic Topology 정리

Walter Rudin의 Principles of Mathematical Analysis 중, 순서체의 성질부터 위상수학의 기초(Point Set Topology)까지의 내용을 정리합니다.

Part 1. The Real and Complex Fields (Continued)

1.12 ~ 1.18 Ordered Fields (순서체의 성질)

실수체 $\mathbb{R}$은 순서체(Ordered Field)입니다. 순서 공리에 의해 다음과 같은 산술적 성질들이 유도됩니다.

주요 성질:
  • $x > 0$ 이면 $-x < 0$ 이다.
  • $x > 0$ 이고 $y < z$ 이면 $xy < xz$ 이다.
  • $x \neq 0$ 이면 $x^2 > 0$ 이다. (따라서 $1 > 0$)
  • $0 < x < y$ 이면 $0 < 1/y < 1/x$ 이다.

1.36 Euclidean Spaces (유클리드 공간 $\mathbb{R}^k$)

$\mathbb{R}^k$는 모든 $k$-tuples $\mathbf{x} = (x_1, \dots, x_k)$의 집합으로 정의되며, 벡터 공간의 성질을 가집니다.

Definition (Inner Product & Norm):
$\mathbf{x}, \mathbf{y} \in \mathbb{R}^k$에 대하여, $$ \mathbf{x} \cdot \mathbf{y} = \sum_{i=1}^k x_i y_i, \quad |\mathbf{x}| = (\mathbf{x} \cdot \mathbf{x})^{1/2} $$
Theorem 1.37 (Cauchy-Schwarz Inequality & Triangle Inequality):
  1. $|\mathbf{x} \cdot \mathbf{y}| \le |\mathbf{x}| |\mathbf{y}|$ (등호 성립 조건: 종속 관계일 때)
  2. $|\mathbf{x} + \mathbf{y}| \le |\mathbf{x}| + |\mathbf{y}|$
  3. $|\mathbf{x} - \mathbf{z}| \le |\mathbf{x} - \mathbf{y}| + |\mathbf{y} - \mathbf{z}|$

* 이 부등식들은 이후 Metric Space 거리 개념의 기초가 됩니다.


Part 2. Basic Topology (기초 위상수학)

해석학 논증의 언어가 되는 집합론적 위상수학 개념들입니다. (Metric Space 중심)

2.1 ~ 2.14 Finite, Countable, and Uncountable Sets

Countable (가산 집합): 집합 $A$가 자연수 집합 $J$ ($=\mathbb{N}$)와 일대일 대응(1-1 correspondence)이 가능하면 가산 집합이라 한다.
Key Theorems:
  • 가산 집합들의 가산 합집합(Countable union)은 가산 집합이다. (Thm 2.12)
  • 유리수 집합 $\mathbb{Q}$는 가산 집합이다.
  • Theorem 2.14: 구간 $(0, 1)$을 포함한 실수 집합 $\mathbb{R}$은 비가산 집합(Uncountable)이다. (Cantor's Diagonal Process)

2.15 ~ 2.30 Metric Spaces (거리 공간)

거리 함수 $d(p, q)$가 정의된 집합 $X$를 거리 공간이라 합니다. $\mathbb{R}^k$는 $d(\mathbf{x}, \mathbf{y}) = |\mathbf{x}-\mathbf{y}|$인 거리 공간입니다.

Topological Definitions:
$X$를 거리 공간이라 할 때:
  • Neighborhood (근방) $N_r(p)$: $d(p, q) < r$ 인 모든 $q$의 집합.
  • Limit point (극한점): $p$의 모든 근방이 $p$가 아닌 $E$의 점을 포함할 때. (즉, $p$ 주변에 $E$의 점이 무수히 많음)
  • Isolated point (고립점): $E$의 원소이지만 극한점은 아닌 점.
  • Closed (닫힌 집합): 모든 극한점을 포함하는 집합 ($E' \subset E$).
  • Open (열린 집합): 모든 점이 내점(interior point)인 집합.
  • Closure (폐포) $\bar{E}$: $E \cup E'$. 항상 닫힌 집합이다.
Theorem 2.23 & 2.24:
  • 열린 집합의 합집합은 열린 집합이다. (무한 합집합 가능)
  • 닫힌 집합의 교집합은 닫힌 집합이다. (무한 교집합 가능)
  • 열린 집합의 여집합은 닫힌 집합이며, 그 역도 성립한다 ($E$ open $\iff E^c$ closed).

2.31 ~ 2.42 Compact Sets (콤팩트 집합)

Chapter 2의 핵심 개념입니다. 유한(Finite)의 성질을 무한으로 확장한 개념으로 이해할 수 있습니다.

Compact Definition:
집합 $K$의 모든 Open Cover(열린 덮개)가 Finite Subcover(유한 부분 덮개)를 가질 때, $K$를 Compact하다고 한다.
Compactness Properties:
  • Theorem 2.34: 콤팩트 집합의 무한 부분집합은 그 콤팩트 집합 내에 극한점을 가진다.
  • Theorem 2.35: 거리 공간에서 콤팩트 집합은 항상 닫혀있고 유계(Closed and Bounded)이다.
  • 역은 일반적으로 성립하지 않으나, $\mathbb{R}^k$에서는 성립한다. (Heine-Borel Theorem)
Theorem 2.41 (Heine-Borel Theorem for $\mathbb{R}^k$):
유클리드 공간 $\mathbb{R}^k$의 부분집합 $E$에 대해 다음은 동치이다.
  1. $E$ is closed and bounded.
  2. $E$ is compact.
  3. $E$의 모든 무한 부분집합은 $E$ 안에 극한점을 가진다. (Weierstrass Theorem 관련)

2.43 ~ 2.44 Perfect Sets (완전 집합)

Definition: $P$가 닫힌 집합(closed)이면서, $P$의 모든 점이 극한점일 때 ($P = P'$), $P$를 Perfect set이라 한다.
Cantor Set: 비가산(Uncountable)이면서, 측도(Measure)가 0이고, 완전 집합인 칸토어 집합이 존재한다.

2.45 ~ 2.47 Connected Sets (연결 집합)

Definition: 두 분리된(separated) 비공허(non-empty) 열린 집합 $A, B$의 합집합으로 표현될 수 없을 때, $E$는 Connected 되었다고 한다.
Theorem 2.47:
실수 집합 $\mathbb{R}$의 부분집합 $E$가 연결 집합일 필요충분조건은 $x, y \in E$이고 $x < z < y$이면 $z \in E$인 것이다. (즉, 구간(Interval) 형태여야 한다.)

Reference: W. Rudin, Principles of Mathematical Analysis, 3rd Edition.

'수리과학 > Analysis' 카테고리의 다른 글

Number System  (0) 2026.01.05
[Rudin] 251222 학습노트 (Chap 2)  (1) 2025.12.22
[Rudin] PMA Chap 1 Dedekind Cut  (0) 2025.12.08

Orthonormal Bases (Part 3)

Based on Linear Algebra Done Right by Sheldon Axler

This post covers the concept of Orthonormal Bases, the Gram-Schmidt procedure, and important theorems like Schur's Theorem and the Riesz Representation Theorem.

(Assumption: $V$ denotes an inner product space over $F$, where $F$ is $\mathbf{R}$ or $\mathbf{C}$.)


1. Orthonormal Lists

Definition

A list of vectors in $V$ is called orthonormal if:

  1. Each vector has norm 1.
  2. Each vector is orthogonal to all other vectors in the list.

Mathematically, a list $e_1, \dots, e_m$ is orthonormal if:

$$ \langle e_j, e_k \rangle = \begin{cases} 1 & \text{if } j = k \\ 0 & \text{if } j \ne k \end{cases} $$

Key Properties

1. Norm of a Linear Combination:
If $e_1, \dots, e_m$ is an orthonormal list, then for any scalars $a_1, \dots, a_m$:

$$ \| a_1 e_1 + \dots + a_m e_m \|^2 = |a_1|^2 + \dots + |a_m|^2 $$

2. Linear Independence:
Every orthonormal list of vectors is linearly independent.

Proof Idea: If $\sum a_j e_j = 0$, then $\|\sum a_j e_j\|^2 = \sum |a_j|^2 = 0$, which implies all coefficients $a_j$ must be 0.

2. Orthonormal Bases

An orthonormal basis of $V$ is an orthonormal list of vectors that is also a basis of $V$.

Why are they important?

Orthonormal bases make finding coefficients in a linear combination extremely simple.

If $e_1, \dots, e_n$ is an orthonormal basis of $V$ and $v \in V$, then:

$$ v = \langle v, e_1 \rangle e_1 + \dots + \langle v, e_n \rangle e_n $$

And the norm of $v$ is given by:

$$ \|v\|^2 = |\langle v, e_1 \rangle|^2 + \dots + |\langle v, e_n \rangle|^2 $$

This means the coefficient of each basis vector is simply the inner product of the vector $v$ with that basis vector.


3. Gram-Schmidt Procedure

This is a standard algorithm for turning any linearly independent list into an orthonormal list with the same span.

  • Input: A linearly independent list $v_1, \dots, v_m$.
  • Output: An orthonormal list $e_1, \dots, e_m$ such that: $$ \operatorname{span}(v_1, \dots, v_j) = \operatorname{span}(e_1, \dots, e_j) \quad \text{for } j=1, \dots, m $$

Existence Theorems

Using the Gram-Schmidt procedure, we can prove:

  1. Every finite-dimensional inner product space has an orthonormal basis.
  2. Every orthonormal list of vectors in $V$ can be extended to an orthonormal basis of $V$.

4. Advanced Theorems

Schur's Theorem

Suppose $V$ is a finite-dimensional complex inner product space and $T \in \mathcal{L}(V)$. Then $T$ has an upper-triangular matrix with respect to some orthonormal basis of $V$.

Riesz Representation Theorem

Suppose $V$ is finite-dimensional. Then for every linear functional $\varphi$ on $V$ (a linear map from $V$ to $F$), there exists a unique vector $u \in V$ such that:

$$ \varphi(w) = \langle w, u \rangle $$

for every $w \in V$.


This concludes the video on orthonormal bases.

Inner Products and Norms (Part 1)

Based on Linear Algebra Done Right by Sheldon Axler

Hello, I'm Sheldon Axler, the author of Linear Algebra Done Right. This video discusses part one of the section titled "Inner Products and Norms." In this video, we will focus on inner products.

1. Standard Notation & Motivation

Let's quickly recall our standard notation. $F$ denotes either the scalar field $\mathbf{R}$ of real numbers or the scalar field $\mathbf{C}$ of complex numbers. We also let $V$ denote a vector space over $F$.

To motivate the definition of the inner product, we'll start by considering the dot product on $\mathbf{R}^n$. Specifically, we'll begin by examining the case in $\mathbf{R}^2$. We have a vector with coordinates $(x_1, x_2)$, and the length of this vector is the square root of the sum of the squares of the coordinates: $\sqrt{x_1^2 + x_2^2}$.

If we move from $\mathbf{R}^2$ to $\mathbf{R}^n$, looking at a vector $\mathbf{x} = (x_1, \dots, x_n)$, we define the norm of $\mathbf{x}$, denoted $\|\mathbf{x}\|$, to be the square root of the sum of the squares of its components:

$$ \|\mathbf{x}\| = \sqrt{\sum_{k=1}^{n} x_k^2} $$

However, linearity is not immediately apparent in this formula. To introduce linearity, we define the dot product.

Dot Product in $\mathbf{R}^n$:
For vectors $\mathbf{x}$ and $\mathbf{y}$ in $\mathbf{R}^n$, the dot product is defined as: $$ \mathbf{x} \cdot \mathbf{y} = \sum_{k=1}^{n} x_k y_k $$

We see immediately that $\mathbf{x} \cdot \mathbf{x} = \|\mathbf{x}\|^2$. Now let's look at some key properties of the dot product:

  1. For any vector $\mathbf{x} \in \mathbf{R}^n$, $\mathbf{x} \cdot \mathbf{x} \ge 0$.
  2. $\mathbf{x} \cdot \mathbf{x} = 0$ if and only if $\mathbf{x} = \mathbf{0}$.
  3. If we fix a vector $\mathbf{y} \in \mathbf{R}^n$, then the map $\mathbf{x} \mapsto \mathbf{x} \cdot \mathbf{y}$ is linear.
  4. For any vectors $\mathbf{x}, \mathbf{y} \in \mathbf{R}^n$, $\mathbf{x} \cdot \mathbf{y} = \mathbf{y} \cdot \mathbf{x}$ (Commutativity).

2. The Complex Case

The properties above form the basis for the abstract definition of an inner product. This works perfectly for real vector spaces. For complex vector spaces, however, we need to consider an additional factor.

For a vector $\mathbf{z} = (z_1, \dots, z_n)$ in $\mathbf{C}^n$, we define its norm $\|\mathbf{z}\|$ using magnitudes:

$$ \|\mathbf{z}\| = \sqrt{\sum_{k=1}^{n} |z_k|^2} $$

To recover the relationship $\|\mathbf{z}\|^2 = \langle \mathbf{z}, \mathbf{z} \rangle$, the inner product for vectors $\mathbf{w}$ and $\mathbf{z}$ in $\mathbf{C}^n$ must be defined using the complex conjugate:

$$ \langle \mathbf{w}, \mathbf{z} \rangle = \sum_{k=1}^{n} w_k \overline{z_k} $$

3. Definition of Inner Product

We are now ready to define an inner product generally for vector spaces over either $\mathbf{R}$ or $\mathbf{C}$.

Definition: Inner Product

An inner product on a vector space $V$ is a function that takes each ordered pair of vectors $(\mathbf{u}, \mathbf{v})$ in $V$ to a scalar, denoted $\langle \mathbf{u}, \mathbf{v} \rangle$, with the following properties:

  1. Non-negativity: $\langle \mathbf{v}, \mathbf{v} \rangle \ge 0$ for all $\mathbf{v} \in V$.
  2. Definiteness: $\langle \mathbf{v}, \mathbf{v} \rangle = 0$ if and only if $\mathbf{v} = \mathbf{0}$.
  3. Additivity in the first argument: $\langle \mathbf{u}_1 + \mathbf{u}_2, \mathbf{v} \rangle = \langle \mathbf{u}_1, \mathbf{v} \rangle + \langle \mathbf{u}_2, \mathbf{v} \rangle$.
  4. Homogeneity in the first argument: $\langle \lambda \mathbf{u}, \mathbf{v} \rangle = \lambda \langle \mathbf{u}, \mathbf{v} \rangle$ for all $\lambda \in F$.
  5. Conjugate Symmetry: $\langle \mathbf{u}, \mathbf{v} \rangle = \overline{\langle \mathbf{v}, \mathbf{u} \rangle}$ for all $\mathbf{u}, \mathbf{v} \in V$.

* Note: An inner product space is a vector space $V$ together with a specific inner product defined on it.

4. Examples

  1. Euclidean Inner Product on $F^n$:
    $\langle \mathbf{w}, \mathbf{z} \rangle = \sum_{k=1}^{n} w_k \overline{z_k}$.
  2. Weighted Euclidean Inner Product:
    Choose positive constants $c_1, \dots, c_n$. Define $\langle \mathbf{w}, \mathbf{z} \rangle = \sum_{k=1}^{n} c_k w_k \overline{z_k}$.
  3. Inner Product on $C([-1, 1], \mathbf{R})$:
    $\langle f, g \rangle = \int_{-1}^{1} f(x)g(x) \, dx$.
  4. Inner Product on $P(\mathbf{R})$:
    $\langle p, q \rangle = \int_{0}^{\infty} p(x)q(x) e^{-x} \, dx$.

5. Basic Properties

Based on the definition, we can derive the following properties:

  • Linearity in the first argument: For fixed $\mathbf{u}$, the map $\mathbf{v} \mapsto \langle \mathbf{v}, \mathbf{u} \rangle$ is linear.
  • Interaction with zero: $\langle \mathbf{0}, \mathbf{v} \rangle = 0$ and $\langle \mathbf{v}, \mathbf{0} \rangle = 0$.
  • Additivity in the second argument: $\langle \mathbf{u}, \mathbf{v}_1 + \mathbf{v}_2 \rangle = \langle \mathbf{u}, \mathbf{v}_1 \rangle + \langle \mathbf{u}, \mathbf{v}_2 \rangle$.
  • Conjugate Homogeneity in the second argument: $\langle \mathbf{u}, \lambda \mathbf{v} \rangle = \overline{\lambda} \langle \mathbf{u}, \mathbf{v} \rangle$.

(Note: In the real case where $F = \mathbf{R}$, the inner product is linear in the second argument as well.)


This concludes part one of the video on inner products and norms.

Inner Products and Norms (Part 2)

Based on Linear Algebra Done Right by Sheldon Axler

This discussion covers part two of the section on Inner Products and Norms. Throughout this post, we assume $V$ denotes an inner product space.

1. Definition of Norm

Definition

For a vector $v \in V$, the norm of $v$, denoted $\|v\|$, is defined as:

$$ \|v\| = \sqrt{\langle v, v \rangle} $$

Since $\langle v, v \rangle \ge 0$ by definition of the inner product, this square root is always valid.

Examples

  1. Euclidean Norm on $\mathbf{F}^n$:
    For a vector $z = (z_1, \ldots, z_n) \in \mathbf{F}^n$, using the standard inner product: $$ \|z\| = \sqrt{|z_1|^2 + \cdots + |z_n|^2} $$ (Unless specified otherwise, $\mathbf{F}^n$ is assumed to have this Euclidean norm.)
  2. Norm on Function Space:
    For continuous real-valued functions on $[-1, 1]$ with $\langle f, g \rangle = \int_{-1}^{1} f(x)g(x) \, dx$: $$ \|f\| = \sqrt{\int_{-1}^{1} (f(x))^2 \, dx} $$

2. Basic Properties of Norms

  • Positivity: $\|v\| = 0$ if and only if $v = 0$. (This follows directly from the definiteness of the inner product.)
  • Homogeneity: For any scalar $\lambda \in \mathbf{F}$, $\|\lambda v\| = |\lambda| \, \|v\|$.
Proof of Homogeneity:
$$ \|\lambda v\|^2 = \langle \lambda v, \lambda v \rangle = \lambda \langle v, \lambda v \rangle = \lambda \overline{\lambda} \langle v, v \rangle = |\lambda|^2 \|v\|^2 $$ Taking the square root of both sides gives $\|\lambda v\| = |\lambda| \, \|v\|$.

3. Orthogonality & The Pythagorean Theorem

Two vectors $u, v \in V$ are called orthogonal if $\langle u, v \rangle = 0$. This generalizes the geometric concept of perpendicularity.

  • The zero vector is orthogonal to every vector.
  • $\mathbf{0}$ is the only vector orthogonal to itself.

Pythagorean Theorem

If $u$ and $v$ are orthogonal vectors in $V$, then:

$$ \|u + v\|^2 = \|u\|^2 + \|v\|^2 $$

Proof:
$\|u + v\|^2 = \langle u + v, u + v \rangle = \langle u, u \rangle + \langle u, v \rangle + \langle v, u \rangle + \langle v, v \rangle$
Since $u, v$ are orthogonal, $\langle u, v \rangle = 0$ (and thus $\langle v, u \rangle = 0$).
Therefore, $\|u + v\|^2 = \|u\|^2 + 0 + 0 + \|v\|^2$.


4. Key Inequalities

Cauchy-Schwarz Inequality

For any vectors $u, v \in V$:

$$ |\langle u, v \rangle| \le \|u\| \, \|v\| $$

Equality holds if and only if one vector is a scalar multiple of the other.

Applications:

  • In $\mathbf{R}^n$: $( \sum u_k v_k )^2 \le ( \sum u_k^2 ) ( \sum v_k^2 )$
  • In Integrals: $( \int fg )^2 \le ( \int f^2 ) ( \int g^2 )$

Triangle Inequality

For any vectors $u, v \in V$:

$$ \|u + v\| \le \|u\| + \|v\| $$

Equality holds if and only if one vector is a non-negative real multiple of the other.

Proof (using Cauchy-Schwarz):
$$ \begin{aligned} \|u + v\|^2 &= \langle u + v, u + v \rangle \\ &= \|u\|^2 + \langle u, v \rangle + \langle v, u \rangle + \|v\|^2 \\ &= \|u\|^2 + 2\operatorname{Re}\langle u, v \rangle + \|v\|^2 \end{aligned} $$ Since $\operatorname{Re}\langle u, v \rangle \le |\langle u, v \rangle| \le \|u\|\|v\|$ (by Cauchy-Schwarz): $$ \|u + v\|^2 \le \|u\|^2 + 2\|u\|\|v\| + \|v\|^2 = (\|u\| + \|v\|)^2 $$ Taking square roots yields the result.

5. Parallelogram Identity

For any vectors $u, v \in V$:

$$ \|u + v\|^2 + \|u - v\|^2 = 2\|u\|^2 + 2\|v\|^2 $$

This identity reflects the geometry of a parallelogram: the sum of the squares of the lengths of the diagonals ($u+v$ and $u-v$) equals the sum of the squares of the lengths of the four sides.

Proof:
Expand $\|u + v\|^2 + \|u - v\|^2$: $$ (\|u\|^2 + \langle u, v \rangle + \langle v, u \rangle + \|v\|^2) + (\|u\|^2 - \langle u, v \rangle - \langle v, u \rangle + \|v\|^2) $$ The cross terms cancel out, leaving $2\|u\|^2 + 2\|v\|^2$.

This concludes part two on inner products.

Eigenvalues, Eigenvectors, and Invariant Subspaces (Part 2 & 3)

Based on Linear Algebra Done Right

This post covers the definition of the matrix of an operator, the properties of upper triangular matrices, and the concept of eigenspaces.


1. The Matrix of an Operator

Previously, defining the matrix of a linear map from one vector space to another required two bases. However, for an operator (a linear map $T: V \to V$), we use a single basis.

Definition

Let $v_1, \dots, v_n$ be a basis of $V$. The matrix of the operator $T$ with respect to this basis is the $n \times n$ matrix determined by:

$$ T(v_k) = A_{1,k}v_1 + \dots + A_{n,k}v_n $$

The coefficients of this linear combination form the $k$-th column of the matrix.

  • It is computed using a single basis of $V$.
  • It is always a square matrix ($n \times n$).

2. Upper Triangular Matrix

A matrix is called upper triangular if all entries below the diagonal are zero (i.e., $A_{j,k} = 0$ if $j > k$).

Example Calculation:
Define $T \in \mathcal{L}(\mathbf{R}^3)$ by $T(x, y, z) = (2x + y, 5y + 3z, 8z)$.
Using the standard basis $(1,0,0), (0,1,0), (0,0,1)$:
  • $T(1,0,0) = (2,0,0) \implies$ Col 1: $[2, 0, 0]^T$
  • $T(0,1,0) = (1,5,0) \implies$ Col 2: $[1, 5, 0]^T$
  • $T(0,0,1) = (0,3,8) \implies$ Col 3: $[0, 3, 8]^T$
The resulting matrix $\mathcal{M}(T)$ is: $$ \begin{bmatrix} 2 & 1 & 0 \\ 0 & 5 & 3 \\ 0 & 0 & 8 \end{bmatrix} $$ Since all entries below the diagonal are zero, this is upper triangular.

Theorem: Conditions for Upper Triangular Matrix

Let $T \in \mathcal{L}(V)$ and let $v_1, \dots, v_n$ be a basis for $V$. The following are equivalent:

  1. The matrix of $T$ with respect to this basis is upper triangular.
  2. $T(v_j) \in \operatorname{span}(v_1, \dots, v_j)$ for each $j = 1, \dots, n$.
  3. $\operatorname{span}(v_1, \dots, v_j)$ is invariant under $T$ for each $j = 1, \dots, n$.

Theorem: Existence of Upper-Triangular Form

If $V$ is a finite-dimensional complex vector space and $T \in \mathcal{L}(V)$, then there exists a basis of $V$ such that the matrix of $T$ is upper triangular.

*(Note: This requires a complex vector space because operators on real vector spaces may not have eigenvalues.)*

Connection to Eigenvalues: If the matrix of $T$ is upper triangular, the eigenvalues of $T$ are exactly the entries on the diagonal. (In the example above, eigenvalues are 2, 5, and 8.)


3. Eigenspaces and Diagonal Matrices

Diagonal Matrix

A diagonal matrix is a square matrix where all entries off the diagonal are zero. (Every diagonal matrix is upper triangular.)

$$ \begin{bmatrix} 8 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 5 \end{bmatrix} $$

If an operator has a diagonal matrix with respect to some basis, the diagonal entries are its eigenvalues.

Eigenspaces

For $\lambda \in F$, the eigenspace of $T$ corresponding to $\lambda$ is defined as:

$$ E(\lambda, T) = \operatorname{null}(T - \lambda I) $$

This subspace contains all eigenvectors corresponding to $\lambda$, plus the zero vector.

Example:
If $\mathcal{M}(T)$ with respect to $v_1, v_2, v_3$ is the diagonal matrix above (entries 8, 5, 5):
  • $E(8, T) = \operatorname{span}(v_1)$
  • $E(5, T) = \operatorname{span}(v_2, v_3)$

Theorem: Sum of Eigenspaces

Let $V$ be finite-dimensional and let $\lambda_1, \dots, \lambda_m$ be distinct eigenvalues of $T$. Then:

  1. The sum of the eigenspaces is a direct sum: $$ E(\lambda_1, T) + \dots + E(\lambda_m, T) $$
  2. $\dim(E(\lambda_1, T)) + \dots + \dim(E(\lambda_m, T)) \le \dim V$.

This theorem implies that eigenvectors corresponding to distinct eigenvalues are linearly independent.


This concludes the summary of Part 2 & 3.

Eigenvectors and Upper-Triangular Matrices (Part 1)

Based on Linear Algebra Done Right by Sheldon Axler

This post covers the foundational concepts required to understand eigenvalues and eigenvectors, including operator polynomials, and presents the proof for the existence of eigenvalues over complex vector spaces.


1. Notation and Terminology

  • $\mathbf{F}$ : Denotes either the real field $\mathbf{R}$ or the complex field $\mathbf{C}$.
  • $V$ : A vector space over $\mathbf{F}$.
  • Operator : A linear map from a vector space to itself ($T: V \to V$).
  • $\mathcal{L}(V)$ : The set of all operators on $V$.

2. Powers of an Operator

For an operator $T \in \mathcal{L}(V)$ and a positive integer $m$:

  • $T^m = \underbrace{T \circ \dots \circ T}_{m \text{ times}}$ (Composition of maps).
  • $T^0 = I$ (Identity operator).
  • If $T$ is invertible, $T^{-m} = (T^{-1})^m$.

Exponent Rules:
$T^m \circ T^n = T^{m+n}$
$(T^m)^n = T^{mn}$


3. Polynomials Applied to Operators

Let $p(z) = a_0 + a_1 z + \dots + a_m z^m$ be a polynomial with coefficients in $\mathbf{F}$. We define $p(T)$ as:

$$ p(T) = a_0 I + a_1 T + \dots + a_m T^m $$
Example: Differentiation Operator
Let $P(\mathbf{R})$ be the space of real polynomials and let $D$ be the differentiation operator ($Dp = p'$).
If $p(x) = 7 - 3x + 5x^2$, then according to the definition:
$$ p(D) = 7I - 3D + 5D^2 $$ Applying this to a polynomial $q$: $$ p(D)(q) = 7q - 3q' + 5q'' $$

Algebraic Properties

The map $p \mapsto p(T)$ is a linear map from $P(\mathbf{F})$ to $\mathcal{L}(V)$. A crucial property is multiplicativity:

$$ (pq)(T) = p(T) \circ q(T) $$

Corollary (Commutativity):
Any two polynomials in $T$ commute with each other. $$ p(T) \circ q(T) = q(T) \circ p(T) $$ Since operator multiplication is generally not commutative, this property is very useful.


4. Existence of Eigenvalues

Theorem

Every operator on a finite-dimensional, nonzero, complex vector space has an eigenvalue.

Important Constraints

  • Real Vector Spaces: False. Consider rotation by $90^\circ$ on $\mathbf{R}^2$ ($T(x, y) = (-y, x)$). It has no real eigenvalues because no non-zero vector is mapped to a scalar multiple of itself.
  • Infinite-dimensional Spaces: False. Consider the multiplication operator on complex polynomials defined by $(Tp)(z) = z \cdot p(z)$.

Proof (Without Determinants)

Let $V$ be a complex vector space with $\dim V = n > 0$, and $T \in \mathcal{L}(V)$.

  1. Choose a nonzero vector $v \in V$.
  2. Consider the list of $n+1$ vectors: $(v, Tv, T^2v, \dots, T^n v)$.
  3. Since $\dim V = n$, this list is linearly dependent. Thus, there exist scalars $a_0, \dots, a_n \in \mathbf{C}$ (not all zero) such that: $$ a_0 v + a_1 Tv + \dots + a_n T^n v = 0 $$
  4. Let $p(z) = a_0 + a_1 z + \dots + a_n z^n$. By the Fundamental Theorem of Algebra, we can factor $p(z)$: $$ p(z) = c(z - \lambda_1) \dots (z - \lambda_m) $$
  5. Substituting $T$ for $z$, the equation becomes: $$ c(T - \lambda_1 I) \dots (T - \lambda_m I)v = 0 $$
  6. Since $c \ne 0$ and $v \ne 0$, the operator product applied to $v$ is zero. This implies that at least one of the factors, say $(T - \lambda_j I)$, is not injective.
  7. If $(T - \lambda_j I)$ is not injective, then its null space is non-trivial. Thus, $\lambda_j$ is an eigenvalue. $\blacksquare$
Note on Determinants:
Most textbooks prove this using the characteristic polynomial $\det(\lambda I - T)$. This book avoids that approach to define eigenvalues directly from the geometry and structure of vector spaces, without relying on the complex definition of determinants early on.

+ Recent posts