Siehe 02 Lecture.pdf
Lemma 1.28
Wenn $m$ Vektoren $v_1, \ldots, v_m \in \mathbb{R}^m$ linear unabhängig sind, dann spannen sie den ganzen Raum auf:
$$
\text{Span}(v_1,\ldots,v_m) = \mathbb{R}^m
$$
Das ist eine Vorstufe des Steinitz-Austausch-Lemmas, das später formell behandelt wird.
Wichtige spezielle Matrizen (Definition 2.3)
| Name | Bedingung | Beispiel |
|---|---|---|
| Identität $I$ | $a_{ij} = \delta_{ij}$ | $\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}$ |
| Diagonalmatrix | nur Hauptdiagonale $\neq 0$ | $\begin{bmatrix} 2 & 0 & 0 \\ 0 & 4 & 0 \\ 0 & 0 & 5 \end{bmatrix}$ |
| Obere Dreiecksmatrix | $a_{ij} = 0$ für $i > j$ | $\begin{bmatrix} 2 & 1 & 0 \\ 0 & 4 & 7 \\ 0 & 0 & 5 \end{bmatrix}$ |
| Untere Dreiecksmatrix | $a_{ij} = 0$ für $i < j$ | $\begin{bmatrix} 2 & 0 & 0 \\ 1 & 4 & 0 \\ 0 & 7 & 5 \end{bmatrix}$ |
| Symmetrisch | $A = A^T$ | $\begin{bmatrix} 2 & 1 & 0 \\ 1 & 4 & 7 \\ 0 & 7 & 5 \end{bmatrix}$ |
Beobachtung 2.5
- Ein Vektor $b \in \mathbb{R}^m$ ist genau dann eine Linearkombination der Spalten von $A$, wenn es ein $x$ mit $Ax = b$ gibt.
→ Alle $b$, die man durch $Ax$ erreichen kann, sind im Spaltenraum von $A$. - Die Spalten von $A$ sind linear unabhängig, genau dann, wenn die einzige Lösung von $Ax = 0$ der Nullvektor ist.
2. Zusammenhang: Span ↔ Spaltenraum
Wenn du eine Matrix $A = [v_1\ v_2\ \cdots\ v_n]$ hast, dann sind ihre Spalten $v_j \in \mathbb{R}^m$.
Der Spaltenraum (engl. column space) ist also genau der Span dieser Spalten:
$$
C(A) = \text{Span}(v_1, v_2, \ldots, v_n)
$$
oder äquivalent:
$$
C(A) = \{Ax : x \in \mathbb{R}^n\}
$$
Diese Formel bedeutet…
Der Spaltenraum ist die Menge aller Ergebnisse, die du erhältst, wenn du $A$ auf alle möglichen Vektoren $x$ anwendest.
Da $Ax = x_1 v_1 + x_2 v_2 + \cdots + x_n v_n$, ist das genau der gleiche Ausdruck wie der Span oben – nur in anderer Notation.
3. Zusammengefasst
| Begriff | Was es ist | Beispiel |
|---|---|---|
| Span | eine Operation auf Vektoren | $\text{Span}(v_1, v_2, v_3)$ |
| Spaltenraum | das Ergebnis dieser Operation auf die Spalten einer Matrix | $\text{Col}(A) = \text{Span}(\text{Spalten von } A)$ |
Lemma 2.19 – Linearität
Für jedes $A \in \mathbb{R}^{m \times n}$, $x_1, x_2 \in \mathbb{R}^n$ und $A_1, A_2 \in \mathbb{R}$ gilt:
$$
A (\lambda_1 x_1 + \lambda_2 x_2) = \lambda_1 A x_1 + \lambda_2 A x_2
$$
Das heißt:
$$
T_A (\lambda_1 x_1 + \lambda_2 x_2) = \lambda_1 T_A(x_1) + \lambda_2 T_A(x_2)
$$
Interpretation:
Eine Matrix-Transformation ist immer linear — sie respektiert Addition und Skalierung.
3 Zur Schreibweise $T_A(x) = Ax$
Das ist einfach eine Funktionsschreibweise:
- $T_A$ ist der Name der Abbildung (die zur Matrix $A$ gehört)
- $x$ ist der Input-Vektor
- $Ax$ ist die Berechnungsvorschrift
Man liest das:
„Die lineare Transformation $T_A$ bildet den Vektor $x$ ab auf $Ax$.“
Beispiel:
Sei
$$
A = \begin{bmatrix}
0 & 1 \\
1 & 0
\end{bmatrix}
$$
Dann gilt:
$$
T_A(x_1, x_2) = A \begin{pmatrix} x_1 \ x_2 \end{pmatrix} = \begin{pmatrix} x_2 \ x_1 \end{pmatrix}
$$
Also:
$$
T_A(x_1, x_2) = (x_2, x_1)
$$
Das ist eine Spiegelung an der Diagonalen $x = y$.
Siehe 03 Lecture.pdf
Alternative Form (Lemma 2.23):
Man kann das Axiom auch in zwei einfacheren Regeln schreiben:
- $T(x + x’) = T(x) + T(x’)$
- $T(\lambda x) = \lambda T(x)$
Wenn beide gelten, ist $T$ linear.
Observation 2.22
Jede Matrixtransformation $T_A(x) = Ax$ ist eine lineare Transformation.
Begründung:
Die Matrixmultiplikation erfüllt genau die zwei Regeln oben:
$$
A (\lambda_1 x_1 + \lambda_2 x_2) = \lambda_1 A x_1 + \lambda_2 A x_2
$$
Grundidee: „Kombinieren zweier Transformationen“
Im PDF steht zuerst eine kleine Illustration:
B streckt, A spiegelt, C ist das Ergebnis beider nacheinander.
Man hat also:
$$
x \xrightarrow{T_B} Bx \xrightarrow{T_A} A(Bx)
$$
Zusammen ergibt das:
$$
T_C(x) = T_A(T_B(x)) = A(Bx)
$$
Man nennt das die Komposition:
$$
T_C = T_A \circ T_B
$$
(„erst B, dann A“).
Die Einheitsmatrix (oder Identitätsmatrix)
Die Matrix, die nichts verändert, wenn du sie mit einem Vektor oder einer anderen Matrix multiplizierst.
Man schreibt sie meist als $I$.
Für $2 \times 2$ ist sie:
$$
I =
\begin{bmatrix}
1 & 0 \\
0 & 1
\end{bmatrix}
$$