Matrizen und Transformationen

Siehe 02 Lecture.pdf

Lemma 1.28

Wenn $m$ Vektoren $v_1, \ldots, v_m \in \mathbb{R}^m$ linear unabhängig sind, dann spannen sie den ganzen Raum auf:

$$
\text{Span}(v_1,\ldots,v_m) = \mathbb{R}^m
$$

Das ist eine Vorstufe des Steinitz-Austausch-Lemmas, das später formell behandelt wird.


Wichtige spezielle Matrizen (Definition 2.3)

NameBedingungBeispiel
Identität $I$$a_{ij} = \delta_{ij}$$\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}$
Diagonalmatrixnur Hauptdiagonale $\neq 0$$\begin{bmatrix} 2 & 0 & 0 \\ 0 & 4 & 0 \\ 0 & 0 & 5 \end{bmatrix}$
Obere Dreiecksmatrix$a_{ij} = 0$ für $i > j$$\begin{bmatrix} 2 & 1 & 0 \\ 0 & 4 & 7 \\ 0 & 0 & 5 \end{bmatrix}$
Untere Dreiecksmatrix$a_{ij} = 0$ für $i < j$$\begin{bmatrix} 2 & 0 & 0 \\ 1 & 4 & 0 \\ 0 & 7 & 5 \end{bmatrix}$
Symmetrisch$A = A^T$$\begin{bmatrix} 2 & 1 & 0 \\ 1 & 4 & 7 \\ 0 & 7 & 5 \end{bmatrix}$

Beobachtung 2.5

  1. Ein Vektor $b \in \mathbb{R}^m$ ist genau dann eine Linearkombination der Spalten von $A$, wenn es ein $x$ mit $Ax = b$ gibt.
    → Alle $b$, die man durch $Ax$ erreichen kann, sind im Spaltenraum von $A$.
  2. Die Spalten von $A$ sind linear unabhängig, genau dann, wenn die einzige Lösung von $Ax = 0$ der Nullvektor ist.

2. Zusammenhang: Span ↔ Spaltenraum

Wenn du eine Matrix $A = [v_1\ v_2\ \cdots\ v_n]$ hast, dann sind ihre Spalten $v_j \in \mathbb{R}^m$.
Der Spaltenraum (engl. column space) ist also genau der Span dieser Spalten:

$$
C(A) = \text{Span}(v_1, v_2, \ldots, v_n)
$$

oder äquivalent:

$$
C(A) = \{Ax : x \in \mathbb{R}^n\}
$$

Diese Formel bedeutet…

Der Spaltenraum ist die Menge aller Ergebnisse, die du erhältst, wenn du $A$ auf alle möglichen Vektoren $x$ anwendest.

Da $Ax = x_1 v_1 + x_2 v_2 + \cdots + x_n v_n$, ist das genau der gleiche Ausdruck wie der Span oben – nur in anderer Notation.


3. Zusammengefasst

BegriffWas es istBeispiel
Spaneine Operation auf Vektoren$\text{Span}(v_1, v_2, v_3)$
Spaltenraumdas Ergebnis dieser Operation auf die Spalten einer Matrix$\text{Col}(A) = \text{Span}(\text{Spalten von } A)$

Lemma 2.19 – Linearität

Für jedes $A \in \mathbb{R}^{m \times n}$, $x_1, x_2 \in \mathbb{R}^n$ und $A_1, A_2 \in \mathbb{R}$ gilt:

$$
A (\lambda_1 x_1 + \lambda_2 x_2) = \lambda_1 A x_1 + \lambda_2 A x_2
$$

Das heißt:

$$
T_A (\lambda_1 x_1 + \lambda_2 x_2) = \lambda_1 T_A(x_1) + \lambda_2 T_A(x_2)
$$

Interpretation:
Eine Matrix-Transformation ist immer linear — sie respektiert Addition und Skalierung.


3 Zur Schreibweise $T_A(x) = Ax$

Das ist einfach eine Funktionsschreibweise:

  • $T_A$ ist der Name der Abbildung (die zur Matrix $A$ gehört)
  • $x$ ist der Input-Vektor
  • $Ax$ ist die Berechnungsvorschrift

Man liest das:

„Die lineare Transformation $T_A$ bildet den Vektor $x$ ab auf $Ax$.“

Beispiel:

Sei

$$
A = \begin{bmatrix}
0 & 1 \\
1 & 0
\end{bmatrix}
$$

Dann gilt:

$$
T_A(x_1, x_2) = A \begin{pmatrix} x_1 \ x_2 \end{pmatrix} = \begin{pmatrix} x_2 \ x_1 \end{pmatrix}
$$

Also:

$$
T_A(x_1, x_2) = (x_2, x_1)
$$

Das ist eine Spiegelung an der Diagonalen $x = y$.


Siehe 03 Lecture.pdf

Alternative Form (Lemma 2.23):
Man kann das Axiom auch in zwei einfacheren Regeln schreiben:

  1. $T(x + x’) = T(x) + T(x’)$
  2. $T(\lambda x) = \lambda T(x)$

Wenn beide gelten, ist $T$ linear.


Observation 2.22

Jede Matrixtransformation $T_A(x) = Ax$ ist eine lineare Transformation.

Begründung:
Die Matrixmultiplikation erfüllt genau die zwei Regeln oben:

$$
A (\lambda_1 x_1 + \lambda_2 x_2) = \lambda_1 A x_1 + \lambda_2 A x_2
$$


Grundidee: „Kombinieren zweier Transformationen“

Im PDF steht zuerst eine kleine Illustration:
B streckt, A spiegelt, C ist das Ergebnis beider nacheinander.

Man hat also:

$$
x \xrightarrow{T_B} Bx \xrightarrow{T_A} A(Bx)
$$

Zusammen ergibt das:

$$
T_C(x) = T_A(T_B(x)) = A(Bx)
$$

Man nennt das die Komposition:

$$
T_C = T_A \circ T_B
$$

(„erst B, dann A“).


Die Einheitsmatrix (oder Identitätsmatrix)

Die Matrix, die nichts verändert, wenn du sie mit einem Vektor oder einer anderen Matrix multiplizierst.

Man schreibt sie meist als $I$.

Für $2 \times 2$ ist sie:

$$
I =
\begin{bmatrix}
1 & 0 \\
0 & 1
\end{bmatrix}
$$