The Fundamental Subspaces, Chapter 4 Notes

This is a very broad summary meant to give a natural language understanding of the topics. Definitely re-read the script from page 126 onwards 🙂

  • The number of independent columns equals the number of independent rows. $\text{rank}(A) = \dim(\text{Row}(A)) = \dim(\text{Col}(A))$. Somit gilt auch $\text{rank}(A)=\text{rank}(A^\top)$
  • The polynomial $0$ has the degree $-1$
  • Der Vektorraum der Polynomfunktionen ist ein Vektorraum, weil man zwei Polynome addieren und einen Polynom mit einem Skalar multiplizieren kann.
  • The vector space of polynomials is to be treated with particular care. It is a prime example of why we only allow a finite amount of linear combinations, because the sum $$\sum_{j=0}^{\infty} x^j$$is not a polynomial, as those only have finitely many different powers of x (per definition 4.3).
  • Definition 4.21: A vector space V is called finitely generated if there exists a finite subset $G ⊆ V$ with $\text{Span}(G)=V$. Es reicht, endlich viele Vektoren zu haben, um alle Vektoren des Raums daraus „zusammenzubauen“. Also z.B. $R^3$ kann man mit den drei Basiseinheitsvektoren (drei, also endlich) “zusammenbauen”. Der Vektorraum aller Polynomfunktionen ist nicht endlich erzeugt, da wir unendlich viele Potenzen brauchen wĂŒrden, um alle Polynome darzustellen, was aber per obiger Notiz nicht geht.
  • Steinitz exchange lemma: Imagine the vector space V, $F \subseteq V$ a set of linearly independent Vectors and $G\subseteq V$ a set of vectors that span V. $|F|\leq|G|$ holds (there aren’t more independent vectors in the space than those that form the basis, meaning span the space). Also, you can replace vectors (elements) of the basis with other linearly independent vectors (elements) and the basis remains being the basis. Also haben in einem fixen Vektorraum alle Basen gleich viele Vektoren (Elemente).
  • Die (alt bekannte) LinearitĂ€tsbedingung ist $$T(\lambda_1 x_1 + \lambda_2 x_2) = \lambda_1 T(x_1) + \lambda_2 T(x_2)$$
  • Ein Isomorphismus ist eine bijektive (umkehrbare) lineare Abbildung T zwischen zwei VektorrĂ€umen V und W. V und W sind also im Prinzip „derselbe Raum“, nur mit einer anderen Darstellung der Elemente. V und W haben die gleiche Dimension, wenn es einen Isomorphismus zwischen ihnen gibt. Außerdem gilt $|T(B)|=|B|$ (die Anzahl der Vektoren die wir “reingeben” ist gleich mit der Anzahl der Vektoren die wir “rausbekommen”, da bijektiv. Eine Basis bleibt nach der Transformation weiterhin eine Basis, aber fĂŒr einen anderen Raum. Somit sind die Dimensionen der beiden VektorrĂ€umen auch gleich. Siehe Theorem 4.29. z.B. Matrix flattening $$V = \mathbb{R}^{2 \times 2}, \quad W = \mathbb{R}^4, \quad T : \begin{bmatrix} a & b \\ c & d \end{bmatrix} \mapsto \begin{pmatrix} a \\ b \\ c \\ d \end{pmatrix}$$
  • Wenn $Ax = b$ eine Lösung hat, dann besteht die Lösungsmenge aus allen Vektoren, die man erhĂ€lt, wenn man eine bestimmte Lösung $s$ nimmt und alle Vektoren aus dem Nullraum $N(A)$ dazuaddiert. Das heißt: Jede Lösung sieht aus wie $s + x$, wobei $x \in N(A)$. Wenn $b = 0$, ist das einfach der Nullraum selbst; wenn $b \neq 0$, ist es derselbe Raum, nur verschoben, also ein sog. shifted nullspace.