Lineare Abhängigkeit und lineare Unabhängigkeit

Lineare Abhängigkeit und lineare Unabhängigkeit

Linearität ist ein wichtiges Konzept in der linearen Algebra. In diesem Artikel werden wir uns mit dem Thema der linearen Abhängigkeit und Unabhängigkeit von Vektoren beschäftigen. Wir werden uns Beispiele aus dem $mathbb{R}^2$ und $mathbb{R}^3$ ansehen und sehen, wie die Determinante mit der linearen Unabhängigkeit zusammenhängt.

Definition der linearen Unabhängigkeit

Vektoren $vec{v_1}, …, vec{v_n}$ sind linear unabhängig, wenn ihre Linearkombination nur dann den Nullvektor ergibt, wenn alle Koeffizienten null sind. Andernfalls sind sie linear abhängig. Anders ausgedrückt, sind Vektoren linear abhängig, wenn sich einer der Vektoren als Linearkombination der anderen darstellen lässt.

Lineare Unabhängigkeit oder Abhängigkeit im $mathbb{R}^2$

Ein Vektor im $mathbb{R}^2$ kann in der Form $vec v = begin{pmatrix} v_x v_y end{pmatrix}$ geschrieben werden.

Beispiel für lineare Unabhängigkeit

Nehmen wir als Beispiel die Vektoren $vec u = begin{pmatrix} 1 -1 end{pmatrix}$ und $vec v = begin{pmatrix} 1 1 end{pmatrix}$. Um ihre lineare Unabhängigkeit zu überprüfen, setzen wir $alpha cdot begin{pmatrix} 1 -1 end{pmatrix} + beta cdot begin{pmatrix} 1 1 end{pmatrix} = begin{pmatrix} 0 0 end{pmatrix}$. Dies führt zu den Gleichungen $alpha + beta = 0$ und $-alpha + beta = 0$. Durch Addition dieser beiden Gleichungen erhalten wir $2beta = 0$, also $beta = 0$. Wenn wir $beta = 0$ in die obere Gleichung einsetzen, erhalten wir $alpha = 0$. Daher sind die beiden Vektoren $vec u$ und $vec v$ linear unabhängig.

Beispiel für lineare Abhängigkeit

Im Allgemeinen sind im $mathbb{R}^2$ zwei Vektoren immer linear abhängig. Betrachten wir die Vektoren $vec u = begin{pmatrix} 1 -1 end{pmatrix}$, $vec v = begin{pmatrix} 1 1 end{pmatrix}$ und $vec w = begin{pmatrix} 1 3 end{pmatrix}$. Wir wollen überprüfen, ob sich $vec w$ als Linearkombination von $vec u$ und $vec v$ darstellen lässt. Wenn wir $alpha cdot begin{pmatrix} 1 -1 end{pmatrix} + beta cdot begin{pmatrix} 1 1 end{pmatrix} = begin{pmatrix} 1 3 end{pmatrix}$ setzen, erhalten wir die Gleichungen $alpha + beta = 1$ und $-alpha + beta = 3$. Durch Addition dieser beiden Gleichungen erhalten wir $2beta = 4$, also $beta = 2$. Setzen wir $beta = 2$ in die obere Gleichung ein, erhalten wir $alpha + 2 = 1$, also $alpha = -1$. Das bedeutet, dass sich $vec w$ tatsächlich als Linearkombination von $vec u$ und $vec v$ darstellen lässt. Damit sind diese drei Vektoren linear abhängig.

LESEN  Die Katze pinkelt ins Bett: Gründe und Lösungen

Basisvektoren im $mathbb{R}^2$

Im $mathbb{R}^2$ gibt es immer mindestens zwei linear unabhängige Vektoren. Die maximale Anzahl linear unabhängiger Vektoren ist zwei, was gleichzeitig die Dimension des Vektorraums ist. Die Basisvektoren werden als kanonische Basis bezeichnet und sind gegeben durch $vec{e_1} = begin{pmatrix} 1 0 end{pmatrix}$ und $vec{e_2} = begin{pmatrix} 0 1 end{pmatrix}$. Jeder Vektor im $mathbb{R}^2$ kann als Linearkombination dieser Basisvektoren dargestellt werden.

Bedeutung der Kollinearität

In der analytischen Geometrie werden zum Beispiel Geraden betrachtet. Zwei Geraden sind parallel, wenn ihre Richtungsvektoren kollinear sind.

Lineare Unabhängigkeit oder Abhängigkeit im $mathbb{R}^3$

Ein Vektor im $mathbb{R}^3$ kann in der Form $vec v = begin{pmatrix} v_x v_y v_z end{pmatrix}$ geschrieben werden.

Betrachten wir die Vektoren $vec u = begin{pmatrix} 1 -1 0 end{pmatrix}$, $vec v = begin{pmatrix} 1 1 2 end{pmatrix}$ und $vec w = begin{pmatrix} 2 0 2 end{pmatrix}$. Um ihre lineare Unabhängigkeit zu überprüfen, setzen wir $alpha cdot begin{pmatrix} 1 -1 0 end{pmatrix} + beta cdot begin{pmatrix} 1 1 2 end{pmatrix} + gamma cdot begin{pmatrix} 2 0 2 end{pmatrix} = begin{pmatrix} 0 0 0 end{pmatrix}$. Dies führt zu den Gleichungen $alpha + beta + 2gamma = 0$, $-alpha + beta = 0$ und $2beta + 2gamma = 0$. Die letzten beiden Gleichungen können umgeformt werden zu $alpha = beta$ und $gamma = -beta$. Setzen wir dies in die obere Gleichung ein, erhalten wir $beta + beta – 2beta = 0$, also $0 = 0$. Das bedeutet, dass $beta$ frei gewählt werden kann, zum Beispiel $beta = 1$. Damit folgt $alpha = 1$ und $gamma = -1$. Die drei Vektoren sind also linear abhängig.

Basisvektoren im $mathbb{R}^3$

Auch im $mathbb{R}^3$ ist die maximale Anzahl linear unabhängiger Vektoren gleich drei, was der Dimension des Vektorraums entspricht. Die kanonische Basis des $mathbb{R}^3$ besteht aus den Einheitsvektoren:

  • $vec{e_1} = begin{pmatrix} 1 0 0 end{pmatrix}$
  • $vec{e_2} = begin{pmatrix} 0 1 0 end{pmatrix}$
  • $vec{e_3} = begin{pmatrix} 0 0 1 end{pmatrix}$
LESEN  3-Schicht-Parkett: Die Vorteile dieses Bodenbelags einfach erklärt!

Der Zusammenhang zwischen der Determinante und der linearen Unabhängigkeit

Die lineare Unabhängigkeit von Vektoren kann mithilfe der Determinante überprüft werden. Wenn die Determinante ungleich null ist, sind die Vektoren linear unabhängig. Ist die Determinante gleich null, sind die Vektoren linear abhängig. Um dies zu veranschaulichen, betrachten wir die Vektoren $vec v = begin{pmatrix} 1 1 end{pmatrix}$ und $vec w = begin{pmatrix} 1 3 end{pmatrix}$. Die Determinante der Matrix $ begin{pmatrix} 1 & 1 1 & 3 end{pmatrix}$ ergibt sich zu $1 cdot 3 – 1 cdot 1 = 2 neq 0$. Daher sind die beiden Vektoren $vec v$ und $vec w$ linear unabhängig.

Mit diesem Wissen kannst du nun die lineare Unabhängigkeit von Vektoren im $mathbb{R}^2$ und $mathbb{R}^3$ überprüfen und verstehen, wie dies mit der Determinante zusammenhängt.