Uploaded by Philipp Aim

Lineare Algebra Skript FSU Jena

advertisement
FSU Jena
Fakultät für Mathematik und Informatik
Lineare Algebra für IB, AIB, BIB
FMI-MA0022
Wintersemester 2024/25
Simon King
20. Januar 2025
Inhaltsverzeichnis
0 Vorrede
0.1 Vor- und Frühgeschichte der Mathematik . . . . . . . . . . . . . .
0.2 Studium als Gegensatz zur Schule . . . . . . . . . . . . . . . . . .
0.3 Prioritäten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0.4 Folgerungen für das Lehrkonzept . . . . . . . . . . . . . . . . . .
0.5 Rechnerische Anforderungen . . . . . . . . . . . . . . . . . . . . .
2
2
3
4
5
7
1 Grundlagen
1.1 Naive Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Prädikatenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Mengenkonstruktionen . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Direkte Beweise . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2 Indirekte Beweise . . . . . . . . . . . . . . . . . . . . . . .
8
8
10
15
20
20
21
2 Lineare Gleichungssysteme
2.1 Matrixnotation . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Matrixarithmetik . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Interpretation . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Lösungsräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Gauß-Elimination . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
24
26
28
29
31
36
3 Begriffe der Algebra
3.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Restklassenringe . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Die Gaußsche Zahlenebene . . . . . . . . . . . . . . . . . .
3.5 Exkurs: Warum Restklassenkörper? . . . . . . . . . . . . . . . . .
40
40
44
45
49
50
53
4 Vektorräume
4.1 Vektorraumaxiome . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Isomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Basisauswahl und -ergänzung . . . . . . . . . . . . . . . . . . . .
4.7 Dimension von Untervektorräumen . . . . . . . . . . . . . . . . .
56
56
57
59
61
64
66
68
5 Determinanten
5.1 Invertierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
76
6 Eigenwertprobleme
6.1 Eigenwerte, -vektoren und -räume . . . . . . . . . . . . . . . . . .
6.2 Eigenräume sind komplementär . . . . . . . . . . . . . . . . . . .
6.3 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
79
84
84
Literaturhinweise: Zur linearen Algebra gibt es viele Lehrbücher in verschiedenen Sprachen. Hier sind drei in deutscher Sprache erschienene Standardwerke:
• Gerd Fischer, „Lineare Algebra“, vieweg+teubner
• Max Koecher, „Lineare Algebra und analytische Geometrie“, Springer
• Hans-Joachim Kowalski, „Lineare Algebra“, Walter de Gruyter
Ich empfehle Ihnen, in der Bibliothek weitere Lehrbücher zu suchen, um zu vergleichen und zu sehen, mit welchen Sie am besten zurecht kommen.
iii
Organisatorisches
Prüfungszulassungsvoraussetzung: ist das Erreichen von insgesamt mindestens 50% der Punkte in den Hausaufgaben. Wegen Gehaltskürzungen an der
FSU genügen die Ressourcen nicht für die Bewertung von Einzelabgaben. Daher
die Hausaufgaben paarweise abgeben.
Fehlen am Ende wenige Punkte, kann dies ggf. durch Bearbeitung weiterer Aufgaben ausgeglichen werden. Um die Prüfungsanmeldung (das ist etwas anderes
als die Modulanmeldung) müssen Sie sich innerhalb einer Frist selbst kümmern.
Im Tutorium gibt es ergänzende Erklärungen zu den Vorlesungsinhalten und
Sie können in Kleingruppen „Präsenzaufgaben“ bearbeiten. Aufgrund der knappen Zeit kann nicht das Ziel sein, Präsenzaufgaben vollständig zu lösen. Stattdessen sollen Sie sich gemeinsam Begriffsbildungen klar machen, einen zum individuellen Lernstand passenden Arbeitsauftrag selbst ausdenken und Lösungsansätze
ausprobieren. Dies soll die Diskussionsfähigkeit fördern; da sie Grundlage der mathematischen Methode ist, können Sie dadurch meines Erachtens sehr profitieren.
Hausaufgaben sollen dazu anregen, sich selbständig mehrere Stunden pro Woche mit den Vorlesungsinhalten zu beschäftigen, mit Kommiliton*innen zu diskutieren, und: Mit mathematischen Texten zu arbeiten. Es ist für die Lösung von
Hausaufgaben essentiell, zu wissen, was im Skript steht. Hausaufgaben werden in
den Übungsgruppen besprochen. Auch werde ich Sie oft per Rundmail beauftragen, Skriptabschnitte zur Vorbereitung der nächsten Vorlesung zu lesen oder
ein Lehrvideo zu sehen. Übrigens: Laut Modulbeschreibung ist für selbständige
Arbeit mindestens die doppelte Zeit wie für die Präsenzlehre vorgesehen.
„Operatoren“ wie „erörtern“ oder „bestimmen“ sind Schlüsselreize im Sinne
behavioristischer Lerntheorien. Obwohl schuldidaktische Operatoren erst 2004/5
in den einheitlichen Prüfungsanforderungen erwähnt wurden und bereits 2007
in den diese ersetzenden Bildungsstandards nicht mehr vorkamen, wurden Sie
vermutlich jahrelang auf ihren Gebrauch konditioniert. Daher betone ich: Schuldidaktische Operatoren spielen im MINT-Studium keine Rolle (außer für das
Lehramt).1 Die Bewertungsgrundlage sind schlüssige Begründungen und Rechenwege. Bei einer Entscheidungsfrage wird eine korrekte Antwort mit null Punkten
bewertet, wenn eine Begründung fehlt, und bei einer Rechenaufgabe wird das korrekte Ergebnis mit null Punkten bewertet, wenn der Rechenweg nicht erkennbar
ist. Das gilt auch in Prüfungen. Gewöhnen Sie sich schon in den Hausaufgaben
an, alle Antworten zu begründen und Rechnungen nachvollziehbar darzustellen.
1
In der Mathematik steht das Wort „Operator“ für verschiedene Begriffe, die alle mit dem
schuldidaktischen Begriff nichts zu tun haben.
Lineare Algebra für IB, AIB, BIB
1
0 VORREDE
0
Vorrede
0.1
Vor- und Frühgeschichte der Mathematik
Der materielle Fortschritt befriedigt keines der
Bedürfnisse, die der Mensch wirklich hat.
Winston Churchill [1874-1965]
Arithmetik 2 , Geometrie 3 und Logik 4 befriedigen gesellschaftliche Bedürfnisse: Zahlverständnis ist im Handel, in der Vorratshaltung und der Nutzung von
Kalendern nützlich; Geometrie hilft in der Landwirtschaft, der Architektur, der
Vorratshaltung und der Navigation; Logik ist Grundlage der Kommunikation unter gleichberechtigten Menschen.
Es ist Spekulation, ob Artefakte wie der 20 000 Jahre alte Ishango–Knochen
bereits auf Zahlverständnis hindeuten oder sogar Neandertaler ein solches besaßen; Handel ist zwar schon im Paläolithikum nachweisbar, allerdings wohl
nicht bei den Neandertalern. Für das Neolithikum 5 sind Landwirtschaft, Vorratshaltung und Sesshaftigkeit charakteristisch. Das dafür nötige mathematische
Verständnis zeigte sich dann auch in geometrischen Verzierungen (z.B. Linearbandkeramik ab ca. 5700 v. Chr.), in der Architektur (z.B. bandkeramisches Langhaus ab 5500 v. Chr.) oder in Kreisgrabenanlagen mit astronomischem Bezug
(z.B. Goseck 4900 v. Chr., Stonehenge ab 3100 v. Chr.).
Die Methode der Mathematik fehlt sogar noch in frühen Schriftkulturen. Sie
basiert auf schlüssigem Argumentieren ausgehend von Begriffsdefinitionen. Ich
halte es nicht für Zufall, dass die Grundlagen der mathematischen Methode und
der Demokratie als einer auf Argumentationsfähigkeit basierenden Gesellschaftsform etwa zur gleichen Zeit etwa am gleichen Ort gelegt wurden.6
Mathematik ist die Königin der Wissenschaften.
Carl Friedrich Gauß [1777–1855]
Schlüssiges begriffliches Argumentieren gehört zum Methodenarsenal aller
Wissenschaften. Während es in Literatur- und Naturwissenschaften noch weitere
Erkenntnisquellen gibt, ist es in der Mathematik die Kernkompetenz. Dadurch
wird die mathematische Arbeitsweise in allen Wissenschaften relevant.
2
Zahlen und Zahlverhältnissen. Nach griech. ἀριθμός: Zahl
Maße. Nach griech. γεωμετρία: Landmessung
4
Schlussfolgerungslehre. Nach griech. λογικὴ τέχνη: Kunst des Denkens/Argumentierens
5
Zuerst im Fruchtbaren Halbmond (von Südirak über Nordsyrien, Libanon, Israel und Palästina bis Jordanien) ab ca. 9500 v. Chr.
6
Thales von Milet [ca. 624–547 v. Chr.] bzw. Solon [ca. 640–560 v. Chr. in Athen]; beide
wurden zu den Sieben Weisen gezählt.
3
2
Lineare Algebra für IB, AIB, BIB
0 VORREDE
0.2
0.2 Studium als Gegensatz zur Schule
Studium als Gegensatz zur Schule
...als werde einem mit einem riesigen Goldbarren,
der in Zitronenscheiben gehüllt ist, das Gehirn aus
dem Kopf gedroschen.
Douglas Adams
Per Anhalter durch die Galaxis.
In der Studieneinführungsveranstaltung in Frankfurt/Main brachte die Mathematikfachschaft den neuen Studierenden in den 1990ern unter anderem bei:
a) Die Studienmotivation sollte Interesse an den Fächern sein. „Ich studiere
das Fach, weil ich in der Schule gut darin war“ oder „Mit diesem Fach
bekomme ich später einen gut bezahlten Job“ bringt auf Dauer nichts.
b) In den ersten drei bis vier Wochen rauscht in den Vorlesungen der gesamte
mathematische Schulstoff vorüber. Damit muss man umgehen lernen.
c) Die Inhalte des n-ten Semesters versteht man im (n + 2)-ten Semester.
Früher war also nicht alles besser. Erläuterungen:
a) Von „discipulus“ (lateinisch: Schüler) stammt der Begriff „Disziplin“, von
„studere“ (lateinisch: sich um etwas bemühen) der Begriff „Studium“. Sich
um seine Fächer (auch: Nebenfächer) zu bemühen, heißt insbesondere, sie
nicht als Mittel zum Zweck zu missbrauchen.
Es genügt nicht, diszipliniert und mit rein extrinsischer Motivation lediglich
das zu tun, was einem gesagt wird. Ziehen Sie Ihre Motivation stattdessen
aus dem spielerischen Interesse an den studierten Fächern.
b) Das Unterrichtstempo ist an Hochschulen generell drastisch höher als an
Schulen.7 Was in der Schule wochenlang wiedergekäut würde, wird in einer
Vorlesung teilweise in 15 Minuten abgehandelt. Es ist Ihr Job, die Vorlesungen nachzuarbeiten und den Stoff gemäß Ihrer eigenen Lernbedürfnisse
selbständig einzuüben. Sie sollten also von Anfang an regelmäßig mit
dem Skript und anderen mathematischen Texten arbeiten.
c) Bis ca. 2005 wäre Ihnen allen völlig klar gewesen, dass das mit dem n-ten
und (n + 2)-ten Semester eine witzige Anspielung auf das Beweisprinzip
der vollständigen Induktion ist. Die humorfreie Übersetzung: Man braucht
einen sehr langen Atem, muss stets am Ball bleiben und kann trotzdem nicht
erwarten, alles sofort umfassend zu verstehen. Aber: Wenn Sie gedanklich
stets dabei bleiben, können Sie es schließlich in der Rückschau verstehen!
7
Ich spreche aus Erfahrung: In meinem Studium besuchte ich auch Lehrveranstaltungen in
Physik, Linguistik, Musikwissenschaft, Meteorologie, Archäologie, Philosophie und Psychologie.
Lineare Algebra für IB, AIB, BIB
3
0.3 Prioritäten
0 VORREDE
Wahrscheinlich werden Sie den Eindruck haben, dass Hochschulmathematik und
Schulmathematik nichts miteinander zu tun haben — das wäre nicht neu.8 Doch
ich versichere Ihnen, dass auch heute noch Bezüge zur Schulmathematik bestehen.
Sie können meines Erachtens von Ihren Schulkenntnisse am besten profitieren,
indem Sie sie möglichst schnell hinter sich lassen und sie quasi im Rückspiegel
betrachten, ohne sie ganz aus den Augen zu verlieren.
0.3
Prioritäten
Das naive menschliche Denken geht von der Sache
aus, das wissenschaftliche von der Methode.
Carl Friedrich von Weizsäcker [1912–2007]
Fachmethoden sind die Verfahren zur Erlangung von Erkenntnissen, nach
griech. μέθοδος, „Weg zu etwas hin“. Zur praktischen Anwendung von Methoden
werden Techniken eingesetzt, nach griech. τέχνη, „Kunstfertigkeit“. Methoden
und Techniken spielen nicht nur in der Forschung die wichtigste Rolle, sondern
auch beim Lernen: Es ist sinnvoll, den historischen Erkenntnisprozess im eigenen
Erkenntnisprozess nachzuvollziehen. Sie sollten Ihre Aufmerksamkeit also besonders hierauf lenken. In der Mathematik beruht Erkenntnis seit dem 7. Jahrhundert
v. Chr. auf schlüssigen begrifflichen Argumentationen: Beweisen.
Der in einer Demokratie erwünschte „eigentümlich zwanglose Zwang des besseren Argumentes“9 kann sich nur entfalten, wenn man die Korrektheit von Argumenten zu beurteilen gelernt hat. Beweisen, also schlüssig argumentieren zu
können, ist daher nicht nur etwas „für Nerds“ (wie bisweilen in der Schule suggeriert wird), sondern gehört sich für alle mündigen Menschen.
Wenn das einzige Werkzeug, das Du besitzt, ein
Hammer ist, bist Du geneigt, jedes Problem als
Nagel anzusehen.
Abraham Maslow [1908–1970]
Fachbegriffe sind die Werkzeuge der Wissenschaften, ohne sie ist man im Studium verloren. Auch beim Einüben von Begriffen ist der Einsatz der Fachmethoden nützlich, denn das Zusammenwirken der Begriffe und die Gründe für die
Details in ihrer Definition sieht man, wenn man mit den Begriffen arbeitet, also
die Methoden auf sie anwendet. Durch Schwierigkeiten beim Einsatz der Methoden können u. U. neue bzw. verfeinerte Begriffsbildungen nötig werden.
Die meisten Begriffe in der Mathematik werden durch eine explizite Definition
auf vorher definierte Begriffe zurück geführt. Bei den wirklich grundlegenden Begriffen, etwa dem Begriff der Menge, ist das natürlich nicht möglich. In diesem Fall
8
9
4
Felix Klein [1849–1925] in „Elementarmathematik vom höheren Standpunkt“ (1908).
Jürgen Habermas [geb. 1929]
Lineare Algebra für IB, AIB, BIB
0 VORREDE
0.4 Folgerungen für das Lehrkonzept
besteht die Begriffsdefinition darin, den korrekten Gebrauch des Begriffs durch
Axiome festzulegen. Die Kenntnis und der sichere Gebrauch von Definitionen
sind Ihre Arbeitsgrundlage. Halten Sie beim Lernen immer das Skript und
Bücher bereit, um die Definitionen nachzulesen und zu vergleichen.
Die Theorie ist Mutter der Praxis.
Louis Pasteur [1822–1895]
Der Begriff Theorie kommt vom griechischen θεωρεῖν (anschauen, betrachten). Erst durch eine Theorie wird es möglich, einen Gegenstand anschaulich zu
erfassen. Daher ist die modische Arroganz gegenüber Theorie („Das ist ja nur
eine Theorie“, „Theorie bringt mir sowieso nichts“, „Mich interessieren nur die
Anwendungen“) ein fundamentales Lernhindernis.
Beispiele sind für sich genommen nutzlos — erst durch die Verbindung mit der
Theorie wird ein Beispiel anschaulich und damit lehrreich. Beispiele sollte man
sich selbst erarbeiten und auch selbst ausdenken. Das galt wohl schon in
der Antike, denn in den „Elementen“ des Euklid [um 300 v. Chr.], einem der
einflussreichsten Werke der Weltliteratur, fehlten Beispiele und Erläuterungen
völlig, man musste sich also selbst um sie kümmern.
Im Skript werden Begriffe meist durch Beispiele und zum Teil auch NichtBeispiele erläutert, also Konstruktionen, die unter einen Begriff fallen bzw. die
trotz einer gewissen Verwandschaft mit dem Begriff doch nicht unter ihn fallen.
Derartige Beispiele werde ich anfangs auch in der Vorlesung besprechen, langfristig sollen Sie sie sich aber aus dem Skript selbst erarbeiten. Weitere Beispiele
für Begriffe ergeben sich aus ihrem Gebrauch: Jeder Beweis ist ein Beispiel
für den produktiven Gebrauch von Begriffen.
Mathematische Techniken stelle ich wie Euklid meist in Form eines Problems10 vor: Das ist ein Aufgabentyp mit zugehörigem Lösungsschema. Beispiele
dafür gibt es nicht nur im Skript, sondern auch in vielen Übungsaufgaben.
0.4
Folgerungen für das Lehrkonzept
Der Mensch ... ist nur da ganz Mensch, wo er spielt.
Friedrich Schiller [1759–1805]
Aus den vorigen Abschnitten sollte ersichtlich sein, dass man im Studium
besonders viel Wert auf eigene Aktivität legen sollte. Argumentieren können Sie
gut einüben, indem Sie sich in Lerngruppen gegenseitig den Lehrstoff erklären.
Sie können dies als ein Spiel auffassen, in dem man versucht, Argumente in Frage
zu stellen bzw. Argumente gegen Einwände abzusichern.
10
Nach griechisch πρόβλημα: das zur Lösung vorgelegte
Lineare Algebra für IB, AIB, BIB
5
0.4 Folgerungen für das Lehrkonzept
0 VORREDE
Das Ziel des Spiels ist übrigens nicht, Argumentationen zu zerstören, sondern
sie zu verbessern. Es geht (meist) nicht um die Verteidigung unterschiedlicher
Standpunkte, sondern die Grundlagen und das Ziel sind klar und es geht nur
darum, auf welchem Weg man von den Grundlagen zum Ziel gelangen kann.
Man kann Teile eines Beweises angreifen, ohne dadurch den ganzen Beweisansatz
oder gar die zu beweisende Aussage abzulehnen. Das ist auch in Prüfungen für Sie
von Vorteil, denn wenn ein Beweisansatz oder ein Rechenweg im Grunde stimmt,
aber Fehler in Details liegen, können Sie immer noch Teilpunkte erhalten.
Exemplarisch für dieses wohlwollende In-Frage-Stellen ist der Umgang mit
den „Elementen“ des Euklid: Sein Anspruch war, die Grundsätze seiner Beweise
am Anfang seines Buches auflisten und dann nur die aufgelisteten Grundsätze
verwenden. Es zeigte sich, dass Euklid an seinen eigenen Ansprüchen scheiterte,
denn er verwendet in einigen Beweisen Grundsätze, die er nicht aufgelistet hatte.
Im Laufe der Jahrhunderte wurde einerseits untersucht, welche Aussagen aus
seinen Grundsätzen folgen und welche nicht (dies resultierte in Geometrien, die
über unsere gewohnte Anschauung hinaus gehen). Andererseits wurde untersucht,
welche zusätzlichen Grundsätze für Euklids Beweise nötig wären; dies gelang
schließlich David Hilbert [1862–1943]. Doch auch diese „Vollendung“ war nicht das
Ende, denn Hilberts Werk hat weitere Entwicklungen der Geometrie angestoßen.
Fragen zu stellen ist ein Zeichen von Mitdenken und ist ausdrücklich
erwünscht. Dafür sollten Rahmenbedingungen geschaffen werden. Traditionell
würde man in der großen Gruppe in der Vorlesung ein neues Thema rezipieren,
würde in Kleingruppen zu diesem Stoff Übungsaufgaben bearbeiten und schließlich alleine versuchen, die Zusammenhänge zu erkennen. Ein bekanntes Konzept
zur Förderung des aktiven Lernens ist der flipped classroom, welches das traditionelle Schema weitgehend umkehrt: Zuerst erarbeiten sich die Lernenden zu
Hause das Thema selbst und im eigenen Tempo, beispielsweise anhand kurzer
Lehrvideos. Dann werden in Kleingruppen Übungsaufgaben bearbeitet. In der
Vorlesung wird dann versucht, die Zusammenhänge aufzuzeigen, insbesondere
auch durch Beantwortung der Fragen, die beim vorherigen selbständigen Lernen
aufgekommen sind. Dadurch werden die Lernenden zu eigener Arbeit angeregt,
aber beim schwierigsten Teil des Lernprozesses, nämlich dem Erkennen von Zusammenhängen, nicht allein gelassen.
Zwar wird es hier keinen voll ausgeprägten flipped classroom geben. Doch
zumindest werde ich Sie Skriptabschnitte (typischerweise Definitionen und Beispiele) zur Vorbereitung der nächsten Vorlesung lesen und bisweilen auch Videos
ansehen lassen, und in der Vorlesung wird dies thematisch eingeordnet.
Zum Studium gehört gedankliche Vielfalt, daher sollten Sie möglichst mehrere
Bücher verwenden (Vergleichen gehört zur Medienkompetenz). Sie sollten skeptisch sein, wenn jemand im Brustton der Überzeugung nur eine einzelne Technik
zur Lösung eines Aufgabentyps propagiert, obwohl andere Quellen auch andere
Techniken diskutieren; Sie sollten dann versuchen, die Vor- und Nachteile der verschiedenen Techniken zu vergleichen und auch mich um einen solchen Vergleich
6
Lineare Algebra für IB, AIB, BIB
0 VORREDE
0.5 Rechnerische Anforderungen
bitten, wenn ich das nicht sowieso schon in der Vorlesung mache. Durch die Wahl
ungeeigneter Techniken kann man nämlich in Prüfungen viel Zeit vergeuden.
Es wurde empirisch gezeigt, dass aktives Lernen effizienter als das rein rezipierende Lernen ist, aber interessanterweise bisweilen subjektiv den falschen
Eindruck hervorruft, dabei weniger zu lernen.11 Lassen Sie sich also auf die im
Studium erwartete aktive Arbeitsweise ein! Wenn Sie meinen, dass Ihnen das
nichts bringt, befinden Sie sich wahrscheinlich im Irrtum.
0.5
Rechnerische Anforderungen
Ein CAS liefert lediglich Ergebnisse und trägt daher zum Verständnis von Methoden und Techniken nichts bei. In einer Phase des Studiums, in der Sie die
Techniken nicht schon sicher beherrschen, wären CASe also ein Lernhindernis. In
der Prüfung zur linearen Algebra sind keine elektronischen Hilfsmittel zugelassen.
Wenn nicht ausdrücklich etwas anderes verlangt wird, ist exakt zu rechnen, mit
Brüchen und Wurzeln, aber ohne gerundete Kommazahlen. Einige Gründe:
• Es mag Sie überraschen: Gerundetes Rechnen ist viel zu kompliziert! Viele
nützliche Rechengesetze, etwa das Assoziativgesetz a · (b · c) = (a · b) · c,
gelten bei gerundetem Rechnen nicht mehr.
• Gerundetes Rechnen werden Sie in der Numerik lernen. Doch dafür brauchen Sie Vorkenntnisse aus der linearen Algebra und vor allem aus der
Analysis, weshalb die Numerik erst für das vierte Semester vorgesehen ist.
• Im ersten Semester können aufgrund fehlender Vorkenntnisse numerische
Techniken noch nicht berücksichtigt werden, zumal sich Schulkenntnisse
zum gerundeten Rechnen in Details von den Standards der Numerik unterscheiden. Mit den einfachen Methoden aus dem ersten Semester können
kleine Rundungsfehler in Zwischenergebnissen zu großen Fehlern in der Lösung oder sogar zur Unlösbarkeit führen.
Wer also im
√ ersten Semester ohne ausdrücklichen Arbeitsauftrag rundet, beispielsweise 2 durch 1.4142 ersetzt, erhält einen Punktabzug, der ggf. mehr als
die Hälfte der Gesamtpunktzahl einer Aufgabe betragen kann.
11
Louis Deslauriers et al.: Measuring actual learning versus feeling of learning in response
to being actively engaged in the classroom, PNAS September 24, 2019 116 (39) 19251–19257
Lineare Algebra für IB, AIB, BIB
7
1 GRUNDLAGEN
1
Grundlagen
In den meisten mathematischen Teilgebieten erweist es sich als besonders effizient,
Sachverhalte mittels Mengen auszudrücken.
Beispiel: „Sei A ∈ GLn (Q)“ besagt das gleiche wie „Sei A eine invertierbare
Matrix mit n Zeilen und n Spalten, deren Einträge rationale Zahlen sind“12 .
Im ersten Abschnitt betrachten wir die einfachsten Begriffe und Konstruktionen der Mengenlehre anschaulich und ohne Definitionen. Im zweiten Abschnitt
führe ich logische Sprechweisen und Notationen ein, mit denen ich im dritten
Abschnitt die Mengenkonstruktionen definiere. Im letzten Abschnitt geht es um
einige Beweistechniken.
1.1
Naive Mengenlehre
Hier gibt es keine Definitionen, hieraus darf also nicht zitiert werden.
Bemerkung: Sie sollten in der Schule ein intuitives Verständnis für Mengen erworben haben (siehe Lehrpläne!). In den Lehrbüchern, die nach dem Inhaltsverzeichnis genannt sind, ist naive Mengenlehre daher kein Thema. Als Ergänzung
zum Skript können Sie Schulbücher für Regelschulen oder Gymnasien verwenden.
In der naiven Mengenlehre werden Mengen als Zusammenfassungen von Elementen aufgefasst. Dies entspricht folgendem Zitat von Georg Cantor [1845–1918],
dem Begründer der Mengenlehre:
Unter einer ‚Menge‘ verstehen wir jede Zusammenfassung von bestimmten wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens zu einem Ganzen. (G. Cantor, 1895)
Ist das Objekt x Element der Menge M , schreibt man x ∈ M , andernfalls x ∈
/ M.
Beispiel: Aus der Schule dürften die Mengen N, Z, Q und R bekannt sein, also
die Menge der natürlichen bzw. ganzen bzw. rationalen bzw. reellen Zahlen.
Aus Mengen kann man neue Mengen konstruieren, etwa mittels Teilmengen, Schnittmengen, Vereinigungsmengen und kartesischen Produkten. Mit diesen Konstruktionen sollte man eine Anschauung verbinden.
Nach einer Schulreform in den 1960erjahren in Westdeutschland wurden Logische Blöcke nach Zoltan P. Dienes [1916–2014] genutzt, um Kinder in der ersten
Klasse der Grundschule noch vor dem Rechenunterricht Mengenlehre zu veranschaulichen:13 Das sind Plättchen in verschiedenen Formen (Dreiecke, Quadrate,
12
Was das alles bedeutet, werden wir natürlich noch behandeln.
Von Didaktiktiker*innen wurde dies leider mit einer Verballhornung mathematischer Ausdrucksweise verknüpft, wie im hier verlinkten Spiegel-Artikel von 1974 dargestellt.
13
8
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
1.1 Naive Mengenlehre
längliche Rechtecke, Kreise), Farben (rot, blau, gelb) und Größen (einerseits klein
oder groß, andererseits dick oder dünn). Hier vereinfache ich dies auf nur zwei
Formen (Dreieck, Quadrat), zwei Farben (rot, blau) und zwei Größen.
In der Abbildung sei P die Menge aller Plättchen, die Menge D der dreieckigen
Plättchen ist mit einer durchgezogenen Linie, die Menge K der kleinen Plättchen
mit einer unterbrochenen Linie und die Menge B der blauen Plättchen mit einer
gepunkteten Linie markiert:
„p ist ein blaues Plättchen“ kann man jetzt als p ∈ B ausdrücken. Die Anzahl
der Elemente einer Menge nennt man ihre Kardinalität oder Mächtigkeit.
Wir haben hier also |P| = 8 und |B| = |K| = |D| = 4.
Jede Menge (hier: D, K, B) entspricht einer konkreten Darstellung eines Begriffs, nämlich der Gesamtheit aller Gegenstände eines Universums (hier: P), die
unter den jeweiligen Begriff fallen (hier: „dreieckiges Plättchen“, „kleines Plättchen“ bzw. „blaues Plättchen“). Zugleich kann man den Begriff jeweils sprachlich
durch eine definierende Eigenschaft festlegen (hier: dreieckig, klein bzw. blau).
Durch welche Gesamtheit von Gegenständen eine sprachliche Begriffsbeschreibung jeweils konkretisiert wird, hängt natürlich vom betrachteten Universum ab:
Enthält dieses die logischen Blöcke auch in gelb, wäre etwa |P| = 12, |D| =
|K| = 6 und |B| = 4. In Definitionen und Beweisen bezieht man sich möglichst
auf die sprachliche Beschreibung statt konkrete Realisierungen. Auf diese Weise wird die Mathematik allgemeingültig, also vom Universum unabhängig. Wir
veranschaulichen einige Mengenkonstruktionen, hier noch ohne eine Definition:
Schnittmenge: B ∩ K ist die Menge der Plättchen, die zu B und K gehören,
also „blaue kleine“ Plättchen (sowohl blau als auch klein). Hier: |B ∩ K| =
2 und |B ∩ K ∩ D| = 1. Beachte: B ∩ K ∩ D enthält nur ein Element, aber
verwechseln Sie diese Menge nicht mit ihrem einzigen Element! Analogie:
Ein Portemonnaie, das genau eine Münze enthält, ist selbst keine Münze.
Vereinigungsmenge: B ∪ K ist die Menge der Plättchen in B oder K, also
Plättchen, die blau oder klein (oder beides) sind. Hier: |B ∪ K| = 6.
Differenzmenge: B \ K ist die Menge aller Plätchen aus B, die nicht zu K
gehören, also blaue nicht-dreieckige Plättchen. Hier: |B \ D| = 2.
Potenzmenge: Wählt man aus einer Menge einige Elemente aus, erhält man
eine Teilmenge. Beachte: Die leere Menge, die kein Element enthält,
Lineare Algebra für IB, AIB, BIB
9
1.2 Prädikatenlogik
1 GRUNDLAGEN
ist Teilmenge jeder Menge, und jede Menge ist Teilmenge von sich selbst.
P(B) ist die Menge aller Teilmengen von B und ist in der Abbildung mit
durchgezogener Linie umrandet zu sehen. Die Elemente von P(B) sind
selbst Mengen und sind jeweils mit unterbrochenen Linien umrandet. Es
gilt |P(B)| = 2|B| .
Zur Veranschaulichung setzt man oft so genannte Venn-Diagramme 14 ein:
M
N
M ∪N
M
N
M ∩N
M
N
M \N
In Beweisen vermeidet man Venn-Diagramme meist und nutzt stattdessen formale
Definitionen der Mengenkonstruktionen, zu denen wir noch kommen werden.
1.2
Prädikatenlogik
Für häufig vorkommende Formulierungen bietet sich die Verwendung von Formelzeichen an. Diese möchte ich hier einführen.
Aussage: Etwas, was wahr (W ) oder falsch (F ) sein kann. Eine Frage oder ein
Befehl ist keine Aussage.
Aussageform bzw. Prädikat: Ein sprachlicher Ausdruck, in dem ggf. noch
unbestimmte Platzhalter (Variablen) vorkommen, so dass durch Einsetzen
konkreter Werte für alle Variablen eine Aussage.
Beispiele: 3 > 4 ist eine (falsche) Aussage. a2 + b2 = c2 ist eine Aussageform mit den drei Variablen a, b, c. „Sei ε > 0“ sowie „Ist x2 > x?“ sind
keine Aussageformen.
14
10
John Venn [1834–1923]
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
1.2 Prädikatenlogik
Gleichheitszeichen gibt es in mehreren Varianten:
• = steht für die wahre oder falsche Aussage, dass die Ausdrücke auf
der linken und der rechten Seite den gleichen Wert haben. ̸= besagt
hingegen Ungleichheit. Bsp: 3 = 2 · 2 ist falsch, 5 ̸= 7 − 3 wahr.
• := bzw. =: ist eine Wertzuweisung. Auf der Seite des Doppelpunkts
steht eine Variable, die ab sofort den auf der anderen Seite gegebenen
Wert hat. Diese Notation ist allgemein verbreitet.
Beispiel: „Sei a := 3, b := 4, c := 5. Dann a2 + b2 = c2 “ hat keine
Variable, sondern ist aufgrund der Zuweisungen eine wahre Aussage.
!
• = steht bei mir für den Auftrag, eine Gleichung mit einer Variable
!
nach dieser aufzulösen. Bsp: a2 + 2 a = 3 impliziert a ∈ {−3, 1}.
?
• = steht bei mir für den Auftrag, eine Gleichung zu beweisen.
Logische Operatoren lassen sich auf Aussageformen anwenden, wodurch neue
Aussageformen entstehen. Insbesondere die folgendenen:
Negation, ¬, „nicht“: Beachte: Die Negation ist oft etwas anderes als das
„gefühlte Gegenteil“. Beispiel: ¬(M ⊆ {1, 2, 3}) ist die Aussageform, dass
M keine Teilmenge von {1, 2, 3} ist; sie ist z. B. für M := {1, 2, 4} wahr.
Und das ist etwas anderes als M ⊇ {1, 2, 3}, was bei manchen das gefühlte
Gegenteil wäre.
Konjunktion, ∧, „und“: Beachte: „und“ heißt „sowohl als auch“.
Beispiel: (a > b) ∧ (a < c) ist eine Aussageform mit drei Variablen, und ist
z. B. wahr für a := 4, b := 3, c := 5, aber falsch für a := 2, b := 3, c := 5.
Disjunktion, ∨, „oder“: Beachte: „oder“ heißt in der Mathematik etwas anderes als „entweder - oder “, nämlich: Die Disjunktion ist genau dann wahr,
wenn mindestens eine der Teilaussagen wahr ist. Beispiel: (a > b) ∨ (a < c)
ist wahr z. B. für a := 2, b := 3, c := 4, aber auch für a := 2, b := 1, c := 4
Implikation, ⇒ , „wenn, dann“: Beachte: Mehr dazu später. Beispiel: Für
alle x ∈ R gilt 1 < x ⇒ 1 < x2 . Jedoch gilt nicht für alle x ∈ R 1 <
x2 ⇒ 1 < x, wie man am Gegenbeispiel x := −2 sieht.
Äquivalenz, ⇐⇒ , „genau dann, wenn“: Beachte: P ⇐⇒ Q besteht aus zwei
Implikationen, sowohl P ⇒ Q als auch Q ⇒ P . Ein typischer Fehler ist,
das Symbol ⇐⇒ zu verwenden, obwohl nur eine der beiden Implikationen
gilt. Beispiel: Für alle x, y ∈ R gilt x < y ⇐⇒ x + 1 < y + 1. Aber „Für
alle x, y ∈ R gilt x < y ⇐⇒ x2 < y 2 “ ist falsch, etwa x = −2, y = 1.
Lineare Algebra für IB, AIB, BIB
11
1.2 Prädikatenlogik
1 GRUNDLAGEN
Die Bedeutung der Zusammensetzung ist jeweils durch eine Wahrheitstabelle gegeben. Die Auflistung von Wahrheitswerten geht bis auf Philon von Megara [ca. 4.-3. Jhdt. v.Chr.] zurück, in Tabellenform wurden sie allerdings zuerst
1921 von Ludwig Wittgenstein [1889–1951] dargestellt.
Definition 1.1
Seien P, Q Aussageformen. Der Wahrheitswert der zusammengesetzen Aussageformen ¬P , P ∧Q, P ∨Q, P ⇒ Q und P ⇔ Q ergibt sich aus den Wahrheitswerten
von P, Q gemäß folgender Tabelle:
P Q
F F
F W
W F
W W
¬P
W
W
F
F
P ∧Q P ∨Q P ⇒Q P ⇔Q
F
F
W
W
F
W
W
F
F
W
F
F
W
W
W
W
Beim Rechnen gilt, wie Sie wissen, „Punkt- vor Strichrechnung“, es sei denn, es
werden Klammern verwendet. Ähnliches gilt für die Logik: Es ist relativ üblich,
dass ¬ vor ∧, ∧ vor ∨, ∨ vor ⇒ und ⇒ vor ⇐⇒ geht. Jedoch sind diese Vorrangsregelungen tendentiell verwirrend, weshalb ich sie nicht voll ausformuliere
und auch kein Beispiel gebe. Meine Empfehlung: Setzen Sie im Zweifel lieber ein
Klammerpaar zu viel.
Quantoren drücken die Erfüllbarkeit von Aussageformen aus. Im Folgenden
seien P, Q Aussageformen mit Variablen, die sich aus dem Kontext ergeben. Steht
ein Allquantor vor einer Aussageform mit mehreren Variablen, entsteht eine Aussageform mit einer Variable weniger. Meist gibt man zusätzlich eine Menge als
Wertebereich des Quantors an.
„für alle“, ∀, Allquantor: Die Aussage ∀x : P (x) bedeutet, dass P (x) für jeden konkreten Wert von x wahr (also allgemeingültig) ist. Beispiel: ∀x ∈
R : x2 ≥ 0 ist wahr, allerdings wäre ∀x : x2 ≥ 0 falsch, da man für x dann
auch etwas einsetzen könnte, für das x2 oder ≥ nicht definiert ist.
„es gibt“, ∃, Existenzquantor: Die Aussage ∃x : P (x) bedeutet, dass P (x)
für mindestens einen (vielleicht sogar mehrere) Werte von x wahr ist. Auch
hier gibt man meist einen Wertebereich vor. Beispiel: ∃y ∈ R : y 2 = 2 ist
!
die wahre Aussage, dass y 2 = 2 lösbar ist (es macht nichts, dass√die Lösung
nicht eindeutig ist). Hingegen ist ∃y ∈ Q : y 2 = 2 falsch, denn 2 ist keine
rationale Zahl, wie wir noch sehen werden.
„es gibt genau ein“, ∃!, Einzigkeitsquantor: Die Aussage ∃!x : P (x) bedeutet,
dass es ein x gibt, so dass P (x) wahr ist, und zudem x dadurch eindeutig
!
bestimmt ist. Beispiel: ∃!x ∈ R : x2 = 2 ist falsch, da die Gleichung x2 = 2
zwei Lösungen in den reellen Zahlen hat. Hingegen ist ∃!x ∈ R : (x >
0 ∧ x2 = 2) wahr, ebenso ∃!x ∈ R : (x < 0 ∧ x2 = 2).
12
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
Weitere übliche Notation für Quantoren:
Vorlesung „Diskrete Strukturen“.
1.2 Prädikatenlogik
W
x statt ∃x;
V
x statt ∀x — siehe
Geschichtliche Einordnung: Die klassische zweiwertige Aussagenlogik geht
auf Aristoteles [384–322 v.Chr] und Philon von Megara [ca. 4./3. Jhdt. v.Chr.]
zurück. George Boole [1815–1865], Gottlob Frege [1848–1925] und Bertrand Russell [1872–1970] formalisierten die Aussagenlogik. Voneinander unabhängig erweiterten Frege sowie Charles Santiago Sanders Peirce [1839-1914] sie zur Prädikatenlogik, zu der auch Aussageformen und Quantoren gehören. Intuitiv wurden
Quantoren bereits im 4. Jhdt. v.Chr. verwendet, die Bezeichnung „Quantor“ und
die heutigen Notationen stammen jedoch aus dem 19. und 20. Jahrhundert.
Ein Quantor bezieht sich auf eine Variable eines Prädikats, das man seinen
Gültigkeitsbereich nennt. Diesen kann man durch Klammern verdeutlichen.
Beispiel 1.2
(∃x ∈ R : x > 0) ∧ (∃x ∈ R : x < 0) ist wahr, denn in den beiden Teilen der
Konjunktion bezeichnet x zwei verschiedene Variablen, die einfach nur denselben
Namen tragen. Hingegen ist ∃x ∈ R : (x > 0) ∧ (x < 0) falsch, denn diesmal ist
der Gültigkeitsbereich des Existenzquantors die ganze Aussageform.
In Beweisen ist es oft erforderlich, Aussageformen umzuformen, ohne dass sich
die Bedeutung ändert. Damit ist folgendes gemeint:
Definition 1.3. Seien P, Q Aussageformen, x die Liste aller Variablen in P, Q.
P, Q heißen gleichbedeutend oder logisch äquivalent (Sprechweise: „P gdw.
(genau dann wenn) Q“) :⇔ ∀x : (P (x) ⇐⇒ Q(x)).
Ähnlich wie „:=“ bedeutet „:⇔“, dass auf der Seite des Doppelpunktes etwas
steht (in diesem Fall der Begriff „logisch äuivalent“), das durch die andere Seite
definiert wird.
In einer Logik-Vorlesung würde man sorgfältig zwischen Objektsprache (in der
man Aussagen über Objekte formuliert) und Metasprache (in der man Aussagen
über die Objektsprache formuliert) unterscheiden. Das soll hier nicht Thema sein,
aber dennoch ist dieser Wikipedia-Artikel lesenswert.
Axiom 1.4. Seien P, Q, R Aussageformen.
a) Vertauschung: ∀x : ∀y : Q(x, y) ist gleichbedeutend zu ∀y : ∀x : Q(x, y).
Ebenso ist ∃x : ∃y : Q(x, y) gleichbedeutend zu ∃y : ∃x : Q(x, y).
Kurzschreibweise: ∀x, y : Q(x, y) bzw. ∃x, y : Q(x, y).
Beispiel: ∀x ∈ R : ∃y ∈ R : x+y = 0 ist wahr. ∃y ∈ R : ∀x ∈ R : x+y = 0
ist falsch. Nur gleichartige Quantoren sind allgemein vertauschbar!
b) Negation: ¬ (∀x : P (x)) ist gleichbedeutend zu ∃x : ¬P (x).
Ebenso ist ¬ (∃x : P (x)) gleichbedeutend zu ∀x : ¬P (x).
Lineare Algebra für IB, AIB, BIB
13
1.2 Prädikatenlogik
1 GRUNDLAGEN
c) Distribution:
(∀x : P (x)) ∧ (∀y : R(y)) ist gleichbedeutend zu ∀x : P (x) ∧ R(x).
Ebenso ist (∃x : P (x)) ∨ (∃y : R(y)) gleichbedeutend zu ∃x : P (x) ∨ R(x).
Bemerkung: Vorsichtshalber sei betont: Wenn ein Quantor sich auf eine Variable bezieht, ist diese an ihn gebunden und ist außerhalb des Gültigkeitsbereichs
nicht bekannt. Insbesondere darf man nie davon ausgehen, dass der Buchstabe,
mit dem eine Variable bezeichnet ist, in einem anderen Gültigkeitsbereich oder
gar in einer anderen Aussage noch die gleiche Bedeutung hat. Ich hätte also
Axiom 1.4.c) genau so gut auch auf eine der folgenden Arten ausdrücken können:
• (∀x : P (x)) ∧ (∀x : R(x)) ist gleichbedeutend zu ∀x : P (x) ∧ R(x).
• (∀x : P (x)) ∧ (∀y : R(y)) ist gleichbedeutend zu ∀z : P (z) ∧ R(z).
Lemma 1.5. Seien V, B Aussageformen.
a) De morgansche Regeln:
¬ (V ∧ B) ist gleichbedeutend zu (¬V ) ∨ (¬B).
¬ (V ∨ B) ist gleichbedeutend zu (¬V ) ∧ (¬B).
b) V ⇒ B gdw. (¬B) ⇒ (¬V ).
c) ¬ (V ⇒ B) gdw. V ∧ (¬B).
d) V ∧ W gdw. V .
e) V ⇐⇒ B gdw. (V ⇒ B) ∧ (B ⇒ V ).
Beweis: Vorlesung bzw. Übung.
□
Beispiel 1.6
Anmerkung: Bevor ich das nächste Beispiel präsentiere, möchte ich meine Absicht erläutern. In diesem Beispiel ist die intuitive Antwort der meisten Studienanfänger*innen nicht korrekt; dadurch möchte ich Ihnen bewusst machen, dass
es problematisch ist, sich beim Umformen komplexer Aussagen auf die Intuition
zu verlassen, und dass es von Vorteil ist, abstrakt und regelbasiert zu arbeiten.
Zudem möchte ich Ihnen ein nicht ganz offensichtliches Beispiel für die Anwendung von Umformungsregeln geben. Die Formalisierung natürlicher Sprache ist
hingegen kein Thema dieser Vorlesung und daher auch nicht Ziel dieses Beispiels.
Nun zum Beispiel. Vielleicht denken Sie, die Negation von „Bei Nacht sind
alle Katzen grau“ sei „Es gibt eine Katze, die nachts nicht grau ist“. Doch dabei hätten Sie stillschweigend angenommen, dass es manchmal Nacht ist: Obige
Aussagen sind beide wahr, wenn es zwar Katzen, aber keine Nächte gibt. Bei der
Analyse natürlicher Sprache sind Zusatzannahmen über das Weltwissen unverzichtbar, doch in der Mathematik sind sie unzulässig.
14
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
1.3 Mengenkonstruktionen
Die Aussage ist „∀t : N (t) ⇒ (∀x : K(x, t) ⇒ g(x, t))“, mit den Prädikaten
N (t) („zur Zeit t ist Nacht“), K(x, t) („x ist zur Zeit t eine Katze“ — man
muss prinzipiell auch mit Gestaltwandlern rechnen!) und g(x, t) („x ist zur Zeit
t grau“). Gleichbedeutend sind:
¬ (∀t : (N (t) ⇒ (∀x : K(x, t) ⇒ g(x, t))))
∃t : ¬ (N (t) ⇒ (∀x : K(x, t) ⇒ g(x, t)))
∃t : (N (t) ∧ ¬ (∀x : K(x, t) ⇒ g(x, t)))
∃t : (N (t) ∧ (∃x : K(x, t) ∧ ¬g(x, t)))
nach Axiom 1.4.b)
nach Lem. 1.5.c)
nach 1.4.b), 1.5.c)
„Es gibt eine Nacht, in der es eine Katze gibt, die nicht grau ist.“ Abschließend sei
gesagt, dass die obige Formalisierung keineswegs die einzig mögliche oder gar beste
Formalisierung ist. Es kam mir hier darauf an, eine Aussage zu erhalten, in der
sowohl All- als auch Existenzquantoren vorkommen, sonst wäre eine einfachere
Formalisierung sinnvoller gewesen.
1.3
Mengenkonstruktionen
Wir formalisieren nun die Mengenkonstruktionen aus Abschnitt 1.1 und noch
eine weitere. Die Identität einer Menge ist allein durch ihre Elemente bestimmt:
Extensionalitätsaxiom 1.7
Mengen X, Y sind genau dann gleich (X = Y ), wenn ∀x : (x ∈ X ⇔ x ∈ Y ).
Endliche Mengen kann man durch Auflistung der Elemente angeben, etwa
M = {1, 3, 4, 6}. Bei unendlichen Mengen behilft man sich manchmal mit Auslassungszeichen, etwa {1, 2, 3, 4, 5, . . .}. Das Problem ist, dass die Auslassungszeichen nur dann einen nachvollziehbaren Sinn ergeben, wenn man die Menge
bereits kennt. Mit Hilfe der On-Line Encyclopaedia of Integer Sequences können
Sie beispielsweise feststellen, dass in der mathematischen Fachliteratur mindestens 7794 verschiedene Zahlenfolgen15 untersucht wurden, die hintereinander die
Zahlen 1, 2, 3, 4, 5 enthalten; jede von ihnen ergibt prinzipiell eine mathematisch
sinnvolle Möglichkeit, „1, 2, 3, 4, 5, ...“ zu interpretieren.
Auch allgemein kann man einfach sagen, welche Elemente eine Menge hat,
nämlich mittels einer Aussageform:
Notation 1.8. Sei P eine Aussageform mit genau einer Variable.
Mit {x | P (x)} bezeichnet man die Gesamtheit aller x, für die P (x) wahr ist.
Beispiel: {x | ∃y ∈ Z : x = y 2 } ist die Menge der Quadratzahlen.
15
Stand: 21.10.2024
Lineare Algebra für IB, AIB, BIB
15
1.3 Mengenkonstruktionen
1 GRUNDLAGEN
Bemerkung 1.9
Es ist Absicht, dass ich {x | P (x)} nicht als Menge, sondern als Gesamtheit
bezeichnet habe. Frege dachte tatsächlich, dass dadurch immer eine Menge beschrieben werde; das nennt man das Abstraktionsprinzip. Frege schrieb auf
dieser Grundlage ein Buch, das sich 1902 bereits im Druck befand, als sein Werk
durch einen Brief von Bertrand Russell [1872–1970] in seinen Grundfesten erschüttert wurde: Durch die Russellsche Antinomie R := {x | x ∈
/ x}. Die
Antinomie besteht darin, dass R ∈ R genau dann gilt, wenn R ∈
/ R.
Man umgeht die Antinomie wie folgt: Gesamtheiten bezeichnet man generell
als Klasse. Eine Klasse, die zudem als Element einer anderen Klasse auftreten
kann, nennt man Menge. Das Paarmengenaxiom besagt: Sind M, N Mengen,
dann ist auch {M, N } := {x | x = M ∨ x = N } eine Menge. Folglich ist auch
{M, M } = {M } eine Menge (das ist der Fall N := M ).
In der Notation {x | P (x)} darf x keine beliebige Klasse, sondern nur Element
einer Klasse (also beispielsweise eine Menge) sein. Auch Quantoren beziehen sich
ausschließlich auf Elemente von Klassen. Die Auflösung der Russellschen Antinomie ist dann: R := {x | x ∈
/ x} ist zwar eine Klasse, aber keine Menge; es
entsteht kein Widerspruch, denn da R keine Menge ist, ist einfach R ∈
/ R.
Es gab im 20. Jahrhundert mehrere Ansätze zu einer Formalisierung der Mengenlehre. Großes Problem: Kurt Gödel [1906–1978] bewies, dass kein hinreichend
komplexes formales System die eigene Widerspruchsfreiheit beweisen kann. Dies
gilt auch für jede axiomatische Mengenlehre, die die natürlichen Zahlen enthält.
Obige Bemerkung dient der mathematischen Allgemeinbildung, wir werden
uns im Folgenden weitgehend auf den Spezialfall von Mengen konzentrieren.
Definition 1.10. Seien M, N Mengen.
N heißt eine Teilmenge von M (Notation: N ⊆ M oder synonym N ⊂ M )
:⇔ ∀x ∈ N : x ∈ M .
N heißt echte Teilmenge von M (Notation N ⊊ M ) :⇔ N ⊂ M ∧ N ̸= M .
Bemerkung: Ich verwende die Symbole ⊆ und ⊂ gleichbedeutend. In manchen
Büchern wird ⊂ aber nur für echte Teilmengen verwendet. Beim Lesen von Lehrbüchern müssen Sie immer darauf achten, welche Konventionen darin verwendet
werden — in Aufgaben gelten die Konventionen aus der Vorlesung.
Beobachtung 1.11
Seien M, N Mengen. M = N ⇐⇒ (M ⊆ N ∧ N ⊆ M ).
Definition 1.12 (und Axiome)
Seien M, N Mengen und P (x) eine Aussageform mit einer Variablen. Im folgenden werden aus M, N neue Mengen konstruiert. In Klammern nenne ich jeweils
Axiome der Mengenlehre, aus denen folgt, dass die aus M, N konstruierten Klassen ebenfalls Mengen sind.
16
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
1.3 Mengenkonstruktionen
a) {x ∈ M | P (x)} := {x | x ∈ M ∧ P (x)} ( Aussonderungsaxiom).
Beispiel: {x ∈ Z | ∃k ∈ Z : x = 2k} Menge der geraden Zahlen.
b) M ∩ N := {x | x ∈ M ∧ x ∈ N } = {x ∈ M | x ∈ N } = {x ∈ N | x ∈ M }
heißt Schnitt oder Durchschnitt. ( Aussonderungsaxiom)
c) M \ N := {x ∈ M | x ∈
/ N } heißt Differenzmenge von M und N .
( Aussonderungsaxiom)
d) M ∪ N := {x | x ∈ M ∨ x ∈ N } heißt die Vereinigung von M und N .
( Paarmengenaxiom zusammen mit dem Vereinigungsaxiom).
e) P(M ) := {T | T ⊂ M } heißt Potenzmenge von M ( Potenzmengenaxiom).
f) Das kartesische Produkt (auch: direkte Produkt) von M und N besteht
aus allen geordneten Paaren (m, n) mit m ∈ M und n ∈ N :
M × N := {(m, n) | m ∈ M, n ∈ N }
Dies lässt sich als Tabelle von Paaren visualisieren (aber bitte gewöhnen
Sie sich nicht an, kartesische Produkte generell in dieser Form anzugeben):
(
Beispiel: {1, 2} × {2, 3, 4} =
ˆ
(1, 2), (1, 3), (1, 4),
(2, 2), (2, 3), (2, 4)
)
g) Jedem m ∈ M sei jeweils ein Objekt ym zugeordnet. Dann ist {ym | m ∈ M }
eine Menge ( Ersetzungsaxiom, m wird jeweils durch ym ersetzt).
Beispiel: {2k | k ∈ Z} ist auch die Menge der geraden Zahlen.
h) f ⊂ M × N heißt Abbildung von M ( Definitionsmenge) nach N
( Zielmenge) :⇔ ∀m ∈ M ∃!n ∈ N : (m, n) ∈ f . Notation: f : M → N ,
f
und statt (m, n) ∈ f schreibt man üblicherweise n = f (m) oder m 7→ n.
Abbildungen bezeichnet man synonym auch als Funktionen.
Bemerkung:
Zu f): „Geordnet“ heißt beispielsweise (1, 2) ̸= (2, 1); man beachte den Unterschied zu Mengen: {1, 2} = {2, 1}. Analog bezeichnet Ausdrücke der Form
(a, b, c) als Tripel und (x1 , ..., xn ) mit n ∈ N als n-Tupel. Sind M1 , ..., Mn
Mengen, so ist deren kartesisches Produkt M1 × ... × Mn := {(m1 , ..., mn ) |
m1 ∈ M1 , ..., mn ∈ Mn }. Statt |M × ...
× M} schreibt man auch M n .
{z
n-mal
Setzt man das Paar (x, y) mit der Menge {{x}, {x, y}} gleich, ergibt sich
M ×N = {A ∈ P(M ∪ N ) | ∃x ∈ M, y ∈ N : A = {{x}, {x, y}}}. Die Existens des kartesischen Produkts ergibt sich also auch der Kombination von
Paarmengen-, Vereinigungs-, Potenzmengen- und Aussonderungsaxiom.
Lineare Algebra für IB, AIB, BIB
17
1.3 Mengenkonstruktionen
1 GRUNDLAGEN
Beispiel: In der Schule modellierten Sie den „Anschauungsraum“ als R3 :
Ein Raumpunkt entspricht einem Koordinatentripel (x, y, z) reeller Zahlen.
Zu g): Das Ersetzungsaxiom kann man wie folgt formalisieren. Wenn P (x, y)
eine Aussageform ist, so dass gilt ∀x, y, z : (P (x, y) ∧ P (x, z) ⇒ y = z), so
ist {y | ∃m ∈ M : P (m, y)} eine Menge. In dieser Formulierung existiert
ggf. nicht für jedes m ∈ M ein ym mit P (m, ym ).
Zu h): In der Schule haben Sie die Menge {(m, f (m)) | m ∈ M } als Funktionsgraph bezeichnet. Man kann den Begriff der Abbildung intuitiv auch
so verstehen: Durch f wird jedem m ∈ M ein eindeutiger Funktionswert f (m) ∈ M zugeordnet. Sie kennen zum Beispiel die Sinusfunktion,
√
: R≥0 → R, vielleicht auch die Logasin : R → R, die Wurzelfunktion,
rithmusfunktion, ln : R≥0 → R. Es sei betont, dass eine Abbildung nicht
immer durch eine „Formel“ definiert zu sein braucht. Auch ist nicht nötig,
dass jedes Element der Zielmenge tatsächlich als Funktionswert auftritt.
Man kann zwar den Sinus auch als Abbildung R → [−1, 1] auffassen —
aber das wäre eine andere Funktion.
Definition 1.13
a) Abbildungen f, g : X → Y sind gleich (f = g) gdw. ∀x ∈ X : f (x) = g(x).
b) Eine Abbildung f : X → Y heißt...
i) injektiv ⇐⇒ ∀x1 , x2 ∈ X : x1 ̸= x2 ⇒ f (x1 ) ̸= f (x2 ).
ii) surjektiv ⇐⇒ ∀y ∈ Y ∃x ∈ X : f (x) = y.
iii) bijektiv gdw. f ist injektiv und surjektiv.
18
Weder surjektiv noch injektiv
Surjektiv aber nicht injektiv
Injektiv aber nicht surjektiv
Bijektiv
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
1.3 Mengenkonstruktionen
c) Für f : X → Y und g : Y → Z wird die Verknüpfung oder Komposition
g ◦ f : X → Z dadurch definiert, dass ∀x ∈ X : (g ◦ f )(x) := g(f (x)).
Lemma 1.14
Verknüpfung von Abbildungen ist assoziativ, d.h. sind f : X → Y , g : Y → Z und
h : Z → W , so gilt h ◦ (g ◦ f ) = (h ◦ g) ◦ f .
Beweis:
Für jedes x ∈ X haben beide Abbildungen den Wert h(g(f (x))), was man sieht,
indem man sukzessive die Definition von Komposition einsetzt: (h ◦ (g ◦ f ))(x) =
h ((g ◦ f )(x)) = h(g(f (x))) und ((h ◦ g) ◦ f )(x) = (h ◦ g)(f (x)) = h(g(f (x)). □
Der kleine Kasten □ ist das Zeichen, dass dort der Beweis endet.
Um die obigen Konstruktionen anwenden zu können, braucht man natürlich einen
„Rohstoff“. Folgende Mengen denken Sie vermutlich aus der Schule zu kennen:
∅, {} Die leere Menge, die keine Elemente enthält. Dass es die leere Menge gibt,
wird im Leermengenaxiom gefordert.
N Die Menge N = {0, 1, 2, 3, 4, 5, . . .} aller natürlichen Zahlen — zumindest nach
DIN 5473 gehört die Null zu den natürlichen Zahlen. Die Existenz von N
folgt aus dem Unendlichkeitsaxiom.
N∗ Die Menge N∗ = {1, 2, 3, 4, 5, . . .} aller positiven natürlichen Zahlen — wieder
nach DIN 5473.
Z Die Menge Z = {. . . , −2, −1, 0, 1, 2, . . .} aller ganzen Zahlen
Q Die Menge der rationalen Zahlen
R Die Menge der reellen Zahlen
Q>0 Menge der positiven rationalen Zahlen (analog Q≥0 , R<0 etc.)
Intervalle: Für a, b ∈ R, a ≤ b, bezeichnet man [a, b] = {x ∈ R | a ≤ x ≤ b},
]a, b] = {x ∈ R | a < x ≤ b}, analog [a, b[ und ]a, b[, ferner ]−∞, a] = {x ∈
R | x ≤ a} etc.16
C Die Menge der komplexen Zahlen (kommt noch)
DIN 5473 wird von vielen Mathematikern ignoriert. Sie sollten also immer auf
den Kontext achten, ob 0 ∈ N. Wer N = {1, 2, 3, 4, ...} verwendet, der schreibt
meistens N0 = {0, 1, 2, 3, ...}.
16
Die Notation (a, b) statt ]a, b[ für offene Intervalle verwende ich nicht, da zumindest an der
Tafel [ und ( leichter zu verwechseln sind als [ und ].
Lineare Algebra für IB, AIB, BIB
19
1.4 Beweise
1.4
1 GRUNDLAGEN
Beweise
Beweise sind nichts anderes als schlüssige Argumentationsketten. Wohlgemerkt
sind Beweise in erster Linie Texte: Es ist in vielen Fällen wenig sinnvoll, alles
zu formalisieren. Es genügt, dass man einen Beweis formalisieren könnte, aber ihn
tatsächlich voll zu formalisieren, würde in einem unsinnig langen Text resultieren.
Mathematische Sätze, Definitionen und Schlussregeln lassen sich meist in
Form einer Implikation darstellen, also ∀x : (V (x) ⇒ B(x)): „Unter der Voraussetzung V (x) gilt die Behauptung B(x).“
Beispiel: Lautet die erste binomische Formel: „(x + y)2 = x2 + 2xy + y 2 “?
Lautet der Satz des Pythagoras: „Wenn a, b die Kathetenlängen und c die
Hypothenusenlängen eines rechtwinkligen Dreiecks sind, dann a2 + b2 = c2 “?
Siehe Vorlesung!
Die Voraussetzung V (x) kann und muss während des Beweises von ∀x : V (x) ⇒
B(x) als gültig behandelt werden — denn für Werte von x, für die V (x)
falsch ist, ist nichts zu zeigen.
Die Argumente eines mathematischen Beweises sind stets deduktiv. Das heißt:
Aus der Gültigkeit einer Implikation A ⇒ B und der Gültigkeit von A wird
die Gültigkeit von B gefolgert.
Bemerkung: In der Argumentationslehre betrachtet man außer deduktiven noch
induktive und abduktive Argumente. Diese sind zwar in der Mathematik ungültig, werden jedoch in der Mathematikdidaktik zum Erkenntnisgewinn im Unterricht genutzt.17 Vollständige Induktion, die ausführlich in der Vorlesung über
Diskrete Strukturen behandelt wird, ist übrigens trotz des Namens deduktiv.
1.4.1
Direkte Beweise
Verwendbar in einem Beweis sind: Die Voraussetzungen des zu beweisenden Satzes, alle vorher in der Vorlesung bewiesenen Sätze18 und last but not least die
Definitionen, die vor der Formulierung des Satzes bekannt sein müssen, denn sonst
ergäbe der Satz keinen Sinn; ich setze hier voraus, dass Sie natürliche, ganze und
rationale Zahlen kennen, die Grundrechenarten einschließlich Division mit Rest
sowie das Rechnen mit Wurzeln beherrschen, und dabei auch Rechenregeln wie
etwa das Distributivgesetz ∀a, b, c ∈ Z : a · (b + c) = a · b + a · c verwenden können;
diese Rechenregeln werden wir in einem späteren Kapitel genauer untersuchen.
17
Michael Meyer: Entdecken und Begründen im Mathematikunterricht — Zur Rolle der
Abduktion und des Arguments. JMD 28, 286–310 (2007).
18
Das gilt aber nicht in Prüfungen, denn soll man in einer Prüfung einen Satz beweisen,
reicht es natürlich nicht zu sagen, dass der Satz in der Vorlesung bewiesen wurde, sondern man
soll den Beweis reproduzieren oder einen Alternativbeweis führen.
20
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
1.4 Beweise
Meist wäre es ein grober Fehler, mit einem bestimmten Wert von x zu arbeiten,
denn B(x) soll ja für alle x, gezeigt werden, für die V (x) gilt. Die Ausnahme:
Bisweilen gelingt eine Fallunterscheidung, bei denen zumindest in manchen Fällen
nur ein einzelner Wert von x zu betrachten ist; dazu später mehr.
Ohne Begriffsdefinitionen kann man keine Beweise führen. Wenn Sie selbst
Beweise führen, müssen Sie die auftretenden Begriffsdefinitionen kennen, und es ist zu empfehlen, sie stets im Skript nachzusehen.
Definition 1.15. n ∈ Z heißt...
a) gerade :⇔ ∃k ∈ Z : n = 2k.
b) ungerade :⇔ ∃k ∈ Z : n = 2k + 1.
Eigentlich müsste man nun beweisen, dass keine ganze Zahl gleichzeitig gerade
und ungerade ist, und dass jede ganze Zahl gerade oder ungerade ist. Das tun wir
hier nicht. Stattdessen zeigen wir, als leichtes Beispiel eines direkten Beweises.
Anmerkungen zur Vorgehensweise sind in roter Farbe.
Lemma 1.16. Seien m, n ∈ Z ungerade. Dann ist auch mn ungerade.
Beweis:
Als erstes setzen wir die Definition ein. Variablennamen kann man frei wählen:
m, n ungerade ⇒ ∃k, ℓ ∈ Z : m = 2k + 1 ∧ n = 2ℓ + 1.
Dies setzen wir in die Behauptung ein und formen um: mn = (2k + 1)(2ℓ + 1) =
4kℓ + 2k + 2ℓ + 1 = 2(2kℓ + k + ℓ) + 1.
Zuletzt wenden wir wieder die Definition an: 2kℓ+k+ℓ ∈ Z ⇒ mn ist ungerade.□
1.4.2
Indirekte Beweise
Man kann eine Aussage beweisen, indem man beweist, dass keine Widerlegung
der Aussage möglich ist — zumindest ist dies in der klassischen zweiwertigen
Logik möglich. Andere Sichtweise: Man ersetzt die zu beweisende Aussage durch
eine logisch äquivalente, aber ggf. leichter beweisbare Aussage.
Widerspruchsbeweise basieren auf Lemma 1.5.c). Die zu beweisende Aussage
∀x : V (x) ⇒ B(x) ist genau dann falsch, wenn es ein Gegenbeispiel gibt, also
∃x : V (x) ∧ (¬B(x)). Also kann man die Aussage dadurch beweisen, dass man
die Existenz eines Gegenbeispiels widerlegt, formell: ∀x : V (x) ∧ (¬B(x))) ⇒ F .
Die hier enthaltene Implikation wird dann meist direkt bewiesen.
Definition 1.17
Es gilt x ∈ Q genau dann, wenn es a, b ∈ Z mit b ̸= 0 gibt, so dass x = ab .
Lemma 1.18
√
√
∀q ∈ Q : q 2 ̸= 2. Anders gesagt: 2 ∈
/ Q, d.h. 2 ist irrational.
Lineare Algebra für IB, AIB, BIB
21
1.4 Beweise
1 GRUNDLAGEN
Beweis:
, und dabei können
Annahme: ∃q ∈ Q : q 2 = 2. Dann gibt es m, n ∈ Z : q = m
n
m
19
wir m, n oBdA so wählen, dass n vollständig gekürzt ist. Wir setzen ein:
2
m
2
= m
= 2 ⇒ m2 = 2n2 . Wäre m ungerade, so nach Lemma 1.16 auch
n2
m = 2n2 . Da aber 2n2 gerade ist, muss m selbst gerade sein. Das ist ein kleiner
Widerspruchsbeweis innerhalb des Gesamtbeweises.
m gerade ⇒ ∃k ∈ Z : m = 2k ⇒ m2 = (2k)2 = 2 · 2k 2 = 2n2 ⇒ 2k 2 = n2 .
Wieder: Wäre n ungerade, dann nach Lemma 1.16 auch n2 = 2k 2 ungerade, das
geht nicht, also muss n ebenfalls gerade sein. Wenn aber m, n beide gerade sind,
nicht vollständig gekürzt, im Widerspruch zur Annahme. Die Annahme
ist m
n
war, dass die Behauptung falsch ist. Das wurde zum Widerspruch geführt. Also
ist die Behauptung wahr.
□
n
2
Beweise durch Kontraposition basieren auf Lemma 1.5.b). Statt V ⇒ B
beweist man (¬B) ⇒ (¬V ).
Für das erste Beispiel eines Beweises durch Kontraposition muss ich darauf
vertrauen, dass Sie den Begriff der Dezimaldarstellung reeller Zahlen aus der
Schule kennen: Jedes x ∈ R lässt sich als Folge von Ziffern von 0 bis 9 darstellen,
nämlich endlich viele Vorkommastellen und unendlich viele Nachkommastellen
(die allerdings alle null sein können). Die Nachkommastellen können sich periodisch wiederholen, dies wird durch einen Querstrich über der sich wiederholenden Ziffernfolge gekennzeichnet.
Beispiel: 17 = 0,142857
Proposition 1.19
Sei x ∈ R. Wenn x ∈
/ Q, dann gibt es mindestens zwei Ziffern, die jeweils unendlich oft in der Dezimaldarstellung von x auftreten.
Beweis:
Formulierung der Kontraposition: Wir zeigen: Wenn es höchstens eine Ziffer gibt,
die in der Dezimaldarstellung von x unendlich oft auftritt, dann x ∈ Q.
Zunächst wird die neue Voraussetzung etwas konkretisiert: Es sei ℓ ∈ N so, dass
in der Dezimaldarstellung von x ab der (ℓ + 1)-ten Nachkommastelle nur noch
die Ziffer z ∈ {0, ..., 9} vorkommt. Der Fall z = 0 entspricht einer endlichen
Dezimaldarstellung.
Kreative Konstruktion: y ∈ R sei aus dem Vorzeichen, den Vorkommaziffern
und den ersten ℓ Nachkommaziffern von x gebildet. Beobachtung: y · 10ℓ ∈ Z. Es
gilt also y ∈ Q. Hier wurde die Definition rationaler Zahlen eingesetzt.
In der Dezimaldarstellung von x − y sind die Vorkommastellen und die ersten
ℓ Nachkommastellen null, danach kommt nur noch z. Bis auf das Vorzeichen gilt
z
also (x − y) · 10ℓ = ±0,z̄ = ± z9 . Folglich ist x = y ± 9·10
ℓ rational, denn es ist
19
22
ohne Beschränkung der Allgemeinheit
Lineare Algebra für IB, AIB, BIB
1 GRUNDLAGEN
1.4 Beweise
eine Summe zweier rationaler Zahlen. Wir haben x explizit als rationale Zahl
dargestellt.
□
Beispiel: Für x := −17,2423̄ haben wir ℓ := 3, z = 3, y := −17,242 = −17242
,
1000
−17242
3
x − y = −0,0003̄ und damit x = 1000 − 9000 .
√
Bemerkung: Für ein konkretes x ∈ R, x ∈
/ Q, so wie x = 2 oder x = π, liefert
der Beweis nicht den geringsten Anhaltspunkt dafür, welche zwei Ziffern es sind,
die unendlich oft in der Dezimaldarstellung auftreten. Dieses Problem tritt bei
indirekten Beweisen häufig auf. Direkte konstruktive Beweise sind zu bevorzugen
— aber nicht immer lässt sich ein indirekter Beweis vermeiden.
Fallunterscheidungen basieren auf Lemma 1.5.d) in Verbindung mit den de
morganschen Regeln. Oft ist ein Beweis einfacher zu führen, wenn zusätzliche
Voraussetzungen gelten (allerdings ist dann der Beweis weniger allgemein). Bei
einer Fallunterscheidung betrachtet man nacheinander mehrere Zusatzvoraussetzungen, von denen stets mindestens eine erfüllt ist (man weiß aber nicht, welche).
Man hat also Zusatzvoraussetzungen Z1 , ..., Zn mit ∀x : Z1 (x) ∨ ... ∨ Zn (x), und
dann ist V ⇒ B gleichbedeutend zu ((V ∧ Z1 ) ⇒ B) ∧ ... ∧ ((V ∧ Zn ) ⇒ B).
Hier ist ein Beispiel:
Theorem 1.20. ∃a, b ∈ R : a, b ∈
/ Q ∧ ab ∈ Q.
Beweis:
√ √2
Entweder ist 2 in Q oder nicht. Fallunterscheidung:
√ √2
√
Fall 1: 2√ ∈ Q. Dann ist die zu beweisende Aussage wahr mit a = b = 2,
denn 2 ∈
/ Q nach Lemma 1.18.
√ √2
√ √2
/ Q. Dann ist die
zu beweisende Aussage wahr mit a = 2 und
Fall 2: 2 ∈
√
√ √2·√2
√ 2
b
b = 2, denn a = 2
= 2 = 2 ∈ Q, a ∈
/ Q in Fall 2, und b ∈
/ Q
nach Lemma 1.18.
□
√ √2
Bemerkung: Der Beweis gibt keinen Aufschluss darüber, ob 2 rational ist.
Der Satz von Gelfond-Schneider [1934] impliziert aber, dass es tatsächlich nicht
rational ist.
Lineare Algebra für IB, AIB, BIB
23
2 LINEARE GLEICHUNGSSYSTEME
2
Lineare Gleichungssysteme
In diesem Kapitel geht es darum, die gedanklichen Grundlagen für die lineare Algebra zu legen. Wir beginnen mit Gleichungssystemen, wie Sie sie in der Schule
betrachteten: Systeme von bis zu drei linearen Gleichungen mit bis zu drei Unbekannten, mit Koeffizienten in R. Die Schulnotation dafür wäre zum Beispiel:
−2 x + y − 2 z = 1
2x + 0y − 2z = 1
0 x − 4 y − 4 z = −3
(I)
(II)
(III)
Hierfür werden wir zunächst zwei geometrische Sichtweisen entwickeln. Außerdem führen wir die Matrixnotation ein, die Sie in Zukunft statt der ungeschickten
Schulnotation verwenden sollen.20 Die Matrixnotation macht es möglich, beliebig
große lineare Gleichungssysteme zu betrachten, und sie gibt auch Anlass zu weiterführenden algebraischen Themen. Die hier betrachteten Lösungstechniken sind
in jedem Kontext durchführbar, in denen die Grundrechenarten mit den üblichen
Rechengesetzen zur Verfügung stehen — und das führt auf die Begriffe „Ring“
und „Körper“, die wir im nächsten Kapitel betrachten werden.
Zur geschichtlichen Einordnung: Bereits 100 n.Chr. wurden in Kapitel 8 des
chinesischen Buches Jiǔ Zhāng Suànshù Systeme von bis zu drei Gleichungen mit
bis zu drei Unbekannten gelöst. Dies ging insofern über heutige Abiturkenntnisse
hinaus, als dafür schon die Matrix-Notation und das zuerst von Gauß in voller
Allgemeinheit formulierte Eliminationsverfahren verwendet wurde.
Im Rest des Kapitels sei K ein Ring.21
2.1
Matrixnotation
Notation 2.1. Seien m, n ∈ N∗ .
a) Kn ist ja das n-fache kartesische Produkt von K mit sich selbst. ⃗v ∈ Kn
heißt, dass ⃗v ein Tupel aus n Elementen v1 , ..., vn ∈ K ist, die man als
die Komponenten von ⃗v bezeichnet. Normalerweise schreiben wir Elev1 !
n
mente von K mit einem Pfeilakzent als Spaltenvektor, also ⃗v = ... .
vn
Manchmal stellen wir sie jedoch auch als Zeilenvektor dar; dafür werde
ich meist einen Unterstrich statt einen Pfeilakzent verwenden, also etwa
v = ( v1 ... vn ). Beim Nullvektor ⃗0 ∈ Kn sind alle Komponenten Null.
b) Eine (m × n)-Matrix A über K besteht aus m · n Elementen von K, die in
einem rechteckigen Schema mit m Zeilen und n Spalten aufgestellt sind. Die
20
Wie gesagt: Betrachten Sie Ihre Schulkenntnisse möglichst nur noch im Rückspiegel.
Die Passagen in roter Farbe wurden angepasst, nachdem in Kapitel 3 die Begriffe Ring
und Körper eingefügt wurden.
21
24
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
2.1 Matrixnotation
Menge aller (m×n)-Matrizen über K bezeichnen wir als Km×n . Im Spezialfall
m = n nennt man eine Matrix quadratisch; Notation Mn (K) := Kn×n .
c) Für i ∈ {1, ..., m} und j ∈ {1, ..., n} und A ∈ Km×n sei Ai,∗ ∈ Kn der aus
der i-ten Zeile von A gebildeten Zeilenvektor und A∗,j ∈ Km der aus der
j-ten Spalte von A gebildete Spaltenvektor. Ai,j ∈ K bezeichnet den Eintrag
in der j-ten Spalte der i-ten Zeile von A, die (i, j)-Komponente von A.
d) Schreibt man Spaltenvektoren ⃗v1 , ..., ⃗vn ∈ Km nebeneinander, so entsteht die
Matrix (⃗v1 , ..., ⃗vn ) ∈ Km×n .
e) Für A ∈ Km×n ist die transponierte Matrix tA ∈ Kn×m definiert durch
∀i ∈ {1, ..., m}, j ∈ {1, ..., n} : tA j,i := Ai,j (Tausche Zeilen und Spalten).
In manchen Büchern, besonders aus dem englischen Sprachraum, werden hVek-i
1 2
toren und Matrizen mit eckigen statt runden Klammern notiert, also etwa 2 3
3 4
1 2
statt 2 3 . In manchen Büchern und in meinen früheren Vorlesungen wird Trans3 4
position mit einem ⊤-Exponent notiert, also A⊤ statt tA ; in der englischen Wikipedia sind noch weitere Notationen genannt.
Beispiele:
• Für A :=
1 1 1
2 3 1
1 −1 3
∈ M3 (R) haben wir Einträge A3,2 = −1 und A2,3 = 1,
A2,∗ = ( 2 3 1 ) und A∗,2 =
•
t 1 3 7 4 3 1 2 9 =
8 0 7 3
1 3 8
3 1 0
7 2 7
4 9 3
1 3
−1
.
t
∈ R4×3 . Man beachte: tA = A.
Wir sind nun in der Lage, lineare Gleichungssysteme besser als in der Schule
zu notieren. Zunächst einmal sind die Namen der Variablen völlig egal, es ist
besser, sie durchzunummerieren und als Komponenten eines Vektors anzusehen.
Die Unbekannten im obigen Beispiel stellen wir also durch einen Spaltenvektor
⃗x ∈ K3 mit den Komponenten x, y, z dar. Die Vorfaktoren der Variablen lassen
sich in eine Matrix schreiben, die Koeffizientenmatrix des Gleichungssystems.
Die Zahlen auf der rechten Seite des Gleichungssystems bilden ebenfalls einen
Vektor ⃗b ∈ K3 , die Inhomogenität des Gleichungssystems.
Beispiel: Obiges Gleichungssystem hat die Koeffizientenmatrix A :=
M3 (R) und die Inhomogenität ⃗b :=
1 1
−3
−2 1 −2
2 0 −2
0 −4 −4
∈ R3 .
Die Zuordnung eines Vorfaktors zur richtigen Variable ergibt sich aus seiner
Position: Steht ein Vorfaktor in der zweiten Spalte der Koeffizientenmatrix, so ist
er in der betreffenden Gleichung mit der zweiten Variable zu multiplizieren; es
Lineare Algebra für IB, AIB, BIB
25
∈
2.2 Matrixarithmetik
2 LINEARE GLEICHUNGSSYSTEME
wäre eine völlig überflüssige Schreibarbeit, die Variablen in die Gleichungen zu
schreiben: Die volle Information über das Gleichungssystem steckt in der Koeffizientenmatrix A und der Inhomogenität ⃗b und wir schreiben das Gleichungssystem
!
daher einfach als A · ⃗x = ⃗b. Die Notation sieht so aus, als werde hier die Matrix A
mit dem Vektor ⃗x multipliziert. Und das wollen wir nun definieren. Danach wird
die Definition der Matrixarithmetik inhaltlich begündet.
2.2
Matrixarithmetik
In diesem Abschnitt sei jeweils k, ℓ, m, n, p ∈ N∗ und K sei ein kommutativer
Ring. Addition von Matrizen sowie Multiplikation einer Matrix mit einem Körperelement ist genau so, wie Sie es aus der Schule für Vektoren kennen:
A1,1 +B1,1 ... A1,n +B1,n
Definition 2.2
..
..
 und
Für c ∈ K, A, B ∈ Km×n definiert man A + B := 
.
.


Am,1 +Bm,1 ... Am,n +Bm,n

cA1,1 ... cA1,n
c · A :=  ...
..
.

 ( Skalarmultiplikation22 ).
cAm,1 ... cAm,n
Da Spalten- und Zeilenvektoren ebenfalls Matrizen sind, ist dadurch die Addition
und Skalarmultiplikation auf Kn ebenfalls definiert. Für die Multiplikation von
Matrizen — und auch sonst! — sollte man das Summenzeichen kennen:
Definition 2.3
0
0
Q
P
ai := 1. Für
ai := 0 bzw.
Sei n ∈ N und a1 , ..., an ∈ K. Wir definieren
n > 0 sei
n
P
ai :=
n−1
P
i=1
n
Q
ai + an bzw.
i=1
i=1
ai :=
i=1
n−1
Q
i=1
ai · an . Analog für andere
i=1
Indexbereiche.
Beispiele:
a)
3
P
k 3 = −8 − 1 + 0 + 1 + 8 + 27 = 27;
k=−2
b)
100
P
2 = 201 · 2 = 402.
i=−100
c) Fakultät: Für n ∈ N sei n! :=
n
Q
i = 1 · 2 · ... · (n − 1) · n.
i=1
d) Summen bzw. Produkte mit unendlich vielen Summanden bzw. Faktoren
P (−1)n
mit Hilfe
sind nicht definiert! Allenfalls lassen sich Ausdrücke wie
n
n∈N∗
von Grenzwerten, also mit Mitteln der Analysis, erfassen. Man nennt das
dann nicht mehr Summe, sondern Reihe. Aber dann kann man im Allgemeinen nicht die Summanden beliebig vertauschen. Übrigens: Obige Reihe hat
den Wert − ln(2), sofern man die Indizes aufsteigend (1, 2, 3, 4, ...) sortiert.
22
26
Beachte: Es gibt auch Skalarprodukte, aber das ist etwas anderes!
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
2.2 Matrixarithmetik
Definition 2.4
Seien M1 , ..., Mk ∈ Km×n . Die Linearkombination von M1 , ..., Mk mit Koeffizienten c1 , ..., ck ∈ K ist
k
P
ci Mi ∈ Km×n .
i=1
Die Definition umfasst insbesondere Linearkombinationen von Spalten- bzw. von
Zeilenvektoren.
Definition 2.5 (Matrixmultiplikation)
Für A ∈ Km×k und B ∈ Kk×n definiert man AB ∈ Km×n durch
(AB)i,j := Ai,1 B1,j + Ai,2 B2,j + Ai,3 B3,j + · · · + Ai,k Bk,j =
k
X
Ai,ℓ Bℓ,j .
ℓ=1
Damit das Produkt AB existiert, muss A genau so viel Spalten haben, wie B Zeilen hat — andernfalls ist das Matrixprodukt nicht definiert! Folgende Beobachtung sieht harmlos aus, ist aber äußert nützlich und Sie sollten sich angewöhnen,
mit Matrixmultiplikation im Sinne der Beobachtung zu hantieren.
Beobachtung 2.6
Seien A ∈ Km×k und B ∈ Kk×n . Für alle i ∈ {1, ..., m} und alle j ∈ {1, ..., n}
gilt (A · B)i,∗ = Ai,∗ · B (Linearkombination der Zeilen von B mit Koeffizienten
Ai,1 , ..., Ai,k ) und (A · B)∗,j = A · B∗,j (Linearkombination der Spalten von A mit
Koeffizienten B1,j , ..., Bk,j ).
Beispiel: ( 13 01 ) ( 01 23 45 ) =
1·0+0·1 1·2+0·3 1·4+0·5
3·0+1·1 3·2+1·3 3·4+1·5
4 ).
= ( 01 29 17
Beobachtung 2.7
Sei A ∈ Km×n und ⃗b ∈ Km . ⃗x ∈ Kn löst das lineare Gleichungssystem
A1,1 x1 + A1,2 x2 + ... + A1,n xn = b1
..
..
.
.
Am,1 x1 + Am,2 x2 + ... + Am,n xn = bm ,
genau dann, wenn A⃗x = ⃗b.
Wenn man schon eine Multiplikation definiert, könnte man erwarten, dass es
vielleicht für A ein Inverses A−1 gibt, so dass man das Gleichungssystem durch
⃗x = A−1 · ⃗b auflösen kann. Die Frage, wann A−1 existiert und wie man es ggf.
berechnet, wird uns noch beschäftigen; vorsichtshalber sei gesagt, dass man in der
Praxis so gut wie nie A−1 explizit berechnet, denn es gibt effizientere Methoden
zur Lösung eines linearen Gleichungssystems.
Lineare Algebra für IB, AIB, BIB
27
2.2 Matrixarithmetik
2.2.1
2 LINEARE GLEICHUNGSSYSTEME
Interpretation
Wir geben zwei geometrische Interpretationen von linearen Gleichungssystemen,
wobei wir ein letztes Mal(!!) die umständliche Schulnotation verwenden:
−2 x + y − 2 z = 1
2x + 0y − 2z = 1
0 x − 4 y − 4 z = −3
(I)
(II)
(III)
Zeilenbild: Die Lösungsmenge des obigen Gleichungssystems ist als die Schnittmenge der Lösungsmengen der drei einzelnen Gleichungen. Sind nicht alle Koeffizienten einer linearen Gleichung Null, so hat mindestens eine Variable einen
nicht-verschwindenden Koeffizient, und nach jeder solchen Variable kann man
auflösen, sie also als Funktion der anderen Variablen darstellen.
Beispiel: 2 x + 0 y − 2 z = 1 kann man wahlweise nach x = 21 + z oder nach
z = − 12 + x auflösen, jedoch nicht nach y. Man erhält also eine zur y-Achse
⃗0,
parallele Ebene als Lösungsmenge der zweiten Gleichung. Sie enthält nicht
denn aufgrund der Inhomogenität schneidet die Ebene die x-Achse in
1
2
0
0
.
Allgemein werden die Lösungen einer einzelnen linearen Gleichung mit n Variablen und nicht-verschwindendem Koeffizientenvektor durch n − 1 frei wählbare
Variablen beschrieben. In der Schule lernten Sie, wie man prüft, ob zwei Vektoren
aufeinander senkrecht stehen; hier kann man sehen, dass die Lösungsmenge einer
linearen Gleichung senkrecht auf dem Koeffizientenvektor steht.
Der Schnitt zweier Ebenen in R3 ist die leere Menge, eine Gerade oder eine
Ebene. Demnach ist der Schnitt dreier Ebenen in R3 leer, ein einzelner Punkt,
eine Gerade oder eine Ebene. Einen einzelnen Punkt, also eine eindeutige Lösung
des linearen Gleichungssystems, erhält man genau dann, wenn die Zeilen von A
nicht in einer gemeinsamen Ebene liegen.
x
Spaltenbild: Ist ⃗x = yz ∈ R3 eine Lösung unseres Gleichungssystems, dann
ist das x-Fache von A∗,1 plus das y-Fache von A∗,2 plus das z-Fache von A∗,3
gleich der Inhomogenität ⃗b. Das heißt: ⃗b ist Linearkombination der Spalten von
A. Man erahnt: Wenn nicht alle drei Spalten der Matrix in einer gemeinsamen
Ebene in R3 liegen, so bilden sie ein dreidimensionales Koordinatensystem und
das Gleichungssystem hat für jede Inhomogenität eine eindeutige Lösung.
Vereinfachung des Gleichungssystems: Aus der Schule kennen Sie das Additionsverfahren, bei dem man ein Gleichungssystem schrittweise vereinfacht, indem man geschickt Vielfache einer Gleichung zu den anderen Gleichungen addiert.
28
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
Beispiel:
−2 1 −2
2 0 −2
0 −4 −4
!
· ⃗x =
1 1
−3
−2 1 −2
0 1 −4
0 −4 −4
⇝
2.2 Matrixarithmetik
!
· ⃗x =
1 2
−3
⇝
−2 1 −2
0 1 −4
0 0 −20
!
· ⃗x =
1
. Wir können nun ⃗x von unten nach oben berechnen (Rückwärtssubstitution),
indem wir die letzte Komponente mittels der letzten Gleichung berechnen, dies in
die vorletzte Gleichung einsetzen
und nach der vorletzten Kompontente auflösen,
!
2
5
und so weiter: ⃗x =
1
4
1
− 41
ist die einzige Lösung.
Die Gleichungen sind in den Matrixzeilen codiert. Die obigen Operationen beruhen also auf Summen von Vielfachen von Matrixzeilen, also wieder Linearkombinationen. Und genau dies erhält man, wenn man von links mit einem Zeilenvektor
multipliziert.
2.2.2
Rechenregeln
Lemma 2.8
Seien A ∈ Km×k , B ∈ Kk×n . Dann t(AB) = tB tA .
Beweis:
∀i ∈ {1, ..., m}, j ∈ {1, ..., n} :
t
(AB) j,i = (AB)i,j =
k
P
Ai,ℓ Bℓ,j =
ℓ=1
k
P
t
ℓ=1
B j,ℓ tA ℓ,i = ( tB tA )j,i .
□
Definition 2.9
a) 0 ∈ Km×n bezeichnet die Nullmatrix mit m Zeilen und n Spalten, deren
Einträge alle Null sind.
:⇔ ∀i ̸= j ∈
b) D ∈ Mn (K) heißt Diagonalmatrix
{1, ..., n} : Di,j = 0. Für


γ1 ... 0
. .


. . ... 
γ1 , ..., γn ∈ K sei diag(γ1 , ..., γn ) :=  ..
 ∈ Mn (K).
0 ... γn
c) Die Einsmatrix23 ist 1n = diag(1, ..., 1) ∈ Mn (K).
Aufgabe 2.10
In den folgenden Aussagen sei γ, δ ∈ K und A, B, C seien Matrizen, für die die
angegebenen Rechenoperationen definiert sind (d.h. die Zeilen- und Spaltenzahlen
„passen“).
a) Assoziativität: (γδ)A = γ(δA), (γA)B = γ(AB) und (AB)C = A(BC);
(A + B) + C = A + (B + C).
b) Kommutativität der Addition: A + B = B + A. Multiplikation ist i.A. nicht
kommutativ! Jedoch gilt A(γB) = γ(AB).
23
Auch Einheitsmatrix genannt.
Lineare Algebra für IB, AIB, BIB
29
2.2 Matrixarithmetik
2 LINEARE GLEICHUNGSSYSTEME
c) Distributivität: γ(A + B) = γA + γB, A(B + C) = AB + AC, (A + B)C =
AC + BC und (γ + δ)A = γA + δA.
d) Für A ∈ Km×n gelten A · 1n = A, 1m · A = A und 0 + A = A. Falls 0A bzw.
A0 definiert ist, ist das Ergebnis 0.
e) ∀A ∈ Km×n : ∃−A ∈ Km×n : A + (−A) = 0.
Zeilenoperationen und Elementarmatrizen
Da wir in diesem Kapitel auch dividieren müssen, sei nun K ein Körper. In vielen
Rechenverfahren der linearen Algebra treten drei Typen von Zeilenoperationen und zum Teil auch die entsprechenden Spaltenoperationen auf:
I) Zeilen i und ℓ miteinander vertauschen (i ̸= ℓ).
II) Zeile i mit λ ∈ K∗ multiplizieren.
III) Das γ-Fache von Zeile i zu Zeile ℓ addieren (γ ∈ K, i ̸= ℓ).
Lemma 2.11 (und Definition und Notation)
a) Seien M ∈ Km×n , N ∈ Kn×ℓ Wenn M ′ aus M durch eine Zeilenoperation
enteht, dann entsteht M ′ · N aus M · N durch dieselbe Zeilenoperation.
b) Eine Matrix, die aus 1m durch eine einzelne Zeilenoperation entsteht, bezeichnet man als die Elementarmatrix für diese Zeilenoperation. Es sei
Ti,ℓ ∈ Mm (K) die Elementarmatrix für die Vertauschung der Zeilen i ̸= ℓ,
Di (λ) ∈ Mm (K) die Elementarmatrix für die Multiplikation der Zeile i mit
λ ∈ K \ {0}, und Li,ℓ (γ) ∈ Mm (K) mit i ̸= ℓ und γ ∈ K die Elementarmatrix
für die Addition des γ-Fachen der i-ten Zeile zur ℓ-ten Zeile.
Ist A ∈ Km×n und ist E ∈ Mm (K) die Elementarmatrix zu einer Zeilenoperation, so entsteht EA aus A durch Anwendung der Zeilenoperation.
1 0 0 0
Beispiel: In M4 (R):
0 0 0 1
0 0 1 0
0 1 0 0
1 0 0 0
1 0 0 0
= T2,4 ,
0 1 0 0
0 0 5 0
0 0 0 1
= D3 (5),
0 1 0 0
−2 0 1 0
0 0 0 1
= L1,3 (−2).
Beweis:
a) Mit Beobachtung 2.6 folgt für die drei Typen der Zeilenoperationen:
′
′
′
I) Sei Mi,∗
= Mℓ,∗ und Mℓ,∗
= Mi,∗ . Dann (M ′ ·N )i,∗ = Mi,∗
·N = Mℓ,∗ ·N =
′
(M · N )ℓ,∗ . Analog (M · N )ℓ,∗ = (M · N )i,∗ .
′
II) Sei Mi,∗
= λ · Mi,∗ . Dann (M ′ · N )i,∗ = (λ · Mi,∗ ) · N = λ · (M · N )i,∗ .
′
′
III) Sei Mℓ,∗
= Mℓ,∗ +γ·Mi,∗ . Dann (M ′ ·N )ℓ,∗ = Mℓ,∗
·N = (Mℓ,∗ + γ · Mi,∗ )·
N = Mℓ,∗ · N + γ · Mi,∗ · N = (M · N )ℓ,∗ + γ · (M · N )i,∗ .
b) Direkte Konsequenz von a), denn A = 1m A.
30
□
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
2.3 Lösungsräume
Jede Zeilenoperation lässt sich durch eine Zeilenoperation rückgängig machen.
Entsprechend lässt sich auch die Multiplikation mit einer Elementarmatrix rückgängig machen, was auf den folgenden Begriff führt.
Definition 2.12
A ∈ Mn (K) heißt invertierbar :⇔ ∃A−1 ∈ Mn (K) : AA−1 = A−1 A = 1n . Ggf.
heißt A−1 die zu A inverse Matrix. Die Menge GLn (K) := {A ∈ Mn (K) |
A invertierbar} heißt allgemeine lineare Gruppe.
Wir werden noch lernen, wie man ggf. die inverse Matrix berechnen kann. Bei
den zugehörigen Beweisen helfen Elementarmatrizen, denn sie sind invertierbar:
Lemma 2.13
−1
a) Wenn A ∈ GLn (K), dann ist A−1 eindeutig bestimmt und A = (A−1 ) .
b) ∀E1 , ..., Em ∈ Mn (K) Elementarmatrizen: G := E1 · · · Em ∈ GLn (K).
Bemerkung: Wir werden noch sehen, dass sich jede invertierbare Matrix als
Produkt von Elementarmatrizen darstellen lässt.
Beweis:
a) Wenn B, C ∈ Mn (K) mit AB = BA = AC = CA = 1n , dann B = B1n =
BAC = 1n C = C. Die zweite Aussage folgt direkt aus der Definition.
b) Jede Elementarmatrix invertierbar ist, denn mit den Notationen aus Lem−1
ma 2.11 gilt: Ti,ℓ = Ti,ℓ
, Di (λ−1 ) = Di (λ)−1 (beachte: λ ̸= 0, und da in K
auch Divisionen durchführbar sind, ist λ−1 ∈ K; für K = Z würde das also
nicht funktionieren.), und Li,ℓ (−γ) = Li,ℓ (γ)−1 (beachte: In K existieren
additive Inverse; für K = N würde das also nicht funktionieren.).
−1 −1
−1 −1
Em−1 · · · E1−1 = 1n =
Em−1 · · · E1−1 , denn E1 · · · Em Em
Es ist G−1 = Em
−1 −1
Em−1 · · · E1−1 E1 · · · Em (von der Mitte ausgehend heben sich jeweils eine
Em
Elementarmatrix und ihr Inverses auf).
□
2.3
Lösungsräume
Definition 2.14. Sei K ein Körper, A ∈ Km×n und ⃗b ∈ Km .
!
a) A⃗x = ⃗b heißt lineares Gleichungssystem mit Koeffizientenmatrix A,
Inhomogenität ⃗b und Unbekannter ⃗x ∈ Kn .
b) Ist die Inhomogenität Null, also A⃗x = ⃗0, so heißt das lineare Gleichungssystem homogen.
c) LR(A; ⃗b) := {⃗x ∈ Kn | A⃗x = ⃗b} heißt Lösungsraum des linearen Glei!
chungssystems A⃗x = ⃗b.
Lineare Algebra für IB, AIB, BIB
31
2.3 Lösungsräume
2 LINEARE GLEICHUNGSSYSTEME
d) Die aus den Spalten von A und zusätzlich ⃗b gebildete Matrix (A | ⃗b) ∈
Km×(n+1) heißt erweiterte Matrix. Durch sie ist das lineare Gleichungssystem eindeutig bestimmt.
Lineare Gleichungssysteme haben nicht immer eine eindeutige Lösung:
Beispiel 2.15
!
Sei A := ( 10 20 11 42 ) ∈ Q2×4 und ⃗b := ( 12 ) ∈ Q2 . Die erweiterte Matrix von A⃗x = ⃗b ist
( 10 20 11 42 12 ). Man kann die zweite und die vierte Variable beliebig wählen und dann
das Gleichungssystem von unten nach oben zuerst nach der dritten und dann nach
der ersten Variable
eindeutig auflösen ( Rückwärtssubstitution).
Startet man
∗
−1 mit dem Ansatz 0∗ , so ergibt sich die Lösung ⃗xspez := 0 ∈ LR(A; ⃗b). Aus
2
0
0
!
Gründen, die imnächsten
liegen, lösen wir nun das homogene
System A⃗x =
Satz
−2 ∗
∗
⃗0: Die Ansätze 1∗ und 0∗ führen auf die Lösungen β⃗2 := 10 ∈ LR(A; ⃗0)
und β⃗4 :=
−2
0
−2
1
! 0
1
0
∈ LR(A; ⃗0).
Satz 2.16 (Algebr. Eigenschaften von Lösungsräumen)
Sei K ein Körper, A ∈ Km×n und ⃗b ∈ Km .
a) Jede Linearkombination von Elementen von LR(A; ⃗0) liegt in LR(A; ⃗0).
Laut Beobachtung 2.6 heißt das: Wenn ⃗x1 , ..., ⃗xk ∈ LR(A; ⃗0) und ⃗c ∈ Kk ,
dann (⃗x1 , ..., ⃗xk ) · ⃗c ∈ LR(A; ⃗0).
n
o
b) Sei ⃗xinh ∈ LR(A; ⃗b) beliebig. Dann LR(A; ⃗b) = ⃗xinh + ⃗xh | ⃗xh ∈ LR(A; ⃗0) .
Beweis:
A⃗
xi =⃗0
✓
a) A · ((⃗x1 , ..., ⃗xk ) · ⃗c) = (A · (⃗x1 , ..., ⃗xk )) · ⃗c =
0 · ⃗c = ⃗0.
b) A⃗x = ⃗b = A⃗xinh ⇐⇒ A(⃗x − ⃗xinh ) = A⃗x − A⃗xinh = ⃗0.
□
∗
Beispiel: Wir setzen Beispiel 2.15 fort. Der Ansatz
c2
∗
c4
führt auf eine eindeu-
!
tige Lösung von A⃗x = ⃗b (Rückwärtssubstitution). Diese muss gleich
⃗x + c2 β⃗2 +
∗ spez
!
c4 β⃗4 sein, denn nach dem Satz löst sie A⃗x = ⃗b und hat die Form c∗2 .
c4
Dies gibt Anlass zu einer Notation.
Definition 2.17. Es sei K ein komm. Ring, k ∈ N∗ und ⃗v0 , ⃗v1 , ..., ⃗vk ∈ Kn .
a) SpanK (⃗v1 , ..., ⃗vk ) := {
k
P
cj ⃗vj | c1 , ..., ck ∈ K}, also die Menge der Linear-
j=1
kombinationen, die aus ⃗v1 , ..., ⃗vk gebildet werden können, heißt Erzeugnis
oder K-Span von ⃗v1 , ..., ⃗vk .
32
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
2.3 Lösungsräume
b) ⃗v0 + SpanK (⃗v1 , ..., ⃗vk ) := {⃗v0 + w
⃗ |w
⃗ ∈ SpanK (⃗v1 , ..., ⃗vk )}.
c) ⃗v1 , ..., ⃗vk heißt linear unabhängig gdw. ∀c1 , ..., ck ∈ K :
k
P
cj ⃗vj = ⃗0 ⇒
j=1
c1 = ... = ck = 0. Andernfalls heißt die Vektorliste linear abhängig.
Beispiele: Wir beenden Beispiel 2.15:
a)
LR(( 10 20 11 42 ) ; ( 12 )) = ⃗xspez + SpanQ (β⃗2 , β⃗4 ) =
−1 0
2
0
−2 + SpanQ (
1
0
0
,
−2
0
−2
1
4
!
).
Die geometrische Interpretation: Der Lösungsraum ist eine Ebene in Q , die
durch zwei Richtungsvektoren und einen Stützvektor gegeben ist.
Die geometrische Struktur der
Lösung wäre meines
Erachtens weniger sicht

−1 − 2 c2 − 2 c4


c2


 | c2 , c4 ∈ Q} schreiben würbar, wenn man stattdessen {


2 − 2 c4
c4
de. Vermeiden Sie diese Notation also bitte.
b) Es wäre ein zwar verbreiteter, aber sehr grober Fehler, SpanQ (⃗xspez , β⃗2 , β⃗4 )
statt ⃗xspez + SpanQ (β⃗2 , β⃗4 ) zu schreiben. Ersteres enthält nämlich ⃗0, doch
das ist wegen A⃗0 = ⃗0 ̸= ⃗b keine Lösung.
⃗ β⃗4 ist linear unabhängig. Für a, b ∈ Q ist nämlich aβ⃗2 +bβ⃗4 von der Form
c) β
2∗, a
⃗
∗ , ist also genau dann gleich 0, wenn a = b = 0.
b
d) ( 10 ) , ( 11 ) , ( 42 ) ∈ R2 ist linear abhängig, denn 2 ( 10 ) + 2 ( 11 ) − ( 42 ) = ( 00 )
Beobachtung 2.18. Seien ⃗v1 , ..., ⃗vk ∈ Kn .
a) SpanK (⃗v1 , ..., ⃗vk ) = {(⃗v1 , ..., ⃗vk ) · ⃗c | ⃗c ∈ Kk }.
b) Somit kann man wie folgt testen, ob ⃗v1 , ..., ⃗vk linear unabhängig sind: Es sei
A := (⃗v1 , ..., ⃗vk ). ⃗v1 , ..., ⃗vk sind linear unabhängig ⇐⇒ LR(A; ⃗0) = {⃗0}.
Zeilenstufenform
Die Koeffizientenmatrix in Beispiel 2.15 hat eine besonders einfache Form, die wir
jetzt auf den Begriff bringen und für die das Lösungsverfahren aus Beispiel 2.15
analog funktioniert. Danach erklären wir, wie man ein beliebiges lineares Gleichungssystem auf diese Form bringt.
Definition 2.19. Es sei K ein Körper und A ∈ Km×n .
Für i = 1, ..., m sei ji die Nummer der ersten Spalte, in der ein von Null verschiedener Eintrag in Zeile i steht. A ist in Zeilenstufenform (kurz: ZSF), wenn
Lineare Algebra für IB, AIB, BIB
33
2.3 Lösungsräume
2 LINEARE GLEICHUNGSSYSTEME
es ein 0 ≤ r ≤ m gibt, so dass die Zeilen 1, ..., r nicht Null sind24 , die Zeilen
r + 1, ..., m Null sind, und j1 < j2 < ... < jr . ji heißt Pivotspalte der Zeile i.

Beispiele:
0

 0

 0


 0
0
2
0
0
0
0
1
0
0
0
0
0
3
0
0
0
3
1
3
0
0

4



1 
3 4 5


1 
2 3 
 ist keine ZSF.
 ist ZSF,  0
0
0 
−1
2

0
Ist A ∈ Km×n in ZSF, so berechnet man LR(A; ⃗0), indem man diejenigen
Unbekannten frei wählt, die nicht den Pivotspalten der Matrix entsprechen, und
dann nach den übrigen Unbekannten schrittweise „von unten nach oben“ auflöst.
Definition 2.20. Sei K ein Körper.
Sei A ∈ Km×n in ZSF mit Pivotspalten j1 < j2 < · · · < jr . Sei ⃗b ∈ Km . Wir
nennen xj1 , xj2 , ..., xjr gebundene Variablen und die anderen Komponenten
von ⃗x freie Variablen des linearen Gleichungssystems A⃗x = ⃗b.
Problem 2.21 (Lösungsraum für Matrizen in Zeilenstufenform)
Sei K ein Körper, A ∈ Km×n ZSF mit Pivotspalten j1 < j2 < · · · < jr und ⃗b ∈ Km .
Wenn es i ∈ {r + 1, ..., m} mit bi ̸= 0 gibt, so ist LR(A; ⃗b) = ∅. Andernfalls
ist durch jede Wahl von Werten aus K für die freien Variablen eine Lösung von
A⃗x = ⃗b eindeutig bestimmt.
Lösung:
Wenn ⃗b in einer der Zeilen r + 1, r + 2, ..., m nicht Null ist, ist die betreffende
Gleichung nicht erfüllbar (auf der linken Seite steht Null, auf der rechten nicht
Null). Andernfalls sind die letzten m − r Gleichungen 0 = 0, sind also sicher
erfüllt. Wir konzentrieren uns nun auf die obersten r Zeilen.
Wir betrachten Zeile i für i = r, r − 1, ..., 1 (also von unten nach oben). In der
i-ten Gleichung tritt genau eine noch nicht bestimmte Unbekannte auf, nämlich
die gebundene Variable xji . Alle xji +1 , ..., xn wurden als freie Variable gewählt
oder bereits vorher als gebundene Variable berechnet.
Wir lösen die i-te Gleichung nach xji auf (alle anderen Variablen auf die rechte
Seite bringen, durch Ai,ji dividieren) und können somit xji einen eindeutigen
Wert zuweisen, durch den die i-te Gleichung erfüllt ist. Durch diese so genannte
Rückwärtssubstitution berechnet man die Werte aller gebundenen Variablen
in Abhängigkeit von den freien Variablen.
□
Korollar 2.22 (und Definition). Sei K ein Körper.
Sei A ∈ Km×n in ZSF und ⃗b ∈ Km so, dass LR(A; ⃗b) ̸= ∅. Sei Frei(A) ⊂ {1, ..., n}
die Menge der Indizes der Nichtpivotspalten der ZSF A (also die Menge der freien
Variablen).
24
34
Für r = 0 wäre diese Bedingung leer.
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
2.3 Lösungsräume
a) Das ⃗xspez ∈ LR(A; ⃗b), bei dem alle freien Variablen 0 sind, heißt spezielle
!
Lösung des inhomogenen Gleichungssystems A⃗x = ⃗b.
b) Für j ∈ Frei(A) heißt dasjenige β⃗j ∈ LR(A; ⃗0), bei dem die freie Variable
xj = 1 und alle anderen freien Variablen 0 sind, heißt die zu xj gehörende
!
Basislösung des homogenen Gleichungssystems A⃗x = ⃗0.
Es gilt LR(A; ⃗b) = ⃗xspez + Span ({β⃗j | j ∈ Frei(A)}).
□
K


0 2 1 0 3 4


 0 0 0 3 1 1 
2 !


−1
5×6


Beispiel: A :=  0 0 0 0 3 1  ∈ R . Für ⃗a = 3 ist die letzte Zeile
0


1
 0 0 0 0 0 0 
0 0 0 0 0 0
von A⃗x = ⃗a ist die letzte Gleichung nicht erfüllbar, also LR(A; ⃗a) = ∅.
Sei nun ⃗b =
2 !
−1
3
. Diesmal sind alle Gleichungen erfüllbar. Wir haben r = 3
0
0
und streichen die letzten beiden Zeilen. Somit sind die Gleichungen


0 2 1 0 3 4 2


 0 0 0 3 1 1 −1  .
0 0 0 0 3 1 3
Die gebundenen Variablen sind x2 , x4 , x5 , und die freien sind x1 , x3 , x6 .
 0 
−1/2
 0 
⃗xspez =  −2/3 . Zunächst setzt man die freien Variablen Null und Rückwärts1
0
substitution liefert 3−1·0
= 1, −1−1·1−1·0
= −2/3,
3
3
2−1·0−0· −2
−3·1−4·0
3
= −1/2.
2
1
0
β⃗1 =  00 . Rückwärtssubstitution des homogenen(!) Systems liefert in den ge0
0
bundenen Variablen nur 0.
 0 
−1/2

0−1·1
1
β⃗3 = 
 10 . Rückwärtssubstitution liefert nämlich 2 = − 2 .
0
0
 0 
−3/2
−1
 0 
0−1·1
1 0−1· 3 −1·1

β⃗6 =
= − 29
 −2/9 , denn Rückwärtssubstitution liefert 3 = − 3 ,
3
−1/3
1
0−1·0−0· −2
−3· −1
−4·1
9
3
und
= − 32 .
2
Ergebnis: LR(A; ⃗b) = ⃗xspez + SpanR (β⃗1 , β⃗3 , β⃗6 ).
In der Lösung von Problem 2.21 wurden nur Grundrechenarten verwendet —
einschließlich Division durch Ai,ji ̸= 0. Das geht, da K ein Körper ist.
Lineare Algebra für IB, AIB, BIB
35
2.4 Gauß-Elimination
2.4
2 LINEARE GLEICHUNGSSYSTEME
Das Gaußsche Eliminationsverfahren
Wieder sei K ein Körper. Es gibt mindestens vier Sichtweisen darauf, was das
Eliminationsverfahren mit eine A ∈ Km×n macht:
• Es nutzt Äquivalenzumformungen linearer Gleichungssysteme.
• Es nutzt die schon bekannten Zeilenoperationen.
• Es liefert G ∈ GLm (K), so dass GA Zeilenstufenform hat.
• Es beruht auf einer Koordinatentransformation in Km .
Die vorletzte Sichtweise ist nützlich: Man braucht G nur einmal berechnen und
kann dann LR(A; ⃗b) für beliebige Inhomogenitäten ⃗b lösen. Das wird in der Nume!
rik wichtig werden, denn löst man A⃗x = ⃗b nur näherungsweise, so kann man die
Näherungslösung durch einen Korrekturterm verbessern, der sich aus der Lösung
des Gleichungssystems mit einer anderen Inhomogenität ergibt.
Algorithmus 2.23 (Das Gaußsche Eliminationsverfahren)
Forme A ∈ Km×n durch Zeilenoperationen in ZSF um. Beginne mit i := 1:
1) Abbruch, falls die Zeilen i, ..., m alle Null sind. Sonst: Sei j ∈ {1, ..., n}
minimal, so dass ein Aℓ,j ̸= 0 mit ℓ ∈ {i, ..., m} existiert. Erzwinge Ai,j ̸= 0,
indem ggf. Zeilen i, ℓ für ein ℓ > i vertauscht werden. Anmerkung: Hier
besteht manchmal eine Wahlmöglichkeit.
2) Optional: Ersetze Zeile i durch ihr 1/Ai,j -Faches (⇝ Ai,j = 1).
A
-Fache der Zeile i von Zeile ℓ ab
3) Für alle ℓ ∈ {i + 1, ..., m}: Ziehe das Aℓ,j
i,j
(⇝ Aℓ,j = 0). Optional: Führe dies auch für alle ℓ ∈ {1, ..., i − 1} durch.
4) Erhöhe i um 1 und gehe zurück zu Schritt 1).
1 2 3 4 Beispiel: A :=
3 6 10 11
−1 −3 −1 1
1 1 7 7
: Es ist A1,1 ̸= 0. Ziehe A1,∗ dreimal von der zweiten
!
1 2 3 4
0 1 −1
und einmal von der vierten Zeile ab und addiere sie zur dritten Zeile: 00 −1
.
2 5
! 0 −1 4 3
1 2 3 4
2 5
Jetzt i := 2: Wegen A2,2 = 0 vertausche Zeilen 2 und 3: 00 −1
0 1 −1 . Ziehe die
0 −1 4 3
!
1 2 3 4
2 5
zweite von der vierten Zeile ab: 00 −1
0 1 −1 . Jetzt i := 3. Ziehe das Doppelte der
0 0 2 −2
!
1 2 3 4
0 −1 2 5
dritten Zeile von der vierten ab. Abbruch mit der ZSF 0 0 1 −1 .
0 0 0 0
36
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
2.4 Gauß-Elimination
Korollar 2.24. Sei K ein Körper.
Sei A ∈ Km×n , ⃗b ∈ Km . Das Gauß-Verfahren bringt die erweiterte Matrix B :=
(A|⃗b) nach endlich vielen Schritten auf B ′ = (A′ |⃗b′ ) mit einer Zeilenstufenform A′ ∈ Km×n und ⃗b′ ∈ Km , und es gilt LR(A; ⃗b) = LR(A′ ; ⃗b′ ).
Beweis:
Schritte 1)–4) erfordern jeweils nur endlich viele Rechenoperationen und werden
nacheinander auf Zeilen 1 bis m−1 angewandt. Spätestens dann erfolgt Abbruch.
Bei Anwendung der Schritte auf Zeile i sei Ai,j das erste von Null verschiedene
Element. Mit Induktion folgt: Spalten 1, ..., j − 1 sind auch unterhalb von Zeile
i Null. Nach Anwendung von Zeilenoperationen bleiben sie Null und zudem gilt
∀ℓ ∈ {i + 1, ..., m} : Aℓ,j = 0. Also entsteht eine Zeilenstufenform. Jede Zeilenoperation entspricht der Multiplikation mit einer Elementarmatrix. Es gibt also
ein G ∈ GLm (K), nämlich das Produkt dieser Elementarmatrizen, mit A′ = GA.
Wendet man die gleichen Zeilenoperationen auf B = (A|⃗b) an, entsteht B ′ =
(A′ |⃗b′ ) = GB = (GA | G⃗b). Für alle ⃗x ∈ Kn gilt A⃗x = ⃗b ⇐⇒ GA⃗x = G⃗b ⇐⇒
A′⃗x = ⃗b′ , denn G ist invertierbar. Also ist LR(A; ⃗b) = LR(A′ ; ⃗b′ ).
□
Beispiel 2.25 (und Definition)
Führt man im Gauß-Algorithmus auch alle optionalen Schritte durch, nennt man
dies den Gauß-Jordan-Algorithmus25 . Es entsteht eine Matrix in Zeilenstufenform, bei der zusätzlich jede Pivotspalte genau ein von Null verschiedenes Element enthält, und dieses
hat den Wert
1 ( reduzierte Zeilenstufenform).
4 1 2 3 4 1 2 3 3 6 10
3 6 10 11
11
⃗
⃗
Sei A = −1 −3 −1 und b =
. Dann B := (A|b) = −1
−3 −1 1 . Wir
1
1
7
1
7
sahen oben, dass der Gauß-Algorithmus B ′ =
Jordan-Algorithmus geht es noch etwas weiter:
1 0 0 21
0 1 0 −7
0 0 1 −1
0 0 0 0
!
= B . Man liest ab: LR(A; ⃗b) = {
′′
21
−7
−1
1 1 7 7
!
1 2 3 4
0 −1 2 5
ergibt. Beim Gauß0 0 1 −1
0 0 0 0 !
!
1 2 3 4
1 0 7 14
0 1 −2 −5
−5
⇝ 00 10 −2
⇝
0 0 1 −1
1 −1
0 0 0 0
0 0 0 0
}.
Ein Gleichungssystem in reduzierter Zeilenstufenform ist besonders einfach
lösbar, allerdings wiegt dies nicht immer den zusätzlichen Aufwand für die optionalen Schritte auf. Wahlmöglichkeiten bei den optionalen Schritten können beim
gerundeten Rechnen (also erst im vierten Semester in Numerik) zur Reduzierung
von Rundungsfehlern genutzt werden.
Wir können nun auch das Matrixinvertierungsproblem rechnerisch lösen.
Satz 2.26. Sei K ein Körper.
Die folgenden Aussagen über A ∈ Mn (K) sind zueinander logisch äquivalent26
25
26
Wilhelm Jordan [1842–1899] war ein deutscher Geodät.
Es gelten also alle oder keine.
Lineare Algebra für IB, AIB, BIB
37
2.4 Gauß-Elimination
2 LINEARE GLEICHUNGSSYSTEME
a) A ist invertierbar.
b) ∀⃗b ∈ Kn : ∃!⃗x ∈ Kn : A⃗x = ⃗b.
c) LR(A; ⃗0) = {⃗0}.
d) Der Gauß-Jordan-Algorithmus formt A in 1n um.
e) A ist gleich einem Produkt von Elementarmatrizen.
Der Beweis erfolgt über einen Zirkelschluss, denn wir können und wollen ja
nicht beweisen, dass eine der Aussagen tatsächlich gilt (für manche A gelten sie,
für manche nicht), sondern dass man jede Aussage aus jeder anderen folgern kann.
Beweis:
✓
a) ⇒ b): A · (A−1⃗b) = (AA−1 ) · ⃗b = 1n⃗b = ⃗b, also gibt es eine Lösung. Sie ist
eindeutig, denn aus ⃗x ∈ Kn mit A⃗x = ⃗b folgt ⃗x = A−1 A⃗x = A−1⃗b.
b) ⇒ c): Spezialfall ⃗b := ⃗0.
c) ⇒ d): Wir bringen A durch den Gauß-Jordan-Algorithmus auf eine reduzierte
ZSF A′ ∈ Mn (K). A′ hat keine Nichtpivotspalten, denn sonst gäbe es freie
Variablen und LR(A; ⃗0) würde außer ⃗0 noch weitere Lösungen enthalten
(nämlich das Erzeugnis der Basislösungen).
Da A′ also n Pivotspalten hat und eine reduzierte ZSF ist, gilt ∀i ∈ {1, ..., n}:
A′i,i = 1 und ∀i ̸= j : A′i,j = 0. Also ist A′ = 1n und entstand aus A durch
Zeilenoperationen.
d) ⇒ e): Zeilenoperationen entsprechen Multiplikation mit den zugehörigen Elementarmatrizen. Es gibt also Elementarmatrizen E1 , ..., Em ∈ GLn (K), so
−1
dass Em Em−1 · · · E1 A = 1n . Also A = E1−1 · · · Em
, wobei die Inversen von
Elementarmatrizen ebenfalls Elementarmatrizen sind.
e) ⇒ a): Siehe Lemma 2.13.
□
Der obige Beweis liefert im Prinzip ein Berechnungsverfahren: Man wendet den
Gauß-Jordan-Algorithmus auf A an und multipliziert die dabei auftretenden Elementarmatrizen. Doch lässt sich das etwas effizienter machen, denn man kann
das Produkt der Elementarmatrizen „nebenher“ berechnen:
Problem 2.27 (Inverse Matrix)
Sei K ein Körper und A ∈ Mn (K).
Erkenne, ob A ∈ GLn (K), und berechne ggf. A−1 .
38
Lineare Algebra für IB, AIB, BIB
2 LINEARE GLEICHUNGSSYSTEME
2.4 Gauß-Elimination
Lösung:
Wir starten mit der erweiterten Matrix (A, 1n ), wenden darauf den Gauß-JordanAlgorithmus an und erhalten eine reduzierte Zeilenstufenform (A′ , B) mit A′ , B ∈
Mn (K). Jede Zeilenoperation entspricht der Multiplikation mit einer Elementarmatrix. Es gibt also ein G ∈ GLm (K), nämlich das Produkt dieser Elementarmatrizen, mit (A′ , B) = G · (A, 1n ). Man erkennt: G = B, das heißt, das Produkt
der Elementarmatrizen ergibt sich automatisch aus der erweiterten Matrix.
Wenn A′ ̸= 1n , dann ist A′ nicht invertierbar. Andernfalls ist G = B = A−1 . □
Beispiel: Für A :=
form
1 1 1 1 0 0
0 1 0 0 0 1
0 0 0 −1 1 1
Für A :=
1 0 0 1 0 −1
0 1 0 0 0 1
0 0 1 −1 1 1
1 1 1
1 0 1
0 1 0
∈ M3 (Q) ist (A, 13 ) =
1 1 1 1 0 0
1 0 1 0 1 0
0 1 0 0 0 1
. Man erkennt, dass A nicht invertierbar ist.
1 1 0
1 0 1
0 1 0
ist (A, 13 ) =
1 1 0 1 0 0
1 0 1 0 1 0
ergibt
0 1 0 0
0 1
1 0 −1
−1
. Also invertierbar, mit A = 0 0 1 .
−1 1 1
mit Zeilenstufen-
Lineare Algebra für IB, AIB, BIB
Gauß-Jordan hingegen
39
3 BEGRIFFE DER ALGEBRA
3
Begriffe der Algebra
Im vorigen Kapitel haben wir an keiner Stelle auf eine konkrete Konstruktion von
Q bzw. R Bezug genommen — kein Wunder, denn R wird erst in der Analysis
konstruiert. All unsere Beweise (und damit auch die Rechentechniken) basierten
auf abstrakten Rechenregeln wie Assoziativ- und Distributivgesetzen. Aus fachwissenschaftlicher Sicht liegt es daher nahe, basierend auf diesen Rechengesetzen
abstrakte Begriff zu definieren:
• Gruppen: Abstrahiert von GLn (K), aber auch von Permutationen.
• Ringe: Abstrahiert von Z, K[X] und Mn (K).
• Körper: Abstrahiert von Q, R. Wir werden weitere Körper konstruieren, die
in der Informatik besonders relevant sind.
• Vektorräume: Abstrahiert von den Lösungsräumen homogener linearer Gleichungssysteme, aber auch von der Menge der stetigen Funktionen, und hat
auch mit dem Übergang von Q nach R nach C zu tun.
• Lineare Abbildungen: Abstrahiert von der Matrixmultiplikation und von
algebraischen Eigenschaften der Differential- und Integralrechnung.
• Basen: Abstrahiert von Koordinatensystemen sowie den Basislösungen homogener linearer Gleichungssysteme.
Aus Anwendungssicht kann man die abstrakten Begriffe als Werkzeugkästen
betrachten: In ihnen sind jeweils Rechengesetze formuliert, und man sollte sich
bei jedem Beweis und jedem Lösungsverfahren darüber im klaren sein, welche
Rechengesetze man dafür benötigt, also welche Werkzeuge der Werkzeugkasten
bereitstellen muss. Es gibt noch viel mehr algebraische Strukturen als ich hier
vorstelle (z.B. Magmen, Halbgruppen, Monoide).
3.1
Gruppen
Die aus der Schule bekannten Rechenbereiche sind zunächst einmal Mengen, nämlich Mengen von Zahlen. Sowohl durch Addition als auch durch Multiplikation
wird jedem Paar von Zahlen eine neue Zahl zugeordnet.
Definition 3.1
Eine innere Verknüpfung auf einer Menge M ist eine Abbildung M ×M → M .
Anders als sonst für Abbildungen üblich wird nicht die Funktionenschreibweise
f (a, b) verwendet, sondern eines von vielen möglichen Verknüpfungssymbolen,
also zum Beispiel a ∗ b, a ⊗ b etc.
40
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.1 Gruppen
Beispiel: Auf N ist durch ∀a, b ∈ N : a ∗ b := 0 eine (wenig interessante) innere
Verknüpfung gegeben, auch + und · sind innere Verküpfungen auf N.
Beispiel: Matrixmultiplikation ist eine innere Verknüpfung auf Mn (Q) sowie auf
GLn (Q).
Nicht-Beispiel: − ist auf N keine innere Verknüpfung, denn 0 − 1 ∈
/ N. Hingegen
ist − eine innere Verknüpfung auf Z. Ebenso ist Division ÷ auf Q keine
innere Verknüpfung, denn 1 ÷ 0 ist nicht definiert.
Nicht-Beispiel: Matrixaddition ist keine innere Verknüpfung auf GLn (Q).
Definition 3.2
Eine Gruppe (G, ∗, e) (oder kurz: G, wenn ∗ und e aus dem Kontext klar sind)
ist eine Menge G mit einer inneren Verknüpfung ∗ und einem e ∈ G, so dass die
folgenden Gruppenaxiome gelten:
a) ∀a, b, c ∈ G : (a ∗ b) ∗ c = a ∗ (b ∗ c) ( Assoziativgesetz)
b) ∀a ∈ G : a ∗ e = a
c) ∀a ∈ G : ∃b ∈ G : a ∗ b = e
Die Gruppe heißt abelsch27 , falls zudem auch das Kommutativgesetz ∀a, b ∈
G : a ∗ b = b ∗ a gilt.
Für allgemeine Gruppen verwendet man meist ein Multiplikationssymbol wie
·, ∗, ⊙, ⊗; Additionssymbole wie +, ⊕, # sollte man nur für abelsche Gruppen
verwenden.
Beispiele: (Z, +, 0) und (R∗ , ·, 1) sind abelsche Gruppen, (GLn (Q), ·, 1n ) ist für
n ≥ 2 eine nicht-abelsche Gruppe.
Beispiel: ({e}, ∗) mit e ∗ e := e ist eine abelsche Gruppe, die triviale Gruppe.
Nicht-Beispiele: (N, +, 0), (Z, ·, 1), (Mn (Q), ·, 1n ).
Bei invertierbaren Matrizen forderten wir, dass die inverse Matrix sowohl von
rechts als auch von links invers ist. In der Gruppendefinition fordern wir das nicht
— der Grund ist, dass dies aus den Gruppenaxiomen bereits folgt:
Lemma 3.3. Sei (G, ∗, e) eine Gruppe.
a) Rechtsinverse sind linksinvers: ∀a, b ∈ G: Wenn a ∗ b = e, dann b ∗ a = e.
b) e ist auch linksneutral: ∀a ∈ G : e ∗ a = a.
27
Niels Henrik Abel [1802–1829]
Lineare Algebra für IB, AIB, BIB
41
3.1 Gruppen
3 BEGRIFFE DER ALGEBRA
c) ∀a, b ∈ G : a ∗ b = b ⇒ a = e. Also ist e eindeutig bestimmt und man nennt
es das neutrale Element der Gruppe.
d) Inverse sind eindeutig: ∀a, b, c ∈ G : a ∗ b = e = a ∗ c ⇒ b = c. Notation:
Für a ∈ G bezeichnet a−1 ∈ G das durch a ∗ a−1 = e eindeutig bestimmte
Inverse von a.
e) Inversion von Produkten: ∀a, b ∈ G : (a ∗ b)−1 = b−1 ∗ a−1 .
−1
f) Doppelte Inversion: ∀a ∈ G : (a−1 )
= a.
Beweis:
a) ∃c ∈ G : b ∗ c = e. Dann b ∗ a = (b ∗ a) ∗ e = b ∗ (a ∗ e) = b ∗ (a ∗ (b ∗ c)) =
b ∗ ((a ∗ b) ∗ c) = b ∗ (e ∗ c) = (b ∗ e) ∗ c = b ∗ c = e.
b) Nach a) ∃b ∈ G : a ∗ b = b ∗ a = e. e ∗ a = (a ∗ b) ∗ a = a ∗ (b ∗ a) = a ∗ e = a.
c) ∃c ∈ G : b ∗ c = e. Es folgt a ∗ b = b ⇒ a ∗ b ∗ c = b ∗ c ⇒ a ∗ e = e.
d) Nach a) ∃d ∈ G : a ∗ d = d ∗ a = e. a ∗ b = a ∗ c ⇒ d ∗ (a ∗ b) = d ∗ (a ∗ c) ⇒
e ∗ b = e ∗ c ⇒ b = c.
e) (a ∗ b) ∗ (b−1 ∗ a−1 ) = a ∗ (b ∗ (b−1 ∗ a−1 )) = a ∗ ((b ∗ b−1 ) ∗ a−1 ) = a ∗ (e ∗ a−1 ) =
a ∗ a−1 = e. Wegen d) folgt die Behauptung.
−1
f) Nach a) gilt a−1 ∗ a = e, also ist wegen d) auch a = (a−1 ) .
□
Im Rest dieses Abschnitts geht es um Gruppen, deren Elemente die bijektiven
Selbstabbildungen einer Menge sind.
Definition 3.4 (+ Axiom + Lemma). Sei f : X → Y , A ⊂ X und B ⊂ Y .
a) Die Identitätsabbildung auf X ist IdX : X → X mit IdX (x) := x.
b) Die Einschränkung oder Restriktion von f auf A ist f
A
: A → Y mit
∀x ∈ A : f (x) := f (x).
A
c) f [A] := {f (x) | x ∈ A} heißt Bildmenge von A unter f (bei runden
Klammern werden einzelne Elemente, bei eckigen Klammern Teilmengen
abgebildet). Bild(f ) := f [X] heißt das Bild von f .
d) Sei Bild(f ) ⊂ B. Die Corestriktion von f auf B ist f
B
: X → B mit
B
∀x ∈ X : f (x) := f (x).
e) Das Urbild28 von B unter f ist f −1 [B] := {x ∈ X | f (x) ∈ B} ⊆ X.
28
42
Auf Englisch “preimage”. Andere Bezeichnung: „Faser“, englisch “fibre“
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.1 Gruppen
f) Auswahlaxiom: Wenn f surjektiv ist, dann ∃g : Y → X mit f ◦ g = IdY .
g) Ist f bijektiv, so gibt29 es eine durch f eindeutig bestimmte Abbildung
f −1 : Y → X mit f ◦ f −1 = IdY und f −1 ◦ f = IdX . Man nennt sie
die inverse Abbildung oder Umkehrabbildung von f .
Beispiele:
a) f : R → R≥0 mit f (x) √
:= x2 ist nicht bijektiv, aber ist surjektiv. Für
g : R≥0 → R mit g(x) := x gilt f ◦ g = IdR≥0 , aber nicht g ◦ f = IdR .
√
bijektiv, und ∀x ∈ R≥0 : f˜−1 (x) = x.
Hingegen ist f˜ := f
R≥ 0
b) cos
[−1,1]
[0,π]
ist bijektiv, die Umkehrabbildung ist arccos.
c) exp : R>0 → R mit exp(x) := ex ist bijektiv, exp−1 = ln : R → R>0 .
Warnung: exp−1 = ln ist etwas ganz anderes als die Abbildung x 7→ e1x . Und
trotz der ähnlichen Notation sind das Urbild einer Menge und die inverse Abbildung zwei verschiedene Dinge.
Beweis:
Zu f) sei angemerkt, dass wegen Surjektivität ∀y ∈ Y : f −1 [{y}] ̸= ∅. Die Abbildung g hat die Eigenschaft ∀y ∈ Y : g(y) ∈ f −1 [{y}].
Wir beweisen g): Für alle y ∈ Y besteht f −1 [{y}] wegen Bijektivität von
f aus genau einem Element. Durch die Bedingung f −1 (y) ∈ f −1 [{y}] ist die
Abbildung f −1 : Y → X also eindeutig und ohne Auswahlproblem bestimmt,
woraus zunächst f ◦ f −1 = IdY folgt. Ferner ∀x ∈ X : f −1 [{f (x)}] = {x} und
daher f −1 (f (x)) = x. Das bedeutet f −1 ◦ f = IdX .
□
Lemma 3.5 (und Definition). Sei Ω eine Menge.
Für Sym(Ω) := {f : Ω → Ω | f ist bijektiv} ist (Sym(Ω), ◦, IdΩ ) eine Gruppe, die
symmetrische Gruppe von Ω. Für n ∈ N sei Sn := Sym({1, ..., n}).
Die Elemente von Sym(Ω) nennt man auch Permutationen von Ω. Eine Permutation τ ∈ Sym(Ω) heißt Transposition, falls es i ̸= j ∈ Ω gibt, so dass
τ (i) = j, τ (j) = i und τ (k) = k für alle k ∈ Ω \ {i, j}.
Beweis:
Für jedes σ ∈ Sym(Ω) gilt IdΩ ◦σ = σ ◦ IdΩ = σ. Laut Lemma 1.14 ist die
Verknüpfung von Abbildungen assoziativ. Weil σ bijektiv ist, existiert die Umkehrabbildung σ −1 ∈ Sym(Ω), und sie ist zu σ invers.
□
Aufgabe 3.6
Jedes σ ∈ Sn ist gleich einer Verknüpfung von endlich vielen Transpositionen.
29
Auch ohne Verwendung des Auswahlaxioms!
Lineare Algebra für IB, AIB, BIB
43
3.2 Ringe und Körper
3.2
3 BEGRIFFE DER ALGEBRA
Ringe und Körper
In einer Gruppe hat man nur eine Verknüpfung, also nur ein Werkzeug. Es erleichtert die Arbeit sehr, wenn man zwei Werkzeuge hat: Addition und Multiplikation.
Definition 3.7
a) (R, +, ·, 0, 1) (oder kurz R, falls + und · aus dem Kontext klar sind) heißt
Ring, falls (R, +, 0) eine abelsche Gruppe und · eine innere Verknüpfung
auf R ist und zudem gilt:
i) 1 ∈ R und ∀a ∈ R : a · 1 = 1 · a = a ( Neutralität der 1)
ii) ∀a, b, c ∈ R : (a·b)·c = a·(b·c) ( Assoziativgesetz der Multiplikation)
iii) ∀a, b, c ∈ R : (a + b) · c = a · c + b · c und a · (b + c) = a · b + a · c (die
beiden Distributivgesetze).
R∗ := R \ {0}. Man nennt 0 das Nullelement und 1 das Einselement
des Rings.
b) Ein Ring (R, +, ·, 0, 1) heißt kommutativer Ring, falls das Kommutativgesetz der Multiplikation erfüllt ist, also ∀a, b ∈ R : a · b = b · a.
c) Ein Ring (R, +, ·, 0, 1) heißt Divisionsring oder Schiefkörper, falls (R∗ , ·, 1)
eine Gruppe ist, und heißt Körper, falls (R∗ , ·, 1) sogar eine abelsche Gruppe ist. Insbesondere gilt dann 0 ̸= 1.
Die in a) genannten Axiome (einschließlich der Gruppenaxiome für (R, +, 0))
heißen Ringaxiome. Die Ringaxiome zusammen mit dem Kommutativgesetz der
Multiplikation und der Invertibilität der von 0 verschiedenen Elemente heißen
Körperaxiome. Notation: Ist R ein Ring und a, b ∈ R, so sei −b ∈ R das
additive Inverse von b (also b + (−b) = 0) und a − b := a + (−b).
Beispiele:
a) Der triviale Ring (auch: Nullring) ist {0} mit 0+0 = 0·0 =
0. Er ist kein Körper und 0 ist gleichzeitig Null- und Einselement.
b) Z ebenso wie die Menge R[X] aller Polynome sind bezüglich der gewohnten
Addition und Multiplikation kommutative Ringe, jedoch keine Körper.
c) R, Q und C (wird bald behandelt) sind Körper.
d) Computer rechnen mit gerundeten Gleitkommazahlen, bei denen Distributiv- und Assoziativgesetze nicht gelten und nicht jede von Null verschiedene
Zahl ein Inverses hat.
e) Es gibt auch endliche Ringe und Körper, wird bald behandelt.
In Kapitel 2 war K ∈ {Q, R}, aber tatsächliche hätte immer ein Körper und in
den meisten Fällen sogar ein kommutativer Ring genügt. Ich habe entsprechende
Anpassungen in roter Schrift vorgenommen.
44
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.3 Restklassenringe
Satz 3.8. Sei R ein Ring.
a) ∀x ∈ R : 0 · x = 0.
b) ∀x ∈ R : (−1) · x = −x.
c) Wenn e ∈ R mit ∀x ∈ R : e · x = x, dann e = 1.
Beweis:
Kürzung
Neutr.
Neutr.
Distr.
a) 0 + 0 · x = 0 · x = (0 + 0) · x = 0 · x + 0 · x ⇒ 0 = 0 · x.
Neutr.
Distr.
b) x + (−1) · x = 1 · x + (−1) · x = (1 + (−1)) · x
Kürzung
x + (−x) ⇒ (−1) · x = −x.
Negat.
=
a)
0·x = 0 =
c) e = e · 1 = 1.
□
Beispiel 3.9 (und Definition). Sei R ein Ring und a ∈ R
a) (−1) · (−a) = −(−a) = a.
b) Wenn gilt a·a = a, nennt man a idempotent. Wenn (R∗ , ·, 1) eine Gruppe
(also R ein Schiefkörper) ist, sind 1 und 0 die einzigen Idempotenten. Das
ist in allgemeinen Ringen, etwa R = M2 (Q), nicht der Fall, beispielsweise
ist a := ( 10 00 ) idempotent.
3.3
Restklassenringe
Wir kommen nun zu einer reichhaltigen Klasse von Ringen, die besonders auch
in der Informatik relevant sind. Dazu beginnen wir mit dem Begriff der Relation.
Definition 3.10
Sei X eine Menge.30 Eine (binäre bzw. zweistellige) Relation auf X ist eine
Teilmenge R ⊂ X × X. Für x, y ∈ X schreibt man meist nicht (x, y) ∈ R,
sondern verwendet dafür ein Relationssymbol. Wir verwenden hier ∼. Es ist also
R = {(x, y) ∈ X × X | x ∼ y}. Eine Relation ∼ auf X heißt
• reflexiv, falls ∀x ∈ X : x ∼ x.
• symmetrisch, falls ∀x, y ∈ X : x ∼ y ⇐⇒ y ∼ x.
• transitiv, falls ∀x, y, z ∈ X gilt: Wenn x ∼ y und y ∼ z, dann x ∼ z.
Eine reflexive symmetrische transitive Relation heißt Äquivalenzrelation.
Im Rest des Abschnitts sei R ein kommutativer Ring.
30
Mit echten Klassen geht das im Prinzip auch.
Lineare Algebra für IB, AIB, BIB
45
3.3 Restklassenringe
3 BEGRIFFE DER ALGEBRA
Definition 3.11 (und Beispiel)
a) Sei M die Klasse aller Mengen. X, Y ∈ M (also zwei beliebige Mengen
X, Y ) heißen gleichmächtig (Notation: X ∼
= Y ) :⇔ ∃f : X → Y bijektiv.
∼
Übung: = ist eine Äquivalenzrelation auf M .
b) ∀a, b ∈ R : a|b :⇔ ∃c ∈ R : b = a · c (d.h. „a teilt b“). Das ist transitiv und
reflexiv, aber i.A. nicht symmetrisch: In Z beispielsweise 3 | 9, aber 9 ∤ 3.
c) Sei n ∈ R∗ . ∀a, b ∈ R : a ≡n b :⇔ n|(b − a) (d.h. a ist kongruent zu b
modulo n). Andere Schreibweise: a ≡ b (mod n). Dies ist eine Äquivalenzrelation auf R.
Beweis:
Reflexivität: ∀a ∈ R : (a − a) = 0 = n · 0, also n|(a − a), also a ≡n a.
Symmetrie: Sei a, b ∈ R. Für q ∈ R ist b − a = q · n genau dann wenn
a − b = (−q) · n. Folglich n|(b − a) ⇐⇒ n|(a − b), und das heißt
a ≡n b ⇐⇒ b ≡n a.
Transitivität: Seien a, b, c ∈ R mit a ≡n b und b ≡n c. Dann ∃q1 , q2 ∈
R : (b−a) = q1 ·n und (c−b) = q2 ·n. Daher (c−a) = (c−b)+(b−a) =
q2 · n + q1 · n = (q2 + q1 ) · n, also a ≡n c.
□
Definition 3.12
Ist ∼ eine Äquivalenzrelation auf der Menge X und ist y ∈ X, so heißt [y] :=
[y]∼ := {x ∈ X | x ∼ y} die Äquivalenzklasse von y. Ist K eine Äquivalenzklasse und x ∈ K, so heißt x ein Repräsentant von K. Es sei X/∼ := {[x] | x ∈ X}
( Quotient von X nach ∼) die Menge der Äquivalenzklassen.
Beispiel: Für ∼:=≡5 auf Z ist [3] = {..., −7, −2, 3, 8, ...}.
Lemma 3.13
Sei ∼ eine Äquivalenzrelation auf der Menge X. Wegen Reflexivität gilt ∀x ∈
X : x ∈ [x]. Außerdem sind für x, y ∈ X folgende drei Aussagen gleichbedeutend:
a) x ∼ y
b) [x] ∩ [y] ̸= ∅.
c) [x] = [y]
Beweis:
Wir zeigen a) ⇒ b) ⇒ c) ⇒ a).
a) ⇒ b) Aus x ∼ y folgt x ∈ [y]. Wegen Reflexivität ist aber auch x ∈ [x]. Daher
ist x ∈ [x] ∩ [y], also [x] ∩ [y] ̸= ∅.
b) ⇒ c) Wenn [x] ∩ [y] ̸= ∅, dann gibt es ein z ∈ [x] ∩ [y]. Wir wollen nun
zeigen, dass [x] ⊆ [y]; wenn also w ∈ [x], so wollen wir zeigen, dass auch
w ∈ [y]. Aus w ∈ [x] folgt w ∼ x. Wegen z ∈ [x] ist z ∼ x, also x ∼ z
wegen Symmetrie. Aus w ∼ x und x ∼ z folgt w ∼ z wegen Transitivität.
46
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.3 Restklassenringe
Aufgrund von z ∈ [y] gilt z ∼ y, also aus w ∼ z folgt w ∼ y wegen
Transitivität, also w ∈ [y], was zu zeigen war.
Analog folgt [y] ⊆ [x], also [y] = [x], also c).
c) ⇒ a) Wenn [x] = [y], dann x ∈ [x] = [y], daher x ∼ y.
□
Auch wenn Ihnen das nicht bewusst ist: Bereits seit früher Kindheit sind Sie
es gewohnt, in Äquivalenzklassen zu denken. Zum Beispiel haben Sie verstanden,
dass eine Menge von 5 Spielzeugautos und eine Menge von 5 Gummibärchen
etwas gemeinsam haben: Sie haben die Zahl 5 als Äquivalenzklasse der Relation
„gleichmächtig“ entdeckt, und diese Äquivalenzklasse wird unter anderem durch
eine Menge von 5 Gummibärchen repräsentiert.
Später lernten Sie, mit diesen Äquivalenzklassen zu rechnen. Und das entscheidende ist: Wenn man „5 + 3“ ausrechnen möchte, gelangt man zum gleichen
Ergebnis, egal welche Repräsentanten man für 5 bzw. 3 wählt: Man kann mit
Gummibärchen, Fingern oder Taschenrechnern rechnen („5 Taschenrechner plus
3 Taschenrechner sind 8 Taschenrechner“).
Wir wollen nun auch mit Äquivalenzklassen der Kongruenz modulo n rechnen.
Auch hierbei darf das Ergebnis einer mit zwei Äquivalenzklassen durchgeführten
Rechenoperation nicht davon abhängen, welche Repräsentanten man wählt. Man
sagt dazu, dass die Rechenoperationen wohldefiniert sind.
Satz 3.14 (und Definition)
Sei R ein kommutativer Ring und n ∈ R∗ . Wir betrachten die durch ∀x, y ∈ R
durch x ≡n y gegebene Äquivalenzrelation und definieren R/nR := {[x] | x ∈
R}, wobei man [x] in diesem Zusammenhang als Restklasse von x modulo n
bezeichnet.
a) Seien X, Y ∈ R/nR repräsentiert durch x, y ∈ R. Durch X + Y := [x + y]
und X ·Y := [x·y] sind zwei innere Verknüpfungen auf R/nR wohldefiniert.
b) (R/nR, +, ·, [0], [1]) ist ein kommutativer Ring, der so genannte Restklassenring von R modulo n.
Beispiel: Um Ihnen zu verdeutlichen, wie wenig selbstverständlich Wohldefiniertheit ist, betrachten wir eine andere Rechenoperation, nämlich das Potenzieren. Seien A, B ∈ Z/5Z und seien a ∈ A und b ∈ B Repräsentanten. Dann
ist AB := [ab ] nicht wohldefiniert, denn 2 und 7 sind zwei Repräsentanten der
gleichen Restklasse [2], aber [22 ] = [4] ̸= [27 ] = [128] = [3].
Beweis:
a) Seien x′ , y ′ ∈ R mit X = [x] = [x′ ] und Y = [y] = [y ′ ]. Nach dem vorigen
Lemma31 ist das gleichbedeutend zu x ≡n x′ und y ≡n y ′ . Nach Definition von Kongruenz modulo n und Teilbarkeit ist das gleichbedeutend zu
∃qx , qy ∈ R : x′ = x + qx · n und y ′ = y + qy · n.
31
Beachte: Die hier betrachtete Äquivalenzrelation wird nicht als x ∼ y, sondern als x ≡n y
notiert.
Lineare Algebra für IB, AIB, BIB
47
3.3 Restklassenringe
3 BEGRIFFE DER ALGEBRA
Behauptung: [x + y] = [x′ + y ′ ] und [x · y] = [x′ · y ′ ].
• x′ +y ′ = x+qx ·n+y +qy ·n = (x+y)+(qx +qy )·n, also x+y ≡n x′ +y ′ ,
was zu zeigen war.
• x′ · y ′ = (x + qx · n) · (y + qy · n) = x · y + (x · qy + qx · y + qx · qy · n) · n,
also x · y ≡n x′ · y ′ , was zu zeigen war.
b) Die kommutativen Ringaxiome lassen sich für Äquivalenzklassen leicht durch
Wahl von Repräsentanten nachweisen, da die entsprechenden Axiome in R
gelten. Wir führen dies nur am Beispiel des Distributivgesetzes vor, den
Rest kann man sich als Übung überlegen: Seien X, Y, Z ∈ R/nR mit Repräsentanten x, y, z. Wir haben also x, y, z ∈ R mit [x] = X, [y] = Y und
Def
Def
Distr
[z] = Z. Es gilt X · (Y + Z) = [x] · ([y] + [z]) = [x] · [y + z] = [x · (y + z)] =
Def
Def
[x · y + x · z] = [x · y] + [x · z] = [x] · [y] + [x] · [z].
□
Beispiel 3.15
a) Wenn Sie ausrechnen wollen, welcher Wochentag in 23 Tagen ist, dann
rechnen Sie in Z/7Z: [23] = [2], wenn also heute Freitag ist, dann ist in 23
Tagen zwei mehr als Freitag, also Sonntag.
b) Sei x ∈ N mit Dezimalziffern zk , zk−1 , ..., z0 ∈ {0, ..., 9}. Möglicherweise32
kennen Sie aus der Schule folgende Teilbarkeitsregel: x ist durch 11 teilbar
genau dann, wenn seine alternierende Quersumme z0 − z1 + z2 − ... ± zk
durch 11 teilbar ist. Dies beweist man durch eine kleine Rechnung in Z/11Z:
Wir haben x =
k
P
zi · 10i . Also ist
i=0
[x] =
=
" k
X
i=0
" k
X
#
i
zi · 10
=
k
X
[zi ] · [10]i =
i=0
k
X
[zi ] · [−1]i
denn 10 ≡11 −1
i=0
#
i
(−1) zi .
i=0
Das bedeutet: Jede Zahl hat bei Division durch 11 den gleichen Rest wie ihre
alternierende Quersumme.
Beispiel: 7129 hat die alternierende Quersumme 9 − 2 + 1 − 7 = 1, also lässst
7129 bei Division durch 11 den Rest 1.
Bemerkung 3.16
Sei n ∈ N∗ . Z/nZ ist genau dann ein Körper, wenn n eine Primzahl ist.
32
48
Im Lehrplan steht sie glaube ich nicht mehr.
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.4 Komplexe Zahlen
Ein Teil dieser Aussage wird in den Übungen bewiesen. Übrigens: n ∈ N∗ heißt
Primzahl :⇔ n ∤ 1 und ∀a, b ∈ Z : n|a · b ⇒ (n|a) ∨ (n|b). Der Primzahlbegriff,
den Sie vermutlich in der Schule lernten („n heißt prim genau dann wenn n
genau zwei Teiler hat“ oder „n > 1 heißt prim genau dann wenn n sich nicht
als Produkt zweier von 1 verschiedener natürlicher Zahlen schreiben lässt“) heißt
in der Algebra nicht „prim“ sondern irreduzibel. Das ist in Z dasselbe, aber in
manchen Ringen ist das ein Unterschied.
3.4
Komplexe Zahlen
In diesem Abschnitt geht es um ein Zahlbereichserweiterung, die die reellen Zahlen und zudem die Lösungen beliebiger algebraischer Gleichungen umfasst. Schon
im 16. Jhdt. war es ein etablierter Rechentrick, mit Wurzeln aus negativen Zahlen
zu rechnen. Auch in der Physik und in der Elektrotechnik ist dies sehr nützlich.
Bis vor 30 Jahren war das normaler Schulstoff, schließt sich unmittelbar an das
Thema „quadratische Gleichungen“ an und besitzt sogar eine ähnlich schöne Veranschaulichung wie das Rechnen im Zahlenstrahl.
Die komplexen Zahlen entstehen aus R, indem man ein Symbol i einführt
(imaginäre Einheit, nach Norm DIN 1302). In der Elektrotechnik darf auch
j als Symbol verwendet werden; fieserweise sind i und i verschiedene Symbole).
Mit i rechnet man wie mit der Unbekannten von Polynomen, mit einem wichtigen
Unterschied: Zusätzlich hat man i2 = −1.
Beispiel: Es folgt i3 = i · i2 = − i und i4 = (i2 )2 = (−1)2 = 1.
Auf diese Weise kann man alle höheren Potenzen von i beseitigen. Man erhält:
Definition 3.17
C := {a + b i | a, b ∈ R} ist die Menge der komplexen Zahlen. Der Realteil
von z = a + b i ∈ C ist Re(z) := a ∈ R, der Imaginärteil ist Im(z) := b ∈ R.
Beispiel 3.18 (und Definition)
In komplexen Zahlen kann man auch Wurzeln aus negativen Zahlen ziehen. Die
Gleichung x2 = −1 hat nämlich in C die beiden Lösungen x1,2 = ± i. Man
√ erweitert
daher die Definition der
√
√Wurzelfunktion:
√ 2 Für a ∈ R>0 setzt man −a :=
2
2
i a. Das ist sinnvoll, denn (i a) = i ( a) = (−1) · a = −a.
Rechenregeln für komplexe Zahlen 3.19
C wird zu einem Körper, indem man für z1 = a1 + b1 i ∈ C und z2 = a2 + b2 i ∈ C
mit a1 , a2 , b1 , b2 ∈ R wie folgt rechnet:
• z1 + z2 = (a1 + a2 ) + (b1 + b2 ) i sowie z1 − z2 = (a1 − a2 ) + (b1 − b2 ) i
• z1 · z2 = (a1 a2 − b1 b2 ) + (a1 b2 + a2 b1 ) i
• Falls a2 + b2 i ̸= 0:
z1
a1 a2 + b 1 b 2 a2 b 1 − a1 b 2
=
+
i.
z2
a22 + b22
a22 + b22
Lineare Algebra für IB, AIB, BIB
49
3.4 Komplexe Zahlen
3 BEGRIFFE DER ALGEBRA
Beweis: Übung.
□
Definition 3.20
Für z = a + b i ∈ C mit a, b ∈ R ist z̄ := a − b i ∈ C die konjugiert komplexe
√
Zahl;
in der Physik schreibt man auch z ∗ statt z̄. Ferner ist |z| := z · z̄ =
√
a2 + b2 ∈ R≥0 der Betrag von z.
Beobachtung 3.21
Weil stets a2 + b2 ∈ R≥0 gilt, ist |z| ∈ R≥0 . Ferner ist |z| = 0 ⇐⇒ z = 0. Die
Divisionsregel kann man sich wie folgt merken: Für z1 , z2 ∈ C und z2 ̸= 0 gilt
z1 z2
z1 z2
z1
.
=
=
z2
z2 z2
|z2 |2
Bemerkung 3.22. Es gibt mindestens zwei Wege, C als Ring zu konstruieren:
a) Sei R := R[X] und d := X 2 + 1. Dann kann man C := R/dR definieren.
Die Restklassen bei Division durch d sind nämlich durch Elemente der Form
a + bX mit a, b ∈ R repräsentiert. Zudem ist X 2 ≡d −1.
b) Man kann C auch durch Multiplikation gewisser (2 × 2)-Matrizen beschreiben. So haben Sie es in den Übungen bewiesen.
Der folgende wichtige Satz lässt sich auf unterschiedlichen Wegen beweisen,
doch dabei müssten Anleihen bei der Analysis in einem Umfang gemacht werden,
der den Rahmen einer Anfängervorlesung sprengen würde.
Fundamentalsatz der Algebra 3.23
Jedes Polynom vom Grad ≥ 1 mit Koeffizienten aus C hat mindestens eine Nullstelle in C. Es folgt: Für jedes p ∈ C[X] mit deg(p) = n gibt es c, λ1 , ..., λn ∈ C,
so dass p(X) = c ·
n
Q
(X − λk ) ( Linearfaktorzerlegung).
k=1
□
Ein zentrales Ergebnis der Galois-Theorie ist, dass es für n = deg(p) ≥ 5 beweisbar unmöglich ist, die Nullstellen λ1 , ..., λn mit einer allgemeinen Lösungsformel
(wie für quadratische Gleichungen) zu finden.
3.4.1
Die Gaußsche Zahlenebene
Bereits in der Mathematik des 16. oder 17. Jhdts. benutzte man komplexe Zahlen.
Eine Veranschaulichung von C als Zahlenebene etablierte sich erst im 19. Jhdt.
Definition 3.24
C mit der Ebene R2 identifiziert, indem man a + b i ∈ C als (a, b) ∈ R2 darstellt.
Dies heißt Gaußsche Zahlenebene33 oder Arganddiagramm34 , wurde aber
zuerst 1797 von Caspar Wessel [1745–1818] beschrieben.
33
34
50
Carl Friedrich Gauß [1777–1855] beschrieb sie in einem Brief von 1811.
Jean–Robert Argand [1768–1822] beschrieb sie schon 1806
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.4 Komplexe Zahlen
Darstellungsarten komplexer Zahlen
+
a + bi
a2
r= √
Sei z = a+b i ∈ C. Seien (r, φ) die Polarkoordinaten (Bogenmaß) des Punkts (a, b) ∈ R2 ,
also r ≥ 0 und a = r cos(φ), b = r sin(φ).
Dann z = a + b i = r(cos(φ) + i sin(φ)). Nach
dem Satz des Pythagoras ist r2 = a2 + b2 ,
also r = |z|.
b2
Ri
b = r sin(φ)
φ
R
a = r cos(φ)
arg(z) := φ heißt das Argument von z; je nach Konvention ist φ ∈ ]−π, π] oder
φ ∈ [0, 2π[. Die Darstellung z = r ·(cos φ + i sin φ) heißt Polardarstellung oder
trigonometrische Darstellung, die Darstellung z = a + b i heißt Standarddarstellung oder kartesische Darstellung. Übrigens schreibe ich oft ohne
Klammern sin φ, ln π etc. statt sin(φ), ln(π), etc.
Veranschaulichung von Addition und Konjugation
Ri
z1 + z2
Ri
a + bi
z1
R
z2
R
Addition in C entspricht Vektoraddition in R2 (Kräfteparallelogramm).
a − bi
Komplexe Konjugation ist Spiegelung an der reellen Achse.
Dreiecksungleichung: ∀z1 , z2 ∈ C : |z1 + z2 | ≤ |z1 | + |z2 | (siehe linkes Bild).
Das werden wir in einem späteren Kapitel allgemeiner beweisen.
Rechnen in Polarkoordinaten
Addition und Konjugation sind in Standarddarstellung leicht, Multiplikation oder
gar Wurzelziehen hingegen schwer. Zwar ist Addition in Polarkoordinaten schwer,
aber Konjugation ist leicht: Weil Konjugation die Spiegelung an der reellen Achse
ist, gilt |z̄| = |z| und arg(z̄) = − arg(z) für alle z ∈ C.
Auch Multiplikation, Division und sogar Wurzelziehen sind in Polardarstellung ziemlich leicht. Denn für z = r(cos φ + i sin φ) und w = s(cos ψ + i sin ψ),
mit r, s, φ, ψ ∈ R ist nach den Additionstheoremen 35 für Sinus und Kosinus,
die wir in einem Anhang beweisen werden:
z · w = rs(cos(φ) + i sin(φ))(cos(ψ) + i sin(ψ))
= rs((cos(φ) cos(ψ) − sin(φ) sin(ψ)) + i(cos(φ) sin(ψ) + sin(φ) cos(ψ)))
= rs(cos(φ + ψ) + i sin(φ + ψ))
35
In der Schule werden sie meist ausgelassen, obwohl sie elementargeometrisch behandelt
werden können und für die Berechnung der Ableitung von Sinus und Kosinus (also (sin x)′ =
cos x und (cos x)′ = − sin x — das ist noch Schulstoff!) gebraucht werden.
Lineare Algebra für IB, AIB, BIB
51
3.4 Komplexe Zahlen
3 BEGRIFFE DER ALGEBRA
Also |zw| = |z| |w| und arg(zw) = arg(z) + arg(w). Falls
|z|
w ̸= 0, erhält man ebenso wz = |w|
und arg( wz ) =
arg(z) − arg(w).
Im nebenstehenden Bild ist |z| = 2 und |w| = 1.5, daher
|zw| = 3, und der Winkel zwischen positiver reeller Achse
und z ist wie zwischen w und zw.
z·w
w
Beispiel 3.25 (Wurzelziehen)
Für n ∈ N∗ ist die primitive n-te Einheits+ i sin 2π
. In Polardarstelwurzel ζn := cos 2π
n
n
lung sieht man leicht, dass ζn0 , ζn1 , ζn2 , ..., ζnn−1 Lö!
sungen von ζ n = 1 sind, und da dies n Lösungen
sind, sind dies alle Lösungen, die es in C gibt.
Sie bilden in der Gaußschen Zahlenebene ein reguläres n-Eck.
Für w ∈ C∗ löst
arg(w)
arg(w)
+ i sin
z0 := n |w| cos
n
n
q
z
w
!
!
die Gleichung z n = w. Für k ∈ {0, ..., n − 1} sind
zk := z0 ζnk ebenfalls Lösungen, und da es n Stück
sind, sind dies alle Lösungen, die es in C gibt.
Im nebenstehenden Bild ist w mit |w| = 8 und
arg(w) = 75◦ . Die Gleichung z 3 = w hat die drei
Lösungen z0 , z1 , z2 mit |zi | = 2, arg(z0 ) = 25◦ ,
arg(z1 ) = 25◦ + 120◦ und arg(z2 ) = 25◦ + 240◦ .
z1
z0
z2
Umrechnungsformeln 3.26
Zwischen Standard- und Polardarstellung gelten folgende Umrechnungsformeln:
Es ist a + b i = r(cos φ + i sin φ) genau dann wenn
a = r · cos φ
b = r · sin φ
√
r = a2 + b 2

arccos √ a
2
2
a +b
φ=
− arccos √ a
a2 +b2
falls b ≥ 0
falls b < 0
Für das Argument gibt es auch Umrechnungsformeln, die auf dem Arkustangens
basieren, aber eine Fallunterscheidung hat man immer.
Im Hinblick auf die Umrechnungsformeln ist folgende Tabelle praktisch, wobei
man noch ∀φ ∈ R : sin(−φ) = − sin φ, cos(−φ) = cos φ sowie sin(φ + π2 ) = cos φ
beachten muss.
52
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.5 Exkurs: Warum Restklassenkörper?
Spezielle Werte von Sinus und Kosinus 3.27
π
12
φ 0
√
sin φ 0
√
6− 2
4
√
cos φ 1
3.5
√
6+ 2
4
√
√
π
8
π
6
√
2− 2
2
1
2
√
2+ 2
2
√
3
2
π
4
π
3
√
√
2
2
√
2
2
3
2
1
2
√
√
5π
12
π
2
√
6+ 2
4
1
√
6− 2
4
0
Exkurs: Warum Restklassenkörper?
In der Vorlesung nicht behandelt. Lineare Algebra über Restklassenkörpern tritt
beispielsweise in der Codierung auf, also der Darstellung von Daten als Symbolfolgen.36 Die Symbole sollen Elemente eines endlichen Körpers K sein und die
Symbolfolgen „Blöcke“ einer festen Länge n: Ein Block entspricht dann einem
Element von Kn . Sei F2 := Z/2Z der Körper mit 2 Elementen.
Beispiel: Die 16 Elemente von F42 können die 16 Hexadezimalziffern codieren.
Wir schreiben Blöcke hier als Zeilenvektoren, rechnen aber weiterhin mit Spaltenvektoren. Bei der Datenübertragung können Fehler passieren. Wir nehmen an,
dass die Blocklänge erhalten bleibt (es werden keine Bits eingefügt oder entfernt),
also durch den Fehler lediglich ein Block aus Kn durch einen anderen ersetzt wird,
wobei pro Block höchstens r Stellen verändert werden.
Beispiel: Gesendet (0, 1, 1, 0), empfangen (0, 1, 0, 0) ⇝ r = 1 Fehler.
Übertragungsfehler können nur erkannt oder gar automatisch korrigiert werden, wenn der Code redundant ist: Man wählt eine Teilmenge C ⊂ Kn von Codewörtern. Gesendet wird c ∈ C, und wenn c′ ∈
/ C empfangen wird, weiß man,
dass es einen Übertragungsfehler gab. Und wenn es genau ein Codewort c′′ gibt,
das sich von c′ in höchstens r Stellen unterscheidet, so weiß man, dass c′′ = c gilt:
Der Fehler wurde korrigiert. Die Korrekturrate ist nr .
Beispiel: Wird d ∈ F42 durch (d, d, d) ∈ F12
2 codiert, kann r = 1 Fehler korrigiert
werden: Wird (0, 1, 1, 0, 0, 1, 0, 0, 0, 1, 1, 0) empfangen, so ist klar, dass an der rot
1
.
markierten Stelle 1 durch 0 ersetzt wurde. Die Korrekturrate ist 12
Bei einem linearen Code wählt man eine Kontrollmatrix H ∈ Km×n , und
dann C := LR(H; ⃗0). Ist k die Anzahl der Basislösungen, so ist die Informati4
onsrate nk (im obigen Beispiel ist also die Informationsrate 12
). Wird der Block
′
n
′
m
′
c ∈ K empfangen, so heißt Hc ∈ K das Syndrom von c .
36
Chiffrierung, also die Verschlüsselung codierter Daten, ist etwas anderes.
Lineare Algebra für IB, AIB, BIB
53
3.5 Exkurs: Warum Restklassenkörper?
3 BEGRIFFE DER ALGEBRA
Beispiel 3.28
m
m
⃗
−1)-Matrix
Fm
2 enthält 2 −1 von 0 verschiedene Elemente, die wir in eine m×(2
1 0 0 1 1 0 1
H in ZSF schreiben. Für m = 3 beispielsweise H := 0 1 0 1 0 1 1 ∈ F23×7 .
0 0 1 0 1 1 1
Die Spalten m + 1 bis 2m − 1 sind Nicht-Pivotspalten; sei n := 2m − 1 und
k := 2m − m − 1. Die Generatormatrix sei G := (β⃗m+1 , ..., β⃗2m −1 ) ∈ Kn×k ,
und dann C := LR(H; ⃗0) = {G · d⃗ | d⃗ ∈ Kk }. Dies ist der (n, k)-Hamming1 1 0 1
1 0 1 1
Code
37
0 1 1 1
. Für m = 3 beispielsweise G :=  1 0 0 0 . Interpretation: Die ersten
0 1 0 0
0 0 1 0
0 0 0 1
drei Bit sind Prüfbits und die letzten vier Bit Datenbits. So wird (0, 1, 1, 0) durch
c = (1, 1, 0, 0, 1, 1, 0) ∈ F72 codiert.
Lemma 3.29
Ein (n, k)-Hamming-Code hat Informationsrate nk und die Korrekturrate n1 .
Beweis:
Die Informationsrate ist klar. Sei c ∈ Fn2 das gesendete Codewort und c′ ∈ Fn2 der
empfangene Block, so dass der Fehler f := c′ − c nur an der Stelle i ∈ {1, ..., n}
von Null verschieden ist. Das Syndrom ist Hc′ = H(c′ − c) = Hf , und das ist die
i-te Spalte von H. Man korrigiert also den Fehler, indem man an der i-ten Stelle
von c′ 0 durch 1 bzw. 1 durch 0 ersetzt.
□
Beispiel: c′ = (1, 1, 0, 1, 1, 1, 0) hat das Syndrom Hc′ =
c′′ = c = (1, 1, 0, 0, 1, 1, 0) decodiert.
1
1
0
= H∗,4 , also wird
Praktische Anwendungen fehlerkorrigierender linearer Codes:
• Mit einem zusätzlichen Paritätsbit entsteht ein „erweiterter“ HammingCode, der einen Fehler pro Block korrigieren und zwei Fehler pro Block
erkennen kann. Das genügt für schwach verrauschte Kanäle, etwa beim
fehlerkorrigierenden RAM. Nutzt man von einem (127, 120)-Hammingcode
(m = 7) mit zusätzlichem Paritätsbit 64 der 120 Datenbits, erhält man
einen 1-Fehler-korrigierenden 2-Fehler-erkennenden 64-Bit-Speicher und benötigt dafür die Busbreite 64 + m + 1 = 72.
• Der erweiterte binäre Golay-Code38 erreicht mit der Blocklänge 24 die Informationsrate 12 und die Korrekturrate 18 , kann also pro Block bis zu drei
Fehler korrigieren. Dieser Code wurde für die Bildübertragung der Voyager1- und -2-Sonden verwendet.
37
38
54
Richard Wesley Hamming [1915–1998]
Marcel Jules Edouard Golay [1902–1989]
Lineare Algebra für IB, AIB, BIB
3 BEGRIFFE DER ALGEBRA
3.5 Exkurs: Warum Restklassenkörper?
• Der ternäre Golay-Code nutzt F3 = Z/3Z statt F2 und erreicht mit Block6
länge 11 die Informationsrate 11
und kann zwei Fehler pro Block korrigieren. Unabhängig von Golay wurde dieser Code von einem Fußballfan
zum Knacken von Sportwetten entwickelt. Er kann zur Fehlerkorrektur im
quantum computing genutzt werden.
• Hadamard-Codes39 erreichen nur eine sehr geringe Informationsrate 2kk , aber
mit wachsendem k nähert man sich der Korrekturrate 12 . Hadamard-Codes
werden daher für sehr stark verrauschte Kanäle verwendet, etwa 1971 für
die Bildübertragung der Mariner-9-Marssonde.
• Das hier beschriebene Verfahren zum Decodieren (nämlich: Nachsehen, in
welcher Spalte der Kontrollmatrix man das Syndrom findet) ist bei großen
Kontrollmatrizen nicht effizient genug. Es gibt lineare Codes, die auf möglichst effizientes Codieren und Decodieren optimiert wurden, etwa TurboCodes in 3G- und 4G- oder Polare Codes in 5G-Netzen.
39
Jacques Salomon Hadamard [1865–1963]
Lineare Algebra für IB, AIB, BIB
55
4 VEKTORRÄUME
4
Vektorräume
Auch in diesem Kapitel sei K ein Körper. In diesem Kapitel beginnt die eigentliche
lineare Algebra, zunächst geht es um deren Grundbegriffe:
• (Unter-)Vektorräume: Abstrahiert von Km×n und Lösungsräumen homogener linearer Gleichungssysteme und ist dann auch auf die Menge der stetigen
Funktionen und auf den Übergang von Q nach R nach C anwendbar.
• Lineare Abbildungen: Abstrahiert von der Matrixmultiplikation und ist
dann auch auf Differential- und Integralrechnung sowie geometrische Abbildungen anwendbar.
• Basen: Abstrahiert von der „sparsamen“ Erzeugung von Lösungsräumen
mittels Linearkombinationen sowie von Koordinatensystemen und ist eine
wichtige Grundlage für rechnerische Methoden.
Ich verwende Pfeilakzente für Spaltenvektoren. Für Elemente allgemeiner Vektorräume verwende ich Kleinbuchstaben ohne Pfeilakzent, also b statt ⃗b. Elemente
von K nennt man auch Skalare, und um sie von Vektoren zu unterscheiden,
verwenden wir für sie kleine griechische Buchstaben.
4.1
Vektorraumaxiome
Definition 4.1. Es sei (K, +, ·, 0, 1) ein Körper.
Ein K–Vektorraum ist eine Menge V mit einer inneren Verknüpfung + ( Vektoraddition) und einer Skalarmultiplikation40 · : K × V → V , (λ, v) 7→ λv
(auch λ · v geschrieben), so dass gilt:
a) (V, +, o) ist eine abelsche Gruppe, wobei man das neutrale Element o der
Vektoraddition Nullvektor nennt.
b) Assoziativitgesetz: ∀λ, µ ∈ K, v ∈ V : (λµ)v = λ(µv).
c) Eins: ∀v ∈ V : 1 · v = v.
d) Addition in K ebenso wie Addition in V erfüllen mit der Skalarmultiplikation
ein Distributivgesetz. Also für alle λ, µ ∈ K und u, v ∈ V :
λ(u + v) = λu + λv
(λ + µ)v = λv + µv .
Bemerkung: An mehreren Stellen besteht eine Verwechslungsgefahr: Das neutrale Element der Vektoraddition ist der Nullvektor o (bisher hieß er ⃗0), das
natürlich vom Nullelement 0 ∈ K zu unterscheiden ist. Und sowohl in V als auch
in K verwendet man meist die gleichen Verknüpfungssymbole + bzw. ·. Man sollte
sich des Unterschieds bewusst sein!
40
56
Das ist i.A. keine innere Verknüpfung!
Lineare Algebra für IB, AIB, BIB
4 VEKTORRÄUME
4.2 Untervektorräume
Beispiel 4.2
a) Km×n sowie die Lösungsräume homogener linearer Gleichungssysteme.
b) Sei X eine Menge und V ein K-Vektorraum. Dann ist Abb(X, V ) mit ebenfalls ein K-Vektorraum, mit punktweiser Addition und Skalarmultiplikation, d.h. für alle f, g : X → V und λ ∈ K definiert man f + g sowie λf
durch ∀x ∈ X : (f + g)(x) := f (x) + g(x) und ∀x ∈ X : (λf )(x) := λ · f (x).
c) Der K-Vektorraum K[X] der Polynome über K. Der K-Vektorraum K[X]n
aller Polynome von Grad ≤ n über K.
d) Der R-Vektorraum C d (R, R) der mindestens d-mal stetig differenzierbaren
Abbildungen von R nach R. Es handelt sich um einen Vektorraum, denn
wenn f, g : R → R differenzierbar sind und λ, µ ∈ R, dann ist auch die
Abbildung x 7→ λf (x) + µg(x) differenzierbar, wegen (λf + µg)′ = λf ′ + µg ′ .
Lemma 4.3
Sei V ein K–Vektorraum.
a) Für alle v ∈ V und für alle λ ∈ K gilt 0 · v = o = λ · o.
b) Für alle v ∈ V und für alle λ ∈ K gilt (−λ)v = −(λv) = λ(−v).
c) ∀λ ∈ K und ∀v ∈ V : Aus λv = o folgt λ = 0 oder v = o.
Beweis:
a) Analog zu Satz 3.8.a).
b) Analog zu Satz 3.8.b).
c) Wir zeigen: Ist λv = o aber λ ̸= 0, dann gilt v = o. Wegen λ ̸= 0 existiert
λ−1 ∈ K. Dann o = λ−1 o = λ−1 (λv) = (λ−1 λ) v = 1v = v.
□
Bemerkung: Wenn wir sagen: „Sei V ein K-Vektorraum,“ so ist dadurch implizit
auch vorausgesetzt, dass K ein Körper ist.
4.2
Untervektorräume
Definition 4.4. Sei V ein K-Vektorraum.
U ⊂ V heißt Untervektorraum von V , Notation U ≤ V , gdw. U ist bezüglich
der Vektoraddition und Skalarmultiplikation von V selbst ein K-Vektorraum.
Bemerkung: Es genügt zu zeigen, dass o ∈ U und dass U abgeschlossen bezüglich Vektoraddition und Skalarmultiplikation ist, d.h. ∀λ ∈ K, u, v ∈ U : λu ∈
U und u + v ∈ U . Alle anderen Vektorraumaxiome gelten in U , da sie sogar in V
gelten.
Lineare Algebra für IB, AIB, BIB
57
4.2 Untervektorräume
4 VEKTORRÄUME
Beispiele:
a) Sei c ≤ d ∈ N. Dann K[X]c ≤ K[X]d ≤ K[X] und C d (R, R) ≤ C c (R, R).
b) Ist A ∈ Km×n , dann ist LR(A; ⃗0) ≤ Kn .
Charakterisierung von Untervektorräumen 4.5
Sei V ein K-Vektorraum und U ⊂ V . Es gilt U ≤ V ⇐⇒ U ̸= ∅ und ∀λ, µ ∈ K
und u, v ∈ U : λu + µv ∈ U .
Bemerkung: Eine Charakterisierung eines Begriffes ist eine zur Definition
des Begriffs gleichbedeutende Aussage. Das heißt, man könnte den Begriff auch
anders definieren, und so kommt es, dass ein und derselbe Begriff in verschiedenen
Büchern verschieden (aber gleichbedeutend!) definiert wird.
Beweis:
Wenn U ≤ V , dann gelten die beiden Aussagen offenbar. Sei nun U ⊂ V und
die beiden Aussagen seien wahr. Dann folgt ∀u, v ∈ U : u + v = 1u + 1v ∈ U
und ∀u ∈ U, λ ∈ K : λu = λu + 0u ∈ U , also ist Vektoraddition eine innere und
Skalarmultiplikation eine äußere Verknüpfung auf U .
Wegen U ̸= ∅ gibt es ein u ∈ U . Dann auch o = 0u ∈ U und −u = (−1)u ∈ U .
Also gelten (V3) und (V4). Die übrigen Vektorraumaxiome gelten sogar in V , sie
gelten also erst recht eingeschränkt auf die Elemente von U .
□
Wir reformulieren nun den Begriff der Linearkombination so, dass wir prinzipiell
auch mit unendlich vielen Vektoren umgehen könnten. Technische Probleme:
• Vektoren und Vorfaktoren gehören zusammen, wir würden gerne λ1 v1 +
λ2 v2 + ... schreiben. Aber was macht man, wenn man die Vektoren nicht
durchnummerieren kann?
• Summen dürfen nur endlich viele Summanden haben (anders als konvergente Reihen in der Analysis). Wir wollen aber auch einen unendlichen Pool
potentieller Summanden zulassen; wie drückt man aus, dass nur endlich
viele davon tatsächlich in der Summe auftreten?
Notation 4.6. Seien M und I Mengen.
a) Eine Familie (ai )i∈I ⊂ M mit Indexmenge I ist eine Abbildung I ∋ i 7→
ai ∈ M . Wir schreiben [a1 , ..., an ] ⊂ M statt (ai )i∈{1,...,n} ⊂ M .
b) Ist (γi )i∈I ⊂ K so, dass γi ̸= 0 nur für endlich viele i ∈ I gilt, dann sagt
man γi = 0 für fast alle i ∈ I.
Da in der Abbildung I → M Elemente von M mehrfach getroffen werden
können, entspricht eine Familie in M einer „Teilmenge mit Wiederholungen“.
58
Lineare Algebra für IB, AIB, BIB
4 VEKTORRÄUME
4.3 Lineare Abbildungen
Definition 4.7 (und Lemma)
Sei V ein K-Vektorraum, S = (vi )i∈I ⊂ V und (γi )i∈I ⊂ K.
a) Wenn γi = 0 für fast alle i ∈ I, dann heißt
P
γi vi eine Linearkombinati-
i∈I
on von S mit den Koeffizienten (γi )i∈I . Statt „
alle i ∈ I“ schreiben wir einfach
X′
P
γi vi mit γi = 0 für fast
i∈I
γi vi (der Strich am Summenzeichen
i∈I
bedeutet, dass nur endlich viele Summanden auftreten). Sind alle Koeffizienten null, so heißt die Linearkombination trivial und hat den Wert o.
Wenn wir
die Indexmenge nicht explizit benennen möchten, schreiben wir
X′
einfach
γv v wobei man im Hinterkopf behalten sollte, dass zu jedem
v∈S
Vektor der Familie ein Index gehört und der gleiche Vektor in der Summe
mehrfach auftreten kann.
b) S heißt linear unabhängig :⇔ die einzig mögliche Darstellung von o als
Linearkombination von S ist die triviale Linearkombination.
Andernfalls heißt S linear abhängig; dann gäbe es also eine nicht-triviale
Linearkombination von S mit Wert o.
c) Die Menge aller Linearkombinationen von S heißt Erzeugnis oder K-Span
von S oder der von S erzeugte Untervektorraum. Notation:
X′
SpanK (S) := {
γi vi | (γi )i∈I ⊂ K, γi = 0 für fast alle i ∈ I} ≤ V
i∈I
Ist V = SpanK (S), so heißt S Erzeugendensystem von V über K.
Beweis:
Die triviale Linearkombination ergibt den Nullvektor, d.h. o ∈ SpanK (S). Seien
X′
X′
cw w und v =
dw w. Weil cw = dw = 0 für fast
u, v ∈ SpanK (S), also u =
w∈S
w∈S
alle w ∈ S X
gilt, gilt für λ, µ ∈ K auch λcw + µdw = 0 für fast alle w ∈ S. Also
′
(λcw + µdw )w ∈ SpanK (S).
□
λu + µv =
w∈S
4.3
Lineare Abbildungen
Wir wollen von der Matrixarithmetik abstrahieren. Ist A ∈ Km×n , dann sei
LA : Kn → Km durch LA (⃗v ) = A · ⃗v definiert. Wir zeigen zunächst, welche Implikationen sich für LA aus dem Assoziativ- und Distributivgesetz ergeben.
Beispiele: Seien A ∈ Km×n , B ∈ Kk×m und ⃗v ∈ Kn ,
a) LBA (⃗v ) = (BA)⃗v = B(A⃗v ) = LB ◦LA (⃗v ). Anders gesagt: Aus der Gültigkeit
des Assoziativgesetzes der Matrixmultiplikation folgt LB ◦ LA = LBA .
Lineare Algebra für IB, AIB, BIB
59
4.3 Lineare Abbildungen
4 VEKTORRÄUME
b) Ist zudem C ∈ Kℓ×k , dann LC(BA) = LC ◦ LBA = LC ◦ (LB ◦ LA ) = (LC ◦
LB )◦LA = L(CB)A . Das Assoziativgesetz der Verknüpfung von Abbildungen
entspricht also dem Assoziativgesetz der Matrixmultiplikation.
Distr.
c) Sind zudem ⃗u ∈ Kn und λ ∈ K, so gilt LA (⃗u +⃗v ) = A(⃗u +⃗v ) = A⃗u + A⃗v =
LA (⃗u) + LA (⃗v ) und LA (λ⃗u) = A(λ⃗u) = λ(A⃗u) = λLA (⃗u).
Dadurch liegt die folgende Begriffsbildung nah, in der LA und damit die Matrixmultiplikation abstrahiert wird.
Definition 4.8. Seien V, W K-Vektorräume.
a) Eine Abbildung f : V → W heißt linear (oder auch K-linear oder Homomorphismus von K-Vektorräumen) :⇔ ∀u, v ∈ V und ∀λ ∈ K gilt
f (u + v) = f (u) + f (v) und f (λv) = λf (v).
b) HomK (V, W ) := {f : V → W | f ist K-linear}.
c) V ∗ := HomK (V, K) heißt Dualraum von V . Ob mit K∗ der Dualraum von
K oder K \ {0} gemeint ist, ergibt sich aus dem Kontext.
Beispiele:
a) Für A ∈ Km×n ist LA ∈ HomK (Kn , Km ). Insbesondere entspricht ein Zeilenvektor u ∈ Kn einem Element von (Kn )∗ , nämlich der linearen Abbildung
Kn ∋ ⃗v → u⃗v ∈ K1×1 =
ˆ K.
b) R → R mit x 7→ x2 ist nicht linear: (1 + 1) 7→ 22 = 4 ̸= 12 + 12 = 2
c) Eine „lineare Funktion“ wie f (x) := 5 x + 3 ist keine lineare Abbildung im
Sinne der Definition, denn f (1 + 1) = 13 ̸= f (1) + f (1) = 8 + 8 = 16.
d) Für stetig differenzierbare Funktionen v ∈ C 1 (R, R) ist durch f (v) := v ′ eine
Abbildung f : C 1 (R, R) → C 0 (R, R) definiert. Für stetig differenzierbare
u, v : R : R und λ, µ ∈ R gilt (λu + µv)′ = λu′ + µv ′ . Also ist f linear.
e) Sei K := Z/2Z und sei V := K[X]. Siehe Übungen: Die Abbildung f : V →
V definiert durch ∀p ∈ V : f (p) := p2 ist eine lineare Abbildung. Das ist
erstaunlich, denn wenn man Polynome mit reellen Koeffizienten betrachtet,
so ist die Abbildung p 7→ p2 nicht linear!
f) C ist ein R-Vektorraum (wir haben ja C mit R2 dargestellt). Die Abbildungen κ : C → C mit κ(z) := z̄ und Re : C → R sind R-linear. Sind
nämlich a, b, c, d, λ, µ ∈ R und w := a + b i sowie z := c + d i, so gilt
λw + µz = (λa + µc) + (λb + µd) i und daher
60
Lineare Algebra für IB, AIB, BIB
4 VEKTORRÄUME
4.4 Basen
• κ(λw + µz) = (λa + µc) − (λb + µd) i = λ(a − b i) + µ(c − d i) =
λκ(w) + µκ(z)
• Re(λw + µz) = λa + µc = λ Re(w) + µ Re(z).
Lemma 4.9. Sei f ∈ HomK (V, W ).
Sind oV ∈ V und oW ∈ W die Nullvektoren, so gilt f (oV ) = oW .
Beweis:
Nach Lemma 4.3 und Linearität von f gilt f (oV ) = f (0oV ) = 0f (oV ) = oW .
□
⃗
⃗
Bemerkung: Für A ∈ Km×n und ⃗b ∈ Km ist offenbar L−1
A [{b}] = LR(A; b). Die
Aufgabe, das Urbild unter einer linearen Abbildung zu berechnen, verallgemeinert
also das Berechnen des Lösungsraums eines linearen Gleichungssystems.
Aufgabe 4.10 (und Definition). Sei f : V → W K-linear. Zeigen Sie:
a) Bild(f ) ist ein K-Vektorraum bezüglich der in W definierten Vektoraddition
und Skalarmultiplikation.
b) ker(f ) := {v ∈ V : f (v) = oW } (der Kern von f ) ist ein K-Vektorraum
bezüglich Vektoraddition und Skalarmultiplikation in V .
Aufgabe 4.11 (und Definition). Seien V, W K-Vektorräume.
Für f, g ∈ HomK (V, W ) und λ ∈ K definieren wir (f + g) : V → W und
(λf ) : V → W durch (f + g)(v) := f (v) + g(v) und (λf )(v) := λf (v). Zeigen Sie,
dass dadurch HomK (V, W ) zu einem K-Vektorraum wird.
4.4
Basen
Sei V ein K-Vektorraum. Es gilt immer SpanK (V ) = V , d.h. V ist sein eigenes Erzeugendensystem. Aber diese Sichtweise ist nicht besonders effizient: Wir
möchten nun Erzeugendensysteme mit möglichst wenig Vektoren untersuchen.
Definition 4.12
Ein linear unabhängiges Erzeugendensystem eines K-Vektorraums heißt Basis.
Wenn sich K nicht eindeutig aus dem Kontext ergibt, sagt man K-Basis.
Bemerkung 4.13
Für S := [⃗v1 , ..., ⃗vk ] ⊂ Kn sei A := (⃗v1 , ..., ⃗vk ) ∈ Kn×k , was mit Gauß eine ZSF
A′ ergibt. S ist genau dann linear unabhängig, wenn in A′ jede Spalte Pivotspalte
ist. Es folgt: Jede linear unabhängige Familie in Kn hat höchstens n Elemente.
SpanK (S) = Kn ⇐⇒ ∀⃗b ∈ Kn : LR(A; ⃗b) ̸= ∅ ⇐⇒ A′ hat keine Nullzeile. Es
folgt: Jedes Erzeugendensystem von Kn hat mindestens n Elemente.
Also hat jede Basis von Kn genau n Elemente und [⃗v1 , ..., ⃗vn ] ⊂ Kn ist genau
dann eine Basis von Kn , wenn (⃗v1 , ..., ⃗vn ) ∈ GLn (K).
Lineare Algebra für IB, AIB, BIB
61
4.4 Basen
4 VEKTORRÄUME
Beispiel 4.14
a) Die Basislösungen eines homogenen linearen Gleichungssystems bilden eine
Basis des Lösungsraums.
b) [1] ist eine C-Basis von C. Hingegen ist [1, i] eine R-Basis von C.
c) Für i ∈ {1, ..., n} sei ⃗ei ∈ Kn der Spaltenvektor, der in der i-ten Zeile den
Eintrag 1 und überall sonst die Einträge 0 hat. Dann ist [⃗e1 , ..., ⃗en ] eine
Basis von Kn . Man bezeichnet sie als die Standardbasis von Kn .
Verallgemeinerung: Eine mit Familie in K mit Indexmenge I ist eine Abbildung I → K. Die Menge aller solcher Familien bildet den K-Vektorraum
KI := Abb(I, K) (punktweise Addition und Skalarmultiplikation).
Der K-Vektorraum der Familien in K mit endlichem Träger ist KIfin :=
{(ci )i∈I ⊂ K | ci = 0 für fast alle i ∈ I} ≤ KI — siehe Hausaufgaben. Im
Fall I = {1, ..., n} ist KI = KIfin = Kn .

1
Für i ∈ I sei ı̂ := 
0
X′

(i = j) 
(i ̸= j)
⊂ K Aus ∀j ∈ I :
X′
λi ı̂j = λj folgt:
i∈I
j∈I
λi ı̂ = o ⇒ ∀j ∈ I : λj = 0, d.h. (ı̂)i∈I ⊂ K ist linear unabhängig; und
i∈I
∀λ ∈ KIfin : λ =
X′
λi ı̂. Also ist (ı̂)i∈I eine Basis von KIfin .
i∈I
Für unendliches I ist jedoch (ı̂)i∈I kein Erzeugendensystem von KI und es
wäre dann sehr schwer, eine Basis von KI explizit anzugeben. Im englischen Sprachraum bezeichnet man übrigens mit ı̂ ∈ R3 den Einheitsvektor
in Richtung der x-Achse, das ist natürlich etwas ganz anderes.
Lemma 4.15 (und Definition)
Sei V ein K-Vektorraum und B = (bi )i∈I ⊂ V eine Familie.
a) B ist Basis von V ⇐⇒ jedes v ∈ V hat genau eine Darstellung als
Linearkombination von B.
b) Ist B eine Basis von V , so ist die Koordinatenabbildung bzgl. B defiX′
niert durch κB : V → KIfin mit ∀v ∈ V : v =
κB (v)i bi .
i∈I
κB ist eine bijektive lineare Abbildung. Für v ∈ V nennt man κB (v) die
Koordinaten von v bezüglich B. Für alle i ∈ I ist κB (bi ) = ı̂.
Beweis:
a) B ist genau dann ein Erzeugendensystem, wenn jedes v ∈ V mindestens
eine Darstellung als Linearkombination von B hat.
62
Lineare Algebra für IB, AIB, BIB
4 VEKTORRÄUME
Wenn V ∋ v =
X′
4.4 Basen
X′
λ i bi =
i∈I
X′
µi bi mit (λi )i∈I ̸= (µi )i∈I , dann ist o =
i∈I
(λi −µi )bi eine nicht-triviale Linearkombination, also B linear abhängig.
i∈I
Und wenn B linear abhängig ist, dann hat o zwei verschiedene Darstellungen
als Linearkombination von B, nämlich trivial und nicht-trivial.
b) a) ⇒ κB existiert und ist injektiv.
X′
∀γ ∈ KIfin : κB ( γi bi ) = γ ⇒ κB ist surjektiv.
i∈I
Sind v, w ∈ V und λ, µ ∈ K, dann λv+µw = λ
X′
X′
i∈I
(λκB (v)i + µκB (w)i )bi , aber auch λv + µw =
i∈I
κB (v)i bi +µ
X′
X′
κB (w)i bi =
i∈I
κB (λv + µw)i bi . Aus a)
i∈I
folgt κB (λv + µw) = λκB (v) + µκB (w).
κB (bi ) = ı̂ ist einfach die Aussage bi = 1 · bi .
□
Charakterisierung von Basen 4.16
Sei V ein K-Vektorraum. Für eine Familie S := (vi )i∈I ⊂ V ist gleichbedeutend:
a) S ist eine Basis von V .
b) S ist ein minimales Erzeugendensystem von V : Entfernt man ein Element
von S, liegt danach kein Erzeugendensystem mehr vor.
c) S ist eine maximal linear unabhängige Familie in V : Fügt man ein Element
zu S hinzu, liegt danach keine linear unabhängige Menge vor.
□
Beweis:
a) ⇐⇒ b): Sei S ein Erzeugendensystem. S nicht minimal ⇐⇒ ∃k ∈ I : vk ∈
X′
γi vi ⇐⇒ S linear
Span((vi )i∈I\{k} ) ⇐⇒ ∃k ∈ I, γk ∈ K∗ : − γk vk =
i∈I\{k}
abhängig.
a) ⇐⇒ c): Sei S linear unabhängig. S maximal ⇐⇒ ∀w ∈ V existiert eine
X′
nicht-triviale Linearkombination o = γw +
λi vi . Dabei wäre γ = 0 nicht
möglich, denn sonst wäre auch o =
X′
i∈I
λi vi eine nicht-triviale Linearkom-
i∈I
bination (Widerspruch zu S linear unabhängig!). Daher w =
X′
λi
v
−γ i
∈
i∈I
SpanK (S), d.h. S ist ein Erzeugendensystem.
□
Bemerkung 4.17
Aus den mengentheoretischen Axiomen einschließlich des Auswahlaxioms folgt
das so genannte Lemma von Zorn und aus diesem wiederum folgt, dass es in jedem Vektorraum eine maximale linear unabhängige Familie gibt, dass also jeder
Vektorraum eine Basis besitzt. Dies aber wäre ein Beispiel für einen inkonstruktiven Beweis, der keinen Anhaltspunkt für die Bestimmung einer Basis gibt.
Lineare Algebra für IB, AIB, BIB
63
4.5 Isomorphismen
4.5
4 VEKTORRÄUME
Isomorphismen
In diesem Abschnitt seien V, W K-Vektorräume.
Definition 4.18
a) f ∈ HomK (V, W ) heißt Isomorphismus :⇔ f ist bijektiv. Dafür schreibt
∼
=
man auch f : V →
W.
∼
=
b) V, W sind zueinander isomorph, Notation V ∼
= W :⇔ ∃f : V → W .
c) Eine lineare Abbildung f : V → V nennt man auch Endomorphismus
von V . EndK (V ) := HomK (V, V ) heißt Endomorphismenring von V .
d) Einen bijektiven Endomorphismen nennt man Automorphismus. AutK (V ) :=
{f ∈ HomK (V, V ) | f bijektiv} heißt Automorphismengruppe von V .
Beispiel: Ist V ein K-Vektorraum mit Basis B, dann ist κB ein Isomorphismus.
Bemerkung 4.19
a) Für f, g ∈ EndK (V ) ist f ◦ g ∈ EndK (V ). Allgemeiner: Sind W, Z KVektorräume, g ∈ HomK (V, W ) und f ∈ HomK (W, Z), dann f ◦g ∈ HomK (V, Z).
Übung: EndK (V ) ist bezüglich Addition und Komposition ein Ring.
b) Wenn f, g ∈ AutK (V ), dann f −1 ∈ AutK (V ) und f ◦ g ∈ AutK (V ). Insbesondere ist (AutK (V ), ◦, IdV ) eine Gruppe. Allgemeiner: Ist W ein K≡
≡
Vektorraum und f : V → W , dann f −1 : W → V .
Beweis:
lin.
lin.
a) ∀λ, µ ∈ K, u, v ∈ V : f (g(λu + µv)) = f (λg(u) + µg(v)) = λf (g(u)) +
µf (g(v)), also ist f ◦ g : V → V linear.
b) Sind f, g bijektiv, dann f ◦g linear, und mit a) folgt f ◦g ∈ AutK (V ). Ferner
f bij.
∀λ, µ ∈ K, u, v ∈ W : f −1 (λu + µv) = λf −1 (u) + µf −1 (v) ⇐⇒ λu + µv =
lin.
✓
f (λf −1 (u) + µf −1 (v)) = λf (f −1 (u)) + µf (f −1 (v)) = λu + µv.
□
Lemma 4.20. Sei f ∈ HomK (V, W ) und S := (vi )i∈I ⊂ V eine Familie. Wir
definieren f [S] := (f (vi ))i∈I ⊂ W .
a) Wenn f injektiv und S linear unabhängig ist, dann ist f [S] ⊂ W linear
unabhängig.
b) Wenn f surjektiv und SpanK (S) = V , dann SpanK (f [S]) = W .
c) Sei f bijektiv. S ist eine Basis von V ⇐⇒ f [S] ist eine Basis von W .
64
Lineare Algebra für IB, AIB, BIB
4 VEKTORRÄUME
4.5 Isomorphismen
Beweis:
X′
a) Sei oW =
γv f (v); zu zeigen: ∀v ∈ S : γv = 0. Wegen f linear folgt
Xv∈S
′
X′
v∈S
v∈S
oW = f (
γv v). Wegen f injektiv und f (oV ) = oW folgt oV =
γv v.
Wegen S linear unabhängig folgt ∀v ∈ S : γv = 0.
b) Sei w ∈ W . f surjektiv ⇒ ∃x ∈ V : f (x) = w. Wegen SpanK (S) = V gibt
X′
lin. X′
es eine Linearkombination x =
γv v. Dann w = f (x) =
γv f (v).
v∈S
v∈S
c) Folgt aus a) und b).
□
Korollar 4.21 (und Definition). Sei V ein K-Vektorraum. Wenn V eine endliche Basis B hat, heißt V endlichdimensional. Jede Basis von V hat genau
|B| Elemente. Die Dimension von V ist dim(V ) := |B| oder (wenn sich K nicht
aus dem Kontext ergibt) dimK (V ) := |B|.
Bemerkung: Auch wenn V nicht endlichdimension ist, gilt: Wenn B, C Basen
von V sind, sind B, C gleichmächtig, d.h. es gibt eine Bijektion φ : B → C.
Beispiele: dim(Kn ) = n. dimC (C) = 1, aber dimR (C) = 2.
Beweis:
Sei n := |B|, also κB : V → Kn . Sei C ⊂ V eine Basis. Dann ist auch κB [C] ⊂ Kn
bij.
eine Basis von Kn , also nach Bemerkung 4.13 |C| = |κB [C]| = n.
□
Satz von der linearen Fortsetzung 4.22
Sei B = (bi )i∈I ⊂ V eine Basis und (wi )i∈I ⊂ W . Es gibt genau ein φ ∈
X′
HomK (V, W ) mit ∀i ∈ I : φ(bi ) = wi , nämlich ∀v ∈ V : φ(v) =
κB (v)k wk .
k∈I
Beweis:
Eindeutigkeit: ψ ∈ HomK (V, W ) mit ∀i : ψ(bi ) = wi ⇒ ∀v ∈ V : ψ(v) =
ψ(
X′
k∈I
lin. X′
κB (v)k bk ) =
κB (v)k ψ(bk ) =
X′
κB (v)k wk .
k∈I
k∈I
Existenz: Wir definieren φ : V → W durch φ(v) :=
denn ∀λ, µ ∈ K, u, v ∈ V :
X′
X′
κB (v)k wk . Es ist φ linear,
k∈I
κB (λu + µv)k wk =
k∈I
wegen der Linearität von κB . ∀i ∈ I : φ(bi ) =
X′
X′
(λκB (u)k + µκB (v)k )wk
k∈I
ı̂k wk = wi .
□
k∈I
Beobachtung 4.23 (und Notation). Sei φ ∈ HomK (Kn , Km ). Es gibt genau
ein Mφ ∈ Km×n mit φ = LMφ , nämlich Mφ = (φ(⃗e1 ), ..., φ(⃗en )). Zudem ist φ
genau dann ein Isomorphismus, wenn Mφ invertierbar ist.
Lineare Algebra für IB, AIB, BIB
65
4.6 Basisauswahl und -ergänzung
4 VEKTORRÄUME
Korollar 4.24 (und Definition)
Seien V, W endlichdimensionale K-Vektorräume mit einer Basis B = [b1 , ..., bn ]
von V und C = [c1 , ..., cm ] von W . Sei f ∈ HomK (V, W ). Wir setzen φ :=
m
κC ◦ f ◦ κ−1
→ Kn , und dann nennt man C MB (f ) := Mφ ∈ Km×n die
B : K
Darstellungsmatrix (auch: Abbildungsmatrix) von f bzgl. B und C.
Die i-te Spalte von C MB (f ) entspricht den Koordinaten von f (bi ) bezüglich
C. Für alle v ∈ V gilt κC (f (v)) = C MB (f ) · κB (v)
Beweis:
(Mφ )∗,i = φ(⃗ei ) = κC (f (bi )), denn κB (bi ) = ⃗ei . Nach Beobachtung 4.23 gilt also
∀v ∈ V : C MB (f ) · κB (v) = φ(κB (v)) = κC (f (κ−1
□
B (κB (v)))) = κC (f (v)).
Beispiel 4.25
y
f : R2 → R2 sei gegeben durch ∀ ( xy ) ∈ R2 : f ( xy ) := 2x+2
x+4 y . Man sieht leicht,
dass f linear ist. Sei E = [⃗e1 , ⃗e2 ] die Standardbasis. Dann gilt also f (⃗e1 ) = ⃗e1 +2⃗e2
und f (⃗e2 ) = 2⃗e1 + 4⃗e2 . Daher E ME (f ) = ( 12 24 ).
2
⃗ ⃗
Sei nun ⃗b1 = ( 12 ) und ⃗b2 = ( −2
1 ). Dann ist
B = [b1 , b2 ] eine Basis von R ,
1+2·2
5 ) = 5⃗
und wir können B MB (f ) berechnen: f (⃗b1 ) = 2·1+4·2
= ( 10
b1 + 0⃗b2 und
−2+2·1
f (⃗b2 ) = 2·(−2)+4·1
= ⃗0 = 0⃗b1 + 0⃗b2 . Daher B MB (f ) = ( 50 00 ). Offenbar ist die
Basis B besser zur Beschreibung von f geeignet als E.
Beobachtung 4.26 (und Definition)
Seien B und C Basen eines n-dimensionalen K-Vektorraums V . Die Basiswechselmatrix zur Transformation von B nach C ist C TB := C MB (IdV ) ∈ Mn (K).
a) Für alle ⃗v ∈ V gilt κC (⃗v ) = C TB ·κB (⃗v ).
b) B TC = C TB −1 .
c) Ist f : V → W linear, B1 , B2 endliche Basen von V , C1 , C2 endliche Basen
von W , dann C2 MB2 (f ) = C2 TC1 · C1 MB1 (f ) · B1 TB2 .
Beispiel: In Beispiel 4.25 liest man E TB = (⃗b1 , ⃗b2 ) = ( 12 −2
1 ) direkt ab. Dann
1
1 2
1 −2 −1
= 5 ( −2 1 ). Die Abbildungsmatrix von f bezüglich der „günstiB TE = ( 2 1 )
1 2
1 −2
1 2
5 0
gen“ Basis B lässt sich also durch 51 ( −2
1 ) · ( 2 4 ) · ( 2 1 ) = ( 0 0 ) berechnen.
Aufgabe 4.27
Seien V, W endlichdimensionale K-Vektorräume mit Basen B, C, wobei dim(V ) =
∼
=
n und dim(W ) = m. Zeigen Sie C MB : HomK (V, W ) →
Km×n .
4.6
Basisauswahl und -ergänzung
Mit dem Lemma von Zorn könnte man zeigen: Man kann aus jedem Erzeugendensystem eines Vektorraums eine Basis auswählen und jede linear unabhängige
Familie zu einer Basis ergänzen. Für Untervektorräume des Km kann man dies sogar rechnerisch lösen. Wenn man jeweils einen Isomorphismus auf einen Km kennt,
kann man die Lösung auf beliebige endlichdimensionale Vektorräume übertragen.
66
Lineare Algebra für IB, AIB, BIB
4 VEKTORRÄUME
4.6 Basisauswahl und -ergänzung
Problem 4.28 (Basisauswahl für Untervektorräume von Km )
Sei [⃗v1 , ..., ⃗vn ] ⊂ Km und V := SpanK (⃗v1 , ..., ⃗vn ). Sei [⃗v1 , ..., ⃗vk ] linear unabhängig
(ggf. k = 0). Berechne eine Auswahl von [⃗v1 , ..., ⃗vn ], die [⃗v1 , ..., ⃗vk ] umfasst und
eine Basis von V bildet.
Lösung:
Bringe A := (⃗v1 , ..., ⃗vn ) ∈ Km×n mittels Gauß-Elimination auf Zeilenstufenform
A′ mit Pivotspalten j1 , ..., jr . Dann ist [⃗vj1 , ..., ⃗vjr ] die gesuchte Basis. Beweis:
Übung.
□
1
−1 2
2
Beispiel: Die Vektoren ⃗v1 = 2 , ⃗v2 = 1 , ⃗v3 = 1 und ⃗v4 = 2 bilden ein
1
1
2
0
3
Erzeugendensystem
von
R
,
die
ersten
beiden
Vektoren
sind
linear
unabhängig.
1 −1 2 2 2 1 1 2
1 0 1 2
1 −1 2 2
0 3 −3 −2
0 0 0 2/3
⇝
. Also bildet [⃗v1 , ⃗v2 , ⃗v4 ] eine Basis von R3 .
Bemerkung: Es wäre ein großer Fehler, stattdessen die Spalten j1 , ..., jr von A′
für die Lösung zu halten. Dadurch würde nicht nur die Aufgabenstellung („Auswahl aus vorgegebenen Vektoren“) ignoriert, sondern die Spalten von A′ sind im
Allgemeinen nicht in V enthalten.
Problem 4.29 (Basisergänzung für Untervektorräume von Km )
Sei [w
⃗ 1 , ...w
⃗ ℓ ] ⊂ Km ein Erzeugendensystem von V ≤ Km und sei [⃗v1 , ..., ⃗vk ] ⊂ V
linear unabhängig. Ergänze [⃗v1 , ..., ⃗vk ] zu einer Basis von V .
Lösung:
Die obige Lösung des Basisauswahlproblems angewandt auf das größere Erzeugendensystem [⃗v1 , ..., ⃗vk , w
⃗ 1 , ...w
⃗ ℓ ] liefert auch die Lösung des Basisergänzungsproblems, denn wegen der linearen Unabhängigkeit von [⃗v1 , ..., ⃗vk ] ist jede der ersten
k Spalten der entstehenden Zeilenstufenform eine Pivotspalte.
□
Beispiel: Sei ⃗v1 =
1 1 1 0 0
2 4 0 1 0
3 6 0 0 1
⇝
1
2
3
, ⃗v2 =
1 1 1
0 0
0 2 −2 1 0
0 0 0 −3/2 1
1
4
6
. Ergänze [⃗v1 , ⃗v2 ] zu einer Basis von R3 :
, also ist [⃗v1 , ⃗v2 , ⃗e2 ] eine Basis von R3 .
Korollar 4.30. Sei V ein n-dimensionaler Vektorraum.
a) Jedes Erzeugendensystem von V hat Länge ≥ n. Jedes Erzeugendensystem
der Länge n ist eine Basis.
Beweis: Länge n nach Auswahl einer Basis.
□
b) Jedes linear unabhängige System in V hat Länge ≤ n. Jedes linear unabhängige System der Länge n ist eine Basis.
Beweis: Länge n nach Fortsetzung zu einer Basis.
□
Lineare Algebra für IB, AIB, BIB
67
4.7 Dimension von Untervektorräumen
4.7
4 VEKTORRÄUME
Dimension von Untervektorräumen
Satz 4.31
Sei V ein endlichdimensionaler K-Vektorraum, U ≤ V . Auch U ist endlichdimensional, dim(U ) ≤ dim(V ). Wenn dim(U ) = dim(V ), dann U = V .
Beweis:
Sei n = dim(V ) und sei B eine Basis von U . Weil B linear unabhängig ist,
Def
ist dim(U ) = |B| ≤ n nach Korollar 4.30.b). Ist |B| = n, dann ist B nach
Korollar 4.30 eine Basis von V , also U = SpanK (B) = V .
□
Sei nun V ein nicht notwendig endlichdimensionaler K-Vektorraum.
Definition 4.32 (und Übung)
Seien U, W ≤ V . Die Summe von U, W ist U + W := {u + w | u ∈ U, w ∈ W }.
Es ist U ∩ W ≤ V , U + W ≤ V , U ≤ U + W und W ≤ U + W .
Beispiel: Man mache sich klar, dass U + W der kleinste Untervektorraum von
V ist, der U und W umfasst. Ein eindimensionaler Untervektorraum von R3
ist eine Ursprungsgerade. Ein zweidimensionaler Untervektorraum ist eine Ursprungsebene. Seien g1 ̸= g2 ⊂ R3 zwei solche Geraden, und sei E eine solche
Ebene mit g1 ̸⊂ E. Dann g1 + g2 = die durch diese beiden Richtungen definierte
Ursprungsebene, und g1 + E = R3 .
Dimensionsformel 4.33. Sei V ein K-Vektorraum.
Seien U, W ≤ V jeweils endlichdimensional. Dann ist U + W endlichdimensional
und dim(U + W ) + dim(U ∩ W ) = dim(U ) + dim(W ).
Beispiel: Zwei Ursprungsebenen in R3 sind gleich oder schneiden sich in einer
Ursprungsgerade. In R4 gibt es Ursprungsebenen, die sich nur in ⃗0 schneiden.
Beweis:
n := dim(U ∩ W ), r := dim(U ) − dim(U ∩ W ), s := dim(W ) − dim(U ∩ W ). Sei
B∩ := [b1 , . . . , bn ] eine Basis von U ∩ W . Basisergänzungssatz: Es gibt a1 , . . . , ar
und c1 , . . . , cs ∈ W derart, dass BU := [b1 , . . . , bn , a1 , . . . , ar ] eine Basis von U
und BW := [b1 , . . . , bn , c1 , . . . , cs ] eine Basis von W ist.
Behauptung: B+ := [b1 , . . . , bn , a1 , . . . , ar , c1 , . . . , cs ] ist eine Basis von U + W ,
d.h. dim(U + W ) = n + r + s = (n + r) + (n + s) − n = dim(U ) + dim(W ) −
dim(U ∩ W ).
Erzeugendensystem: Jedes v ∈ U + W ist eine Summe v = u + w mit u ∈ U ,
w ∈ W . Aber u bzw. w sind Linearkombinationen von BU bzw. BW , also
ist u + w eine Linearkombination von B+ .
68
Lineare Algebra für IB, AIB, BIB
4 VEKTORRÄUME
4.7 Dimension von Untervektorräumen
Linear unabhängig: Ist
n
P
λ i bi +
i=1
−
s
P
r
P
µj aj +
j=1
s
P
νℓ cℓ = o, dann
ℓ=1
n
P
i=1
λi bi +
r
P
µ j aj =
j=1
νℓ cℓ =: v. Da die linke Seite in U und die rechte in W liegt und beide
ℓ=1
Seiten gleich v sind, gilt v ∈ U ∩ W = SpanK (B∩ ). Weil BU linear unabhängig ist, folgt
n
P
λi bi = v (Eindeutigkeit der Darstellung), das heißt
i=1
n
P
∀j : µj = 0. Es folgt
λi bi +
i=1
s
P
νℓ cℓ = o, und weil BW linear unabhängig
ℓ=1
ist, folgt auch ∀i, ℓ, k : λi = νℓ = 0.
□
Definition 4.34
Sei V ein endlichdimensionaler und W ein beliebiger K-Vektorraum. Der Rang
von f ∈ HomK (V, W ) ist Rang(f ) := dim(Bild(f )).
Bemerkung: Es ist ein viel zu häufiger Fehler, die Definition des Rangs mit der
nun folgenden Rangformel für lineare Abbildungen und diese wiederum mit der
Rangformel Matrizen für zu verwechseln. Vermeiden Sie das bitte in der Klausur.
Rangformel für lineare Abbildungen 4.35
Sei f ∈ HomK (V, W ), V ein endlichdimensionaler und W ein beliebiger K-Vektorraum. Bild(f ) ist endlichdimensional und Rang(f ) + dim(ker(f )) = dim(V ).
Übung
Beispiel: f ist injektiv ⇐⇒ ker(f ) = {o}. Wenn auch W endlichdimensional
ist, dann ist f surjektiv ⇐⇒ Rang(f ) = dim(W ). Eine typische Anwendung:
Wenn f : R7 → R3 linear ist, dann ist Rang(f ) ≤ 3 (denn Bild(f ) ≤ R3 ), also
ist dim(ker(f )) = 7 − Rang(f ) ≥ 4 und daher ker(f ) ̸= {o}; folglich ist f nicht
injektiv. Es gibt also keine bijektive lineare Abbildung von R7 nach R3 , aber
interessanterweise gibt es stetige (aber nicht-lineare) bijektive Abbildungen Rm →
Rn für alle m, n ∈ N∗ .
Beweis:
Sei B eine Basis von ker(f ), sei C ⊂ V so, dass B ∪ C eine Basis von V ist, und
sei U := SpanK (C). Dann U +ker(f ) = V . Ist v ∈ V , so gibt es u ∈ U , w ∈ ker(f )
mit v = u + w. Also f (v) = f (u) + f (v) = f (u), d.h. Bild(f ) = f [U ].
Übung: U ∩ ker(f ) = {o}, daher dim(V ) = dim(U ) + dim(ker(f )) und f
U
ist injektiv. Daher U ∼
= f [U ] = Bild(f ), und es folgt Rang(f ) = dim(Bild(f )) =
dim(U ).
□
Sie sollten bereits gelernt haben, dass jeder Matrix eine lineare Abbildung zugeordnet ist. Also überträgt sich der Begriff des Rangs auf Matrizen.
Definition 4.36 (und Lemma). Sei A ∈ Km×n .
a) SR(A) := {A⃗c | ⃗c ∈ Kn×1 } = Bild(LA ) heißt Spaltenraum von A. Wir
definieren den Rang von A als Rang(A) := dim(SR(A)).
Lineare Algebra für IB, AIB, BIB
69
4.7 Dimension von Untervektorräumen
4 VEKTORRÄUME
b) ZR(A) := {cA | c ∈ K1×m } heißt Zeilenraum von A (K-Span der Zeilen).
c) Bringt man A durch Gauß-Elimination auf ZSF A′ mit r Pivotspalten, dann
dim(ZR(A)) = dim(ZR(A′ )) = r = dim(SR(A′ )) = dim(SR(A)).
d) Rang(A) = Rang( tA ).
e) ∀B ∈ Mn (K) : B ∈ GLn (K) ⇐⇒ Rang(B) = n.
Beweis:
c) In der Lösung des Basisauswahlproblems sahen wir, dass diejenigen Spalten
von A, die den Pivotspalten von A′ entsprechen, eine Basis von SR(A)
bilden. Und offenbar bilden die Pivotspalten von A′ auch eine Basis von
SR(A′ ). Davon gibt es jeweils r Stück.
In Übungen zeigen Sie gerade ZR(A) = ZR(A′ ), und offenbar bilden die r
von 0 verschiedenen Zeilen von A′ eine Basis von ZR(A′ ).
d) Offenbar entspricht ZR( tA ) dem SR(A) und umgekehrt.
e) Darauf läuft der bereits bekannte Invertierbarkeitstest hinaus.
□
Rangformel für Matrizen 4.37
Sei A ∈ Km×n . Es gilt Rang(A) + dim(LR(A; ⃗0)) = n.
Beweis:
Der Satz folgt aus der Rangformel für LA ∈ HomK (Kn , Km ), denn Rang(A) =
dim(Bild(LA )) und LR(A; ⃗0) = ker(LA ).
□
Aufgabe 4.38. Seien A ∈ Km×n , ⃗b ∈ Km .
!
Das lineare Gleichungssystem A⃗x = ⃗b ist lösbar ⇐⇒ Rang(A) = Rang((A|⃗b)).
Lemma 4.39. Für alle A ∈ Kℓ×m und B ∈ Km×n gilt:
Rang(AB) ≤ Rang(A) und Rang(AB) ≤ Rang(B).
Beweis:
Für alle ⃗c ∈ Kn ist B⃗c ∈ Km , und wegen (AB)⃗c = A(B⃗c) ist SR(AB) ⊂ SR(A),
daher Rang(AB) ≤ Rang(A).
Eine Basis von SR(B) wird durch Multiplikation mit A (also Anwendung von
LA ) auf ein Erzeugendensystem von SR(AB) abgebildet, aus dem dann eine Basis
ausgewählt werden kann. Daher Rang(AB) ≤ Rang(B).
□
70
Lineare Algebra für IB, AIB, BIB
5 DETERMINANTEN
5
Determinanten
Sei R ein kommutativer Ring. Ziel: Ordne jedem A ∈ Mn (R) die Determinante det(A) ∈ R zu, so dass A invertierbar ⇔ det(A) invertierbar in R. Für
⃗v1 , ..., ⃗vn ∈ Rn kann man die Determinante geometrisch deuten: |det(⃗v1 , ..., ⃗vn )|
ist das Volumen von {
n
P
λi⃗vi | λ1 , ..., λn ∈ [0, 1]}, und das Vorzeichen von
i=1
det(⃗v1 , ..., ⃗vn ) bestimmt die „Händigkeit“ von [⃗v1 , ..., ⃗vn ].
Nach der Definition formulieren wir einige Eigenschaften von Determinanten,
insbesondere verschiedene Berechnungsmethoden. Insgesamt muss ein großer Aufwand betrieben werden, um zu zeigen, dass die Determinante überhaupt existiert.
Definition 5.1. Sei R ein kommutativer Ring und n ∈ N.
Eine Abbildung det : Mn (R) → R heißt Determinantenfunktion (kurz: „Determinante“), wenn sie folgende drei Eigenschaften hat:
multilinear: Wenn sich A, B, C ∈ Mn (R) nur in Zeile i ∈ {1, ..., n} unterscheiden und Ci,∗ = λAi,∗ + µBi,∗ gilt, dann det(C) = λ det(A) + µ det(B).
alternierend: Wenn A ∈ Mn (R) zwei gleiche Zeilen hat, dann det(A) = 0.
normiert: det(1n ) = 1.
Für n ≥ 2 ist auch die Notation |A| := det(A) üblich.
Vorsicht: det(λA) = λn det(A) und im Allg. det(A + B) ̸= det(A) + det(B).
Für A = (a) ∈ M1 (R) ist |A| = a — bitte NICHT |A| = |a|!!
Satz 5.2. Sei det : Mn (R) → R eine Determinantenfunktion und A ∈ Mn (R).
a) det ist schiefsymmetrisch (auch: antisymmetrisch), das heißt: Wenn A′
aus A durch Tausch zweier Zeilen i ̸= j entsteht, dann det(A′ ) = − det(A).
b) Sei λ ∈ R. Entsteht A′ aus A, indem Zeile i durch ihr λ-Faches ersetzt
wird, dann det(A′ ) = λ det(A).
c) Sei γ ∈ R. Entsteht A′ aus A, indem das γ-Fache der Zeile i zur Zeile j ̸= i
addiert wird, dann ist det(A′ ) = det(A).
Beweis:
a) Sei a := Ai,∗ und b := Aj,∗ . Dann (die Notation ist hoffentlich klar)
alt.
0 =
lin.
=
...
...
...
a
a+b lin.
b
... + ...
...
=
a+b
a+b
a+b
...
...
...
...
...
...
...
a
a
b
b
... + ... + ... + ...
a
b
a
b
...
...
...
...
Lineare Algebra für IB, AIB, BIB
alt.
=
...
a
...
b
...
+
...
b
...
a
...
71
5 DETERMINANTEN
b) Spezialfall von „Linear in Zeile i“.
c)
...
a
...
b+γa
...
lin.
=
...
a
...
b
...
+γ
...
a
...
a
...
alt.
=
...
a
... .
b
...
□
Wenn also R ein Körper ist, können wir die Berechnung der Determinante mittels
des Gauß-Algorithmus auf Determinanten von Zeilenstufenformen zurückführen.
Definition 5.3
a) A ∈ Mn (R) heißt obere Dreiecksmatrix :⇔ ∀i, j ∈ {1, ..., n} : (i >
j ⇒ Ai,j = 0). A ∈ Mn (R) heißt untere Dreiecksmatrix :⇔ ∀i, j ∈
{1, ..., n} : (i < j ⇒ Ai,j = 0). Eine Dreiecksmatrix A ∈ Mn (R) heißt
strikt, wenn zudem ∀i ∈ {1, ..., n} : Ai,i = 0.
C ) ∈ M (K) oder A = ( B 0 ) mit quadratischen
b) Ist A ∈ Mn (R) mit A = ( B0 D
n
C D
Matrizen B, D, so hat A Blockgestalt.
c) Für A ∈ Mn (R) und i, j ∈ {1, ..., n} sei A(i, j) ∈ Mn−1 (R) die Matrix, die
aus A durch Entfernung der i-ten Zeile und der j-ten Spalte entsteht.
Beispiel:
1 2 3 4
1 2 3 4 5!
2 3 4 5 6
0 0 1 2 3
hat Blockgestalt, 00 50 60 78 ist obere Dreiecksmatrix.
0 0 2 3 4
0 0 0 9
0 0 3 4 5
Notation 5.4. Sei σ ∈ Sn und A ∈ Mn (R).
Aσ ∈ Mn (R) ist durch ∀i ∈ {1, ..., n} : Aσi,∗ = Aσ(i),∗ definiert.
Beobachtung 5.5
Aσ entsteht aus A, indem jeweils die i-te Zeile durch die σ(i)-te ersetzt wird.
Für ρ, σ ∈ Sn und A, B ∈ Mn (R) gilt (AB)σ = (Aσ )B, denn ((AB)σ )i,∗ =
ρ◦σ
=
(AB)σ(i),∗ = Aσ(i),∗ B = Aσi,∗ B = (Aσ B)i,∗ , und Aρ◦σ = (Aρ )σ , denn Ai,∗
Aρ(σ(i)),∗ = Aρσ(i),∗ = (Aρ )σi,∗ .
Theorem 5.6. Sei R ein kommutativer Ring, n ∈ N∗ und A ∈ Mn (R).
a) Bezeichne ej := t⃗e j ∈ Rn . Wenn f : Mn (R) → R multilinear ist, dann
 
ej
n
n
n
P
P
Q
 1
f (A) =
...
( Ai,ji )f  ... . Zusatz: Ist f zudem alternierend,
j1 =1
jn =1 i=1
ejn
dann f (A) =
P
(
n
Q
σ∈Sn i=1
Ai,σ(i) )f (1σn ).
b) ∀n ∈ N∗ : Es gibt höchstens eine Determinantenfunktion det : Mn (R) → R.
c) Im Spezialfall n = 1 gilt ∀(a) ∈ M1 (R) : det((a)) = a.
72
Lineare Algebra für IB, AIB, BIB
5 DETERMINANTEN
d) Im Spezialfall n ∈ {2, 3} gilt die Sarrus-Regel41 : | ac db | = ad − bc und
a1 a2 a3
b1 b2 b3 = a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − a3 b2 c1 − a1 b3 c2 − a2 b1 c3 .
c c c
1
2
3
e) Durch c) und det(A) :=
n
P
(−1)i+j Ai,j det(A(i, j)) für n ≥ 2 ( Laplace-
i=1
Entwicklung42 nach Spalte j) ist eine Determinantenfunktion rekursiv berechenbar. Wegen b) gibt es also genau eine Determinantenfunktion. Auch
gilt die Laplace-Entwicklung nach Zeile i, det(A) =
n
P
(−1)i+j Ai,j det(A(i, j)).
j=1
Die Determinante einer Untermatrix von A bezeichnet
man
als Minore.
+ − +
− ··· 
− + −
−
Merkregel für die Vorzeichen: Schachbrett-Muster  +
−
..
.

.

C ) Blockgestalt, dann det(A) = det(B) · det(D).
f) Hat A = ( B0 D
g) Ist A eine obere oder untere Dreiecksmatrix, dann det(A) =
n
Q
Ai,i .
i=1
h) Multiplikationssatz: ∀B ∈ Mn (R) : det(AB) = det(A) det(B).
i) det( tA ) = det(A). Satz 5.2 gilt analog für Spaltenoperationen.
Bemerkung:
a) Wichtig: Die Anwendung eines Diagonalschemas zur Determinantenberechnung für n ≥ 4 wird in Prüfungen mit 0 P. bewertet,
denn ein solches Schema ist im Allgemeinen falsch! Für n = 3 sind andere
Rechenwege oft effizienter als die Sarrus-Regel. Aber die Sarrus-Regel für
n = 2 ist wirklich nützlich.
b) Ist R ein Körper, ist es sinnvoll, det(A) zu berechnen, indem man A mit
Zeilen- und Spaltenoperationen auf Blockgestalt bringt und dann die Blockund Dreiecksgestalt nutzt. Dieser Rechenweg hat Komplexität O(n3 ), während das sture Beharren auf der Laplace-Entwicklung Komplexität O(n!)
hat. Laplace-Entwicklung ist dann nützlich, wenn in einer Zeile bzw. Spalte
die meisten Einträge null sind. Die Wahl effizienter Rechenwege erfordert
Erfahrung — rechnen Sie also viele Beispiele!
Beispiel: Effizientes Rechnen erfordert die Kombination von Rechentechniken.
1 2 3 0 4
5 6 7 0 8
π e 13 3 −1
2 6 4 0 8
3 1 1 0 2
1 2 3 4
= −3 · 52 66 74 88
Laplace 4. Spalte
3 1 1 2
1 2 3 4
= −3 · 2 · 51 63 72 84
Skalierung 3. Zeile
3 1 1 2
41
42
Pierre Frédéric Sarrus [1798–1861]
Pierre-Simon Marquis de Laplace [1749–1827]
Lineare Algebra für IB, AIB, BIB
73
5 DETERMINANTEN
1 2
3
4
−8 −12
= −6 · 00 −4
1 −1 0
=6·
=6·
Gauß-Elimination
0 −5 −8 −10
1 2 3
4
0 1 −1 0
0 −4 −8 −12
0 −5 −8 −10
1 2 3
4
0 1 −1 0
0 0 −12 −12
0 0 −13 −10
Zeilentausch
Gauß-Elimination
−12
= 6 · 1 · 1 · −12
−13 −10
Block-/Dreiecksgestalt
= 6 · (12 · 10 − 12 · 13) = 6 · 12 · (−3) = −216 Sarrus-Regel (2 × 2)
Beweis Thm.
5.6:
n
P
a) Ai,∗ =
Ai,ji eji , also wegen Linearität in Zeile 1, ..., n:
ji =1




ej
ej
n
n
n
n
P
P
P
Q
 1 
 1
f (A) =
A1,j1
...
A1,j1 f A2,∗  = ... =
( Ai,ji )f  ... .
j1 =1
j2 =1
j1 =1
jn =1 i=2
...
ejn
Zusatz: f alternierend ⇒ zur Summe tragen nur solche Summanden bei,
bei denen die j1 , ..., jn paarweise verschieden sind, für die also σ : {1, ..., n} →
{1, ..., n} mit σ(i) := ji eine Permutation ist.
n
P
b) Seien det und D Determinantenfunktionen. Nach dem Zusatz von a) genügt
zu zeigen: ∀σ ∈ Sn : det(1σn ) = D(1σn ). Sei σ eine Verknüpfung von k Transpositionen; das geht, nach Aufgabe 3.6. Weil det und D schiefsymmetrisch
und normiert sind, folgt det(1σn ) = (−1)k = D(1σn ).
c) Multilinear und normiert: det((a)) = a det(11 ) = a · 1.
a)
schiefs.
norm.
d) n = 2: | ac db | = ad | 10 01 | + bc | 01 10 | = ad | 10 01 | − bc | 10 01 | = ad − bc.
n = 3 überlasse ich Ihnen zur Übung.
e) M1 (R) ∋ A 7→ A1,1 normiert, multilinear und (wegen n = 1) auch alternierend. Induktionsannahme für n > 1: det : Mn−1 (R) → R ist eine
Determinantenfunktion. Behauptung: det : Mn (R) → R mit det(A) :=
n
P
(−1)i+j Ai,j det(A(i, j)) ist eine Determinantenfunktion.
i=1
Normiert: Für A = 1n und i ̸= j ist Ai,j = 0. Außerdem A(i, i) = 1n−1 .
Daher det(1n ) = 1 · det(1n−1 ) = 1.
Multilinear in Zeile k: Sei Ak,∗ = λBk,∗ + µCk,∗ und in den anderen Zeilen seien A, B, C ∈ Mn (R) gleich. Sei i ∈ {1, ..., n}. Wenn k = i,
dann A(i, j) = B(i, j) = C(i, j), denn die einzige Zeile, in der sich
die drei Matrizen unterscheiden, wird entfernt. Wenn k ̸= i, dann
det(A(i, j)) = λ det(B(i, j)) + µ det(C(i, j)) nach Induktionsannahme,
74
Lineare Algebra für IB, AIB, BIB
5 DETERMINANTEN
und Ai,j = Bi,j = Ci,j . Daher
det(A) = (−1)k+j Ak,j det(A(k, j)) +
X
(−1)i+j Ai,j det(A(i, j))
i̸=k
= λ(−1)
+
=λ
k+j
Bk,j det(B(k, j)) + µ(−1)k+j Ck,j det(C(k, j))
(−1)k+j Ai,j (λ det(B(i, j)) + µ det(C(i, j)))
X
i̸=k
n
X
n
X
i=1
i=1
(−1)i+j Bi,j det(B(i, j)) + µ
(−1)i+j Ci,j det(C(i, j))
= λ det(B) + µ det(C)
Alternierend: Für k < ℓ sei Ak,∗ = Aℓ,∗ . Ist k ̸= i ̸= ℓ, dann hat A(i, j)
zwei gleiche Zeilen, also det(A(i, j)) = 0 nach Induktionsannahme.
Zwischen der k-ten und der ℓ-ten Zeile leigen ℓ − k − 1 Zeilen. Also
entsteht A(k, j), indem man die k-te Zeile von A(ℓ, j) durch ℓ − k −
1 Vertauschungen in die ℓ-te Zeile bringt. Also Ak,j det(A(k, j)) =
(−1)ℓ−k−1 Aℓ,j det(A(ℓ, j)) und
det(A) =
n
X
(−1)i+j Ai,j det(A(i, j))
i=1
= (−1)k+j Ak,j det(A(k, j)) + (−1)ℓ+j Aℓ,j det(A(ℓ, j))
= ((−1)k+j+ℓ−k−1 + (−1)ℓ+j )Aℓ,j det(A(ℓ, j)) = 0
Prinzipiell könnte man zeigen, dass auch die Laplace-Entwicklung nach Zeile
i eine rekursive Definition einer Determinantenfunktion erlaubt, doch das
ist technisch aufwändig. Es folgt leichter aus i) und Laplace-Entwicklung
nach Spalte i.
f) Übung: Induktion nach der Zeilen-/Spaltenzahl von B. Im Induktionsschritt
wird Laplace-Entwicklung nach Spalte 1 verwendet.
g) Offensichtlich, durch mehrfache Anwendung von f).
h) Sei D : Mn (R) → R definiert durch D(A) := det(AB). Sind zwei Zeilen
von A gleich, dann sind auch die entsprechenden Zeilen von AB gleich, also
ist D alternierend. Übung: D ist multilinear.
a)
det(AB) = D(A) =
P
(
n
Q
σ∈Sn i=1
P
(
n
Q
σ∈Sn i=1
σ
Ai,σ(i) ) det(B ) =
Ai,σ(i) )D(1σn ) =
P
(
n
Q
σ∈Sn i=1
P
(
n
Q
σ∈Sn i=1
5.5
Ai,σ(i) ) det(1σn B) =
a)
Ai,σ(i) ) det(1σn ) det(B) = det(A) det(B).
Die vorletzte Gleichung folgt, da σ als ein Produkt von k Transpositionen darstellbar ist und wegen Schiefsymmetrie det(B σ ) = (−1)k det(B) =
det(1σn ) det(B) gilt.
Lineare Algebra für IB, AIB, BIB
75
5.1 Invertierbarkeit
5 DETERMINANTEN
i) Ist σ ∈ Sn eine Verknüpfung von k Transpositionen, dann auch σ −1 . Da−1
her det(1σn ) = (−1)k = det(1σn ). Jedes σ ∈ Sn hat genau ein Inverses
in Sn , also det( tA ) =
=
P
σ −1 ∈Sn
(
n
Q
i=1
P
(
n
Q
t
σ∈Sn i=1
A i,σ(i) ) det(1σn ) =
P
(
n
Q
σ∈Sn i=1
Aσ(i),i ) det(1σn )
−1
Ai,σ−1 (i) ) det(1σn ) = det(A).
□
Bemerkung 5.7 (und Definition)
Für σ ∈ Sn heißt sgn(σ) := det(1σn ) das Vorzeichen von σ. Wenn man σ durch
k Transpositionen darstellen kann, dann ist sgn(σ) = (−1)k , Ohne den Umweg
über die Determinante wäre nicht klar, dass das wohldefiniert ist, aber dennoch
ist es auch möglich, sgn(σ) rein gruppentheoretisch zu definieren.
sgn : Sn → {±1} ist ein Gruppenhomomorphismus: ∀σ, φ ∈ Sn : sgn(σ ◦ φ) =
sgn(σ)·sgn(φ), denn wenn man σ durch k und φ durch ℓ Transpositionen darstellen kann, kann man σ ◦φ durch k +ℓ Transpositionen darstellen, und sgn(σ ◦φ) =
(−1)k+ℓ = (−1)k · (−1)ℓ . Man erhält die Leibnizformel
det(A) =
X
sgn(σ)
Ai,σ(i) .
i=1
σ∈Sn
5.1
n
Y
Invertierbarkeit
Definition 5.8. Die Adjunkte43 von A ∈ Mn (R) ist adj(A) ∈ Mn (R) mit
adj(A)j,i = (−1)i+j det(A(i, j)).
Beispiel: A := ( ac db ) ∈ M2 (R) mit det(A) ̸= 0 ist adj(A)1,1 = (−1)2 det(A(1, 1)) =
3
d, adj(A)1,2 = (−1)3 det(A(2, 1)) = −b, adj(A)2,1 = (−1)
det(A(1, 2)) = −c,
4
d −b
adj(A)2,2 = (−1) det(A(2, 2)) = a, also adj(A) = −c a .
Lemma 5.9. ∀A ∈ Mn (R) : A · adj(A) = adj(A) · A = det(A) · 1n .
Beweis:
n
P
• Sei B := A · adj(A). Dann Bi,k =
Ai,j · (−1)k+j det(A(k, j)). Laplacej=1
Entwicklung nach Zeile i ⇒ Bi,i = det(A). Für i ̸= k entstehe à aus A,
indem man Zeile k durch eine Kopie von Zeile i ersetzt. Laplace-Entwicklung
n
P
⇒ Bi,k =
Ãk,j · (−1)k+j det(Ã(k, j)) = det(Ã) = 0.
j=1
• Mit Spaltenentwicklung zeigt man ebenso adj(A) · A = det(A) · 1n .
43
76
□
Bitte nicht „Adjungierte“, das wäre etwas anderes.
Lineare Algebra für IB, AIB, BIB
5 DETERMINANTEN
5.1 Invertierbarkeit
Korollar 5.10
A ∈ Mn (R) ist invertierbar in Mn (R) ⇐⇒ det(A) ist invertierbar in R. Dann
gilt det(A−1 ) = (det(A))−1 und A−1 = (det(A))−1 adj(A).
GLn (R) := {A ∈ Mn (R) | det(A) invertierbar in R} ist eine Gruppe bzgl. Matrixmultiplikation.
Beweis:
Ist A invertierbar, dann wegen Produktregel det(A) · det(A−1 ) = det(A · A−1 ) =
det(1n ) = 1 = det(A−1 · A) = det(A−1 ) · det(A), also det(A) invertierbar in R
und zudem (det(A))−1 = det(A−1 ).
Ist det(A) in R invertierbar, dann A−1 = (det(A))−1 · adj(A) nach Lemma 5.9. Es
bleibt zu zeigen: A, B ∈ GLn (R) ⇒ AB ∈ GLn (R). Wenn aber det(A) und det(B)
in R invertierbar sind, dann ist auch det(AB) = det(A) det(B) invertierbar, mit
Inversem det(B)−1 det(A)−1 .
□
1
Beispiel: Für A := ( ac db ) ∈ M2 (R) mit det(A) ̸= 0 ist A−1 = det(A)
dem vorigen Beispiel, wie Sie auch schon in Hausaufgaben sahen.
d −b
−c a
nach
Bemerkung 5.11
Damit keine Missverständnisse aufkommen: Die Adjunkte ist ein Theoriewerkzeug,
aber kein Rechenwerkzeug. Für n ≥ 3 ist es erheblich effizienter, das Inverse von
A ∈ GLn (K) mit dem Gauß-Jordan-Algorithmus statt mit Korollar 5.10 zu berechnen.
In der Vorlesung nicht behandelt: Zur Illustration leite ich eine explizite Formel
für die eindeutige Lösung des Gleichungssystems A · ⃗x = ⃗b mit einer invertierbaren Matrix A her. Diese ist nach Gabriel Cramer [1704–1752] benannt, der
sie 1750 beschrieb. Gottfried Wilhelm Leibniz [1646–1716] war sie sogar schon
1678 bekannt, aber einen Beweis der Formel lieferte erst 1815 Augustin Louis
Cauchy [1789–1857].
Cramersche Regel 5.12
Sei A ∈ GLn (R) und ⃗b ∈ Rn . Für i ∈ {1, ..., n} sei Ai ∈ Mn (R) die Matrix, die
durch Ersetzung der Spalte i von A durch ⃗b entsteht. Für die eindeutige Lösung
i)
⃗x ∈ Rn von A · ⃗x = ⃗b gilt ∀i ∈ {1, ..., n} : xi := det(A
.
det(A)
Beispiel: Für A := ( 14 25 ) und ⃗b = ( 36 ) hat A · ( xx12 ) = ⃗b die eindeutige Lösung
|3 2|
3
x1 = 61 52 =
= −1
|4 5|
−3
|1 3|
−6
x2 = 41 62 =
=2
|4 5|
−3
Beweis der Cramerschen Regel:
Seien ⃗a1 , ..., ⃗an ∈ Rn die Spalten von A. Aus der eindeutigen Lösung des Gleichungssystems ergibt sich x1 · ⃗a1 + ... + 1 · (xi⃗ai − ⃗b) + ... + xn · ⃗an = ⃗0, d.h.
Lineare Algebra für IB, AIB, BIB
77
5.1 Invertierbarkeit
5 DETERMINANTEN
wir können durch Addition einer Linearkombination der anderen Spalten zur iten Spalte von C (wodurch sich die Determinante nicht ändert!) eine Nullspalte
erreichen. Daher und wegen Linearität in der i-ten Spalte:
0 = det(C) = xi det(A) − det(⃗a1 , ..., ⃗ai−1 , ⃗b, ⃗ai+1 , ..., ⃗an ).
□
Ich empfehle die Verwendung der Cramerschen Regel ausdrücklich nicht. Erstens nämlich nutzt sie nichts, wenn A nicht invertierbar ist. Und vor allem ist
der Rechenaufwand unsinnig groß.
Bemerkung 5.13 (Vergleich von Gauß und Cramer)
a) Zur Lösung des obigen Problems mit Gauß-Elimination sind ungefähr n3
Rechenschritte erforderlich.
b) Für die Anwendung der Cramerschen Regel muss man n+1 Determinanten
von ausrechnen, was mit dem Gauß-Algorithmus jeweils wieder 23 n3 Rechenschritte erfordert. Das sind insgesamt mehr als 23 n4 ≫ n3 .
c) Wenn man den Gauß-Algorithmus wirklich nicht mag und daher die Determinanten mit der Leibnizformel berechnet, braucht man jeweils etwa n!
Operationen, also insgesamt (n + 1)!.
20 Gleichungen mit 20 Unbekannten lassen sich auch ohne einen Computer
noch in vertretbarer Zeit mit dem Gauß-Algorithmus in ca. 8000 Schritten lösen.
Mit Cramer und Leibniz wären es ca. 5.1 · 1019 . Selbst mit einem Computer, der
108 Schritte pro Sekunde ausführen kann, würde dies 5.1 · 1011 Sekunden dauern
— rund 16200 Jahre!
78
Lineare Algebra für IB, AIB, BIB
6 EIGENWERTPROBLEME
6
Eigenwertprobleme
In diesem Abschnitt sei K wieder ein Körper. Sei V ein K-Vektorraum, dim(V ) =
n ∈ N. Wir wissen, dass man nach Wahl einer Basis B von V jedem φ ∈ EndK (V )
die Darstellungsmatrix B MB (φ) ∈ Mn (K) zuordnen kann, so dass die Anwendung
des Endomorphismus der Multiplikation mit der Darstellungsmatrix entspricht.
Insbesondere lassen sich Eigenschaften von φ (etwa Injektivität) durch Betrachtung von B MB (φ) untersuchen.
Welche Eigenschaften von B MB (φ) hängen nur von φ, aber nicht von B ab?
Wenn A, A′ ∈ Mn (K) gegeben sind, wie kann man entscheiden, ob es Basen B, C
von V und ein φ ∈ EndK (V ) gibt, so dass A = B MB (φ) und A′ = C MC (φ)? Wie
sich zeigte, hilft hierfür die Untersuchung von Untervektorräumen U ≤ V mit
φ(U ) ⊂ U , so genannten φ-invarianten Untervektorräumen.
6.1
Eigenwerte, -vektoren und -räume
In voller Allgemeinheit wäre die Lösung der eingangs genannten Probleme Thema
einer weiterführenden Vorlesung über lineare Algebra (siehe Frobenius-Normalform
bzw. Jordan-Normalform). Hier wollen wir uns auf besonders einfache invariante
Untervektorräume beschränken. Ist nämlich U ≤ V eindimensional und [b] eine Basis von U , so gilt φ(U ) ⊂ U ⇐⇒ ∃λ ∈ K : φ(b) = λb, und dies führt
unmittelbar auf den folgenden Begriff:
Definition 6.1
Sei V ein K-Vektorraum und φ ∈ EndK (V ).
a) Sei λ ∈ K. Eλ (φ) = {v ∈ V | φ(v) = λv} ist ein Eigenraum von φ.
b) v ∈ V heißt Eigenvektor zum Eigenwert λ ∈ K von φ :⇔ v ∈ Eλ (φ)\{o}.
c) Für A ∈ Mn (K) und λ ∈ K heißt Eλ (A) := Eλ (LA ) = {⃗v ∈ Kn | A⃗v = λ⃗v }
der Eigenraum von A. Eigenvektoren bzw. Eigenwerte von A sind gleich
denen von LA .
Der Nullvektor ist niemals ein Eigenvektor!!
Zwar ist stets o ∈ Eλ (A), aber λ ist nur Eigenwert, falls Eλ (A) ̸= {o}.
Bemerkung 6.2
a) Ist B := (bi )i∈I eine Basis von V und bi ein Eigenvektor von φ ∈ EndK (V )
zum Eigenwert λi ∈ K, so ist κB (φ(bi )) = λi ı̂.
b) v ∈ V ist Eigenvektor von φ ⇐⇒ SpanK (v) ist ein eindimensionaler
φ-invarianter UVR. Eλ (φ) ist ebenfalls φ-invariant, allerdings ggf. höherdimensional, oder auch nulldimensional, wenn λ kein Eigenwert ist.
Lineare Algebra für IB, AIB, BIB
79
6.1 Eigenwerte, -vektoren und -räume
6 EIGENWERTPROBLEME
Ein zyklischer φ-invarianter Unterraum ist von der Form SpanK ({φk (v) |
k ∈ N}) für ein v ∈ V . Er kann aber bisweilen noch als Summe kleinerer
invarianter Untervektorräume zerlegt werden.
c) Sei φ : C ∞ (R) → C ∞ (R) definiert durch φ(f ) := f ′′ für ∞-oft differenzierbare Funktionen f : R → R.√ Jedes λ ∈ R≥0 ist Eigenwert von φ, nämlich
mit Eigenvektor f : x 7→ e λx . Auchqjedes λ ∈ R<0 ist Eigewert von φ,
nämlich mit Eigenvektor f : x 7→ cos( |λ|x). Tatsächlich standen derartige
Beispiele am Anfang der Betrachtung von Eigenvektoren.
d) Hauptkomponentenanalyse zur Analyse experimenteller statistischer Daten: Aus den Daten wird zunächst die Kovarianzmatrix berechnet. An den
Eigenvektoren und den zugehörigen Eigenwerten erkennt man, durch welche Einflussgrößen die Daten bestimmt werden (Hauptkomponenten). Kleine Eigenwerte der Kovarianzmatrix entsprechen statistischem Rauschen.
Das lässt sich auch in der Datenkompression nutzen.
e) Resonanzfrequenzen berechnet man durch Eigenwertprobleme.
f) Die Eigenvektoren des Trägheitstensors sind die Rotationsachsen, bezüglich
denen ein Körper keine Unwucht hat.
g) Quantenmechanischen Systeme werden mit dem Hamilton-Operator beschrieben. Dessen Eigenwerte sind die möglichen Energiezustände und lassen sich im Spektrum beobachten. Manchmal erlauben Zusatzannahmen,
die Quantenzustände angenähert als endlichdimensionale Eigenwertprobleme zu modellieren.
h) Anfänglich verwendete Google bei der Bewertung von Suchergebnissen den
PageRank-Algorithmus. Webseiten und ihre gegenseitige Verlinkung werden in einer gigantischen Matrix kodiert. Man berechnet den Eigenvektor
zum größten Eigenwert dieser Matrix. Die Webseite, die zum größten Koeffizienten dieses Eigenvektors gehört, ist das „beste“ Suchergebnis.
Mit den hier behandelten Methoden kann man kleinere Beispiele per Hand berechnen. Für große oder gar unendlichdimensionale Eigenwertprobleme benötigt
man Methoden der Numerik oder der Analysis.
Definition 6.3 (und Lemma). Sei A ∈ Mn (K) und λ ∈ K.
a) X1n − A ∈ Mn (K[X]) heißt charakteristische Matrix von A. Eλ (A) =
LR(λ1n − A; ⃗0).
b) Das charakteristische Polynom von A ist χA (X) := det(X1n − A) ∈
K[X]. Beweis: Leibnizformel.
80
Lineare Algebra für IB, AIB, BIB
6 EIGENWERTPROBLEME
6.1 Eigenwerte, -vektoren und -räume
c) λ ∈ K ist Eigenwert von A ⇐⇒ Eλ (A) ̸= {⃗0} ⇐⇒ χA (λ) = 0
( Säkulargleichung). Beweis: A⃗x = λ⃗x ⇐⇒ (λ1n − A)⃗x = ⃗0, und
dies hat genau dann eine Lösung ⃗x ̸= 0, wenn λ1n − A nicht invertierbar
ist, was man an χA (λ) = 0 erkennt.
Beispiele:
X−2 1
a) Für A := 22 −1
−2 ∈ M2 (K) ist χA (X) =
−2 X+2 = (X − 2)(X + 2) + 2 =
√
2
X − 2. Die Nullstellen sind ± 2. Wenn also K = Q,√dann hat A keine
Eigenwerte! Ist aber K = R, so hat √
A die Eigenwerte
± 2 und
die zugehö
2−2 √ 1
√
⃗
rigen Eigenräume E 2 (A) = LR( −2 2+2 ; 0) = SpanR ( −√12+2 ) und
√
1
; ⃗0) = SpanR ( √2+2
).
E√2 (A) = LR( − 2−2 √1
−2
− 2+2
b) Für A := ( 20 12 ) ist χA (X) = (X − 2)2 (wegen Dreiecksgestalt). E2 (A) =
⃗
LR(( 00 −1
e1 ).
0 ) ; 0) = SpanK (⃗
Bemerkung: So wie bei uns wird das charakteristische Polynom in den Büchern
von unter anderem Gramlich, Koecher, Lang und Lipschutz definiert. Mit dieser
Definition ist χA (X) normiert, d.h. der Koeffizient des führenden Terms ist 1.
Sehr oft findet man aber auch χA (X) = det(A − X1n ) in der Literatur. Das
unterscheidet sich von der hier verwendeten Definition um das Vorzeichen (−1)n
und hat aus meiner Sicht nur die Rechtfertigung, dass Vorzeichenfehler beim
Hinschreiben von X1n − A etwas wahrscheinlicher als bei A − X1n sind.
Definition 6.4. Die Spur von A ∈ Mn (K) ist Spur(A) :=
Beispiel: Spur
2 −1
3 −2
Pn
i=1 Ai,i .
= 2 + (−2) = 0.
Lemma 6.5. Für A ∈ Mn (K) hat χA (X) die Gestalt
χA (X) = X n −Spur(A)X n−1 +(Terme vom Grad n − 2 ≥ r ≥ 1)+(−1)n det(A) .
Insbesondere hat A höchstens n verschiedene Eigenwerte.
Beweis:
n
n
P
Q
Q
Sei B := X1n − A. χA (X) = det(B) =
sgn(σ) Bi,σ(i) =
(X − Ai,i ) +
P
σ∈Sn
σ̸=Id
sgn(σ)
n
Q
i=1
σ∈Sn
i=1
i=1
Bi,σ(i) . Ist σ ̸= Id, dann ∃k ̸= ℓ ∈ {1, ..., n} : σ(k) ̸= k und σ(ℓ) ̸=
ℓ. Weil X nur auf der Hauptdiagonale von B vorkommt, ist
≤ n − 2. Zudem ist
n
Q
n
Q
i=1
Bi,σ(i) vom Grad
(X − Ai,i ) = X n − Spur(A)X n−1 + Terme kleinerer Grade.
i=1
Zudem det(A) = χA (0) = det(0 − A) = (−1)n det(A).
□
Lineare Algebra für IB, AIB, BIB
81
6.1 Eigenwerte, -vektoren und -räume
6 EIGENWERTPROBLEME
Beispiel 6.6
a) Für A ∈ M2 (K) gilt χA (X) = X 2 −Spur(A)·X +det(A) — eine nützliche
Formel, die man sich merken sollte!
ist χA (X) = X 2 − 1 = (X − 1)(X + 1). Also sind 1 und
Für A = 23 −1
−2
−1 die einzigen Eigenwerte. Berechnung der Eigenvektoren:
λ = 1 B := 12 − A =
−1 1
−3 3
−3 1
−3 1
λ = −1 B := −12 − A =
b) Für A =
χA (X) =
0 1 0
−1 0 1
0 −1 0
X −1 0
1 X −1
0 1 X
, E1 (A) = LR(B; ⃗0) = SpanR (( 11 )).
, E−1 (A) = LR(B; ⃗0) = SpanR ( 1/13 ).
∈ M3 (R) ist
2
2
1 −1
= X X1 −1
X + | 0 X | = X(X + 1) + X = X(X + 2)
1
Der einzige reelle Eigenwert ist 0, mit E0 (A) = LR(A; ⃗0) = SpanR ( 0 ).
1
√
In C gibt es noch die Eigenwerte ± 2 i.
c) Bei der Berechnung von det(X1 − A) sollte man kreativ sein
! und Brüche
−3 −6 22 −4
−6 −7 28 −6
−2 −2 7 −2
6 10 −38 7
von Polynomen möglichst vermeiden. Sei A =
χA (X) =
=
. Dann ist
X+3 6
−22
4
X+3 3−X −22 1−X
6 X+7 −28
6
6 X+1 −28
0
=
2
2 X−7 2
2
0 X−7 0
−6 −10 38 X−7
−6 −4
38 X−1
X+3 −X+3 −22 −X+1
6 X+1 −28
6
X+1 −28
0
= (X − 1) · 2 0 X−7
2
0
X−7
0
X+3 0
−12
X−3 −X−1 16
0
2 X−7
= − (X − 1) · (X + 1) · X+3
−12
= − (X − 1) · (X + 1) · (−X 2 + 4 X − 3)
=(X − 1) · (X + 1) · (X − 1) · (X − 3)
Die Eigenwerte von A sind also 1, −1, 3. Für jeden Eigenwert muss man
nun noch eine Basis für den Eigenraum berechnen. Ergebnisse:
−1 −2 E1 (A) = LR(14 − A; ⃗0) = SpanR (
5
1
0
,
0
0
1
)
!
−1
E−1 (A) = LR(−14 − A; ⃗0) = SpanR ( −1
)
0
2
!
−3
−4
⃗
E3 = LR(3 · 14 − A; 0) = SpanR ( −1 )
5
Rechnung für E1 (A): 14 −A =
4
6 −22 4
6
8 −28 6
2
2 −6 2
−6 −10 38 −6
!
⇝
4 6 −22 4
0 −1 5 0
0 −1 5 0
0 −1 5 0
!
⇝
4 6 −22 4
0 −1 5 0
0 0
0 0
0 0
0 0
⃗0) wird aufgespannt von den beiden Basislösungen
und E1 (A)= LR(14 −A;
−1 −2
β⃗3 = 5 und β⃗4 = 0 .
1
0
82
0
1
Lineare Algebra für IB, AIB, BIB
!
,
6 EIGENWERTPROBLEME
6.1 Eigenwerte, -vektoren und -räume
Guter Rat: Behalten Sie die während der Berechnung von χA (X) gefundenen Faktoren bei. Also NICHT ausmultiplizieren, wenn es sich vermeiden lässt!
Grund: Die Eigenwerte kann man an den Faktoren leicht ablesen.
Der Hintergrund dieses Ratschlags ist, dass zwar über den komplexen Zahlen
jedes Polynom in Linearfaktoren zerfällt, dass es aber im Allgemeinen beweisbar
unmöglich ist, diese Linearfaktoren durch eine Lösungsformel zu berechnen. Seien
Sie also froh, wenn Sie eine Nullstelle gefunden haben!
Hauptsatz der Algebra 6.7
Jedes Polynom p ∈ C[X] mit deg(p) = n ∈ N∗ und führendem Term X n kann man
vollständig in n Linearfaktoren zerlegen, das heißt die Nullstellenmenge Np :=
{λ ∈ C | p(λ) = 0} ist endlich und für jede Nullstelle λ ∈ Np gibt es ein
Q
dλ ∈ N∗ (die Vielfachheit der Nullstelle λ von p), so dass p(X) =
(X −λ)dλ ,
λ∈Np
insbesondere
P
dλ = n und |Np | ≤ n.
λ∈Np
Definition 6.8
Sei A ∈ Mn (K) und λ ∈ K ein Eigenwert von A.
a) Die Vielfachheit von λ als Nullstelle von χA (X) heißt algebraische Vielfachheit von λ.
b) dimK (Eλ (A)) heißt geometrische Vielfachheit von λ.
In der Schule lernten Sie Lösungsformeln für quadratische Gleichungen, jedoch
nicht die Formeln von Gerolamo Cardano [1501–1576], Scipione del Ferro [1465–
1526], Niccolò Fontana Tartaglia [1500–1557] und Lodovico Ferrari [1522–1565]
zur Lösung algebraischer Gleichungen vom Grad 3 und 4. Jedoch gibt es darüber
hinaus keine allgemeingültigen Lösungsformeln:
Satz von Abel-Ruffini 6.9
Die Nullstellen eines Polynoms vom Grad ≥ 5 lassen sich im Allgemeinen nicht
durch Grundrechenarten und Wurzelziehen berechnen. Dies gilt zum Beispiel für
die Nullstelle x = −1.1673... von x5 − x + 1.
Paolo Ruffini [1765–1822] hatte dafür 1799 einen lückenhaften Beweis. Niels
Henrik Abel [1802–1829] gelang 1824 der erste vollständige Beweis. Heute wird der
Satz (z.B. in Algebra–Vorlesungen) im Rahmen der Galois-Theorie 44 bewiesen.
Berechnen Sie Eigenwerte immer exakt! Wäre λ nur näherungsweise
Eigenwert von A ∈ Mn (K), so wäre Eλ (A) = {⃗0}: Man fände keinen Eigenvektor, auch nicht näherungsweise! In numerischen Lösungen des Eigenwertproblems
werden daher die Eigenwerte und die Eigenvektoren gleichzeitig approximiert.
44
Das gesamte Werk von Évariste Galois [1811–1832] umfasst nur rund 60 Seiten, doch
er begründet darin unabhängig von Abel die Gruppentheorie, gibt mit der „Galois-Theorie“
notwendige und hinreichende Bedingungen dafür, welche algebraischen Gleichungen eine Lösung
durch Grundrechenarten und Wurzelziehen besitzen, und konstruiert alle endlichen Körper.
Lineare Algebra für IB, AIB, BIB
83
6.2 Eigenräume sind komplementär
6 EIGENWERTPROBLEME
In einem Dokument in Moodle finden Sie praktische Tipps zur Nullstellenberechnung von Polynomen, die manche von Ihnen vermutlich bereits aus der
Schule (ggf. mit anderen Begriffsbildungen) kennen.
6.2
Eigenräume sind komplementär
Lemma 6.10
Seien λ1 , . . . , λr paarweise verschiedene Eigenwerte von A ∈ Mn (K).
a) Sind ⃗ui ∈ Eλi (A)\{⃗0} für i = 1, ..., r, dann ist [⃗u1 , ..., ⃗ur ] linear unabhängig.
b) Die Vereinigung von Basen von Eλ1 (A), . . . , Eλr (A) ist linear unabhängig.
Insbesondere ist
r
P
i=1
dimK (Eλi (A)) ≤ n.
Beweis:
b) folgt aus a).
P
a): Sei ri=1 αi⃗ui = ⃗0 mit α1 , ..., αr ∈ K. Zu zeigen: α1 = ... = αr = 0.
Induktion über r. Klar für r = 1. Ist r ≥ 2, dann
⃗0 = A
r
X
!
αi⃗ui − λr
i=1
r
X
i=1
αi⃗ui =
r
X
r−1
X
i=1
i=1
(λi − λr )αi⃗ui =
(λi − λr )αi⃗ui .
Also (Induktionsannahme) (λi − λr )αi = 0 für alle i < r. Wegen λi ̸= λr für i < r
P
folgt daraus αi = 0 für alle i < r. Dann folgt auch ⃗0 = ri=1 αi⃗ui = αr ⃗ur und
damit αr = 0 wegen ⃗ur ̸= ⃗0.
□
6.3
Basiswechsel
Sind B, C Basen eines endlichdimensionalen K-Vektorraums V , so haben wir gemäß Beobachtung 4.26 Basiswechselmatrizen C TB und B TC = ( C TB )−1 .
Lemma 6.11
Sei A ∈ Mn (K). Sei F : Kn → Kn der Endomorphismus F = LA . Für eine Matrix
A′ ∈ Mn (K) sind dann die folgenden beiden Aussagen äquivalent:
a) Es gibt S ∈ GLn (K) mit A′ = S −1 AS.
b) Es gibt eine Basis B des Kn derart, dass A′ = B MB (F ) ist.
Konkret ist der Zusammenhang zwischen S und B wie folgt: S = E MB (Id) =
E TB , wobei E die Standardbasis ist; B besteht aus den Spalten von S.
Beweis:
F = LA heißt A = E ME (F ), für E die Standardbasis. Sei A′ = S −1 AS. Rang(S) =
n, also bilden die Spalten von S eine Basis B von Kn . Dann ist S = E MB (Id) =
−1
= B TE , also A′ = B TE E ME (F ) E TB = B MB (F ). Ist dagegen
E TB und S
′
A = B MB (F ), dann ist mit S = E TB auch A′ = S −1 E ME (F )S = S −1 AS.
□
84
Lineare Algebra für IB, AIB, BIB
6 EIGENWERTPROBLEME
6.3 Basiswechsel
Beispiel: A = 23 −1
hat Eigenvektoren ⃗v1 = ( 11 ) und ⃗v2 = ( 13 ) mit Eigenwert
−2
1 bzw. −1. Nun, B := [⃗v1 , ⃗v2 ] ist eine Basis von R2 . Wegen F (⃗v1 ) = A · ⃗v1 =
0
1 · ⃗v1 und F (⃗v2 ) = (−1)⃗v2 ist B MB (F ) = ( 10 −1
). Ferner ist E TB = ( 11 13 ). Nach
1 0
1 1
dem Lemma gilt ( 11 13 )−1 23 −1
−2 ( 1 3 ) = ( 0 −1 ) . Wir haben A diagonalisiert. Zur
Kontrolle kann man die Gleichung direkt prüfen.
Lemma 6.12 (und Definition)
A ∈ Mn (K) heißt diagonalisierbar :⇔ ∃S ∈ GLn (K) : S −1 AS ist diagonal. Ggf.
nennt man S eine diagonalisierende Matrix für A. Dies ist gleichbedeutend
zu jeder der folgenden Charakterisierungen:
a) Kn hat eine Basis B = [⃗b1 , ..., ⃗bn ], so dass B MB (LA ) Diagonalmatrix ist.
b) Kn hat eine Basis, die aus Eigenvektoren ⃗b1 , ..., ⃗bn von A besteht.
c) Mit N := {λ ∈ K | χA (λ) = 0} gilt
P
dimK (Eλ (A)) = n.
λ∈N
Beweis:
Def ⇔ a): Lemma 6.11, S = (⃗b1 , ..., ⃗bn ).
a) ⇔ b): B MB (LA ) ist genau dann diagonal, wenn B aus Eigenvektoren besteht.
b) ⇔ c): Lemma 6.10 und Basisergänzung.
□
Problem 6.13 (Diagonalisierbarkeit)
Gegeben A ∈ Mn (K), gesucht eine diagonalisierende Matrix, falls sie existiert.
Lösung:
Berechne N := {λ ∈ K | χA (λ) = 0} und berechne für jedes λ ∈ N eine Basis
von Eλ (A). Wenn man nicht insgesamt n Basisvektoren findet, ist A nicht diagonalisierbar. Andernfalls bilden die Basen der Eigenräume zusammen eine Basis
[⃗b1 , ..., ⃗bn ] von Kn . Mit S := (⃗b1 , ..., ⃗bn ) ist S −1 AS diagonal, das i-te Diagonalelement ist ist der Eigenwert von ⃗vi .
□
Beispiel: Die Matrix aus Bsp. 6.6.c) ist diagonalisierbar. Mit S :=
ist S −1 · A · S =
−2 −1 −1 −3
5 0 −1 −4
1 0 0 −1
0 1 2 5
!
1 0 0 0
0 1 0 0
0 0 −1 0
0 0 0 3
. Die Diagonalmatrix lässt sich ohne Rechnung anhand
der Eigenwerte angeben.
Beispiel: A = ( 10 12 ) ∈ M2 (R) hat Eigenvektoren ( 10 ) mit Eigenwert 1 und ( 11 )
mit Eigenwert 2, also diagonalisierbar. Mit S = ( 10 11 ) ist S −1 AS = ( 10 02 ).
2
Beispiel: A = 34 −1
−1 ∈ M2 (R) ist nicht diagonalisierbar, denn χA (X) = X −
2X + 1 = (X − 1)2 , d.h. 1 ist der einzige Eigenwert und E1 (A) = SpanR (( 12 )).
Lineare Algebra für IB, AIB, BIB
85
6.3 Basiswechsel
6 EIGENWERTPROBLEME
Ist nicht explizit nach einer diagonalisierenden Matrix gefragt, kann man sich
bei der Prüfung der Diagonalisierbarkeit manchmal etwas Arbeit sparen. Dafür
brauchen wir eine kleine Vorbereitung:
Aufgabe 6.14
Für A′ = S −1 AS gilt χA′ (X) = χA (X).
Korollar 6.15
Ist dimK (Eλ (A)) = r, dann ist χA (X) durch (X −λ)r teilbar. Für jeden Eigenwert
ist also die geometrische kleiner oder gleich der algebraischen Vielfachheit.
Beweis:
Sei [⃗v1 , . . . , ⃗vr ] eine Basis von Eλ (A). Basisergänzungssatz: Setze zu einer Basis
B = [⃗v1 , . . . , ⃗vn ] von Kn fort. Wie in Lemma 6.11 sei F = LA , S = E TB und
A′ = B MB (F ) = S −1 AS. NachAufgabe
vi ) = λ⃗vi
6.14 ist χA′ = χA .Wegen F (⃗
(X−λ)1r
−C
′
′
λ1r C
für i ≤ r hat A Blockgestalt
,
also
X1
−
A
=
für
n
0 D
0
X1s −D
r
s = n − r, und nach der Blockmatrix-Regel ist χA′ (X) = (X − λ) χD (X).
□
Spezialfälle von Problem 6.13, wenn nur nach der Existenz einer diagonalisierenden Matrix gefragt ist:
• Hat A n verschiedene Eigenwerte in K, ist A diagonalisierbar, denn jeder
Eigenraum ist mindestens eindimensional.
• Zerfällt χA (X) in K[X] nicht in Linearfaktoren, ist A nicht diagonalisierbar.
• Ist die algebraische Vielfachheit eines Eigenwertes größer als seine geometrische Vielfachheit, ist A nicht diagonalisierbar.
2
0 1
Beispiel: Für A = ( −1
0 ) ist χA (X) = X +1. Also nicht diagonalisierbar über R
(aber schon über C).
Beispiel: Für A =
1 5 −2
0 4 7
0 0 −1
ist χA (X) = (X−1)(X−4)(X+1) (Dreiecksgestalt).
Also drei verschiedene Eigenwerte 1, 4, −1, daher diagonalisierbar.
Der folgende Satz wird hier nicht bewiesen. Mehr Hintergrund dazu wird es
im Abschlusskapitel über euklidische Geometrie geben. Man beachte, dass der
Satz nicht für K = Q oder für endliche Körper gilt.
Satz 6.16 (und Definition)
A ∈ Mn (K) heißt symmetrisch, gdw. tA = A. Jede symmetrische Matrix A ∈
Mn (R) ist diagonalisierbar.
86
Lineare Algebra für IB, AIB, BIB
6 EIGENWERTPROBLEME
6.3 Basiswechsel
Es gilt sogar eine Verallgemeinerung für Matrizen über den komplexen Zaht
len. Ist A ∈ Mn (C) und A = A (Erinnerung: a + b i := a − b i bezeichnet die
komplexe Konjugation, und das soll auf jeden Eintrag von A angewandt und
das Ergebnis transponiert werden), so heißt A hermitesch 45 . Jede hermitesche
Matrix ist diagonalisierbar und alle ihre Eigenwerte sind reell (obwohl ja die
Matrixeinträge komplex sind!). Das hat wichtige Anwendungen in der Physik,
denn beobachtbare physikalische Größen in der Quantenmechanik entsprechen
Eigenwerten hermitescher Operatoren — sind also reell, und das ist gut, denn ein
nicht-reeller Messwert wäre seltsam.
45
Nach Charles Hermite [1822–1901]
Lineare Algebra für IB, AIB, BIB
87
Download