Lineare Algebra

Die erste Auflage hat als umfassendes Lehr-, Lern- und Referenzbuch der Linearen Algebra viel positive Resonanz hervorgerufen. In dieser zweiten Auflage wurde der Inhalt überarbeitet und erweitert. Ziel des Buchs ist es, die Theorie und Anwendungen linearer Strukturen und die Vernetzung der Inhalte deutlich zu machen. Es wird klar, wie z. B. Aspekte der affinen Geometrie (wichtig fürs Lehramt), Spektralanalyse und lineare Differentialgleichungen (essentiell in der Physik) sowie die Anfänge der linearen und quadratischen Optimierung (Teil der Wirtschaftsmathematik) zusammenhängen. Die erarbeitete Theorie und Algorithmik wird durchgängig mit innermathematischen Themen verbunden. Die Leserinnen und Leser können auf diese Weise die Verbindungen zwischen den einzelnen Themengebieten erkennen und vertiefen. Darüber hinaus wird auch immer ein Bezug zu realen Anwendungen hergestellt. Eine klare optische Struktur der Inhalte ermöglicht es den Leserinnen und Leser zudem, den Kerntext von weiterführenden Bemerkungen leicht zu unterscheiden.Dieser Band wird durch einen Aufgaben- und Lösungsbuch ergänzt.


125 downloads 5K Views 12MB Size

Recommend Stories

Empty story

Idea Transcript


Peter Knabner Wolf Barth

Lineare Algebra Grundlagen und Anwendungen 2. Auflage

Lineare Algebra

Peter Knabner · Wolf Barth

Lineare Algebra Grundlagen und Anwendungen 2., überarbeitete und erweiterte Auflage

Peter Knabner Lehrstuhl Angewandte Mathematik 1 Universität Erlangen-Nürnberg Department Mathematik Erlangen, Deutschland

Wolf Barth† Erlangen, Deutschland

ISBN 978-3-662-55599-6 ISBN 978-3-662-55600-9 https://doi.org/10.1007/978-3-662-55600-9

(eBook)

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2013, 2018 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichenund Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Verantwortlich im Verlag: Annika Denkert Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

v

Vorwort zur zweiten Auflage Trotz seines Umfangs hat dieses umfassende Lehr-, Lern- und Referenzbuch der Linearen Algebra eine sehr freundliche Aufnahme und vielfältige Benutzung auch über den universitären Bereich hinaus erfahren. Anscheinend wird gerade da eine Darstellung der Linearen Algebra geschätzt, die sich nicht im Glasperlenspiel erschöpft, sondern eine rigorose Darstellung der Grundlagen mit belastbaren Anwendungen verknüpft. Damit ist eine zweite Auflage überfällig. Dies umso mehr, da uns leider mittlerweile eine Reihe von Schreib- und Druckfehlern bekannt geworden sind. Diese sind zwar mit minimalen Ausnahmen orthographischer und selbstkorrigierender Natur, dennoch gerade für die lesenden Anfänger hinderlich. Sie sind hier sämtlich korrigiert. Im Bestreben, die erste Auflage weiterhin vollwertig nutzbar zu halten, sind diese Korrekturen in entsprechenden Listen (1 bis 3) dokumentiert. Diese finden sich auf der Website http://www.math.fau.de/knabner/LA. Dort finden sich auch, nach Eingabe des entsprechenden Passworts, die ergänzenden Aufgaben und Lösungen zum zugehörigen Aufgabenband Lineare Algebra - Aufgaben und Lösungen, Springer Verlag, 2017. Trotz des schon bestehenden Umfangs konnte ich1 der Versuchung nicht widerstehen, den Text zu ergänzen. Dabei handelt es sich um (hoffentlich) verbesserte Darstellungen oder auch um neue Begrifflichkeiten und alternative Herleitungen dargestellter Sachverhalte im Bestreben auch nicht verfolgte Darstellungslinien zu Wort kommen zu lassen. Für Benutzer der ersten Auflage finden sich diese Ergänzungen und weitere nicht übernommene als Liste 4 am genannten Ort. Um eine weitere parallele Nutzung der ersten Auflage zu ermöglichen wurde in die bestehende Nummerierungsstruktur nicht eingegriffen: Ergänzungen setzen i. Allg. bestehende Bemerkungen fort. Nur in Ausnahmefällen wurden Inhalte ausgetauscht und neue Nummern (mit Zusatz a) eingefügt. Um auch nach diesen Ergänzungen die magische Grenze von 1000 Seiten nicht zu überschreiten, wurden die Anhänge auf die genannte Website ausgelagert und sind dort abrufbar (der für Ansicht und Download benötigte Benutzername lautet LA-Auf2 und das dazugehörige Passwort LA2+online ). Ich danke allen, die diese neue Version unterstützt haben: Neben den schon im Vorwort zur ersten Auflage genannten Mitarbeitern sind besonders Dr. Philipp Wacker und Balthasar Reuter, M.Sc. hervorzuheben, bei den studentischen Hilfskräften ist Robert Ternes hinzugekommen. Ohne den Überblick und die Detailgenauigkeit von Frau Cornelia Weber wäre diese zweite Auflage nicht Zustande gekommen. In der Endphase wurde ihre Arbeit mit gleicher Präzision und Einsatz von Herrn Sebastian Czop übernommen. Frau Dr. Annika Denkert und Herrn Clemens Heine danke ich für ihre fortwährende Unterstützung. Erlangen, im Juli 2018 Peter Knabner 1

Leider muss dieses Vorwort vom erstgenannten Autor allein verfasst werden: Wolf Barth ist 2016 verstorben.

vi

Vorwort zur ersten Auflage Jedes neue Lehrbuch der Linearen Algebra muss sich angesichts einer Vielzahl hervorragender, auch aktueller Lehrbücher über dieses Gebiet, insbesondere im deutschen Sprachraum, nach seiner Existenzberechtigung fragen lassen. Warum wir der Meinung sind, dass dies für das hier vorgelegte Werk durchaus der Fall ist, trotz seines Umfangs und trotz seines an einigen Stellen nicht geringen Anspruchs, ergibt sich aus unserem Verständnis des Gebiets und der heutigen Lehrsituation an den deutschen Universitäten, insbesondere im Rahmen einer durch Bachelor und Master strukturierten Ausbildung: Für uns ist das Ziel der Linearen Algebra die Einübung in die Theorie linearer Strukturen. Dabei liegt der Schwerpunkt auf endlichdimensionalen R-Vektorräumen, aber auch K-Vektorräume über allgemeinen Körper K sollen dabei weitgehend behandelt werden. Auch unendlichdimensionale Vektorräume in Theorie und Anwendung sollen soweit wie möglich eine Rolle spielen. Angesichts der heutigen Bedeutung der Linearen Algebra als grundlegendes Werkzeug und Sprache für im Wesentlichen alle Teile der Mathematik, insbesondere auch die der Angewandten Mathematik und die darauf fußenden Ausstrahlungen in Naturwissenschaften, Ingenieurwissenschaften und Wirtschaftswissenschaften, sehen wir in der Linearen Algebra nicht primär eine Ausbildung in Algebra und auch nicht ausschließlich in Geometrie, wobei Letztere ein sehr wesentliches Anwendungs- und Beispielfeld darstellt. Die Klientel in einer Linearen-Algebra-Vorlesung an einer deutschen Universität ist heute typischerweise sehr differenziert, mit zum Teil auch sehr unterschiedlichen Ansprüchen an Inhalt und Rigorosität ihrer Mathematikausbildung. Trotz dieser immer größer werdenden Spannbreite sind wir nicht den Weg des kleinsten gemeinsamen Nenners gegangen und haben ein möglichst elementares und möglichst kompaktes Lehrbuch vorgelegt, sondern haben darauf bestanden ein, wie wir finden, vernünftiges Abstraktionsniveau zu bewahren. Das Abstraktionsniveau des Buches besteht durchgängig aus endlichdimensionalen K-Vektorräumen, K ∈ {R, C}, bis hin zu unendlichdimensionalen KVektorräumen und auch soweit wie möglich K-Vektorräumen. Die Beispielebenen des Buches sind der Tupelraum Rn , der Matrizenraum und lineare Gleichungssysteme. Um dennoch die Zugänglichkeit zu erleichtern, sind wir von einem strikten deduktiven Aufbau der Theorie abgewichen und haben induktive Elemente in die Darstellung eingebaut. Die maßvolle Mischung aus induktivem und deduktivem Vorgehen wird in dem Anfangskapitel auch durch die Randmarkierungen RLGS (Rückführung auf lineare Gleichungssysteme), bei Entwicklung der Theorie durch Rückgriffe auf Parametrisierung und Fragen von Lösungsmengen linearer Gleichungssysteme, bzw. beim deduktiven Schritt durch ALGS (Anwendung auf lineare Gleichungssysteme) bei der Spezialisierung allgemeiner Theorie auf diesen Fall angedeutet. Insgesamt wird eine (sehr gemäßigte) Redundanz in Kauf genommen, insofern zum Teil Sachverhalte alternativ mit verschiedenen Beweismethoden beleuchtet werden. Ausgangspunkt des ersten Kapitels ist der Rn , woraus aber schnell der allgemeine Begriff des R-Vektorraums entwickelt wird und auch noch weitere, insbesondere endlichdimensionale, Beispiele behandelt werden. Um dieses minimale Maß an Konkretheit zu bewahren, werden in Kapitel 1 und 2 nur R-Vektorräume bzw. ihre Konkretisierungen behandelt. Die Erweiterung der Theorie auf allgemeine K-Vektorräume, d. h. insbesondere

vii

auch die Bereitstellung der Theorie für C-Vektorräume, erfolgt dann erst in einem zweiten Schritt in Kapitel 3. Ab Kapitel 4 werden dann entweder allgemeine K-Vektorräume oder (bei unitärer Struktur) K-Vektorräume einheitlich zugrunde gelegt. Um darüber hinaus für die Studierenden aus verschiedenen Fachrichtungen ansprechende Anwendungsbezüge aufweisen zu können, sind Inhalte aufgenommen worden, die zum Teil über den Standardkanon Lineare Algebra hinausgehen (und durchaus als Vorschlag zu dessen Reform gesehen werden sollen): Für Lehramtsstudierende Mathematik (aber nicht nur für diese) werden ausführlich verschiedene Aspekte der Analytischen Geometrie betrachtet, entweder in Form von immer wieder eingestreuten „Beispielen (Geometrie)“, oder aber in durchgängigen Abschnitten oder ganzen Kapiteln. Dazu gehört eine Behandlung der Affinen Geometrie (Abschnitte 1.7, 2.8), eine ausführliche Behandlung der Quadriken (Abschnitt 5.3) und insbesondere der Polyedertheorie mit Zielrichtung Lineare Optimierung (Kapitel 6). Für Mathematikstudierende mit einer möglichen Vertiefung Analysis oder auch Physikstudierende wird Wert gelegt auf unendlichdimensionale Vektorräume und auf Spektralanalyse, wobei die Schur- und ebenso die Jordan-Normalform auch in ihren reellen Varianten einen breiten Teil einnehmen. Auch wird den Querverbindungen zur Analysis große Bedeutung beigemessen, um den Übergang in eine (auch nicht-lineare) Funktionalanalysis möglichst einfach zu gestalten (Abschnitte 4.4, 4.5, 4.7.3, Kapitel 7). Dazu gehört auch eine durchgängige Behandlung von Systemen linearer Differentialgleichungen mit konstanten Koeffizienten mit vollständigen Lösungsdarstellungen. Für Mathematikstudierende mit einer möglichen Vertiefung Algebra werden neben der allgemeinen K-Vektorraum-Theorie auch algebraische Strukturen allgemein und als Anwendung die Kodierungstheorie angesprochen. Dieser Anwendungsaspekt wird insofern nicht vertieft, als hier ein hervorragendes aktuelles Lehrbuch (Huppert und Willems 2006) vorliegt, das speziell diese Anwendungen pflegt. Für Studierende der Wirtschaftsmathematik wurden Inhalte aufgenommen, wie die Anfangsgründe der linearen und quadratischen Optimierung (Abschnitte 4.7.2, 6.4–6.7) oder auch eine durchgehende Behandlung linearer Differenzengleichungen. Für Studierende der Mathematik mit möglicher Vertiefung Numerische Mathematik oder Optimierung und insbesondere Studierende der Technomathematik wurden Inhalte wie LR-Zerlegung, Pseudoinverse, Singulärwertzerlegung und auch quadratische und lineare Optimierung einbezogen (Abschnitt 2.4.2–2.4.3, 2.5.2, 4.6, 4.7.2, 6.6, 6.7, aber auch Kapitel 7). Der Text baut (auch) auf algorithmische Zugänge auf und behandelt algorithmische Fragen ohne ein Lehrbuch der Numerischen Linearen Algebra zu sein. Immerhin werden aber einige Verfahren bis hin zum MATLAB Code entwickelt, darunter 4 der 10 als wichtigste Algorithmen des 20ten Jahrhunderts ausgewählten Verfahren (Dongarra und Sullivan 2000). Durchgängig wurde großer Wert darauf gelegt, die erarbeitete Theorie und Algorithmik nicht nur mit möglichen innermathematischen Weiterentwicklungen zu verknüpfen, sondern insbesondere auch den in keiner Weise einfachen oder gar selbstverständlichen Schritt der Anwendung auf Fragen der Realwissenschaften einzuüben. Dazu dient früh der Abschnitt 1.6, durchgängig nummerierte Abschnitte zur Mathematischen Modellierung und drei durchgehende, immer weiter entwickelte Beispiele aus der Mechanik, der

viii

Elektrizitätslehre und der Ökonomie (zusätzlich gibt es ein durchgängiges Beispiel, das historische Fragestellungen behandelt). Die gerade angesprochene „Zergliederung“ soll andeuten, dass trotz des hohen Umfangs des Textes eine Ausgliederung einer in zwei Semestern lehrbaren Teilmenge leicht möglich sein sollte, widerspricht aber doch in gewisser Weise der Intention der Autoren. Wir verstehen einen (mathematischen) Text im lateinischen Wortsinn als ein dicht zusammengefügtes Gewebe, das erst durch seine „Verwebung“ seine Tragweite eröffnet. Andererseits ist uns die Notwendigkeit einer Auswahl bewusst, auch die Gefahr, dass sich gerade ein Studienanfänger in einem solch umfangreichen Text „verlieren“ kann. Daher haben wir versucht durch eine Reihe von Satzhilfsmitteln Hilfestellung zu leisten (s. Hinweise zum Gebrauch des Buchs). Eine mehrfach erprobte, weitgehend vollständige Behandlung des Textes in einem ersten Studienjahr ist etwa dadurch möglich, dass in den Vorlesungen die „Anwendungsteile“ ausgeklammert werden, diese dann allerdings den Gegenstand eines begleitenden Proseminars bilden. Andererseits können auch diese Teile Inhalt einer auf eine Grundvorlesung aufbauende „Angewandten Linearen Algebra“ sein. Wir sehen es nicht als die Aufgabe eines Lehrbuchs an, die existierende Lehrbuchliteratur zu referieren oder gar zu bewerten. Gewiss haben wir in viele der existierenden Lehrbücher geschaut und sind in vielen Aspekten beeinflusst worden. Der erstgenannte Autor möchte seine Wertschätzung speziell für Strang 2003, Huppert und Willems 2006, und Lax 2007 nicht verleugnen. Dort, wo wir uns eng an eine Vorlage gehalten haben, ist dies vermerkt. Sollte es einmal versäumt worden sein, da die Lektüre über die Jahre „vergessen“ wurde, bitten wir dies zu entschuldigen. Selbstverständlich stehen wir auf den Schultern unserer Vorgänger, auch der vielen nicht zitierten Lehrbücher. Das Buch ist hervorgegangen aus einer Vielzahl von Vorlesungen, die insbesondere der zweitgenannte Autor an der Friedrich-Alexander-Universität Erlangen-Nürnberg seit 1990 sehr regelmäßig durchgeführt hat. Hinzu kamen wiederkehrend entsprechende Lehrveranstaltungen für Studierende in der nicht-vertieften Lehramtsausbildung. So entstand auch ein Großteil der Aufgabensammlung. Auf diesen „Urtext“ aufbauend, der an sich schon das Ergebnis eines jahrelangen Weiterentwicklungsprozesses war, hat dann der erstgenannte Autor in einer ganzen Reihe von Erweiterungs- und Umarbeitungsschritten, die aber den Kerntext inhaltlich unberührt gelassen haben, den vorliegenden Text entwickelt. Allein dieser Prozess hat sich mit Unterbrechung über die letzten fünf Jahre hingezogen und wäre ohne die umfangreiche Unterstützung durch eine Vielzahl von Personen nicht möglich gewesen, denen an dieser Stelle herzlich gedankt sei. Der vielschichtige Umarbeitungsprozess des TeX-Textes wurde von den Sekretärinnen des Lehrstuhls Angewandte Mathematik über die Jahre durchgeführt, wobei hier neben Frau Astrid Bigott und Frau Silke Berghof insbesondere Frau Cornelia Kloß hervorgehoben sei. Ohne ihre immerwährende Genauigkeit, Schnelligkeit und die Ruhe bewahrende Übersicht wäre die Erstellung dieses Textes nicht möglich gewesen. Bei fortschreitend komplexer werdendem Umarbeitungsprozess war es auch notwendig weitere Hilfspersonen einzubinden. Deren Anleitung und Koordinierung wurden von Herrn Dipl.-Math. Florian Frank durchgeführt, einer weiteren tragenden Säule des Unternehmens unterstützt durch Herrn Dipl.Math. Fabian Klingbeil. Als studentische Hilfskräfte waren u. a. beteiligt: Ludwig Dietel, Jasmin Gressmann, Fabian Langer, Benjamin Steber und Alexander Vibe. Wesentliche inhaltliche Hilfestellung kam durch die Assistenten der jeweiligen Lehrveranstaltungen:

ix

Dipl.-Technomath. Fabian Brunner, Dr. Volker Grimm, Dr. Joachim Hoffmann, Dr. Tycho van Noorden und Dr. Alexander Prechtel. Schließlich wurden wichtige Korrekturarbeiten durchgeführt in großem Umfang von Dipl.-Math. Matthias Herz, aber auch von Dr. Vadym Aizinger, Dr. Serge Kräutle, Dipl.-Biomath. Torsten Müller, Dr. Maria Neuss-Radu, Dipl.-Math. Nadja Ray, Dr. Raphael Schulz und Dr. Nicolae Suciu. Zwischenstadien des Textes wurden von den Professoren Günter Leugering, Alexander Martin und Karl-Hermann Neeb benutzt und hilfreich kommentiert. Erlangen, im Juli 2012 Peter Knabner, Wolf P. Barth

x

Hinweise zur Benutzung des Buchs Gerade ein so umfangreicher Text kann einem Studienanfänger Schwierigkeiten bereiten, wenn er sich aus zeitlichen Gründen nicht in der Lage sieht, den Text vollständig seinem Aufbau gemäß durchzuarbeiten, was die optimale Situation wäre. Daher sind einige satztechnische Strukturierungshilfsmittel eingebaut worden, die es zum einen erleichtern sollen den Kerntext zu erkennen und zum anderen die Teile zu identifizieren, die für die spezifische Studienrichtung von hervorgehobener Bedeutung sind. Der Kerntext Lineare Algebra ist, wie bei jedem Mathematiklehrbuch, der durch „Definition“ und „Satz/Beweis“ formalisierte Teil des Textes. Auch hier gibt es eine, auch durch unterschiedliche Umrahmungen ersichtliche Strukturierung, durch (in aufsteigender Wichtigkeit) „Lemma“ oder „Korollar“, „Satz“, „Theorem“ und schließlich „Hauptsatz“. Diese höchste Stufe wird auch in den umfangreichen Index aufgenommen. Jeder Abschnitt (bis auf die Abschnitte aus Kapitel 8) wird von einer Zusammenfassung abgeschlossen, die noch einmal auf die wesentlichen Begriffe, Zusammenhänge und Beispiele hinweist. Viele über den Kerntext hinausgehende Überlegungen finden sich in den „Bemerkungen“. Dabei handelt es sich entweder um Erläuterungen oder aber um Erweiterungen und Ausblicke. Für deren Beweis, oder auch in den laufenden Text eingeschobene Beweisüberlegungen, wird Kleindruck verwendet. Dies heißt nicht, dass der Kerntext nicht auf die Bemerkungen zurückgreift, bedeutet aber, dass ihre Erarbeitung auch auf den „Bedarfsfall“ eingeschränkt werden kann. Auch auf der Ebene der Bemerkungen oder im Fließtext werden manche Begriffe (ohne die Definitionsumgebung) definiert. Dies ist dann durch Kursivdruck des Begriffs zu erkennen. Auch auf Aussagen die dort entwickelt werden, kann (immer wieder) zurückgegriffen werden. Solche Situationen werden durch kleine Umrahmungen leichter auffindbar gemacht. Textteile, die eher isoliert stehen und daher ohne Nachteil für das weitere Verständnis übergangen werden können, sind mit * gekennzeichnet. Aussagen, die aufgrund des induktiven Aufbaus direkte Weiterentwicklungen (von R nach C oder von C nach R) sind, tragen die gleiche Nummer mit einer hochgestellten I. Eine Sonderstellung hat Hauptsatz 1.85, der ständig erweitert wird (zusätzliche Versionen I bis IV). Die verschiedenen Textteile sind durch unterschiedliche Schlusszeichen gekennzeichnet: Beweise durch , Bemerkungen durch △, Beispiele durch ◦. Der Text enthält drei durchgängige Beispiele („Beispiel 2(1)“ etc.), die sich an verschiedene Anwendungsinteressen richten und darüber hinaus eine Vielzahl von Geometrieanwendungen („Beispiel (Geometrie)“) bzw. Abschnitte, die sich schwerpunktmäßig auf geometrische Inhalte konzentrieren. Je nach Interessenlage können diese Beispiele betont oder übergangen werden, das theoretische Verständnis wird daduch nicht berührt. Einige der „Stories“, die das Buch erzählen möchte, erschließen sich aber gerade über diese Beispiele. Die Anhänge stellen verschiedene Hilfsmittel bereit, die zum Teil zur mathematischen Propädeutik gehören, wie Anhang A über Logisches Schließen und Mengenlehre oder Anhang B.1 über das Zahlensystem, oder die den Umgang mit den Notationen erleichtern sollen (Anhang B.2). Hilfsmittel über Polynome (Anhang B.3) oder eine Zusammenfas-

xi

sung der Analysis (Anhang C), wie sie zum Ende eines ersten Studiensemesters bekannt sein sollte, werden ebenfalls angeboten. Die Aufgaben sind in die (offensichtlichen) Kategorien (K(alkül)), (T(heorie)) und (G(eometrie)) unterteilt. Weitere aktuelle Informationen finden sich auf http://www.math.fau.de/knabner/LA . Voraussichtlich zu Beginn 2013 erscheint ein Aufgabenband, der für die meisten hier abgedruckten Aufgaben Musterlösungen enthält und darüberhinaus eine Vielzahl weiterer Aufgaben. Insbesondere liefert er einen Leitfaden durch den hiesigen Text anhand von Aufgaben.

Seitenliste der Beispiele 1, 2, 3 und 4 Beispiel 1

Beispiel 2

Beispiel 3

Beispiel 4

(1) Seite 1 (2) Seite 60 (3) Seite 83 (4) Seite 456 (5) Seite 466

(1) Seite 1 (2) Seite 134 (3) Seite 241 (4) Seite 243 (5) Seite 365 (6) Seite 804

(1) Seite 2 (2) Seite 22 (3) Seite 132 (4) Seite 224 (5) Seite 249 (6) Seite 426 (7) Seite 434 (8) Seite 435 (9) Seite 801 (10) Seite 868 (11) Seite 920 (12) Seite 959 (13) Seite 962

(1) Seite 8 (2) Seite 69 (3) Seite 225 (4) Seite 920

Inhaltsverzeichnis

1

2

Der Zahlenraum R n und der Begriff des reellen Vektorraums . . . . . . . . . . 1.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Beispiele und Spezialfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Die Eliminationsverfahren von Gauss und Gauss-Jordan . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums . . . . . . . . . . . . 1.2.1 Vektoren im Rn , Hyperebenen und Gleichungen . . . . . . . . . . . . . . 1.2.2 Tupel-Vektorräume und der allgemeine R-Vektorraum . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Lineare Unterräume und das Matrix-Vektor-Produkt . . . . . . . . . . . . . . . . . 1.3.1 Erzeugendensystem und lineare Hülle . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Das Matrix-Vektor-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Lineare (Un-)Abhängigkeit und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Lineare (Un-)Abhängigkeit und Dimension . . . . . . . . . . . . . . . . . . 1.4.2 Lineare Gleichungssysteme und ihre Unterräume I: Dimensionsformeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 1.5.1 Skalarprodukt, Norm und Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.2 Orthogonalität und orthogonale Projektion . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 Affine Räume I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 1 1 15 28 30 30 44 54 55 55 62 74 75 75 91 101 103 103 110 131 132 138 140 150

Matrizen und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 2.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 2.1.1 Allgemeine lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

xiii

xiv

Inhaltsverzeichnis

2.1.2

Bewegungen und orthogonale Transformationen . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lineare Abbildungen und ihre Matrizendarstellung . . . . . . . . . . . . . . . . . . 2.2.1 Darstellungsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Dimension und Isomorphie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Tensorprodukt von Vektoren und Projektionen . . . . . . . . . . . . . . . . 2.3.3 Invertierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.4 Das Gauss-Verfahren vom Matrizenstandpunkt . . . . . . . . . . . . . . 2.3.5 Transponierte, orthogonale und symmetrische Matrix . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lösbare und nichtlösbare lineare Gleichungssysteme . . . . . . . . . . . . . . . . . 2.4.1 Lineare Gleichungssysteme und ihre Unterräume II . . . . . . . . . . . 2.4.2 Ausgleichsrechnung und Pseudoinverse . . . . . . . . . . . . . . . . . . . . . 2.4.3 Gauss-Verfahren und LR-Zerlegung I . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Permutationsmatrizen und die LR-Zerlegung einer Matrix . . . . . . . . . . . . 2.5.1 Permutationen und Permutationsmatrizen . . . . . . . . . . . . . . . . . . . . 2.5.2 Gauss-Verfahren und LR-Zerlegung II . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Motivation und Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.3 Orientierung und Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Affine Räume II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

162 171 173 173 182 189 191 191 199 211 218 223 245 247 247 251 266 275 277 277 284 293 294 294 300 316 321 323 331 333 341

Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen . . . . . . 3.1 Gruppen und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Vektorräume über allgemeinen Körpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Euklidische und unitäre Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Der Quotientenvektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

343 343 359 360 369 370 383 384 397 398 410

2.2

2.3

2.4

2.5

2.6

2.7 2.8 3

Inhaltsverzeichnis

4

5

xv

Eigenwerte und Normalformen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Basiswechsel und Koordinatentransformationen . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Eigenwerttheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Definitionen und Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Diagonalisierbarkeit und Trigonalisierbarkeit . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Unitäre Diagonalisierbarkeit: Die Hauptachsentransformation . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Blockdiagonalisierung aus der Schur-Normalform . . . . . . . . . . . . . . . . . 4.4.1 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Blockdiagonalisierung mit dem Satz von Cayley-Hamilton . 4.4.3 Algorithmische Blockdiagonalisierung – Die SylvesterGleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1 Kettenbasen und die Jordansche Normalform im Komplexen . . 4.5.2 Die reelle Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . 4.5.3 Beispiele und Berechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Die Singulärwertzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.1 Herleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2 Singulärwertzerlegung und Pseudoinverse . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Positiv definite Matrizen und quadratische Optimierung . . . . . . . . . . . . . . 4.7.1 Positiv definite Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7.2 Quadratische Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7.3 Extremalcharakterisierung von Eigenwerten . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8 Ausblick: Das Ausgleichsproblem und die QR-Zerlegung . . . . . . . . . . . . .

411 411 424 426 426 450 470 473 487 488 488 501 512 519 521 521 542 549 562 564 564 575 580 581 581 593 603 607 609

Bilinearformen und Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 α-Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Der Vektorraum der α-Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Orthogonales Komplement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Symmetrische Bilinearformen und hermitesche Formen . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Die affine Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Die euklidische Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Alternierende Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

613 613 613 622 632 634 645 647 650 659 662 664 671

xvi

Inhaltsverzeichnis

6

Polyeder und lineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Elementare konvexe Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Polyeder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Beschränkte Polyeder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Das Optimierungsproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Ecken und Basislösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Das Simplex-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7 Optimalitätsbedingungen und Dualität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

673 679 683 684 702 703 711 712 719 720 727 728 736 737 749

7

Lineare Algebra und Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 Normierte Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 Analysis auf normierten Vektorräumen . . . . . . . . . . . . . . . . . . . . . . 7.1.2 Normen und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Normierte Algebren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Erzeugte und verträgliche Normen . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.2 Matrixpotenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Hilbert-Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Der Rieszsche Darstellungssatz und der adjungierte Operator . . 7.3.2 Schauder-Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Ausblick: Lineare Modelle, nichtlineare Modelle, Linearisierung . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

751 751 751 758 770 771 771 781 806 808 808 823 831 832 835

8

Einige Anwendungen der Linearen Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.2 Ausgleichsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.3 Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Das Page-Rank-Verfahren von Google . . . . . . . . . . . . . . . . . . . . . . 8.2.2 Linear-stationäre Iterationsverfahren für lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.3 Gradientenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.4 Die Potenzmethode zur Eigenwertberechnung . . . . . . . . . . . . . . . .

837 837 837 846 850 854 856 856 861 870 878

Inhaltsverzeichnis

Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Datenanalyse, -synthese und -kompression . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.1 Wavelets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.2 Diskrete Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Lineare Algebra und Graphentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6 Kontinuierliche und diskrete dynamische Systeme . . . . . . . . . . . . . . . . . . . 8.6.1 Die Lösungsraumstruktur bei linearen Problemen . . . . . . . . . . . . . 8.6.2 Stabilität: Asymptotisches Verhalten für große Zeiten . . . . . . . . . . 8.6.3 Approximation kontinuierlicher durch diskrete dynamische Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6.4 Ausblick: Vom räumlich diskreten zum räumlich verteilten kontinuierlichen Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6.5 Stochastische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xvii

882 884 886 893 901 902 908 909 923 924 924 943 959 969 974 982

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 983 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985 Online-Appendix: Logisches Schließen und Mengenlehre . . . . . . . . . . . . . . . . . . . A.1 Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.2 Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.3 Prädikatenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.4 Produkte von Mengen, Relationen und Abbildungen . . . . . . . . . . . . . . . . . A.5 Äquivalenz- und Ordnungsrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

A-1 A-1 A-6 A-10 A-12 A-19

Online-Appendix: Zahlenmengen und algebraische Strukturen . . . . . . . . . . . . . . B.1 Von den Peano-Axiomen zu den reellen Zahlen . . . . . . . . . . . . . . . . . . . . B.2 Schreibweisen und Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B.3 (Formale) Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

B-1 B-1 B-8 B-11

Online-Appendix: Analysis in normierten Räumen . . . . . . . . . . . . . . . . . . . . . . . . . C-1

Kapitel 1

Der Zahlenraum R n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme

1.1.1 Beispiele und Spezialfälle Lineare Gleichungssysteme sind die einzige Art von Gleichungen in der Mathematik, welche wirklich exakt lösbar sind. Wir beginnen mit einem Beispiel, wie es schon aus der Antike überliefert ist. Beispiel 1(1) – Historische Probleme In einem Käfig seien Hasen und Hühner. Die Anzahl der Köpfe sei insgesamt 4, die Anzahl der Beine sei insgesamt 10. Frage: Wieviele Hasen und wieviele Hühner sind es?

Lösung : Es sei x die Anzahl der Hasen und y die Anzahl der Hühner. Dann gilt also x + y = 4, 4x + 2y = 10 . Dies ist ein System aus zwei linearen Gleichungen in zwei Unbekannten x und y. Wir können mittels der ersten Gleichung x = 4 − y eliminieren, in die zweite einsetzen und die folgenden äquivalenten Umformungen machen: 4(4 − y) + 2y 16 − 2y −2y y

= = = =

10 , 10 , −6 , 3.

Durch Einsetzen von y in eine der beiden Gleichungen erhält man schließlich x = 1.

^

Beispiel 1 ist eines von vier Beispielen, welche immer wieder aufgegriffen werden. Dabei erscheinen die Nummern der Teile in nachgestellten Klammern. Beispiel 2(1) – Elektrisches Netzwerk Es sei ein elektrisches Netzwerk, wie in Abbildung 1.1 dargestellt, gegeben. Dabei seien die angelegte Spannung U und die Widerstände R1 , R2 , R3 1 gegeben, die Stromstärken I1 , I2 und I3 an den Widerständen sind gesucht.

Lösung : Nach den sogenannten Kirchhoff2 schen Gesetzen der Physik hat man die Gleichungen 1 2

Hier und im Folgenden wird intensiv von der Indexschreibweise (siehe Anhang B.2) Gebrauch gemacht. Gustav Robert Kirchhoff ∗12. März 1824 in Königsberg †17. Oktober 1887 in Berlin

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_1

1

2

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums I1 = I2 + I3 ,

R2 I2 = R3 I3

und

(MM.1)

R1 I1 + R2 I2 = U

(das ist die stattfindende mathematische Modellierung des betrachteten Problems, in Abschnitt 1.6 werden wir dazu genauere Überlegungen anstellen). Wir schreiben sie als ein System aus drei linearen Gleichungen in den drei Unbekannten I1 , I2 und I3 . Wir können hier etwa I1 = I2 + I3 eliminieren, um folgendes System aus zwei linearen Gleichungen in den Unbekannten I2 und I3 zu erhalten, nämlich die zum Ausgangssystem äquivalenten Gleichungen: R2 I2 − R3 I3 = 0 , (R1 + R2 )I2 + R1 I3 = U . Hier eliminieren wir I2 = RR32 I3 (da gemäß seiner Bedeutung im Modell R2 , 0!) und erhalten schließlich eine Gleichung, die sich wie nachfolgend äquivalent umschreiben lässt: R3 I3 + R1 I3 = U , R2 (R1 R2 + R1 R3 + R2 R3 )I3 = R2 U , (R1 + R2 )

I3 =

R2 U R1 R2 + R1 R3 + R2 R3

(Division erlaubt, siehe oben). Aus den Eliminationsgleichungen für I2 und I1 erhalten wir I2 =

R3 U , R1 R2 + R1 R3 + R2 R3

I1 =

(R2 + R3 )U . R1 R2 + R1 R3 + R2 R3

Dieses Beispiel wird in weiteren Abschnitten immer wieder aufgegriffen werden.

^

Beispiel 3(1) – Massenkette Als Nächstes beschreiben wir ein einfaches mechanisches Beispiel, eine Massenkette : Gegeben seien n − 1 Massen M1 , . . . , Mn−1 (als Punkte aufgefasst, die im folgenden Knoten heißen), die durch Federn F2 , . . . , Fn−1 miteinander verbunden sind. Die Feder Fi ist zwischen den Massen Mi−1 und Mi eingespannt. Zusätzlich sind vorerst die Massen M1 und Mn−1 durch Federn F1 bzw. Fn mit einem festen Knoten M0 bzw. Mn verbunden. Man kann sich (muss aber nicht) die Massenketten als senkrecht (d. h. in Gravitationsrichtung) eingespannt denken (siehe Abbildung 1.2). Ohne Einwirkung irgendwelcher Kräfte (also auch ohne Gravitationskraft) nehmen die Massen eine feste Position an, aus der sie durch an ihnen einwirkende Kräfte b1 , . . . , bn−1 ausgelenkt werden. Um die Kräfte durch Zahlen beschreiben zu können, nehmen wir an, dass alle Kräfte in eine ausgezeichnete Richtung wirken, etwa in Gravitationsrichtung. Das Vorzeichen der Kraft bi gibt dann an, ob diese in die ausgezeichnete Richtung (bi > 0) oder entgegen wirkt (bi < 0). Das Gleiche gilt für die durch die Kraftwirkung erzeugte Auslenkung (oder Verschiebung ) x0 , . . . , xn der (Masse-)Punkte 0, . . . , n. Diese Auslenkungen sind zu bestimmen. Die

R3

3 2

I

II

R2 U 1

R1

Abb. 1.1: Ein einfaches elektrisches Netzwerk.

1.1 Lineare Gleichungssysteme

3

feste Einspannung von M0 und Mn bedeutet x0 = xn = 0 . Für x1 , . . . , xn−1 ergibt sich ein System aus linearen Gleichungen aus zwei wesentlichen Bausteinen: 1) Kräftebilanz : Die in jedem Knoten wirkenden Kräfte (äußere: bi und innere) addieren sich zu 0. 2) Hooke3 sches Gesetz (als konstitutives Gesetz): Die innere Kraft einer Feder ist proportional zur Dehnung (Proportionalitätsfaktor ci > 0). Dies liefern die Bestimmungsgleichungen (siehe Abschnitt 1.6) für i = 1, . . . , n − 1 : −ci xi−1 + (ci + ci+1 )xi − ci+1 xi+1 = bi .

(MM.2)

In der ersten und letzten Gleichung fallen x0 bzw. xn wegen der obigen Bedingung weg. Sind alle Federkonstanten ci gleich (etwa c), so vereinfachen sich die Gleichungen zu 2x1 − x2 = b1 /c ,

−xi−1 + 2xi − xi+1 = bi /c

für i = 2, . . . , n − 2 ,

(MM.3)

−xn−2 + 2xn−1 = bn−1 /c .

Variieren wir das Problem dadurch, dass Feder F1 entfernt wird (die Massenkette hängt „frei“), ändert sich die erste Gleichung zu c2 x1 − c2 x2 = b1

bzw.

x1 − x2 = b1 /c .

(MM.4)

Da dieses Beispiel schon allgemein ist (n kann sehr groß sein), muss die obige Vorgehensweise systematisiert werden, um auch hier die Lösungen des linearen Gleichungssystems zu bestimmen. ^

Beispiel 1 ist im Wesentlichen die einfachste Erscheinungsform eines linearen Gleichungssytems (im Folgenden immer kurz: LGS)4 . Die Beispiele 2 bis 4 (siehe unten) geben aber einen ersten Eindruck davon, wie lineare Gleichungssysteme Fragen aus Naturwissenschaften und Technik, aber auch aus der Ökonomie modellieren. Schon deswegen ist es wichtig, sie mathematisch zu untersuchen. Dabei stellen sich zwei wesentliche mathematische Fragen: A) Das Existenzproblem: Hat ein vorgelegtes LGS (mindestens) eine Lösung? Diese Frage kann man positiv entscheiden durch: a) Konkrete Angabe einer Lösung. Das geht allerdings nur bei einem konkreten Beispiel, und klärt i. Allg. nicht eine allgemeine Situation. Es bleibt dann auch die Frage, woher eine solche Lösung kommt. b) Abstrakte Argumentation, z. B. durch einen Widerspruchsbeweis. Aus der Annahme, es gebe keine Lösung, folgert man logisch einen Widerspruch. Eine Lösung wird dadurch aber nicht bekannt. c) Angabe, bzw. Herleitung eines Algorithmus (Rechenvorschrift) zur Bestimmung einer Lösung. Wenn dieser nur endlich viele Rechenschritte erfordert, dann erhält man damit bei (exakter) Durchführung des Algorithmus eine (exakte) Lösung. 3

Robert Hooke ∗28. Juli 1635 in Freshwater (Isle of Wight) †14. März 1703 in London Die Abkürzung LGS schließt alle Deklinationsformen des Substantivs mit ein. Das gilt auch für weitere Abkürzungen. 4

4

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

...

xn = 0

Fn

...

xn = 0

Fn

.. . .. . .. .

.. . .. . .. . 7→

x2

M2

x2

7→

Mn−1

xn−1

7→

Mn−1

7→

7→

xn−1

x1

M2

F2

F2 7→

x1

M1

M1

F1 x0 = 0 beidseitig eingespannt

einseitig eingespannt, frei hängend

Abb. 1.2: Zwei verschiedene Konfigurationen einer Massenkette.

Die Sprechweise bei positiver Beantwortung der Frage ist somit:

Das LGS hat mindestens eine Lösung. B) Das Eindeutigkeitsproblem: Ist die Lösung des vorgelegten LGS eindeutig bestimmt? Das heißt konkret: Wenn x und y Lösungen sind, gilt dann x = y? Dies ist nur durch abstrakte Argumentation zu klären. Die Sprechweise bei positiver Beantwortung der Frage ist:

1.1 Lineare Gleichungssysteme

5

Das LGS hat höchstens eine Lösung. Die Fragen A) und B) sind i. Allg. unabhängig voneinander. Wenn beide positiv zu beantworten sind, dann sagt man: Es gibt genau eine Lösung. Da LGS aus der Anwendung im Allgemeinen sehr groß sind (103 bis 108 Unbekannte bzw. Gleichungen), ist Handrechnen (wie oben) nicht mehr möglich und die Frage nach (effizienten) Algorithmen wird besonders wichtig. Wir wollen diese Frage, die dann in der Numerischen Mathematik vertieft wird, so weit wie möglich hier mitbehandeln. Im Zentrum steht aber die Theorie von linearen Strukturen (was das ist, werden wir später genauer erklären). Die LGS sind dabei so wichtig, da sie der Anlass für die Entwicklung dieser Strukturen sind, mit denen wir mehr über LGS erfahren. Eine solche Situation wird im Folgenden mit ALGS (Anwendung auf LGS) gekennzeichnet. Darüber hinaus werden wir aber auch sehen, dass sich „abstraktere“ Fragestellungen auf solche über LGS zurückführen lassen. Eine solche Situation wird im Folgenden mit RLGS (Rückführung auf LGS) gekennzeichnet. Das erste Ziel ist also ein Zugang zur Gesamtheit aller Lösungen eines allgemeinen LGS. Die gegebenen Faktoren (die Koeffizienten) und die Unbekannten sollen dabei reelle Zahlen sein. Die Menge der reellen Zahlen wird (wie immer) mit R bezeichnet und in der Analysis detailliert eingeführt. Von den Eigenschaften, die R bezüglich • • • •

Addition „ + “ : a + b , Multiplikation „ · “ : a · b Ordnung: a ≤ b , Abstandsmessung: |a − b| ,

bzw. kurz ab ,

wobei a, b ∈ R, hat, werden im Folgenden nur die bezüglich + und · (siehe Anhang B.1 zur Erinnerung) benötigt. Dies erlaubt später die folgenden Überlegungen zu verallgemeinern (zu LGS in Körpern). Wir diskutieren jetzt den Allgemeinfall eines LGS, wobei wir besonders darauf achten müssen, welche Spezialfälle und Ausnahmen auftreten können:

Spezialfall 1: Eine Gleichung Eine lineare Gleichung ist eine Gleichung der Art a 1 x1 + a 2 x2 + . . . + a n xn = b ,

(1.1)

6

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

wobei a1 , a2 , . . . , an , b gegebene reelle Zahlen sind, und die reellen Zahlen x1 , x2 , . . . , xn unbekannt und gesucht sind. Die geometrische Interpretation als Gerade, Ebene, Raum, usw. werden wir später besprechen. Wir müssen verschiedene Fälle unterscheiden: A: Nicht alle Koeffizienten a1 , . . . , an sind 0. Dann sei etwa am , 1 ≤ m ≤ n, der erste von 0 verschiedene Koeffizient. Die Gleichung sieht so aus: 0x1 + . . . + 0xm−1 + am xm + am+1 xm+1 + . . . + an xn = b . Wir können also x1 , . . . , xm−1 beliebig wählen, denn auf die Gültigkeit der Gleichung hat dies keinen Einfluss. Ebenso können wir xm+1 , . . . , xn beliebig wählen. Anschließend setzen wir xm := (b − am+1 xm+1 − . . . − an xn )/am .5

(1.2)

Damit haben wir für jede Wahl der x1 , . . . , xm−1 , xm+1 , . . . , xn die Gleichung gelöst. Dies ist auf diese Weise nur möglich, da am , 0. Wir sagen: Die Menge aller Lösungen von (1.1) hat n − 1 Freiheitsgrade (diesen Begriff werden wir später präzisieren). B: Alle Koeffizienten a1 , . . . , an sind 0, aber es ist b , 0. Das Gleichungssystem hat dann die merkwürdige Form 0x1 + . . . + 0xn = b.

(1.3)

Egal, wie man auch die Unbekannten x1 , . . . , xn wählt, ist diese Gleichung nie zu erfüllen. Sie ist unlösbar. C: Alle Koeffizienten a1 , . . . , an sind 0 und auch b = 0. In diesem reichlich uninteressanten Fall ist die Gleichung stets erfüllt, sie stellt keinerlei Bedingungen an die Unbekannten: 0x1 + . . . + 0xn = 0 .

(1.4)

Ein lineares Gleichungssystem ist allgemein ein System a1,1 x1 + a1,2 x2 + · · · + a1,n xn = a2,1 x1 + a2,2 x2 + · · · + a2,n xn = .. .. .. . . . am,1 x1 + am,2 x2 + · · · + am,n xn =

b1 b2 .. . bm

aus mehreren linearen Gleichungen. Hierbei sind die Koeffizienten a j,k ∈ R, j = 1, . . . , m, k = 1, . . . , n gegeben und die Unbekannten xk , k = 1, . . . , n gesucht. Ein solches Gleichungssystem lässt sich kürzer schreiben als

5

Mit := wird keine Identität, die richtig oder falsch sein kann, bezeichnet, sondern eine Definition, insbesondere bei Einführung eines neuen Symbols (siehe Anhang A.1).

1.1 Lineare Gleichungssysteme

7

aµ,1 x1 + aµ,2 x2 + . . . + aµ,n xn = bµ

für alle µ = 1, . . . , m ,

(µ-te Zeile des Gleichungssystems) oder kürzer µ = 1, . . . , m ,

aµ,1 x1 + aµ,2 x2 + . . . + aµ,n xn = bµ , und schließlich mit der Notation (siehe Anhang B.2) Kurzform: n P

ν=1

aµ,ν xν = bµ

Pn

ν=1 cν

= c1 + . . . + cn für cν ∈ R in

für alle µ = 1, . . . , m .

(LG)

Genaueres zum Umgang mit indizierten (reellen) Größen, Summen (und Produkten) findet sich im Anhang B.2. Aus mnemotechnischen Gründen wird auch bei den Indizes im Folgenden eine gewisse Einheitlichkeit gewahrt, mit regelmäßigen Wechseln, um die Inhalte nicht nur in einer Notation zu verstehen: „Laufindizes“ in Summen werden etwa mit i, j, k oder alternativ mit kleinen griechischen Buchstaben wie µ, ν bezeichnet. Definition 1.1 Das System (LG) heißt ein lineares Gleichungssystem (kurz: LGS) mit n Unbekannten xk und m Gleichungen. Die Elemente a j,k heißen die Koeffizienten, und die Elemente b j rechte Seiten. Das System heißt homogen, wenn b j = 0 für alle j = 1, 2, . . . , m gilt; sonst heißt es inhomogen. Die stets existierende Lösung x1 = x2 = · · · = xn = 0 des homogenen Systems heißt triviale 6 Lösung. Die Zahlen x1 , . . . , xn mit xk ∈ R, k = 1, . . . , n (etwa eine Lösung von (LG)), fassen wir zusammen zu    x1    x :=  ...  = (xν )ν=1,...,n = (xν )ν (1.5)   xn

und nennen x ein n-Tupel (über R) . Alle n-Tupel zusammen bilden den Zahlenraum Rn . xν ∈ R heißt ν-te Komponente von x. Es handelt sich dabei also um eine geordnete Menge (n = 2: Paare, n = 3: Tripel, . . .) von Elementen aus R×. . .×R (n-mal) (siehe Anhang A.4), statt in der Form   x1 , . . . , xn , das heißt als Zeile

6 „trivial“ bedeutet in der Mathematik im weitesten Sinn „einfach“, bei einer Aussage („Diese Aussage ist trivial“) also durch einfache Überlegungen einsehbar. Da dies offensichtlich kontextabhängig ist, sollte man als ernsthafte(r) Leser(in) sich immer darüber Rechenschaft ablegen, dass man diese Überlegungen nachvollzogen hat. Unter dem „Trivium“ verstand man im Mittelalter die ersten drei der sieben freien Künste (Grammatik, Rhetorik und Dialektik), im Gegensatz zum „Quadrivium“ (Arithmetik, Geometrie, Musik und Astronomie).

8

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

in der Form (1.5) (als Spalte ) geschrieben. Wir haben zur besseren Unterscheidung von Zahlentupeln (egal ob als Zeilen oder Spalten) und Zahlen begonnen, die ersteren im Fettdruck darzustellen. Wir suchen folglich alle x = (xν )ν ∈ Rn , die (LG) erfüllen. Dazu führen wir die folgende formale Schreibweise ein: Definition 1.2 Die Koeffizientenmatrix des Gleichungssystems ist das rechteckige Zahlenschema    a1,1 a1,2 · · · a1,n   a   2,1 a2,2 · · · a2,n  A :=  . .. ..  .  .. . .   am,1 am,2 · · · am,n

(1.6)

Wenn wir hieran die rechten Seiten der Gleichungen anfügen    a1,1 a1,2 · · · a1,n b1    a  2,1 a2,2 · · · a2,n b2  , (A, b) :=  . . . . .. .. ..   ..   am,1 am,2 · · · am,n bm

so nennen wir dies erweiterte Koeffizientenmatrix. aµ,1 , . . . , aµ,n heißt die µ-te Zeile von A (µ = 1, . . . , m) und wird als n-Tupel mit a(µ) abgekürzt. a1,ν , . . . , am,ν heißt die ν-te Spalte von A (ν = 1, . . . , n) und wird als m-Tupel mit a(ν) abgekürzt. Damit können wir das LGS – vorerst als rein symbolische Abkürzung – schreiben als: Ax = b .

(1.7)

Die µ-te Zeile von A gibt somit die Koeffizienten der µ-ten Gleichung an. Die ν-te Spalte gibt über alle Gleichungen die Koeffizienten der Unbekannten xν an. Analog kann man auch von den Zeilen und Spalten von (A, b) sprechen. Bei den Spalten kommt also noch als (n + 1)-te Spalte    b1    b :=  ...  = (bµ )µ ,   bm

also die rechte Seite des Gleichungssystems hinzu.

1.1 Lineare Gleichungssysteme

9

Beispiel 4(1) – Input-Output-Analyse In diesem Beispiel, das sich wie seine Vorgänger durch das gesamte Buch ziehen wird, soll als Anwendung aus den Wirtschaftswissenschaften die Input-Output-Analyse angesprochen werden, für deren Entwicklung W. Leontief7 1973 der Nobelpreis für Wirtschaftswissenschaften verliehen worden ist. In der Terminologie orientieren wir uns im Folgenden an Schumann 1968. Wir beginnen, wie auch in den Beispielen 2 und 3, mit statischen Modellen, in denen die Zeit nicht explizit auftritt. Wir können uns dazu eine gewisse Wirtschaftsperiode vorstellen, in der sich die betrachteten Größen nicht ändern bzw. Mittelwerte darstellen. Eine Volkswirtschaft wird unterteilt in n Sektoren oder Industrien, die Güter herstellen und damit eine exogene (äußere) Nachfrage befriedigen. Diese Endnachfrage kann durch private Haushalte (für Konsum oder Investition), den Staat oder auch durch Exporte stattfinden und wird zunächst zu einer Größe F zusammengefasst. Es gibt auch eine endogene (innere) Nachfrage, insofern der Sektor i zur Herstellung seines Produkts einen Teil selbst verbraucht (z. B. Energiewirtschaft) und Zulieferung aus anderen Sektoren braucht. Man spricht hier von laufenden Inputs. Im zuerst zu besprechenden (statischen) offenen Input-Output-Modell werden weitere Rückkopplungen der Endnachfragen wie der Zurverfügungstellung von Arbeit und Kapital durch die privaten Haushalte nicht berücksichtigt (primäre Inputs ). Eine wesentliche erste Frage ist: Welchen Output müssen n Industrien produzieren, um eine vorgegebene Nachfrage zu erfüllen? Ausgangspunkt dafür kann eine Bestandsaufnahme in Form einer InputOutput-Tabelle sein, wie sie in Tabelle 1.1 schematisch angegeben ist. Dabei sind alle Größen in (fiktiven)

belieferte Industrie Endnachfrage Summe 1, . . . , j, . . . , n liefernde Industrie 1 .. . i .. . n

X1,1 . . . Xi, j . . . X1,n

F1

X1

Xi,1 . . . Xi, j . . . Xi,n

Fi

Xi

Xn,1 . . . Xn, j . . . Xn,n

Fn

Xn

Tabelle 1.1: Input-Output-Tabelle. Mengeneinheiten zu verstehen. Xi bezeichnet die Gesamtproduktion des Sektors i, Fi die Endnachfrage nach Produkten des Sektors i und Xi, j den Fluss von Produkten des Sektors i in den Sektor j als laufenden Input. Es gilt folglich für alle i = 1, . . . , n: n X

Xi, j + Fi = Xi .

(MM.5)

j=1

Alle Größen Xi, j , Fi , Xi , i, j = 1, . . . , n sind nicht negativ. Wesentlich für das Folgende ist die Grundannahme, dass unabhängig von den aktuellen Größen Xi, j und X j eine Proportionalität zwischen ihnen in der Form Xi, j = ai, j X j

für i, j = 1, . . . , n

(MM.6)

mit Proportionalitätsfaktoren ai, j ≥ 0, den Leontief-Koeffizienten, besteht. Ein Mehr an Output des Sektors j braucht also ein Mehr in fester Proportion des jeweiligen laufenden Inputs, wobei eine Unabhängigkeit in Form von ai, j = 0 zugelassen ist. 7

Wassily Leontief ∗5. August 1905 in München †5. Februar 1999 in New York

10

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums Schreibt man (MM.5) mittels (MM.6) zu Xi −

n X

ai, j X j = Fi

für i, j = 1, . . . , n

j=1

um, sieht man, dass es sich dabei um ein LGS Bx = f handelt, wobei   1 − a 1,1    .  ..    . B :=  ..    .  ..     −an,1

−a1,2 ..

···

. 1 − ai,i

···

···

  · · · −a1,n    ..  .    ..  .  ,   . .. ..  .     · · · 1 − an,n 

     X1       .  x :=  ..  ,        X  n

    F1       .  f :=  ..  .       F  n

Um die gegebenen Daten der Input-Output-Tabelle zu erfüllen, muss natürlich ai, j = Xi, j /X j gelten. Die obige Grundannahme macht aber dieses ai, j allgemeingültig, d. h. auch für andere Endnachfragen f und sich dazu ergebende Outputs x. Die oben gestellte Frage lautet also: Was ist der Output x für eine gegebene beliebige Nachfrage f , so dass Bx = f

(MM.7)

erfüllt ist? Dabei ist f ∈ Rn , f ≥ 0 in dem Sinn fi ≥ 0

für alle i = 1, . . . , n

und ebenso wird x≥0 erwartet. Wenn solche Lösungen immer existieren, heißt das Input-Output-Modell zulässig. Anders als in den Beispielen 2 und 3 wird also nicht nur zu beliebigen rechten Seiten eine Lösung gesucht, sondern zu f ≥ 0 eine Lösung x ≥ 0. Dies braucht spezielle Eigenschaften der Matrix B. Diese werden in voller Allgemeinheit schließlich in Abschnitt 8.5 untersucht werden. Augenfällige Eigenschaften von B sind: bi, j ≤ 0

für i, j = 1, . . . , n, i , j .

(MM.8)

Auch kann angenommen werden, dass bi,i > 0

für i = 1, . . . , n ,

(MM.9)

denn sonst würde ein Sektor schon mindestens seine ganze Produktion als laufenden Input benötigen. Dass diese Eigenschaften nicht für die Zulässigkeit reichen, zeigt das kleine Beispiel (Übung)

1.1 Lineare Gleichungssysteme

11 B=

!

1 −1 . −2 1

Wenn das Problem (MM.7) aus einer Input-Output-Tabelle herrührt, heißt das, dass für mindestens ein f ≥ 0 eine Lösung x ≥ 0 existiert, von der wir x>0 annehmen können. Dabei bedeutet für x ∈ Rn : x > 0 ⇔ xi > 0

für alle i = 1, . . . , n .

Später werden wir sehen (in Abschnitt 8.5), dass dies äquivalent zur Zulässigkeit des Input-OutputModells ist, wenn noch eine Zusatzbedingung wie z. B. f > 0 gilt. Sei A := (ai, j ) ∈ R(n,n) , dann gibt also die j-te Spalte die für eine erzeugte Einheit des Sektors j nötigen laufenden Inputs der Sektoren i, i = 1, . . . , n, an. Werden alle Sektoren in der gleichen (Mengen-)Einheit gemessen, bedeutet also n X

ai, j < 1 ,

(MM.10)

i=1

dass der Sektor j keinen „Verlust“ erleidet. Später werden wir sehen, dass die Gültigkeit von (MM.10) hinreichend für die Zulässigkeit des Input-Output-Modells ist. ^

Wir kehren zurück zur Betrachtung von Spezialfällen eines allgemeinen LGS. Den Fall m = 1, n ∈ N (d. h. eine Gleichung) haben wir schon in (1.2)–(1.4) behandelt. Für beliebige m gibt es einen Spezialfall, in welchem auch kein Gleichungssystem im eigentlichen Sinn auftritt:

Spezialfall 2: Das Diagonalsystem   a1,1   0   ..  . A =  .  .  .  ..  .  0

0 .. .

··· ar,r

···

···

 · · · · · · 0  ..  .  ..  .   ..  . .  0  .  .. . ..   ··· 0

(1.8)

Also existieren ein r ∈ {1, . . . , min(m, n)}, so dass aµ,µ , 0 für µ = 1, . . . , r, aber alle anderen aµ,ν verschwinden (d. h. aµ,ν = 0 für µ = 1, . . . , m, ν = 1 . . . , n mit µ , ν oder µ = ν > r). Eine Koeffizientenmatrix wie (1.8), bei der höchstens aµ,ν , 0, wenn µ = ν, heißt Diagonalmatrix . Immer wenn r < m gilt (also immer bei n < m) treten Nullzeilen in A auf (das sind Zeilen a(µ) = (0, . . . , 0)). Nach (1.3), (1.4) ist das System unlösbar, falls bµ , 0 für eine solche

12

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Nullzeile, sonst haben die Nullzeilen keine Aussage. Die Zeilen µ = 1, . . . , r legen xµ fest durch xµ := bµ /aµ,µ , µ = 1, . . . , r . Die weiteren xr+1 , . . . , xn sind frei wählbar (falls nicht der unlösbare Fall vorliegt), d. h. es gibt n − r Freiheitsgrade in der Lösungsmenge. Da hier gar keine Kopplungen zwischen den Unbekannten vorliegen, handelt es sich um kein „richtiges“ System. Das ist ebenso der Fall bei folgendem Spezialfall, bei dem auch die Lösungsmenge explizit angegeben werden kann und der den Spezialfall 2 verallgemeinert:

Spezialfall 3: Das Staffelsystem   a1,1 · · · · · · · · · a1,n   ..  ..  0 . .    .  . A =  .. a · · · a  r,r r,n   ..   .. .   . 0 ··· ··· ··· 0

(1.9)

Also existiere ein r ∈ {1, . . . min(m, n)}, so dass

• aµ,µ , 0 für µ = 1, . . . r, • das untere Dreieck der Matrix verschwindet, d. h. aµ,ν = 0 für µ > ν, wobei µ = 1, . . . , m, ν = 1, . . . , n, • ab der (r + 1)-ten Zeile (falls es sie gibt) verschwinden die ganzen Zeilen, d. h. aµ,ν = 0 für µ = r + 1, . . . , m, ν = 1, . . . , n.

Eine Koeffizientenmatrix wie (1.9) ist eine spezielle obere Dreiecksmatrix . Wieder entscheiden im Fall r < m die bµ für µ = r + 1, . . . , m darüber, ob das System lösbar ist oder nicht. Im lösbaren Fall sind die letzten m − r Zeilen aussagelos und, sofern r < n, die Lösungskomponenten xr+1 , . . . , xn frei wählbar. Dann ist die r-te Zeile nach xr auflösbar (da ar,r , 0):   n X  1  xr = ar,ν xν  . (1.10) br − ar,r ν=r+1 Bei r = n reduziert sich die Beziehung auf

xr =

1 br . ar,r

Mit bekanntem xr kann dann xr−1 aus der (r − 1)-ten Zeile bestimmt werden etc. Diesen Prozess nennt man Rückwärtssubstitution .

1.1 Lineare Gleichungssysteme

1 xµ := aµ,µ Dabei ist

13

  n X   bµ − aµ,ν · xν   ν=µ+1

n X

für µ = r, r − 1, . . . , 1 .

(1.11)

( ) := 0

ν=n+1

(oder allgemeiner jede Summe über einem leeren Indexbereich). Dies tritt für r = n, d. h. den Fall ohne Freiheitsgrade, für µ = r auf. Bei einigen Unterfällen lässt sich Genaueres über die Lösungsmenge sagen: Spezialfall 3a: Wenn r = n (und notwendigerweise m ≥ n), sowie bµ = 0 ist für µ > n, dann ist das System lösbar. Aber keine der Unbekannten ist frei wählbar. Die Lösung ist eindeutig bestimmt. Spezialfall 3b: Wenn m > r ist und ein bµ , 0 für µ > r, so ist das System unlösbar. Was nützen die besprochenen Fälle im Allgemeinen? Solange man dabei die Lösungsmenge nicht verändert, kann man versuchen, allgemeine LGS auf obige Formen umzuformen. Offensichtlich zulässig als Umformung ist die Vertauschung zweier Zeilen im Gleichungssystem. Dies entspricht der Vertauschung zweier Zeilen in der erweiterten Koeffizientenmatrix (A, b). Es ist etwas umständlich, alle LGS zu beschreiben, die sich auf diese Weise auf (1.9) transformieren lassen. Dies muss auch nicht wirklich durchgeführt werden, es genügt, wenn die Nichtnullzeilen in der Reihenfolge, die entstehen würde, in (1.11) durchlaufen werden. Eine weitere Umformung ist die Umnummerierung der Komponenten der Lösungstupel (die am Schluss wieder rückgängig gemacht werden muss!). Diese entspricht der Vertauschung zweier Spalten der Koeffizientenmatrix A. Der folgende allgemeine Fall kann durch Spaltenvertauschung auf den Fall (1.9) zurückgeführt werden.

Spezialfall 4: Die Zeilenstufenform Die Koeffizientenmatrix hat eine Art zerpflückte Staffelform:

14

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums n0

n

n

1 r z }| { z}|{ z}|{    0 · · · 0 # ∗ · · · ∗ ∗ · · · ∗ ∗ · · · ∗    ..   . 0 0 · · · 0 # · · · ∗ ∗ · · · ∗    ..   .   .  . . .   .. .. .. 0 · · · 0 # ∗ · · · ∗     .. .. .. .. ..   . 0 0 · · · 0 . . . .     0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0

(1.12)

Dabei bezeichnet „ # “ Koeffizienten ungleich 0 und „ ∗ “ beliebige Koeffizienten. Die Stufenlängen n0 , n1 , . . . , nr können eventuell auch 0 sein, und r mit 1 ≤ r ≤ min(m, n), die Anzahl der Stufen, kann mit der Gesamtzahl m aller Zeilen übereinstimmen, sodass also keine Nullzeilen am unteren Ende der Matrix auftreten. Ein Staffelsystem nach (1.9) ist also der Spezialfall von (1.12), der sich für n0 = n1 = . . . = nr−1 = 0 ,

nr = n − r

ergibt. Andererseits kann die Form (1.12) in die Form (1.9) gebracht werden, indem die (n0 + 1)-te Spalte, die (n0 + 1 + n1 + 1)-te Spalte usw., also die, in denen sich die mit „ # “ gekennzeichneten, von Null verschiedenen Koeffizienten befinden, auf die erste, zweite usw. Position getauscht werden. Für µ = 1, . . . , m definieren wir den Index j(µ) durch ( min{ν ∈ {1, . . . , n} : aµ,ν , 0} , falls µ ≤ r , j(µ) := n+1, falls µ>r. Für µ = 1, . . . , r ist also aµ,ν = 0 ,

wenn ν ≤ j(µ) − 1 ,

aµ, j(µ) , 0 sowie

j(1) < j(2) < . . . < j(r) .

Die j(µ)-te Spalte wird auch (µ-te) Pivotspalte genannt. Sie ist also dadurch gekennzeichnet, dass auf der j(µ)-ten Position ein Element # steht, das sicher ungleich 0 ist, das Pivotelement , und auf den Positionen k > j(µ) nur Nullen. Die Stufenlängen sind n0 = j(1) − 1 ,

ni = j(i + 1) − j(i) − 1

für i = 1, . . . , r .

Falls br+1 = . . . = bm = 0, ist das System lösbar, und auch hier lässt sich die Lösungsgesamtheit angeben: Wir beginnen in der r-ten Zeile mit der r-ten Unbekannten. Entsprechend der Länge nr der letzten Stufe sind die nr Unbekannten xn , . . . , x j(r)+1 frei wählbar. Zur Verdeutlichung nennen wir diese frei wählbaren Komponenten des Lösungsvektors Parameter und bezeichnen sie mit λν : xn

:= .. .

λn

x j(r)+1 := λ j(r)+1

λν ∈ R .

1.1 Lineare Gleichungssysteme

15

Es steht jedoch bei x j(r) ein Koeffizient #, der ungleich 0 ist. Deswegen ist diese Unbekannte durch die r-te Zeile des Gleichungssystems und durch die bereits gewählten Parameter eindeutig bestimmt. Weiter sind die Parameter x j(r)−1 := λ j(r)−1 .. . x j(r−1)+1 := λ j(r−1)+1

λν ∈ R

frei wählbar. Und x j(r−1) ist wieder durch die r − 1-te Zeile des Gleichungssystems und die bisher gewählten Parameter eindeutig bestimmt. Dieses Verfahren kann man iterieren, so dass man somit nach r Schritten eine Darstellung aller Lösungen mit Parametern (λ1 ) , . . . , λ j(1)−1 , λ j(1)+1 , . . . , λ j(r)−1 , λ j(r)+1 , . . . , (λn ) , also mit n = n − r vielen Parametern bekommt (Die Klammern deuten an, dass diese Elemente eventuell nicht zu den Parametern gehören). Daher gilt für den Spezialfall 4 (und damit für alle): Anzahl der Freiheitsgrade + Stufenanzahl = n . Diese Formel (wobei r eine von der Darstellung (1.12) unabhängige Bedeutung gegeben werden muss) wird später allgemein exakt nachgewiesen (siehe unten: Abschnitt 1.4.2). Kombiniert man Zeilen- und Spaltenvertauschungen, ergeben sich weitere Fälle. Als Beispiel sei der Fall der unteren Dreiecksmatrix genannt:   a1,1 0 · · · · · · 0   .. . . . . ..   . . . .    . . . .  . . . . ..  A =  ..    ..  ..  . . 0    an,1 · · · · · · · · · an,n

mit aµ,µ , 0 für µ = 1, . . . , n. Hier wird aus der Rückwärts- eine Vorwärtssubstitution : 1 xµ := aµ,µ wobei die Lösung eindeutig ist.

  µ−1 X   bµ − aµ,ν xν  

für µ = 1, . . . , n ,

(1.13)

ν=1

1.1.2 Die Eliminationsverfahren von Gauss und Gauss-Jordan Schließlich kann man ein allgemeines LGS durch weitere Umformungen in die Form (1.12) bzw. (1.9) bringen. Diese sind:

16

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.3 Unter einer elementaren Umformung (Gauss8 -Schritt) eines linearen Gleichungssystems mit erweiterter Koeffizientenmatrix (A, b) versteht man eine der folgenden Operationen: Die Zeilenumformungen (I) Zwei Zeilen von (A, b) werden vertauscht: Z j ↔ Zk .

(II) Multiplikation einer Zeile von (A, b) mit einer Zahl c , 0: c Z j → Z j . Darunter versteht man die Multiplikation jeder Komponente mit c. (III) Zu einer Zeile von (A, b) wird das Vielfache einer anderen Zeile addiert: Z j + c Zk → Z j für j , k . Darunter versteht man die Multiplikation jeder Komponente von Zk mit c und dann die Addition zu der jeweiligen Komponente von Z j . (IV) Zwei Spalten von (A) werden vertauscht. Dadurch ändert sich die Nummerierung der Unbekannten. Es ist dabei zu überprüfen, dass die Lösungsmenge dadurch nicht verändert wird. Es gilt:

Satz 1.4: LGS und Elementarumformung Die Lösungsmenge eines linearen Gleichungssystems wird durch elementare Umformungen (I)–(III) nicht verändert, bei (IV) werden die Lösungskomponenten umnummeriert. Jede elementare Umformung kann durch eine solche gleichen Typs umgekehrt werden.

Beweis: Dies ist klar bei Umformungen vom Typ (I) bzw. (IV) oder (II). (I) bzw. (IV) sind ihre eigenen Umkehrungen. Bei (II) mit dem Faktor c erfolgt die Umkehrung durch (II) mit dem Faktor 1c . Zu zeigen ist die Aussage für Gauss-Schritte vom Typ (III). Es gelte Zl + c Zi → Zl . Ist (p1 , p2 , . . . , pn ) eine Lösung von (LG) vor der Umformung, so gilt insbesondere n X k=1

ai,k pk = bi ,

n X

al,k pk = bl .

k=1

Daraus folgt mit den Rechenregeln in R (insbesondere Distributivgesetze):

8

Johann Carl Friedrich Gauß ∗30. April 1777 in Braunschweig †23. Februar 1855 in Göttingen

(1.14)

1.1 Lineare Gleichungssysteme n X

17

ai,k pk = bi ,

k=1

n X

(al,k + cai,k )pk = bl + cbi .

(1.15)

k=1

Das heißt, (p1 , p2 , . . . , pn ) ist auch eine Lösung des transformierten Systems. Sei nun umgekehrt (p1 , p2 , . . . , pn ) eine Lösung des transformierten Systems, so gelangt man durch den Schritt Zl − cZi → Zl mit demselben c wieder von (1.15) zurück zum Ausgangssystem (1.14). Man erkennt, dass (p1 , p2 , . . . , pn ) auch eine Lösung des Ausgangssystems ist.  Jedes LGS kann man mit einem Eliminationsverfahren behandeln, so, wie wir es an dem obigen einfachen Beispiel 1(1) gesehen haben. Wir beschreiben diese Elimination jetzt in einer etwas formaleren Weise, um die Übersicht nicht zu verlieren. Wenn alle Koeffizienten a1,1 , . . . , am,1 in der ersten Spalte 0 sind, stellt das System keine Bedingung an die Unbekannte x1 . Die Komponente x1 ∈ R kann also beliebig gewählt werden und die Frage nach der Auflösung, d. h. der Lösbarkeit und der Lösungsmenge des LGS neu gestellt werden für das modifizierte LGS A x˜ = b, bestehend aus m Zeilen und n − 1 Spalten, wobei A aus A durch Streichen der ersten Spalte entsteht und x˜ die Komponenten x2 , . . . , xn hat. Ist dieses LGS lösbar, so ergibt sich die Lösungsmenge des Ausgangs-LGS, indem x1 ∈ R beliebig hinzugenommen wird. Ist es nicht lösbar, ist auch das Ausgangssystem nicht lösbar. Ist aber einer der Koeffizienten a1,1 , . . . , am,1 aus der ersten Spalte ungleich 0, so sei etwa a p,1 einer davon. Wir vertauschen die erste und die p-te Zeile (Umformung (I)). Dabei ändern sich die Lösungen des Systems nicht. Aber danach haben wir a1,1 , 0, das dann Pivotelement heißt. Deswegen können wir die erste Zeile durch a1,1 dividieren (Umformung (II)), wieder ändern sich die Lösungen nicht und das Pivotelement verändert sich zu 1. Eine Spalte, in der ein Pivotelement auftritt, heißt auch Pivotspalte . Dann sieht die erste Zeile folgendermaßen aus: x1 +

a1,n xn a1,2 b1 x2 + . . . + = . a1,1 a1,1 a1,1

Wir eliminieren nun x1 , allerdings ohne die Eliminationsgleichung explizit hinzuzuschreiben, aus den restlichen Gleichungen, indem wir von der zweiten, . . . , m-ten Zeile a2,1 -mal, . . . , am,1 -mal die erste Zeile subtrahieren (Umformung (III)). Dadurch ändern sich auch hier die Lösungen nicht, und unser Gleichungssystem nimmt die Form x1 + a′1,2 x2 + · · · + a′1,n xn = a′2,2 x2 + · · · + a′2,n xn = .. .. . . a′m,2 x2 + · · · + a′m,n xn =

b′1 b′2 .. . b′m

an, mit neuen Koeffizienten a′1,2 , . . . , a′m,n und neuen rechten Seiten b′1 , . . . , b′m . Jetzt kommt es nur noch darauf an, die letzten m − 1 Gleichungen aufzulösen. Gelingt dies, so setzen wir deren Lösungen x2 , . . . , xn in die erste Gleichung ein und berechnen daraus x1 . Die Lösung der letzten m − 1 Gleichungen geschieht dadurch, dass die obigen Überlegungen auf das reduzierte LGS Aˆ x˜ = bˆ angewendet werden, bestehend aus m − 1 Zeilen und n − 1

18

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Spalten, wobei a′j+1,k+1 der j, k-te Eintrag von Aˆ und b′j+1 der j-te Eintrag von bˆ ist. Durch diese sukzessive Wiederholung eines Gauss- oder Eliminationsschrittes können wir das Gleichungssystem mit Umformungen der Gleichungen, die genau den elementaren Zeilenumformungen (I), (II), (III) aus Definition 1.3 entsprechen, auf den Spezialfall 4 bzw. wenn wir auch Umformungen (IV) anwenden, sogar auf den Spezialfall 3, zurückführen, wofür Lösbarkeit und Bestimmung der Lösungsmenge geklärt sind. Anschaulich gesprochen können wir mit den elementaren Zeilenumformungen, links beginnend, die Einträge einer Spalte, eine Spalte nach der anderen ab einer gewissen Position eliminieren. Dabei betrachten wir ein immer weiter reduziertes LGS, so dass sich aus dessen Lösungsmenge xk , . . . , xn direkt die weiteren Lösungskomponenten ergeben. Das aktuelle Restsystem wird wie folgt behandelt: • Sind alle Koeffizienten in der ersten Spalte 0, so ändern wir nichts, sondern reduzieren durch Streichen der ersten Spalte. • Sind Koeffizienten in der Spalte ungleich 0, davon einer etwa in der p-ten Zeile (am „stabilsten“ ist es, den betragsgrößten als Pivotelement zu wählen), so vertauschen wir diese p-te Zeile mit der ersten (Umformung vom Typ I). Anschließend multiplizieren wir die erste Zeile, wenn wir wollen, mit dem Kehrwert dieses Koeffizienten durch (Typ II), um zu erreichen, dass in dieser ersten Zeile der erste Koeffizient 1 ist. Schließlich addieren wir ein geeignetes Vielfaches der ersten Zeile zu jeder der folgenden Zeilen (Typ III), um dort den Koeffizienten aus der ersten Spalte zu beseitigen. • Dann reduzieren wir das System durch Streichen der ersten Zeile und Spalte.

Das Verfahren heißt Gausssches Eliminationsverfahren (kurz: Gauss-Verfahren ).

Dieses Verfahren lässt sich also elegant (aber nicht unbedingt effizient) als rekursive Prozedur formulieren (hier ohne Transformation der Pivotelemente auf 1). Dazu nutzen wir, dass eine Matrix mit ihren Zeilen geschrieben werden kann als

bzw. mit ihren Spalten als

   a(1)    A =  ...    a(m)   A = a(1) , . . . , a(n) .

Wenn wir aus einer Matrix (durch Streichen von Zeilen oder Spalten) eine neue Matrix erhalten, so hat diese ihre eigene, mit jeweils 1 beginnende Indizierung. Die Prozedur hat als Eingabegrößen die Matrix A, die rechte Seite b, die Zeilenzahl m, die Spaltenanzahl n und als Ausgabegrößen die Matrix in Zeilenstufenform R und die umgeformte rechte Seite d. Eine Spalte, die nur aus Komponenten 0 besteht, wird kurz auch mit 0 bezeichnet.

1.1 Lineare Gleichungssysteme

19

[R, d] := gauss (A, b, m, n) falls a(1) = 0

(falls erste Spalte von A nur Nulleinträge besitzt)

falls n = 1 R := A(= 0), return9

d := b

sonst A := (a(2) , . . . , a(n) ) h i   R, d := gauss A, b, m, n − 1

sonst

  R := 0 R return

falls m = 1

(also A nur aus einer Zeile besteht)

R := A (= a(1) ) , return

d := b (= b1 )

sonst führe folgenden Eliminationsschritt aus:     (A, b) =   

a1,1 a1,2 a2,1 a2,2 .. . am,1 am,2

  a′ a′ . . . a′ b′  . . . a1,n b1   1,1 1,2 1,n 1   10  0 a′ . . . a′ b′   . . . a2,n b2    a′(1) b′1   2,2 2,n 2    .. .. .. .. ..  =:   −→  .. e b˜  0 A   . . . . . .    . . . am,n bm 0 a′m,2 . . . a′m,n b′m

e nicht auftritt bzw. A nur aus einer Spalte besteht) falls n = 1 (also A  ′   ′   a1,1   b1   0      R :=  .  , d :=  ...   ..      b′m 0 return

sonst h i   ˜ m − 1, n − 1 e d˜ := gauss A, e b, R,  ′   a(1)  R :=  e  , 0 R return

9

 ′  b1  d :=  ˜  d

Mit „return“ wird symbolisch die Beendigung der Prozedur gekennzeichnet. Die hier intuitiv benutzte Partionierung einer Matrix wird in (1.32) ff. genauer betrachtet.

10

20

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Gleichwertig lässt sich das Verfahren auch nicht-rekursiv auffassen, indem die jeweiligen elementaren Zeilenumformungen nicht auf ein Restsystem, sondern auf die volle erweiterte Koeffizientenmatrix angewendet wird. Es ergibt sich die gleiche Zeilenstufenform, da die Umformungen die „weggelassenen“ Matrixanteile nicht verändern. Dies kann man wie folgt einsehen, wobei wir uns auf Skizzen der jeweiligen Situation beschränken:     0 · · · 0 0 ∗ · · · ∗   0 · · · 0  .  .. .. .. ..  ..  ..   . . . . .     . .. .. ..   ..   ..  . . 0 . .     −→    0 · · · 0 # ∗ · · · ∗  (I)  0 · · · 0  .  . .. ..  ..  ..   .. . ∗ . .     . .. .. .. ..   ..  .. . . .  .  .  0 ··· 0 ∗ ··· ··· ∗ 0 ··· 0

 # ∗ · · · ∗   .. ..  . .  ..  0 .   0 ∗ · · · ∗   ..  ∗ .  .. ..  . .  ∗ ··· ··· ∗

für Vertauschungsschritt in der ersten Pivotspalte. Für die r-te Pivotspalte, r > 1, ist die Situation analog, da die Zeilen 1 bis r − 1 unverändert bleiben.   0 · · · 0 #  . ..  .. . ∗   . .. ..  .. . .  0 ··· 0 ∗

  0 · · · 0  0 0   .. ..  . .  . ..  . .  . 0 ··· 0

  ∗ · · · ∗   0 · · · 0   . ..  ∗ · · · ∗  −→  .. . .. .. ..  (II)  ..  . . . .   ∗ ··· ∗ 0 ··· 0

 1 ∗ · · · ∗    ∗ ∗ · · · ∗  .. .. ..  . . .  ∗ ∗ ··· ∗

  1 ∗ · · · ∗   0 · · · 0 1   0 · · · 0 0 ∗ ∗ · · · ∗     .. .. ..  −→  ..  . ∗ . . ∗ .  (III)    . .. .. .. .. ..  .   . . . . . .    ∗ ∗ ··· ∗ 0 ··· 0 ∗

 ∗ · · · ∗   ∗ · · · ∗  .. ..  . .  .. ..  . .   ∗ ··· ∗

und damit insgesamt für den Eliminationsschritt für die erste Pivotspalte. Für die r-te Pivotspalte, r > 1, ist die Situation analog, da die Zeilen 1 bis r − 1 unverändert bleiben. Fassen wir also die bisher gewonnenen Ergebnisse zusammen: Hauptsatz 1.5: Gausssche Elimination zur Zeilenstufenform Jede Matrix lässt sich durch das Gausssche Eliminationsverfahren mittels elementarer Zeilenumformungen auf eine Zeilenstufenform (1.12) bringen. Bei Anwendung auf eine erweiterte Koeffizientenmatrix (A, b) liefert dies ein LGS in Zeilenstufenform mit gleicher Lösungsmenge. Es kann durch r weitere Schritte (II) erreicht werden, dass die Pivotelemente alle 1 werden.

1.1 Lineare Gleichungssysteme

21

Werden auch Spaltenvertauschungen zugelassen, so kann (bei Umnummerierung der Lösungskomponenten) auch das Staffelsystem (1.9) erreicht werden. Die Stufenanzahl r heißt auch Rang der Koeffizientenmatrix. Kurz spricht man vom Gauss-Verfahren . Wenn die Koeffizientenmatrix z. B. quadratisch ist, und die Zeilenstufenform so aussieht      Z =    

1 z1,2 0 .. .

1

0

· · · z1,n .. .. . . .. . zn−1,n 0

1

b′1 .. . b′n−1 b′n

      ,    

also eindeutige Lösbarkeit vorliegt, kann man die Umformungen noch etwas weiter treiben: Vorletzte Zeile − zn−1,n -mal die letzte Zeile, (n − 2)-te Zeile − zn−2,n -mal die letzte Zeile, .. . erste Zeile

− z1,n -mal die letzte Zeile.

Damit hat man erreicht, dass in der letzten Spalte alle Einträge verschwinden, bis auf den Eintrag 1 in der letzten Zeile. Mit einem analogen Verfahren kann man auch alle Einträge in der vorletzten Spalte auf 0 bringen, bis auf den vorletzten Eintrag, der 1 bleibt. Man muss dazu von jeder Zeile geeignete Vielfache der vorletzten Zeile abziehen. Die erzeugten Nullen der letzten Spalte bleiben dabei erhalten. Wenn man dies von rechts nach links mit allen Spalten macht, hat die erweiterte Koeffizientenmatrix am Ende folgende Gestalt:    1 0 · · · 0 b′′  1     ..  ′′   0 1  . b 2    ..  . ..  .. . . . . . . .  . .     0 · · · 0 1 b′′  n

Damit ist das LGS auf Spezialfall 2 eines Diagonalsystems zurückgeführt worden mit der direkt gegebenen Lösung x1 = b′′1 ,

...,

xn = b′′n .

Dieses Verfahren lässt sich auch auf die allgemeine Situation übertragen. Sei also eine Matrix A ∈ R(m,n) in Zeilenstufenform (1.12) und die dort mit # gekennzeichneten Pivotelemente seien durch weitere elementare Umformungen vom Typ II auf 1 ohne Veränderung der Matrixstruktur transformiert. Das oben beschriebene Vorgehen ist dann, bei der

22

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

letzten Spalte beginnend, jeweils in einer Spalte mit Pivotelement möglich und führt dazu, dass in diesen Spalten über dem Pivotelement nur Nullen stehen. Man beachte dabei, dass das Pivotelement der erste von Null verschiedene Eintrag seiner Zeile ist und so durch die Umformung nur noch Spalten mit höherem Index betroffen sind und Nulleinträge in Pivotspalten mit höherem Spaltenindex (oberhalb von Pivotelementen) nicht verändert werden. Auf diese Weise entsteht der:

Spezialfall 5: Die reduzierte Zeilenstufenform n0

n

n

1 r z }| { z }| { z }| {    0 · · · 0 1 ∗ · · · ∗ 0 · · · 0 ∗ · · · ∗    ..   . 0 0 ··· 0 1 ··· 0    . . . .  . . . . . . . 0 . 1 ∗ · · · ∗  .    .. .. .. .. ..   . . . . . 0 0 · · · 0     0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0

(1.16)

Die Darstellung für die Lösungsmenge des LGS von Spezialfall 4 vereinfacht sich insofern, dass in den Darstellungen nach (1.11) für die nicht frei wählbaren Komponenten x j(r) , x j(r−1) , . . . , x j(1) (zur Notation siehe Spezialfall 4) nur freie Variablen auftreten: x j(µ) = b j(µ) −

n X

a j(µ),ν λν

für µ = 1, . . . , r

(1.17)

ν= j(µ)+1 ν, j(µ+1),..., j(r)

bei frei gewählten λν . Hier spricht man vom Gauss-Jordan-Verfahren11. Satz 1.6: Gauss-Jordan-Verfahren Jede Matrix lässt sich mit dem Gauss-Jordan-Verfahren auf eine reduzierte Zeilenstufenform (1.16) bringen. Bei Anwendung auf eine erweiterte Koeffizientenmatrix (A, b) liefert dies ein LGS mit gleicher Lösungsmenge. Beispiel 3(2) – Massenkette Wir wenden das Gauss-Verfahren auf die beiden in (MM.3) bzw. (MM.4) entwickelten LGS (mit c = 1 zur Vereinfachung der Notation) an, d. h. auf

11

Wilhelm Jordan ∗1. März 1842 in Ellwangen †17. April 1899 in Hannover

1.1 Lineare Gleichungssysteme

23   2 −1 −1 2 −1   .. .. . . A =   ..  . 

0

und auf

  1 −1 −1 2 −1   .. .. . . A =   ..  . 

     ..  .   .. . −1  −1 2

0

(MM.11)



0

   .  ..  . −1  −1 2 ..

0

.

(MM.12)

In den Gleichungen vom zugehörigen LGS werden jeweils wenige, nämlich 2 bzw. 3 Unbekannte miteinander gekoppelt, unabhängig von der Zeilen- und Spaltenanzahl m = n − 1 (n bezeichnet hier also nicht die Spaltenanzahl). In der Matrix ist das dadurch ersichtlich, dass nur auf der Diagonalen (Indizes µ = ν) und den beiden Nebendiagonalen (µ = ν + 1 bzw. µ = ν − 1) von Null verschiedene Einträge stehen: Die Matrix ist tridiagonal . Dennoch sind alle Unbekannten miteinander verknüpft: x1 über Gleichung 1 mit x2 , das über Gleichung 2 mit x3 usw. bis zu xm (A ist irreduzibel : siehe Definition 2.71 und Abschnitt 8.4). Führt man das Gauss-Verfahren aus für (MM.11), so stellt man fest, dass keine Zeilenvertauschung nötig ist, weil das erste Diagonalelement der jeweiligen Restmatrix immer ungleich 0 ist. Es ergibt sich   2 −1  .. ..  . . −1  .. .. A =  . .   . ..  

0



0

   ..  .   .. . −1  −1 2   2   0              

0

  2  0   −→  Typ (III)   1 c = 2    

−1 3 2

−1 2 −1 .. .. . . .. .

−1

0



3 2

0

−1 4 3

−1

−1 2 .. .

−1 .. .

..

.

..

..

.

.

  −→  Typ (III) ..  .  c = 2 3  .. . −1  −1 2

0

−1

−1

      ,      −1  2



0

woraus sich erkennen lässt (Aufgabe 1.7), dass nach m − 1 Schritten die Matrix

24

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums   2       R =       

−1 3 2

..



0 

.

4 3

..

.

..

.

0

..

.

..

.

         −1  m+1

(MM.13)

m

entsteht. Für spätere Verwendung notieren wir noch, dass die Multiplikatoren, d. h. die Faktoren mit denen die k-ten Zeilen multipliziert werden müssen, um die Einträge der (k + 1)-ten Zeilen in den k-ten Spalten zu eliminieren (weitere gibt es nicht), folgende sind: 1 2 m−1 , , ..., . 2 3 m

(MM.14)

Hier sind also alle Stufenlängen 0 und da Spalten- und Zeilenanzahl gleich sind, liegen LGS vor, die für beliebige rechte Seiten eindeutig lösbar sind. Dies kann als eine erste Verifikation einer korrekten Modellierung der oben beschriebenen mechanischen Situation angesehen werden. Solche Matrizen werden später nichtsingulär heißen (siehe unten: Abschnitt 2.3.3). Dass beim Gauss-Verfahren keine Zeilenvertauschungen nötig sind, ist eine weitergehende Eigenschaft. In Abschnitt 2.6 wird sie charakterisiert werden. Betrachten wir die zweite Variante aus Beispiel 3(1), so ergibt sich noch einfacher   1 −1   −1 2  .. A =  .    

0

   ..  .  −→  .. ..  Typ (III) . .   c = 1 .. .. . . −1  −1 2

0

  1  0          

−1 1 −1

−1 2 .. .

  1   −→   Typ (III)   c = 1   

..

.

..

.

..

.

..

..

0 −1 .. .

.. ..

0

.

. −1 

. .



0

..

.

..

.

0

        −1 2

   =: R    −1 1

mit den Multiplikatoren 1, 1, . . . , 1, so dass somit die obigen Bemerkungen unverändert gelten. Modifizieren wir A aber noch einmal zu    1 −1    −1 2 . . .      .. .. .. A =  (MM.15)  , . . .     . . . 2 −1    −1 1

0

0

so entsteht bei der gleichen Umformung eine Nullzeile:

1.1 Lineare Gleichungssysteme

25   1    R =    

 −1   .. ..  . .   . .. ..  . .  1 −1 ........... 0

0

0

Das LGS ist folglich nur für solche rechte Seiten möglich, für die die n-te Komponente nach der Umformung verschwindet (Kompatibilitätsbedingung ). Wegen der speziellen Umformungen (nur Typ (III) mit c = 1) ist

und damit lautet die Lösbarkeitsbedingung:

   b1   b + b  2   1  b′ =  ..    .  Pm  k=1 bk m X

bk = 0 .

(MM.16)

k=1

Ist sie erfüllt, hat die Lösung einen Freiheitsgrad. Für die modellierte mechanische Situation bedeutet dies, dass sich die angreifenden Kräfte aufheben müssen (d. h. nicht nur Gravitationskräfte sein können). Die Modifikation in (MM.15) bedeutet gerade, dass auch die Feder Fn entfernt wird, die Massenkette also „frei schwebend“ wird. ^

Wir schließen mit einigen einfachen allgemeinen Folgerungen aus der bisherigen Analyse.

Lemma 1.7: Mehr Unbekannte als Gleichungen Das homogene lineare Gleichungssystem n X

aµ,ν xν = 0 ,

µ = 1, . . . , m ,

ν=1

habe n Unbekannte und m < n Zeilen. Dann können in den Lösungen (x1 , . . . , xn ) mindestens n − m Parameter frei gewählt werden.

Beweis: Die Anzahl der Stufen in einer Matrix mit n Spalten und m Zeilen ist höchstens m. Wegen n > m gibt es mindestens n − m Spalten, in denen kein Pivotelement steht, und in denen die Unbekannte beliebig gewählt werden kann.  Theorem 1.8: Struktursatz Ist eine spezielle Lösung (y1 , . . . , yn ) des inhomogenen Systems

26

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums n X

aµ,ν xν = bµ ,

µ = 1, . . . , m

ν=1

bekannt, so erhält man daraus alle Lösungen des inhomogenen Systems durch komponentenweise Addition aller Lösungen des zugehörigen homogenen Systems.

Beweis: Nach Annahme ist für µ = 1, . . . , m n X

aµ,ν yν = bµ .

ν=1

Dann folgt für eine beliebige Lösung x wegen n X

aµ,ν xν = bµ

auch

ν=1

n X ν=1

aµ,ν (xν − yν ) = 0 ,

d. h. h = (h1 , . . . , hn ) := (x1 − y1 , . . . , xn − yn ) ist eine Lösung des homogenen Systems.

Bei beliebig, fest gewählter Lösung y ∈ Rn des inhomogenen Systems (sofern eine existiert!), kann somit jede Lösung x ∈ Rn geschrieben werden als (1.18)

x=y+h

und h ist eine Lösung des homogenen Systems (bei komponentenweiser Addition). Hat andererseits x ∈ Rn die Form (1.18), dann ist wegen n X

aµ,ν yν = bµ ,

ν=1

n X

aµ,ν hν = 0,

µ = 1, . . . , m

µ=1

und damit n X

aµ,ν (yν + hν ) = bµ ,

µ = 1, . . . , m

ν=1

auch x Lösung des inhomogenen Systems.



Bemerkungen 1.9 1) Homogene Systeme werden durch elementare Umformungen in homogene Systeme überführt. Der Spezialfall 3b kann also nicht auftreten und damit ist ein homogenes System immer lösbar (auch direkt einsehbar: Es gibt immer die triviale Lösung x = 0 = (0, . . . , 0)). 2) Bei Systemen vom Spezialfall 3a (eindeutiger Typ) hat das homogene System nur die triviale Lösung. 3) Ist (h1 , h2 , . . . , hn ) eine Lösung des homogenen Systems (LG), so ist eine weitere Lösung gegeben durch c · (h1 , h2 , . . . , hn ) := (ch1 , ch2 , . . . , chn ) mit jeder Zahl c ∈ R. Das

1.1 Lineare Gleichungssysteme

27

heißt, hat das homogene System (LG) eine nicht triviale Lösung, so hat es auch unendlich viele Lösungen. Ist darüber hinaus das inhomogene System lösbar, so hat auch dieses unendlich viele Lösungen nach Theorem 1.8. 4) Die Stufenzahl r wurde in Hauptsatz 1.5 als Rang bezeichnet. Dies ist nur sinnvoll, wenn es sich ausschließlich um eine Eigenschaft der Matrix handelt, die nicht durch verschiedene Varianten im Gauss-Verfahren (verschiedene zum Tausch ausgewählte Zeilen) △ beeinflusst ist. Dass dies so ist, wird in Bemerkungen 1.79, 6) bewiesen werden. Es ist noch unklar, • wie der Begriff „Freiheitsgrad“ exakt zu fassen ist (als Dimension eines Vektorraums), • wie direkter die Anzahl der Freiheitsgrade abzulesen ist, • wie direkter die Frage der Lösbarkeit entschieden werden kann.

Dazu wird unter anderem die Lineare Algebra entwickelt.

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Lineares Gleichungssystem (LGS) • (Erweiterte) Koeffizienten(matrix), (in)homogenes LGS • Lösbarkeit (Existenz von Lösungen), Eindeutigkeit, eindeutige Existenz von Lösungen (eines LGS) • Freiheitsgrad, Parameter • Diagonalsystem • Staffelsystem, Rückwärtssubstitution • Zeilenstufenform, Stufenanzahl, Pivotspalte • Elementare Umformung • Gausssches Eliminationsverfahren • Reduzierte Zeilenstufenform

Zusammenhänge:

• Lösungsdarstellung für Staffelsystem und (reduzierte) Zeilenstufenform ((1.9), (1.12), (1.16)) • Elementare Umformungen verändern nicht die Lösungsmenge eines LGS (Satz 1.4) • Gauss-Verfahren transformiert auf Zeilenstufenform (Staffelsystem) (Hauptsatz 1.5) • Gauss-Jordan-Verfahren transformiert auf reduzierte Zeilenstufenform (Satz 1.6) • Struktursatz für LGS (Theorem 1.8)

28

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Aufgaben Aufgabe 1.1 (K) Wenn fünf Ochsen und zwei Schafe acht Taels Gold kosten, sowie zwei Ochsen und acht Schafe auch acht Taels, was ist dann der Preis eines Tieres? (Chiu-Chang Suan-Chu, ∼300 n.Chr.) Aufgabe 1.2 (T) Für ein LGS in zwei Variablen der Form (1) (2)

a1,1 x1 + a1,2 x2 = b1 , a2,1 x1 + a2,2 x2 = 0

ist seit mindestens 3650 Jahren die Methode der falschen Annahme bekannt: Sei a2,2 , 0 und (1), (2) eindeutig lösbar. Sei x(1) , 0 eine beliebige „Schätzung“ für x1 . Aus (2) berechne man x(1) 2 , so dass  (1) 1 (1)  x1 , x2 die Gleichung (2) erfüllen. Die Gleichung (1) wird i. Allg. nicht richtig sein, d. h. (1) ˜ a1,1 x(1) 1 + a1,2 x2 =: b1 , b1 .

  (2) (1) ˜ Korrigiere x(1) wieder x(2) , so dass x(2) , x(2) die Glei1 durch x1 := x1 b1 /b1 . Bestimme 2 1 2  (2) (2)  chung (2) erfüllen. Zeigen Sie: (x1 , x2 ) = x1 , x2 .

Aufgabe 1.3 (K) Lösen Sie die folgenden Gleichungssysteme mit Hilfe des Gaussschen Eliminationsverfahrens: a) −2x1 + x2 −4x1 + 3x2 − x2 −6x1 + 6x2

+ + + +

3x3 6x3 2x3 13x3

− − + +

4x4 5x4 2x4 10x4

= −12 = −21 = −2 = −22

b) x1 + x2 + 2x3 = 3 2x1 + 2x2 + 5x3 = −4 5x1 + 5x2 + 11x3 = 6 c) x1 + x2 = 0 x2 + x3 = 0 .. . xn−1 + xn = 0 xn + x1 = 0

Aufgaben

29

Aufgabe 1.4 (K) a) Bestimmen Sie in Abhängigkeit von α, β ∈ R die Lösungsmenge aller x = (xν )ν=1,...,4 mit Ax = b, wobei      1 2 3 −1   5      A =  1 3 0 1  , b =  9  .     2 4 α −2 β

b) Bestimmen Sie weiterhin die Lösungsmenge des zugehörigen homogenen Gleichungssystems Ax = 0. Aufgabe 1.5 (T) Ein 9-Tupel (x1 , . . . , x9 ) heiße magisches Quadrat der Ordnung 3, wenn x1 + x2 + x3 = x4 + x5 + x6 = x7 + x8 + x9 = x1 + x4 + x7 = x2 + x5 + x8 = x3 + x6 + x9 = x1 + x5 + x9 = x3 + x5 + x7

gilt. Stellen Sie ein lineares Gleichungssystem auf, das zu diesen sieben Bedingungen äquivalent ist, und bestimmen Sie den Lösungsraum (mit reellen Komponenten). Wie sieht der Lösungsraum mit rationalen Komponenten aus? Was lässt sich über ganzzahlige Lösungen sagen? Gibt es auch eine Lösung, für die xi ∈ N, i = 1, . . . , 9? (siehe J. W. von Goethe 12 : Faust. Der Tragödie erster Teil, Hexenküche). Aufgabe 1.6 (K) Bringen Sie die folgenden Matrizen durch elementare Zeilenumformungen auf Zeilenstufenform: a)

b)

  1  1   3 4

 2 2 3   0 −2 0   . −1 1 −2  −3 0 2

  2  3   1  2

 1 3 2   0 1 −2   . −1 4 3  2 −1 1

Aufgabe 1.7 (T) Zeigen Sie, dass die Elementarumformung (II) die Lösungsmenge eines LGS nicht verändert. Aufgabe 1.8 (T) Zeigen Sie (durch vollständige Induktion) die Behauptungen (MM.13) und (MM.14).

12

Johann Wolfgang von Goethe ∗28. August 1749 in Frankfurt am Main †22. März 1832 in Weimar

30

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

1.2.1 Vektoren im Rn, Hyperebenen und Gleichungen Unter einem Vektor verstehen wir vorerst ein n-Tupel    x1    x =  ...    xn

(1.19)

reeller Zahlen x1 , . . . , xn . Es ist üblich, sich Vektoren als derartige Spaltenvektoren vorzustellen, während es aus schreibtechnischen Gründen besser wäre, Zeilenvektoren x = (x1 , . . . , xn )

(1.20)

zu benutzen. Der Übergang von Zeile zu Spalte (und umgekehrt) soll durch das hochgestellte Symbol t (sprich: transponiert) gekennzeichnet werden, also für x nach (1.19) ist xt = (x1 , . . . , xn ) bzw. für x nach (1.20) ist    x1    t x =  ...    xn

und allgemein gilt für Zeilen- und Spaltenvektoren xtt = x . Wir wollen Zahlenvektoren als Spalten auffassen, sie aber auch als transponierte Zeilen aus schreibtechnischen Gründen notieren. Zur Verdeutlichung werden wie gewohnt Elemente des Rn in Fettdruck dargestellt. Das n-Tupel (x1 , . . . , xn ) ist etwas anderes als die Menge {x1 , . . . , xn }, da es bei einem n-Tupel auf die Reihenfolge der Einträge ankommt und bei einer Menge nicht (siehe Anhang A.2). Mengentheoretisch genau aufgebaut auf R ist Rn das n-fache kartesische Produkt von R mit sich (siehe Anhang A.4): Rn := R ...× R | × {z }. n-mal

Genaugenommen ist Rn also die Menge aller Abbildungen von {1, . . . , n} nach R (vgl. Definition 1.31): Rn = Abb ({1, . . . , n}, R) .

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

31

Definition 1.10 Der n-dimensionale Zahlenraum ist die Menge Rn := {(x1 , . . . , xn )t : x1 , . . . , xn ∈ R}

(1.21)

aller als Spalten geschriebenen n-Tupel oder Zahlenvektoren . Beispiele 1.11 n = 1. R1 = R ist die Zahlengerade. 1 2

-2

-1

0

e π 1

2

3

n = 2. Seit R. Descartes13 ist es üblich, nach Wahl eines Koordinatensystems, die Punkte der Ebene durch Zahlenpaare (x1 , x2 ) zu parametrisieren. Umgekehrt gibt die Ebene eine Veranschaulichung der Zahlenpaare (x1 , x2 ) und damit des Raums R2 . Man „identifiziert“ den Zahlenraum R2 mit der Ebene. x2 ✻

q (-1,1) q (-1,0) q

✚ ❃ ✚ q q ✚ (0,1) ✚✚(1,1) ✚ ✚ q q ✚ (0,0) (1,0) q

(-1,-1)

(x1 , x2 )



x1

q (0,-1)

(1,-1)

n = 3. Ebenso wie die Punkte der Ebene mit den Zahlenpaaren (x1 , x2 )t ∈ R2 identifiziert werden können, können nach Wahl eines Koordinatensystems die Punkte des Anschauungsraums mit Zahlentripeln (x1 , x2 , x3 )t ∈ R3 identifiziert werden.

13

René Descartes ∗31. März 1596 in La Haye en Touraine †11. Februar 1650 in Stockholm

32

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

x3 ✻

(x1 , x2 , x3 ) ✒

x2 ✟ ✯ ✟ ✟✟ ✟✟ ✟ ✟ ✟ ✟ ✲ x1 ✟✟ ✟ ✟

n = 4. Zu Beginn des 20. Jahrhunderts schlug A. Einstein14 den vierdimensionalen Zahlenraum R4 in seiner speziellen Relativitätstheorie als geometrisches Modell für den uns umgebenden Raum vor, wobei die Zeit als vierte Koordinate interpretiert wird. Erst wenige Jahre vorher war es in der Mathematik üblich geworden, geometrische Betrachtungen auch in mehr als drei Dimensionen durchzuführen. Die italienischen Geometer hatten diese Zahlenräume höherer Dimension, welche sie zunächst „Hyperräume“ nannten, in die Mathematik eingeführt. ◦ Bei einem LGS mit n Unbekannten und m Zeilen treten n-Tupel auf • durch den Lösungvektor x = (x1 , . . . , xn )t , • die Transponierten der m Zeilen der Koeffizientenmatrix a(µ) = (aµ,1 , . . . , aµ,n )t , µ = 1, . . . , m,15 bzw. m-Tupel • durch die rechte Seite b = (b1 , . . . , bm )t , • durch die n Spalten a(ν) = (a1,ν , . . . , am,ν)t , ν = 1, . . . , n .

Für die Menge der Lösungsvektoren hat Theorem 1.8 gezeigt, dass eine komponentenweise definierte Addition sinnvoll ist. Wir wollen dieses und für eine Multiplikation mit λ ∈ R allgemein tun. Für die Vektoren des Zahlenraums Rn kann man die folgenden beiden Rechenoperationen definieren:

14

Albert Einstein ∗14. März 1879 in Ulm †18. April 1955 in Princeton Man beachte, dass also ab hier anders als in Abschnitt 1.1 aµ , die µ-te Zeile, als Element von Rn , d.h. als Spalte geschrieben wird. 15

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

33

Definition 1.12

1) Die Addition + : Rn × Rn → Rn ist erklärt durch die Vorschrift        x1   y1   x1 + y1   x   y   x + y  2  2  2  2 x + y :=  .  +  .  :=  .  für alle x, y ∈ Rn .  ..   ..   ..        xn yn xn + y n

Der Vektor x + y heißt die Summe von x und y. 2) Die Multiplikation mit Skalaren · : R × Rn → Rn , auch λ-Multiplikation genannt, ist erklärt gemäß      x1   λx1   x2   λx2  λ · x := λ x := λ  .  :=  .  für alle λ ∈ R und x ∈ Rn .  ..   ..      xn λxn

Der Vektor λ x heißt skalares Vielfaches von x.

Dabei bezeichnet Rn × Rn bzw. R × Rn das jeweilige kartesische Produkt (siehe Anhang A.4), bestehend aus geordneten Paaren aus der jeweiligen Menge. Es werden also keine neuen Symbole (z. B. ⊕, ⊙) für die neu definierten Operationen eingeführt, sondern die für R etablierten mit neuer (erweiterter) Bedeutung benutzt. Dies wird auch im Folgenden wenn möglich so gehandhabt. Den Programmierkundigen ist dies als Operator Overloading bekannt. Bemerkungen 1.13 1) Die elementaren Umformungen (II) und (III) sind also eine Skalarmultiplikation der Zeile bzw. eine solche kombiniert mit einer Addition zweier Zeilen (jeweils als Tupel in Rn+1 aufgefasst). 2) Das Theorem 1.8 lässt sich sodann kurz so schreiben: Ist das LGS Ax = b lösbar, d. h. L := {x ∈ Rn : Ax = b} , ∅, sei y ∈ L, dann gilt: L = {y + h : h ∈ Rn und Ah = 0} . *3) Um im Folgenden Vorgehensweisen (z. B. das Gauss-Verfahren) bewerten zu können, ist es nützlich jeder Operation mit n-Tupeln (und später Matrizen) ein Aufwandsmaß zuzuordnen. Hier soll dazu folgende Vorstellung zugrunde gelegt werden: Addition/Subtraktion und Multiplikation/Division werden gleich als Elementaroperation gewertet, Datenzugriffe werden nicht berücksichtigt. Im Hinblick auf moderne Computer ist diese

34

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Vorstellung nicht sehr exakt, gibt aber eine erste Orientierung. In diesem Sinne benötigen sowohl Addition als auch Skalarmultiplikation im Rn n Operationen. △

Beide Rechenoperationen sind komponentenweise nichts anderes als das übliche Addieren und Multiplizieren reeller Zahlen. Deswegen gelten auch hier die wohlbekannten Rechenregeln: Wir setzen V := Rn . Dann gelten in (V, +, ·) die folgenden Rechengesetze: (A) Für die Addition :

(Kommutativgesetz)

(A.V1)

x + y = y + x,

(A.V2)

x + (y + z) = (x + y) + z,

(A.V3)

Es gibt genau ein 0 ∈ V, so dass x + 0 = x für alle x ∈ V (konkret: 0 := (0, . . . , 0)t ). (neutrales Element) Zu x ∈ V gibt es genau ein −x ∈ V, so dass (inverses Element) x + −x = 0 (konkret: −x := (−x1 , . . . , −xn )t ).

(A.V4)

(Assoziativgesetz)

(M) Für die Multiplikation mit Skalaren (λ-Multiplikation): (M.V1)

(λ + µ)x = λ x + µ x,

(1. Distributivgesetz)

(M.V2)

λ(x + y) = λ x + λ y,

(2. Distributivgesetz)

(M.V3) (λ µ)x = λ(µ x), (M.V4) 1 · x = x. jeweils für beliebige x, y, z ∈ V und λ, µ ∈ R.

(Assoziativgesetz) (neutrales Element)

Bemerkung 1.14 Die Eigenschaften (A.V3) und (A.V4) sind allgemein unter Voraussetzung von (A.V1) und (A.V2) (d. h. unabhängig von Rn ) hinreichend für (A.V5)

a + x = b besitzt für jede Vorgabe a, b ∈ V genau eine Lösung x ∈ V,

(nämlich die Differenz von b und a , x := −a + b). Weiter folgt aus den obigen Eigenschaften:



0x = 0 , −x = (−1)x , λ0 = 0 ,

(1.22)

λx = 0 ⇔ 16 λ = 0 oder x = 0 . Wir benutzen folgende Kurzschreibweise :

16

Für die (nur sparsam) verwendeten logischen Operationen konsultiere man Anhang A.1, Anhang A.3

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

35

a − b := a + (−b) , d. h. konkret in Rn a − b = (a1 − b1 , . . . , an − bn )t für die Lösung der Gleichung in (A.V5). Definition 1.15 Mit den obigen Verknüpfungen + und · versehen, heißt Rn nach (1.21) n-dimensionaler Skalarenvektorraum über R. x = (x1 , . . . , xn )t ∈ Rn heißt Vektor oder auch Punkt im Rn , xk , k = 1, . . . , n, k-te Komponente von x.

−−→ QR Q −−→ PQ

P

R −−→ PR

Q′

Abb. 1.3: Kommutativität der Pfeiladdition: „Parallelogramm der Kräfte“.

Bemerkung 1.16 (Geometrie) Kennt man schon einen Vektorbegriff aus der Physik oder der Geometrie, wird man vielleicht stutzig, insbesondere durch die in Definition 1.15 vorgenommene Identifikation von Vektoren und Punkten. In der Physik ist ein Vektor eine Größe in Ebene oder Raum, die Länge und Richtung hat, kurz eine gerichtete Größe wie zum Beispiel Kraft oder elektrische Stromstärke (siehe Beispiele 2 und 3: dort konnte mit Zahlen modelliert werden, da nur eine Richtung möglich und diese festgelegt ist). −−→ Bezeichnet werden diese Vektoren durch Pfeile AB in Ebene oder Raum, wobei parallelverschobene Pfeile identifiziert werden. Man spricht daher manchmal auch von freien Vektoren. Analoges gilt für die Geometrie. Addiert werden solche Pfeile durch Aneinanderlegen (siehe Abbildung 1.3): −−→ −−→ −−→ PQ + QR = PR . Das „Parallelogramm der Kräfte“ besagt, dass auch gilt −−−→′ −−− → −−→ PQ + Q′ R = PR ,

36

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

−−−→ −−− → −−→ wobei PQ′ gerade das parallel-verschobene QR mit „Anfangspunkt“ P ist und analog Q′ R zu verstehen ist. Dies ist genau die Kommutativität der Addition, das Distributivgesetz folgt zum Beispiel aus dem Strahlensatz. Insgesamt lassen sich Eigenschaften (A) und (M) für die Menge der „Pfeilklassen“ elementargeometrisch begründen. Der Zusammenhang zur Definition 1.15 für n = 2 oder 3 wird durch Wahl eines kartesischen Koordinatensystems in Ebene oder Raum hergestellt. Versteht man den Rn als Punktraum, so ist es geometrisch sinnlos, von der Addition von Punkten zu sprechen, da bei Definition 1.12 die Summe vom Koordinatenursprung abhängt. Dagegen ist es geometrisch sinnvoll, von der Differenz von Punkten (als einem neuen Objekt) zu sprechen, da −−→ PQ := Q − R

(1.23)

unabhängig von einer Verschiebung des Ursprungs ist. Auf Rn können also die „freien Vektoren“ gefasst werden als eine Translation des Rn , d. h. eine bijektive Abbildung (siehe Definition A.14), die definiert ist durch T := Rn → Rn ,

x 7→ x + a

−−→ für ein fest vorgegebenes a ∈ Rn , das in diesem Sinn diesen „freien Vektor“ PQ darstellt: −−→ a = PQ. Eine Translation, d. h. das zugehörige a ∈ Rn , wird eindeutig festgelegt durch −−→ Kenntnis eines Paares (x, T x) (hier: (P, T (P))), also ist PQ der eindeutige „freie Vektor“, der für die Punkte P, Q die Beziehung



x+y

x2 + y2 y2 x2

y

✟✟ ✒ ✟✟ x ✿ ✟✟✘✘✘ ✟ ✘ ✟✘ ✘ ✘ ✘ ✟ y1

✻ c · x2

x2

x1

✯ ✟ ✟✟

✲ x1 + y1

c·x

✯ ✟✟ ✟ ✟ ✟✟ ✟ ✟ ✯ x ✟✟ ✟ ✲ ✟ x1

c · x1

Abb. 1.4: Veranschaulichung von Addition und Skalarmultiplikation in Rn .

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

37

−−→ P + PQ = Q erfüllt im Sinne von T (P) = Q. Eine solche Unterscheidung zwischen Punkten und Vektoren wird im Begriff des affinen Raumes als Grundlage der affinen Geometrie vorgenommen (siehe Abschnitt 1.7). Auf dem Vektorraum Rn (im Sinn von Definition 1.15) kann man einen affinen Raum aufbauen, wenn die x ∈ Rn die Rolle der „Punkte“ und die Differenzen y − x die Rolle der „Vektoren“ spielen. Um also anschaulich Punkte und Vektoren identifizieren zu können, müssen wir uns auf Ortsvektoren, im Koordinatenursprung O be−−→ ginnende Pfeile, beschränken, d. h. wir identifizieren P mit OP. In diesem Sinn, für n = 2 und 3 interpretiert als Ebene bzw. Anschauungsraum, entspricht die komponentenweise Addition der Addition nach dem „Kräfteparallelogramm“, die Multiplikation stellt eine Streckung (|λ| > 1) bzw. Stauchung (|λ| < 1) mit Richtungsumkehr für λ < 0 dar. Andererseits führen Operatoren mit dieser Interpretation, die die Rechengesetze (A) und (M) erfüllen, notwendigerweise auf die komponentenweise Definition. △ Wir möchten im Folgenden an einem ganz einfachen Beispiel einen Wesenszug der Linearen Algebra demonstrieren, der darin besteht, Algebra auf geometrische Sachverhalte anzuwenden, bzw. umgekehrt, intuitive Methoden aus der Geometrie für algebraische Anwendung zu abstrahieren. Als Beispiel diskutieren wir Geraden (in der Ebene und allgemein). Eine Gerade L im Zahlenraum Rn wird gegeben durch einen Anfangsvektor u und einen Richtungsvektor 0 , w ∈ Rn (siehe Abbildung 1.5). Sie ist die Menge L := {u + tw ∈ Rn : t ∈ R} =: u + Rw .

❅ ❅L ❅ ❅ ✕❅ w (verschoben) ✁ ✁ ❅ ❘ u✁ ❅ ❅u + tw ✁ ✿❅ ✘ ✘ ✁ ✘ 0 ✘✘✘ ✘ ✁ ❅ Abb. 1.5: Gerade L mit Anfangsvektor u und Richtungsvektor w.

38

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Lemma 1.17: Geradendarstellung Die Gerade L stimmt mit einer zweiten Geraden L′ := {u′ + sw′ : s ∈ R} genau dann überein, wenn u′ ∈ L und w′ = c · w mit 0 , c ∈ R.

Beweis: 17 „⇒“: Wenn die Mengen L = {u + tw : t ∈ R} und L′ = {u′ + sw′ : s ∈ R} übereinstimmen, dann ist insbesondere (für s = 0) der Vektor u′ ein Vektor aus L, also von der Form u′ = u + t0 w. Ebenso ist (für s = 1) auch u′ + w′ ∈ L, somit u + t0 w + w′ = u′ + w′ = u + tw für ein t ∈ R. Daraus folgt w′ = cw mit c = t − t0 . Wegen w′ , 0 muss auch c , 0 sein. „⇐“: Sei u′ = u + t0 w ∈ L und w′ = cw. Dann ist L′ = {u′ + sw′ : s ∈ R} = {u + (t0 + sc)w : s ∈ R} = {u + tw : t ∈ R} , denn wegen c , 0 durchläuft mit s auch t = t0 + sc alle reellen Zahlen.



Satz 1.18 Durch je zwei Vektoren x , y des Rn gibt es genau eine Gerade L.

Beweis: Existenz: Wir wählen u := x und w := y − x. Dann enthält die Gerade L, die gegeben ist duch L = {u + tw : t ∈ R} = {x + t(y − x) : t ∈ R} beide Vektoren x (für t = 0) und y (für t = 1). Eindeutigkeit: Sei L′ = {u′ +tw′ : t ∈ R} eine Gerade, welche die Vektoren x und y enthält. Wegen Lemma 1.17 können wir diese Gerade auch schreiben als L′ = {x + tw′ : t ∈ R}. Da y = x + t0 w′ mit t0 , 0 (wegen x , y), ist der Richtungsvektor w′ = t10 (y − x) ein Vielfaches des Richtungsvektors y − x von L. Nach Lemma 1.17 ist somit L′ = L.  Die Gerade durch x und y lässt sich etwas anders schreiben: L = {x + t(y − x) : t ∈ R} = {(1 − t)x + ty : t ∈ R} = {sx + ty : s, t ∈ R, s + t = 1} . Die Gerade durch x und y ist nicht dasselbe, wie die Strecke zwischen x und y, die definiert ist als S := {sx + ty : 0 ≤ s, t ≤ 1, s + t = 1} = {sx + (1 − s)y : 0 ≤ s ≤ 1} . Für s = t =

17

1 2

erhält man den Mittelpunkt 12 (x + y) dieser Strecke.

Für die logischen Grundlagen mathematischer Beweisführung konsultiere man die Anhänge A.1 und A.3. Die Aussage hat hier die Struktur A ⇔ B. „⇒“ symbolisiert den Beweis der Teilaussage A ⇒ B und analog ist „⇐“ zu verstehen.

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

39

Nach diesen einfachen Tatsachen, welche in jedem Zahlenraum Rn richtig sind, betrachten wir jetzt den Zusammenhang von Geraden im R2 mit linearen Gleichungen in zwei Unbekannten. Satz 1.19 Für eine Teilmenge L ⊂ R2 sind folgende Eigenschaften äquivalent: (i) L ist eine Gerade durch den Nullpunkt (0 ∈ L).

(ii) L ist Lösungsmenge einer homogenen linearen Gleichung a 1 x1 + a 2 x2 = 0 mit Koeffizienten a1 , a2 , die nicht beide 0 sind, d. h. (a1 , a2 )t , 0 .

Beweis: „(i)⇒(ii)“: Als Anfangsvektor für L nehmen wir den Nullvektor und beschreiben unsere Gerade als L = {tw : t ∈ R} = {(tw1 , tw2 )t : t ∈ R} mit Koeffizienten w1 , w2 , die nicht beide 0 sind. Für unsere homogene Gleichung brauchen wir Koeffizienten a1 , a2 mit der Eigenschaft a1 w1 + a2 w2 = 0. Die Zahlen a1 := w2 , a2 := −w1 haben diese Eigenschaft, d. h. wir behaupten, dass L übereinstimmt mit der Menge, die gegeben ist durch {(x1 , x2 )t ∈ R2 : w2 x1 − w1 x2 = 0}. Wegen w2 · tw1 − w1 · tw2 = 0 ist klar, dass L in dieser Menge enthalten ist. Umgekehrt ist diese Menge aber, wie wir im nächsten Beweisschritt sehen werden, eine Gerade. Da sie 0 und w enthält, stimmt sie nach Satz 1.18 mit L überein. „(ii)⇒(i)“: Falls a1 , 0, so erfüllt x = (x1 , x2 )t die Gleichung a1 x1 + a2 x2 = 0 genau dann, wenn x1 = − aa21 x2 , das heißt, wenn x = x2 · (− aa21 , 1)t auf der Geraden durch 0 mit dem Richtungsvektor w = (− aa21 , 1)t liegt. Wenn aber a1 = 0, so lautet die Gleichung a2 x2 = 0. Da nun nach Voraussetzung a2 , 0, ist dies äquivalent mit x2 = 0. Diese Menge ist die Gerade durch den Nullpunkt mit Richtungsvektor (1, 0)t .  Bemerkung 1.20 Der Vektor a = (w2 , −w1 )t ist nicht die einzige Wahl. Genauso hätten wir a′ = (−w2 , w1 )t oder allgemeiner jedes Vielfache von a wählen können. Allen diesen Vektoren ist gemein, dass sie senkrecht auf w stehen. Es ist spezifisch für die Ebene R2 , dass es keine weiteren solche Vektoren gibt. Dies wird später präzisiert werden (siehe Skalarprodukt, orthogonal, Dimension, Dimensionsformel). △

40

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Satz 1.21: Gerade in R2 = eine lineare Gleichung Für eine Teilmenge L ⊂ R2 , L , ∅ sind äquivalent:

(i) L ist eine Gerade nicht durch den Nullpunkt (nicht 0 ∈ L).

(ii) L ist Lösungsmenge einer inhomogenen linearen Gleichung a1 x1 + a2 x2 = b, wobei (a1 , a2 )t , 0 und b , 0.

Beweis: „(i)⇒(ii)“: Wir schreiben L = {u + tw : t ∈ R} mit u , 0 und betrachten die Gerade L0 := {tw : t ∈ R} mit demselben Richtungsvektor durch den Nullpunkt. Nach Satz 1.19 ist L0 Lösungsmenge einer homogenen linearen Gleichung a1 x1 + a2 x2 = 0. Demnach ist L = {u + x : x ∈ L0 } = {u + x : a1 x1 + a2 x2 = 0} = {y ∈ R2 : a1 y1 + a2 y2 = a1 v1 + a2 v2 } . Da L nicht durch den Nullpunkt geht, liegt u nicht auf L0 , und es ist b := a1 v1 + a2 v2 , 0. „(ii)⇒(i)“: Sei nun L = {x ∈ R2 : a1 x1 + a2 x2 = b} = {u + y ∈ R2 : a1 y1 + a2 y2 = 0} , wobei u eine spezielle Lösung der inhomogenen linearen Gleichung a1 v1 + a2 v2 = b ist (man beachte L , ∅ und Theorem 1.8). Nach Satz 1.19 beschreibt die homogene lineare Gleichung a1 y1 + a2 y2 = 0 eine Gerade L0 = {tw : t ∈ R} durch den Nullpunkt. Somit ist L = {u + tw : t ∈ R} eine Gerade, die wegen b , 0 nicht durch den Nullpunkt verläuft.  Beispiel 1.22 (Geometrie) Wir sahen, dass die Lösungsmenge einer linearen Gleichung in zwei Unbekannten, deren Koeffizienten nicht beide 0 sind, eine Gerade in der Zahlenebene R2 ist. Die Lösungsmenge eines Systems von zwei derartigen linearen Gleichungen a1,1 x1 + a1,2 x2 = b1 (Lösungsmenge L1 ) , a2,1 x1 + a2,2 x2 = b2 (Lösungsmenge L2 ) ist deswegen der Durchschnitt L1 ∩ L2 der beiden Geraden. Für diesen Durchschnitt gibt es folgende Möglichkeiten: 1) L1 = L2 : 2) L1 , L2 , 3) L1 , L2 ,

L1 ∩ L2 , ∅ : L1 und L2 parallel :

L1 ∩ L2 ist die Gerade L1 = L2 , L1 ∩ L2 ist ein Punkt, L1 ∩ L2 ist leer .

Zu diesen drei Möglichkeiten gehören die folgenden drei Stufenformen der Koeffizientenmatrix: ! ! ! ! ! 1∗∗ 01∗ 1∗∗ 1∗∗ 01∗ 1) oder , 2) , 3) oder . ◦ 000 000 01∗ 001 001 Eine analoge Situation ergibt sich in R3 : Eine Ebene wird beschrieben durch

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

41

Definition 1.23 Seien u, w1 , w2 ∈ Rn , w1 , w2 , 0 und es gebe kein c ∈ R, so dass w1 = cw2 . Dann heißt

E = {u + tw1 + sw2 : t, s ∈ R} =: u + Rw1 + Rw2

Ebene in Rn . Analog zu Satz 1.19, 1.21 gilt: Satz 1.24: Ebene in R3 = eine lineare Gleichung Die Lösungsmenge einer linearen Gleichung a 1 x1 + a 2 x2 + a 3 x3 = b mit Koeffizientenvektor a = (a1 , a2 , a3 )t , 0 sei nicht leer. Dann ist sie eine Ebene in R3 . Dabei ist b = 0 genau dann, wenn 0 zur Ebene gehört.

Beweis: Wegen Theorem 1.8 genügt es, den homogenen Fall b = 0 zu betrachten. Es sei L0 ⊂ R3 Lösungsmenge obiger Gleichung. Wegen a , 0 gibt es ein ai , 0. Nach Vertauschung der Koordinaten können wir a1 , 0 annehmen. Dann ist die allgemeine Lösung der Gleichung !t a2 a3 x = − x 2 − x 3 , x 2 , x 3 = x 2 u1 + x 3 u2 a1 a1 mit x2 , x3 ∈ R und

!t a2 u1 = − , 1, 0 , a1

!t a3 u2 = − , 0, 1 . a1

Offensichtlich sind u1 und u2 keine Vielfachen voneinander, somit ist diese Menge eine Ebene E0 . Ist x ∈ E0 , dann erfüllt es auch die lineare Gleichung, also L0 = E0 .  Beispiel 1.25 (Geometrie) Auch die Umkehrung, dass nämlich eine Ebene die Lösungsmenge einer solchen linearen Gleichung ist, gilt wie zu erwarten, ist aber mit unserem noch geringem Kenntnisstand etwas schwerfällig zu beweisen (siehe Bemerkungen 1.27, 3)). Bei Annahme der Gültigkeit der Entsprechung von Ebene und Gleichung in drei Unbekannten ergibt sich folglich: Der Durchschnitt S = E1 ∩ E2 zweier Ebenen Ei ⊂ R3 wird infolgedessen durch ein LGS mit drei Unbekannten und zwei Gleichungen beschrieben. Dabei gibt es die Möglichkeiten

42

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

S E1 = E2 Ebene E1 ∦ E2 Gerade E1 k E2 , E1 , E2 ∅

Dementsprechend wird der Durchschnitt von drei Ebenen durch ein LGS mit drei Unbekannten und drei Gleichungen beschrieben. Es gibt die weitere Möglichkeit S Ei ∦ E j ; i, j = 1, 2, 3; i , j Punkt In diesem Fall ist das Gleichungssystem eindeutig lösbar. Es ist eine Möglichkeit, dass S nur aus einem Punkt besteht, der Schnitt kann aber auch eine Gerade sein. ◦ Ei kE j bzw. Ei ∦ E j steht hier als Kurzschreibweise für Ei ist (nicht) parallel zu E j und appelliert vorerst an eine elementargeometrische Anschauung. Eine exakte Definition von Parallelität findet sich in Definition 1.117 (siehe auch Beispiel 1.67). Schließlich können wir in Rn allgemein definieren: Definition 1.26 Sei a ∈ Rn , a , 0, b ∈ R.

  n   X     n H :=  x∈R : a ν xν = b      ν=1

heißt Hyperebene in Rn .

Eine Hyperebene im Rn ist demnach die Lösungsmenge einer einzigen linearen Gleichung in n Unbekannten. Im Rn mit n = 2 bzw. = 3 ist eine Hyperebene eine Gerade bzw. Ebene. Jede Zeile eines LGS beschreibt eine Hyperebene. Die Lösungsmenge des LGS ist der Durchschnitt all dieser Hyperebenen. Das ist die zeilenweise Interpretation eines LGS. Die Hyperebene H enthält genau dann den Nullvektor 0, wenn b = 0 ist. Deswegen enthält die Lösungsmenge eines LGS genau dann den Nullvektor, wenn das LGS homogen ist. Noch einmal, weil es so wichtig ist: Eine Zeile eines LGS definiert eine Hyperebene. Die Lösungsmenge des LGS ist der Schnitt aller dieser Hyperebenen. Bemerkungen 1.27 1) Die Beschreibung L = {u+tw : t ∈ R} = u + Rw heißt Parametrisierung oder explizite Beschreibung der Geraden L. Die Beschreibung a1 x1 + a2 x2 = b heißt implizit. 2) Wenn c , 0, so ist ca1 x1 +ca2 x2 = cb eine implizite Beschreibung der gleichen Geraden (Zeilenumformung vom Typ II). Wählt man, im Falle b , 0, a1 , 0 und a2 , 0, c = 1b , dann erhält man die Achsenabschnittsform

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

43

1 1 x1 + x2 = 1 , p q so dass also (p, 0)t und (0, q)t auf der Gerade liegen. x2

✻ q

❡ ❡ ❡ ❡

❡ p ❡

✲ x1

Abb. 1.6: Gerade in Achsenabschnittsform.

3) Auch in Satz 1.24 gilt analog zu Satz 1.19, 1.21 die Äquivalenz zwischen Ebene und Lösungsmenge einer Gleichung mit Koeffizienten a , 0, d. h. es gilt zusätzlich: a) Sei E = {tw1 + sw2 : s, t ∈ R} und wi , 0 ∈ R3 , so dass nicht gilt w1 = cw2 für ein c ∈ R, dann ist E die Lösungsmenge L einer Gleichung, wobei o. B. d. A.18 0 ∈ E angenommen wird. Das kann man wie folgt einsehen: Man betrachte das homogene LGS aus zwei Gleichungen in drei Variablen zu ! wt A := 1t . w2 Nach Lemma 1.7 hat dieses mindestens eine Lösung a , 0. Also gilt a1 w1,1 + a2 w1,2 + a3 w1,3 = 0 , a1 w2,1 + a2 w2,2 + a3 w2,3 = 0 ,

wobei wi = (wi, j ) j=1,2,3 . Damit gilt auch für x = tw1 + sw2 nach Multiplikation der 1. bzw. 2. Gleichung mit t bzw. s und anschließender Addition a1 x1 + a2 x2 + a3 x3 = 0 .

Demnach gibt es ein a ∈ R3 , a , 0, so dass x∈E⇒

3 X i=1

ai xi = 0 ⇔: x ∈ L .

Es könnte immer noch sein, dass eine Ebene E nur echte Teilmenge der Lösungsmenge L einer linearen Gleichung ist. Da aber immer die Beziehung gilt 18

„ohne Beschränkung der Allgemeinheit“, abgekürzt „o. B. d. A.“ bedeutet, dass nur ein Spezialfall explizit behandelt wird, da die verbleibenden Fälle auf den behandelten zurückgeführt oder anderweitig leicht untersucht werden können („trivial“ sind). Ein(e) ernsthafte(r) Leser(in) überprüft immer ein o. B. d. A. durch Vervollständigung der Überlegung.

44

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums E ⊂ L ⊂ E , wobei die letzte Beziehung aus Satz 1.24 für eine Ebene E

folgt, ergibt sich jeweils die Identität, da zusätzlich gilt:

b) Seien E1 , E2 Ebenen (in Rn ), so dass E1 ⊂ E2 . Dann gilt E1 = E2 .

Zur Verdeutlichung der Gültigkeit dieser Aussage kann wieder o. B. d. A. angenommen werden, dass 0 ∈ E1 und 0 ∈ E2 , d. h. E1 = {tu1 + su2 : t, s ∈ R} , E2 = {λw1 + µw2 : λ, µ ∈ R} .

Dabei sind u1 , u2 , 0 so, dass es kein c ∈ R gibt mit u1 = cu2 und analog für w1 , w2 . Um E2 ⊂ E1 zu zeigen, reicht w1 , w2 ∈ E1 , d. h. die Existenz von ti , si ∈ R, i = 1, 2, so dass wi = ti u1 + si u2 für i = 1, 2 .

(1.24)

Nach Voraussetzung ist ui ∈ E2 , i = 1, 2, d. h. es gibt λi , µi ∈ R, so dass u1 = λ1 w1 + µ1 w2 , u2 = λ2 w1 + µ2 w2 .

Notwendigerweise ist α := λ1 µ2 − µ1 λ2 , 0,

denn wäre α = 0, dann wäre λ1 u2 = λ1 λ2 w1 + λ1 µ2 w2 = λ2 (λ1 w1 + µ1 w2 ) = λ2 u1 .

Da nach Voraussetzung u1 , u2 nicht Vielfache voneinander sind, ist dieser Fall unmöglich. Setzt man t1 := µ2 /α, s1 := −µ1 /α , t2 := −λ2 /α, s2 := λ1 /α ,

so ergibt sich (1.24) durch direktes Nachrechnen.

Der Beweis ist hier recht schwerfällig geworden und bietet auch keine Verallgemeinerungsmöglichkeiten. Wir werden bald über Instrumente verfügen, solche Fragen (auch in Rn ) direkter bearbeiten zu können. △

1.2.2 Tupel-Vektorräume und der allgemeine R-Vektorraum Wir haben verschiedene Stufen der Abstraktion kennengelernt: • R2 bzw. R3 als Darstellung von Anschauungsebene und -raum, • Rn definiert durch Definition 1.10 und Definition 1.12 (und für n = 1, 2, 3 geometrisch vorstellbar) und dementsprechend, • Aussagen in R2 (Satz 1.19, 1.21) mit geometrischer Interpretation, aber hergeleitet aus Definition 1.10 und Definition 1.12 (und darauf aufbauenden Aussagen),

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

45

• Aussagen in Rn , hergeleitet aus Definition 1.10 und Definition 1.12.

In diesem Abschnitt verallgemeinern wir die Rechenstrukturen „+“ und „·“ vom Rn auf allgemeinere Räume. Dies tun wir in zwei Schritten: Zunächst betrachten wir Räume, die sich vom Zahlenraum Rn nur unwesentlich unterscheiden, d. h. nur in der Art, wie wir ihre Elemente notieren. Definition 1.28 Ein Polynom vom Grad ≤ n ist eine Funktion auf R der Form f (x) =

n X

a ν xν ,

ν=0

a0 , . . . , an ∈ R.

Mit Rn [x] bezeichnen wir die Menge aller dieser Polynome vom Grad ≤ n. Ist an , 0, so heißt f ein Polynom vom Grad n. Auch in diesem Raum sind Addition „+“ und Multiplikation „·“ mit Skalaren definiert: 1) Addition : Sind f (x) =

n X

a ν xν

und g(x) =

ν=0

n X

b ν xν

ν=0

∈ Rn [x]

solche Polynome, so ist ihre Summe für alle x aus dem Definitionsgebiet ( f + g)(x) := f (x) + g(x) ,

(1.25)

also ( f + g)(x) =

n X ν=0

a ν xν +

n X

b ν xν =

ν=0

n X (aν + bν )xν . ν=0

2) Skalarmultiplikation : Ist f (x) ∈ Rn [x] und c ∈ R, so ist deren Produkt (c · f )(x) = c · f (x)

für alle x aus dem Definitionsgebiet,

(1.26)

also (c · f )(x) =

n X ν=0

c · a ν xν .

Ein Polynom f (x) ∈ Rn [x] ist durch seinen Koeffizientenvektor (a0 , . . . , an )t ∈ Rn+1 eindeutig bestimmt. Und umgekehrt können wir von einem Polynom eindeutig auf diesen Koeffizientenvektor zurückschließen. Die so definierte Abbildung Rn [x] → Rn+1

46

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

ist bijektiv (siehe Anhang A.4). Den Beweis dafür werden wir später führen (Bemerkungen 1.63, 2)). Unter dieser Zuordung entspricht die Addition zweier Polynome der Addition ihrer Koeffizientenvektoren, die Multiplikation eines Polynoms mit einem Skalar der Multiplikation seines Koeffizientenvektors mit diesem Skalar. Deswegen gelten in Rn [x] genau die gleichen Rechenregeln wie im Zahlenraum Rn+1 . Ein analoges Beispiel ist die Menge der (verallgemeinerten) Histogramme oder Treppenfunktionen : Definition 1.29 Sei [a, b] ein abgeschlossenes Intervall in R und ∆ : a = x0 < x1 < . . . < xn−1 < xn = b eine feste Zerlegung für ein festes n ∈ N (z. B. äquidistant : xi = a + ih mit Schrittweite h := (b − a)/n). Seien f0 , . . . , fn−1 ∈ R, dann ist ein Histogramm oder eine Treppenfunktion definiert durch f (x) = fi für x ∈ [xi , xi+1 ) , i = 0, . . . , n − 2 , f (x) = fn−1 für x ∈ [xn−1 , b] .

(1.27)

Wir bezeichnen diese Menge mit S 0 (∆).

f (x)

x

Abb. 1.7: Histogramm (Treppenfunktion): ⊸ bedeutet Ausschluss des Randwertes. Wieder wird die Funktion f durch das n-Tupel ( f0 , . . . , fn−1 )t beschrieben, d. h. die Abbildung von S 0 (∆) → Rn , die durch f 7→ ( f0 , . . . , fn−1 )t definiert wird, ist bijektiv und die durch (1.25) und (1.26) punktweise definierte Addition und Skalarmultiplikation entsprechen genau den Verknüpfungen in Rn . Anscheinend haben bei den bisherigen Überlegungen nur die Rechenregeln für Addition und Skalarmultiplikation eine Rolle gespielt (vgl. (A), (M)), so dass wir allgemein definieren:

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

47

Definition 1.30 Auf einer Menge V , ∅ sei eine innere Verknüpfung (Addition ) +, d. h. eine Abbildung + : V × V → V und eine Verknüpfung mit Elementen aus R (Skalarmultiplikation ), d. h. eine Abbildung · : R × V → V gegeben, so dass die Eigenschaften (A.V1-A.V4) und (M.V1-M.V4) gelten. Dann heißt (V, +, ·) ein R-Vektorraum. Die Elemente x ∈ V heißen Vektoren. Das neutrale Element wird mit 0 und das zu x inverse Element wird mit −x bezeichnet. Zur Notation : Bei allgemeinen R-Vektorräumen behalten wir den Fettdruck zur Verdeutlichung des Unterschiedes zwischen Vektor und Skalar bei. Bei konkreten Funktionenräumen V (s.o.) verzichten wir darauf. Wichtig ist dann, zwischen Skalaren λ ∈ R und Vektoren f ∈ V zu unterscheiden. Die Aussage (1.22) gilt auch allgemein in einem beliebigen R-Vektorraum (V, +, ·). Seien λ ∈ R, x ∈ V beliebig: Rechenregel 0x = 0 −x = (−1)x λ0 = 0 λx = 0 ⇔ λ = 0 oder x = 0

Begründung 0x = (0 + 0)x = 0x + 0x, also 0 = 0x + 0x + (−0x) x + (−1)x = 1 · x + (−1)x = (1 + (−1))x = 0x = 0 λ0 = λ(0 + 0) = λ0 + λ0 Es ist nur noch “⇒“ zu zeigen: Angenommen, es ist λ , 0, dann: x = 1x = ( λ1 λ)x = λ1 (λx) = λ1 0 = 0 .

Die Definition einer Gerade L = u + Rw und einer Ebene E = u + Rw1 + Rw2 in Definition 1.23 (für w1 , w2 , 0, so dass w1 , cw2 für alle c ∈ R) kann direkt für allgemeine R-Vektorräume (d. h. u, w1 , w2 ∈ V) übertragen werden.

Beispiele für R-Vektorräume sind (neben (Rn , +, ·)) mit +, · definiert in Definition 1.28: • (Rn [x], +, ·), • (S 0 (∆), +, ·).

Das neutrale Element 0 dieser Räume ist in beiden Fällen ein Element f , so dass f (x) = 0 für alle x ,

(1.28)

d. h. es gilt für die Koeffizientenvektoren (a0 , . . . , an )t = (0, . . . , 0)t

bzw.

( f0 , . . . , fn−1 )t = (0, . . . , 0)t .

Das inverse Element − f zu f ist (− f )(x) := − f (x) für alle x aus dem Definitionsgebiet, d. h. z. B. für f (x) =

n X ν=0

aν x

ν

ist

(− f )(x) =

n X ν=0

(−aν )xν für alle x .

(1.29)

48

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Ein mit S 0 (∆) verwandtes Beispiel eines R-Vektorraums ist, mit ebenfalls nach (1.25) und (1.26) definierter Operation, der Raum S 1 (∆) := { f : [a, b] → R : f ist eine Gerade auf [xi , xi+1 ] für i = 0, . . . , n − 1 und stetig an den Übergangsstellen xi , i = 1, . . . , n − 1} . (1.30) Dabei ist ∆ : a = x0 < x1 < . . . < xn−1 < xn = b eine fest zugrunde gelegte Zerlegung von [a, b]. Die Elemente von S 1 (∆) sind also die (stetigen) Polygonzüge auf ∆. Man spricht auch von linearen Splines . Die Beispiele aus Definition 1.28, Definition 1.29 oder (1.30) lassen sich noch einmal verallgemeinern zu: Definition 1.31 Sei M , ∅ eine Menge und Abb(M, R) := { f : f ist Abbildung von M nach R}. Auf Abb(M, R) wird eine Addition und eine Multiplikation mit Zahlen aus R eingeführt durch (1.25) bzw. (1.26), d. h. punktweise ( f + g)(x) := f (x) + g(x) für alle x ∈ M, für alle f, g ∈ Abb(M, R) , (c · f )(x) := c · f (x) für alle x ∈ M, für alle c ∈ R, f ∈ Abb(M, R) .

Satz 1.32  Sei M , ∅ eine Menge. Abb(M, R), +, · ist ein R-Vektorraum, mit dem neutralen Element nach (1.28) und den inversen Elementen nach (1.29) definiert.

Beweis: Anders als bei Definition 1.28 oder 1.29 kann hier nicht auf eine operationsverträgliche Bijektion zu Rn zurückgegriffen werden. Vielmehr müssen alle Eigenschaften eines R-Vektorraums durch die punktweise Definition darauf zurückgeführt werden, dass R ein R-Vektorraum ist. Als Beispiel sei (A.V4) bewiesen:  f + (− f ) (x) = f (x) + (− f )(x) = f (x) − f (x) = 0 = 0(x) für alle x ∈ M , wobei 0 wie üblich das neutrale Element bezeichnet.



1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

49

Zu diesen abstrakteren Beispielen gehört auch der Vektorraum R[x] := { f : ist Polynom von Grad ≤ d für ein d ∈ N0 } , dabei werden + und · wieder durch (1.25), (1.26) (bei Gültigkeit von (1.28), (1.29)) definiert. Es gilt: Rn [x] ⊂ R[x] ⊂ Abb(R, R) für n ∈ N0 , wobei die beiden letzten Vektorräume „viel größer“ in dem Sinn sind, dass sie nicht durch m-Tupel egal für welches m ∈ N beschrieben werden können. Für M = N wird Abb(M, R) zur Menge aller Folgen in R: RN := Abb(N, R)

(1.31)

und die punktweise definierten Verknüpfungen nehmen für (aν )ν∈N , (bν)ν∈N ∈ RN bzw. kurz (aν ), (bν ) ∈ RN die Form (aν ) + (bν ) = (aν + bν ), c · (aν ) = (caν )

für c ∈ R

an. Statt N kann zur Indizierung von Folgen auch eine andere Menge M gewählt werden, die sich als Bild einer injektiven Abbildung von N nach M ergibt. Die abkürzende Bezeichnung ist dann R M , was manchmal auch allgemein für Abb(M, R) benutzt wird. Häufig ist z. B. RN0 . Die Sätze 1.17, 1.18 gelten nicht nur in Rn , sondern in jedem R-Vektorraum. Somit macht es Sinn, von Geraden bzw. Strecken im Vektorraum z. B. in Abb(R, R) zu sprechen. Damit sind dann folglich gewisse Mengen von Funktionen gemeint, i. Allg. nicht nur die speziellen Funktionen der Form f (x) = ax + b. Die in Definition 1.2 eingeführten Zahlenschemata, bisher nur Kurzschreibweise für (erweiterte) Koeffizientenmatrizen, kann man ebenso allgemein betrachten. Dann handelt es sich beispielsweise bei (1.6) nur um „seltsam aufgeschriebene“ Elemente des Rm·n . Insofern ist durch die komponentenweise Definition (siehe Definition 1.12) eine Addition und eine Skalarmultiplikation definiert, so dass diese Menge dadurch zum R-Vektorraum wird.

50

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.33 Seien n, m ∈ N. Ein rechteckiges Skalarenschema     A :=   

a1,1 a1,2 a2,1 a2,2 .. .. . . am,1 am,2

 · · · a1,n   · · · a2,n   .  .. . ..   · · · am,n

mit Koeffizienten oder Einträgen a j,k ∈ R heißt eine m × n-Matrix über R. Dabei heißt m die Zeilenzahl und n die Spaltenzahl. Matrizen A, B, C schreibt man häufig in Kurzform   A = a j,k j=1,...,m = (a j,k ), B = (b j,k ), C = (c j,k ). k=1,...,n

Dabei heißt j der Zeilenindex und k der Spaltenindex, 1 ≤ j ≤ m, 1 ≤ k ≤ n. Mit R(m,n) wird die Menge aller m × n–Matrizen über R bezeichnet.

Auf R(m,n) wird eine Addition und eine Skalarmultiplikation komponentenweise eingeführt, d. h. für A, B ∈ R(m,n) , A = (a j,k ), B = (b j,k ), λ ∈ R : A + B : = C := (c j,k ) ∈ R(m,n) , wobei c j,k : = a j,k + b j,k für alle j = 1, . . . , m, k = 1, . . . , n λA : = C := (c j,k ) ∈ R(m,n) , wobei c j,k : = λa j,k für alle j = 1, . . . , m, k = 1, . . . , n . Hierbei ist das neutrale Element (bezüglich der Addition) definiert durch 0 ∈ R(m,n) , 0 = (a j,k ), a j,k := 0 für alle j = 1, . . . , m, k = 1, . . . , n , auch Nullmatrix genannt. Das inverse Element (bezüglich Addition) zu A = (a j,k ) ∈ R(m,n) ist definiert durch −A = (b j,k ) ∈ R(m,n) , b j,k := −a j,k für alle j = 1, . . . , m, k = 1, . . . , n .

Satz 1.34: Vektorraum der Matrizen 

 R(m,n) , +, · nach Definition 1.33 bildet einen R-Vektorraum.

Beweis: Klar bzw. Bemerkungen 1.35, 2).



1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

51

Bemerkungen 1.35 1) a) R(n,1) entspricht Rn als Spalten aufgefasst. b) R(1,n) entspricht Rn als Zeile aufgefasst. c) R(1,1) entspricht R. Der Terminus „entspricht“ wird später mit dem Isomorphiebegriff (Definition 2.4) genau gefasst. 2) R(m,n) kann aufgefasst werden als Abb({1, . . . , m} × {1, . . . , n}, R), wobei die Abbildung f durch alle ihre Bilder f ( j, k) dargestellt wird und f ( j, k) in die j-te Zeile und k-te Spalte einer Matrix geschrieben wird. 3) R(m,n) ist nach 2) somit hinsichtlich seiner Vektorraumstruktur nur eine neue Schreibweise für Rm·n . 4) Seien (V, +, ·), (W, +, ·) R-Vektorräume, dann wird das Produkt V × W (siehe Anhang A.4) zu einem R-Vektorraum durch die Verknüpfungen (u, w) + (u′ , w′ ) := (u + u′ , w + w′ ) λ(u, w) := (λu, λw) für u, u′ ∈ V, w, w′ ∈ W, λ ∈ R. In diesem Sinn entspricht Rn dem fortgesetzten Produkt des R-Vektorraums R. △ Manchmal ist es nützlich, Matrizen in kleinere Teilmatrizen zu zerlegen, auch partitionieren genannt, z. B. für A ∈ R(m,n) , m = m1 + m2 , n = n1 + n2 : ! A1 mit A1 ∈ R(m1 ,n) , A2 ∈ R(m2 ,n) (1.32) A= A2 oder   A = A1 A2 mit A1 ∈ R(m,n1 ) , A2 ∈ R(m,n2 )

oder entsprechend fortgesetzt.

Dabei treten i. Allg. nur „verträgliche“ Zerlegungen bzw. Partitionierungen auf wie ! A1,1 A1,2 A= A2,1 A2,2 mit A1,1 ∈ R(m1 ,n1 ) , A1,2 ∈ R(m1 ,n2 ) , A2,1 ∈ R(m2 ,n1 ) , A2,2 ∈ R(m2 ,n2 ) . Diese kann insbesondere auch auf Zahlenvektoren in Spalten- oder Zeilenform angewendet werden. In der rekursiven Beschreibung des Gauss-Verfahrens sind Zerlegungen schon benutzt worden.

52

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Mit solchen Blockmatrizen kann gerechnet werden wie mit kleinen Matrizen, bei denen die Einträge Matrizen sind anstelle von Zahlen, also z. B. seien ! ! B1 A1 , B= A, B ∈ R(m,n) und A= A2 B2 miteinander verträglich zerlegt, d. h. die Zeilenzahlen von A1 und B1 sind gleich, dann ! A1 + B1 . A+B= A2 + B2 Mit Partitionierungen lassen sich die mit dem Gauss-Jordan-Verfahren in Zusammenhang stehende Grundformen kompakter darstellen. • Staffelsystem (1.9): A=

! RF ∈ R(m,n) , 0 0

wobei R ∈ R(r,r) eine obere Dreiecksmatrix ist, F ∈ R(r,n−r) und die Dimensionen der Nullmatrizen sind (m − r, r) bzw. (m − r, n − r), wobei die letzten drei nicht alle auftreten müssen. • Zeilenstufenform (1.10): wie (1.9), mit   0 · · · · · · 0  .. . . ..  . . . R =  . . . ..  . . .  . 0 ··· ··· 0

 ♯ ∗ · · · · · · · · · · · · ∗  .  0 · · · 0 ♯ ∗ · · · ..  (r,˜n)  ..  ∈ R .. . · · · · · · · · · · · · · · · .   0 ··· ··· ··· ··· ··· ∗

P (r,nr ) n˜ = r−1 mit den Stufenlängen n0 , . . . , nr . i=0 ni , F ∈ R • reduzierte Zeilenstufenform (1.16): wie in (1.10) mit   0 · · · · · · · · · 0  . . ..  .. . . .   .. .. . . R =  . . .   .. . . ..  . . .  0 ··· ··· ··· 0

1 ∗ ··· ··· 0 0 ··· ··· 0 1 .. . ··· ··· ··· ··· 0 ··· ··· ··· ··· 0 ··· ··· ··· ···

 ∗ · · · ∗ 0  .  ∗ · · · · · · ..   .  · · · · · · · · · ..  .   · · · · · · · · · 0  ··· ··· ··· 1

Wenn nach Spaltenumordnung die r Pivotspalten auf den ersten Positionen stehen, dann schließlich ! 1 F , A= r 0 0 mit F ∈ R(r,n−r) .

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

53

Mathematische Modellierung 1 Bei einer konkreten Anwendung können Zahlen bzw. Komponenten eins n-Tupels (oder die Einträge einer Matrix) verschiedenste Bedeutungen haben: Sie sind dimensionsbehaftet. Aber nicht bei allen Größen ist es sinnvoll sie zu addieren. In einer technischen Anwendung können n Körper betrachtet werden mit Massen mi , Volumina Vi und Dichten ρi , i = 1, . . . , n. Zwar ist es sinnvoll, die Gesamtmasse m bzw. das Gesamtvolumen V zu bilden m :=

n X

mi ,

V :=

i=1

n X

Vi ,

i=1

nicht aber die Summe der Dichten. Man spricht auch von extensiven gegenüber intensiven Größen. Ein Tupelraum aus Massen oder Volumina ist infolgedessen sinnvoll, jedoch nicht aus Dichten. Analog können in einer ökonomischen Anwendung n Produkte betrachtet werdem mit Erträgen ei , Stückzahlen S i und Preisen pi , i = 1, . . . , n. Analog sind hier Gesamterträge e und Gesamtstückzahlen S e :=

n X i=1

ei ,

S :=

n X

Si

i=1

sinnvoll, nicht aber die Summe der Preise; analog sind Tupelräume aus Erträgen oder Stückzahlen sinnvoll. ^

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • • •

Tupelraum Rn , Addition und Skalarmultiplikation Gerade, Ebene, Hyperebene R-Vektorraum Funktionenräume Rechnen mit partitionierten Matrizen

Zusammenhänge: • Geraden und Ebenen in Parameter- und Gleichungsdarstellung (Satz 1.19, 1.21, 1.24) • Hyperebenen und LGS • Funktionenräume als R-Vektorräume

Beispiele: • • • •

Polynome (höchstens n-ten Grades) R(x) (bzw. Rn (x)) Treppenfunktionen S 0 (∆) lineare Splines S 1 (∆) Matrizenraum R(m,n)

54

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Aufgaben Aufgabe 1.9 (K) Zeigen Sie: a) Die drei Geraden im R2 ! ! −7 2 L1 := +R , 0 1

L2 :=

! ! 5 −1 +R , 0 1

L3 :=

! ! 0 −1 +R 8 4

schneiden sich in einem Punkt. b) Die drei Punkte (10, −4)t , (4, 0)t und (−5, 6)t liegen auf einer Geraden. Aufgabe 1.10 (K) Es sei L ⊂ R2 die Gerade durch die Punkte (−1, 3)t und (5, −2)t , sowie M ⊂ R2 die Gerade durch die Punkte (−2, −2)t und (1, 6)t . Berechnen Sie den Schnittpunkt von L und M. Aufgabe 1.11 (K) Zeigen Sie, dass die drei Geraden im R2 mit den Gleichungen x + 2y − 1 = 0,

3x + y + 2 = 0,

−x + 3y − 4 = 0

durch einen Punkt verlaufen und berechnen Sie diesen Punkt. Aufgabe 1.12 (G) Es seien L1 , L2 , L3 und L4 vier verschiedene Geraden in der Ebene R2 derart, dass sich je zwei dieser Geraden in einem Punkt treffen. S i, j bezeichne den Schnittpunkt der Geraden Li und L j , (1 ≤ i < j ≤ 4). Die sechs Schnittpunkte S i, j , 1 ≤ i < j ≤ 4 seien alle verschieden. Dann liegen die Mittelpunkte der drei Strecken S 1,2 S 3,4 , S 1,3 S 2,4 und S 1,4 S 2,3 auf einer Geraden. Beweisen Sie diese Aussage für den Spezialfall, dass die Geraden durch die Gleichungen y = 0,

x = 0,

x + y = 1,

x y + =1 λ µ

gegeben sind. Der allgemeine Fall folgt dann durch Koordinatentransformation (siehe Aufgabe 4.46). Aufgabe 1.13 (T) Sei M , ∅ eine Menge, (W, +, ·) ein R-Vektorraum. Zeigen Sie: Auf Abb(M, W) wird durch + und · wie in Definition 1.31 eine R-Vektorraumstruktur eingeführt.

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

55

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

1.3.1 Erzeugendensystem und lineare Hülle Im Folgenden sei (V, +, ·) ein R-Vektorraum im Sinn von Definition 1.30.

Sei U eine Gerade oder Ebene durch 0 in Rn (nach Definition 1.23) oder einem allgemeinen Vektorraum, etwa U = Ru + Rw. Seien xi = λi u + ξi w ∈ U, i = 1, 2 für λi , ξi ∈ R beliebige Elemente in U, seien s, t ∈ R, dann gilt: sx1 + tx2 = s(λ1 u + ξ1 w) + t(λ2 u + ξ2 w) = (sλ1 + tλ2 )u + (sξ1 + tξ2 )w ∈ U . Es gilt also: Aus

x, y ∈ U , s, t ∈ R

folgt

sx + ty ∈ U

(LIN) .

Diese Eigenschaft (LIN) kann auch in zwei Teilen geschrieben werden: Additivität: Aus Homogenität: Aus

x, y ∈ U folgt x + y ∈ U x ∈ U, c ∈ R folgt cx ∈ U

(LIN, add) , (LIN, mul) .

Sie ist für die Lineare Algebra so wichtig, dass wir sie durch eine Definition hervorheben: Definition 1.36 Eine nicht leere Teilmenge U ⊂ V heißt linearer Unterraum oder Untervektorraum von V, wenn sie die Eigenschaft (LIN) besitzt. Bevor wir weitere Beispiele angeben, notieren wir, dass jeder lineare Unterraum U den Nullvektor enthält: Denn weil U nicht leer ist, enthält U mindestens einen Vektor x, und dann wegen (LIN, mul) auch den Nullvektor 0 = 0 · x. Die Bezeichnung ist berechtigt, da die auf U × U bzw. R × U eingeschränkten Verknüpfungen der Addition in V und der Skalarmultiplikation nach (LIN) wieder Verknüpfungen, d. h. Abbildungen nach U sind und (U, +, · ) ein R-Vektorraum ist (Übung).

Beispiele 1.37

1) Offensichtlich sind der Nullraum {0}, der nur den Nullvektor enthält, und der ganze Raum V lineare Unterräume von V. 2) Sind U1 , U2 ⊂ V zwei lineare Unterräume, so ist auch ihr Durchschnitt U1 ∩ U2 ein linearer Unterraum. Die Vereinigung U1 ∪ U2 ist i. Allg. kein linearer Unterraum. ◦

56

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.38 Sei A ⊂ V eine beliebige (endliche oder unendliche) nicht leere Teilmenge. Jede endliche Summe x=

k X ν=1

cν aν ,

k ∈ N, cν ∈ R, aν ∈ A, ν = 1, . . . , k

nennen wir eine Linearkombination von Vektoren aus A. Die Menge aller Linearkombinationen von Vektoren aus A nP o span(A) := kν=1 cν aν : k ∈ N, cν ∈ R, aν ∈ A, ν = 1, . . . , k

heißt der von A aufgespannte Unterraum oder die lineare Hülle. A heißt auch Erzeugendensystem von span(A). Für endliche Mengen A = {a1 , . . . , ak } benutzen wir dabei immer die Abkürzung span(a1 , . . . , ak ) := span({a1 , . . . , ak }) . Schließlich treffen wir noch eine Vereinbarung, die an dieser Stelle überperfektionistisch erscheinen mag. Wenn die Menge A leer ist, so vereinbaren wir: span(A) soll der Nullraum sein, d. h. span(∅) := {0}. Satz 1.39: Eigenschaften der linearen Hülle 1) span(A) ist der kleinste lineare Unterraum von V, der die Menge A enthält, d. h. : a) span(A) ist ein linearer Unterraum, b) jeder lineare Unterraum U ⊂ V, der A enthält, enthält auch span(A).

2) Sind A1 ⊂ A2 ⊂ V beliebige nicht leere Mengen, dann gilt: span(A1 ) ⊂ span(A2 ).

3) Seien A1 , A2 ⊂ V beliebige nicht leere Mengen, so gilt:

span(A1 ∪ A2 ) = span(A1 ) + span(A2 ) , wobei für zwei Teilmengen U1 , U2 von V definiert wird U1 + U2 := {u1 + u2 : u1 ∈ U1 , u2 ∈ U2 } . Insbesondere ist somit für lineare Unterräume U1 , U2 : U1 + U2 = span(U1 ∪ U2 ) .

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

Pk

57

Pl

Beweis: Zu 1): Beweis von a): Seien x = 1 cµ aµ und y = 1 dν a′ν Elemente in span(A). P P Dann ist auch der Vektor sx + ty = k1 scµ aµ + l1 tdν a′ν eine Linearkombination von Vektoren aµ , a′ν ∈ A und gehört zu span(A). Beweis von b): Enthält der lineare Unterraum U ⊂ V die Menge A, so wegen wiederholter Anwendung von (LIN) auch jede endliche Linearkombination von Vektoren aus A, und damit die Menge span(A) . Zu 2): Es ist A1 ⊂ A2 ⊂ span(A2 ) und span(A2 ) ein linearer Unterraum, demnach folgt die Behauptung aus 1). Zu 3): Weil A1 ∪ A2 in dem linearen Unterraum span(A1 ) + span(A2 ) enthalten ist, folgt die Inklusion span(A1 ∪ A2 ) ⊂ span(A1 ) + span(A2 ) aus 1). Wegen A1 ⊂ (A1 ∪ A2 ) ist span(A1 ) ⊂ span(A1 ∪ A2 ) nach 2). Analog gilt span(A2 ) ⊂ span(A1 ∪ A2 ). Weil span(A1 ∪ A2 ) ⊂ V ein linearer Unterraum ist, ist dann auch jede Summe von Vektoren daraus in diesem Unterraum enthalten. Insbesondere gilt auch die Inklusion span(A1 ) + span(A2 ) ⊂ span(A1 ∪ A2 ). Sind A1 = U1 und A2 = U2 lineare Unterräume, so ist span(U1 ) = U1 und span(U2 ) = U2 . Nach dem Bewiesenen ist folglich span(U1 ∪ U2 ) = U1 + U2 .



Wir betrachten Spezialfälle für derart aufgespannte lineare Unterräume. Bemerkung 1.40 (Geometrie) Eine Gerade Rw durch 0 ist span(w). Eine Ebene Rw1 + Rw2 durch 0 ist span(w1 , w2 ). Sind w1 , w2 ∈ V, so dass w1 = cw2 für ein c ∈ R, dann ist span(w1 , w2 ) = span(w1 ), also eine Gerade und keine Ebene. △ Bemerkungen 1.41

1) Mit eν ∈ Rn werden wir stets den Vektor bezeichnen, der an der ν-ten Stelle den Eintrag 1 enthält und sonst lauter Nullen: eν = ( 0, . . . , 0, 1, 0, . . . , 0 )t . ↑ ↑ ↑ 1 ν n Die eν heißen Einheitsvektoren von Rn . Für k = 1, . . . , n ist dann   k   X     x= span(e1 , . . . , ek ) =  cν eν      1

= {x = (c1 , . . . , ck , 0, . . . , 0)}

= {x ∈ Rn : xk+1 = . . . = xn = 0} .

2) Staffelsysteme nach (1.9) sind spezielle obere Dreiecksmatrizen in R(m,n) , wobei:

58

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

A = (a j,k ) ∈ R(m,n) heißt obere Dreiecksmatrix, wenn a j,k = 0 für j > k , j = 1, . . . , m , k = 1, . . . , n . U := {A ∈ R(m,n) : A ist obere Dreiecksmatrix} ist ein Unterraum von R(m,n) . Analoges gilt für die unteren Dreiecksmatrizen. 3) Betrachte in (R[x], +, ·) die Elemente fi , i = 0, . . . , n, definiert durch fi (x) = xi , die Monome, dann ist span( f0 , . . . , fn ) = Rn [x] .

(1.33)

4) Betrachte in (R[x], +, ·) die Elemente fi , i = 0, 1, 2 wie in 4) und g(x) := (1 − x)2 , dann ist span( f0 , f1 , f2 , g) = span( f0 , f1 , f2 ) = R2 [x]. 5) Betrachte in S 0 (∆) (siehe (1.27)) auf der Zerlegung ∆ : a = x0 < x1 < . . . < xn−1 < xn = b,

dann ist

   1 , fi (x) :=   0 ,    1 , fn−1 (x) :=   0 ,

x ∈ [xi , xi+1 ) , sonst,

für i = 0, . . . , n − 2 ,

x ∈ [xn−1 , xn ] , sonst,

(1.34)

span( f0 , . . . , fn−1 ) = S 0 (∆) .

*6) Sei ∆ eine Zerlegung von [a, b] und zur Abkürzung hi := xi − xi−1 ,

Ii := [xi−1 , xi ]

so wird S 1 (∆) (nach (1.30)) aufgespannt von:

für i = 1, . . . , n ,

(1.35)

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

   (x1 − x)/h1 , x ∈ I1 , f0 (x) :=   0 , sonst,    (x − xi−1 )/hi , x ∈ Ii ,     fi (x) :=  (x − x)/h , x ∈ Ii+1 , i+1 i+1     0 . sonst    (x − xn−1 )/hn , x ∈ In , fn (x) :=   0 sonst.

59

(1.36)

für i = 1, . . . , n − 1 ,

Das Kronecker-Symbol 19 sei folgende Abkürzung:    1 für i = j δi, j =   0 für i , j .

(1.37)

(1.38)

Dabei durchlaufen i bzw. j je nach Zusammenhang eventuell auch verschiedene Teilmengen von N. Wegen fi (x j ) = δi, j

für i, j = 0, . . . , n

gilt dann für f ∈ S 1 (∆): f (x) =

n X

λi fi (x)

für alle x ∈ [a, b] genau dann, wenn λi = f (xi ), i = 0, . . . , n . (1.39)

i=0

Das kann man folgendermaßen einsehen: „⇒“: Man wähle x = x j , j = 0, . . . , n, dann n X i=0

λi f (x j ) =

n X

λi δi, j = λ j .

i=0

„⇐“ : Auf I j wird eine Gerade durch ihre Werte bei x j−1 und x j festgelegt, also für x ∈ I j f (x) = f (x j−1 ) =

n X i=0

xj − x x − x j−1 + f (x j ) = f (x j−1 ) f j−1 (x) + f (x j ) f j (x) hj hj

λi fi (x) ,

da fi |I j = 0 für i , j, i , j − 1 .

Die fi heißen wegen ihrer Gestalt auch Hutfunktionen (siehe Abbildung 1.8). 19

Leopold Kronecker ∗7. Dezember 1823 in Liegnitz †29. Dezember 1891 in Berlin



60

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

f0

fi

xi−1

xi

xi+1

fn

Hutfunktionen

Polygonzug

Abb. 1.8: Hutfunktionen und Polygonzug.

Beispiel 1(2) – Historische Probleme Im Jahr 1202 formulierte Leonardo Da Pisa20 , genannt Fibonacci, ein Modell für das Wachstum einer Kaninchenpopulation durch die folgende rekursiv definierte Folge, die Fibonacci-Folge : f1 := 0,

f2 := 1

fn+2 := fn+1 + fn

für n ∈ N .

(MM.17) (MM.18)

Dadurch sind die fn ∈ N eindeutig bestimmt bzw. allgemeiner wird durch die Vorgabe von f1 , f2 ∈ R durch (MM.18) eindeutig eine Folge in RN festgelegt, die (MM.17) und (MM.18) erfüllt. Sei V := {(an )n ∈ RN : (an ) erfüllt (MM.18) } . Dann ist V ein linearer Unterraum von RN . Das kann man wie folgt einsehen: Seien (an )n , (bn )n ∈ V, dann gilt an+2 + bn+2 = an+1 + an + bn+1 + bn = (an+1 + bn+1 ) + (an + bn ) und analog für das skalare Vielfache. Die Aussage gilt auch, wenn (MM.18) verallgemeinert wird zu fn+2 := a(1) fn+1 + a(0) fn

(MM.19)

für beliebige feste a(0) , a(1) ∈ R, oder auch für m ∈ N bei Vorgabe von f1 , f2 , . . . , fm ∈ R und 20

Leonardo da Pisa (Fibonacci) ∗um 1180 in Pisa †nach 1241 in Pisa

(MM.20)

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt fn+m :=

m−1 X

a(i) fn+i

61 für n ∈ N

i=0

(MM.21)

für beliebige feste a(0) , . . . , a(m−1) ∈ R, a(0) , 0. (MM.20), (MM.21) heißen auch (Anfangswertprobleme für) lineare Differenzengleichungen m-ter Ordnung. Die Anfangswerte f1 , f2 (bzw. f1 , . . . , fm ) sind anscheinend die Freiheitsgrade der Elemente von V. Dies drückt sich aus durch: Lemma 1.42 Sei V definiert durch (MM.21). Seien ai ∈ Rm , i = 1, . . . , m, so gewählt, dass span(a1 , . . . , am ) = Rm . Seien (ain )n ∈ RN die durch (MM.21) jeweils mit den Vorgaben ai1 , . . . aim ausgewählten Folgen in V. Dann gilt: V = span((a1n )n , . . . , (am n )n ) .

Beweis: Sei (cn )n ∈ V, dann gibt es γ1 , . . . , γm ∈ R, sodass (c1 , . . . , cm )t =

m X

γi ai .

(MM.22)

i=1

Betrachtet man die zu diesen γi gehörige Linearkombination der (ain ) ∈ V, dann ist diese auch in V und erfüllt die gleichen Anfangswerte wie (cn )n , also (cn )n =

m X

γi (ain )n .

(MM.23)

i=1

 ^

.

Satz 1.43: Direkte Summe ↔ eindeutige Darstellung Sei V ein R-Vektorraum, U1 , U2 lineare Unterräume von V. Es sei U = U1 + U2 . Dann gibt es zu jedem u ∈ U eine Darstellung u = u1 + u2

mit u1 ∈ U1 , u2 ∈ U2 .

Diese Darstellung ist für alle u ∈ U eindeutig genau dann, wenn U1 ∩ U2 = {0}. In diesem Fall heißt die Summe U1 + U2 bzw. die Zerlegung von U in U1 und U2 direkt, geschrieben U = U1 ⊕ U2 .

Beweis: Sei die Darstellung eindeutig. Für jeden Vektor u ∈ U1 ∩ U2 hat man sodann aber zwei Darstellungen

62

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

u = u1 + 0 = 0 + u2

mit u1 = u ∈ U1

mit u2 = u ∈ U2 .

Aus der Eindeutigkeit der Darstellung folgt u = u1 = 0. Also ist U1 ∩ U2 der Nullraum. Sei umgekehrt U1 ∩ U2 = {0}. Der Vektor u habe die Darstellungen u = u1 + u2 = u′1 + u′2

mit u1 , u′1 ∈ U1 , u2 , u′2 ∈ U2 .

Daraus folgt u1 − u′1 = u′2 − u2 ∈ U1 ∩ U2 = {0} , also u1 = u′1 und u2 = u′2 .



Ist U1 = Ru, U2 = Rw für u, w ∈ V und einen R-Vektorraum V, so bedeutet die Eindeutigkeit der Darstellung von x ∈ U = Ru + Rw, d. h. die Eindeutigkeit der Darstellung x = cu + dw mit c, d ∈ R , dass gilt: λu + µw = 0 ⇒ λ = µ = 0

für alle λ, µ ∈ R .

Im folgenden Abschnitt wird diese Eigenschaft von {u, w} als lineare Unabhängigkeit bezeichnet werden. Sie sorgt dafür, dass U = Ru + Rw eine Ebene und keine Gerade ist (siehe Bemerkung 1.40).

1.3.2 Das Matrix-Vektor-Produkt Mit dem Begriff des „aufgespannten Unterraums“ können wir die Lösbarkeitsbedingung für ein lineares Gleichungssystem n X

aµ,ν xν = bµ ,

µ = 1, . . . , m

ν=1

anders formulieren. Wir bezeichnen mit a(ν) ∈ Rm die Spaltenvektoren der Koeffizientenmatrix und mit b den Vektor auf der rechten Seite des Gleichungssystems: a(ν)

   a1,ν    =  ...  ,   am,ν

   b1    b =  ...  .   bm

Mit diesen Vektoren kann man das Gleichungssystem in Vektorschreibweise als

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt n X

63

xν a(ν) = b

ν=1

notieren. Man sieht: Satz 1.44: Lösbarkeit LGS   Sei A = a(1) , . . . , a(n) ∈ R(m,n) , b ∈ Rm . Das Gleichungssystem Ax = b ist genau dann lösbar, wenn die rechte Seite b eine Linearkombination der Spaltenvektoren a(1) , . . . , a(n) ist, d. h. , wenn       b ∈ span a(1) , . . . , a(n) bzw. span a(1) , . . . , a(n) = span a(1) , . . . , a(n) , b .

ALGS

Demnach lautet die zeilenweise Sicht eines LGS mit n Unbekannten und m Gleichungen: • Finde den Schnitt von m Hyperebenen in Rn ,

Entsprechend lautet die spaltenweise Sicht :

• Finde eine Linearkombination aus den n Spalten aus Rm , die die rechte Seite b darstellt. Andersherum gesehen haben wir ein Verfahren gefunden, um zu prüfen, ob ein b ∈ Rn Linearkombination von gegebenem a1 , . . . ak ∈ Rn ist: Man definiere eineKoeffizientenmatrix A ∈ R(n,k) mit den aν als Spalten und prüfe mit dem Gaussschen Eliminationsverfahren das durch (A, b) gegebene LGS auf Lösbarkeit. Auf der Basis der obigen Beobachtung führen wir ein Produkt zwischen einer Matrix A ∈ R(m,n) und einem Zahlenvektor x ∈ Rn ein: Definition 1.45 Seien m, n ∈ N. Weiter sei A = (a(1) , . . . , a(n) ) ∈ R(m,n) eine Matrix mit den Spalten a(ν) ∈ Rm , ν = 1, . . . , n und es sei x = (xν )ν ∈ Rn . Dann wird das Matrix-VektorProdukt Ax ∈ Rm als Linearkombination der a(ν) mit den Skalaren xν definiert, d. h. Ax :=

n X

xν a(ν) .

ν=1

Ein LGS mit Koeffizientenmatrix A ∈ R(m,n) und rechter Seite b ∈ Rm kann also kurz durch die folgende Vektorgleichung bezeichnet werden: Gesucht ist x ∈ Rn , so dass Ax = b .

RLGS

64

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Damit hat die nur abkürzende Schreibweise aus (1.7) eine Bedeutung erhalten. Analog hat span (a1 , . . . , ak ) für aν ∈ Rn , ν = 1, . . . , n, eine Darstellung als Matrix-Vektorprodukt mit beliebigen x ∈ Rk . Dazu setzen wir A := (a1 , . . . , ak ) ∈ R(n,k) , d. h. A hat die aν als Spalten. Dann gilt: span (a1 , . . . , ak ) = {y = Ax : x ∈ Rk } .

(1.40)

Hierfür gibt es folgende Rechenregeln: Theorem 1.46: Linearität Matrix-Vektor-Produkt Seien m, n ∈ N, A, B ∈ R(m,n) , x, y ∈ Rn , λ ∈ R. Dann gilt: 1) A(x + y) = Ax + Ay , 2) A(λx) = λAx , 3) (A + B)x = Ax + Bx , 4) (λA)x = λAx . Die Eigenschaften 1) und 2) heißen auch die Linearität des Matrix-Vektor-Produkts bezüglich x.

Beweis: Sei A = (a(1) , . . . , a(n) ) die Spaltendarstellung von A, dann ist A(x + y) = =

n X

ν=1 n X

(xν + yν )a(ν)

=

n X

xν a(ν) + yν a(ν)

ν=1

xν a(ν) +

ν=1

n X

yν a(ν) =Ax + Ay ,

ν=1

d. h. 1) gilt und 3) ergibt sich analog. Weiterhin ist wegen λA = (λa(1) , . . . , λa(n) ) (λA)x =

n X

xν λa

ν=1

Mithin haben wir 4), 2) ergibt sich analog.

(ν)



n X

xν a(ν) .

ν=1



Betrachten wir speziell ein homogenes LGS mit n Unbekannten und m Gleichungen, das bedeutet die Lösungsmenge

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

65

U := {x ∈ Rn : Ax = 0} ,

(1.41)

dann zeigt Theorem 1.46 1), 2), dass U ein linearer Unterraum von Rn ist. Ist A ∈ R(m,n) als Blockmatrix geschrieben und x verträglich partitioniert, so überträgt sich dies auf das Matrix-Vektor-Produkt. Sind z. B. !   x1 A = A1 A2 mit x1 ∈ Rn1 , x2 ∈ Rn2 , mit A1 ∈ R(m,n1 ) , A2 ∈ R(m,n2 ) , x = x2 dann gilt

(1.42)

Ax = A1 x1 + A2 x2 , wie sich sofort aus der Definition als Linearkombination ergibt, und analog ! A1 : A= A2 A=

! ! x1 A1,1 A1,2 , x= : A2,1 A2,2 x2

! A1 x , Ax = A2 x Ax =

! A1,1 x1 + A1,2 x2 . A2,1 x1 + A2,2 x2

Solange dementsprechend die Teile in der Anzahl der Komponenten zusammenpassen, kann wie mit kleinen (hier (2, 2)-) Matrizen gerechnet werden. Bemerkung 1.47 Zu den einfachsten Matrizen gehören die Diagonalmatrizen D ∈ R(m,n) , die höchstens bei gleichem Zeilen- und Spaltenindex, d. h. auf der Diagonalen, einen Eintrag haben: D = (d j,k ) j,k

und d j,k = d j δ j,k

für j = 1, . . . , m, k = 1, . . . , n .

Dabei sind d1 , . . . , dmin(m,n) also die Diagonaleinträge, die formal mit 0 bis zum Index max(m, n) aufgefüllt werden. Als Kurzschreibweise verwenden wir  D = diag d1 , . . . , dmin(m,n) .

Für das Matrix-Vektor-Produkt ist also für i = 1, . . . , m :    di xi für i = 1, . . . , min(m, n) , (Dx)i =   0 , sonst .



66

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

mn

m=n

Abb. 1.9: Mögliche Diagonalmatrizen.

Ein Spezialfall einer Diagonalmatrix für m = n ist die Einheitsmatrix 1n , bei der für die Diagonaleinträge d1 = . . . = dn = 1 gilt: 1n := (δ j,k ) j,k . Ist die Zeilen- und Spaltenzahl klar, wird auch kurz 1 geschrieben. 1n hat gerade die Einheitsvektoren in Rn als Spalten (und auch als Zeilen): 1n = (e1 , . . . , en ) . In Abschnitt 1.2.1, Seite 30 wurde die Operation .t zum Übergang von Zeile, d. h. von x ∈ R(1,n) , zu Spalte, d. h. zu y ∈ R(n,1) , und umgekehrt definiert. Allgemein bedeutet dies eine Vertauschung von Spalten- und Zeilenpositionen: Definition 1.48 Sei A = (ai, j) ∈ R(m,n) . Die transponierte Matrix At ∈ R(n,m) ist somit definiert durch At = (bk,l ) und bk,l := al,k , k = 1, . . . , n, l = 1, . . . , m . Ist speziell m = 1, also A ∈ R(1,n) eine Zeile, so ist für b ∈ Rn dann A b ∈ R1 eine reelle Zahl. Sind daher a, b ∈ Rn , a = (aν )ν , b = (bν )ν , d. h. a, b ∈ R(n,1) und so at ∈ R(1,n) , gilt für das Matrix-Vektor-Produkt at b =

n X ν=1

aν bν ∈ R .

Definition 1.49 Seien a, b ∈ Rn . Das (euklidische )21Skalarprodukt von a und b ist die reelle Zahl

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

(a . b) := at b =

67

n X

aν bν .

ν=1

Beispiele 1.50 (Geometrie) 1) Das Skalarprodukt ist uns schon im Begriff der Hyperebene begegnet, die in Definition 1.26 definiert wurde als H = {x ∈ Rn : (a . x) = b} .

(1.43)

Ist u ∈ H beliebig fest gewählt, so ist (1.43) äquivalent zu H = {x ∈ Rn : (a . x − u) = 0} .

(1.44)

Hierbei geht die Rechenregel (a . λx + µy) = λ (a . x) + µ (a . y) ein, die sofort aus Theorem 1.46, 1) und 2) folgt, aber auch, und analog für die erste Komponente, direkt mit der Summendarstellung verifiziert werden kann. Insbesondere kann a in (1.44) auch durch jedes Vielfache ungleich 0 ersetzt werden. Die geometrische Bedeutung dieser Vektoren wird in Abschnitt 1.5 untersucht. 2) Den möglichen Schnittpunkt einer Hyperebene H nach (1.43) und einer Gerade g gegeben durch g : c + Rw kann man einfach durch Einsetzen der Geradengleichung in (1.43) gewinnen und erhält: Ist (a . w) = 0 und b , (a . c), so gibt es keinen Schnittpunkt, die Gerade ist „parallel“ zu H. Ist (a . w) = 0 und b = (a . c), so verläuft die Gerade ganz in H. Ist (a . w) , 0, ist der eindeutige Schnittpunkt u = c + λw,

λ = (b − (a . c)) / (a . w) .

Man beachte dazu 0 = (a . c + λw) − b = (a . c) + λ (a . w) − b ,

als zu erfüllende Gleichung für λ.

.



Will man ein Matrix-Vektor-Produkt von A = (aµ,ν )µ,ν ∈ R(m,n) und x = (xν )ν ∈ Rn per Hand ausrechnen, also (Ax)µ =

n X

aµ,ν xν

ν=1

bilden, geht man meist folgendermaßen vor: Die Spalte x wird über die µ-te Zeile at(µ) von A „gelegt“, komponentenweise multipliziert und dann aufaddiert, d. h. gerade 21

Euklid von Alexandria ∗um 360 v. Chr. vermutlich in Athen †ca. 280 v. Chr.

68

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

(„Zeile mal Spalte“ ) gebildet.

   a(1) . x    .. Ax =  .    a(m) . x

(1.45)

Bei dieser zeilenweisen Sicht des Matrix-Vektor-Produkts (im Vergleich zur spaltenweisen Definition) sind also m Skalarprodukte im Rn zu berechnen. *Bemerkungen 1.51 1) Ein Skalarprodukt im Rn benötigt n + n − 1 = 2n − 1 Operationen. Interessant ist diese Aussage für große n, wobei die führende Potenz k in n (hier k = 1) die wesentliche Information darstellt (d. h. die niedrigen n-Potenzen, hier −1 = −1n0 und der Vorfaktor in der höchsten Potenz werden als Information vernachlässigt). Die Notation dafür ist O(nk )

(sprich: Groß O von nk ) .

Ein Skalarprodukt in Rn benötigt demnach O(n) Operationen. Die Kombination aus Skalarmultiplikation und Addition ax + y, eine SAXPY-Operation, benötigt also auch O(n) Operationen. 2) Da ein Matrix-Vektor-Produkt durch m Skalarprodukte in Rn bestimmt wird, bzw. es sich um n SAXPY-Operationen in Rm handelt, benötigt es somit O(nm) Operationen. Im Folgenden betrachten wir solche A ∈ R(n,n) , für die das Gauss-Verfahren nur Stufenlängen 0 erzeugt, dementsprechend den eindeutig lösbaren Fall. 3) Die Rückwärtssubstitution (für ein Staffelsystem nach (1.9) mit r = n = m) benötigt O(n2 ) Operationen, nämlich n Divisionen und tionen.

Pn

ν=1 (n

− ν) = O(n2 ) Multiplikationen und analog O(n2 ) Addi-

4) Das Gauss-Verfahren, d. h. die Überführung einer Matrix in Staffelform (1.9), benötigt O(n3 ) Operationen (siehe Aufgabe 1.17). Die Lösung eines Staffelsystems ist damit demgegenüber vernachlässigbar.

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

69

5) Bei der obigen Überlegung wurde vorausgesetzt, dass die Einträge i. Allg. von Null verschieden sind, die Matrix also vollbesetzt ist. Wenn andererseits klar ist, dass z. B. die betrachteten Matrizen in jeder Zeile nur höchstens k (< n) Einträge haben (im Beispiel 3 ist k = 3), benötigt das Matrix-Vektor-Produkt nur O(km) Operationen.

(1.46)

Ist k konstant (und klein) auch bei wachsenden n und m, reduziert sich (1.46) auf O(m) Operationen. △ Mathematische Modellierung 2 Mit dem Skalarprodukt, und damit mit dem Matrix-Vektor-Produkt (wegen (1.45)), lassen sich Mittelungsprozesse ausdrücken: Anknüpfend an Mathematische Modellierung 1 lassen sich also Gesamtmassen m und Gesamtvolumen V schreiben als m = (1 . m) ,

V = (1 . V) ,

wobei m = (mi )i , V = (Vi )i und 1 = (1)i jeweils Elemente von Rn sind. Analog lässt sich auch m ausdrücken als m = (ρ . V) , wobei ρ = (ρi )i aus den (Einzel-)Dichten gebildet wird. Ein ähnliches Vorgehen in einer ökonomischen Anwendung liefert die Darstellung für Gesamterträge und Gesamtstückzahl S , wie etwa e = ( p . s) ,

(MM.24)

wobei s = (si )i und p = (pi )i aus den (Einzel-)Stückzahlen und (Einzel-)Preisen gebildet wird. Die Zuordnung von Einzelstückzahlen zu Gesamtstückzahl und Gesamtertrag ist von daher durch folgendes MatrixVektor-Produkt gegeben: ! ! S 1 ... 1 = s. e p1 . . . pn ^ Beispiel 4(2) – Input-Output-Analyse Wir kehren zurück zur Input-Output-Analyse, mit einem InputOutput-Modell nach (MM.7), dem LGS Bx = (1 − A)x = f .

(MM.25)

Dabei bedeutet Zulässigkeit, dass zu jedem f ≥ 0 eine Lösung x ≥ 0 existiert. Notwendigerweise muss dann für jedes beliebige f ∈ Rn eine Lösung x ∈ Rn von (MM.25) existieren. Eine beliebige rechte Seite f kann nämlich zerlegt werden in f = f+ − f− , wobei fi+ := max( fi , 0) ≥ 0 ,

fi− := max(− fi , 0) ≥ 0

für alle i = 1, . . . , n .

Aufgrund der Zulässigkeit existieren demnach Lösungen x+ (≥ 0), x− (≥ 0) zu f + bzw. f − und somit nach Theorem 1.46, 1) für x := x+ − x− Bx = Bx+ − Bx− = f + − f − = f . Schreiben wir die Matrix A mit Hilfe ihrer Zeilen (a(i) ), dann lässt sich (MM.25) formulieren als

70

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums (eti − a(i) t )x = fi

für i = 1, . . . , n

bzw.  xi − a(i) . x = fi .

Summation über i liefert die folgende Darstellung des Gesamterlöses : n X

fi =

i=1

n X i=1

xi −

n X i=1

 a(i) . x .

(MM.26)

Ergänzen wir die Input-Output-Tabelle nach Tabelle 1.1 um die primären Inputs L1 , . . . , Ln (etwa als (n+1)te Zeile), so können die Kosten (in Mengeneinheiten) des Sektors j durch die Spaltensumme n X

Xi, j + L j

i=1

und damit der Gewinn Q j durch Q j := X j −

n X i=1

Xi, j − L j

ausgedrückt werden, also n X

Xi, j + L j + Q j = X j ,

j = 1, . . . , n .

i=1

Unter Schattenpreisen versteht man Preise, die sich unter idealer Konkurrenz einstellen würden, definiert dadurch, dass kein Sektor Gewinn (oder Verlust) macht, folglich Qj = 0

für alle j = 1, . . . , n .

Mit solchen Preisen P1 , . . . , Pn für die Produkte der n Sektoren und Pb1 , . . . , Pbn für die primären Inputs gilt dann n X i=1

Xi, j Pi + L j Pbj = X j P j ,

j = 1, . . . , n

und dadurch bei Annahme von X j > 0 für alle j = 1, . . . , n: n X

ai, j Pi +

i=1

L j Pbj = Pj , Xj

j = 1, . . . , n .

b

Für p, g ∈ Rn , definiert durch pi := Pi und gi := LXi Pi i , gilt darum (1− At )p = g . Hiermit sind wir beim zum Mengenmodell (MM.7) dualen Preismodell angelangt. Das Input-Output-Modell heißt profitabel, wenn zu jedem g ∈ Rn , g ≥ 0 ein p ∈ Rn , p ≥ 0 existiert, so dass (1 − At )p = g .

(MM.27)

Die obigen Überlegungen zeigen, dass dafür (MM.27) notwendigerweise für jedes g ∈ Rn lösbar sein muss. Seien f , g ∈ Rn , f , g ≥ 0 und x, p ∈ Rn zugehörige Lösungen von (MM.7) bzw. (MM.27). Dann ist infolgedessen (siehe auch Mathematische Modellierung 2) • das Volkseinkommen durch

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

71

(g . x) , • die Nettowertschöpfung der Gesamtwirtschaft durch (p. f) ausdrückbar. Die Schattenpreise sind gerade derart, dass hier Gleichheit gilt, wie folgende Rechnung (unter Vorwegnahme von (2.85)) zeigt:   (g . x) = (1 − At )p . x = ( p . (1 − A)x) = ( p . f ) .

Bisher wurde die Endnachfrage (etwa der Konsum der privaten Haushalte) und die primären Inputs (etwa die Arbeitsleistung der privaten Haushalte) als nicht rückgekoppelte, exogene Größen betrachtet. Wir beziehen nun diese als (n + 1)-ten Sektor mit ein und nehmen eine Proportionalität analog zu (MM.6) an, Fi = ai,n+1 Xn+1 , i = 1, . . . , n , mit ai,n+1 > 0, wobei Xn+1 als ein Maß für Beschäftigung interpretiert werden kann, was einen proportionalen Konsum bewirkt. Mit den primären Inputs steht Xn+1 über Xn+1 =

n+1 X

Li

i=1

in Verbindung, wobei noch Ln+1 aufgenommen wurde und für den Sektor Arbeit die gleiche Rolle spielt wie Xi,i für den Sektor i. Bei erweiterter Annahme Li = an+1,i Xi ,

i = 1, . . . , n + 1

mit Proportionalitätsfaktoren an+1,i > 0 geht dann das offene in das geschlossene Input-Output-Modell über, was – wenn wieder n statt n + 1 die Dimension bezeichnet – die Form annimmt: Sei A ∈ Rn,n , A ≥ 0 . Gesucht ist x ∈ Rn , x ≥ 0, x , 0, so dass Bx := (1 − A)x = 0 .

(MM.28)

Die Eigenschaften (MM.8) und auch (MM.9) bleiben bei analogen Begründungen erhalten, und ähnlich zur Eigenschaft (MM.10) ist auch die etwaige Annahme n X i=1

ai, j ≤ 1

(MM.29)

zu rechtfertigen. Der wesentliche Unterschied liegt offensichtlich darin, dass hier das homogene System nicht triviale Lösungen haben muss. Definition 1.52 Ein Vektor x ∈ Rn , so dass x > 0 und (MM.28) gilt, heißt ein Output-Gleichgewichtsvektor des geschlossenen Input-Output-Modells. Für ein x ∈ Rn , x ≥ 0 ist Ax der Vektor der laufenden Inputs. Eine notwendige Bedingung für die Existenz eines Output-Gleichgewichtsvektors ist also die Bedingung Ax ≤ x für ein x ∈ Rn , x > 0 ,

(MM.30)

72

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

die sicherstellt, dass das System überhaupt „operieren“ kann. Definition 1.53 Ein x ∈ Rn mit (MM.30) heißt zulässige Outputlösung. Existiert eine solche, heißt das geschlossene Input-Output-Modell zulässig. ^

Manchmal bezeichnet man auch Lösungsmengen inhomogener Gleichungssysteme als Unterräume. Diese besitzen dann natürlich nicht die Eigenschaft (LIN). Es handelt sich um Unterräume im Sinn der affinen Geometrie, die hier im Vorfeld definiert werden. Definition 1.54 Sei (V, +, ·) ein R-Vektorraum, U ⊂ V ein linearer Unterraum und u ∈ V. Dann heißt A = {x = u + u : u ∈ U} =: u + U

affiner Unterraum von V. ✑❝ ✑ ❝ ✑ ❝ x2 ❝A v ❝ ❝ ✻ ❝ ❝✒ ✑ ❝ ✑ ✑❝ ❝ ✑ ✑ ✯ x3 ❝ ✟✟ ✑U ❝ ✟ ❝ ✟ ❝ ✲ x1 ❝✟✟ ❝ ❝ ✑ ❝ ✑ ❝✑ Abb. 1.10: Linearer und affiner Unterraum.

Korollar 1.55 Die Lösungsmenge U eines LGS mit n Unbekannten ist im Fall der Lösbarkeit ein affiner Unterraum von Rn . U ist ein linearer Unterraum genau dann, wenn das LGS homogen ist.

Beweis: Übung.



1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

73

Seien A1 = u1 + U1 , A2 = u2 + U2 affine Unterräume von Rn , wobei U1 = span(a1 , . . . , ak ), U2 = span(ak+1 , . . . , am ) für gewisse aν ∈ Rn , ν = 1, . . . , m. Für den Schnitt A = A1 ∩ A2 gilt dann: u ∈ A ⇔ es gibt x1 , . . . , xm ∈ R , so dass u1 + ⇔

k X i=1

xi a i +

m X

i=k+1

k X

xi ai = u2 +

i=1

m X

xi a i

i=k+1

xi (−ai ) = u2 − u1 .

Dies bedeutet, alle Lösungen x = (x1 , . . . , xm )t des LGS mit rechter Seite b = u2 − u1 und A = (a1 , . . . , ak , −ak+1 , . . . , −am ) ∈ R(n,m) zu bestimmen, was wieder mit dem Gaussschen Eliminationsverfahren möglich ist. Lemma 1.56

1) Sei A = u + U ein affiner Unterraum, dann gilt für beliebige w ∈ A auch A = w + U. 2) Sind ebenso A1 = u1 + U1 , A2 = u2 + U2 affine Unterräume, dann gilt für A := A1 ∩ A2 : Die Menge A ist leer oder der affine Unterraum A = a + U1 ∩ U2 mit einem beliebigen a ∈ A.

Beweis: Übung.



Es gibt lineare Unterräume verschiedener Größe: {0} 0-dimensional

Gerade 1-dimensional

Ebene 2-dimensional

... ...

Diese Größe nennt man „Dimension“ eines linearen Unterraums. Der folgende Abschnitt dient u. a. der präzisen Definition des Dimensionsbegriffs.

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • •

Linearer Unterraum Linearkombination, lineare Hülle, Erzeugendensystem Summe von linearen Unterräumen, direkte Summe Matrix-Vektor-Produkt

RLGS

74

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

• • • • •

Diagonalmatrizen, Einheitsmatrix Transponierte Matrix Euklidisches Skalarprodukt (SKP) in Rn Aufwand von Operationen* Affiner Unterraum

• • • •

span und Matrix-Vektor-Produkt (1.40) Linearität des Matrix-Vektor-Produkts (Theorem 1.46) Lösungsmenge eines homogenen LGS als linearer Unterraum (1.41) Lösungsmenge eines inhomogenen LGS als affiner Unterraum (Korollar 1.55)

Zusammenhänge:

Beispiele: • Einheitsvektoren in Rn • Erzeugendensystem in Rn (x), S 0 (∆), S 1 (∆) (Hutfunktionen)

Aufgaben Aufgabe 1.14 (K) Betrachten Sie die acht Mengen von Vektoren x = (x1 , x2 )t ∈ R2 definiert durch die Bedingungen a) b) c) d) e) f) g) h)

x1 + x2 = 0, (x1 )2 + (x2 )2 = 0, (x1 )2 − (x2 )2 = 0, x1 − x2 = 1, (x1 )2 + (x2 )2 = 1, Es gibt ein t ∈ R mit x1 = t und x2 = t2 , Es gibt ein t ∈ R mit x1 = t3 und x2 = t3 , x1 ∈ Z.

Welche dieser Mengen sind lineare Unterräume? Aufgabe 1.15 (K) Liegt der Vektor (3, −1, 0, −1)t ∈ R4 im Unterraum, der von den Vektoren (2, −1, 3, 2)t, (−1, 1, 1, −3)t und (1, 1, 9, −5)t aufgespannt wird? Aufgabe 1.16 (T) Es seien U1 , U2 ⊂ V lineare Unterräume eines R-Vektorraums V. Zeigen Sie: U1 ∪ U2 ist genau dann ein linearer Unterraum, wenn U1 ⊂ U2 oder U2 ⊂ U1 . Aufgabe 1.17 (K) Beweisen Sie Bemerkungen 1.51, indem Sie jeweils die genaue Anzahl von Additionen und Multiplikationen bestimmen. Aufgabe 1.18 (T) Beweisen Sie Korollar 1.55. Aufgabe 1.19 (T) Beweisen Sie Lemma 1.56.

1.4 Lineare (Un-)Abhängigkeit und Dimension

75

1.4 Lineare (Un-)Abhängigkeit und Dimension

1.4.1 Lineare (Un-)Abhängigkeit und Dimension Beispiel 1.57 Die beiden Vektoren e1 = (1, 0, 0)t und e2 = (0, 1, 0)t ∈ R3 spannen die Ebene {x ∈ R3 : x3 = 0} auf. Dieselbe Ebene wird aber auch von den drei Vektoren e1 , e2 , e1 + e2 = (1, 1, 0)t



aufgespannt (vgl. Abbildung 1.11). Jeden dieser drei Vektoren könnte man weglassen, die restlichen beiden spannen diese Ebene immer noch auf. Wir sagen: Diese drei Vektoren sind linear abhängig.



e2 ✑

✑ ✿ e1 + e2 ✑ ✸ ✘✘✘✘ ✘ ✑ ✘ ✑ ✘✘ ✲ ✑ e1 ✑ ✑ Abb. 1.11: Verschiedene aufspannende Vektoren.

Definition 1.58 Eine Menge A ⊂ V heißt linear abhängig, wenn es eine echte Teilmenge A′ , d. h. A′ ⊂ A, A′ , A gibt mit span(A′ ) = span(A). Sonst heißt A linear unabhängig. Im Folgenden sei (V, +, ·) ein beliebiger R-Vektorraum. Beispiele 1.59

1) Die oben betrachtete Menge A = {e1 , e2 , e1 + e2 } ⊂ R3 ist linear abhängig, denn für A′ = {e1 , e2 } ⊂ A gilt A′ , A und span(A′ ) = span(A).

2) Die Menge A = {e1 , e2 } enthält die folgenden echten Teilmengen: A′ = {e1 } mit span(e1 ) = Gerade Re1 ,

A′ = {e2 } mit span(e2 ) = Gerade Re2 , A′ = ∅ mit span(∅) = Nullraum.

Für keine davon gilt span(A′ ) = span(A) = Ebene {x3 = 0}. Also ist A linear unabhängig. ◦

76

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Bemerkungen 1.60 1) Jede Menge in V, die den Nullvektor enthält, ist linear abhängig. Denn wenn 0 ∈ A und A′ = A \ {0}, dann ist A′ , A, aber span(A′ ) = span(A).

2) Enthält A ⊂ V einen Vektor a mit a ∈ span(A \ {a}), dann ist A linear abhängig.

Denn für A′ := A \ {a} gilt A , A′ , aber wegen a =

Pl

j=1

d j a j , a j ∈ A′ ,

P span(A) = {c0 a + km=1 cm bm : k ∈ N, c0 , c1 , . . . , ck ∈ R, bm ∈ A′ } Pl P = {c0 ( j=1 d j a j ) + km=1 cm bm : a j , bm ∈ A′ } ⊂ span(A′ )

und damit span(A) = span(A′ ).

Es gilt auch die Umkehrung der Aussage: Ist A linear abhängig, d. h. es gibt eine echte Teilmenge A′ ⊂ A mit span(A) = span(A′ ), dann kann a ∈ A \ A′ gewählt werden und damit gilt: a ∈ span(A′ ) ⊂ span(A \ {a}). 3)

a) Jede Obermenge einer linear abhängigen Menge ist linear abhängig.

b) Jede Teilmenge einer linear unabhängigen Menge ist linear unabhängig. Diese beiden Aussagen sind jeweils Kontrapositionen zueinander. 3)a) folgt sofort aus 2), da es sich dabei sogar um eine Charakterisierung von linearer Abhängigkeit handelt, wie aus Lemma 1.61 ersichtlich.

4) Wenn (voneinander verschiedene) Vektoren u1 , . . . , uk ∈ A ⊂ V existieren und Zahlen c1 , . . . , ck ∈ R, so dass nicht c1 = . . . = ck = 0, mit Pk (nicht triviale lineare Relation), m=1 cm um = 0

dann ist A linear abhängig.

Da nicht alle cm = 0 sind, können wir nach Vertauschen der Indizes c1 , 0 annehmen und nachfolgend schreiben   P P c1 u1 = − km=2 cm um bzw. u1 = km=2 − ccm1 um , so dass die Aussage nach 2) folgt.

△ Diese Beispiele sollten zunächst den Sachverhalt der linearen Abhängigkeit verdeutlichen. Das letzte Beispiel ist bereits typisch dafür, wie wir künftig lineare Un-/Abhängigkeit überprüfen werden: Lemma 1.61: Test auf lineare Abhängigkeit Eine Teilmenge A ⊂ V ist genau dann linear abhängig, wenn es eine nicht triviale lineare Relation zwischen (voneinander verschiedenen) Vektoren aus A gibt.

1.4 Lineare (Un-)Abhängigkeit und Dimension

77

Hauptsatz 1.62: Test auf lineare Unabhängigkeit Eine Teilmenge A ⊂ V ist genau dann linear unabhängig, wenn sie folgende Eigenschaft besitzt: Sind u1 , . . . , uk endlich viele (voneinander paarweise verschiedene) Vektoren in A und c1 , . . . , ck Zahlen in R mit Pk

m=1 cm um

=0,

dann ist c1 = . . . = ck = 0 .

Hauptsatz 1.62 ist nur eine Umformulierung von Lemma 1.61 durch Verneinung der äquivalenten Aussagen. Deswegen genügt es, Lemma 1.61 zu beweisen.

Beweis (von Lemma 1.61): „⇐“ : Diese Beweisrichtung wurde oben schon als Bemerkungen 1.60, 4) behandelt. „⇒“ : Sei A linear abhängig, d. h. es gibt eine Teilmenge A′ ⊂ A mit span(A′ ) = span(A) und A′ , A. Dann gibt es also einen Vektor u ∈ A, der nicht zur Teilmenge A′ gehört. P Wegen u ∈ A ⊂ span(A) = span(A′ ) ist u eine Linearkombination u = kν=1 cν uν von Vektoren uν ∈ A′ . Insbesondere können u, ui , i = 1, . . . , k paarweise voneinander verschieden gewählt werden. So ist 1·u−

k X

c ν uν = 0

ν=1

eine nicht triviale (da u einen Koeffizienten verschieden von 0 hat) lineare Relation zwischen Vektoren aus A.  Nach Hauptsatz 1.62 ist somit lineare Unabhängigkeit von A äquivalent mit: Prinzip des Koeffizientenvergleichs Seien u1 , . . . , uk ∈ A paarweise verschieden, c1 , . . . , ck ∈ R und d1 , . . . , dk ∈ R, dann: k X m=1

c m um =

k X

d m um

m=1



cm = dm für alle m = 1, . . . , k .

(1.47)

Weitere Beispiele: Bemerkungen (Bemerkungen 1.60) 5) Sei A ⊂ Rn eine Teilmenge, die mehr als n Vektoren enthält. Dann ist A linear abhängig.

Das kann man sich folgendermaßen klarmachen: A enthält mindestens n + 1 paarweise verschiedene Vektoren u1 , . . . , un+1 mit u j = (vk, j )k . Das homogene lineare Gleichungssystem

78

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums c1 v1,1 + . . . + cn+1 v1,n+1 = 0 .. .. .. . . . c1 vn,1 + . . . + cn+1 vn,n+1 = 0

RLGS

aus n Gleichungen in den n + 1 Unbekannten c1 , . . . , cn+1 hat nach Lemma 1.7 eine Lösung (c1 , . . . , cn+1 ) P , (0, . . . , 0). Damit haben wir eine nicht triviale lineare Relation n+1 ν=1 cν uν = 0 zwischen u1 , . . . , un+1 . Nach Lemma 1.61 ist A linear abhängig.

6) Es seien z1 = (0, . . . , 0, 1, . . . ... z2 = (0, . . . , 0, 0, . . . , 0, 1, . . . .. .. . .

. . .)t , . . .)t ,

zr = (0, . . . , 0, 0, . . . , 0, 0, . . . , 0, 1, . . .)t die ersten r Zeilen aus einer Matrix in Zeilenstufenform (in Spaltenschreibweise), wobei r den Rang, d. h. die Anzahl der Zeilenstufen der Matrix darstellt. Diese Vektoren sind linear unabhängig. Das lässt sich mit folgender Überlegung einsehen: Die Zeile ztk habe ihren ersten Eintrag ungleich 0 in der j(k)-ten Spalte, k = 1, . . . , r. Da die Matrix Zeilenstufenform hat, ist 1 ≤ j(1) < j(2) < . . . < j(r) ≤ n.

P Wir testen auf lineare Unabhängigkeit: Sei eine Linearkombination rk=1 ck zk = 0 gegeben. Da nur die t erste Zeile z1 in der j(1)-ten Spalte einen Eintrag ungleich 0 besitzt, folgt hieraus c1 = 0. Von den übrigen Zeilen hat nur zt2 einen Eintrag ungleich 0 in der j(2)-ten Spalte, was c2 = 0 zur Folge hat, usw.

Die Aussage von 5) lässt sich auf beliebige R-Vektorräume V übertragen: 7) Sei V ein R-Vektorraum, der von u1 , . . . , un ∈ V aufgespannt wird. Seien für ein k ∈ N weitere Vektoren w1 , . . . , wn+k ∈ V gegeben. Dann sind w1 , . . . , wn+k linear abhängig.

Dies kann man wie folgt einsehen: Die wi lassen sich mittels u1 , . . . , un darstellen: P wi = nj=1 a j,i u j für i = 1, . . . , n + k

für geeignete a j,i ∈ R (man beachte die vertauschten Indizes). Betrachte die (n, n + k)-Matrix A := (aµ,ν )

µ=1,...,n ν=1,...,n+k

RLGS

,

die so aus den Koeffizienten der wi bezüglich der u j als Spalten gebildet wird. Nach Lemma 1.7 (wie in 5)) existiert ein c ∈ Rn+k , c , 0, so dass d := Ac = 0 ∈ Rn . Folglich ist auch Pn j=1 d j u j = 0 , weiterhin

0=

Pn Pn+k j=1

und damit folgt die Behauptung.

i=1

 P Pn Pn+k a j,i ci u j = n+k i=1 ci j=1 a j,i u j = i=1 ci wi



1.4 Lineare (Un-)Abhängigkeit und Dimension

79

Bemerkungen 1.60, 5) (und auch 7)) ist ein Auftreten des Prinzips RLGS : Eine Aussage über allgemeine Vektorräume wird durch die Benutzung eines „Koordinatensystems“ u1 , . . . , un auf eine Aussage in Rn und infolgedessen für ein LGS zurückgeführt. Allgemein haben wir in Erweiterung von Bemerkungen 1.60, 5) ein Prüfverfahren für e = {u1 , . . . , ul } in Rn auf lineare Unabhängigkeit: Man bilde eine endliche Teilmenge A e als Spalten und prüfe das die Matrix A = (u1 , . . . , ul ) ∈ R(n,l) mit den Elementen von A homogene LGS zu A mit dem Gaussschen Eliminationsverfahren auf Eindeutigkeit. Über den Rn hinaus kennen wir schon folgende Beispiele: Bemerkungen 1.63 1) Die in (1.34) definierten Funktionen f0 , . . . , fn−1 , die S 0 (∆) aufspannen, sind linear unabhängig.

P Pn−1 Denn sei n−1 i=0 ci fi = 0, d. h. i=0 ci fi (x) = 0 für alle x ∈ [a, b]. Sei also ∆ die zugrunde gelegte Zerlegung von [a, b]. Für x = x0 (zum Beispiel) folgt P 0 = n−1 i=0 ci fi (x) = c0 · 1 = c0

und weiter für x = x1 , dass c1 = 0 etc., bis für x = xn−1 auch cn−1 = 0 folgt.

Analog sind die Hutfunktionen f0 , . . . , fn nach (1.37) linear unabhängig. Das ist gerade die Richtung „⇒“ der Aussage (1.39), angewandt auf f = 0.

2) Die Monome fi aus (1.33) für i = 0, . . . , n sind linear unabhängig in Rn [x].

P Es muss also gezeigt werden, dass ein Polynom f (x) = ni=0 ci xi nur dann für alle x ∈ R verschwinden kann, wenn c0 = . . . = cn = 0. Der Nachweis braucht Kenntnisse aus der Algebra oder Analysis. Entweder nutzt man, dass ein Polynom n-ten Grades (für das also cn , 0) höchstens n (reelle) Nullstellen hat (siehe Anhang B.3, Satz B.21) oder man berechnet sukzessive die Ableitungen von f , die auch alle verschwinden müssen und erhält bei x = 0: 0 = f (0) = c0 , 0 = f ′ (0) = c1 , 0 = f ′′ (0) = 2c2 ,

etc.

Pn

Ein Polynom f (x) = i=0 ci xi wird sodann nicht nur eindeutig durch den Koeffizientenvektor (c0 , . . . , cn )t festgelegt, sondern bestimmt auch diesen eindeutig. Damit ist die schon nach Definition 1.28 erwähnte Bijektivität der Abbildung

bewiesen.

Φ : Rn+1 → Rn [x] , (a0 , . . . , an )tP7→ f , wobei f (x) = nν=0 aν xν

3) Sei A ∈ R(m,n) eine beliebige Matrix mit den Spalten a(1) , . . . , a(n) .

RLGS

80

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Dann sind äquivalent: (i) a(1) , . . . , a(n) sind linear unabhängig. (ii) Das homogene LGS Ax = 0 hat nur die triviale Lösung x = 0. (iii) Das inhomogene LGS Ax = b hat für beliebige b ∈ Rn höchstens eine Lösung. Das lässt sich so zeigen: (ii) ist nur die Matrixschreibweise von (i) in Form des Tests auf lineare Unabhängigkeit Pn (i) i=1 ci a = 0 ⇒ c1 = . . . = cn = 0 ,

daher „(i)⇔(ii)“. Aus dem Theorem 1.8 folgt „(ii)⇒(iii)“ und schließlich „(iii)⇔(ii)“ ergibt sich, da auch für b = 0 die Lösung eindeutig ist.



Gelegentlich haben wir es nicht mit einer Menge {u1 , u2 , . . .} von Vektoren zu tun, sondern mit einer Folge u1 , u2 , . . ., in der etwa Vektoren auch mehrmals vorkommen können. Eine solche (endliche oder unendliche) Folge werden wir auch System von Vektoren nennen. Für ein System schreiben wir auch [u1 , u2 , . . .] bzw. genauer: [u1 , . . . , un ] für ein endliches bzw. [ui : i ∈ I] für ein unendliches System z. B. I = N, aber auch [ui : i ∈ I] für eine beliebige Indexmenge. Die Zeilenvektoren einer Matrix sind z. B. so ein System. Die Definition 1.58 kann wörtlich auf Systeme übertragen werden (siehe Bemerkungen 1.60, 2)): Definition 1.64 Ein System [ui : i ∈ I] in V heißt linear abhängig , wenn ein k ∈ I existiert, so dass uk ∈ span {ui : i ∈ I\{k}} . Alle obigen Überlegungen übertragen sich folglich auf Systeme, insbesondere ist der Test auf lineare Unabhängigkeit für ein System

1.4 Lineare (Un-)Abhängigkeit und Dimension k X

c ν uν = 0

1

81 ?



c1 = . . . = ck = 0

für alle k ∈ N. Ein System, in dem derselbe Vektor mehrmals vorkommt, ist somit stets linear abhängig. Definition 1.65 Sei U ⊂ V ein linearer Unterraum. Eine Basis von U ist eine Menge B von Vektoren aus U mit (i) U = span(B), (ii) B ist linear unabhängig.

Ist B = {u1 , . . . , ur }, so heißt die Zahl r Länge der Basis. Zur Unterscheidung der in Definition 7.67 einzuführenden Schauder-Basis wird hier auch von einer Hamel-Basis22 gesprochen. Bemerkungen 1.66 1) Sei u ∈ V, u , 0. Für eine Gerade Ru bildet der Vektor u eine Basis.

2) Seien u, w ∈ V, u , 0, w , 0. Die Definition einer Ebene durch 0 aus Definition 1.23 E = Ru + Rw

setzt also die lineare Unabhängigkeit von u, w voraus. Damit bilden u, w eine Basis von E. Sind u, w linear abhängig, dann ist E = Ru = Rw eine Gerade. 3) Die Vektoren e1 , . . . , en , bilden eine Basis des Rn . Wir nennen sie die Standardbasis, die Vektoren nennen wir Koordinatenvektoren. Weiter bilden e1 , . . . , ek ∈ Rn für k = 1, . . . , n eine Basis von {x ∈ Rn : x = (xi )i , xi = 0 für i = k + 1, . . . , n} . 4) Der Nullvektorraum {0} hat die leere Menge ∅ als Basis.

5) Sei M , ∅ eine Menge, V := Abb(M, R). Die Verallgemeinerung der Einheitsvektoren ei sind die Abbildungen

22

Georg Karl Wilhelm Hamel ∗12. September 1877 in Düren †4. Oktober 1954 in Landshut

82

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

   1, e p (q) =   0,

falls q = p für p ∈ M . sonst

Diese sind linear unabhängig (vergleiche (1.39)), aber nur eine Basis von Abb0 (M, R) := { f ∈ Abb(M, R) : f (p) , 0 gilt nur für endlich viele p ∈ M}. Nur wenn M endlich ist, ist auch Abb0 (M, R) = Abb(M, R). 6) Sei V ein R-Vektorraum, B ⊂ V. Nach Definition Definition 1.65 und (1.47) gilt also: B ist Basis von V genau dann, wenn eine der folgenden äquivalenten Aussagen gilt: (i) V = span(B), B ist linear unabhängig.

(ii) Jedes u ∈ V lässt sich in eindeutiger Weise (d. h. (1.47) gilt) als Linearkombination von Vektoren aus B schreiben. Diese Äquivalenzliste lässt sich ergänzen um: (iii) B ist linear unabhängig und bezüglich dieser Eigenschaft und der Ordnung „⊂ “ auf P(V) maximal (siehe Definition A.24).

(iv) B ist Erzeugendensystem von V und bezüglich dieser Eigenschaft und der Ordnung „⊂ “ auf P(V) minimal. Das kann man wie folgt einsehen: ′





„ (i) ⇒ (iii) “ Sei B ⊂ V linear unabhängig und B ⊂ B , zu zeigen ist: B = B . Wäre B echte ′ ′ Teilmenge von B , dann wäre wegen V = span(B) ⊂ span(B ) = V (nach Satz 1.39, 2)) span(B) = ′ ′ span(B ) und damit nach Definition B linear abhängig, im Widerspruch zur Annahme. „ (iii) ⇒ (i) “ Sei B ⊂ V linear unabhängig und diesbezüglich maximal, zu zeigen ist span(B) = V . Sei u ∈ V , dann gilt u ∈ span(B) oder nicht. Im letzten Fall ist aber (nach Bemerkungen 1.74, 8)) B ∪ {u} linear unabhängig, im Widerspruch zur Maximalität von B. Also gilt V = span(B). ′









„ (i) ⇒ (iv) “ Sei B ⊂ V und span(B ) = V, B ⊂ B, zu zeigen ist: B = B . Wäre B echte Teilmenge, ′ dann wäre wegen span(B ) = span(B) B linear abhängig, ein Widerspruch zur Basiseigenschaft. „ (iv) ⇒ (i) “ Sei B ⊂ V, span(B) = V und B diesbezüglich minimal, zu zeigen ist: B ist linear ′ ′ unabhängig. Wäre B linear abhängig, dann existierte eine echte Teilmenge B von B und span(B ) = span(B), im Widerspruch zur Minimalität von B.

△ Beispiel 1.67 (Geometrie) Mit den eingeführten Begriffen lassen sich elementargeometrische Beziehungen beschreiben: Sei V ein R-Vektorraum, g1 : a + Rp und g2 : b + Rq, wobei p, q , 0, seien Geraden in V. g1 und g2 sind parallel , wenn p, q linear abhängig sind, d. h. o. B. d. A. p = q, aber a − b < span( p). Ohne die letzte Bedingung wären g1 und g2 identisch. g1 und g2 schneiden sich, wenn p, q linear unabhängig sind und λ, µ ∈ R

1.4 Lineare (Un-)Abhängigkeit und Dimension

83

existieren, so dass a + λp = b + µq

d. h. genau dann, wenn a − b ∈ span( p, q) .

(1.48)

Der Schnittpunkt ist somit im Falle der Existenz eindeutig. Zwei nicht identische, nicht parallele Geraden heißen windschief, wenn sie sich nicht schneiden, d. h. genau in diesem Fall: p, q sind linear unabhängig und a − b < span( p, q) ,

d. h. genau dann, wenn p, q, a − b linear unabhängig sind.

Sei g : a + Rp, p , 0 eine Gerade, E : b + span(q, r) eine Ebene, wobei q, r linear unabhängig sind. g und E schneiden sich, wenn a − b ∈ span( p, q, r) .

(1.49)

Sind also p, q, r linear unabhängig, dann ist der Schnittpunkt eindeutig. Ist zusätzlich dim V = 3, dann liegt (1.49) immer vor. Ist dim V ≥ 4, ist es möglich dass p, q, r linear unabhängig sind, ohne dass (1.49) gilt: g und E sind dann nicht parallel, ohne sich zu schneiden. Sind p, q, r linear abhängig und gilt (1.49), so ist g ⊂ E. Sind p, q, r linear abhängig und trifft (1.49) nicht zu, so sind g und E parallel, d. h. g ∩ E = ∅, aber für die jeweils in den Nullpunkt verschobene Gerade bzw. Ebene g0 : Rp und E0 : span(q, r) gilt: g0 ⊂ E 0 . ◦ Beispiel 1(3) – Historische Probleme Wir setzen die Diskussion der Fibonacci-Folge fort, indem wir allgemein den Lösungsraum V der Differenzengleichung nach (MM.21) betrachten. Es gilt: Satz 1.68 Unter den Voraussetzungen von Lemma 1.42 gilt: 1) Wenn zusätzlich a1 , . . . , am linear unabhängig sind, d. h. eine Basis von Rm bilden, dann ist auch (a1n )n , . . . , (am n )n eine Basis von V. 1 m m 2) Sind (a1n )n , . . . , (am n )n eine Basis von V, dann sind auch a , . . . , a eine Basis von R .

P Beweis: Zu 1): Sei ni=1 ci (ain )n = (0)n für ci ∈ R, i = 1, . . . , m, dann gilt also insbesondere (Einschränkung auf die Indizes n = 1, . . . , m): n X

ci ai = 0

und somit

c1 = . . . = cm = 0 .

i=1

Diese Aussage gilt folglich allgemein für beliebige Folgen und ihre „Anfangs-“vektoren, bestehend aus einer festen Anzahl der ersten Folgenglieder. P Pm i i Zu 2): Sei m i=1 ci a = 0, dann gilt für (bn )n := i=1 ci (an )n ∈ V: b1 = . . . = bm = 0 und wegen der Eindeutigkeit der (MM.20) und (MM.21) erfüllenden Folgen sind damit

84

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums m X

ci (ain )n = (0)n .

i=1

Nach Voraussetzung an die

(ain )n

folgt also c1 = . . . = cm = 0 .

Zusammen mit den Aussagen von Lemma 1.42 ergeben sich die jeweiligen Behauptungen.

(MM.31) 

Konkretisieren wir die Betrachtung wieder auf (MM.17), (MM.18), kann eine Basis von V dadurch angegeben werden, dass zwei Folgen mit linear unabhängigen Anfangsvektoren gewählt werden. Neben ( fn )n könnte diese (gn )n ∈ V zu g1 := 1 ,

g2 := 0

sein, wodurch eine Folge entsteht, für die gn = fn−1

für n ∈ N , n ≥ 2

gilt. Insofern ist ( fn )n „typisch“ für V. Eine Basis von V, die explizit angegeben werden kann, ergibt sich durch den Ansatz an = ξ n

für ein ξ ∈ R .

(MM.32)

Finden sich ξ1 , ξ2 , sodass (MM.32), (MM.18) erfüllt sind, dann haben wir eine Basis von V, da (1, ξ1 )t , (1, ξ2 )t eine Basis von R2 darstellen. Einsetzen von (MM.32) in (MM.18) ergibt die äquivalente Umformung für ξ , 0: √ 1± 5 ξ n+2 = ξ n+1 + ξ n ⇔ ξ 2 − ξ − 1 = 0 ⇔ ξ1,2 = , 2 d. h. ξ1 ist die Zahl des goldenen Schnitts. Wegen ξ1 > 1 und −1 < ξ2 < 0 ist sodann mit a1n := ξ1n eine monoton wachsende, unbeschränkte Lösung gefunden, wie ( fn )n , mit a2n := ξ2n einer oszillierenden Nullfolge. Für große n ist demnach in jeder Darstellung (a1n )n das beherrschende Basiselement, auch für ( fn )n . Wegen (MM.22), (MM.23) ist folglich nur der Anfangsvektor der FibonacciFolge (0, 1)t als Linearkombination von (1, ξ1 )t , (1, ξ2 )t darzustellen. Die Lösung des LGS c1 + c2 = 0 ξ1 c1 + ξ2 c2 = 1 ist c1 =

√1 , c2 5

= − √15 , also ergibt sich die explizite Darstellung für die Fibonacci-Folge:  √ n  √ n  1  1 + 5   1 − 5    −    . fn = √  2 2 5

Es ist erstaunlich, dass diese Kombination irrationaler Zahlen immer eine natürliche Zahl ergibt. Der beherrschende Summand ist der erste, insofern sich der Quotient fn+1 / fn immer mehr ξ1 annähert (dagegen konvergiert). Die Fibonacci-Folge ist ein Beispiel exponentiellen Wachstums zur Basis ξ1 . Für die allgemeine Gleichung (MM.21) sind bei gleichem Ansatz (MM.32) die Nullstellen des Polynoms m-ten Grades

1.4 Lineare (Un-)Abhängigkeit und Dimension

85

p(x) := xm −

m−1 X

a(i) xi

i=0

zu untersuchen. Liegen m verschiedene reelle Nullstellen vor, so ist auch hier eine explizit dargestellte Basis von V gefunden. Der Fall mehrfacher Nullstellen (vgl. Anhang B.3) kann erst später behandelt werden. ^

Korollar 1.69: Basis-Satz Jeder lineare R-Vektorraum, der endlich erzeugt ist, d. h. u1 , . . . , ur ∈ V für ein r ∈ N besitzt, so dass V = span(u1 , . . . , ur ), hat eine endliche Basis. Dies ist ein Spezialfall (W = {0}) des folgenden Satzes 1.70, so dass wir nur diesen Satz 1.70 zu beweisen brauchen. Satz 1.70: Basis-Ergänzungs-Satz Es seien W ⊂ U ⊂ V lineare Unterräume, U sei durch eine endliche Menge erzeugt und u1 , . . . , ur sei eine Basis von W. Dann gibt es Vektoren u1 , . . . , u s ∈ U so, dass das System u1 , . . . , ur , u1 , . . . , u s eine Basis von U ist. Insbesondere gibt es also zum linearen Unterraum W ⊂ U einen linearen Unterraum b span(u1 , . . . , us )), so dass W ⊕ W b =U. W(=

b heißt ein Komplement von W. W

Beweis: U sei durch n Vektoren erzeugt. Wenn W = U ist, dann ist nichts zu beweisen (s = 0). Wenn W , U ist, dann existiert ein u ∈ U, das nicht ∈ W ist. Wir behaupten, das System u1 , . . . , ur , u ist linear unabhängig und verwenden den Test aus Hauptsatz 1.62. Sei nun r X

cν uν + cu = 0

ν=1

eine lineare Relation. Dann muss c = 0 gelten, denn sonst würde u = − 1c gehören. Weil nun c = 0, so lautet die lineare Relation nur noch r X

Pr

ν=1 cν uν

zu W

c ν uν = 0 .

ν=1

Weil die u1 , . . . , ur eine Basis von W bilden, sind sie insbesondere linear unabhängig. Deswegen folgt jetzt auch c1 = . . . = cr = 0 und u1 , . . . , ur , u sind linear unabhängig. Wir setzen u1 := u und U1 := span(u1 , . . . , ur , u1 ). Dann bilden die Vektoren u1 , . . . , ur , u1 eine Basis von U1 . Wenn U1 = U ist, dann sind wir fertig. Andernfalls wiederholen wir diese

86

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Konstruktion immer wieder. Wir erhalten dann für alle k ≥ 1 Untervektorräume Uk ⊂ U mit einer Basis u1 , . . . , ur , u1 , . . . , uk . Spätestens wenn r + k = n + 1 ist, können die n + 1 Vektoren u1 , . . . , ur , u1 , . . . , uk nicht mehr linear unabhängig sein (Bemerkungen 1.60, 7)). Es muss daher vorher schon einmal ein k = s gegeben haben mit U s = U. Für den Zusatz beachte man:

ist nur eine Umformulierung von

b =U W +W

span(u1 , . . . , ur , u1 , . . . , u s ) = U . b impliziert23 Die Summe ist direkt, da u ∈ W ∩ W P Ps P Ps u = rν=1 cν uν = µ=1 dµ uµ ⇒ rν=1 cν uν − µ=1 dµ uµ = 0 ⇒ c1 = . . . = cr = 0 (d1 = . . . dµ = 0) ⇒ u = 0 wegen der linearen Unabhängigkeit von {u1 , . . . , ur , u1 , . . . , u s }.



Satz 1.71: Basis-Auswahl-Satz Sei U = span(u1 , . . . , uk ) ⊂ V ein linearer Unterraum. Dann gibt es unter den Vektoren u1 , . . . , uk eine Basis ui1 , . . . , uir für U.

Beweis: Wenn u1 , . . . , uk linear unabhängig sind, dann bilden sie eine Basis von U und wir sind fertig. Andernfalls gibt es unter ihnen einen Vektor u j der eine LinearkombinaP tion i, j ci ui der anderen Vektoren ist. Dann wird U auch schon von den k − 1 Vektoren u1 , . . . , u j−1 , u j+1 , . . . , uk aufgespannt. Spätestens nachdem wir diesen Schritt k − 1-mal wiederholt haben, gelangen wir zu einem linear unabhängigen Teilsystem der u1 , . . . , uk , welches U aufspannt.  Satz 1.72: Invarianz der Basis-Länge Die Länge einer Basis für einen endlich erzeugten linearen Unterraum U ⊂ V hängt nur von U ab und nicht von der gewählten Basis.

Beweis: Seien u1 , . . . , ur und w1 , . . . , w s zwei Basen für U. Wir haben s ≤ r zu zeigen. Nach Bemerkungen 1.60, 7) bedeutet s > r, da die u1 , . . . , ur U aufspannen, dass w1 , . . . , w s 23

Die in Anhang A.1, A.3 eingeführten Symbole der Aussagen- und Prädikatenlogik werden weitgehend vermieden und i. Allg. durch die äquivalenten sprachlichen Formulierungen ersetzt. An wenigen Stellen wird von ihnen als Kurzschreibweise Gebrauch gemacht.

1.4 Lineare (Un-)Abhängigkeit und Dimension

87

linear abhängig sind, im Widerspruch zur Annahme, so dass infolgedessen s ≤ r gelten muss. Vertauschung der Rollen von r und s liefert r = s.  Die Sätze 1.69 und 1.72 ermöglichen folgende Definition: Definition 1.73 Die Dimension eines endlich erzeugten linearen Unterraums U – in Zeichen dim U – ist die Länge einer Basis für U. Für U = {0} setzt man dim U = 0. Statt dim U wird auch, besonders bei zusammengesetzten Bezeichnungen, dim(U) benutzt. Bemerkungen 1.74 1) Da e1 , . . . , en ∈ Rn eine Basis bilden, ist dim(Rn ) = n . 2) Gerade und Ebene in V haben die Dimension 1 bzw. 2. 3) dim(R(m,n) ) = m · n, da A(i, j) ∈ R(m,n) , die gerade an der Position (i, j) den Eintrag 1, sonst aber nur 0 haben, eine Basis bilden. 4) Der Raum der Histogramme S 0 (∆) bei einer Zerlegung ∆ : a = x0 < . . . < xn = b hat nach Bemerkungen 1.41, 5) und Bemerkungen 1.63, 1) die dort angegebene Basis f0 , . . . , fn−1 und damit dim(S 0 (∆)) = n . Analog hat S 1 (∆) die Basis der Hutfunktionen f0 , . . . , fn nach (1.36), (1.37) (siehe (1.39)), so dass dim(S 1 (∆)) = n + 1 . 5) Analog zu 4) gilt dim(Rn [x]) = n + 1 . 6) Der Vektorraum aller Polynome R[x] ist nicht endlich erzeugbar, da mit jeder endlichen Teilmenge nur ein Maximalgrad durch die Linearkombinationen möglich wäre, also hat er auch keine endliche Basis. Es ist aber offensichtlich, dass die unendliche Menge der Monome (siehe (1.33)) { fi : i ∈ N0 } eine Basis bilden.

7) Der Begriff der Anzahl der Freiheitsgrade bei einem homogenen LGS kann nunmehr als dim U für

88

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

U := {x ∈ Rn : Ax = 0} konkretisiert werden. 8) Die wesentliche Argumentation am Beginn des Beweises von Satz 1.70 kann als folgende Aussage geschrieben werden: Sei V ein R-Vektorraum, A ⊂ V linear unabhängig, u ∈ V \ A. Dann gilt: u ∈ span(A) oder A ∪ {u} ist linear unabhängig. 9) Für die Invarianz der Basislänge wird oft alternativ auf das Austauschlemma von Steinitz24 zurückgegriffen: Sei V ein R-Vektorraum, B eine Basis von V, w ∈ V, w , 0. Dann gibt es ein u ∈ B, ′ so dass B := B \ {u} ∪ {w} eine Basis von V darstellt. Dies kann man wie folgt einsehen: Es gibt u1 , . . . , un ∈ B und (eindeutige) ci ∈ R, ci , 0, i = 1, . . . , n, so dass w=

n X

cjuj.

j=1

Jedes dieser u j kann als u gewählt werden, da wegen ui =

1 X ( c j u j − w) ci j,i

gilt ′

ui ∈ span(B ) ′



und so V = span(B) ⊂ span(B ). Außerdem ist B linear unabhängig, denn o. B. d. A. ist jede endliche Auswahl u(1) , . . . , u(k) , w linear unabhängig nach 8), da w < span(u(1) , . . . , u(k) ), denn diese können nicht ui enthalten.

Die Aussage kann verallgemeinert werden zu: e ⊂ V sei linear unabhängig und Sei V ein R-Vektorraum, B eine Basis von V, B e b b b∪ B e eine Basis endlich, #(B) = n. Dann gibt es ein B ⊂ B, #(B) = n, so dass B \ B von V ist. Der Beweis kann mit vollständiger Induktion über n erfolgen: n = 1 : Das ist die obige Aussage.

24

Ernst Steinitz ∗13. Juni 1871 in Laurahütte, Oberschlesien †29. September 1928 in Kiel

1.4 Lineare (Un-)Abhängigkeit und Dimension

89

b b e e e := B e e b b = n, so ∪ {w}, #(B) = n, dann gibt es nach Induktionsvoraussetzung ein B n → n + 1 : Sei B ⊂ B, #(B) dass ′′ b e e b ∪B B := B \ B

eine Basis von V ist. Mit w , 0 wird nach der obigen Aussage genauso verfahren, was möglich ist, da ′′ e e in der Darstellung von w durch B nicht nur Elemente von B auftreten können, wegen der linearen e Unabhängigkeit von B.



Für allgemeine, nicht endlich erzeugbare Vektorräume ließen wir bis jetzt die Frage nach der Existenz einer Basis unberührt. Wenn man das Auswahlaxiom, bzw. äquivalent dazu das Zorn25 sche Lemma akzeptiert - wogegen nichts spricht (P.K.), wofür allerdings auch nichts (W.B.) - kann man für jeden Vektorraum die Existenz einer Basis beweisen. Dieser Beweis ist allerdings nicht konstruktiv und wird in Bemerkungen 1.77, 5) angedeutet. Aber: Dass die in Bemerkungen 1.74, 6) gegebene Basis von R[x] abzählbar ist (indizierbar mit i ∈ N0 ), liegt daran, dass es sich immer noch um recht „spezielle“ Funktionen handelt. Schon bei C([a, b], R) := { f : [a, b] → R : f ist stetig}

(1.50)

als linearem Unterraum von Abb([a, b], R) kann es eine abzählbare Basis nicht geben (ohne Beweis). Für den größeren Raum Abb([a, b], R) ist dies offensichtlich, da die Menge {e p : p ∈ [a, b]} (nach Bemerkungen 1.66, 5)) linear unabhängig und überabzählbar wegen der Überabzählbarkeit von [a, b] ist. Der Begriff der Basis wird für solche Räume unhandlich und durch einen anderen ersetzt, (später in Abschnitt 7.3.2). Daher definieren wir nur als Sprechweise: Definition 1.75 Sei V ein nicht endlich erzeugbarer R-Vektorraum. Dann heißt V unendlichdimensional, kurz dim V = ∞. Für die in Definition 1.54 eingeführten affinen Unterräume eines Vektorraums übertragen wir den Dimensionsbegriff in folgender Weise: Definition 1.76 Sei V ein R-Vektorraum und U ein linearer Unterraum. Für den affinen Unterraum A = a + U, a ∈ V wird gesetzt: 25

Max August Zorn ∗6. Juni 1906 in Krefeld †9. März 1993 in Bloomington

90

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

dim A := dim U . Dadurch sind Punkte 0-dimensional, Geraden eindimensional usw. Bemerkungen 1.77 Seien U, V zwei R-Vektorräume. 1) U ⊂ V ⇒ dim U ≤ dim V.

Für dim V = ∞ ist nichts zu zeigen, sonst folgt die Aussage sofort aus Satz 1.70.

2)

U ⊂ V und dim U = dim V = n < ∞ ⇒ U = V.

Wäre nämlich U $ V , d. h. gibt es ein u ∈ V mit u < U, dann ist dim U + Ru = n + 1

genau wie beim Beweis von Satz 1.70, aber U + Ru ⊂ V im Widerspruch zu 1).

3) Die Aussage 2) ist falsch, wenn dim V = ∞.

Betrachte zum Beispiel V = C(R, R) (analog zu (1.50)) und U = R[x] .

4) Der Begriff der Anzahl der Freiheitsgrade bei einem LGS kann jetzt somit als dim L für den affinen Raum L := {x ∈ Rn : Ax = b} konkretisiert werden. 5) Es gilt unter der Annahme der Gültigkeit des Auswahlaxioms: Jeder R-Vektorraum besitzt mindestens eine Basis B.

Als äquivalente Voraussetzung zur Gültigkeit des Auswahlaxioms benutzen wir das Lemma von Zorn (siehe z. B. Jech 1973): Sei (M, ≤) eine geordnete Menge mit der Eigenschaft: Jede totalgeordnete Teilmenge N besitzt eine obere Schranke. Dann existiert mindestens ein maximales Element. (Für die Begriffe siehe Definition A.20, Definition A.24). Für die Anwendung dieses Axioms setzen wir M := {A ⊂ V : A ist linear unabhängig }.

Wegen ∅ ∈ M ist M , ∅ und als Ordnung wird die Teilmengenbeziehung gewählt. Sei N ⊂ M totalgeordnet. N hat eine obere Schranke S ∈ M, denn sei [ S := A A∈N

dann ist S ⊂ V und auch linear unabhängig, P denn nach Hauptsatz 1.62 ist zu prüfen: Seien u1 , . . . , un endlich viele Vektoren in S und ci ∈ R, für die ni=1 ci ui = 0 gilt. Zu zeigen ist: c1 = . . . = cn = 0. Es gibt mindestens ein Ai ∈ N , so dass ui ∈ Ai . Wegen der Totalordnung von N existiert ein k ∈ {1, . . . , n}, so dass Ai ⊂ Ak für alle i ∈ {1, . . . , n}. Diese Behauptung lässt sich nun mit vollständiger Induktion zeigen: n = 2: Bei A1 ⊂ A2 wähle k = 2, bei A2 ⊂ A1 k = 1.

n → n + 1: Nach Induktionsvoraussetzung existiert ein k′ ∈ {1, . . . , n}, so dass Ai ⊂ Ak′ , i = 1, . . . , n, so dass bei An+1 ⊂ Ak′ k = k′ , bei Ak′ ⊂ An+1 k = n + 1 gewählt werden kann.

1.4 Lineare (Un-)Abhängigkeit und Dimension

91

Insbesondere ist also ui ∈ Ak für i = 1, . . . , n und wegen dessen linearen Unabhängigkeit c1 = . . . = cn = 0. Also gibt es eine maximale linear unabhängige Menge B, die damit nach Bemerkungen 1.66, 5) eine Basis bildet.

Die Aussage kann verschärft werden zur Verallgemeinerung von Satz 1.70: Sei B˜ ⊂ V linear unabhängig. Dann gibt es eine Basis B von V, so dass B˜ ⊂ B Man wiederhole den obigen Beweis für

M := {A ⊂ V : B˜ ⊂ A und A ist linear unabhängig}

6) In Definition 1.75 wird nicht zwischen abzählbar unendlichen und überabzählbaren Basen unterschieden (siehe Definition A.19). Die Aussage von Satz 1.72 gilt aber auch in der Form: Sei V ein R-Vektorraum mit abzählbarer unendlicher Basis B. Sei B′ eine weitere ′ Basis, dann ist B auch abzählbar unendlich. Es gilt nämlich: Nach Satz 1.72 kann B′ nicht endlich sein. Jedes u ∈ B lässt sich mit endlich vielen Vektoren aus B′ darstellen. Die abzählbare Vereinigung dieser endlichen Mengen ergibt ein abzählbar ′′ ′ unendliches B ⊂ B , das auch ein Erzeugendensystem ist. Nach Bemerkungen 1.66, 6), (iv) muss also ′′ ′ B = B gelten.

7) Wegen dim(Abb0 (M, R)) = #(M) (nach Bemerkungen 1.66, 5)) gibt es zu jeder Mächtigkeit einen Vektorraum dieser Dimension. Genauer gibt es zu jeder Menge M egal welcher Mächtigkeit einen Vektorraum mit M als Basis: Nach der Identifikation von M mit {e p : p ∈ M} ⊂ Abb0 (M, R) ist dies Abb0 (M, R). △

1.4.2 Lineare Gleichungssysteme und ihre Unterräume I: Dimensionsformeln Mit einer Matrix A ∈ R(m,n) lassen sich zwei lineare Unterräume in Rm bzw. Rn verbinden:   span a(1) , a(2) , . . . , a(n) ⊂ Rm ,

der von den Spalten aufgespannte Unterraum S (A) (der Spaltenraum) und  span a(1) , a(2) , . . . , a(m) ⊂ Rn ,

der von den Zeilen aufgespannte Unterraum Z(A) (der Zeilenraum).

92

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.78 Sei A ∈ R(m,n) für m, n ∈ N.

1) Der Spaltenrang von A ist die Dimension des zugehörigen Spaltenraums in Rm , d. h. ∈ {0, . . . , m}. Ist der Spaltenrang n, hat die Matrix vollen (oder maximalen ) Spaltenrang. 2) Der Zeilenrang von A ist die Dimension des zugehörigen Zeilenraums in Rn , d. h. ∈ {0, . . . , n}. Ist der Zeilenrang m, hat die Matrix vollen (oder maximalen ) Zeilenrang. Der Spalten- bzw. Zeilenrang ist also genau dann voll, wenn alle Spalten bzw. Zeilen linear unabhängig sind und meint i. Allg. nicht die Übereinstimmung von S (A) mit Rm bzw. Z(A) mit Rn ). Über den Zeilenrang können wir schon etwas aussagen: Bemerkungen 1.79 1) Der Zeilenraum von A ∈ R(m,n) ändert sich nicht bei elementaren Zeilenumformungen und damit auch nicht der Zeilenrang. Bei Umformungen vom Typ (I) und (II) ist dies klar. Bei Typ (III) sieht man es wie folgt ein: Die Zeilenvektoren seien z1 , . . . , zm und z′k := zk + c zl , k , l, sei eine derartige Zeilenumformung. Sei Z := span(zt1 , . . . , ztm ) ⊂ Rn und Z ′ := span(zt1 , . . . , ztk−1 , z′tk , ztk+1 , . . . , ztm ). Wegen z′k ∈ Z ist Z ′ ⊂ Z. Wegen zk = z′k − c zl ist auch Z ⊂ Z ′ . Es ist damit Z = Z ′ und dim(Z) = dim(Z ′ ).

Folglich ändert sich der Zeilenrang auch nicht, wenn wir eine Matrix durch elementare Zeilenumformungen auf Zeilenstufenform bringen. 2) Bei einer Matrix in Zeilenstufenform ist der Zeilenrang nach Bemerkungen 1.60, 6) gerade die Anzahl der Stufen r. Wir könnten den Zeilenrang einer Matrix also auch definieren als die Anzahl der Zeilen , 0 in ihrer Zeilenstufenform. 3) Der Spaltenrang einer Matrix A ∈ R(m,n) in Zeilenstufenform ist r, die Anzahl der Stufen. Der Spaltenrang bleibt bei Spaltenvertauschungen gleich, so dass es reicht, P ein Staffelsystem (1.9) zu betrachten. Die ersten r Spalten a(1) , . . . , a(r) sind linear unabhängig, da aus ri=1 ci a(i) = 0 sukzessive aus der ersten Komponente c1 = 0, aus der zweiten dann auch c2 = 0 usw. folgt. a(1) , . . . , a(r) spannen aber auch den Unterraum U := {x ∈ Rm : xi = 0 für i = r + 1, . . . , m} auf, da das entsprechende LGS durch Rückwärtssubstitution (eindeutig) lösbar ist (für ein reduziertes Staffelsystem reicht Bemerkungen 1.66, 3)), so dass alle weiteren Spalten durch sie linear kombinierbar werden.

4) Sei A ∈ R(m,n) , U := {x ∈ Rn : Ax = 0} der Lösungsraum des homogenen LGS zu A, dann gelten: a) Hat A vollen Zeilenrang, d. h. ist m = r, dann hat eine Zeilenstufenform A keine Nullzeilen und das LGS der Form Ax = b ist immer lösbar. b) Hat A vollen Spaltenrang, d. h. ist n = r, dann hat die allgemeine Lösung von Ax = b keine Freiheitsgrade bzw. dim U = 0 (wie schon aus Bemerkungen 1.63, 3) bekannt).

1.4 Lineare (Un-)Abhängigkeit und Dimension

93

5) Für Matrizen in Zeilenstufenform gilt also Zeilenrang = Spaltenrang = Stufenanzahl r. 6) Der Rang einer Matrix A ∈ R(m,n) , definiert als Anzahl der Stufen r (nach Satz 1.4) ist nur eine Eigenschaft von A, unabhängig vom Ablauf des Gauss-Verfahrens. Der Zeilenrang r von A überträgt sich nach 1) auch auf jede aus A nach dem Gauss-Verfahren entstehende Matrix A′ oder A′′ in Zeilenstufenform. Also gilt für deren Stufenanzahl r′ bzw. r′′ nach 5): r′ = r = r′′ .

Die letzte Aussage können wir auch als allgemein gültig nachweisen:



Hauptsatz 1.80: Zeilenrang = Spaltenrang Sei A ∈ R(m,n) eine beliebige Matrix. Zeilenrang und Spaltenrang ändern sich nicht unter elementaren Zeilenumformungen. Für eine Matrix in Zeilenstufenform sind sie jeweils r, die Anzahl der Stufen. Insbesondere gilt somit immer: Zeilenrang = Spaltenrang .

Beweis: Nach den Überlegungen von Bemerkungen 1.79 ist nun noch zu zeigen: Elementare Zeilenumformungen verändern den Spaltenrang nicht. Das kann man wie folgt einsehen: Der Spaltenrang von A sei r. Nach Satz 1.71 (Basis-Auswahl-Satz) gibt es r linear unabhängige Spalten b1 := a(ν1 ) , . . . , br = a(νr ) der Matrix A. Weil die Spalten der damit gebildeten m × r-Matrix B := (b1 , . . . , br ) linear unabhängig sind, hat das LGS mit dieser Matrix Bx = 0 nur die Null-Lösung. Die Matrix A werde durch eine elementare Zeilenumformung in die Matrix A′ übergeführt. Dabei wird auch die Teilmatrix B von A in eine Matrix B′ übergeführt. Bei dieser Zeilenumformung der Matrix B ändert sich der Lösungsraum des Gleichungssytems Bx = 0 nicht. Folglich hat auch das LGS der Form B′ x = 0 nur die Null-Lösung. Deswegen sind die r Spalten der Matrix B′ linear unabhängig (nach Bemerkungen 1.63, 3)). Diese sind auch Spalten der Matrix A′ . Also gilt für den Spaltenrang r′ von A′ , dass r′ ≥ r. Demnach kann der Spaltenrang durch elementare Zeilenumformungen höchstens wachsen. Weil man die durchgeführte Zeilenumformung durch eine Umformung vom gleichen Typ wieder rückgängig machen kann, gilt auch r ≥ r′ . 

94

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.81 Der Rang einer Matrix A ist der gemeinsame Wert r ihres Zeilen- und Spaltenrangs. Wir setzen Rang(A) := r.

RLGS

RLGS

RLGS

Außerdem haben wir ein allgemeines Bestimmungsverfahren für den Rang (=Zeilenrang) einer Matrix: Man transformiere mit dem Gaussschen Eliminationsverfahren (ohne Spaltenvertauschung) auf Zeilenstufenform und lese die Anzahl der Stufen ab. Analog gilt: Sei u1 , . . . , uk ∈ Rn . Eine Basis für U := span(u1 , . . . , uk ) kann man wie folgt bestimmen: Man betrachte die Matrix A ∈ R(k,n) mit ut1 , . . . , utk als Zeilen und transe = (˜ut , . . . , u˜ t ), was nach Beformiere mit Zeilenumformungen auf Zeilenstufenform A 1 k merkungen 1.79, 1) den aufgespannten Raum nicht ändert. Wie in Bemerkungen 1.60, 6) sehen wir, dass die ersten r Zeilen eine Basis von U darstellen: U = span(˜u1 , . . . , u˜ r ). Weiter kann man ein W := span(wr+1 , . . . , wn ) bestimmen, so dass U ⊕ W = Rn . Man wähle nämlich aus dem Einheitsvektor ei ∈ Rn die i ∈ {1, . . . , n}\{ j(1), . . . , j(r)} aus, e sind. wobei die j(µ) die Zeilenstufenindizes in A

e mit den Zeilen et , . . . , etn ∈ Rn zur Matrix Dies kann man folgendermaßen einsehen: Ergänzt man A 1 Aˆ ∈ R(k+n,n) , so dass die Zeilen Rn aufspannen, und transformiert man Aˆ auf Zeilenstufenform, so sieht man: Ist die zu betrachtende Zeile eine der u˜ t1 , . . . , u˜ tk , und ist die aktuelle Diagonalposition ν ∈ {1, . . . , n} ein Pivotelement, so eliminiert dies die Zeile, die durch etν gebildet wird. Ist es kein Pivotelement, so wird mit etν getauscht. Daraus kann durch weitere Vertauschungen ein Einschieben von etν gemacht werden, so dass im nächsten Schritt wieder eine der u˜ t1 , . . . , u˜ tk zu betrachten ist. Insgesamt entsteht dadurch auf den ersten n Zeilen eine Basis des Rn (die letzten k Zeilen sind Nullzeilen), in der die u˜ t1 , . . . , u˜ tk auftreten, ergänzt um die eti für i ∈ {1, . . . , n}\{ j(1), . . . , j(r)}.

Bemerkung 1.81a Für A, B ∈ R(m,n) gilt: Rang(A + B) ≤ Rang(A) + Rang(B) . Sei nämlich k := Rang(A), l := Rang(B), dann gibt es r1 , . . . , rk ∈ {1, . . . , n}, s1 , . . . , sl ∈ {1, . . . n}, so dass die so ausgewählten Spalten von A = (a(1) , . . . , a(n) ) bzw. B = (b(1) , . . . , b(n) ) eine Basis des jeweiligen Spaltenraums darstellen, d. h. für i = 1, . . . , n gibt es Koeffizienten c j,i , d j,i ∈ R, so dass a(i) =

k X

c j,i a(r j ) ,

j=1

b(i) =

l X

d j,i b(r j ) .

j=1

Fasst man die beiden Indexmengen zusammen zu t1 , . . . , t p , d. h. p ≤ m + n und ergänzt für die jeweils in die Summen neu hinzukommenden Indizes die Koeffizienten 0, folgt dann a(i) + b(i) =

p X (c j,i + d j,i )(a(t j ) + b(t j ) ) , j=1

1.4 Lineare (Un-)Abhängigkeit und Dimension

95

d. h. für den Spaltenraum von A + B gibt es ein Erzeugendensystem mit p Elementen und damit Rang(A + B) ≤ p ≤ m + n .



Bei der Betrachtung des zugehörigen LGS Ax = b sind zwei weitere lineare Unterräume von Bedeutung: Der Lösungsraum U des homogenen LGS U = {x ∈ Rn : Ax = 0} und später   e := {y ∈ Rm : y . a(i) = 0 U

für alle i = 1, . . . , n} .

Wir wenden unseren Dimensionsbegriff jetzt noch auf lineare Gleichungssysteme an:

Theorem 1.82: Dimensionsformel I Seien m, n ∈ N, A ∈ R(m,n) . Betrachtet werde das homogene LGS Ax = 0 mit dem Lösungsraum U ⊂ Rn . Für die Zahlen d := Dimension des Lösungsraums U, r := (Zeilen-) Rang von A gilt dann die Beziehung d+r = n.

Beweis: Bei elementaren Zeilenumformungen der Koeffizientenmatrix ändern sich weder U noch der Zeilenraum und damit auch nicht ihre Dimensionen d bzw. r. Wir können daher o. B. d. A. annehmen, die Koeffizientenmatrix habe Zeilenstufenform. Die Zahl der Stufen ist dann r. Es gibt also n − r Spalten ohne Stufe in der Koeffizientenmatrix. An diesen n − r Stellen können die Unbekannten beliebig gewählt werden, die anderen r werden dann daraus berechnet, wie die Lösungsdarstellung nach (1.12) zeigt. Da auch Spaltenvertauschungen die Dimension von U und die Stufenanzahl nicht verändern, reicht es das Staffelsystem (1.9) mit seiner Lösungsdarstellung (1.11) zu betrachten. Gehen wir noch zur reduzierten Zeilenstufenform (1.16) über, so erhält die Matrix die Gestalt

96

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

! e 1A . 0 0

A=

e ∈ R(r,n−r) und die Nullmatrizen haben eine Dabei ist 1 ∈ R(r,r) die Einheitsmatrix, A entsprechende Dimensionierung. Für r = n reduziert sich U auf U = {0} und der Beweis ist beendet. Für r < n denken wir uns ein x ∈ Rn zerlegt in ein x′ ∈ Rr und x′′ ∈ Rn−r : ! x′ x = ′′ . x x′′ umfasst also die freien Parameter, x′ die dadurch festgelegten Komponenten. Wegen e ′′ = 0 Ax = 0 ⇔ x′ + Ax

hat der Lösungsraum mithin die Form ( ) ! x′ n ′ ′′ e U := x ∈ R : x = ′′ , x = −Ax . x  ′ u Wir setzen ui = u′′i mit i

u′′i



k

e ′′i u′i := −Au

:= δi,k ,

für k = 1, . . . , n − r und i = 1, . . . , n − r. Dann bilden die u1 , . . . , un−r eine Basis von U. Dabei ergibt sich die lineare Unabhängigkeit daraus, dass schon die u′′1 , . . . , u′′n−r linear unabhängig sind. Ein Erzeugendensystem liegt vor, denn für x ∈ U gilt offensichtlich x′′ =

n−r X

xi+r u′′i

i=1

und damit nach Theorem 1.46

d. h. insgesamt x =

Pn−r i=1

e ′′ = − x′ = −Ax

n−r X i=1

e ′′i = xi+r Au

n−r X

xi+r u′i ,

i=1

xi+r ui . Folglich ist d = n − r.

Korollar 1.83 Jeder lineare Unterraum U ⊂ Rn ist der Lösungsraum eines homogenen linearen Gleichungssystems. Das LGS kann mit n − dim U Zeilen und vollem Zeilenrang gewählt werden.

Beweis: Sei dim U = k und u1 , . . . , uk ∈ U eine Basis. Sei



1.4 Lineare (Un-)Abhängigkeit und Dimension

97

 t u1    B =  ...  ∈ R(k,n) ,   utk

d. h. die uti bilden die Zeilen von B. Damit ist der Zeilenrang von B gleich k. Sei W ⊂ Rn der Lösungsraum von By = 0. Also gilt (siehe zeilenweise Sicht von „Matrix mal Vektor“) a ∈ W ⇔ (ui . a) = 0 für alle i = 1, . . . , k . Nach Theorem 1.82 ist dim W = n − k. Sei also a1 , . . . , an−k ∈ Rn eine Basis von W und  t   a1    A =  ...  ∈ R(n−k,n) ,   atn−k

e ⊂ Rn d. h. die ati bilden die Zeilen von A. Der Zeilenrang von A ist deswegen n − k. Sei U der Lösungsraum von Au = 0, also e u∈U



(ai . u) = (u . ai ) = 0 für alle i = 1, . . . , n − k



Au = 0 .

e und wegen Daraus folgt U ⊂ U,

e = n − Rang A = n − (n − dim U) = dim U dim U

e aus Bemerkungen 1.77, 2). auch U = U



Bemerkungen 1.84

1) Ein k-dimensionaler Unterraum U von Rn lässt sich somit durch n − k lineare Gleichungen beschreiben. Sei allgemein V ein n-dimensionaler R-Vektorraum und U ⊂ V ein k-dimensionaler linearer Unterraum. Man setzt dann codim U := n − k

(1.51)

und spricht von der Kodimension von U. Es ist dementsprechend dim U + codim U = n . 2) Jede Hyperebene durch 0 hat in einem n-dimensionalen Raum Dimension n − 1 und damit Kodimension 1. 3) Sei U die Lösungsmenge eines homogenen LGS Ax = 0, dann ist nach Theorem 1.82 die Anzahl der Freiheitsgrade n − r und damit codim U = r ,

98

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

wobei r der (Zeilen-)rang von A ist. Die Kodimension ist also hier nach Korollar 1.83 allgemein bei jeden Unterraum U von Rn die Anzahl der linear unabhängigen Gleichungen, die nötig sind, um U als Lösungsmenge eines homogen LGS zu beschreiben. △ Der folgende Satz fasst das bisher erarbeitete strukturelle Wissen über LGS zusammen:

Hauptsatz 1.85: Lösbarkeit und Eindeutigkeit bei LGS Seien m, n ∈ N, A ∈ R(m,n) , b ∈ Rm . Wir betrachten das LGS Ax = b . Dann sind die folgenden Aussagen äquivalent: (i) Bei jeder Wahl der b1 , . . . , bm auf der rechten Seite ist das Gleichungssystem lösbar (universelle Existenz). (ii) Der Zeilenrang der Koeffizientenmatrix ist voll, d. h. gleich m. Auch folgende Aussagen sind äquivalent: (iii) Bei jeder Wahl der b1 , . . . , bm auf der rechten Seite gibt es höchstens eine Lösung des Systems (Eindeutigkeit). (iv) Das zugehörige homogene System Ax = 0 hat nur die Null-Lösung (Eindeutigkeit im homogenen Fall). (v) Der Spaltenrang der Koeffizientenmatrix ist voll, d. h. gleich n. Im Fall m = n, eines quadratischen LGS mit genauso vielen Gleichungen wie Unbekannten sind alle Aussagen (i)-(v) miteinander und außerdem mit folgendem äquivalent: (vi) Durch elementare Zeilenumformungen kann A auf die Form einer oberen Dreiecksmatrix mit nichtverschwindenden Diagonalelementen (bzw. = 1) gebracht werden:   1        

0

..



∗

. ..

. ..

. 1

   .    

(1.52)

1.4 Lineare (Un-)Abhängigkeit und Dimension

99

Beweis: Eindeutigkeit : (iii) ist äquivalent mit dem Prinzip des Koeffizientenvergleichs, d. h. mit der linearen Unabhängigkeit der n Spalten von A, d. h. mit (v). (iv) ist der Test auf lineare Unabhängigkeit nach Hauptsatz 1.62, folglich äquivalent mit (iii). Existenz : Die Implikation „(ii)⇒(i)“ ist der Inhalt von Bemerkungen 1.79, 1), 4a). Dass auch „(i)⇒(ii)“ gilt, kann man folgendermaßen einsehen: Aus (i) folgt, dass die Spalten von A den ganzen Rm aufspannen, also ist nach Hauptsatz 1.80 m = Spaltenrang von A = Zeilenrang von A . Sei nun n = m, dann gilt zusätzlich: Die Dimensionsformel I (Theorem 1.82) liefert (ii) ⇔ r = m = n ⇔ d = 0 ⇔ (iv) . e Nach Bemerkungen 1.79, 1) ist (ii) damit äquivalent, dass für die Zeilenstufenform A von A, die durch das Gauss-Verfahren ohne Spaltenvertauschung entsteht, der Zeilenrang (und nach Bemerkungen 1.79, 5) bzw. Hauptsatz 1.80 auch der Spaltenrang) gleich n ist. Dies ist für eine quadratische Matrix in Zeilenstufenform äquivalent zur Form (1.52), d. h. zu (vi) (siehe Bemerkungen 1.79, 2)).  Im Allgemeinen sind die Eigenschaften (i)⇔(ii) (universelle Existenz) auf der einen Seite und (iii)⇔(iv)⇔(v) (Eindeutigkeit) unabhängig voneinander. Nur für die Lösungen eines quadratischen LGS gilt: Universelle Existenz ⇔ Eindeutigkeit ⇔ eindeutige universelle Existenz. Satz 1.86: Dimensionsformel II Für je zwei endlichdimensionale lineare Unterräume U1 , U2 ⊂ V gilt dim(U1 ∩ U2 ) + dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) .

Beweis: Sei u1 , . . . , ud eine Basis von U1 ∩ U2 . Wir ergänzen diese Basis zu einer Basis von U1 durch u1 , . . . , ud , u1 , . . . , ur und zu einer Basis u1 , . . . , ud , w1 , . . . , w s von U2 . Wir testen das System von Vektoren u1 , . . . , ud , u1 , . . . , ur , w1 , . . . , ws auf lineare Unabhängigkeit. Sei etwa die lineare Relation a u + . . . + ad ud + b1 u1 + . . . + br ur + c1 w1 + . . . + c s ws = 0 |1 1 {z } | {z } ∈U1

∈U2

zwischen diesen Vektoren vorgelegt. Dann ist

c1 w1 + . . . + c s w s = −(a1 u1 + . . . + ad ud + b1 u1 + . . . + br ur ) ∈ U1 ∩ U2 ,

100

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

also c1 w1 + . . . + c s w s = α1 u1 + . . . + αd ud

mit α1 , . . . , αd ∈ R.

Da aber u1 , . . . , ud , w1 , . . . , ws als Basis von U2 linear unabhängig waren, folgt hieraus c1 = . . . = c s = 0. Ganz analog folgt b1 = . . . = br = 0, so dass die lineare Relation schließlich a1 u1 + . . . + ad ud = 0 lautet. Hieraus folgt dann noch a1 = . . . = ad = 0. Da u1 , . . . , ud , u1 , . . . , ur , w1 , . . . , w s den Unterraum U1 + U2 aufspannen, haben wir bewiesen, dass sie eine Basis von U1 + U2 bilden. Somit ist dim(U1 ) = d + r , dim(U1 ∩ U2 ) = d , dim(U1 ) + dim(U2 ) = 2d + r + s , Damit ist die Formel bewiesen.

dim(U2 ) = d + s , dim(U1 + U2 ) = d + r + s , dim(U1 ∩ U2 ) + dim(U1 + U2 ) = 2d + r + s . 

Bemerkung 1.87 Ist U = U1 ⊕ U2 , so ist nach Satz 1.86 insbesondere dim U = dim U1 + dim U2 . Ist die Summe direkt, ergänzen sich vor diesem Hintergrund die Basen von U1 und U2 zu einer Basis von U. Ihre Vereinigung bildet nämlich immer ein Erzeugendensystem und nach der Dimensionsformel ist die Anzahl in der Vereinigung genau dim U (siehe Aufgabe 1.20). Für ein Komplement U2 zu U1 ist daher dim U2 (= dim U − dim U1 ) unabhängig von der Wahl des Komplements (vgl. Satz 1.70). Wie aber schon V = R2 und U = R(1, 0)t zeigt, gibt es i. Allg. unendlich viele Komplemente. △

Aufgaben

101

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Linear (un-)abhängig • Basis • Dimension, unendliche Dimension

Zusammenhänge:

• Test auf lineare (Un-)Abhängigkeit (Lemma 1.61, Hauptsatz 1.62) • Prinzip des Koeffizientenvergleichs (1.47) • Stufenanzahl = Zeilenrang = Spaltenrang bei Zeilenstufenform (Bemerkungen 1.60, 6), Bemerkungen 1.79, 3) • Basis-Ergänzung-Satz (Satz 1.70) • Basis-Auswahl-Satz (Satz 1.71) • Zeilenrang = Spaltenrang allgemein (Hauptsatz 1.80) • Dimensionsformel I (Theorem 1.82) • Dimensionsformel II (Satz 1.86) • Charakterisierung von Eindeutigkeit und universeller Lösbarkeit bei LGS (Hauptsatz 1.85)

Beispiele: • Basen in S 0 (∆), S 1 (∆), Rn [x], R[x] • Standardbasis in Rn

Aufgaben Aufgabe 1.20 (T) Es sei U ⊂ V ein k-dimensionaler Untervektorraum. Zeigen Sie, dass für jede Teilmenge M ⊂ U die folgenden Eigenschaften äquivalent sind: (i) M ist eine Basis von U,

(ii) M ist linear unabhängig und besteht aus k Vektoren, (iii) M spannt U auf und besteht aus k Vektoren. Aufgabe 1.21 (K) Berechnen Sie den Zeilenrang der Matrizen   1  3 A =   6 10

3 6 10 15

6 10 15 21

 10  15 , 21 28

  1  3 B =   6 10

3 6 10 1

6 10 1 3

 10  1  . 3  6

102

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Aufgabe 1.22 (K) Es seien U := {x ∈ R4 : x1 + 2x2 = x3 + 2x4 } ,

V := {x ∈ R4 : x1 = x2 + x3 + x4 } .

Bestimmen Sie Basen von U, V, U ∩ V und U + V.

P Aufgabe 1.23 (T) Seien n, k ∈ N, seien u1 , u2 , . . . , un ∈ Rk Vektoren, und sei wi := ij=1 u j für i = 1, . . . , n. Man zeige, dass das System (u1 , u2 , . . . , un ) genau dann linear unabhängig ist, wenn das System (w1 , w2 , . . . , wn ) linear unabhängig ist.

Aufgabe 1.24 (K) Im reellen Vektorraum R5 seien folgende Vektoren gegeben: u1 = (−1, 4, −3, 0, 3)t, u2 = (2, −6, 5, 0, −2)t, u3 = (−2, 2, −3, 0, 6)t. Sei U der von u1 , u2 , u3 aufgespannte Unterraum im R5 . Bestimmen Sie ein reelles lineares Gleichungssystem, dessen Lösungsraum genau U ist. Aufgabe 1.25 (T) Für eine fest gegebene Zerlegung ∆ von [a, b] definiere man S 1−1 (∆) := { f : f : [a, b] → R ist eine Gerade auf [xi , xi+1 ), i = 0, . . . , n − 2 bzw. auf [xn−1 , xn ]} . Gegenüber S 1 (∆) wird also der stetige Übergang bei xi , i = 1, . . . , n − 1 nicht gefordert. Man zeige: S 1−1 (∆) mit den punktweise definierten Operationen ist ein R-Vektorraum und S 1 (∆) ein linearer Unterraum. Man gebe eine Basis von S 1−1 (∆) an und verifiziere dim S 1−1 (∆) = 2n . Aufgabe 1.26 (K) Welche der folgenden Systeme von Funktionen fν , ν ∈ N, sind linear unabhängig (als Vektoren im Vektorraum C(R, R))? a) fν (x) = eνx , b) fν (x) = x2 + 2νx + ν2 , 1 c) fν (x) = ν+x 2, jeweils für x ∈ R.

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

103

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

1.5.1 Skalarprodukt, Norm und Winkel In diesem Abschnitt sollen zwei Begriffe betrachtet werden, die über die Vektorraumstruktur hinausgehen und die eng zusammenhängen: Längenmessung und Winkelbestimmung. Wir erinnern zunächst an den elementargeometrischen Begriff der Länge in n = 1, 2 und 3 Dimensionen: n = 1: Für x ∈ R ist |x| :=



x2

der Betrag der Zahl x. n = 2: Die Länge eines Vektors x = (x1 , x2 )t ∈ R2 ist q kxk := x21 + x22 .

Dies ist der Inhalt des elementargeometrischen Satzes von Pythagoras26 , für x als Ortsvektor aufgefasst. n = 3: Die Länge eines Vektors x = (x1 , x2 , x3 )t ∈ R3 ist q kxk := x21 + x22 + x23 .

Dies ergibt sich nach zweimaligem Anwenden des Satzes von Pythagoras.



x

❃ ✚ ✚ ✚ kxk ✚ ✚ x2 ✚ ✚ ✚ ✲ ✚ x1

✻ kxk

✡ ✡ ✡

✣ ✡✡

✡ ✡ ✦✦ ✡ ✦✦ x2 ✦ ✦ ✡

x

✒ x3



x1

Abb. 1.12: Euklidische Länge in R2 und R3 . Es liegt nahe, wie dieser Längenbegriff für beliebige Dimension zu verallgemeinern ist: 26

Pythagoras von Samos ∗um 570 v. Chr. auf Samos †nach 510 v. Chr. in Metapont in der

Basilicata

104

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.88 Sei x = (x1 , . . . , xn )t ∈ Rn . Dann heißt q kxk := x21 + x22 + . . . + x2n die euklidische Länge oder Norm von x.

Mit dem in Definition 1.49 eingeführten (euklidischen) Skalarprodukt lässt sich die Norm ausdrücken durch: p kxk = (x . x) . (1.53)

Das Skalarprodukt (x . y) hat folgende offensichtliche Eigenschaften in V := Rn : (i) Bilinearität: (c1 x1 + c2 x2 . y) = c1 (x1 . y) + c2 (x2 . y) ,    x . c1 y1 + c2 y2 = c1 x . y1 + c2 x . y2 ,

x1 , x2 , y ∈ V, c1 , c2 ∈ R , x, y1 , y2 ∈ V, c1 , c2 ∈ R .

(1.54)

(ii) Symmetrie:

(x . y) = (y . x) ,

x, y ∈ V .

(1.55)

(x . x) ≥ 0 für alle x ∈ V , (x . x) = 0 ⇔ x=0.

(1.56)

(iii) Definitheit:

Eigenschaften der Norm, die nur aus (1.54)-(1.56) folgen, sind: (iv) Definitheit: Es ist stets kxk ≥ 0 und kxk = 0 nur dann, wenn x = 0 .

(1.57)

(v) Homogenität: Für c ∈ R und x ∈ V ist kcxk = |c| kxk .

(1.58)

Den Zusammenhang zwischen Skalarprodukt und Norm beschreibt: (vi) Cauchy-Schwarz2728 -Ungleichung (C.S.U.): | (x . y) | ≤ kxk · kyk . 27 28

Augustin Louis Cauchy ∗21. August 1789 in Paris †23. Mai 1857 in Sceaux Hermann Amandus Schwarz ∗25. Januar 1843 in Hermsdorf †30. November 1921 in Berlin

(1.59)

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

105

Beweis aus (1.54) - (1.56): Für alle a, b ∈ R ist 0 ≤ ||ax − by||2 = (ax − by . ax − by) = a2 kxk2 − 2ab (x . y) + b2 kyk2 ,

oder äquivalent damit 2ab (x . y) ≤ a2 kxk2 + b2 kyk2 .

Setzen wir a = kyk und b = kxk, so erhalten wir 2kxk · kyk (x . y) ≤ 2kxk2 · kyk2 .

Da die Behauptung für x = 0 oder y = 0 richtig ist, können wir o. B. d. A. x , 0 , y annehmen. Dann dürfen wir in der letzten Gleichung wegen (1.57) kürzen und erhalten (x . y) ≤ kxk · kyk .

Für −x statt x gilt dieselbe Ungleichung, so dass also auch − (x . y) = (−x . y) ≤ kxk · kyk

gilt. Daraus folgt schließlich | (x . y) | = max{(x . y) , − (x . y)} ≤ kxk · kyk .

Aus der C.S.U. folgt eine weitere wichtige Eigenschaft der Norm: (vii) Dreiecksungleichung: kx + yk ≤ kxk + kyk für x, y ∈ V.

(1.60)

Beweis aus (1.54), (1.55), (1.59): ||x + y||2 = (x + y . x + y) = kxk2 + 2 (x . y) + kyk2 ≤ kxk2 + 2kxk · kyk + kyk2 = (kxk + kyk)2 .

✯ ✟✟ ✼ ✓ ✟ ✓y x + y ✟✟ ✟ ✓ ✟✟ ✲✓x Abb. 1.13: Elementargeometrische Interpretation der Dreiecksungleichung. Die geometrische Bedeutung des Skalarprodukts in R2 , und dann übertragen auf Rn , werden wir später untersuchen. Erst ist die Verallgemeinerbarkeit der Begriffe Skalarprodukt und Norm zu untersuchen. Die Eigenschaften (iv)–(vii) beruhen nur auf den Eigenschaften (i)-(iii) des Skalarprodukts und der Definition in (1.53). Das legt folgende Definition nahe:

106

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.89 Sei V ein R-Vektorraum. Eine Abbildung ( . ): V × V → R heißt Skalarprodukt (SKP) auf V, wenn sie bilinear, symmetrisch und definit ist (d. h. (1.54), (1.55), (1.56)  erfüllt). Für das Bild von x, y ∈ V schreibt man (x . y). Der Raum V, +, ·, ( . ) bzw.  kurz V, ( . ) heißt Vektorraum mit SKP.

Es ist nicht selbstverständlich, dass auf einem R-Vektorraum ein SKP existiert, wenn dann aber unendlich viele, da jedes positive Vielfache eines SKP wieder ein SKP ist. Bemerkung 1.90 Auf dem Vektorraum C([a, b], R) (siehe (1.50)) kann ein SKP eingeführt werden durch Z b ( f . g) := f (x) g(x) dx . (1.61) a

Für die Eigenschaften der Bilinearität und Symmetrie wird auf Schulkenntnisse bzw. die Analysis verwiesen, in der auch die Definitheit bewiesen wird. Auf den linearen Unterräumen S 1 (∆) bzw. Rn [x] ist damit auch ein SKP definiert, aber auch auf linearen Unterräumen wie etwa S 0 (∆) kann mit der gleichen Definition ein SKP eingeführt werden. Für S 0 (∆) nimmt dies nachfolgend für die Zerlegung ∆ : a = x0 < . . . < xn = b die folgende spezielle Form an: Seien fi bzw. gi , i = 0, . . . , n − 1, die konstanten Werte von f, g ∈ S 0 (∆), dann ist ( f . g) =

n−1 X i=0

(xi+1 − xi ) fi gi .

Für eine äquidistante Zerlegung mit xi+1 − xi = h ergibt sich so ( f . g) = h

n−1 X

fi gi .

i=0

Bis auf den Faktor h ist das somit das euklidische SKP der darstellenden n-Tupel.



Die Eigenschaften (iv), (v), (vii) der euklidischen Norm erscheinen als wesentliche Eigenschaften einer Längenmessung auf einem R-Vektorraum. Daher: Definition 1.91 Sei (V, +, ·) ein R-Vektorraum. Eine Abbildung k . k : V → R heißt Norm auf V, wenn sie definit und homogen ist und die Dreiecksungleichung erfüllt (d. h. (1.57),(1.58),(1.60) gelten). Für das Bild von x ∈ V schreibt man kxk. Dann heißt (V, +, ·, k . k) bzw. kurz (V, k . k) normierter (R-Vektor-)Raum.

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

107

Da die obigen Beweise von (1.57), (1.58), (1.60) für V = Rn nur die SKP Eigenschaften (1.54)–(1.56) ausgenutzt haben, gilt demnach: Satz 1.92 Sei (V, ( . )) ein R-Vektorraum mit SKP. Dann wird durch (1.53) eine Norm k . k definiert, die die Cauchy-Schwarz-Ungleichung (1.59) erfüllt. k . k heißt auch vom SKP ( . ) erzeugt.

Bemerkungen 1.93 1) Jede Norm k . k auf einem R-Vektorraum V definiert eine Abstandsmessung (Metrik) durch d(x, y) := kx − yk

für x, y ∈ V .

2) Eine Norm, die durch ein SKP erzeugt wird, erfüllt die Parallelogrammgleichung :   für x, y ∈ V . (1.62) kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 3) Auf dem Rn lassen sich auch andere SKP definieren. Sei r = (ri )i ∈ Rn und ri > 0 für alle i = 1, . . . , n, ein Vektor von Gewichten. Dann ist (x . y)r :=

n X

ri xi yi

(1.63)

i=1

ein SKP auf Rn . 4) Berücksichtigt man, dass der Matrizenraum R(m,n) nur ein „seltsam“ aufgeschriebener Rm·n ist, so liefert das euklidische SKP auf Rm·n ein SKP auf R(m,n) :

A : B :=

m X n X j=1 k=1

a j,k b j,k für A = (a j,k ), B = (b j,k ) ∈ R(m,n)

mit der erzeugten (Frobenius-)Norm29  m n 1/2 X X  2  kAkF :=  |a j,k |  . j=1 k=1

108

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

5) Die von ( . ) nach (1.61) auf C([a, b], R) erzeugte Norm ist Z

k f k2 :=

b a

2

| f (x)| dx

!1/2

(1.64)

bzw. die Abstandsmessung Z

k f − gk2 :=

b

a

| f (x) − g(x)|2 dx

!1/2

für f, g ∈ C([a, b], R). Man spricht auch von Abstandsmessung im quadratischen Mittel.

6) Es gibt auf Rn eine Vielzahl von Normen, die nicht durch ein SKP erzeugt werden, z. B. kxk1 : =

n X i=1

|xi | oder

(1.65)

kxk∞ : = max {|xi | : i = 1, . . . , n} ,

die Maximumsnorm .

(1.66)

7) Auf C([a, b], R) lassen sich zu (1.65), (1.66) analoge Normen definieren durch k f k1 : =

Z

b

a

| f (x)|dx ,

k f k∞ : = max {| f (x)| : x ∈ [a, b]} .

(1.67) (1.68) △

Mathematische Modellierung 3 Auch in Anwendungen treten andere als das euklidische SKP auf: Anknüpfend an (MM.24) werde bei der Berechung des Gesamtertrags ein Rabatt ri berücksichtigt (wobei 1 − ri ∈ [0, 1) der Rabattsatz sei). Dann ergibt sich der Gesamtertrag nach (MM.24) und (1.63) aus e = ( p . S)r .

^

Wir kehren vorerst wieder zur Betrachtung des R2 zurück. Nicht nur die Norm eines Vektors, auch das Skalarprodukt zweier Vektoren hat eine geometrische Bedeutung. Dazu betrachten wir zunächst zwei Einheitsvektoren (= Vektoren der Länge 1) im R2 , die mit der x-Achse (gegen den Uhrzeigersinn) einen Winkel von α bzw. β einschließen. Dann gilt nach der elementargeometrischen Definition (sin α = „Gegenkathete/Hypothenuse“ etc.) und wegen sin2 α + cos2 α = 1 für alle α: x = (cos(α), sin(α))t , y = (cos(β), sin(β))t , (x . y) = cos(α) cos(β) + sin(α) sin(β) = cos(α − β) 29

Ferdinand Georg Frobenius ∗26. Oktober 1849 in Berlin †3. August 1917 in Charlottenburg

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

109

aus dem Additionstheorem für die cos-Funktion. Es folgt also, dass das Skalarprodukt (x . y) zweier Einheitsvektoren der Cosinus des Winkels zwischen beiden Vektoren ist. Für zwei beliebige Vektoren x , 0 , y definieren wir zunächst die Einheitsvektoren xˆ :=

1 x, kxk

yˆ :=

1 y kyk

und erhalten in der Folge für den Cosinus des Winkels zwischen x und y ( xˆ . yˆ ) =

(x . y) . kxk kyk

Aus der Cauchy-Schwarz-Ungleichung folgt −1 ≤

(x . y) ≤1. kxk kyk

Da die Cosinus-Funktion das Intervall [0, π] bijektiv auf das Intervall [−1, 1] abbildet, gibt es genau ein α ∈ [0, π] mit cos(α) =

(x . y) . kxk kyk

Dies nehmen wir zum Anlass für die entsprechende allgemeine Definition: Definition 1.94  Sei V, ( . ) ein R-Vektorraum mit SKP. Seien x , 0 , y Vektoren in V. Sei α ∈ [0, π] der eindeutig existierende Wert, für den gilt cos(α) =

(x . y) . kxk kyk

Wir nennen diesen Winkel α den Winkel zwischen den Vektoren x und y. Dieser Winkel hat also kein Vorzeichen, d. h. er hängt nicht von der Reihenfolge der Vektoren x und y ab. Hier haben wir ziemlich großzügig Gebrauch von den Eigenschaften der Cosinus-Funktion aus der Analysis gemacht. Die Beziehung zwischen Skalarprodukt und Cosinus des Zwischenwinkels ist für das Verständnis und die Anwendungen (z. B. in der analytischen Geometrie) von großer Bedeutung. Im weiteren Aufbau der Linearen Algebra selbst werden wir aber von dieser Tatsache keinen Gebrauch machen, sondern nur um den Bezug zur Anschauung aufrecht zu erhalten. In diesem Sinn sollte uns deswegen die Anleihe bei der Analysis erlaubt sein.

110

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

1.5.2 Orthogonalität und orthogonale Projektion

Definition 1.95 Sei (V, ( . )) ein R-Vektorraum mit SKP. Zwei Vektoren x, y ∈ V heißen orthogonal oder senkrecht aufeinander, in Zeichen x ⊥ y, wenn sie den Winkel π2 einschließen, folglich wenn (x . y) = 0 ist. (Hier ist auch x = 0 oder y = 0 zugelassen.)

Satz 1.96: Abstrakter Satz von Pythagoras Sei (V, ( . )) ein R-Vektorraum mit SKP. Es seien u1 , . . . , ur ∈ V Vektoren, die paarweise aufeinander senkrecht stehen: (uk . ul ) = 0

für alle k , l .

Dann gilt ku1 + u2 + . . . + ur k2 = ku1 k2 + ku2 k2 + . . . + kur k2 .

Beweis: Aus der Voraussetzung folgt, dass die linke Seite gleich (u1 + . . . + ur . u1 + . . . + ur ) =

r X

k,l=1

(uk . ul ) =

r X

(uk . uk )

k=1

ist.



Definition 1.97 Sei (V, ( . )) ein R-Vektorraum mit SKP. Ist A ⊂ V eine beliebige Menge, so sei A⊥ := {x ∈ V : (x . a) = 0 für alle a ∈ A} die Menge der Vektoren x, die auf allen Vektoren aus A senkrecht stehen. Ist insbesondere A = U ⊂ V ein linearer Unterraum, so nennen wir U ⊥ das orthogonale Komplement zu U in V. Für {a}⊥ schreiben wir kurz a⊥ , falls a ∈ V. Die a⊥ für a , 0 sind also (vorerst im Rn ) die Hyperebenen durch 0.

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt



U⊥ ❅

❅ ❅ ❅

111

❅ ❅ ❅ ❅ U

❅ ❅ ❅ ❅ Abb. 1.14: Unterraum und orthogonales Komplement.

Bemerkungen 1.98 Sei V ein R-Vektorraum mit SKP. 1) Für Teilmengen A bzw. Ai von V gilt: A ∩ A⊥ ⊂ {0} , U ∩ U ⊥ = {0} , wenn U linearer Unterraum ist. A ⊂ (A⊥ )⊥ , A1 ⊂ A2 ⇒ A⊥2 ⊂ A⊥1 .

(1.69)

2) Sei A ⊂ V beliebig, dann ist A⊥ ein linearer Unterraum von V.

3) Sei A ⊂ V, dann gilt

A⊥ = span(A)⊥ . 4) Es seien a(1) , . . . , a(m) ∈ Rn beliebig. Sei A ∈ R(m,n) durch die Vektoren als Zeilen gegeben. Man betrachte das homogene LGS Ax = 0 mit dem Lösungsraum U und dem Zei lenraum Z(A) = span a(1) , . . . , a(m) , dann folgt  Z(A)⊥ = a(1) , . . . , a(m) ⊥ = U .

Sei A˜ = {a(1) , . . . , a(m) } ⊂ Rn . Dann ist also nach 3) Z(A)⊥ = A˜ ⊥ und   x ∈ A˜ ⊥ ⇔ a(1) . x = . . . = a(m) . x = 0 n n X X ⇔ a1,ν xν = . . . = am,ν xν = 0 ν=1



n X ν=1

ν=1

aµ,ν xν = 0

für µ = 1, . . . , m .

(1.70)

112

RLGS

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Die Vektoren x ∈ {a(1) , . . . , a(m) }⊥ sind somit genau die Lösungen des homogenen LGS, dessen Koeffizientenmatrix aus den Zeilenvektoren at(1) , . . . , at(m) zusammengesetzt ist.

Die at(1) , . . . , at(m) werden als Zeilen einer Matrix A eines homogenen LGS interpretiert. Damit gilt für beliebige a(1) , . . . , a(m) ∈ Rn und U = span(a(1) , . . . , a(m) ): dim U ⊥ = n − dim U .

(1.71)

Theorem 1.82 zeigt in dieser Situation: dim {a(1) , . . . , a(m) }⊥ = dim Z(A)⊥ = n − dim span(a(1) , . . . , a(m) ) .

Damit gilt: In einem endlichdimensionalen Vektorraum V mit SKP und dim V = n, ist für einen linearen Unterraum U dim U ⊥ = n − dim U

bzw. U ⊕ U ⊥ = V.

Für U = Z(A) und damit für einen beliebigen linearen Unterraum in einem endlichdimensionalen Vektorraum V mit SKP lässt sich das jetzt schon verifizieren. Sei W der Lösungsraum von Ax = 0, dann gilt nach 4) U⊥ = W

und nach Theorem 1.82 dim(W) + dim(U) = dim(V).

Wegen Bemerkungen 1.98, 1) und Bemerkung 1.87 gilt auch dim(U + W) = dim(U) + dim(W) = dim(V) und nach Bemerkungen 1.77, 2) also U ⊕ U ⊥ = U + W = V .

Infolgedessen sind dim U ⊥ und die Kodimension von U nach Bemerkungen 1.84, 1) gleich. Für allgemeine Vektorräume V mit SKP und einem endlichdimensionalen Unterraum erfolgt der Beweis in Satz 1.105. 5) Ist U = span(u1 , . . . , ur ) ⊂ V in einem R-Vektorraum V mit SKP, dann gilt 3)

x ∈ U ⊥ ⇔ (x . ui ) = 0

für i = 1, . . . , r .

P Sei nun V endlichdimensional, d. h. V = span(u1 , . . . , un ). Ist also x = nν=1 αν uν ∈ U ⊥ , αν ∈ R gesucht, dann ist das äquivalent mit: Gesucht ist α = (α1 , . . . , αn )t ∈ Rn , so dass n  X ν=1

 uν . uµ αν = 0

für

µ = 1, . . . , r .

Folglich erfüllt α ein homogenes LGS mit Koeffizientenmatrix RLGS

  A = uν . uµ

µ,ν

∈ R(r,n) .

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

6) Seien u1 , . . . , uk ∈ V und u1 , . . . , ul ∈ V gegeben, so dass   ui . u j = 0 für alle i = 1, . . . , k, j = 1, . . . , l, i , j .

113

(1.72)

Dann heißen u1 , . . . , uk und u1 , . . . , ul biorthogonal . Die Vektoren u1 , . . . , uk und u1 , . . . , ul heißen orthogonal, wenn (1.72) auch für i = j erfüllt ist. Dann gilt: Seien U := span(u1 , . . . , uk ) und W := span(w1 , . . . , wl ) orthogonal, so ist U ⊂ W ⊥ und W ⊂ U ⊥ . Ist dim V endlich und dim V = dim U + dim W, dann gilt sogar U = W⊥ ,

W = U⊥ .

Das kann man folgendermaßen einsehen: Es ist U ⊂ w⊥j für alle j = 1, . . . , l und damit U ⊂ W ⊥ . Vertauschen der Rollen liefert W ⊂ U ⊥ . Die Zusatzbehauptung wird in Bemerkungen 1.110, 3) bewiesen.



Lineare Unabhängigkeit lässt sich auch durch die Eigenschaften einer mit dem SKP gebildeten Matrix ausdrücken. Definition 1.99 Sei V ein R-Vektorraum mit SKP ( . ) und u1 , . . . , ur ∈ V. Dann heißt die r×r-Matrix des Skalarproduktes   G(u1 , . . . ur ) := u j . ui i, j=1,...,r

die Gram30 sche Matrix der Vektoren u1 , . . . , ur .

Satz 1.100 In der Situation von Definition 1.99 sind die Vektoren u1 , . . . , ur genau dann linear unabhängig, wenn  Rang G(u1 , . . . , ur ) = r.

Beweis: „⇒“: Es reicht, eine der äquivalenten Bedingungen aus Hauptsatz 1.85, etwa (iv), zu zeigen. Sei G := G(u1 , . . . , ur ), x ∈ Rr und Gx = 0. Es ist x = 0 zu zeigen. Ausgeschrieben lautet die Voraussetzung

30

Jørgen Pedersen Gram ∗27. Juni 1850 in Nustrup bei Haderslev †29. April 1916 in Kopenhagen

114

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums r  X  u j . ui x j = 0 für i = 1, . . . , r j=1

und damit für die erzeugte Norm k . k:  r   r  r r r X X X X  X      2  k xi ui k =  x ju j . xi ui  = u j . ui x j  xi = 0 ,  i=1

also

r P

j=1

i=1

i=1

j=1

x j u j = 0 und damit auch x1 = . . . = xr = 0.

j=1

„⇐“: Seien xi ∈ R und

r P

x j u j = 0. Also ist auch

j=1

 r  X  0 =  x j u j . ui  = (Gx)i

für alle i = 1, . . . , n .

j=1

Nach Hauptsatz 1.85 („(v) ⇒ (iv)“) folgt x1 = . . . = xr = 0.



Sei V ein R-Vektorraum, der auch unendlichdimensional sein kann, mit SKP ( . ). Sei k . k die davon erzeugte Norm. Sei U ⊂ V ein endlichdimensionaler Unterraum mit Basis u1 , . . . , ur . Eine ubiquitäre Aufgabe besteht darin, beliebige Elemente aus V durch ein Element u∈U,

u=

r X i=1

αi ui

mit α = (α1 , . . . , αr )t ∈ Rr

zu approximieren. Ein Beispiel ist die Approximation von allgemeinen Funktionen, z. B. durch stetige Polygonzüge oder Polynome festen Grades, also z. B. V = C([a, b], R) und U = S 1 (∆) oder U = Rn [x] (eingeschränkt auf [a, b]). Das führt zu: Definition 1.101 Die Aufgabe, den Vektorraum V (mit SKP ( . ) und erzeugter Norm k . k) durch einen linearen Unterraum U zu approximieren, lautet: Sei x ∈ V. Finde u ∈ U, so dass für das Fehlerfunktional ϕ(u) := kx − uk (u ∈ U) gilt ϕ(u) = min {ϕ(u) : u ∈ U} . Der Vektor u heißt orthogonale Projektion von x auf U.

(1.73)

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

115

Hauptsatz 1.102: Eindeutige Existenz der orthogonalen Projektion Sei V ein R-Vektorraum mit SKP ( . ) , U ⊂ V ein linearer Unterraum. Für u ∈ U und x ∈ V gilt: 1) Es sind äquivalent:

(i) u ist orthogonale Projektion von x auf U. (ii) x − u ∈ U ⊥ (Fehlerorthogonalität ) Ist U endlichdimensional mit Basis u1 , . . . , ur und α ∈ Rr der Koordinatenvektor r P von u, d. h. u = αi ui , dann ist außerdem äquivalent: i=1

(iii)

(1.74)

Aα = β,   mit A = u j . ui ∈ R(r,r) , die Gramsche Matrix und β = (x . ui )i ∈ Rr . i, j

2) Ist U endlichdimensional, so existiert die orthogonale Projektion u von x ∈ V eindeutig und wird mit PU (x) bezeichnet.

Beweis: Zu 1): Sei x ∈ V und u ∈ U, sei u ∈ U, u , 0 beliebig. Wir betrachten die reelle Funktion, die dadurch entsteht, dass das Fehlerfunktional nur auf der Geraden u + Ru in U betrachtet wird: g(t) := ϕ(u + tu)2 = kx − (u + tu)k2 = kx − uk2 + 2 (x − u . u) t + kuk2 t2 Also ist g die quadratische Funktion g(t) = a + 2bt + ct2

(1.75)

mit a = kx − uk2 ,

b = (x − u. u) ,

c = kuk2 > 0 .

Die Funktion g beschreibt demnach eine nach oben geöffnete Parabel. Es folgen: „(i)⇒(ii)“: Ist u eine orthogonale Projektion von x, also eine Minimalstelle von ϕ, dann hat g ein Minimum bei t = 0 (das auch das einzige ist). Somit gilt (x − u . u) = b = 0 für alle u ∈ V (der Fall u = 0 ist klar) und damit (ii). „(ii)⇒(i)“: Wegen b = 0 hat g die Form

116

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

g(t) = a + ct2 . Wegen c > 0 ist für alle t ∈ R, t , 0.

g(0) < g(t)

Sei w ∈ V beliebig und u := w − u ∈ U, dann folgt für diese Wahl von u ϕ(u)2 = g(0) < g(1) = kx − (u + w − u)k2 = ϕ2 (w) , so dass also u eine (sogar eindeutige) Minimalstelle von ϕ ist. P „(ii)⇔(iii)“: u − x ∈ U ⊥ ⇔ Für u = ri=1 αi ui ∈ U gilt P  (u − x . ui ) = 0 ⇔ rj=1 α j u j . ui = (x . ui ) für alle i = 1, . . . , r ⇔ Aα = β und damit die Behauptung (In die erste Äquivalenz gehen Bemerkungen 1.98, 3) ein). Zu 2): Dies folgt aus 1) (i) ⇔ (iii) und der eindeutigen Lösbarkeit von (1.74) nach Hauptsatz 1.102 und Hauptsatz 1.85.  Beispiel 1.103 (Geometrie) Sei V = Rn und Uk := {x = (xi )i ∈ Rn : xk = 0} für k = 1, . . . , n. Dann gilt PUk (x) = (x1 , . . . , xk−1 , 0, xk , . . . , xn )t , da x − PUk (x) die Orthogonalitätsbedingung Hauptsatz 1.102, 1) erfüllt. Für n = 3 heißt PUk die Normalprojektion , für k = 1 spricht man von Seitenansicht , für k = 2 von Vorderansicht , für k = 3 von Draufsicht . Es handelt sich um im Bauwesen oft verwendete Projektionen. Bei allgemeinem U (Projektionsebene) spricht man von orthogonaler Parallelprojektion . Man kann sich dies durch ein „im Unendlichen“ befindliches Projektionszentrum (was approximativ auf die Sonne zutrifft) und durch parallele Projektionsstrahlen veranschaulichen. ◦ Bemerkungen 1.104 1) Führt man den Beweis von Hauptsatz 1.102 für endlichdimensionales U im Koordinatenvektor α durch, so erhält man   r r X X   2  αi ui . x − α j u j  ϕ(u) = (x − u . x − u) =  x − i=1

= (x . x) − 2 2

r X

αi (x . ui ) +

i=1

j=1

r X

i, j=1

= ||x|| − 2 (α . β) + (Aα . α) .

  αi ui . u j α j

Die Minimalstellen von ϕ (d. h. die u, für die das Minimum in (1.73) angenommen wird),  stimmen mit denen von 12 ϕ ( . )2 − ||x||2 überein, so dass wir äquivalent das folgende r Minimierungsproblem auf R betrachten können: Finde αˆ ∈ Rr , so dass f (α) ˆ = min{ f (α) : α ∈ Rr }

mit f (α) :=

1 (Aα . α) − (α . β) . 2

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

117

Im Beweis von Hauptsatz 1.102 wurde also wesentlich ausgenutzt, dass das MinimierungsP problem (1.73) für u = ri=1 αi ui äquivalent ist zum quadratischen Optimierungsproblem auf Rr : f (α) :=

1 (Aα . α) − (α . β) −→ min 2

für A, β wie in (1.74). Das wird wiederum als äquivalent mit dem LGS (1.74) nachgewiesen. Wir werden dies allgemeiner wieder aufgreifen in Abschnitt 4.7.2. Dabei hat die Gramsche Matrix A spezielle, durch das SKP und die lineare Unabhängigkeit der ui erzeugte, Eigenschaften. Der reellen Funktion g entspricht g(t) := f (αˆ + tγ)

für t ∈ R ,

wobei αˆ ∈ Rr und γ ∈ Rr , γ , 0, beliebig. Die Funktion g hat die folgende Gestalt 1 (A(αˆ + tγ) . αˆ + tγ) − (αˆ + tγ . β) 2 1 1 ˆ − (αˆ . β) + (Aαˆ − β . γ) t + (Aγ . γ) t2 . = (Aαˆ . α) 2 2

g(t) =

Hierbei wurde die Linearität des Matrix-Vektor-Produkts, die Bilinearität und die Symmetrie des SKP ausgenutzt und auch, dass für die spezielle Matrix A gilt: (Aγ . α) ˆ = (Aαˆ . γ) .

(1.76)

Wesentlich dabei ist (1.76). In Abschnitt 2.3.5 werden wir sehen, dass dies allgemein eine Folge von At = A , der Symmetrie von A, ist. Die entscheidende Tatsache, dass die Parabel nach oben geöffnet ist, die im Beweis der offensichtlichen Aussage c = kuk2 > 0 entspricht, ist hier c=

1 (Aγ . γ) > 0 , 2

wobei γ , 0 beliebig ist. Wegen der Definitheit des SKP gilt dies:         r r r r   X  X X X                 γi ui  > 0 . u j . ui γ j  . γ =  γ j u j . ui  . γ =  γ j u j . 2c =  j=1

i

j=1

i

j=1

i=1

2) Das Approximationsproblem aus Definition 1.101 kann auch allgemein betrachtet werden, wenn V nur mit einer Norm versehen wird. Da dann der Zusammenhang zur quadratischen Optimierung wegfällt, wird das Problem schwieriger. Beispiele sind V = Rn mit k .k = k .k1 oder k .k = k .k∞ oder V = C([a, b], R) mit den analog bezeichneten Normen. 3) Für U = V ist PU = id, so dass aus diesem Grund für eine Basis u1 , . . . , un von U gilt:

118

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

x=

n X

αi ui

i=1



Aα = β ,

  wobei A = u j . ui , β = ((x . ui ))i , α = (α1 , . . . , αn )t , was sich auch direkt durch i, j SKP-Bildung von x mit u j ergibt. 4) Sei V = Rn , U = span(u1 , . . . , uk ) und U (1) := (u1 , . . . , uk ) ∈ R(n,k) . Dann läßt sich die orthogonale Projektion PU darstellen als  t PU = U (1) U (1)t U (1) U (1)t . Denn nach Hauptsatz 1.102 gilt für u := PU x:

u = U (1) α

und α = A−1 β

nach (1.74), A = U (1)t U (1) , β = U (1)t x.

5) Die Beschränkung auf endlichdimensionales U ist nicht zwingend. In Hauptsatz 7.50 erfolgt eine Verallgemeinerung. △ Satz 1.105: Orthogonale Zerlegung Ist V ein R-Vektorraum mit SKP ( . ), dann gilt: 1) Sei V = U ⊕ W eine orthogonale Zerlegung, d. h. die Unterräume U und W seien orthogonal, dann gilt W = U ⊥. Sei V n-dimensional, dann gilt weiter 2) U ⊕ U ⊥ = V (gilt auch für dim V = ∞ und U endlichdimensional) und dim(U ⊥ ) = n − dim U, 3) PU⊥ (x) = x − PU (x) für x ∈ V,

4) (U ⊥ )⊥ = U.

Beweis: Zu 1): Es seien U und W orthogonal, d. h. (u.w) = 0 für alle u ∈ U, w ∈ W und damit W ⊂ U ⊥ . Sei x ∈ U ⊥ und x = u + w die (eindeutige) Zerlegung in u ∈ U, w ∈ W. Dann ist x − w ∈ U ⊥ und andererseits u = x − w ∈ U, also u = 0 und damit x ∈ W.

Zu 2): Um die Existenz der orthogonalen Projektion zu benutzen, ist die Endlichdimensionalität von U vorausgesetzt. Dann folgt 2) allgemein wegen x = PU (x) + x − PU (x)

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

119

sofort aus Hauptsatz 1.102, 1) und (1.69). Die Dimensionsformel folgt bei dim V = n aus Bemerkung 1.87. Zu 3): Auch PU⊥ (x) ist wohldefiniert, denn es gilt x = PU (x) + x − PU (x), wobei x − PU (x) ∈ U ⊥ und x − (x − PU (x)) = PU (x) ∈ U ⊂ U ⊥⊥ . Somit ist PU⊥ (x) = x − PU (x) für x ∈ V die Orthogonalprojektion von x auf U ⊥ .

Zu 4): Aus 2): U ⊥ ⊕ U = V, U ⊥ und U sind orthogonal, und aus 1) folgt U = (U ⊥ )⊥ .



Bemerkungen 1.106 1) Wir betrachten die Situation von Hauptsatz 1.102. Ist A = a + U ein affiner Unterraum, dann existiert auch eindeutig eine orthogonale Projektion PA auf A. Und zwar ist PA (x) = PU (x − a) + a

(1.77)

wegen kx − (a + u)k = kx − a − uk für x ∈ V, u ∈ U. PA (x) ist also der Lotfußpunkt des Lotvektors PA (x) − x von x nach PA (x). Es gilt nach Satz 1.105, 3) PA (x) − x = PU (x − a) − (x − a) = PU⊥ (a − x) .

(1.78)

Die Zahl d(x, A) := min{kx −uk : u ∈ A} wird der Abstand von x zu A genannt. Daher ist d(x, A) = kx − PA (x)k = kPU⊥ (x − a)k . 2) In der Situation von 1) gilt y = PA (x) ⇔ x − y ∈ U ⊥ . Nach 1) und Hauptsatz 1.102 ist y = PA (x) äquivalent mit y − a = PU (x − a) ⇔ x − a − (y − a) ∈ U ⊥ .

3) Man sieht aus dem Beweis von Satz 1.105, 3): Ist der Unterraum U so, dass PU existiert, dann existiert auch PU⊥ und PU⊥ (x) = x − PU (x) für x ∈ V .

120

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

4) Die Aussagen von Satz 1.105, 2) - 4) brauchen nur die Existenz von PU und werden in Bemerkungen 7.51, 2) verallgemeinert. △ Beispiel 1.107 (Geometrie) Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm k . k. Weiter seien g1 : a +Rp und g2 : b +Rq windschiefe Geraden. Dann gibt es eindeutig x ∈ g1 , y ∈ g2 , so dass kx − yk = d(g1 , g2 ) := inf { kx − yk : x ∈ g1 , y ∈ g2 } . Und es ist x = a + λp, y = b + µq mit den Lösungen λ, µ von ! ! ! (a − b . p) − (p . p) (q . p) λ = . (a − b . q) − (q . p) (q . q) µ x und y sind auch dadurch charakterisiert, dass x − y auf p und q senkrecht steht.

Wegen

d(g1 , g2 ) = inf{ka + λp − b − µqk : λ, µ ∈ R}

existieren λ, µ, so dass dort das Infimum angenommen wird, nach Hauptsatz 1.102 eindeutig, denn es gilt −λp + µq = Pspan(p,q) (a − b)   und damit folgt auch die Charakterisierung aus (1.74). x − y . p = x − y . q = 0 charakterisiert also nach Hauptsatz 1.102 die obige Minimalstelle. Da das obige LGS eindeutig lösbar ist, ist nicht nur x − y, sondern auch x ∈ g1 , y ∈ g2 dadurch charakterisiert.



Beispiele 1.108 Bei 1) bis 3) wird V = C([a, b], R) mit dem SKP nach (1.61) zugrunde gelegt. Es geht folglich darum, stetige Funktionen f im Sinne der Abweichung im quadratischen Mittel bestens durch spezielle Funktionen aus einem linearen Unterraum U zu approximieren. 1) U = S 0 (∆): Hier muss das (formale) Problem geklärt werden, dass S 0 (∆) kein Unterraum von dem e als Grundraum nötig, Raum C([a, b], R) ist. Es ist darum ein größerer R-Vektorraum V der beide Räume umfasst. Dieser wird unten angegeben. Das LGS nach (1.74) (hier mit der Indizierung von 0 bis n−1) ist hier besonders einfach, da diagonal. Die Basisfunktionen f0 , . . . , fn−1 nach (1.37) erfüllen nämlich fi (x) f j (x) = 0 für i , j und x ∈ [a, b] . Also A = diag(ai,i )i=0,...,n−1 und

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

ai,i =

Z

b

a

βi =

Z

| fi (x)|2 dx =

b

Z

xi+1 xi

f (x) fi (x) dx =

a

Z

121

1 dx = xi+1 − xi ,

xi+1

f (x) dx

xi

und damit αi =

1 (xi+1 − xi )

Z

xi+1

f (x)dx

xi

für i = 0, . . . , n − 1 .

(1.79)

Die Werte der approximierenden Treppenfunktion auf den Teilintervallen Ii+1 = [xi , xi+1 ) sind demnach die Mittelwerte der Funktion nach (1.79). *2) U = S 1 (∆): Da die fi außerhalb der Teilintervalle Ii und Ii+1 verschwinden, sind die Produkte fi f j dann identisch Null, wenn der Abstand von i und j mehr als 1 beträgt: |i − j| > 1. Die Matrix A nach (1.74) ist also tridiagonal. Die elementare Berechnung ihrer Einträge (Integration von Parabeln) liefert (Übung):

A = (a j,k ) j,k=0,...,n

          =         

1 3 h1

1 6 h1

1 6 h1

1 3 (h1 +h2 )

..

.

           . (1.80)          1 h 6 n

0 1 6 h2

..

.

1 6 hi

..

1 3 (hi +hi+1 )

..

0

.

.

1 6 hi+1

..

.

1 6 hn

..

.

1 3 hn

3) U = Rn [x]: Mit den Monomen fi , i = 0, . . . , n ergibt sich hier für A die vollbesetzte Matrix mit den Einträgen für j, k = 0, . . . , n: a j,k =

Z

a

b

f j (x) fk (x) dx =

Z

b

x j xk dx = a

 1 b j+k+1 − a j+k+1 . j+k+1

(1.81)

e kann wie folgt gelöst werden: Da S 0 (∆) Das in 1) angesprochene Problem eines größeren Grundraums V   und C [a, b], R lineare Unterräume von Abb [a, b], R sind, kann  e V := S 0 (∆) + C [a, b], R

 in Abb [a, b], R

e sind gerade so, dass für eine (funktionsabhängige) Zerlegung ∆ gewählt werden. Die Funktionen f in V die Funktion f auf jedem abgeschlossenen Teilintervall von ∆ stetig (fortsetzbar) ist, aber Sprünge in den e gilt auch xi , i = 1, . . . , n − 1, aufweisen kann, d. h. in diesem Sinn stückweise stetig ist. Mit f, g ∈ V

122

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

e und Funktionen aus V e sind integrierbar, so dass auch auf e fg ∈ V V das Skalarprodukt (1.61) wohldefiniert e als Grundraum gewählt werden. ist. Auch bei 2) und 3) könnte V

*4) Hier handelt es sich um ein grundlegendes Approximationsverfahren (Finite-ElementMethode ) für eine Funktion u : [a, b] → R, die durch eine Differentialgleichung mit Randbedingungen, eine Randwertaufgabe, (implizit) festgelegt ist. Als Beispiel diene −u′′ (x) = r(x), x ∈ [a, b] u(a) = u(b) = 0

(1.82)

für eine gegebene rechte Seite r(∈ C([a, b], R)). Die anschließenden Ausführungen sind als einführende Skizze zu verstehen: Anstatt nach einer zweimal (stetig) differenzierbaren Funktion u mit (1.82) zu suchen, sucht man nach einer stetigen, stückweise differenzierbaren Funktion u, die auch die Randvorgaben erfüllt, und für die gilt  u′ . v′ = (r . v)

für v ∈ V .

(1.83)

Hier ist ( . ) das SKP nach (1.61) und

V := { f : f ∈ C([a, b], R) und es gibt eine Zerlegung ∆ (abhängig von f ) von [a, b], so dass f auf den abgeschlossenen Teilintervallen

(1.84)

differenzierbar ist und f (a) = f (b) = 0} . f ∈ V hat also bis auf endlich viele xi ∈ [a, b], an denen die Funktion einen Knick haben darf, eine Ableitung f ′ , die insbesondere integrierbar ist. Ein Näherungsverfahren für (1.83) entsteht dadurch, dass ein u∆ ∈ S 1 (∆) mit u∆ (a) = u∆ (b) = 0 gesucht wird, das erfüllt: (u′∆ · v′ ) = (r . v)

für alle v ∈ S 1 (∆) mit v(a) = v(b) = 0 .

(1.85)

Dies kann auch verstanden werden als die beste Approximation der Lösung u ∈ V von (1.83) (Existenz vorausgesetzt) mit einem Element aus S 1 (∆) := { f : f ∈ S 1 (∆), f (a) = f (b) = 0} = span( f1 , . . . , fn−1 ) , wobei die fi die Basisfunktionen von S 1 (∆) nach (1.36), (1.37) bezeichnen. Dabei wird V aber mit folgendem SKP versehen (Gültigkeit der SKP-Bedingungen: Übung): h f . gi :=

Z

a

b

f ′ (x)g′ (x) dx für f, g ∈ V .

Die Fehlerorthogonalität nach Hauptsatz 1.102, 1) ist äquivalent zu hu∆ . vi = hu . vi

für v ∈ S 1 (∆) .

(1.86)

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

123

(1.83) schreibt sich als hu . vi = (r . v)

für v ∈ S 1 (∆)

hu∆ . vi = (r . v)

für v ∈ S 1 (∆) ,

und damit

Folglich gilt (1.85). Zur Bestimmung der Koeffizienten αi , i = 1, . . . , n − 1 für u∆ =

n−1 X

αi fi

i=1

ist sodann das LGS nach (1.74) (in der Nummerierung 1, . . . , n − 1) zu lösen. Dabei ist A = (a j,k ) j,k=1,...,n−1 mit D

E

a j,k = fk . f j =

Z

b a

f j′ (x) fk′ (x)dx .

Somit ist analog zu 2) die Matrix tridiagonal. Da nach (1.37) fi′ auf Ii (ohne Eckpunkte) den konstanten Wert 1/hi und auf Ii+1 (ohne Eckpunkte) den konstanten Wert −1/hi+1 hat, ergibt sich (Übung):   −2 −2  h1 +h2 −h−2 2   . ..  .. −2 .  −h2   .. .. ..  . . .   −2 −2 A =  −h−2 h−2 i i +hi+1 −hi+1   .. .. ..  . . .    .. ..  . . −h−2  n−1   −2 −2 −h−2 n−1 hn−1 +hn

0

0

             .           

Für eine äquidistante Zerlegung (hi = h = (b − a)/n) vereinfacht sich die Matrix zu

(1.87)

124

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

  2 −1   .  −1 . .  1  .. A = 2  . h    

0

       , ..  .   .. . −1   −1 2

0

..

.

..

.

..

.

die schon in (MM.11) aufgetreten ist. Dieser Zusammenhang ist nicht zufällig und wird in ◦ Abschnitt 8.6.4 aufgegriffen werden. Das LGS in (1.74) wird besonders einfach, wenn es ein Diagonalsystem ist, d. h. wenn die betrachtete Basis u1 , . . . , ur von U erfüllt: (uk . ul ) = 0

falls k , l (Orthogonalität) .

Definition 1.109 Sei V ein R-Vektorraum mit SKP ( . ). 1) Die Menge A ⊂ V heißt orthogonal, wenn ihre Elemente paarweise aufeinander senkrecht stehen, d. h. für u, u ∈ A, u , u, gilt (u . u) = 0 . Eine Basis B heißt Orthogonalbasis, wenn B orthogonal ist. 2) Gilt zusätzlich kuk = 1 für u ∈ B (Normalität) , dann heißt die Basis Orthonormalbasis (ONB) von V.

Bemerkungen 1.110 1) Der Unterraum U habe die Orthogonalbasis u1 , . . . , ur . So gilt:

PU (x) =

r X i=1

αi ui

mit αi =

(x . ui ) , i = 1, . . . , r . (ui . ui )

Die αi sind die sog. (verallgemeinerten) Fourier-Koeffizienten 31von x. 31

Jean-Baptiste-Joseph Fourier ∗21. März 1768 in Auxerre †16. Mai 1830 in Paris

(1.88)

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

125

Ist also dim V = n < ∞, so folgt speziell für U = V (siehe auch Bemerkungen 1.104, 3)) wegen PU (x) = x: x=

n X i=1

αi ui ⇔ αi =

(x . ui ) (ui . ui )

für i = 1, . . . , n .

Für die Länge von PU (x) gilt immer kPU (x)k2 =

r X

r r X  X  (x . ui )2 αi α j ui . u j = α2i (ui . ui ) = . (ui . ui ) i, j=1 i=1 i=1

Speziell für U = V und x =

Pn

i=1

αi ui ist darum kxk2 =

n X

α2i (ui . ui ) .

i=1

Für eine ONB wird kxk2 =

n X i=1

α2i = k(α1 , . . . , αn )t k2

(1.89)

mit der euklidischen Norm auf Rn , d. h. bei einer ONB sind Vektornorm und euklidische Norm des Koeffizientenvektors gleich (siehe auch Mathematische Modellierung 4, S. 126). 2) Sei A ⊂ V orthogonal, 0 < A, dann ist A linear unabhängig.

P Das kann man sich folgendermaßen klarmachen: Seien u1 , . . . , uk ∈ A mit ki=1 αi ui = 0. Dann ist auch für alle j = 1, . . . , k  k  k  X X      αi ui . u j = α j u j . u j 0 =  αi ui . u j  = i=1

i=1

und damit α j = 0.

3) Es seien V ein R-Vektorraum, U = span(u1 , . . . , uk ) und W := span(u1 , . . . , ul ) Unterräume von V mit dim V = dim U + dim W. Sind {u1 , . . . , uk } und {u1 , . . . , ul } orthogonal, dann ist U = W⊥

und

W = U⊥ ,

Dies folgt aus Satz 1.105, 1) .

4) Sei A ∈ R(m,n) mit den Zeilen a(1) , . . . , a(m) ∈ Rn gegeben und u1 , . . . , uk eine Basis des Lösungsraums des homogenen LGS, d. h. von

126

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

U = {x ∈ Rn : Ax = 0} . Dann sind a(1) , . . . , a(m) und u1 , . . . , uk orthogonal und die Dimensionen von U und dem Zeilenraum ergänzen sich zu n, somit ist U das orthogonale Komplement des Zeilenraums △ und umgekehrt (was schon aus (1.70) bekannt ist). Beispiel 1.111 (Geometrie) Sei V ein R-Vektorraum mit SKP ( . ) und g : a + Rw eine Gerade in V. Da e w := w/kwk eine ONB von Rw darstellt, ist für x ∈ V: Pg (x) = a +

(x − a . w) w kwk2

nach Bemerkungen 1.106, 1) und 1.110, 1). Deshalb gilt x ∈ g genau dann, wenn (x − a . w) w. kwk2

x−a= Also gilt Pg (x) = a +

(x − a . w) kx − ak kx − ak w = a + cos(α) w, kwk kx − ak kwk kwk

wobei α ∈ [0, π] der Winkel zwischen x − a und w ist. Nach (1.77) ist also PRw (x − a) = Pg (x) − a = cos(α)

kx − ak w. kwk

Andererseits gilt für den Lotvektor Pg (x) − x nach (1.78) und Satz 1.105



2

Pg (x) − x

= kPw⊥ (a − x)k2 = kPw⊥ (x − a)k2 = kx − ak2 − kPRw (x − a)k2 = kx − ak2 (1 − cos2 (α)) = kx − ak2 sin2 (α),

also



Pg (x) − x

= sin(α) kx − ak .



Mathematische Modellierung 4 Das namensgebende klassische Beispiel für Bemerkungen 1.110, 1) ist die Fourier-Analyse einer Funktion in einer Variablen t: Sei V := C([−π, π], R) mit dem in (1.61) definierten SKP ( . ), sei f (t) := sin(kt), g(t) := cos(kt), k = 0, 1, . . . , n und U := Un := span(g0 , f1 , g1 , . . . , fn , gn ). Mit elementaren Integrationsregeln lässt sich nachweisen, dass g0 , f1 , g1 , . . . , fn , gn orthogonal bezüglich ( . ) sind (genauer in Satz 7.74 ff.). Für eine beliebige Funktion f ∈ C([−π, π], R) ist demnach die orthogonale Projektion Fn ( f ) von f in Un definiert durch (1.88), konkret ( f . gk ) ( f . 1) X ( f . fk ) fk + gk . + ( ) (g f . f 2π k k k . gk ) k=1 n

Fn ( f ) = Also

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 127 R R π π Z π n X f (s) sin(ks) ds f (s) cos(ks) ds 1 R π−π Fn ( f )(t) = f (s) ds + sin(kt) + R π−π cos(kt) . 2π −π sin(ks) sin(ks) ds cos(ks) cos(ks) ds k=1 −π

−π

In der Akustik beschreibt Un den Raum der durch Überlagerung der harmonischen Obertöne bis zur Frequenz 20 kHz entstehenden Schwingungen. Durch immer höherfrequente harmonische Obertöne kann ein allgemeines, periodisches Signal schrittweise angenähert werden (vgl. Abbildung 1.15). ^

π

π

0

0

−π

−π

−π

0

π





−π

π

π

0

0

−π

−π

−π

0

π





−π

0

π





0

π





Abb. 1.15: Sukzessive Approximation eines Sägezahnsignals. Die gestrichelten Graphen in der k-ten Grafik visualisieren den Summanden der von Fk−1 auf Fk hinzukommt. Jeder endlichdimensionale Vektorraum V mit SKP ( . ) kann mit einer ONB versehen werden, z. B. mit Hilfe des im Folgenden beschriebenen Schmidt32 schen Orthonormalisierungsverfahrens. Sei dazu u1 , . . . , um eine Basis von V mit dadurch definierten ineinander geschachtelten Unterräumen Vi := span(u1 , . . . , ui ), 32

i = 1, . . . , m .

Erhard Schmidt ∗13. Januar 1876 in Dorpat †6. Dezember 1959 in Berlin

128

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Als Erstes normalisieren wir u1 : u1 :=

1 u1 . ku1 k

Dann setzen wir U1 := span(u1 ) = V1 , das also mit u1 eine ONB hat. Weiter ersetzen wir u2 durch u′2 := u2 − (u1 . u2 ) u1 . Folglich ist u′2 = u2 − PU1 (u2 ) = PU1⊥ (u2 ) nach Bemerkungen 1.110, 1). Somit erhalten wir

Als Nächstes normieren wir u′2

 u1 . u′2 = 0 . u2 :=

1 ′ u ku′2 k 2

und setzen U2 := span(u1 , u2 ). So hat U2 mit u1 , u2 eine ONB und wegen U2 ⊂ V2 und dim U2 = dim V2 ist U 2 = V2 . Dieses Verfahren können wir mit jedem der Vektoren uk+1 wiederholen: Haben wir für ein k ≤ m schon erreicht, dass   u j . ul = 0 für j , l ≤ k und ku j k = 1 für j = 1, . . . , k ,

wobei u1 , . . . , uk ∈ V Linearkombinationen der Vektoren u1 , . . . , uk sind, d. h. Uk := span(u1 , . . . , uk ) = Vk , so definieren wir

u′k+1 : = uk+1 − (u1 . uk+1 ) u1 − . . . − (uk . uk+1 ) uk = uk+1 − PUk (uk+1 ) = PUk⊥ (uk+1 ) , 1 uk+1 : = ′ u′k+1 . kuk+1 k Dann ist uk+1 orthogonal zu Uk , also hat Uk+1 := Uk + span(uk+1 ) Uk+1 = Vk+1 .

die ONB u1 , . . . , uk+1 und

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt

129

Endlich viele derartige Schritte führen zu einer Orthonormalbasis für V. Damit gilt:

Theorem 1.112: Schmidtsche Orthonormalisierung Sei V ein endlichdimensionaler R-Vektorraum mit SKP ( . ). Dann kann mit dem Schmidtschen Orthonormalisierungsverfahren aus jeder Basis eine ONB erzeugt ′ werden. Darüber hinaus gilt: Ist B := [u1 , . . . , un ] die Ausgangsbasis und B := [u1 , . . . , un ] die erzeugte ONB, dann span(u1 , . . . , ui ) = span(u1 , . . . , ui ),

i = 1, . . . , n.

Bemerkungen 1.113 1) Bei Beschränkung auf ein endlichdimensionales V(dim V = n) kann alternativ zum Beweis von Hauptsatz 1.102 auch U ⊕ U⊥ = V

(1.90)

als Ausgangspunkt genommen werden. Die Direktheit der Summe folgt aus Bemerkungen 1.98, 1), die Existenz der Zerlegung kann folgendermaßen eingesehen werden: Sei u1 , . . . , ur eine ONB von U (siehe Theorem 1.112). Diese ergänze mit u˜ r+1 , . . . , u˜ n zu einer Basis von V . Mit dem Schmidtschen Orthonormalisierungsverfahren wird diese e := span(ur+1 , . . . , un ) ist Basis von V zu einer ONB u1 , . . . , ur , ur+1 , . . . , un von V . Mit U e=V U +U

e ⊂ U⊥ und U

und damit folgt die Behauptung. Mit (1.90) kann für x = u + u, ˜ u ∈ U, u˜ ∈ U ⊥ definiert werden PU (x) = u

und somit gilt die Fehlerorthogonalität x − u = u˜ ∈ U ⊥ .

Wir haben den Weg von Hauptsatz 1.102 gewählt, denn mit Kenntnissen der mehrdimensionalen Analysis verkürzt sich dieser erheblich und eröffnet dann wesentliche Verallgemeinerungsmöglichkeiten, die in Abschnitt 4.7.2 und 6.7 behandelt werden. 2) Das Schmidtsche Orthonormalisierungsverfahren ist als numerisches Verfahren nur bedingt tauglich, da es rundungsfehleranfällig ist. Alternativen ergeben sich durch andere Formen der QR-Zerlegung (siehe Abschnitt 4.8). Abhilfe schafft auch eine Umgruppierung der Rechenoperationen, was das modifizierte Schmidtsche Orthonormalisierungsverfahren ergibt: Der Schritt 1 bleibt unverändert und im (k + 1)-ten Schritt werden alle Vektoren mit den schon berechenbaren Projektionsanteilen korrigiert, d. h.

130

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

u′i := ui , i = 1, . . . , m , 1 u1 :=



u′1

u1

und für k = 2, . . . , m, l = k, . . . , m:

u′l ← u′l − (uk−1 . ul ) uk−1 , 1 uk :=



u′k .

uk



Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • • • • • •

Euklidische Norm und Norm allgemein Euklidisches Skalarprodukt (SKP) und SKP allgemein Winkel zwischen Vektoren Orthogonalität, orthogonales Komplement orthogonale Projektion Orthonormalbasis (ONB) Schmidtsches Orthonormalisierungsverfahren (Theorem 1.112) Fourier-Koeffizient

Zusammenhänge: • SKP erzeugt Norm, aber nicht jede Norm wird von einem SKP erzeugt (Satz 1.92, Bemerkungen 1.93, 6), 7)) • Von SKP erzeugte Norm erfüllt Cauchy-Schwarz-Ungleichung (Satz 1.92) • Satz von Pythagoras (Satz 1.96) • Eindeutige Existenz der orthogonalen Projektion auf endlichdimensionale (affine) Unterräume, Charakterisierung durch Fehlerorthogonalität (Hauptsatz 1.102, Bemerkungen 1.106)

Beispiele: • • • • • • •

SKP auf C([a, b], R) oder S 0 (∆) nach (1.61) SKP auf Rn nach (1.63) Normen auf Rn nach (1.65), (1.66) Normen auf C([a, b], R) nach (1.67), (1.68) Orthogonale Projektion auf S 0 (∆) nach (1.79) Orthogonale Projektion auf S 1 (∆) in verschiedenen SKP Fourier-Analyse

Aufgaben

131

Aufgaben Aufgabe 1.27 (K) Es sei U ⊂ R5 der von den Vektoren (1, 2, 0, 2, 1)t und (1, 1, 1, 1, 1)t aufgespannte Unterraum. Bestimmen Sie eine Orthonormalbasis von U und von U ⊥ . Aufgabe 1.28 (T) Es seien x, y, z ∈ V für einen R-Vektorraum V mit SKP und erzeugter Norm k . k. Zeigen Sie: a) | kxk − kyk | ≤ kx − yk, b) kxk = kyk ⇔ (x − y) ⊥ (x + y), c) ist x , 0 und y , 0, so gilt



x y

kx − yk ,

2 −

= kxk kyk2 kxk · kyk d) kx − yk · kzk ≤ ky − zk · kxk + kz − xk · kyk.

Interpretieren Sie b) geometrisch.

Aufgabe 1.29 (T) Zeigen Sie, dass h . i nach (1.86) ein SKP auf V ist nach (1.84), dass dies aber falsch ist, wenn die Bedingung f (a) = f (b) = 0 gestrichen wird. Aufgabe 1.30 (T) Man zeige: Eine zweimal stetig differenzierbare Funktion u, die (1.82) erfüllt (klassische Lösung der Randwertaufgabe), erfüllt auch (1.83) (schwache Lösung der Randwertaufgabe). Hinweis : Partielle Integration. Aufgabe 1.31 (T) Sei V ein R-Vektorraum mit SKP ( . ) und Basis u1 , . . . , un . Seien u = Pn Pn i= βi ui beliebige Elemente in V. Zeigen Sie i=1 αi ui , u = (u . u) =

n X

i, j=1

  αi ui . u j β j .

Schreiben Sie die Definitheit von ( . ) als Bedingung an die Gramsche Matrix.

132

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft Wir greifen die Beispiele 2 und 3 wieder auf, um genauer die für die entstehenden LGS verantwortlichen Prinzipien kennenzulernen und erste Aussagen über ihre Lösungen zu machen. Beispiel 3(3) – Massenkette Neben den knotenbezogenen Variablen x = (x1 , . . . , xm )t der Auslenkung, wobei m = n − 1, gibt es auch federbezogene Variable, nämlich • die Kräfte in den Federn y j , j = 1, . . . , n, zusammengefasst zum Kraftvektor y = (y1 , . . . , yn )t , • die Dehnung der Federn e j , j = 1, . . . , n, zusammengefasst zum Dehnungsvektor e = (e1 , . . . , en )t , • die an den Federn von außen wirkenden Kräfte (z. B. die Gravitationskraft) f j , j = 1, . . . , n, zusammengefasst zum Lastvektor f = ( f1 , . . . , fn )t . Das Hookesche Gesetz, d. h. die Annahme der Federn als linear elastisch, lautet damit yi = ci ei

für i = 1, . . . , n

bzw. y = Ce

(MM.33)

mit der Diagonalmatrix

Die Dehnung an der Feder Fi ist

  0  c1   . . .  = diag(c1 , . . . , cn ) . C :=    0 cn ei = xi − xi−1 ,

denn die Bewegungen von Mi und Mi−1 tragen in entgegengesetzter Weise zur Dehnung der Feder Fi bei. In Matrix-Vektorschreibweise bedeutet dies e = Bx , wobei B ∈ R(n,m) definiert ist durch

im Fall der eingespannten Kette, bzw.   −1     B =     

  1   −1 B =     0 1 .. .

0

..

.

..

.

 0    ..  .   .. . 1   −1     0   ..  ∈ R(m,m) .   .. . 1   −1

(MM.34)

(MM.35)

(MM.36)

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft

133

im frei hängenden Fall, da hier e = (e2 , . . . , en )t durch den Wegfall der ersten Feder. Das Prinzip des Kräftegleichgewichts, das gerade einer Erhaltung des Impulses entspricht, lautet: In jedem Knoten ist die Summe der angreifenden Kräfte gleich Null. Da die Kette mit einer Richtung versehen worden ist und die Federn Fi und Fi+1 den Knoten i als jeweils anderen Endpunkt haben, erzeugen ihre inneren Kräfte im Sinn des Newton33 schen Gesetzes „Actio=Reactio“ im Knoten jeweils eine (entgegengesetzte) Kraft, mit verschiedenen Vorzeichen. Mit der äußeren Kraft zusammen ergibt das für i = 1, . . . , n − 1 .

yi − yi+1 = fi

Im frei hängenden Fall ist die erste Gleichung zu modifizieren zu −y2 = f1 , da sich auch der Kraftvektor verkürzt auf y = (y2 , . . . , yn )t . In Matrix-Vektorschreibweise bedeutet das  0    y = f ..  .  1 −1

 1 −1  ..  .  0

bzw.

 −1  ..  .  1  ..  .  0

0 ..

. 1 −1

(MM.37)

      y = f .  

Die hier auftretenden Matrizen entstehen also dadurch, dass wir die Zeilen von B als Spalten einer neuen Matrix aus R(m,n) anordnen. Wir bezeichnen diese mit Bt (sprich: B transponiert), wie schon in Definition 1.48. Sei B = (bi, j ) ∈ R(n,m) , dann wird Bt ∈ R(m,n) definiert durch Bt = (c j,i ) ,

für j = 1, . . . , m, i = 1, . . . , n

c j,i = bi, j

und damit lautet die Kräftebilanz (MM.38)

Bt y = f . Zusammengefasst lautet demnach der Satz linearer Gleichungen Bx = e ,

Ce = y ,

Bt y = f .

(MM.39)

Daraus lässt sich e eliminieren und mit der Diagonalmatrix A = diag

1 1 ,..., c1 cn

!

,

für die gilt e = Ay , erhalten wir 33

Isaac Newton ∗4. Januar 1643 in Woolsthorpe-by-Colsterworth †31. März 1727 in Kensington

134

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums Ay − Bx = 0 , Bt y = f

(MM.40)

als ein quadratisches LGS mit n + m Variablen. Alternativ lässt sich aber die Elimination noch weiter treiben und durch sukzessives Einsetzen der Vektorgleichungen (MM.39) ineinander erhalten wir Bt (C(Bx)) = f . In Abschnitt 2.3 werden wir sehen, dass wir dies auch mit einer neuen Matrix Bt CB als LGS Bt CBx = f

(MM.41)

nun nur in der Variablen x schreiben können. Das ist gerade das LGS (MM.3) bzw. (MM.4) mit den Matrizen nach (MM.11) und (MM.12) (bei gleichen Federkonstanten). ^

Wir wenden uns nun wieder dem Beispiel elektrischer Netzwerke (mit Ohm34 schen Widerstand und Spannungsquellen) zu, um zu sehen, aus welchen Prinzipien LGS mit welchen Strukturen entstehen und was über ihre Lösungen (sicher) ausgesagt werden kann. Es wird sich eine starke Analogie zu Beispiel 3 ergeben. Beispiel 2(2) – Elektrisches Netzwerk (Weitergehende Ausführungen und Beispiele finden sich in Eck, Garcke und Knabner 2011, Abschnitt 2.1.) Orientiert am sehr einfachen Beispiel aus Abbildung 1.1 sehen wir, dass ein (elektrisches) Netzwerk im Wesentlichen besteht aus • Kanten (in Form von elektrischen Leitungen), im Allgemeinen n ∈ N (Beispiel: n = 3) • Knoten (Verbindungspunkte von zwei oder mehr Leitungen), im Allgemeinen m ∈ N (Beispiel: m = 2). Was soweit (unabhängig von der Elektrotechnikanwendung) beschrieben ist, ist mathematisch ein Graph. Die Kanten des Graphen sollen (beliebig) mit einer Richtung versehen werden (die Pfeile in Abbildung 1.1), wodurch eine Kante einen Ausgangs - und einen Zielknoten bekommt. Dieser gerichtete Graph wird dadurch zu einem elektrischen Netzwerk, indem die Kanten mit elektrischen Bauteilen „besetzt“ werden. Wir beschränken uns auf einen Ohmschen Widerstand und eventuell eine Stromquelle. Die Richtung einer Kante gibt nicht an, in welche Richtung der (noch unbekannte) Strom fließt, sondern dass ein in diese Richtung stattfindender Strom mit einer positiven, in der Gegenrichtung mit einer negativen Zahl beschrieben wird. Die Physik fließender Ströme wird bestimmt durch: • Das Kirchhoffsche Stromgesetz: Die Summe der Ströme in jedem Knoten ist Null. Dies entspricht einem Erhaltungsprinzip für die elektrische Ladung: Elektronen wandern durch das Netzwerk, werden aber in den Knoten nicht „erzeugt“ oder „vernichtet“. • Das Kirchhoffsche Spannungsgesetz: Die Summe der Spannungen (genauer Spannungsabfälle) über jeder geschlossenen Leiterschleife ist Null. • Das Ohmsche Gesetz : Der Spannungsabfall U am stromdurchflossenen Widerstand R mit Stromstärke I ist U = RI. Das Netzwerk habe eine festgelegte Nummerierung der Kanten (im Beispiel (1 , 2, 3)) und der Knoten (im Beispiel I, II). Es treten also folgende Kantenvariable auf: • Die Ströme („I“) y j , j = 1, . . . , n, zusammengefasst zum Stromvektor y = (y1 , . . . , yn )t , • die Spannungen („U“), zusammengefasst zum Spannungsvektor e = (e1 , . . . , en )t . Der Spannungsabfall in einem Leiterstück i ohne Spannungsquelle ist einfach ei , bei einer Spannungsquelle kommt noch deren Stärke bi dazu. Ergänzen wir im ersten Fall bi = 0 und fassen diese Quellstärken zum Vektor b zusammen, so lautet das Ohmsche Gesetz Ri yi = ei + bi 34

für i = 1, . . . , n

Georg Simon Ohm ∗16. März 1789 in Erlangen †6. Juli 1854 in München

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft

135

bzw. mit der Diagonalmatrix A := diag(R1 , . . . , Rn ) Ay = e + b ,

(MM.42)

oder alternativ mit der Matrix der Leitwerte C := diag(

1 1 ,..., ) , R1 Rn

y = C(e + b) .

(MM.43)

Im Beispiel ist b = (U, 0, 0) . t

Zur Umsetzung der Kirchhoffschen Gesetze brauchen wir eine algebraische Beschreibung des Graphen. Dies soll durch eine Inzidenzmatrix B = (bi, j ) ∈ R(n,m) erfolgen, in der folglich die Zeile i die Kante i über ihren Ausgangs- und Zielknoten beschreibt:

bi, j Im Beispiel ist

  1 , j ist die Nummer des Zielknotens     = −1 , j ist die Nummer des Ausgangsknotens     0 , sonst .

(MM.44)

   1 −1   B =  −1 1  , −1 1

was erneut die Einfachheit des Beispiels unterstreicht. Bt ist also die Matrix, in der die k-te Zeile für den Knoten k die „eingehenden“ Kanten mit 1, die „ausgehenden“ Kanten mit −1 und die restlichen mit 0 vermerkt. Im Beispiel ist ! 1 −1 −1 Bt = . −1 1 1 Das Stromgesetz bedeutet gerade Bt y = 0 ,

(MM.45)

somit im Beispiel y1 − y2 − y3 = 0 , −y1 + y2 + y3 = 0 . Das ist mithin nur eine lineare Gleichung, die als erste Gleichung in (MM.1) auftritt. Um das Spannungsgesetz analog zu (MM.45) umzusetzen, braucht man eine algebraische Beschreibung von „genügend vielen“ Schleifen. Das Beispiel hat die Schleifen 1 und 2, 2 und 3, 1 und 3. Und das Spannungsgesetz dafür lautet e1 + e2 = 0 ,

(MM.46)

e2 − e3 = 0 ,

e1 + e3 = 0 ,

wobei sich die dritte Gleichung aus den ersten beiden linear kombinieren lässt, da sich auch die dritte Schleife aus den ersten beiden „zusammensetzen“ lässt. Die ersten beiden Gleichungen zusammen mit dem Ohmschen Gesetz e = Ay − b ergeben die restlichen Gleichungen in (MM.1). Analog zu (MM.46) müssen also k Schleifen durch eine Matrix D ∈ R(k,m) beschrieben werden, so dass

136

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums |di, j | = 1 ⇔ Kante j gehört zu Schleife i und di, j = 0 sonst ,

und nach Festlegung einer Durchlaufrichtung ist di, j = 1 , falls Kante j in Durchlaufrichtung ausgerichtet ist, di, j = −1 , falls Kante j gegen Durchlaufrichtung ausgerichtet ist. Im Beispiel, bei Beschränkung auf die ersten beiden Schleifen (k = 2), ist also ! 11 0 D= . 0 1 −1 Das Spannungsgesetz hat dann deswegen die Form De = 0 bzw. mit dem Ohmschen Gesetz D(Ay − b) = 0 ⇔ D(Ay) = Db .

(MM.47)

Bei (MM.47) handelt es sich wieder um lineare Gleichungen für y, tatsächlich kann das zweifache MatrixVektor-Produkt mit einer neuen Matrix DA als ein Matrix-Vektor-Produkt ausgedrückt werden (siehe Abschnitt 2.3.1). Ein allgemeiner Satz linearer Gleichungen zur Bestimmung der Ströme y könnte somit bestehen aus Bt y = 0 , DAy = Db .

(MM.48)

Für das Beispiel wurde schon klar, dass aus Bt y = 0 eine Gleichung wegen linearer Abhängigkeit von den (hier: der) anderen wegfällt. Das lässt sich für viele Netzwerke allgemein einsehen: Satz 1.114 Der Graph des Netzwerkes sei zusammenhängend, d. h. je zwei Knoten können durch einen Weg aus Kanten verbunden werden. Dann gilt 1) U := {x ∈ Rm : Bx = 0} = span(1), wobei 1 = (1, . . . , 1)t ∈ Rm ,

2) Bt hat genau m − 1 linear unabhängige Zeilen.

Beweis: Zu 1): Da die Zeilensummen von B immer Null sind, gilt 1∈U

und damit

span(1) ⊂ U .

Sei andererseits x ∈ U sowie p ∈ {1, . . . , m}. Knoten 1 ist über einen Weg i1 (= 1), i2 , . . . , il−1 , il (= p) mit Knoten p verbunden. Die Zeile von B, die der Kante i1 i2 entspricht liefert also xi1 = xi2 und so weiter bis schließlich x p = x1 . Alle Komponenten in x sind darum gleich, d. h. x ∈ span(1). Zu 2): Insbesondere ist damit dim U = 1. Nach Theorem 1.82 folgt dim Z(B) = m − dim U = m − 1 . Die Behauptung folgt schließlich mit Hauptsatz 1.80. Alternativ können wir auch direkt den Spaltenrang r von B betrachten, so dass m − r die Anzahl der Freiheitsgrade in der allgemeinen Lösung von Bx = 0 ist, nach 1) demnach

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft m − r = 1,

d. h. r = m − 1 .

137 

Um also in (MM.48) n linear unabhängige Gleichungen für die n Unbekannten in y zu erhalten, benötigen wir noch n − m + 1 Schleifen (in Beispiel: 2), die sich nicht „auseinander zusammensetzen“ lassen. Da wir dies hier nicht untersuchen können, wollen wir einen alternativen Weg in der Umsetzung des Spannungsgesetzes beschreiten: Das Spannungsgesetz ist äquivalent mit der Existenz eines Potentials, d. h. einer knotenbezogenen Größe x j , j = 1, . . . , m, so dass sich die Spannung ei auf einer Kante i aus der Differenz des Potentials am Ausgangsknoten und des Potentials am Zielknoten ergibt. Ist x = (x1 , . . . , xm )t der Potentialvektor, so bedeutet dies in Matrix-Vektorschreibweise (siehe (MM.44)): (MM.49)

e = −Bx .

Die erwähnte Äquivalenz kann man folgendermaßen einsehen: Gibt es ein Potential, so ist die Summe von Spannungen über eine Schleife eine Summe von Potentialwerten, die immer doppelt mit wechselndem Vorzeichen auftreten. Andereseits kann an einem Knoten l der Wert von xl fixiert und dann (MM.49) zur Definition der weiteren x-Komponenten benutzt werden. Das Spannungsgesetz sorgt gerade dafür, dass durch verschiedene Kanten zu einem Knoten nicht Widersprüche entstehen: Im Beispiel ist e1 = −x1 + x2 ,

e2 = x1 − x2 ,

e3 = x1 − x2 .

Nach Fixierung von x2 ist sodann x1 = −e1 + x2 , aber auch x1 = e2 + x2 und x1 = e3 + x2 . Die Schleifengleichungen (MM.46) zeigen gerade, dass alle Gleichungen identisch sind. Die Kombination von (MM.49) mit dem Ohmschen Gesetz in der Form (MM.42) liefert Ay + Bx = b ,

(MM.50)

so dass mit (MM.45) für m + n Unbekannte in y und x folgendes LGS vorliegt: Ay + Bx = b ,

(MM.51)

t

By=0. Man beachte die Analogie zu (MM.40). Das System (MM.51) ist zumindest ein quadratisches LGS, aber wir erwarten, dass x nicht eindeutig festgelegt ist, da nach (MM.49) und Satz 1.114 der Vektor x um ein Element aus span(1) verändert werden kann. Dadurch kann ein xl = 0 gesetzt werden. Der Knoten xl wird also geerdet. Die Diskussion dieses Beispiels wird in Abschnitt 2.3.5 wieder aufgegriffen, wenn mehr Matrixtheorie zur Verfügung steht. ^

Zusammenfassend für Beispiel 3 und Beispiel 2 können wir aber schon festhalten, dass wesentlich für die Beschreibung in Form eines LGS sind: • Ein Erhaltungsgesetz als Aussage über „Flüsse“ (Kantenvariablen): siehe (MM.38) Kräftebilanz bzw. (MM.45) Kirchhoffsches Stromgesetz; • ein konstitutives Gesetz, dass einen „Fluss“ (Kantenvariable) mit einem „Potential“ (Knotenvariable) verknüpft: siehe (MM.33) und (MM.34), das Hookesche Gesetz mit Auslenkung-Dehnungsbeziehung bzw. siehe (MM.50), das Ohmsche Gesetz mit Kirchhoffschem Spannungsgesetz; • ein „dualer“ Zusammenhang dazwischen (Auftreten von B und Bt ).

Man beachte aber, dass in Beispiel 2 die äußere Einwirkung über das konstitutive Gesetz, in Beispiel 3 über das Erhaltungsgesetz erfolgt.

138

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Ein LGS, das beides beinhaltet, kann also die Form haben Ay + Bx = b , Bt y = f .

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • • •

Netzwerk, Graph Kantenbezogene Variable Knotenbezogene Variable Konstitutives Gesetz Erhaltungsgesetz

Zusammenhänge: • Modelle der Form (MM.40) bzw. (MM.51) bzw. (1.91) • Modelle der Form (MM.41)

Aufgaben Aufgabe 1.32 Bestimmen Sie Ströme und Spannungen in folgendem Netzwerk:

(1.91)

Aufgaben

139

Aufgabe 1.33 Gegeben ist das folgende Netzwerk mit einer Spannungsquelle und einer Stromquelle:

a) Wie können Sie die Stromquelle in das Netzwerkmodell einbauen? b) Berechnen Sie die Spannungen und Ströme im Netzwerk. Aufgabe 1.34 Gegeben ist ein Gleichstromnetzwerk mit Inzidenzmatrix A, Leitwertmatrix C, Vektoren x der Potentiale, y der Ströme, e der Spannungen und b der Spannungsquellen. a) Die an einem Widerstand dissipierte Leistung ist bekanntlich P = U I, wenn U der Spannungsabfall am Widerstand und I der Strom ist. Stellen Sie eine Formel für die gesamte im Netzwerk dissipierte Leistung auf. b) Die von einer Spannungsquelle zur Verfügung gestellte Leistung ist ebenfalls P = U I, wobei U die Spannung der Quelle und I die Stärke des entnommenen Stromes ist. Stellen Sie eine Formel für die von allen Spannungsquellen erbrachte Leistung auf. c) Zeigen Sie, dass die Größen aus a) und b) identisch sind.

140

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

1.7 Affine Räume I Mit dem Begriff des Vektorraum allein sind wir, wie schon aus der Schule vertraut und in einigen Beispielen wieder angeklungen, in der Lage Geometrie zu betreiben. Die (abstrakten) Vektoren des Vektorraums haben dabei eine Doppelfunktion von „Punkten“ und „Verbindungsvektoren“. Konkret in Rn bedeutet dies, analytische Geometrie zu betreiben. Dafür muss also für die Ebene oder den (Anschauungs-)Raum ein Koordinatensystem und damit insbesondere ein Bezugspunkt (der Nullpunkt) festgelegt werden. Es scheint wünschenswert, Geometrie auch „bezugspunktfrei“ betreiben zu können. Geeignete Strukturen dafür sind affine Räume, die nach Definition 1.54 von der Form A= a+U sind, wobei a ∈ V und U ⊂ V ein linearer Unterraum ist in einem R-Vektorraum V. Sie sind geeignet, die für geometrische Überlegungen nötige Unterscheidung zwischen „Punkten“ und „Vektoren“ vorzunehmen ohne einen fest gewählten Bezugspunkt (siehe (1.23)), und zwar werden die Elemente b ∈ a + U als Punkte aufgefasst (und daher in diesem Abschnitt nicht fett gedruckt); insbesondere ist folglich a ein Punkt, (Verbindungs- )Vektoren sind die Elemente u ∈ U. Zu b ∈ a + U existiert eindeutig ein u ∈ U, so dass b=a+u. Dieses u wird hier suggestiv mit − → ab bezeichnet, also − → b = a + ab , und damit ist auf der Basis von (V, +) eine Verknüpfung von Punkten und Vektoren definiert (wieder mit + geschrieben), die einen Punkt liefert. Aus den Rechenregeln von (V, +) (siehe S. 34) folgt: − →=0 aa − → → − − ab + bc = → ac

für alle Punkte a ,

für alle Punkte a, b, c , − → − → ab = −ba für alle Punkte a, b .

Weiter ist → − −−−−→ U = {bc : b, c ∈ a + U} =: a + U und

1.7 Affine Räume I

141

a+U =b+U

für alle b ∈ a + U .

Dadurch werden Formulierungen unabhängig vom gewählten Anfangspunkt oder Ursprung a (siehe Lemma 1.56). Wird a als fest aufgefasst, liegt eine Bijektion zwischen − → − → den Punkten b = a + ab und den Ortsvektoren ab vor. Der beschriebene Sachverhalt lässt sich formal durch folgende Definition fassen:

Definition 1.115 Sei A eine Menge, V ein R-Vektorraum, so dass eine Abbildung + : A × V → A,

(a, u) 7→ a + u

gegeben ist mit den Eigenschaften: (1) a + 0 = a. (2) a + (u + u) = (a + u) + u für alle a ∈ A, u, u ∈ V. (3) Zu beliebigen a, b ∈ A gibt es genau ein u ∈ V, so dass a + u = b ist. − → ab := u heißt der Verbindungsvektor von a und b. A heißt affiner Raum zu V und − → → − A := {ab : a, b ∈ A} heißt der Verbindungsraum von A. Ist A , ∅, so heißt dim A := dim V die Dimension von A. Bemerkungen 1.116 → − 1) Für A , ∅ ist A = V.

2) Ist dim A = 0, d. h. V = {0}, so können in A nach (3) in Definition 1.115 alle Punkte miteinander identifiziert werden und A heißt daher ein Punkt . 3) Sei dim A = 1, d. h. V = span(u). Seien a, b ∈ A, a , b, dann ist b = a + λu für ein λ ∈ R, also A = a + Ru, eine Gerade , die mit ab bezeichnet wird. Analog ist für dim A = 2 A = a + Ru + Ru mit beliebigem a ∈ A und linear unabhängigen u, u ∈ V, d. h. A ist eine Ebene .

142

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

4) Die obige Ausgangssituation erhält man für A = V und +, d. h. die Addition auf V. − → Dann ist ab = b − a für a, b ∈ A = V. Insbesondere entsteht so aus dem R-Vektorraum Rn der affine Koordinatenraum An . 5) Für A = V gibt es einerseits Punkte mit Koordinaten aus dem Koordinatenraum An und andererseits Verbindungsvektoren aus dem Verbindungsraum Rn . Zur besseren Unterscheidung zwischen Punkten und Vektoren kann eine 1 bzw. 0 als n + 1-te Komponente hinzugefügt werden, d. h. ( ! ) fn := a : a ∈ An ⊂ Rn+1 , Ψ : An → A 1 ( ! ) (1.92) fn := u : u ∈ Rn ⊂ Rn+1 . Φ : Rn → R 0

Ψ und Φ sind injektiv, d. h. Einbettungen, Φ ist offensichtlich linear. Dies gibt Hinweise, welche Operationen definiert sind, nämlich Punkt + Vektor, Vektor + Vektor, aber nicht Punkt + Punkt. △ Der Begriff des affinen Unterraums (Definition 1.54) gilt wörtlich weiter. Definition 1.117 Sei A ein affiner Raum zum R-Vektorraum V, B ⊂ A heißt affiner Unterraum, wenn → − B die Gestalt B = a + B für ein a ∈ A hat. Man setzt → − dim B := dim B .

Ist dim V < ∞, so heißt → − codim B := dim V − dim B die Kodimension von B. Ist codim B = 1, so heißt B (affine) Hyperebene in A. Sind − → − → → − Bi = ai + Bi affine Unterräume, so heißen sie parallel , B1 k B2 , wenn B1 ⊂ B2 oder − → − → B2 ⊂ B1 . Ein ein-dimensionaler affiner Unterraum (bei A = V) enthält außer einem Punkt a noch einen Punkt b, sowie alle Vektoren − → a + tab = a + t · (b − a) = (1 − t)a + tb ,

t∈R.

Es handelt sich um eine Gerade, mit Anfangspunkt a und Richtungsvektor b − a. Die Parametrisierung (1 − t)a + tb kann man etwas symmetrischer schreiben als s·a+t·b

mit s, t ∈ R, s + t = 1 .

Im allgemeinen Fall sind a, b ∈ A Punkte, für die durch

1.7 Affine Räume I

143

c := s · a + t · b

mit s, t ∈ R, s + t = 1

wieder ein Punkt und mit der Gesamtheit dieser Punkte eine Gerade definiert wird. Dabei ist demnach c durch den Vektor −−→ − −−→ a−→ 0 c := s a0 a + t a0 b eindeutig festgelegt. Hier ist a0 ∈ A ein beliebiger Bezugspunkt, von dessen Wahl die Definition unabhängig ist. Im Fall A = V ist somit − → ab = b − a = 1b + (−1)a , d. h. eine Linearkombination von Punkten mit verschwindenden Koeffizientensummen ergibt einen Vektor. Dies ist der einfachste nicht triviale Spezialfall in folgender Definition: Definition 1.118 Sei V ein R-Vektorraum. 1) Es seien y1 , . . . , yl ∈ V. Eine Affinkombination dieser Vektoren ist eine Linearkombination t1 y1 + . . . + tl yl mit t1 , . . . , tl ∈ R und t1 + . . . + tl = 1.

Sei A ein affiner Raum zu V mit a1 , . . . , an ∈ A.

2) Eine Affinkombination dieser Punkte ist a :=

n X i=1

ti ai ∈ A

mit ti ∈ R , i = 1, . . . , n ,

n X

ti = 1 ,

i=1

definiert durch − a−→ 0 a :=

n X

a−0→ ai (∈ V) ti −

i=1

und a = a0 + − a−→ 0 a, unabhängig von dem beliebig gewählten Bezugspunkt a0 . 3) Eine Vektorkombination dieser Punkte ist u :=

n X i=1

definiert durch

ti ai ∈ V

mit ti ∈ R , i = 1, . . . , n ,

n X i=1

ti = 0 ,

144

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

u :=

n X

a−0→ ai (∈ V) , ti −

i=1

unabhängig von dem beliebig gewählten Bezugspunkt a0 .

Satz 1.119: affiner Raum ↔ Affinkombination Sei A ein affiner Raum zum R-Vektorraum V. Für eine nicht leere Teilmenge B ⊂ A sind äquivalent: (i) B ist ein affiner Unterraum; (ii) mit endlich vielen Punkten a1 , . . . , al ∈ B gehört auch jede Affinkombination dieser Punkte zu B.

Beweis: „(i)⇒(ii)“: Sei B = a + U mit einem Untervektorraum U ⊂ V. Sei l ∈ N, bi = a + ui und ti ∈ R so, dass

Pl

mit ui ∈ U , i = 1, . . . , l

ti = 1. Dann ist

i=1 l X i=1

ti bi = a +

l X i=1

ti ui ∈ B .

„(ii)⇒(i)“: Sei a ∈ B ein fester Punkt. Es genügt zu zeigen, dass die Menge U := {u ∈ V : b := a + u ∈ B} ⊂ V einen Untervektorraum bildet. Seien also u1 , u2 ∈ U und s1 , s2 ∈ R. Dann ist (1 − s1 − s2 )a + s1 (a + u1 ) + s2 (a + u2 ) =: c eine Affinkombination der Punkte a, a + u1 , a + u2 ∈ B und gehört nach Voraussetzung zu B. Es ist a + s1 u1 + s2 u2 = c ∈ B , folglich liegt s1 u1 + s2 u2 in U.



1.7 Affine Räume I

145

Definition 1.120 Sei A ein affiner Raum zum R-Vektorraum V und M ⊂ A eine beliebige Menge. Dann heißt die Menge B aller Affinkombinationen von endlich vielen Vektoren aus M der von M aufgespannte affine Unterraum oder die affine Hülle von M, geschrieben als B = spana (M) . Also   k k   X X     spana (M) :=  a ∈ A : a = t a , a ∈ M , t ∈ R , t = 1 für ein k ∈ N .  i i i i i     i=1

i=1

Das einfachste Beispiel für einen solchen aufgespannten affinen Unterraum ist die Gerade − → a + tab = (1 − t)a + tb ,

t∈R,

die von zwei Punkten a , b ∈ A aufgespannt wird, d. h. ab = spana (a, b) für a, b ∈ A, a , b. Satz 1.121: Eigenschaften der affinen Hülle Sei A ein affiner Raum zum R-Vektorraum V, M ⊂ A. Dann gilt:

1) M ⊂ spana (M).

2) spana (M) ist der kleinste affine Unterraum von A, der M enthält, d. h.: a) spana (A) ist ein affiner Unterraum. b) Ist C ein affiner Unterraum und M ⊂ C, dann gilt auch spana (M) ⊂ C.

3) Für M1 ⊂ M2 ⊂ A gilt

spana (M1 ) ⊂ spana (M2 ) .

Beweis: Zu 1): Klar, da 1a eine Affinkombination für a ∈ A ist. Zu 2): spana (M) ist ein affiner Unterraum nach Satz 1.119, da eine Affinkombination aus Affinkombinationen wieder eine Affinkombination ist. Auch die zweite Aussage folgt aus Satz 1.119. Zu 3): spana (M2 ) ist ein affiner Unterraum der M2 ⊃ M1 enthält, also folgt die Aussage aus 2). 

146

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Sei a ∈ A eine Affinkombination von a0 , . . . , am , d. h. a=

m X

ti ai

mit

i=0

m X

ti = 1 .

(1.93)

i=0

Für jedes j ∈ {0, . . . , m} ist also a = aj +

m X i=0 i, j

Aus (1.94) folgt auch (1.93) mit t j = 1 −

ti − a−j→ ai mit ti ∈ R . Pm

i=0 i, j

(1.94)

ti , da eine für einen Bezugspunkt geltende

Beziehung auch für einen allgemeinen Bezugspunkt gilt. Darum kann jede Affinkombination aus {a0 , . . . , am } geschrieben werden als Summe aus einem fest gewählten Punkt a j aus {a0 , . . . , am } und einer Linearkombination der Richtungen von a j zu ai , i ∈ {0, . . . , m}\{ j}. Daher gilt spana (a0 , . . . , am ) = a0 + span(− a−0−→ a1 , . . . , − a−0−a→ m) .

(1.95)

Definition 1.122 Sei V ein R-Vektorraum. M ⊂ V heißt affin unabhängig , wenn für eine beliebige Anzahl m ∈ N und a0 , . . . , am ∈ M die m Vektoren u1 := a1 − a0 , . . . , um := am − a0 linear unabhängig sind. Sei A ein affiner Raum zum R-Vektorraum V, M ⊂ A heißt affin unabhängig, wenn für eine beliebige Anzahl m ∈ N und Punkte a0 , . . . , am ∈ M die m Vektoren − a−0−→ a1 , . . . , − a−0−a→ m linear unabhängig sind. Die Punkte a0 , . . . , am sind demnach genau dann affin unabhängig, wenn sie einen mdimensionalen affinen Unterraum aufspannen. Deswegen spielt der Punkt a0 in dieser Definition nur scheinbar eine Sonderrolle. Ist ai einer dieser affin unabhängigen Punkte, so sind auch die Differenzen − a−i→ a j , j , i, linear unabhängig (siehe Übung). Aus der Äquivalenz von (1.94) und (1.93) folgt also

1.7 Affine Räume I

147

a0 , . . . , am ∈ A sind affin abhängig ⇔ m P Es gibt ein j ∈ {1, . . . , m}, so dass − a−0−→ a j = ti − a−0→ ai für gewisse ti ∈ R i=1 i, j

aj =

m P



si ai

i=0 i, j

für gewisse si ∈ R mit

m P

(1.96)

si = 1 .

i=0 i, j

Sind deshalb a0 , . . . , am affin abhängig, ist ein a j eine Affinkombination der anderen ai (und auch umgekehrt), bzw. äquivalent für lineare bzw. affine Unabhängigkeit formuliert: a0 , . . . , am ∈ A sind affin unabhängig ⇔ ! m X − − → ti a0 ai = 0 ⇒ ti = 0 für alle i = 1, . . . , m i=1

m X i=0

ti ai = a0 und

m X



ti = 1

i=0



!

t0 = 1 , ti = 0 , i = 1, . . . , m .

(1.97)

In Übereinstimmung mit Bemerkungen 1.116, 5) sieht man also für A = Am sind affin unabhängig in Am ⇔ ! ! am a0 sind linear unabhängig in Rm+1 ,..., 1 1 ⇔ ! a0 · · · am ∈ Rm+1,m+1 hat Rang = m + 1. 1 ··· 1 a0 , . . . , am

Beispiel 1.123 (Geometrie) Im An sind folglich zwei verschiedene Punkte immer affin unabhängig, drei Punkte aber genau dann, wenn sie nicht auf einer Gerade liegen, d. h. ein Dreieck bilden. Im A2 sind vier Punkte immer affin abhängig. Im A3 sind vier Punkte genau dann affin unabhängig, wenn sie nicht auf einer Ebene liegen, d. h. einen Tetraeder bilden (Für die Begriffe Dreieck und Tetraeder siehe Beispiel 1.127). Bei n + 1 affin ◦ unabhängigen Punkten in An spricht man auch von allgemeiner Lage.

148

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Satz 1.124: affin unabhängig ↔ Koeffizientenvergleich Sei A ein affiner Raum zum R-Vektorraum V. Es seien a0 , . . . , am ∈ A und B ⊂ A der von diesen Punkten aufgespannte affine Unterraum. Dann sind äquivalent: (i) Die Punkte a0 , . . . am sind affin unabhängig; (ii) jeder Punkt a ∈ B ist eine Affinkombination der a0 , . . . , am , in der die Koeffizienten durch a eindeutig bestimmt sind.

Beweis: „(i)⇒(ii)“: Jeder Punkt a ∈ B ist eine Affinkombination a = t0 a0 + . . . + tm am ,

t0 + . . . + tm = 1 .

Wir beweisen die Aussage durch Widerspruch und nehmen an, die Koeffizienten ti seien durch a nicht eindeutig bestimmt. Dann gibt es eine weitere Darstellung a = s0 a0 + . . . + sm am ,

s0 + . . . + sm = 1 ,

wobei nicht alle si = ti sind. Subtrahieren wir beide Darstellungen, erhalten wir die Vektorkombination (t0 − s0 )a0 + . . . + (tm − sm )am = 0 . −→ aufgelöst werden bei Benutzung des Sei o. B. d. A. t0 , s0 . Dann kann diese nach − qa 0 beliebigen Bezugspunktes q, was die folgende Affinkombination ergibt: a0 =

sm − tm s1 − t1 a1 + . . . + am , t0 − s0 t0 − s0

denn s1 − t1 sm − tm 1 +...+ = (s1 + . . . + sm − t1 − . . . − tm ) t0 − s0 t0 − s0 t0 − s0 1 = (1 − s0 − 1 + t0 ) = 1 . t0 − s0 Der Punkt a0 ist eine Affinkombination der anderen m Punkte, und damit können die Punkte nach (1.97) a0 , . . . , am nicht affin unabhängig gewesen sein. „(ii)⇒(i)“(durch Kontraposition): Wenn die Punkte a0 , . . . , am nicht affin unabhängig sind, ist nach (1.96) einer von ihnen eine Affinkombination der anderen. O. B. d. A. nehmen wir an, dies sei a0 . Dann ist also a0 = t1 a1 + . . . + tm am ,

t1 + . . . + tm = 1 .

Dies ist eine weitere Affinkombination von a0 aus a0 , . . . , am , zusätzlich zu a0 = 1 · a0 , so dass diese Darstellung mithin nicht eindeutig ist. 

1.7 Affine Räume I

149

Definition 1.125 Sei A ein affiner Raum zum R-Vektorraum V, M ⊂ A heißt affine Basis von A, wenn gilt: 1) M ist affin unabhängig. 2) spana (M) = A. Auch hier lassen sich die äquivalenten Formulierungen aus Abschnitt 1.4.1 übertragen (etwa Satz 1.71). Bemerkung 1.126 Man beachte dabei aber: Ist M endlich, dann gilt Anzahl der Elemente von M = dim A + 1 . Genauer ist nämlich: a0 , . . . , am ist eine affine Basis von A ⇔ − − − → − − − → a0 a1 , . . . , a0 am ist eine Basis von V . Das kann man wie folgt einsehen: a0 , . . . , am affin unabhängig ⇔ − a−0−→ ai , i = 1, . . . , m, linear unabhängig. → − spana (M) = a0 + span( M) ,

wobei

nach (1.95), also wegen A = a0 + V

n −−→ o → − M := − a0 ai : i = 1, . . . , m → − A = spana (M) ⇔ V = span( M) .



Als Beispiel für einen „koordinatenfreien“ Beweis einer elementargeometrischen Aussage sei erwähnt: Beispiel 1.127 (Geometrie) Seien a1 , a2 ∈ An affin unabhängig. Dann heißt a1 a2 := {a ∈ An : a = sa1 + (1 − s)a2 für s ∈ [0, 1]} die Strecke mit Eckpunkten a1 , a2 . Offensichtlich ist a1 a2 ⊂ a1 a2 . Seien a1 , a2 , a3 ∈ An , n ≥ 2, affin unabhängig und

150

1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

  3 3   X X     n ∆ :=  a∈A :a= ti ai , 0 ≤ ti ≤ 1 , ti = 1     i=1

i=1

das durch die Eckpunkte ai gegebene Dreieck . Offensichtlich ist ∆ ⊂ spana (a1 , a2 , a3 ), die durch a1 , a2 , a3 gegebene Ebene. Die Seiten von ∆ sind die Strecken S 1 := a1 a2 , S 2 := a2 a3 und S 3 := a3 a1 mit den Seitenmittelpunkten mi für S i , gegeben etwa durch m1 = 21 a1 + 21 a2 . Der Schwerpunkt von ∆ ist s :=

1 1 1 a1 + a2 + a3 . 3 3 3

Die Seitenhalbierenden sind die Strecken m1 a3 , m2 a1 und m3 a2 . Es gilt der Schwerpunktsatz , d. h. die Seitenhalbierenden eines Dreiecks schneiden sich im Schwerpunkt. Das kann man folgendermaßen einsehen: Zu zeigen ist, dass s zu allen Seitenhalbierenden gehört. Dies folgt aber sofort aus ! ! ! 2 1 1 1 2 1 1 1 2 1 1 1 a1 + a2 = a1 + a2 + a3 = a2 + a1 + a3 . s = a3 + 3 3 2 2 3 3 2 2 3 3 2 2

Analog wird in An , für n ≥ 3, ein Tetraeder durch die affin unabhängigen Punkte ai , i = 1, . . . , 4, definiert durch   4 4   X X     n a ∈ A : a = ∆ :=  t a , 0 ≤ t ≤ 1 , t = 1  i i i i     i=1

i=1



Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • •

Affiner Raum, Verbindungsraum Dimension, Kodimension affiner Räume Affinkombination, affine Hülle Affin unabhängig, affine Basis

Zusammenhänge: • Affinkombination affin unabhängiger Punkte ist eindeutig (Satz 1.124).

Aufgaben Aufgabe 1.35 (K, nach Fischer 1978, S. 27) Der affine Unterraum A ⊂ A3 sei gegeben durch die Gleichung

Aufgaben

151

2x1 + x2 − 3x3 = 1. a) Geben Sie drei affin unabhängige Punkte a1 , a2 , a3 ∈ A an. b) Stellen Sie x = (x1 , x2 , x3 )t ∈ A als Affinkombination von a1 , a2 und a3 dar. Aufgabe 1.36 (K, nach Fischer 1978, S. 27) a) Zeigen Sie, dass die Punkte p1 = (1, 0, 1)t ,

p2 = (0, 3, 1)t ,

p3 = (2, 1, 0)t ∈ A3

affin unabhängig sind. b) Stellen Sie jeden der Punkte a1 = (2, 5, −1)t ,

a2 = (−2, 5, 2)t ,

a3 = (−5, 2, 5)t ∈ A3

als Affinkombination von p1 , p2 , p3 dar. Aufgabe 1.37 (K) Die Punkte p = (p1 , p2 )t ,

q = (q1 , q2 )t ,

r = (r1 , r2 )t ∈ A2

seien affin unabhängig. Bestimmen Sie Gleichungen α(x) = a1 x1 + a2 x2 + a = 0 β(x) = b1 x1 + b2 x2 + b = 0

der Seite der Seite

pq qr

γ(x) = c1 x1 + c2 x2 + c = 0

der Seite

rp

im Dreieck △ zu den Ecken p, q, r. Aufgabe 1.38 (T) Sei A ein affiner Raum zum R-Vektorraum V, a0 , . . . , am ∈ A, i ∈ {1, . . . , m}. Dann gilt − a−0−→ a1 , . . . , − a−0−a→ m sind linear unabhängig ⇔ − →, − →, . . . , − a−i→ a0 , . . . , − a−i− a−i−1 a−i− a−i+1 a−i− a→ m sind linear unabhängig. Aufgabe 1.39 (G) a) Beweisen Sie, dass sich die drei Mittelsenkrechten eines Dreiecks in einem Punkt schneiden. b) Beweisen Sie, dass sich die drei Höhen eines Dreiecks in einem Punkt schneiden. Aufgabe 1.40 (G) Beweisen Sie: Bei einem Tetraeder schneiden sich die Verbindungsgeraden der Mitten gegenüberliegender Kanten in einem Punkt. Aufgabe 1.41 (G) Die Standardbasisvektoren e1 = (1, 0, 0)t , e2 = (0, 1, 0)t, e3 = (0, 0, 1)t des R3 spannen ein Dreieck D auf. Finden Sie einen 2-dimensionalen Unterraum E des R3 und eine orthogonale Projektion π auf E, so dass π(D) ein gleichseitiges Dreieck ist.

Kapitel 2

Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen

2.1.1 Allgemeine lineare Abbildungen Das Studium der Beispiele 2 und 3 hat gezeigt, dass der jetzige Kenntnisstand über Matrizen nicht ausreichend ist: Bei gegebenem A ∈ R(m,n) muss nicht nur y := Ax ∈ Rm für festes x ∈ Rn betrachtet werden, sondern auch die Aktion, die beliebige x ∈ Rn in gewisse y ∈ Rm überführt, d. h. die durch A vermittelte Abbildung. Wir betrachten also hier Abbildungen Φ : Rn → Rm und allgemeiner Φ : V → W, wobei V, W zwei R-Vektorräume sind. Eine derartige Abbildung ordnet jedem Vektor x ∈ V einen Bildvektor Φ(x) ∈ W zu. Im Folgenden werden die Begriffe Abbildung, injektiv, surjektiv, bijektiv, Umkehrabbildung, Komposition von Abbildungen und einige elementare Eigenschaften vorausgesetzt. Wir erinnern daran in Anhang A.4. Besonders wichtig werden hier lineare Abbildungen: Definition 2.1 Seien V, W zwei R-Vektorräume. Eine Abbildung Φ : V → W heißt linear, wenn Φ(c1 x1 + c2 x2 ) = c1 Φ(x1 ) + c2 Φ(x2 ) für alle c1 , c2 ∈ R, x1 , x2 ∈ V .

(2.1)

Wenn keine Mehrdeutigkeit entsteht, wird die Argumentklammer weggelassen, d. h. Φx statt Φ(x) geschrieben. Statt linearer Abbildung spricht man auch von einem linearen Operator . Analog zu vorigen Überlegungen ist (2.1) äquivalent einerseits zu

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_2

153

154

2 Matrizen und lineare Abbildungen

Φ(cx) = cΦ(x) für x ∈ V, c ∈ R (Homogenität), Φ(x + y) = Φ(x) + Φ(y) für x, y ∈ V (Additivität) und andererseits zu  n  n X  X  Φ  cν uν  = cν Φuν 1

(2.2)

1

für jede endliche Wahl von cν ∈ R, uν ∈ V. Aus (2.2) sieht man auch, dass für einen linearen Unterraum U von V das Bild Φ(U) (siehe Anhang A, Definition A.11) ein linearer Unterraum von W ist. Außerdem folgt sofort für jede lineare Abbildung: (2.3)

Φ0 = 0 ,

denn Φ({0}) ist ein einelementiger linearer Unterraum von W, der somit nur der triviale Unterraum sein kann. Damit folgt auch für beliebiges x ∈ V: −Φ(x) = Φ(−x) , denn Φ(x) + Φ(−x) = Φ(x + (−x)) = Φ(0) = 0. Eine weitere unmittelbare Eigenschaft ist: Seien U, V, W drei R-Vektorräume, Φ : V → W, Ψ : U → V linear, dann ist auch Φ◦Ψ

linear.

(2.4)

Nach Theorem 1.46 1), 2) definiert eine Matrix A ∈ R(m,n) eine lineare Abbildung von Rn nach Rm : Φ : Rn → Rm , x 7→ Ax ,

(2.5)

d. h. durch das Matrix-Vektor-Produkt. Später werden wir sehen, dass alle linearen Abbildungen von Rn nach Rm diese Gestalt haben. Bei einem LGS Ax = b sucht man demnach (alle) Urbilder unter der Abbildung Φ nach (2.5) zu b. Für eine nach (2.5) gegebene lineare Abbildung gilt Φei = a(i) , wobei a(i) die Spalten von A sind:

i = 1, . . . , n ,

2.1 Lineare Abbildungen

155

Φx = Ax =

n X

xi Φei

i=1

für x ∈ Rn .

Damit ist Φ schon durch die Vorgabe der Bilder der Einheitsvektoren festgelegt. Mit den neuen Begriffsbildungen lässt sich Hauptsatz 1.85 wie folgt erweitern: Hauptsatz 1.85I Lösbarkeit und Eindeutigkeit bei LGS Es seien m, n ∈ N, A ∈ R(m,n) , b ∈ Rn und Φ die durch (2.5) definierte lineare Abbildung. Wir betrachten das LGS Ax = b . Dann sind die folgenden Aussagen äquivalent: (a) Φ ist surjektiv. (i) Bei jeder Wahl der b1 , . . . , bn auf der rechten Seite ist das Gleichungssystem lösbar (universelle Existenz). (ii) Der Zeilenrang der Koeffizientenmatrix ist voll, d. h. gleich m. Auch folgende Aussagen sind äquivalent: (b) Φ ist injektiv. (iii) Bei jeder Wahl der b1 , . . . , bn auf der rechten Seite gibt es höchstens eine Lösung des Systems (Eindeutigkeit). (iv) Das zugehörige homogene System Ax = 0 hat nur die Null-Lösung (Eindeutigkeit im homogenen Fall). (v) Der Spaltenrang der Koeffizientenmatrix ist voll, d. h. gleich n. Im Fall m = n, d. h. eines quadratischen LGS mit genauso vielen Gleichungen wie Unbekannten sind alle Aussagen (i) − (v), (a), (b) miteinander äquivalent und zusätzlich mit (c) Φ ist bijektiv. (vi) Durch elementare Zeilenumformungen kann A auf die Form einer oberen Dreiecksmatrix mit nichtverschwindenden Diagonalelementen (bzw. = 1) gebracht werden:

156

2 Matrizen und lineare Abbildungen

  1  ..  .       0

..

 ∗       .   ..  .  1

.

Für jeden endlichdimensionalen Vektorraum V ergibt sich nach Festlegung einer Basis B = [u1 , . . . , un ] eine natürliche lineare Abbildung, die Koordinatenabbildung ΨB : V → Rn n P u = αi ui 7→ (α1 , . . . , αn )t . i=1

Hier ist es wichtig B als System, d. h. als geordnete Basis zu betrachten, da sonst die Reihenfolge der Koordinaten nicht festgelegt wäre. Die Tatsache, dass B eine Basis ist, sichert die Wohldefinition dieser Abbildung, die dann auch bijektiv ist. Wir hätten auch mit der Umkehrabbildung, dem linearen eB : Rn → V Ψ

(α1 , . . . , αn )t 7→ u =

n X

αi ui

i=1

eB ist immer wohldefiniert und zudem injektiv, wenn B beginnen können. Die Abbildung Ψ linear unabhängig ist bzw. surjektiv, wenn span(B) = V ist. Ist V unendlichdimensional, hat aber eine abzählbare Basis, kann entsprechend definiert werden. Dabei wird Rn durch den Vektorraum RN f ersetzt, wobei (siehe (1.31)): N RN f := Abb0 (N, R) = {(an )n ∈ R : an , 0 für höchstens endlich viele n ∈ N} .

Für darüberhinausgehende unendlichdimensionale Vektorräume wird der Basis- und Koordinatenbegriff so unhandlich, dass er i. Allg. nicht benutzt wird, ist aber prinzipiell möglich: Die Koordinaten liegen dann im Raum Abb0 (B, R), wobei B die festgelegte, geordnete Basis sei. Für V = Rn und B = {e1 , . . . , en } ist ΨB = id , d. h. Koordinaten und Komponenten sind identisch.

2.1 Lineare Abbildungen

157

Eigenschaften linearer Abbildungen lassen sich daher schon aus ihrem Wirken auf Basen ablesen. So gilt: Satz 2.2: injektive/surjektive lineare Abbildung Es sei Φ : V → W eine lineare Abbildung zwischen R-Vektorräumen V, W. Weiter sei B ⊂ V ein System von Vektoren.

1) Φ ist genau dann injektiv, wenn für jedes System von Vektoren B ⊂ V gilt: Sind die Vektoren ui ∈ B linear unabhängig, so sind auch die Bildvektoren Φui ∈ Φ(B) linear unabhängig. 2) Spannt B den Raum V auf, dann spannt Φ(B) den Raum Φ(V) auf.

3) Φ ist genau dann surjektiv, wenn für jedes System von Vektoren B ⊂ V gilt: Spannen die Vektoren ui ∈ B den Raum V auf, so spannen ihre Bilder Φui ∈ Φ(B) den Raum W auf. Für die Rückrichtung bei 1) oder 3) reicht, dass die Voraussetzung für eine Basis erfüllt ist.

Beweis: Übung.



Satz 2.3: Bild-Satz Seien V, W zwei R-Vektorräume. Sei Φ : V → W linear und U ⊂ V ein linearer Unterraum. Dann gilt für den linearen Unterraum Φ(U) : dim Φ(U) ≤ dim U . Ist Φ injektiv, dann gilt sogar dim Φ(U) = dim U.

Beweis: Sei dim U = k < ∞, da sonst die Aussage trivial ist. Ist u1 , . . . , uk eine Basis von U, so spannen die Vektoren Φu1 , . . . , Φuk ∈ W den linearen Unterraum Φ(U) auf. Nach dem Basisauswahlsatz (Satz 1.71) ist deswegen dim Φ(U) ≤ dim U. Ist Φ injektiv und dim U = ∞, dann hat auch Φ(U) nach Satz 2.2, 1) beliebig viele linear unabhängige Elemente, also dim Φ(U) = ∞. Im endlichdimensionalen Fall sei u1 , . . . , uk eine Basis von  U. Dann gilt nach Satz 2.2, 1) dim Φ(U) ≥ k = dim U. Im Folgenden seien V und W allgemeine R-Vektorräume. Wir stellen einige einfache Eigenschaften von linearen Abbildungen zusammen.

158

2 Matrizen und lineare Abbildungen

Definition 2.4 Sei Φ : V → W eine lineare Abbildung. Alle linearen Φ : V → W werden zur Menge Hom(V, W) zusammengefasst und heißen auch Homomorphismus. Für V = W spricht man auch von Endomorphismen. Ist Φ surjektiv bzw. injektiv, heißt Φ auch Epimorphismus bzw. Monomorphismus, ist Φ bijektiv, dann heißt Φ Isomorphismus. Ist V = W und Φ bijektiv, so heißt Φ auch Automorphismus. Gibt es zwischen V und W einen Isomorphismus, heißen V und W isomorph, in ∼ W gekennzeichnet. Weiter Zeichen: V  W und ein Isomorphismus wird durch V → sei Bild Φ := {w ∈ W : w = Φu für ein u ∈ V} und Kern Φ := {u ∈ V : Φu = 0} . Mit Defekt wird dim(Kern Φ) bezeichnet. Zur Vermeidung von Missverständnissen wird auch Bild(Φ) bzw. Kern(Φ) verwendet.

Satz 2.5: injektiv ↔ Kern trivial Sei Φ ∈ Hom(V, W).

1) Bild Φ ist ein linearer Unterraum von W und Kern Φ ein linearer Unterraum von V. 2) Φ ist injektiv genau dann, wenn Kern Φ = {0} . 3) Ist Φ ein Isomorphismus von V nach W, so ist Φ−1 ein Isomorphismus von W nach V.

Beweis: Zu 1): Dies ist ein Spezialfall (U = V) der schon nach (2.2) erwähnten Aussage. Nochmal: Es ist Φu1 + Φu2 = Φ(u1 + u2 ) ∈ Bild Φ, γΦu1 = Φ(γu1 ) ∈ Bild Φ, und damit die Abgeschlossenheit gemäß Definition 1.36 gesichert. Für Kern Φ (für Φ nach (2.5)) argumentiert man ähnlich, wie dies schon bei (1.41) geschehen ist. Zu 2): Wie schon oben mehrfach verwendet, gilt wegen der Linearität Φu1 = Φu2 ⇔ Φ(u1 − u2 ) = 0 ⇔ u1 − u2 ∈ Kern Φ , woraus „⇐“ folgt. Für „⇒“ beachte man wegen (2.3):

2.1 Lineare Abbildungen

159

u ∈ Kern Φ ⇔ Φu = 0 = Φ0 ⇔ u = 0 . Zu 3): Es bleibt zu zeigen, dass Φ−1 linear ist. Seien w1 , w2 ∈ W und dazu u1 , u2 ∈ V eindeutig bestimmt durch wi = Φui für i = 1, 2 . Dann ist  Φ−1 (w1 + w2 ) =Φ−1 (Φu1 + Φu2 ) = Φ−1 Φ(u1 + u2 ) = u1 + u2 = Φ−1 w1 + Φ−1 w2 ,

und analog für das skalare Vielfache.



Bemerkungen 2.6 1) Beide Aussagen aus Satz 2.5, 2) sind äquivalent mit: Es gelte für ein z ∈ Bild Φ, d. h. z = Φx: Aus Φx = Φy folgt x = y.

Dies kann man wie folgt einsehen: Die Zusatzaussage ist eine Abschwächung der Injektivität, andererseits folgt aus ihr Kern Φ = {0} .

Denn ist a ∈ Kern Φ, d. h. Φa = 0, dann auch Φx = Φx + Φa = Φ(x + a), also x = x + a und damit a = 0 .

2) Für V = Rn , W = Rm und Φx = Ax mit A ∈ R(m,n) ist folglich nach Satz 2.2, 2) Bild Φ = span(a(1) , . . . , a(n) ) , wobei a , . . . , a(n) die Spalten von A sind, und damit dim Bild Φ = Rang A . (1)

Entsprechend ist Kern Φ = U , der Lösungsraum des homogenen LGS mit Matrix A. 3) Für einen R-Vektorraum V mit dim V = n und gegebener Basis ist die Koordinatenabbildung ein Isomorphismus von V nach Rn . 4) Die Isomorphiebeziehung definiert eine Äquivalenzrelation auf der „Menge“ der RVektorräume1. Diese ist nämlich reflexiv, da id : V → V gewählt werden kann, symmetrisch nach Satz 2.5, 3) und transitiv, da die Komposition bijektiver Abbildungen bijektiv (siehe Anhang Satz A.16) und die linearer linear ist (siehe (2.4)). Ihre Äquivalenzklassen, d. h. die zueinander isomorphen Vektorräume werden in Abschnitt 2.2.2 untersucht.

1

Genauer handelt es sich um eine etwas andere Konstruktion, nämlich eine „Kategorie“

160

2 Matrizen und lineare Abbildungen

5) Für allgemeine lineare Abbildungen ist nach Satz 2.5 und 1) die Eindeutigkeit der Lösung für die Gleichung Φu = w

(2.6)

mit w ∈ W gegeben, u ∈ V gesucht – entweder für alle w ∈ W bzw. nach 1) für ein w ∈ Bild Φ – äquivalent mit der Eindeutigkeit für die homogene Gleichung Φu = 0 , was wir schon für LGS wissen. Genau wie dort gilt allgemein auch hier für die Lösungsmenge U von (2.6) und Kern Φ bei Existenz eines u ∈ U: U = u + Kern Φ . allg. Lösung inhomogen = spezielle Lösung inhomogen + allg. Lösung homogen. 6) Hat A ∈ R(m,n) die reduzierte Zeilenstufenform mit den Pivotspalten auf den ersten r Positionen, d. h. ! 1r F , A= 0 0 dann ist Kern(A) der Spaltenraum von ! −F A= , 1n−r also dim(Kern(A)) = n − r, was natürlich aus Theorem 1.82 bekannt ist und so bewiesen wurde. △ Bemerkung 2.7 In der Situation von Hauptsatz 1.102 ist die orthogonale Projektion PU auf einem linearen r-dimensionalen Unterraum linear: Sind x1 , x2 ∈ V und A ∈ R(r,r) nach (1.74), sowie βk := (xk . ui )i und αk ∈ Rr für k = 1, 2 die eindeutige Lösung von Aαk = βk , so dass PU (xk ) =

r X

αki ui .

i=1

Dann ist also A(α1 + α2 ) = β1 + β2 =: β = (x1 + x2 . ui )i

und diese Lösung ist eindeutig, somit

2.1 Lineare Abbildungen

161 PU (x1 + x2 ) =

r  X  α1i + α2i ui = PU (x1 ) + PU (x2 ). i=1

Analog zeigt man PU (λx) = λPU (x)

für λ ∈ R .

Anstelle eines solchen „koordinatenbezogenen“ Beweises ist auch ein „koordinatenfreier“ Beweis möglich: und

u := PU (x1 ) + PU (x2 ) ∈ U

(x1 + x2 − (PU (x1 ) + PU (x2 )) . u) = 0 für alle

u∈U,

somit erfüllt u die die Orthogonalprojektion charakterisierende Fehlerorthogonalität für x1 + x2 , d. h. PU (x1 + x2 ) = u = PU (x1 ) + PU (x2 )

und analog für das skalare Vielfache.

Die Alternative zwischen einem „koordinatenbezogenen“ und einem „koordinatenfreien“ Beweis wird im Folgenden regelmäßig entstehen. △ Bemerkungen 2.8 Seien U, V, W drei R-Vektorräume. 1) Sind Φ : V → W und Ψ : V → U linear, dann ist auch Φ × Ψ : V → W × U, definiert durch v 7→ (Φv, Ψ v), linear. *2) Nach 1) ist also insbesondere für jedes Φ ∈ Hom(V, W) auch id ×Φ ∈ Hom(V, V × W), die Graphen-Abbildung, linear. Ist dim V = n und u1 , . . . , un eine Basis von V, dann ist auch (ui , Φui ), i = 1, . . . , n, eine Basis von Bild(id ×Φ): Ist u =

n P

αi ui , dann auch (u, Φu) =

i=1

n P

αi (ui , Φui ), folglich ist die angegebene Menge ein Erzeugendensys-

i=1

tem von Bild(id ×Φ) und damit ist nach Satz 1.71 schon dim Bild(id ×Φ) ≤ n = dim V . Sie ist auch linear unabhängig, da sogar ihre „Verkürzung“ ui , i = 1, . . . , n, linear unabhängig ist: n X i=1

αi (ui , Φui ) = 0 ⇒

n X i=1

αi ui = 0 ⇒ α1 = . . . = αn = 0 .

Insbesondere ist somit dim Bild(id ×Φ) = dim V .

*3) Sei U ⊂ Rn ein linearer Unterraum der Dimension k.

Nach Korollar 1.83 lässt sich U durch eine durch Matrix A ∈ R(r,n) gegebene lineare Abbildung schreiben als U = Kern(A) ,

(2.7)

wobei r = Rang(A) = n − k, d. h. codim(U) = n − k. Durch elementare Zeilenumformungen und Spaltenvertauschungen kann A umgeformt werden zu   e , A → A′ = − A|1

162

2 Matrizen und lineare Abbildungen

e ∈ R(r,n−r) , so dass bis auf Umordnung von Komponenten gilt wobei A Kern(A) = Kern(A′ )

(siehe Beweis  Theorem 1.82).  von Sei nun x =

folgt daher



x ′′ x

∈ Rn mit x′ ∈ Rn−r und x′′ ∈ Rr . Wegen e ′ = x′′ x ∈ Kern(A′ ) ⇔ Ax

d. h.

x ∈ Kern(A′ ) ⇔ x =

wobei wegen n − r = k

e , Kern(A′ ) = Bild(id × A)

Damit wurde gezeigt:

e : Rk → Rr und k + r = n . id : Rk → Rk , A



x e Ax′

!

Nach eventueller Umordnung von Komponenten lässt sich U mit der Identität id : Rk → Rk schreiben als e , U = Bild(id ×A)

e ∈ R(n−k,k) . A

(2.8)

Es ist also (2.7) die implizite Darstellung von U als Lösung eines homogenen LGS und (2.8) eine explizite Darstellung. Eine Gerade in R2 durch 0 (d. h. n = 2, k = 1) ist infolgedessen ein eindimensionaler Unterraum und in impliziter Darstellung die Lösung einer Gleichung (n − k = 1) in zwei Variablen bzw. in expliziter Darstellung der Graph einer linearen Abbildung von R nach R (n − k = k = 1), gegeben durch ein a ∈ R = R(1,1) . △ Lineare Abbildungen treten auch in der Geometrie auf:

2.1.2 Bewegungen und orthogonale Transformationen Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm k . k. Definition 2.9 Eine Bewegung in V ist eine Abbildung Φ : V → V, die den Abstand erhält, d. h. eine Abbildung mit der Eigenschaft kΦ(x) − Φ(y)k = kx − yk für alle x, y ∈ V . Eine Bewegung (insbesondere für V = R2 ) wird auch Kongruenz (abbildung) genannt. Fasst man V als affinen Raum über sich selbst auf, erhält eine Bewegung daher die Länge der Verbindungsvektoren.

2.1 Lineare Abbildungen

163

Wenn man einen „starren Körper“ bewegt, ändern sich die Abstände von Punkten in seinem Inneren nicht. Bei einer Bewegung des Rn im eben definierten Sinn stellt man sich vor, den ganzen Rn so zu bewegen wie einen starren Körper. Beispiele 2.10 1) Die Translation um einen festen Vektor a T : x 7→ x + a ist eine Bewegung wegen kT (x) − T (y)k = kx + a − (y + a)k = kx − yk . 2) Die Punktspiegelung am Ursprung Φ : x 7→ −x ist eine Bewegung, weil kΦ(x) − Φ(y)k = k − x + yk = kx − yk . 3) Es sei a , 0 gegeben. Wir betrachten die erzeugte Hyperebene a⊥ = {x ∈ Rn : (a . x) = 0} . Dabei können wir a als normiert annehmen: kak = 1. In diesem Fall hat die Abbildung Φ1 : x 7→ x − (x . a) a die Eigenschaften Φ1 (x) ∈ a⊥ ,

(Φ1 (x) − x) ⊥ a⊥ ,

d. h. Φ1 ist die Orthogonalprojektion auf a⊥ . Wenn wir von x nicht nur einmal (x . a) a abziehen, sondern zweimal, so ist dies die Spiegelung an der Hyperebene a⊥ : Φ : x 7→ x − 2 (x . a) a .

(2.9)

Auch diese Abbildung ist eine Bewegung. Φ1 und auch Φ sind linear, also gilt

kΦ(x) − Φ(y)k = kΦ(x − y)k ,

und es genügt somit, zu zeigen kΦ(x)k = kxk. Aber dies folgt aus kΦ(x)k2 = (x − 2 (x . a) a . x − 2 (x . a) a) = kxk2 − 4 (x . a) (a . x) + 4 (x . a)2 = kxk2 .

164

2 Matrizen und lineare Abbildungen xr

❙ − (x . a) a ✚ ❙ ✚ ❙ ✚ a ✇✚ ❙ ♦ ❙ ✚❙ Φ1 (x) ❙r✚ ❙ − (x . a) a ✚0 ⊥ ✚ ❙ a ✚ ✇ ❙ ✚ Φ(x) Abb. 2.1: Orthogonalprojektion und Spiegelung bezüglich einer Hyperebene.

4) Sind Φ1 und Φ2 Bewegungen, so ist auch Φ1 ◦ Φ2 eine Bewegung, denn kΦ1 (Φ2 (x)) − Φ1 (Φ2 (y))k = kΦ2 (x) − Φ2 (y)k = kx − yk .



Sei Φ eine beliebige Bewegung in V und a := Φ(0) ∈ V. Sei T die Translation x 7→ x − a. Dann ist auch T ◦ Φ eine Bewegung (Beispiele 1) und 4)), und sie hat die Eigenschaft (T ◦ Φ)(0) = T (Φ(0)) = T (a) = a − a = 0 . Zu jeder Bewegung Φ gibt es darum eine Translation T mit (T ◦ Φ)(0) = 0. Definition 2.11 Eine Bewegung in V, die den Nullvektor fest lässt, heißt orthogonale Transformation.

Satz 2.12 Jede Bewegung Φ in V ist ein Produkt Φ = T ◦ Ψ einer Translation T mit einer orthogonalen Transformation Ψ .

Beweis: Sei die Bewegung Φ gegeben. Ist T irgendeine Translation, so ist Ψ := T −1 ◦ Φ orthogonal genau dann, wenn Ψ (0) = 0, d. h. T (0) = Φ(0). Wir definieren also ganz einfach T : x 7→ x + Φ(0). Dann ist Ψ := T −1 ◦ Φ eine orthogonale Transformation mit Φ = T ◦ Ψ.  Orthogonale Transformationen Φ haben folgende Eigenschaften: • Φ(0) = 0

(nach Definition),

2.1 Lineare Abbildungen

165

• kΦ(x) − Φ(y)k = kx − yk (nach Definition einer Bewegung), • kΦ(x)k = kxk (vorige Eigenschaft mit y = 0). Satz 2.13: SKP-Erhaltung Eine orthogonale Transformation erhält das Skalarprodukt zweier Vektoren, d. h. für alle x, y ∈ V gilt (Φ(x) . Φ(y)) = (x . y) .

Beweis: Es ist kΦ(x) − Φ(y)k2 = (Φ(x) − Φ(y) . Φ(x) − Φ(y)) = kΦ(x)k2 + kΦ(y)k2 − 2 (Φ(x) . Φ(y)) . Mit kΦ(x)k = kxk, kΦ(y)k = kyk und kΦ(x) − Φ(y)k = kx − yk folgt 1 (Φ(x) . Φ(y)) = − (kΦ(x) − Φ(y)k2 − kΦ(x)k2 − kΦ(y)k2 ) 2 1 = − (kx − yk2 − kxk2 − kyk2 ) 2 = (x . y) .  Definition 2.14 Sei Φ = T ◦ Ψ eine Bewegung, wobei T eine Translation, Ψ eine orthogonale Transformation sei. Der (nichtorientierte) Winkel zwischen Φ(x2 ) − Φ(x1 ) und Φ(y2 ) − Φ(y1 ) sofern x , 0 , y für x := x2 − x1 , y := y2 − y1 wird definiert durch das eindeutig existierende α ∈ [0, π), für das  Ψ (x) . Ψ (y) . cos(α) = kΨ (x)k kΨ (y)k Bemerkungen 2.15 1) Unter Translationen bleiben Skalarprodukte nicht erhalten und daher auch nicht unter Bewegungen. Sei Φ = T ◦ Ψ die Zerlegung einer Bewegung in eine orthogonale Transformation Ψ und eine Translation T (x) = x + a, dann ist Φ(x) − Φ(y) = Ψ (x) + a − (Ψ (y) + a) = Ψ (x − y) . Daher gilt: Eine Bewegung erhält die Skalarprodukte von Vektordifferenzen, d. h. wenn man V als affinen Raum über sich selbst auffasst, von Verbindungsvektoren.

166

2 Matrizen und lineare Abbildungen

2) Sei V endlichdimensional, so dass eine ONB u1 , . . . , un ∈ V existiert. Deren Bilder u1 := Φ(u1 ), . . . , un := Φ(un ) unter einer orthogonalen Transformation Φ haben wegen Satz 2.13 dieselben Skalarprodukte: ( 1 falls k = l, (uk . ul ) = (uk . ul ) = 0 falls k , l . Daraus folgt nach Bemerkungen 1.110, 2), dass die Vektoren u1 , . . . , un linear unabhängig sind und außerdem: Das Bild der ONB u1 , . . . , uk unter einer orthogonalen Transformation ist wieder eine ONB.

(2.10)

Wir haben Bewegungen und damit orthogonale Abbildungen durch die Eigenschaft der Abstandstreue definiert. Satz 2.13 sagt, dass aus der Abstandstreue die Winkeltreue folgt, wobei hier Winkel als Winkel zwischen den Verbindungsvektoren verstanden wird. 3) Das Bild Φ(z) eines Vektors z ist Φ(z) =

n P

ν=1

dν uν , wobei nach Bemerkungen 1.110, 1)

dν = (Φ(z) . uν ) = (Φ(z) . Φ(uν )) = (z . uν ) , und diese Koeffizienten sind eindeutig. Also gilt für x, y ∈ V, c1 , c2 ∈ R: c1 Φ(x) + c2 Φ(y) =

n X

(c1 (x . uν ) + c2 (y . uν ))uν =

ν=1

= Φ(c1 x + c2 y) .

n X

(c1 x + c2 y . uν ) uν

ν=1

Eine orthogonale Abbildung Φ ist somit linear. Die Linearität von Φ aus Beispiele 2.10, 3) ist also kein Zufall.

(2.11) △

Diese Eigenschaft der Linearität einer Abbildung hat der Linearen Algebra ihren Namen gegeben. Die fundamentalen Beziehungen in der Linearen Algebra werden durch lineare Abbildungen vermittelt. Satz 2.16 Sei V endlichdimensional und Φ : V → V eine Bewegung. Dann ist Φ bijektiv.

Beweis: Wegen Satz 2.12 reicht es orthogonale Transformationen Φ zu betrachten. Wegen x = 0 ⇔ kxk = 0 ⇔ kΦ(x)k = 0 ⇔ Φ(x) = 0 und Satz 2.5, 2) ist Φ injektiv. Seien u1 , . . . , ur ∈ V, so dass span(u1 , . . . , ur ) = V und daraus (bei gleicher Bezeichnung) eine Basis ausgewählt. Nach Theorem 1.112 gibt es eine ONB u1 , . . . , ur ,

2.1 Lineare Abbildungen

167

so dass span(u1 , . . . , ur ) = V und damit sind die uk jeweils Linearkombinationen der u1 , . . . , ur . Damit sind auch die Φ(uk ) Linearkombinationen der Φ(u1 ), . . . , Φ(ur ). Da die Φ(u1 ), . . . , Φ(ur ) als ONB den Raum V aufspannen, tun dies auch die Φ(u1 ), . . . , Φ(ur ). Nach Satz 2.2, 3) ist demnach Φ surjektiv. In Abschnitt 2.3.5 werden wir sehen, dass allgemein für lineare Φ : V → V bei endlichdimensionalem V aus der Injektivität schon Surjektivität folgt (was im Spezialfall schon  aus Hauptsatz 1.85I ersichtlich ist).

Theorem 2.17: orthogonal ↔ ONB auf ONB Sei V endlichdimensional, dim V = n. Eine Abbildung Φ : V → V ist orthogonal genau dann, wenn sie folgende beiden Eigenschaften hat: 1) Φ ist linear. 2) Es gibt eine ONB u1 , . . . , un ∈ V, welche unter Φ wieder auf eine ONB Φ(u1 ), . . . , Φ(un ) abgebildet wird.

Beweis: „⇒“: Nach (2.10) bildet eine orthogonale Abbildung jede (nicht nur eine einzige) ONB auf eine ONB ab. Dass die Linearität eine Konsequenz der Orthogonalität ist, haben wir soeben in (2.11) gesehen. „⇐“: Aus der Linearität folgt kΦ(x) − Φ(y)k = kΦ(x − y)k für alle Vektoren x, y ∈ V. Es genügt deswegen kΦ(x)k = kxk für jeden Vektor x ∈ V zu zeigen. Wir schreiben den P P Vektor x in unserer ONB als x = n1 cν uν . Aus der Linearität folgt Φ(x) = n1 cν Φ(uν ). Und da sowohl die uν als auch ihre Bilder Φ(uν ) eine ONB bilden, ist nach Pythagoras (Satz 1.96, siehe auch (1.89)) kΦ(x)k2 =

n X ν=1

c2ν = kxk2 .



Bemerkung 2.18 Sei V ein endlichdimensionaler R-Vektorraum mit SKP, sowie B ⊂ V eine ONB und ΨB : V → Rn die Koordinatenabbildung. Da die Elemente von B auf die Standardbasis abgebildet werden, ist ΨB nach Theorem 2.17 eine orthogonale Transformation. Also gilt mit Satz 2.13 (u . w) = (ΨB u . ΨB w)

für u, w ∈ V ,

wobei das rechte SKP das euklidische SKP auf Rn darstellt. Insbesondere ist damit für die jeweils erzeugte Norm kuk = kΨB uk , wie schon in (1.89) gesehen.



168

2 Matrizen und lineare Abbildungen

Beispiel 2.19 Drehung (Rotation) im R2 um einen Winkel ϕ. Rotiert man die beiden Vektoren e1 = (1, 0) und e2 = (0, 1) der Standardbasis des R2 um einen Winkel ϕ, so erhält man die ONB ! ! cos(ϕ) − sin(ϕ) Φ(e1 ) = , Φ(e2 ) = sin(ϕ) cos(ϕ) des R2 . Es gibt deswegen eine einzige lineare (und dann auch orthogonale) Abbildung Φ : R2 → R2 , welche diese Drehung der Basisvektoren bewirkt, nämlich − sin cos

!

❙ ♦ ❙

e2



cos sin

!

❃ ✚ ✚ ❙ ✚ ❙✚ ✲ e1

Abb. 2.2: Drehung in der Ebene.

Φ:

! ! ! ! ! − sin(ϕ) cos(ϕ) − sin(ϕ) x1 cos(ϕ) x1 = + x2 7 x1 → cos(ϕ) sin(ϕ) cos(ϕ) x2 x2 sin(ϕ)

Die Orthogonalität dieser linearen Abbildung ist auch leicht direkt nachzurechnen: (x1 cos(ϕ) − x2 sin(ϕ))2 + (x1 sin(ϕ) + x2 cos(ϕ))2

= x21 cos(ϕ)2 + x22 sin(ϕ)2 + x21 sin(ϕ)2 + x22 cos(ϕ)2

= x21 + x22 . ◦ Bei allen vergangenen Überlegungen hätte V als Bildraum durch einen anderen Vektorraum W mit SKP ( . )′ und erzeugter Norm k . k′ ersetzt werden können. Nur für Translationen muss (W, ( . )′ ) = (V, ( . )) gewählt werden. Wählt man als Bildraum (auf dem dann auch die Translationen definiert sind) W = V und (x . y)′ := α−2 (x . y) für ein festes α > 0 , so ergibt sich eine die Bewegung verallgemeinernde geometrische Operation:

2.1 Lineare Abbildungen

169

Definition 2.20 Eine Ähnlichkeit auf V ist eine Abbildung Φ : V → V, die Abstände mit einem festen Faktor α > 0 streckt bzw. staucht, d. h. kΦ(x) − Φ(y)k = αkx − yk für alle x, y ∈ V , und einem festen α ∈ R, α > 0. Nach den obigen Überlegungen gilt: Theorem 2.21: Gruppe 2 der Ähnlichkeiten

1) Die Komposition von Ähnlichkeiten ist eine Ähnlichkeit. 2) Jede Ähnlichkeit lässt sich als Komposition einer Ähnlichkeit, die 0 fest lässt, und einer Translation schreiben. 3) Sei Φ eine Ähnlichkeit mit Φ(0) = 0 und mit dem Streckungsfaktor α, dann gilt für alle x, y ∈ V: (Φ(x) . Φ(y)) = α2 (x . y) . 4) Eine Ähnlichkeit erhält Winkel (definiert analog zu Definition 2.14). Sei V endlichdimensional. 5) Es sind äquivalent: (i) Φ : V → V ist ähnlich und Φ(0) = 0 mit (ii1) Φ ist linear. (ii2) Es gibt eine ONB u1 , . . . , un ∈ V, so dass die Φ(ui ) paarweise orthogonal sind und kΦ(ui )k = α für alle i = 1, . . . , n und ein α ∈ R, α > 0 mit (iii) Φ hat die Darstellung Φ(x) = αΨ (x) für alle x ∈ V ,

170

2 Matrizen und lineare Abbildungen

wobei α > 0 und Ψ eine orthogonale Transformation ist. 6) Eine Ähnlichkeit Φ ist bijektiv und Φ−1 ist ähnlich.

Beweis: 1) entspricht Beispiele 2.10, 4) bzw. folgt direkt aus der Definition. 2) entspricht Satz 2.12 und 3) entspricht Satz 2.13. Bei 4) beachte man nach 3) (Φ(x) . Φ(y)) /(kΦ(x)k kΦ(y)k) = α2 (x . y) /(αkxkαkyk) für eine Ähnlichkeit Φ mit Φ(0) = 0. Bei 5) entspricht (i)⇔(ii) Theorem 2.17, (ii)⇔(iii) ist direkt die Anwendung von Theorem 2.17 auf Ψ (x) := α−1 Φ(x). Schließlich entspricht 6) Satz 2.16. 

Abb. 2.3: Drei Bewegungen, eine Ähnlichkeit. Die aus Beispiele 2.10, 3) hervorgehende Ähnlichkeit heißt auch Klappstreckung , die aus Beispiel 2.19 Drehstreckung . Beispiel 2.22 Die zentrische Streckung x 7→ λx für λ > 0 ist insbesondere eine Ähnlichkeit. Wie schon in Abb 1.4 auf Seite 36 dargestellt, entspricht ihre Linearität gerade dem 1. Strahlensatz: Man beachte die „Strahlen“ s1 : x = αa, α ≥ 0 und s2 : x = α(a + b), α ≥ 0 für linear unabhängige a, b. Dann sind die Geraden a + Rb und λa + Rb für festes λ > 0 parallel 2

Für die Grundbegriffe siehe Definition B.7 ff. und Definition 3.1 ff.

Aufgaben

171

und die „Streckenabschnitte“ a, λa b, λb und a + b, λ(a + b) stehen jeweils im Verhältnis λ. Dabei liegen a, λa auf s1 , a + b und λ(a + b) (wegen λ(a + b) = λa + λb) auf s2 . ◦

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • • •

Lineare Abbildung Koordinatenabbildung Bild und Kern einer linearen Abbildung Bewegung, orthogonale Transformation Ähnlichkeit

• • • • •

Bild-Satz (Satz 2.3) Bewegung – orthogonale Transformation (Satz 2.12) Orthogonale Transformationen erhalten SKP (Satz 2.13) Orthogonale Transformationen bilden ONB auf ONB ab (Theorem 2.17) Eigenschaften der Ähnlichkeiten (Theorem 2.21)

Zusammenhänge:

Beispiele: • Drehung, Spiegelung (für orthogonale Transformation) • Orthogonale Projektion (für lineare Abbildung)

Aufgaben Aufgabe 2.1 (T) Beweisen oder widerlegen Sie: Für alle Mengen A, B, C und Abbildungen f : A → B, g : B → C gilt: a) b) c) d) e)

Sind f und g injektiv, so auch g ◦ f . Sind f und g surjektiv, so auch g ◦ f . Ist f injektiv und g surjektiv, so ist g ◦ f bijektiv. Ist g ◦ f bijektiv, so ist g surjektiv und f injektiv. Ist g ◦ f bijektiv, so ist g injektiv und f surjektiv.

Aufgabe 2.2 (T) Zeigen Sie Satz 2.2. Aufgabe 2.3 (T) Sei V ein R-Vektorraum mit Skalarprodukt. Es seien U, W ⊂ V endlichdimensionale Untervektorräume und Φ : V → V eine orthogonale Abbildung mit Φ(U) = W. Beweisen Sie, dass Φ das orthogonale Komplement von U auf das orthogonale Komplement von W abbildet.

172

2 Matrizen und lineare Abbildungen

Aufgabe 2.4 (G) Es seien a und b ∈ R2 zwei Einheitsvektoren und S a , bzw. S b die Spiegelung an der Geraden senkrecht zu a bzw. b. a) Leiten Sie Formeln für S a ◦ S b und S b ◦ S a her. b) Zeigen Sie: Es ist S a ◦ S b = S b ◦ S a genau dann, wenn a = ±b oder

(a . b) = 0 .

Aufgabe 2.5 (G) Es seien g und h zwei Geraden im euklidischen R2 , welche sich unter dem Winkel α mit 0 < α ≤ π2 schneiden. Seien sg und sh die Spiegelungen an g bzw. h. a) Für welche α gibt es eine natürliche Zahl n mit (sg ◦ sh )n = id? b) Für welche α ist sg ◦ sh = sh ◦ sg ?

2.2 Lineare Abbildungen und ihre Matrizendarstellung

173

2.2 Lineare Abbildungen und ihre Matrizendarstellung

2.2.1 Darstellungsmatrizen Wenn nicht anders erwähnt, seien im Folgenden V und W allgemeine, auch unendlichdimensionale R-Vektorräume. Bei der Beschreibung der Drehung im letzten Abschnitt haben wir von folgendem Prinzip Gebrauch gemacht: Ist Φ : V → W eine lineare Abbildung und V endlichdimensional, und sind u1 = Φe1 , . . . , un = Φen , die Bilder der Basis-Vektoren P e1 , . . . , en , bekannt, so ist das Bild eines jeden Vektors x = n1 xν eν bereits festgelegt durch   n n n X  X X xν Φeν = x ν uν . (2.12) xν eν  = Φx = Φ  1

1

1

(siehe Satz 2.2, 2))

Umgekehrt kann man Vektoren u1 , . . . , un ∈ W beliebig vorgeben, durch (2.12) wird dann eine lineare Abbildung Φ : V → W definiert mit Φe1 = u1 , . . . , Φen = un . Daraus folgt etwas allgemeiner: Hauptsatz 2.23: Prinzip der linearen Ausdehnung Sei [ui : i ∈ I] bzw. [w j : j ∈ I] ein System von Vektoren in V bzw. W. Weiter sei B1 := [ui : i ∈ I] eine Basis.

1) Zu beliebig vorgegebenen w′i ∈ W gibt es genau ein Φ ∈ Hom(V, W) mit Φui = w′i für alle i ∈ I. 2) Seien m, n ∈ N, dim V = n, dim W = m und

a) Sei A = (aµ,ν ) ∈ R(m,n) gegeben. Dann gibt es genau ein Φ ∈ Hom(V, W) mit Φuµ =

m X

aν,µ wν

für µ = 1, . . . , n .

(2.13)

ν=1

b) Sei Φ ∈ Hom(V, W) gegeben. Weiter sei B2 := {w1 , . . . , wm } eine Basis von W. Dann gibt es genau ein A = (aµ,ν ) ∈ R(m,n) , so dass (2.13) gilt.

A heißt die zu Φ (bei gegebenen Basen B1 und B2 ) gehörige Darstellungsmatrix.

Beweis: Zu 1): Sei u ∈ V, d. h. u =

P

i∈I ′

xi ui für eine endliche Teilmenge I ′ von I. Dabei

sind die Koeffizienten xi eindeutig festgelegt und I ′ höchstens durch Hinzunahme von x j = 0 erweiterbar. Durch (siehe (2.12))

174

2 Matrizen und lineare Abbildungen

X

Φu :=

xi w′i

(2.14)

i∈I ′

wird daher eine Abbildung von V nach W definiert. Diese ist linear, da etwa für λ ∈ R gilt X λu = λxi ui i∈I ′

und damit Φ(λu) =

X

λxi w′i = λΦu

i∈I ′

und analog für die Summe. Φ erfüllt Φui = w′i für alle i ∈ I, woraus für ein lineares Φ wieder notwendig (2.14) folgt. m P Zu 2) a): Folgt direkt aus 1) mit w′µ = aν,µ wν . ν=1

Zu 2) b): Die µ-te Spalte von A ist eindeutig festgelegt als die Koeffizienten von Φuµ bezüglich der Basis w1 , . . . , wm . 

Bei V = R reicht also für die Kenntnis einer linearen Abbildung Φ die Kenntnis von Φv für ein v , 0, d. h. einer Basis von R: Für x ∈ R gilt dann wegen x = xv v Φx =

Φv x Φv = x, v v

womit wir das Prinzip des Dreisatzes wiederentdeckt haben. Sei wie bei Theorem 2.23, 2) dim V = n, dim W = m. Bei festgelegten Basen B1 = {u1 , . . . , un } von V und B2 = {w1 , . . . , wm } von W wird folglich durch (2.13) eine bijektive Abbildung zwischen Hom(V, W) und R(m,n) definiert. So wie R(m,n) durch die komponentenweise Addition und Skalarmultiplikation eine Vektorraumstruktur besitzt, so hat auch Hom(V, W) eine solche, etwa analog zu Abb (V, R) (siehe Definition 1.31 und Aufgabe 1.13). Für Φ, Ψ ∈ Hom(V, W), λ ∈ R wird daher definiert (auch für unendlichdimensionale V und W) (Φ + Ψ )u = Φu + Ψ u (λΦ)u = λΦu für u ∈ V.

(2.15)

Es ergibt sich sofort, dass Φ + Ψ bzw. λΦ zu Hom(V, W) gehören und Hom(V, W) mit den so definierten Verknüpfungen ein R-Vektorraum ist (Übung). Hinsichtlich der in der linearen Algebra betrachteten Strukturen ist für endlichdimensionale V und W mit dim V = n und dim W = m der Vektorraum Hom(V, W) mit R(m,n) „identifizierbar“, da:

2.2 Lineare Abbildungen und ihre Matrizendarstellung

175

Theorem 2.24: Homomorphismen  Matrizen im Endlichdimensionalen Sei dim V = n, dim W = m für n, m ∈ N. Durch (2.13) wird (bei festen Basen B1 bzw. B2 ) ein Isomorphismus [ . ] von Hom(V, W) nach R(m,n) definiert, insbesondere also Hom(V, W)  R(m,n) . Die Darstellungsmatrix zu Φ bezeichnen wir mit A = [Φ].

Beweis: Es fehlt, noch die Linearität der Abbildung zu zeigen. Wir zeigen dies äquivalent (siehe Satz 2.5) für die Umkehrabbildung: Seien A, B ∈ R(m,n) und Φ bzw. Ψ die durch (2.13) definierten Elemente von Hom(V, W). Dann gilt m X

(Φ + Ψ )uµ =

(aν,µ + bν,µ )wν ,

ν=1

und damit ist A + B die eindeutige Darstellungsmatrix zu Φ + Ψ . Für das Vielfache argumentiert man analog.  Bemerkungen 2.25 1) Für festgelegte Basen B1 = [u1 , . . . , un ] von V bzw. B2 = [w1 , . . . , wm ] von W erfüllen die Darstellungsmatrix A ∈ R(m,n) und Φ ∈ Hom(V, W): Zwischen Homomorphismus Φ und Darstellungsmatrix A besteht folgende Beziehung: Genau dann ist Φu = w mit n m P P u = x i ui , w = y jw j , i=1

wenn

Ax = y

j=1

für

x = (xi ), y = (yi ) .

Denn aus (2.13) folgt Φu = Φ

n X i=1

xi ui =

n X i=1

bzw. in Abbildungen ausgedrückt

xi Φui =

n X m X i=1 j=1

 n  m X m X X   xi a j,i w j = (Ax) j w j ,  a j,i xi  w j = j=1

i=1

ΞB2 ◦ Φ = A ◦ ΨB1 ,

wobei ΨB1 bzw. ΞB2 die Koordinatenabbildungen von V bzw. W sind.

j=1

(2.16)

176

2 Matrizen und lineare Abbildungen

Zu (2.16) ist die Identität Φ = ΞB−12 ◦ A ◦ ΨB1 äquivalent. Die Gleichung (2.16) besagt, dass in dem Diagramm aus Abbildung 2.4 beide Pfade (oben-rechts bzw. links-unten) das gleiche Ergebnis liefern. Man sagt auch: Das Φ

V

W ΞB2

ΨB1 Rn

Rm A

Abb. 2.4: Lineare Abbildung und Matrixdarstellung: kommutatives Diagramm. Diagramm ist kommutativ . Insbesondere ist     dim Bild Φ = dim ΞB−12 ◦ A ◦ ΨB2 (V) = dim ΞB−12 ◦ A (Rn ) = dim A(Rn ) ,

d. h.

dim Bild Φ = Rang(A) .

(2.17)

2) Die in (2.13) definierte Darstellungsmatrix A ∈ R(m,n) für Φ ∈ Hom(V, W) ist eindeutig nach Wahl der Basen B1 in V bzw. B2 in W, aber abhängig von dieser Wahl. Um das zu betonen, schreiben wir auch A=

B2 [Φ]B1

.

Benutzt man die Notation B1 [u] statt ΨB1 (u) und analog für w, lautet die Beziehung also B2 [Φu]

= B2 [Φ]B1 B1 [u] .

3) Ist W = Rm und  B2 = [e1 , . . . , em ], also die Koordinatenabbildung auf W die Identität, dann ist bei A = a(1) , . . . , a(n) (Spaltendarstellung von A = [Φ]) gerade Φuµ = a(µ) , µ = 1, . . . , n ,

d. h. die Spalten von A sind gerade die Bilder der Basisvektoren aus B1 . Somit ist

2.2 Lineare Abbildungen und ihre Matrizendarstellung

Φu = Ax für u =

177 n X

x i ui .

(2.18)

i=1

Ist auch V = Rn und B1 = [e1 , . . . , en ], also auch die Koordinatenabbildung auf V die Identität, dann ist Φx = Ax ,

(2.19)

was (2.5) entspricht. Zumindest für V = Rn , W = Rm bei Wahl der Standardbasen wird demnach jede lineare Abbildung durch Matrix-Vektormultiplikation vermittelt, ansonsten kommt noch der Darstellungswechsel durch die Koordinatenabbildung dazu. LGS sind daher allgemeine Gleichungen, sofern nur lineare Abbildungen betrachtet werden. Φ ∈ Hom(Rn , Rm ) werden somit durch ihre Darstellungsmatrix A ∈ R(m,n) (bezüglich der Standardbasen) angegeben. 4) Die Darstellungs„matrix“ kann auch für unendlichdimensionale Vektorräume V oder W eingeführt werden. Ausgehend von geordneten Basen von V und W, d. h. Systemen, benutze man die Koordinatenabbildungen nach Seite 156 dazu. Soll auch 1) gelten, ist also A zu verstehen als eine verallgemeinerte „Matrix“ mit (eventuell sogar überabzählbar) unendlich vielen Spalten oder Zeilen, d. h. genauer A=

B2 [Φ]B1

= (aν,µ)ν∈B2 ,µ∈B1 ∈ Abb(B2 × B1 , R).

(2.20)

Theorem 2.24 gilt dann analog. Dabei sind in jeder „Spalte“ (aν,µ )ν∈B2 , µ ∈ B1 fest, nur endlich viele Einträge ungleich 0 und X Φµ = aν,µ ν für µ ∈ B1 . ν∈B2

Also gilt genauer A ∈ Abb(B1 , Abb0 (B2 , R)).

5) Man beachte immer die Abhängigkeit der Darstellungsmatrix von den gewählten Basen: Ist bei Φ ∈ Hom(V, W) W mit einem SKP( . ) und einer ONB {w1 , . . . , wm } versehen und V mit der Basis {u1 , . . . , un } ergibt sich die explizite Darstellung für die Darstellungsmatrix A ∈ R(m,n)   (2.21) ai, j = Φu j . wi , da Φu j =

Pm

i=1

ai, j wi =

 Pm  i=1 Φu j . wi wi nach Bemerkungen 1.110, 1).

Dies ergibt erneut bei V = Rn , W = Rm , Φx = Ax die Identität von Φ und die Darstellungsmatrix bei Wahl der Einheitsbasen, da diese in Rm eine ONB darstellt. Wählt man stattdessen auf Rn die Einheitsbasis, auf Rm aber die gewichtete Basis e˜ i := αi ei , i = 1, . . . , m mit αi > 0, so ist die Darstellungsmatrix dann

178

2 Matrizen und lineare Abbildungen

  e := diag α−1 A A. i

6) Der Isomorphie aus Theorem 2.24 entspricht die folgende Basis von Hom( V, W) (als Bild der Standardbasis von R(m,n) ): Seien B1 = [u1 , . . . , ], B2 = [w1 , . . . , ] Basen mit der Indexmenge I bzw. J von V bzw. W, dann sei w j ⊗ ui ∈ Hom(V, W) auf der Basis B1 (was nach Hauptsatz 2.23 reicht) definiert durch w j ⊗ ui (uk ) := δi,k w j

für i, k ∈ I, j ∈ J .

Im Sinn von 4) handelt es sich hier auch um eine Basis, wenn V oder W und damit Hom(V, W) unendlichdimensional sind. Die Koeffizienten sind gerade eindeutig durch die Komponenten der Darstellungsmatrix gegeben.

△ Beispiele 2.26 Hier bestimmen wir Darstellungsmatrizen zu linearen Abbildungen Rn → Rn bezüglich der Standardbasis (B1 = B2 = {e1 , . . . , en }). Nach (2.19) und Hauptsatz 2.23, 2) sind die Spalten der Darstellungsmatrix die Bilder der Einheitsvektoren. 1) Die Identität id : Rn → Rn , x 7→ x bildet jeden Vektor auf sich selbst Ihre Matrix ist die Einheitsmatrix  1 0  0 1   ..  . 0 1n =  .  .  .  .  ..  0 ···

ab, also auch die Standardbasis auf die Standardbasis.  · · · · · · · · · 0 ..  0 .   ..  .. . 1 .   .  = (δµ,ν )µ,ν=1,...,n . .. .. .. . . . ..   ..  . 1 0  ··· ··· 0 1

2) Es sei c ∈ R. Die Streckung Φ : Rn → Rn , x 7→ c · x bildet jeden Vektor eν auf c · eν ab. Ihre Matrix ist deswegen

(2.22)

2.2 Lineare Abbildungen und ihre Matrizendarstellung

179

   c 0 · · · · · · · · · 0  ..  0 c 0 .    . ..  .  . .. c .   . 0   . .  = (c · δµ,ν )µ,ν=1,...,n = c1n . .. .. ..  .. . . . ..    ..  ..  . c 0  .  0 ··· ··· ··· 0 c

Spezialfälle sind die Identität (c = 1), die Punktspiegelung am Nullpunkt (c = −1) und die Nullabbildung (c = 0). Diagonalmatrizen diag(ci ) mit individuellen Streckungsfaktoren ci , i = 1, . . . , n, für jede Komponente, wurden schon in Bemerkung 1.47 eingeführt. 3) Die Matrix λ1 0λ

!

für λ ∈ R beschreibt eine Streck-Scherung auf R2 .

4)

Die Matrix zu einer Rotation in der Ebene um den Winkel ϕ ist eine Drehmatrix ! c −s , s c wobei c := cos(ϕ), s := sin(ϕ) (vgl. Abbildung 2.2). Eine Verallgemeinerung als (n, n)-Matrix ist   1          G(ϕ, i, j) :=          

..

. 1 −s

c 1 ..

. 1

s

c 1 ..

. 1

            ,         

(2.23)

180

2 Matrizen und lineare Abbildungen

wobei die Einträge c, −s, s, c auf den Positionen (i, i), (i, j), ( j, i) und ( j, j) stehen. G heißt Givens3 -Rotation und beschreibt die Rotation von span(ei , e j ) um den Winkel ϕ. 5) Für jeden Einheitsvektor a, kak = 1, haben wir gesehen, dass die Spiegelung an der Hyperebene a⊥ durch x 7→ x − 2 (x . a) a gegeben wird. Dabei wird der Vektor eν auf eν − 2 (eν . a) a = eν − 2aν a = (δµ,ν − 2aν aµ )µ=1,...,n

(2.24)

abgebildet. Die zugehörige Matrix ist also H := (δµ,ν − 2aµ aν )µ,ν=1,...,n . Sie heißt auch Householder4 -Matrix. 6) Auch eine reine Vertauschung (als spezielle Permutation) von Basisvektoren definiert eine lineare Abbildung. So gehört z. B. zu der Vertauschung e1 ↔ e2 die Matrix  0 1   0   ..  .  .  ..  0

 · · · · · · 0  · · · · · · 0  ..  .. . 0 1 .   .  . .. .. .. . . . ..   ..  . 1 0  ··· ··· ··· 0 1 1 0

0 0

7) Es sei U ⊂ Rn ein m-dimensionaler Unterraum, der von einer ONB u1 , . . . , um aufgespannt wird. Die Orthogonalprojektion Φ auf diesen Unterraum ist nach Hauptsatz 1.102 und (1.88) gegeben durch PU (x) =

m  X µ=1

Sie bildet eν auf

m P

µ=1

 x . uµ uµ .

vµ,ν uµ ab (wobei uµ = (vµ,ν )ν ) und ihre Matrix ist   m  X  vµ,k vµ,l  µ=1

.

(2.25)

k,l=1,...,n



Bemerkung 2.27 In V = R2 mit dem euklidischen SKP lassen sich orthogonale Transformationen und damit Bewegungen vollständig charakterisieren: Nach den Beispielen in Abschnitt 2.1.2 sind Drehungen um einen Winkel ϕ (siehe auch Beispiele 2.26, 4) )bzw. Spiegelungen an einer Geraden (aufgefasst als Hyperebene) durch den Nullpunkt (siehe auch Beispiele 2.26, 5)) orthogonale Transformationen. Dies sind aber auch die einzigen. 3 4

James Wallace Jr. Givens ∗14. Dezember 1910 in Alberene bei Charlottesville †5. März 1993 Alston Scott Householder ∗5. Mai 1904 in Rockford †4. Juli 1993 in Malibu

2.2 Lineare Abbildungen und ihre Matrizendarstellung

181





Das kann man folgendermaßen einsehen: Sei A = a(1) , a(2) ∈ R(2,2) die Darstellungsmatrix (bezüglich der Standardbasis) einer orthogonalen Transformation. Dann sind a(1) = Ae(1) und a(2) = Ae(2) orthogonal und haben euklidische Länge 1. Setzen wir suggestiv ! c a(1) = für gewisse c, s, ∈ R mit s2 + c2 = 1 , s dann ist a(2) ∈ a(1)⊥ = span

! −s , c

da dim a(1)⊥ = 2 − 1 = 1. Wegen ka(2) k = 1 verbleiben nur die Möglichkeiten ! −s a(2) = λ für λ = ±1 , c also Fall 1:

A=

Fall 2:

A=

c −s s c

!

! c s . s −c

(2.26)

Wegen s2 + c2 = 1 gibt es ein ϕ ∈ [0, 2π], so dass s = sin(ϕ), s = cos(ϕ) .

Fall 1 beschreibt demnach die Drehungen (und schließt für ϕ = π die Punktspiegelung mit ein), Fall 2 beschreibt die Spiegelungen an einer Geraden: Darstellungsmatrizen von Spiegelungen sind vom Typ (2.26), denn nach (2.24) ist ihre Matrix ! 1 − 2a1 2 −2a1 a2 . (2.27) H= −2a1 a2 1 − 2a2 2 Durch direktes Nachrechnen bei Beachtung von a1 2 + a2 2 = 1 sieht man 1 − 2a1 2 = −(1 − 2a2 2 ) ,

(1 − 2a1 2 )2 + (2a1 a2 )2 = 1 .

Ist andererseits A vom Typ (2.26), so wählt man die (Spiegelungs-)Gerade als   span cos(ϕ/2), sin(ϕ/2) t , folglich als a⊥ mit

  cos a =  sin



 1 (ϕ + π)  2   1 2 (ϕ + π)

.

Die Gültigkeit von (2.27) folgt aus den trigonometrischen Identitäten für den Halbwinkel und aus ! ! 1 1 sin(ϕ) = −2 cos (ϕ + π) sin (ϕ + π) 2 2 (Übung).



182

2 Matrizen und lineare Abbildungen

2.2.2 Dimension und Isomorphie Theorem 2.28: Isomorphie = gleiche Dimension Seien V und W zwei R-Vektorräume und dim V = n < ∞. Dann sind äquivalent: (i) dim W = n

(ii) V  W.

Beweis: Sei B = {u1 , . . . , un } eine Basis von V.

„(i) ⇒ (ii)“: Es ist ein Isomorphismus Φ : V → W anzugeben. Seien w1 , . . . , wn eine Basis von W. Nach Hauptsatz 2.23 wird durch für i = 1, . . . , n

Φui = wi

eindeutig eine lineare Abbildung Φ : V → W definiert. Diese ist injektiv, denn für u = n P λi ui ∈ V gilt

i=1

Φu = 0



n X i=1

λi Φui =

n X i=1

λi wi = 0



λ1 = . . . λn = 0 ,

da Φ(B) linear unabhängig ist. Φ ist surjektiv, denn V wird von B aufgespannt und W = span(w1 , . . . , wn ) = span(Φu1 , . . . , Φun ) = Φ(span(u1 , . . . , un )) = Φ(V) . „(ii) ⇒ (i)“: Sei Φ ein Isomorphismus von V nach W, dann ist Φ(B) nach Satz 2.2 eine Basis von W und enthält n Elemente.  Bemerkung 2.29 Für endlichdimensionale R-Vektorräume V und W gilt also dim V = dim W ⇔ V  W . Allgemein ist dies falsch, es bleibt nur die Richtung „⇐“ gültig. Ist nämlich einer der beiden Räume V, W endlichdimensional, dann wegen der Isomorphie auch der Andere.

Insbesondere kann ein unendlichdimensionaler Vektorraum zu einem echten Unterraum isomorph sein, wie das Beispiel V := R[x],

U := {p ∈ R[x] : p(x) = xq(x), x ∈ R für ein q ∈ R[x]}

zeigt, da Φ : V → U, q 7→ p, wobei p(x) := xq(x), x ∈ R einen Isomorphismus darstellt. △ Ein Isomorphismus überträgt Basen und damit auch die Dimension, d. h. insbesondere ist in der Situation von Theorem 2.24

2.2 Lineare Abbildungen und ihre Matrizendarstellung

183

dim Hom(V, W) = m n . Andererseits impliziert gleiche (endliche) Dimension auch die Existenz eines Isomorphismus, in diesem Sinn also Identifizierbarkeit. Insbesondere ist deswegen Rn  R(1,n)  R(n,1) . So ist die bisher schon benutzte Identifikation (Bemerkungen 1.35, 1), 2)) zu verstehen, insbesondere ist t als Abbildung von R(1,n) nach R(n,1) ein Isomorphismus. Etwas allgemeiner folgt für einen n-dimensionalen R-Vektorraum V: Sei V ∗ := Hom(V, R) der Raum der Linearformen auf V, dann gilt dim V ∗ = dim V · 1 = dim V und damit V  V∗ . Linearformen werden später genauer betrachtet. Eine erste Anwendung liefert: *Bemerkung 2.30 (näherungsweise Integration) Eine Näherungsformel (Quadraturformel ) zur Bestimmung eines Integrals auf dem Intervall [a, b]: I( f ) :=

Zb

f (t)dt

a

hat die Gestalt In ( f ) :=

n X

mi f (ti )

i=1

für fest gewählte Stützstellen a ≤ t1 < t2 < . . . < tn ≤ b, wobei die Quadraturgewichte mi ∈ R, i = 1, . . . , n, so gewählt werden sollten, dass die Formel möglichst genau ist. Ein Kriterium ist die Forderung I( f ) = In ( f )

für alle

f ∈ Rn−1 [x] .

Es gibt eindeutig bestimmte Quadraturgewichte, so dass (2.28) gilt. Das kann man wie folgt einsehen: Man setzt V := Rn−1 [x] und

(2.28)

184

2 Matrizen und lineare Abbildungen Φi : V → R, f 7→ f (ti ) .

Dann sind I, Φi ∈ V ∗ , und (2.28) lautet I=

n X

(2.29)

mi Φ i ,

i=1

so dass es wegen dim V ∗ = dim V = n reicht nachzuweisen, dass Φ1 , . . . , Φn linear unabhängig in V ∗ und damit eine Basis von V ∗ sind: n X j=1

α jΦ j = 0 ⇔

n X j=1

α jΦ j( f ) = 0 ⇔

n X

α j f (t j ) = 0

für alle

j=1

f ∈V.

(2.30)

Betrachten wir speziell für f die Lagrange5 schen Basispolynome fi (t) :=

n Y k=1 k,i

t − tk , ti − tk

i = 1, . . . , n

(2.31)

die also gerade die Eigenschaft fi (t j ) = δi, j

für i = 1, . . . , n

haben, so impliziert sukzessives Einsetzen in (2.30) α1 = α2 . . . = αn = 0.

Insbesondere sind die Lagrange-Basispolynome in Rn−1 [x], definiert nach (2.31), linear unabhängig und damit eine Basis von Rn−1 [x], alternativ zur Monombasis nach (1.33). Sie haben allerdings den Nachteil, dass sie von den Stützstellen abhängig sind. Ihre lineare Unabhängigkeit lässt sich sofort einsehen:   n n X  X α j f j = 0 ⇒ αi =  α j f j  (ti ) = 0 für alle i = 1, . . . , n . j=1

j=1

Mit den Lagrangeschen Basispolynomen lassen sich die Gewichte mi auch berechnen, da nach Hauptsatz 2.23 die Identität (2.29) genau dann gilt, wenn I( f j ) =

n X

mi Φi ( f j ), j = 1, . . . , n

i=1

für eine Basis { f1 , . . . , fn }, was speziell für (2.31) bedeutet: m j = I( f j ) für alle

j = 1, . . . , n . △

5

Joseph-Louis de Lagrange ∗25. Januar 1736 in Turin †10. April 1813 in Paris

2.2 Lineare Abbildungen und ihre Matrizendarstellung

185

1.2 1.0 0.8 0.6 0.4 0.2 0 −0.2 −0.4 −0.6 0.0

0.5

1.0

1.5

2.0

2.5

3.0

3.5

4.0

Abb. 2.5: Lagrangesche Basispolynome für die Stützstellen ti = i, i = 0, . . . , 4.

In Erweiterung von Hauptsatz 1.85 folgt bei gleicher Dimension: Hauptsatz 2.31: injektiv = surjektiv bei gleicher endlicher Dimension Seien V und W zwei R-Vektorräume mit dim V = dim W = n < ∞. Sei Φ ∈ Hom(V, W). Dann sind äquivalent: (i) Φ ist Isomorphismus. (ii) Φ ist injektiv. (iii) Φ ist surjektiv.

Beweis: „(i)⇒(ii)“ ist klar und sonst wird das nachfolgende Theorem 2.32 benutzt. „(ii)⇒(iii)“: dim(W) = dim(V) = dim(Kern(Φ)) + dim(Bild(Φ)) = dim(Bild(Φ)) also Bild(Φ) = W nach Bemerkungen 1.77, 2). „(iii)⇒(i)“: dim(Bild(Φ)) = dim(W) = dim(V) = dim(Kern(Φ)) + dim(Bild(Φ)) also Kern(Φ) = {0} nach Bemerkungen 1.77, 2).



Allgemein können gewisse Aussagen, die sich nur auf Dimensionen von Matrizen beziehen, auf allgemeine Homomorphismen zwischen (endlichdimensionalen) Vektorräumen übertragen werden, indem auf Aussagen für Matrizen mit Hilfe einer Darstellungsmatrix von Φ zurückgegriffen wird. Als Beispiel diene die Dimensionsformel I (Theorem 1.82):

186

2 Matrizen und lineare Abbildungen

Theorem 2.32: Dimensionsformel I Seien V, W endlichdimensionale R-Vektorräume und Φ ∈ Hom(V, W). Dann gilt dim V = dim Kern Φ + dim Bild Φ .

Beweis: Sei dim V = n mit einer fixierten geordneten Basis B1 und analog dim W = m mit einer geordneten Basis B2 . Dann erfüllt die zugehörige Darstellungsmatrix A ∈ R(m,n) nach (2.16) Φ = ΞB−12 ◦ A ◦ ΨB1 , wobei ΨB1 : V → Rn , ΞB2 : W → Rm die jeweiligen Koordinatenabbildungen sind, also Isomorphismen. Damit ist u ∈ Kern Φ ⇔ ΨB1 u ∈ Kern A

bzw. ΨB1 (Kern Φ) = Kern A .

Deswegen ist dim Kern Φ = dim Kern A nach Theorem 2.28, da auch ΨB1 | Kern Φ : Kern Φ → Kern A ein Isomorphismus ist. Analog gilt w ∈ Bild Φ ⇔ ΞB2 w ∈ Bild A

bzw. ΞB2 (Bild Φ) = Bild A ,

und damit mit analoger Begründung dim Bild Φ = dim Bild A . Nach Theorem 1.82 (und Hauptsatz 1.80) gilt n = dim Kern A + dim Bild A und damit die Behauptung.



*Bemerkungen 2.33 1) Theorem 2.32 gilt auch für unendlichdimensionale Vektorräume und reduziert sich dort auf ∞ = ∞.

Wir greifen auf Aussagen aus Abschnitt 3.4 (die unabhängig von dieser Aussage sind) vor. Ist dim V = ∞, ist nur der Fall dim Bild Φ < ∞ und dim Kern Φ < ∞ auszuschließen. Nach Theorem 3.37 wäre dann auch V/ Kern Φ endlichdimensional und nach Satz 3.41 auch V .

2) Aus Theorem 2.32 ergibt sich sofort: Seien V, W endlichdimensionale R-Vektorräume, Φ ∈ Hom(V, W)

a) Ist dim(V) < dim(W), dann kann Φ nicht surjektiv sein.

2.2 Lineare Abbildungen und ihre Matrizendarstellung

187

Denn: dim(Bild(Φ)) = dim(V) − dim(Kern(Φ)) ≤ dim(V) < dim(W), also Bild(Φ) , W

b) Ist dim(V) > dim(W), dann kann Φ nicht injektiv sein. Denn: dim(Kern(Φ)) = dim(V) − dim(Bild(Φ)) > dim(W) − dim(Bild(Φ)) ≥ 0, also Kern(Φ) , {0}.

Insbesondere folgt damit nochmal die Existenz nichttrivialer Lösungen eines homogenen LGS bei m Zeilen, n Unbekannten, und n > m. △ *Bemerkung 2.34 Bei einem linearen (Gleichungs-)Problem mit gleicher Anzahl von Unbekannten und Bedingungen ist somit nach Hauptsatz 2.31 Existenz und Eindeutigkeit einer Lösung äquivalent. Das hat vielfältige Anwendungen, z. B. (Polynom-)Interpolation: Sei V ein n-dimensionaler linearer Vektorraum reellwertiger stetiger Funktionen auf [a, b], seien ∆ : a ≤ t1 < t2 < . . . < tn ≤ b fest vorgegebene Interpolationsstellen und dazu Werte y = (yi )i ∈ Rn . Gesucht ist ein f ∈ V, so dass f (ti ) = yi

für alle

i = 1, . . . , n .

(2.32)

f heißt dann eine Interpolierende zu den Daten (ti , yi ), i = 1, . . . , n bzw. zum Datenvektor y auf der Zerlegung ∆. Sei Φ : V → Rn definiert durch f 7→ ( f (ti ))i , dann ist Φ offensichtlich linear und es sind äquivalent zueinander: a) Existenz einer Lösung von (2.32) für alle y ∈ Rn , bzw. Surjektivität von Φ , b) Eindeutigkeit einer Lösung von (2.32) , bzw. Injektivität von Φ , bzw. f = 0 ist die einzige Lösung zu y = 0 . Damit reicht der Nachweis von a) oder b), um die eindeutige und universelle Lösbarkeit von (2.32) zu sichern. Bei V = Rn−1 [x] (Polynominterpolation ) ist daher zum Beispiel für f ∈ Rn−1 [x] zu zeigen f (ti ) = 0 für i = 1, . . . , n ⇒ f = 0 . Das folgt aus dem Nullstellensatz für Polynome (siehe Satz B.21, 3)). Damit ist für gegebenes y ∈ Rn die Lösung f ∈ V noch nicht angegeben. Die Gleichung Φ( f ) = y wird nach (2.18) durch Festlegung einer Basis f1 , . . . , fn von V zu einem LGS Ax = y , wobei sich die Spalten von A ergeben als

188

2 Matrizen und lineare Abbildungen

a(i) = Φ( fi ) = ( fi (t j )) j

(2.33)

mit x als Koeffizientenvektor, d. h. f =

n X

xi fi .

i=1

Wenn f1 , . . . , fn so gewählt werden, dass A = 1n (siehe (2.22)) gilt, ist natürlich x = y. Bei (2.33) bedeutet dies fi (t j ) = δi, j

für i, j = 1, . . . , n .

(2.34)

Bei der Polynominterpolation sind dies gerade die Lagrangeschen Basispolynome nach (2.31). Mit den Lagrangeschen Basispolynomen fi , i = 1, . . . , n lässt sich also die eindeutige Interpolierende f angeben durch f (t) =

n X i=1

yi fi (t), t ∈ [a, b]

(2.35)

Im Raum S 1 (∆) (siehe (1.30)) erfüllen die Hutfunktionen (siehe (1.36)-(1.37)) auch (2.34). Die Interpolierende hat eine Darstellung analog zu (2.35), nur dass hier die Interpolationsstellen und Basisfunktionen von 0 bis n indiziert sind. Auf diese Weise ist die (universelle) Existenz einer Lösung von (2.32) geklärt und damit auch die eindeutige Existenz. △

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • Darstellungsmatrix

Zusammenhänge • • • • •

Prinzip der linearen Ausdehnung (Hauptsatz 2.23) Homomorphismen = Matrizen im Endlichdimensionalen (Theorem 2.24) Isomorphie = gleiche endliche Dimension (Theorem 2.28) injektiv = surjektiv bei gleicher endlicher Dimension (Hauptsatz 2.31) Dimensionsformel I (Theorem 2.32)

Beispiele • Darstellungsmatrix von Drehung, Spiegelung, Orthogonalprojektion • Raum der Linearformen V ∗

Aufgaben

189

Aufgaben Aufgabe 2.6 (T) Seien V, W zwei R-Vektorräume. Zeigen Sie, dass auf Hom(V, W) durch (2.15) Verknüpfungen definiert werden und Hom(V, W) mit diesen Verknüpfungen ein R-Vektorraum ist. Aufgabe 2.7 (T) Man verallgemeinere die Suche nach einer Quadraturformel aus Bemerkung 2.30 auf die Forderung (Notation wie dort) I( f ) = In ( f ) für alle f ∈ Vn . Dabei ist Vn ein n-dimensionaler Funktionenraum mit Basis f1 , ..., fn . a) Schreiben Sie diese Forderung als äquivalentes LGS für die Gewichte m1 , ..., mn . b) Die Stützstellen seien ti = a + (i − 1)h ,

h := (b − a)/(n − 1) ,

i = 1, ..., n .

(2.36)

Formulieren Sie diese LGS für die Fälle: (i) (ii) (iii) (iv)

Vn = Rn−1 (x) mit lagrangeschen Basispolynomen, Vn = Rn−1 (x) mit Monombasis, Vn−1 = S 0 (∆) mit Basis nach (1.34) – ∆ entspricht den Stützstellen –, Vn = S 1 (∆) mit Basis nach (1.36) - (1.37).

Was können Sie über die eindeutige Lösbarkeit der LGS aussagen und wo können Sie die Lösung angeben (bei (i) reicht n = 3: Kepler6 sche Fassregel)? c) Bei V3 = R2 (x) ergibt sich ein spezielles Phänomen: Berechnen Sie für f (t) = t3 I( f ) − I3 ( f ) . Was folgern Sie hieraus? Hinweis: (i) Für Integrale gilt: Zb a

f (t) dt = (b − a)

Z1 0

 f (b − a)s + a ds .

(ii) Sind fi die Lagrange-Basispolynome auf [a, b] zu ti nach (2.36), dann sind  gi (s) := fi (b − a)s + a die Lagrange-Basispolynome auf [0, 1] zu si := (i − 1)/(n − 1), i = 1, ..., n. (Begründung?)

Aufgabe 2.8 (K) Es sei V = R2 [x] der R-Vektorraum der Polynome vom Grad ≤ 2. Bestimmen Sie eine Matrix zur linearen Abbildung Φ : V → V, f → ddxf , bezüglich a) der Basis 1, x, x2 ∈ V, b) der Basis (x − 1)2 , x2 , (x + 1)2 ∈ V. 6

Johannes Kepler ∗27. Dezember 1571 in Weil der Stadt †15. November 1630 in Regensburg

190

2 Matrizen und lineare Abbildungen

Aufgabe 2.9 (K) Es sei V der Vektorraum der reellen, symmetrischen zweireihigen Matrizen und ! ab A= ∈V. bc Der Homomorphismus ϕ : V → V sei definiert durch ϕ(S ) := At S A. Man berechne die Darstellungsmatrix von ϕ bezüglich der Basis ! ! ! 10 01 00 S1 = , S2 = , S3 = 00 10 01 von V.

2.3 Matrizenrechnung

191

2.3 Matrizenrechnung

2.3.1 Matrizenmultiplikation Seien U, V, W drei R-Vektorräume, Φ ∈ Hom(U, V) und Ψ ∈ Hom(V, W). Dann ist Ψ ◦ Φ nicht nur eine Abbildung von U nach W, sondern wie schon in (2.4) erwähnt auch linear: (Ψ ◦ Φ)(c1 u1 + c2 u2 ) = Ψ (Φ(c1 u1 + c2 u2 )) = Ψ (c1 Φ(u1 ) + c2 Φ(u2 )) = c1 Ψ ◦ Φ(u1 ) + c2 Ψ ◦ Φ(u2 ) .

Also: Ψ ◦ Φ ∈ Hom(U, W) . Diese Verknüpfung von Homomorphismen führt zu einer Verknüpfung der Darstellungsmatrizen: Theorem 2.35: Darstellungsmatrix von Kompositionen Seien U, V, W drei R-Vektorräume mit Basen B1 = {u1 , . . . , un }, B2 = {u1 , . . . , um } und B3 = {w1 , . . . , wl } für n, m, l ∈ N. Hat Φ ∈ Hom(U, V) (nach (2.13)) die Darstellungsmatrix B=

B2 [Φ]B1

= (bµ,ν ) ∈ R(m,n) ,

Ψ ∈ Hom(V, W) die Darstellungsmatrix A=

B3 [Ψ ]B2

= (aλ,µ ) ∈ R(l,m) ,

dann hat Ψ ◦ Φ die Darstellungsmatrix C=

B3 [Ψ

◦ Φ]B1 = (cλ,ν ) ∈ R(l,n) , wobei cλ,ν =

m P

µ=1

aλ,µ bµ,ν .

Beweis: Es ist Φ(uν ) =

m X µ=1

und somit

bµ,ν uµ ,

Ψ (uµ ) =

l X λ=1

aλ,µ wλ

(2.37)

192

2 Matrizen und lineare Abbildungen

 m  l X m l X X  X  (Ψ ◦ Φ)(uν ) = Ψ  bµ,ν uµ  = aλ,µ bµ,ν wλ = cλ,ν wλ .7 µ=1

λ=1 µ=1

λ=1



Durch (2.37) wird also insbesondere einem A ∈ R(l,m) und einem B ∈ R(m,n) ein C ∈ R(l,n) zugeordnet. Diese Verknüpfung führt zu: Definition 2.36 Seien n, m, l ∈ N und A ∈ R(l,m) , B ∈ R(m,n) gegeben. Das Matrixprodukt AB ∈ R(l,n) wird definiert als AB = C = (cλ,ν)λ,ν m X mit cλ,ν = aλ,µ bµ,ν . µ=1

In suggestiverer Schreibweise gilt also B3 [Ψ

◦ Φ]B1 = B3 [Ψ ]B2 B2 [Φ]B1

wobei Bi , i = 1, 2, 3, beliebige Basen sind. Für B = (b) ∈ R(m,1)  Rm ist das gerade das Matrix-Vektor-Produkt Ab. Hat B die Spaltendarstellung B = (b(1) , . . . , b(n) ), dann   AB = Ab(1) , . . . , Ab(n) ,

so dass die Berechnung von AB durch n Matrix-Vektor-Produkte geschieht. Man berechnet also entweder oder

• n Linearkombinationen von m Vektoren im Rl (spaltenweise Sicht) • n-mal l Skalarprodukte in Rm (zeilenweise Sicht).

Die zweite Sichtweise bedeutet somit die Spaltendarstellung     AB = a(ν) . b(1) , . . . , a(ν) . b(n) , ν

ν

wobei a(1) , . . . , a(l) die Zeilen von A bezeichnen und damit die Zeilendarstellung

7

Zu dieser Umformung siehe Anhang (B.5).

2.3 Matrizenrechnung

193

 t   a(1) B    AB =  ...  .  t  a(l) B

(2.38)

Dies entspricht der Handrechenregel „Zeile·Spalte“: Der Eintrag cλ,ν wird dadurch erhalten, dass die λ-te Zeile von A, d. h. a(λ) und die ν-te Spalte von B, d. h. b(ν) „aufeinandergelegt, komponentenweise multipliziert und dann addiert werden“:   cλ,ν = a(λ) . b(ν) . (2.39) Für Darstellungsmatrizen entspricht das Matrixprodukt nach Theorem 2.35 der Komposition der Homomorphismen. Ist daher speziell U = Rn , V = Rm , W = Rl und werden immer Standardbasen betrachtet, d. h. Φ : Rn → Rm gegeben durch Φx = Bx , Ψ : Rm → Rl gegeben durch Ψ y = Ay ,

dann gilt für die Komposition Ψ ◦ Φ : Rn → Rl (Ψ ◦ Φ)x = ABx . Bemerkungen 2.37 1) Mit der Matrixmultiplikation lassen sich auch Zeilen und Spalten einer Matrix darstellen: Sei A ∈ R(m,n) , A = (a(1) , . . . , a(n) ) die Spaltendarstellung und A = (a(1) , . . . , a(m) )t die Zeilendarstellung. Dann ist schon direkt aus Definition 1.45 klar, dass a( j) = Ae j

für

j = 1, . . . , n

und aus (2.38) folgt mit 1m an Stelle von A, A an Stelle von B at(i) = eti A

für i = 1, . . . , m .

und damit gilt insbesondere A = A1n = 1m A , d. h. die Einheitsmatrix ist neutrales Element bezüglich der Multiplikation. 2) In Fortführung von (1.42) lässt sich bei einer verträglichen Partitionierung von A ∈ R(l,m) , B ∈ R(m,n)

194

2 Matrizen und lineare Abbildungen

A=

!

B B A1,1 A1,2 , B = 1,1 1,2 A2,1 A2,2 B2,1 B2,2

!

Die Berechnung von AB auf das Rechnen mit (2, 2) Matrizen mit Matrizen-Einträgen zurückführen: ! A1,1 B1,1 + A1,2 B2,1 A1,1 B1,2 + A1,2 B2,2 AB = . A2,1 B1,1 + A2,2 B2,1 A2,1 B1,2 + A2,2 B2,2

(2.40)

3) Auch für eventuell unendlichdimensionale Vektorräume U, V, W gilt der Zusammenhang aus Theorem 2.35 zwischen Komposition von Φ ∈ Hom(U, V), Ψ ∈ Hom(V, W) auf der einen und einer Multiplikation ihrer verallgemeinerten Darstellungsmatrix nach (2.20), d. h. für C := cλ,ν =

B3 [Ψ

X

◦ Φ]B1 = (cλ,ν )λ∈B3 ,ν∈B1 aλ,µ bµ,ν

µ∈B2

für A = (aλ,µ ) = B3 [Ψ ]B2 , B = (bµ,ν ) = B2 [Φ]B1 . Die Summe ist wohldefiniert, da für jedes ν ∈ B1 nur endlich viele bµ,ν ungleich 0 sind, und nur für endlich viele λ ∈ B3 ist cλ,ν ungleich 0, da dies für aλ,µ für alle µ ∈ B2 gilt. Ohne diese Bedingung ist C in Abb(B3 × B1 , R). Die nachfolgenden Eigenschaften (2.41), (2.43) und (2.44) gelten auch hier. 4) Die Multiplikation (auch im allgemeinen Sinn von 3)) ist also so eingeführt worden, dass das folgende Diagramm kommutativ ist:



Hom(V, W) × Hom(U, V)

B3 [. ]B2

× B2 [. ]B1

R(l,m) × R(m,n)

Hom(U, W)

B3 [. ]B1

·

R(l,n)

Abb. 2.6: kommutatives Diagramm △

2.3 Matrizenrechnung

195

Eigenschaften der Komposition von Homomorphismen übertragen sich also sofort auf das Matrixprodukt. Es seien Ξ ∈ Hom(T, U), Φ ∈ Hom(U, V), Ψ ∈ Hom(V, W), für R-Vektorräume V, W, T und U und es seien A ∈ R(l,m) , B ∈ R(m,n) , C ∈ R(n,p) für l, m, n, p ∈ N (und analog für indizierte Größen). Dann gilt allgemein (ohne Linearität) Ψ ◦ (Φ ◦ Ξ) = (Ψ ◦ Φ) ◦ Ξ und damit (Assoziativität).

A(BC) = (AB)C

(2.41)

Insbesondere ist A(Bx) = (AB)x für

x ∈ Rn ,

was sich auch direkt aus der Definition der Komposition ergibt. Bemerkung 2.38 Für A ∈ R(n,n) kann daher die k-te Potenz definiert werden durch A0 := 1, Ak := AAk−1

für k ∈ N .

(2.42)

Aus (2.41) ergeben sich dann die Rechenregeln Ak Al = Ak+l , (Ak )l = Akl

für k, l ∈ N .

Insbesondere kann ausgehend von einem Polynom p ∈ Rk [x] ,p(x) =

ν = 0, . . . , k und A ∈ R(n,n) das Matrixpolynom p(A) :=

k X ν=0

k P

ν=0

aν xν mit aν ∈ R,

aν Aν ∈ R(n,n)

gebildet werden. Dies wird in Kapitel 4 weiter untersucht werden.



Die Addition und die Skalarmultiplikation machen aus Hom(V, W) bzw. R(m,n) einen RVektorraum. Diese Operationen sind mit Komposition bzw. Matrixmultiplikation verträglich: Es gilt (auch ohne Linearität der Abbildungen) (Ψ1 + Ψ2 ) ◦ Φ = Ψ1 ◦ Φ + Ψ2 ◦ Φ und (wegen der Linearität von Ψ ) Ψ ◦ (Φ1 + Φ2 ) = Ψ ◦ Φ1 + Ψ ◦ Φ2 . Damit ist

196

2 Matrizen und lineare Abbildungen

(A1 + A2 )B = A1 B + A2 B A(B1 + B2 ) = AB1 + AB2

(Distributivität)

(2.43)

und schließlich für λ ∈ R: (λΨ ) ◦ Φ = λ(Ψ ◦ Φ) = Ψ ◦ (λΦ) und damit (λA)B = λAB = A(λB) .

(2.44)

Ein Skalar kann folglich beliebig durch ein Matrixprodukt wandern. Außerdem haben wir schon gesehen, dass das Matrixprodukt das Matrix-Vektor-Produkt und dieses wieder das Skalarprodukt als Spezialfall enthält. Man beachte aber, dass das Skalarprodukt kommutativ ist, (a . b) = (b . a) , was für das allgemeine Matrixprodukt, auch für l = m = n, wenn beide AB ∈ R(n,n) und BA ∈ R(n,n) im gleichen Raum existieren, nicht gilt: Im Allgemeinen ist AB , BA . Wir berechnen dafür als Beispiel ! a1 a 0 a2 ! b1 b 0 b2

! a b b1 b = 1 1 0 b2 0 ! b a a1 a = 1 1 0 a2 0

! a1 b + ab2 , a2 b2 ! b1 a + ba2 . b2 a2

Im Allgemeinen (z. B. wenn a = b = 1 und a1 + b2 , a2 + b1 ) unterscheiden sich die beiden Dreiecksmatrizen durch ihren Eintrag rechts oben. Die Räume Hom(V, V) für einen R-Vektorraum V bzw. R(n,n) haben somit bezüglich Addition und Skalarmultiplikation eine R-Vektorraumstruktur, und erfüllen auch bezüglich Addition und Komposition bzw. Matrizenmultiplikation: (1) Für die Addition: Kommutativität, Assoziativität, Existenz eines neutralen und von inversen Elementen. Später werden wir dies ausdrücken durch:   (Hom(V, V), +) bzw. R(n,n) , + ist eine abelsche Gruppe 8.

8

siehe Definition B.7 ff. und Definition 3.1 ff.

2.3 Matrizenrechnung

197

(2) Für die Komposition bzw. (Matrix-) Multiplikation: Gilt (davon nur) die Assoziativität:   (Hom(V, V), ◦) bzw. R(n,n) , · ist eine Halbgruppe.

(3a) Es gibt ein neutrales Element bezüglich der Komposition/Multiplikation, nämlich die Identität bzw. die Einheitsmatrix. (3b) Es gelten die Distributivgesetze (2.43). Insgesamt:   (Hom(V, V), +, ◦) bzw. R(n,n) , +, · bildet einen (nicht kommutativen) Ring .

Liegt also wie hier sowohl Vektorraumstruktur und Ringstruktur vor und sind die RingMultiplikation und die Skalarmultiplikation verträglich im Sinn von (2.44), so spricht man von einer R-Algebra (siehe Definition 3.17). Vergleicht man mit den algebraischen Eigenschaften etwa von (R, +, ·), so fehlt die Existenz von (multiplikativ) inversen Elementen für Elemente ungleich 0. Als Ring ist also (Hom(V, V), +, ·) eher vergleichbar mit den ganzen Zahlen (Z, +, ·). Beispiele 2.39 (Beispiele für Matrizenmultiplikation)

1) Ist 1m die m × m-Einheitsmatrix und A ∈ R(m,n) , so ist wegen Φ ◦ id = id ◦Φ = Φ, wie schon in Bemerkungen 2.37, 1) gesehen, 1m A = A1n = A . 2) Sind G(α) und G(β) die Drehmatrizen    cos(α) − sin(α)   ,  sin(α) cos(α) so ist das Produkt

   cos(β) − sin(β)   ,  sin(β) cos(β)

   cos(α) cos(β) − sin(α) sin(β) − cos(α) sin(β) − sin(α) cos(β)    G(α)G(β) =  sin(α) cos(β) + cos(α) sin(β) − sin(α) sin(β) + cos(α) cos(β)    cos(α + β) − sin(α + β)   = G(α + β)  (2.45) =  sin(α + β) cos(α + β)

198

2 Matrizen und lineare Abbildungen

die Drehmatrix zum Winkel α + β. Dieses Ergebnis ist eine direkte Konsequenz der Additionstheoreme für die Winkelfunktionen. Für feste i, j gilt für G(α, i, j), G(β, i, j) ∈ R(n,n) eine analoge Aussage. Für Drehmatrizen ist demnach die Multiplikation kommutativ. 3) Das Produkt unterer (oberer) Dreiecksmatrizen ist eine untere (obere) Dreiecksmatrix. Die Diagonalelemente des Produkts sind die Produkte der Diagonalelemente. Sind die Matrizen normiert, d. h. die Diagonaleinträge alle 1, so ist also auch das Produkt normiert. Das kann man wie folgt einsehen (siehe auch das obige Beispiel für Nichtkommutativität der Produktbildung): Es genügt, etwa untere Dreiecksmatrizen zu betrachten. Seien A, B ∈ R(n,n) mit ai, j = 0 für j > i, b j,k = 0 für k > j. Dann ist (AB)i,k =

n X

ai, j b j,k =

j=1

i X

ai, j b j,k

(2.46)

j=k

und damit (AB)i,k = 0 für k > i, d. h. AB ist untere Dreiecksmatrix. Insbesondere (AB)i,i = ai,i bi,i und aus ai,i = bi,i = 1 folgt (AB)i,i = 1 .

4) Für eine quadratische Diagonalmatrix D = diag(λi ) ∈ R(n,n) gilt D2 = diag(λ2i ) und damit Dk = diag(λki ) .

(2.47)

Aus der Analysis ist bekannt: Für |λ| < 1 konvergiert λk gegen 0 für k → ∞ , Für λ > 1 divergiert λk gegen ∞ für k → ∞ , Für λ < −1 divergiert |λ|k gegen ∞ für k → ∞ und λk oszilliert. Somit gilt für x ∈ Rn |(Dk x)i | ist „klein“ für |λi | < 1 und „große“ k , |(Dk x)i | ist „groß“ für |λi | > 1 und „große“ k . Stellen wir uns die Folge x, Dx, D2 x, . . . , Dk x als das Ergebnis eines zeitdiskreten Prozesses vor, klingt der Einfluss von xi für |λi | < 1 mit der Zeit ab und einen Grenzwert in einer Komponente i gibt es nur für −1 < λi ≤ 1. Für λi = −1 oszilliert die Komponente. In Kapitel 4 wird untersucht werden, welche Abbildungen durch gleichen Basiswechsel in Ausgangs- und Zielraum auf Diagonalgestalt gebracht werden können. Die in der Diagonalmatrix auftretenden Eigenwerte der Matrix beschreiben sodann im obigen Sinn das Langzeitverhalten der iterierten Abbildung. ◦

2.3 Matrizenrechnung

199

2.3.2 Tensorprodukt von Vektoren und Projektionen Mit den obigen Eigenschaften der Matrizenmultiplikation können wir die Darstellungsmatrix der Spiegelung aus (2.24) schreiben als A = 1n − 2aat ,

(2.48)

denn für x ∈ Rn gilt:

  x − 2 (x . a) a = x − 2a (a . x) = x − 2a(at x) = 1n − 2aat x .

Sind allgemeiner a ∈ Rm , b ∈ Rn und damit auch a ∈ R(m,1) , bt ∈ R(1,n) , so ist das Matrixprodukt abt ∈ R(m,n) (nicht mit Skalarprodukt verwechseln!) definiert: Definition 2.40 Seien a ∈ Rm , b ∈ Rn . Dann wird das dyadische Produkt oder Tensorprodukt a ⊗ b von a und b definiert als a ⊗ b := abt ∈ R(m,n) , somit bei a = (aµ ), b = (bν ) a ⊗ b = (aµ bν )µν . Für A = a ⊗ b gilt: Ist a = 0 oder b = 0, dann ist A = 0 (die Nullmatrix). Andererseits ist der Zeilenraum von A = Rb für a , 0 , Spaltenraum von A = Ra für b , 0 ,

(2.49)

also insbesondere ist Rang(A) = 1 für a , 0 und b , 0. Ist andererseits A ∈ R(m,n) mit Rang(A) = 1, dann gibt es a ∈ Rm und b ∈ Rn ,a , 0, b , 0, so dass A= a⊗b, Denn wegen Spaltenrang = 1 sind alle Spalten a( j) , j = 1, . . . , n Vielfache von einer Spalte a := a(k) , 0 für ein k ∈ {1, . . . , n} sind, also ist a( j) = b j a und bk = 1. Solche Matrizen heißen daher auch Rang-1-Matrizen . Bemerkungen 2.40a Mit dem dyadischen Produkt lässt sich einfach das Produkt beliebiger Matrizen darstellen: Sei A ∈ R(m,n) , B = (bi, j ) ∈ R(n,p) und A = (a(1) , . . . , a(n) ), d. h. die Spaltendarstellung und B = (b(1) , . . . , b(n) )t , d. h. die Zeilendarstellung. Dann gilt:

200

2 Matrizen und lineare Abbildungen

1) Sei k ∈ N, k ≤ min(m, n). Rang(A) ≤ k genau dann, wenn p ≤ k Rang-1-Matrizen Ai existieren, sodass A=

p X

Ai .

i=1

Es sei A , 0. „⇒“: Es gibt a1 , . . . , a p ∈ {a(1) , . . . a(n) }, sodass sich die Spalten von A als Linearkombinationen der ai , i = 1, . . . , p schreiben lassen und keine der Spalten weggelassen werden kann, d.h. es gibt ein B ∈ R(k,n) , sodass   p p X  X al,i b(l), j  A = (a1 , . . . , a p )B = (0, . . . , al , 0 . . .)B =  l=1

l=1

=

p X

al bt(l) =

l=1

p X l=1

al ⊗ b(l) =:

p X

i, j

Al .

l=1

Da gilt b(l) , 0, ist Al eine Rang-1-Matrix. Ist also Rang(A) = k, gilt die Darstellung mit p = k. Pp Ai , Rang(Ai ) = 1. Mehrfache Anwendung von Bemerkung 1.81a liefert dann „⇐“: Sei A = i=1 Rang(A) ≤

2) AB =

p X 1=1

Rang(Ai ) = p ≤ k .

p n X X i=1 j=1

wobei e j ∈ R die Standardbasis sei. p

Offensichtlich ist A =

gilt also A =

Pn

i=1

Pn

i=1 (0, . . . ,

bi, j a(i) ⊗ e j ,

a(i) , 0, . . . , 0), wobei a(i) die i-te Spalte darstellt und wegen

(0, . . . , a(i) , 0, . . . , 0) = a(i) ⊗ e j

mit e j ∈ Rn

a(i) ⊗ e j . Damit folgt bei analoger Betrachtung für B:   p  n   X ( j) X (i)    a ⊗ ei   AB =  b ⊗ e j  mit ei ∈ Rn , e j ∈ R p i=1

=

p n X X

j=1

a(i) eti b( j) etj =

i=1 j=1

p n X X i=1 j=1

3) AB =

n X i=1

Analog zu 1) ist

bi, j a(i) ⊗ e j .

a(i) ⊗ b(i)

2.3 Matrizenrechnung

201

   0   .   ..  X n  n X  t  b B= = ei ⊗ b(i)  (i)   0  i=1 i=1     .  ..  P P  P Pn (i) n n t (i) t und damit AB = ni=1 a(i) ⊗ ei i, j=1 a ei e j b j = i=1 a ⊗ b(i) . j=1 e j ⊗ b j =

Weiter gilt für Kern A nach (1.70) wegen (2.49) bei a , 0: Kern A = b⊥ .



(2.50)

Mit dem Tensorprodukt lässt sich auch die Orthogonalprojektion auf einen Unterraum U ⊂ Rn mit der ONB u1 , . . . , ur ausdrücken (siehe (1.88) bzw. (2.25) oder auch Bemerkungen 1.106, 4)) als  r  X   PU (x) =  uµ ⊗ uµ  x µ=1

bzw. die Darstellungsmatrix als

A=

r P

µ=1

uµ ⊗ uµ = VV t ,

(2.51)

wobei V := (u1 , . . . , ur ) ∈ R(n,r) aus den ui als Spalten zusammengesetzt wird. Insbesondere ist daher für u ∈ Rn , kuk = 1 , A=u⊗u die Orthogonalprojektion auf die Gerade Ru und aus solchen Projektionen setzt sich im Fall einer ONB die Orthogonalprojektion additiv zusammen. Beispiel 2.41 (Geometrie) Betrachten wir genauer orthogonale Projektionen auf Geraden U = Rb (d. h. durch 0) mit kbk = 1 und dazu U ⊥ = b⊥ , d. h. eine allgemeine Hyperebene (durch 0). Dann ist PU (x) = b ⊗ b x ,

somit

PU⊥ (x) = (1 − b ⊗ b) x .

(2.52)

Entsprechend tauschen sich die Rollen von U und U ⊥ für eine Hyperebene U (durch 0). Ist A = a + U für ein a ∈ Rn und U = Rb mit kbk = 1, d. h. eine allgemeine Gerade, dann ist PA (x) = PU (x) + PU⊥ (a) = b ⊗ b x + (1 − b ⊗ b)a .

202

2 Matrizen und lineare Abbildungen

Der Lotvektor von x auf die Gerade A, d. h. von x zum Lotfußpunkt PA (x) ist daher nach (1.78) PA (x) − x = PU⊥ (a − x) = (1 − b ⊗ b)(a − x) , und damit wird d(x, A) = k(1 − b ⊗ b)(x − a)k = (kx − ak2 − | (x − a . b) |2 )1/2 . Entsprechend ist eine allgemeine Hyperebene in Hessescher Normalform gegeben durch A = a + b⊥ = {y ∈ Rn : (y . b) = α} mit α := (a . b) und dann gilt PA (x) = (1 − b ⊗ b)x + b ⊗ b a = (1 − b ⊗ b)x + α b .

(2.53)

Der Lotvektor von x auf die Hyperebene A ist also nach (1.78) PA (x) − x = PU⊥ (a − x) = (b ⊗ b)(a − x) = (− (x . b) + α)b , und damit wird d(x, A) = | (x . b) − α| . Das Vorzeichen von (x . b) − α gibt an, in welchem der beiden Halbräume (vgl. Definition 6.10) H1 := {x ∈ Rn : (x . b) ≤ α},

H2 := {x ∈ Rn : (x . b) ≥ α}

x liegt.



Über die orthogonale Projektion hinaus können auch andere Projektionen auf U bzw. A (linear für einen linearen Unterraum, affin-linear (gemäß Definition 2.136) für einen affinen Unterraum) definiert werden, wobei:

Definition 2.42 Seien U ⊂ V zwei R-Vektorräume. P ∈ Hom(V, V) heißt Projektion auf U, wenn U = Bild P und P(u) = u für alle u ∈ U

2.3 Matrizenrechnung

203

bzw. äquivalent P ◦ P = P und U = Bild P gilt. Eine Projektionsmatrix A ∈ R(n,n) wird auch idempotente Matrix genannt. Entsprechend heißt ein F = a+Φ Projektion auf B = a + U, wenn U = Bild Φ und F◦F =F. Für eine Projektion auf einen linearen Unterraum U gilt: id −P

ist eine Projektion ,

da (id −P) ◦ (id −P) = id −P − P + P ◦ P = id −P

und

Kern P = Bild(id −P) , da P(x − Px) = Px − P ◦ Px = 0 für x ∈ V und y ∈ Kern P impliziert y = y − Py.

Also: Ist P eine Projektion auf Bild P, dann ist

id −P eine Projektion auf Kern P . Eine Projektion P1 hat also eine Projektion P2 zur Folge, so dass P1 + P2 = id V = U1 ⊕ U2 ,

(2.54)

wobei U1 = Bild P1 = Kern P2 , U2 = Bild P2 = Kern P1 . Denn V = U1 + U2 folgt aus P1 + P2 = id. Sei P := Pi , i = 1, 2. Diese Zerlegung ist direkt, da für w = Pu ∈ Kern P ∩ Bild P gilt: 0 = Pw = P ◦ Pu = Pu = w .

Es hätte auch mit Theorem 2.32 argumentiert werden können.

Andererseits erzeugt jede direkte Zerlegung V = U1 ⊕ U2 ein solches Paar von Projektionen, indem für x = x1 + x2 ∈ V mit xi ∈ Ui wegen der Eindeutigkeit der Darstellung definiert werden kann: Pi x := xi .

(2.55)

204

2 Matrizen und lineare Abbildungen

Pi erfüllt offensichtlich Pi ◦ Pi = Pi und ist auch linear, denn seien x = x1 + x2 , y = y1 + y2 die eindeutigen Zerlegungen, d. h. Pi x := xi ,

Pi y := yi ,

so ist (x1 + y1 ) + (x2 + y2 ) die eindeutige Zerlegung von x + y, damit Pi (x + y) = xi + yi = Pi x + Pi y

und analog für die Skalarmultiplikation.

Wegen der Fehlerbeziehung x − P1 x ∈ U 2 nennt man P1 auch eine Projektion auf U1 längs U2 und analog für P2 . Sei V ein R-Vektorraum mit SKP. Eine orthogonale Projektion auf U ist somit durch Kern P = Bild(1 − P) ⊂ U ⊥ gekennzeichnet. Dann folgt auch Kern P = U ⊥ ,

(2.56)

da für u ∈ U ⊥ gilt: u − 0 ⊥ U und deswegen Pu = 0.

Ein Tensorprodukt a ⊗ a für kak = 1 ist nach (2.52) die Matrix der orthogonalen Projektion auf Ra. Allgemein beschreibt die Matrix A = a ⊗ b eine Projektion auf Bild A = Ra , falls (a . b) = 1 . Denn: a ⊗ b a ⊗ b = abt abt = (a . b) a ⊗ b.

Für beliebige a ∈ Rn , b ∈ Rn mit (a . b) , 0 ist demnach P :=

1 a⊗b (a . b)

(2.57)

die Matrix einer Projektion auf Ra und daher ist P a := 1 −

1 a⊗b (a . b)

(2.58)

die Projektionsmatrix auf Kern P = b⊥ (nach (2.50)). Sie hat die Eigenschaft P a x − x ∈ Bild P = Ra , beschreibt also die Projektion auf die Hyperebene b⊥ in Richtung von a (siehe Abbildung 2.7).

2.3 Matrizenrechnung

205



✚ ✚ b⊥ ✚ ✚ ❅ ✚ ❅ ✚ ❅ ✚ ✚ ✁✕ ❅ ✚✁ a ❅ ✚ ✁ ✕ ✁ ❅ ✁ ✚✚ ✏ Pa x ✁ ■ ❅ ❅ ✏✶ x b ❅ ✏ ✁ ✚ ✏ ❅ ✚✏ ❅ ✲ ❅✏ ✁ ❅ ✚ ✚ ❅ ✚ ❅ ✚ ❅ ✚ ✚ ❅ ✚ ❅ ❅ ✚ ✚

Abb. 2.7: Nichtorthogonale Projektion.

Im Sinn von (2.55) sind infolgedessen P1 := P und P2 := Pa die Projektionen der Zerlegung Rn = Ra ⊕ b⊥ . Die Summe ist direkt wegen der Forderung (a . b) , 0, denn aus λa ∈ b⊥ folgt 0 = λ (a . b), also λ = 0. Nach der Dimensionsformel II (Satz 1.86) und (1.71) muss deswegen der Unterraum Ra ⊕ b⊥ der ganze Rn sein.

Andererseits lässt sich nach Korollar 1.83 jeder (n−1)-dimensionale Unterraum von Rn als ein u⊥ darstellen, so dass (2.57) die Darstellung für eine allgemeine Projektion auf einen eindimensionalen Unterraum ist. Ist P eine Projektion auf einen linearen Unterraum U, dann ist F := P + a − Pa (vgl. (1.77)) eine Projektion auf den affinen Raum a + U.

206

2 Matrizen und lineare Abbildungen

Speziell ist somit die Projektion auf die Hyperebene H := {x ∈ Rn : (x . b) = α} mit α ∈ R und u ∈ Rn , so dass (u . b) = α, und somit H = u + b⊥ , in Richtung von a gegeben durch F := P a + u − P a u α 1 = a+1− a⊗b (a . b) (a . b)

(2.59)

mit (2.53) als Spezialfall.

1

1

1 0,5

0,5

π 4

1

Abb. 2.8: Kavalierperspektive des Einheitswürfels: Schiefe Parallelprojektion mit u =  t 0, b = e2 , a = 1/23/2, −1, 1/23/2 . Beispiel 2.43 (Geometrie) In Ergänzung zu Beispiel 1.103 spricht man bei (2.59) (und e = n = 3) von schiefer Parallelprojektion . Auf jeder Hyperebene parallel zu H, d. h. H ⊥ e w + b bzw. (u . b) = β für u ∈ H, wirkt F wie eine Translation F(u) = u +

1 (α − β)a (a . b)

und erhält daher für die Hyperebene Längen und Winkel. Allgemein werden Rechtecke wie bei jeder affin-linearen Abbildung (siehe Definition 2.136) auf (eventuell degenerierte) Parallelogramme abgebildet. In der Darstellenden Geometrie spricht man z. B. von Schrägriss als einer der einfachsten Darstellungsformen, wenn in R3 als Projektionsebene die xz-Ebene, d. h. w + b⊥ = e⊥2 gewählt wird, so dass bei einem an den Koordinatenachsen ausgerichteten (Einheits-) Würfel die „vordere“ bzw. „hintere“ Seitenfläche nur verschoben wird. Die Abbildung, d. h. der Vektor a, wird dadurch festgelegt, indem man für den

2.3 Matrizenrechnung

207

Einheitsvektor in y-Richtung, e2 , festlegt, mit welchem Winkel α und zu welcher Länge l er verzerrt wird, d. h.    cos(α)l    e2 7→  0  .   sin(α)l

Wählt man a2 = −1, so entspricht dies

a1 = cos(α)l,

a3 = sin(α)l .

Bei der Kavalierperspektive (siehe Abbildung 2.8) wird α = π/4 und l = 0, 5 gewählt.



Der enge Zusammenhang zwischen Projektionen und direkten Zerlegungen, sei zusammengefasst in: Hauptsatz 2.44: Projektion und Zerlegung Sei V ein R-Vektorraum. 1) Ist P lineare Projektion von V nach V, dann V = Bild P ⊕ Kern P . 2) Ist U ⊕ W = V eine direkte Zerlegung, dann gibt es genau eine lineare Projektion P von V nach V mit Bild P = U, Kern P = W . Diese Projektion heißt auch Projektion auf U längs oder in Richtung von W . 3) Sei V endlichdimensional, B1 eine Basis von Bild P und B2 eine Basis von Kern P, P eine Projektion von V nach V. Dann ist B = B1 ∪ B2 eine Basis von V und die Darstellungsmatrix von P bezüglich B ist:   1  ..  .   1  B [P]B =  0   ..  . 

0

  )   |B1 |-mal    .  )   |B2 |-mal 

Beweis: Die Aussagen 1) und 2) sind alle schon bewiesen mit Ausnahme der Eindeutigkeit bei 2): e eine Projektion mit Bild P e = U, Kern P e = W und U ⊕ W = V. Sei u ∈ V. Dann Sei P

208

2 Matrizen und lineare Abbildungen

e ∈ U und u2 := (id −P)u e ∈ Kern P e = W die eindeutige Zerlegung ergeben u1 := Pu u = u1 + u2 ,

e entspricht der Definition (2.55). d. h. P Zu 3): Folgt sofort aus 1), da

für u ∈ B1 : Pu = 1 · u , für u ∈ B2 : Pu = 0 .



Der Begriff der direkten Summe lässt sich auch auf endlich viele Unterräume Vi , i = 1, . . . , m ausdehnen. Wenn weiterhin die Darstellung für u ∈ V als u = u1 + . . . + um eindeutig sein soll, reicht nicht, dass paarweise die Vi nur den Nullraum als Schnitt haben, sondern man muss verstärkt fordern: Definition 2.45 Sei V ein R-Vektorraum, seien Vi , i = 1, . . . , m, lineare Unterräume. Die Summe der Unterräume wird rekursiv definiert durch V1 + . . . + Vk := (V1 + . . . + Vk−1 ) + Vk für k = 1, . . . , m . Wenn

dann heißt

Pn

(V1 + . . . + V j ) ∩ V j+1 = {0}

i=1 ui

für j = 1, . . . , m − 1 ,

direkt, V1 + . . . + Vm heißt direkt, geschrieben als V1 ⊕ . . . ⊕ Vm

bzw.

m M

Vi .

i=1

Für die Direktheit einer Vektorraumsumme reicht also für m > 2 nicht aus, dass die paarweisen Schnitte trivial sind: Man betrachte etwa im R2 3 paarweise verschiedene Geraden durch den Nullpunkt.

2.3 Matrizenrechnung

209

Eine Verallgemeinerung von Hauptsatz 2.44 ist: Satz 2.46: Projektionen und Zerlegung allgemein

1) Sei V = V1 ⊕ . . . ⊕ Vm ein R-Vektorraum. Durch  m  X  Pi  v j  = vi für v j ∈ V j j=1

werden Abbildungen Pi ∈ Hom(V, V) definiert, i = 1, . . . , m. Für sie gilt: Pi ◦ Pi = Pi , Pi ◦ P j = 0

für j , i

(2.60)

und P1 + . . . + Pm = id .

(2.61)

Dabei ist V j = Bild P j . Man spricht daher auch von einer Zerlegung der Eins . Andererseits erzeugen Pi ∈ Hom(V, V), i = 1, . . . , m mit (2.60), (2.61) eine direkte Zerlegung von V durch ihre Bildräume. 2) Sei V = V1 + . . . + Vm . Dann sind äquivalent: (i) V =

Lm

i=1

Vi .

(ii) Beliebige ui ∈ Vi , vi , 0, i = 1, . . . , m bilden eine linear unabhängige Menge.

Lm 3) Ist V = i=1 Vi und sind Bi ⊂ V Basen von Vi für i = 1, . . . , m, dann ist m Sm P B := i=1 Bi eine Basis von V. Insbesondere gilt dim V = dim Vi . i=1

Beweis: Zu 1): Übung. Zu 2): Nach 1) ist insbesondere die Darstellung u = u1 + . . . + um , ui ∈ Vi , i = 1, . . . , m für u ∈

m L

Vi eindeutig wegen ui = Pi (u).

i=1

„(i) ⇒ (ii)“: Seien ui ∈ Vi , ui , 0 für alle i = 1, . . . , m und

u′i

:= αi ui ∈ Vi ist dann

m P

i=1

αi ui = 0 für αi ∈ R. Für

210

2 Matrizen und lineare Abbildungen m X

u′i = 0

und damit wegen Eindeutigkeit der Darstellung

i=1

u′i = 0,

d. h.

αi = 0

für alle

i = 1, . . . , m.

„(ii) ⇒ (i)“: Sei j = 0, . . . , m − 1, ui ∈ Vi , i = 1, . . . , j + 1 und u1 + . . . + u j = u j+1 . Sind alle u1 , . . . , u j , u j+1 , 0, so steht dies im Widerspruch zur Voraussetzung. Also folgt entweder direkt u j+1 = 0 oder ui = 0 für ein i = 1, . . . , m, so dass wiederholte Anwendung dieses Schlusses auf u1 = . . . = u j+1 = 0 führt. Zu 3): Durch vollständige Induktion über m: m = 2 : Nach Satz 1.86 bzw. Bemerkungen 1.87. m m + 1:Nach ist  L→ Lm Definition m+1 V ⊕ V V = i m+1 , damit nach der obigen Überlegung i=1 i=1 i dim

m+1 M

Vi = dim

i=1

m M

Vi + dim Vm+1

i=1

und daraus folgt nach Induktionsvoraussetzung die Behauptung. Zudem ist B offensichtlich ein Erzeugendensystem von V, das nach den Vorüberlegungen dim V Elemente hat.  In dieser Form ist der Begriff auch auf beliebige Indexmengen I übertragbar und Satz 2.46, 2) gilt weiterhin. In den dann analog zu 1) eindeutigen Darstellung X u= ui , ui ∈ Vi i∈I

sind nun für endlich viele i′ ∈ I, ui′ , 0 und damit die Summe wohldefiniert.

*Bemerkungen 2.47

1) Die Bedingung 2) (ii) aus Satz 2.46 kann auch äquivalent geschrieben werden als: Seien ui ∈ Vi , i = 1, . . . , m, dann gilt m X ui = 0 ⇒ ui = 0 für alle i = 1, . . . , m . i=1

P Dann ist jede Darstellung u = ni=1 ui bei einer direkten Summe eindeutig und die Eindeutigkeit charakterisiert die Direktheit.

2) Das Kriterium für eine orthogonale Projektion aus (2.56) lässt sich verallgemeinern. In der Situation von Satz 2.46 gilt für i = 1, . . . , m:

2.3 Matrizenrechnung

211

Pi ist eine orthogonale Projektion ⇔ m m M M V j ⊂ Ui⊥ ⇔ V j = Vi⊥ . j=1 j,i

j=1 j,i

Dies kann man folgendermaßen einsehen: Es ist

m M

V j = Kern Pi ,

(2.62)

j=1 j,i

Lm denn wegen Pi ◦ P j = 0 für j , i gilt V j = Bild P j ⊂ Kern Pi und damit gilt W1 := j=1 V j ⊂ L L j,i W1 und V = U W2 (nach Kern Pi =: W2 . Also ergibt sich für U := Bild Pi die Situation V = U (2.54)), W1 ⊂ W2 . Dies ist nur für W1 = W2 möglich, denn sei w2 ∈ W2 , dann hat w2 ∈ V die Zerlegung w2 = u + w1 mit u ∈ U , w1 ∈ W1 , aber auch w2 = 0 + w2 . Wegen der Eindeutigkeit der Zerlegung in U und W2 muss demnach w2 = w1 ∈ W1 (und u = 0) sein. Somit ergibt sich die Äquivalenz der 1. und 2. Aussage direkt mit (2.62) und die Äquivalenz der 2. und 3. Aussage entspricht (2.56).

3) Satz 2.46, 2) zeigt, dass die Direktheit unabhängig von der gewählten Indizierung der Räume ist, anordnungsunabhängig kann die Bedingung aus Definition 2.45 auch formuliert werden als: Sei I := {1, . . . , m}. Für jedes i ∈ I und jede endliche Teilmenge J ⊂ I \ {i} gilt X Vi ∩ V j = {0}. △ j∈J

2.3.3 Invertierbare Matrizen Wir wollen nun die Matrix zur Umkehrabbildung Φ−1 bestimmen, wenn diese existiert. Dazu sei Φ : Rm → Rn linear und bijektiv. Die Umkehrabbildung ( n R → Rm −1 Φ : y 7→ x falls Φ(x) = y kann wegen Theorem 2.28 nur dann existieren, wenn m = n. Sei nun Φ : Rn → Rn linear und invertierbar mit zugehöriger Darstellungsmatrix A bezüglich der Standardbasis. Die zu Φ−1 gehörige Matrix sei B. Da Φ−1 ◦ Φ = Φ ◦ Φ−1 = id, und da dem Hintereinanderausführen linearer Abbildungen die Matrizenmultiplikation entspricht, folgern wir AB = BA = 1n .

212

2 Matrizen und lineare Abbildungen

Definition 2.48 Eine Matrix A ∈ R(n,n) heißt invertierbar oder nichtsingulär, wenn es eine Matrix B ∈ R(n,n) gibt mit AB = 1n oder BA = 1n . Die weitere Beziehung in Definition 2.48 folgt automatisch, da z. B. aus BA = 1n folgt, dass die lineare Abbildung mit Matrix B die Umkehrabbildung zur linearen Abbildung mit Matrix A ist (unter Betrachtung von Hauptsatz 2.31 oder Hauptsatz 1.85) und damit auch AB = 1n folgt. Entsprechendes gilt bei Rollentausch von A und B. Die Matrix B mit dieser Eigenschaft ist durch A also eindeutig bestimmt. Wir nennen B die inverse Matrix zu A: B := A−1 . Sei A ∈ R(n,n) invertierbar und man betrachte für b ∈ Rn das LGS Ax = b . Da Kern A = {0}, ist nach Hauptsatz 1.85 das LGS für alle b eindeutig lösbar und die Lösung ist (wie Einsetzen zeigt) x = A−1 b =

n X

bi c(i) ,

(2.63)

i=1

wenn A−1 die Spaltendarstellung   A−1 = c(1) , . . . , c(n)

hat. In die Äquivalenzliste der Aussagen von Hauptsatz 1.85 bzw. 1.85I kann damit noch aufgenommen werden: Hauptsatz 1.85II Lösbarkeit und Eindeutigkeit bei LGS Die Äquivalenzliste in Hauptsatz 1.85 (1.85I) kann bei m = n ergänzt werden mit: (vii) A ist invertierbar. Eine invertierbare Matrix A ∈ R(n,n) hat also insbesondere maximalen Spalten- und Zeilenrang (= n), d. h. maximalen Rang . Die elementaren Zeilentransformationen des GaussVerfahrens führen auf eine obere Dreiecksmatrix der Form

2.3 Matrizenrechnung

213

  ∗   rii    R :=  . . .   0 rnn

(2.64)

mit rii , 0 für i = 1, . . . , n oder auch gleich 1. Da für Isomorphismen Φ, Ψ ∈ Hom(V, V) eines R-Vektorraums V gilt Φ ◦ Ψ ist Isomorphismus und (Φ ◦ Ψ )−1 = Ψ −1 ◦ Φ−1 , überträgt sich dies auf Matrizen in der Form: Sind A, B ∈ R(n,n) invertierbar, dann ist auch AB invertierbar und (AB)−1 = B−1 A−1 . Sei GL(V) := {Φ ∈ Hom(V, V) : Φ ist Isomorphismus} und entsprechend GL(n, R) := {A ∈ R(n,n) : A ist invertierbar} ,

(2.65)

dann ist also diese Menge bezüglich ◦ bzw. · (der Matrixmultiplikation) abgeschlossen, die Operation ist assoziativ, es gibt ein neutrales Element und inverse Elemente, aber die Verknüpfung ist nicht kommutativ für n ≥ 2. Dementsprechend (GL(V), ◦) bzw. (GL(n, R), ·) ist eine (nicht kommutative) Gruppe . Man beachte aber, dass die Nullabbildung offensichtlich nicht zu GL(V) gehört und GL(V) ist dann bezüglich + nicht abgeschlossen. *Bemerkung 2.49 Invertierbarkeit von A ∈ R(m,n) bedeutet daher m = n und die Existenz einer Linksinversen AL ∈ R(n,m) , d. h. A L A = 1n und die Existenz einer Rechtsinversen AR ∈ R(n,m) , d. h. AAR = 1m , die dann gleich sind. Allgemeiner sind für A ∈ R(m,n) jeweils äquivalent: a1) A ist injektiv.

a2) Es gibt eine Linksinverse. Und b1) A ist surjektiv. b2) Es gibt eine Rechtsinverse.

214

2 Matrizen und lineare Abbildungen

Das kann man folgendermaßen einsehen: „a2) ⇒ a1)“ folgt aus Ax = 0 ⇒ x = AL Ax = 0 , für „a1) ⇒ a2)“ definiere man auf Bild A AL y := x, falls y = Ax .

Die Linearität von AL folgt wie im Beweis von Satz 2.5, 3). Auf (Bild A)⊥ kann AL beliebig linear definiert werden. „b2) ⇒ b1)“ gilt, da AAR y = y für beliebige y ∈ Rm y ∈ Bild A impliziert. Für „b1) ⇒ b2)“ kann AR folgendermaßen als Abbildung definiert werden: AR (y) ∈ A−1 {y},

d. h.

AAR (y) = y und

AR (y) ∈ (Kern A)⊥ .

Auf diese Weise wird aus der Lösungsmenge von Az = y ein eindeutiges Element ausgewählt (siehe (2.109)ff). Das so definierte AR : Rm → Rn ist linear, d. h. durch AR ∈ R(n,m) darstellbar, da etwa für y1 , y2 ∈ Rm gilt: A(AR (y1 ) + AR (y2 )) = y1 + y2 ,

aber auch AR (y1 ) + AR (y2 ) ∈ (Kern A)⊥

und damit AR (y1 + y2 ) = AR (y1 ) + AR (y2 ) .

Dies wird allgemeiner bei der Definition der Pseudoinversen aufgegriffen werden (siehe Theorem 2.77 und (2.112) und auch Bemerkungen 2.82, 3)).



Bemerkungen 2.50 1) Sei D := diag(di ) := (di δi, j )i j ∈ R(n,n) eine Diagonalmatrix mit Diagonaleinträgen di . Die Matrix D ist genau dann invertierbar, wenn di , 0 für alle i = 1, . . . , n

und dann

D

−1

1 = diag di

!

(vgl. die „vorgezogene Benutzung“ in (MM.43)). 2) In Erweiterung gilt: Eine obere Dreiecksmatrix R = (ri, j )i j ∈ R(n,n) ist genau dann invertierbar, wenn ri,i , 0 für alle i = 1, . . . , n

2.3 Matrizenrechnung

215

und R−1 ist eine obere Dreiecksmatrix mit (R−1 )i,i =

1 für alle i = 1, . . . , n . di,i

Ist also R normiert, so ist auch R−1 normiert. Dies kann aus nachfolgenden Überlegungen zur Berechnung von A−1 in Verbindung mit der Rückwärtssubstitution geschlossen werden (Übung).

Die analoge Aussage gilt für untere Dreiecksmatrizen. 3) Aus (2.45) folgt für Drehmatrizen G(α)G(−α) = G(0) = 1 und damit (2.66)

G(α)−1 = G(−α) und analog für Givens-Rotationen G(α, i, j) bei festen i, j.

4) Die Menge der oberen (unteren) Dreiecksmatrizen mit nichtverschwindenden Diagonalelementen ist somit bezüglich der Matrizenmultiplikation abgeschlossen und damit auch eine nichtkommutative Gruppe (nach 2) und (2.46)), d. h. eine Untergruppe von GL(n, R). Analoges gilt für Drehmatrizen bzw. für Givens-Rotationen G(α, i, j) bei festem i, j. 5) Nach Theorem 2.35, Bemerkungen 2.37, 4) gilt für einen Isomorphismus Φ : V → V auf einem endlichdimensionalen Vektorraum mit Basen B1 , B2 : Die Darstellungsmatrix ist invertierbar und −1 B1 [Φ ]B2

=

B2 [Φ]B1

Beachte: B1 [Φ

−1

−1

.

]B2 B2 [Φ]B1 = B1 [id]B1 = 1

6) Die Koordinatenabbildung ΨB auf Rn zu einer Basis B = {u1 , . . . , un } lässt sich mit der invertierbaren Matrix U := (u1 , . . . , un ) ∈ R(n,n) schreiben als ΨB u = U −1 u bzw. ΨB−1 α = Uα , da mit α := ΨB u gilt: u=

n X

αi ui = Uα .

i=1



216

2 Matrizen und lineare Abbildungen

Beispiel 2.51 Wann ist eine 2 × 2-Matrix A=

ab cd

!

invertierbar? Es ist dann der Fall, wenn wir A auf eine Stufenform ! 1∗ 01 bringen können. Falls a , 0 ist, dividieren wir erst die erste Zeile durch a und subtrahieren dann c-mal die neue erste Zeile von der zweiten. Wir erhalten die Stufenform ! 1 ba . 0 d − bc a In diesem Fall ist

a·d−b·c,0

(2.67)

die Charakterisierung dafür, dass A invertierbar ist. Falls a = 0 und c , 0 ist, vertauschen wir erste und zweite Zeile und kommen zur selben Bedingung. Wenn aber a = c = 0 ist, ist die Dreiecksform nie zu erreichen. Es folgt: Unsere Bedingung ad − bc , 0 ist notwendig und hinreichend dafür, dass A invertierbar ist. Wenn A invertierbar ist, so wollen wir A−1 auch ermitteln. Wir wenden das GaussJordan-Verfahren an. Wir diskutieren nur den Fall a , 0: umgeformtes ! A umgeformte Einheitsmatrix ! ab 10 cd 01 1 b/a c d

!

1 b/a 0 d − bc/a 1 b/a 0 1 10 01

!

!

1/a 0 01 !

!

1/a 0 −c/a 1

!

1/a 0 −c/(ad − bc) a/(ad − bc)

!

d/(ad − bc) −b/(ad − bc) −c/(ad − bc) a/(ad − bc)

!

Hier haben wir in der rechten Spalte dieselben elementaren Zeilenumformungen auf die Einheitsmatrix angewendet, wie auf die Matrix A. Also:

2.3 Matrizenrechnung

217

A

−1

=

1 ad−bc

! d −b . −c a

(2.68)

Die Vorgehensweise wird dadurch begründet, dass die Spalten c(1) , c(2) von A−1 das LGS Ac(i) = e(i) lösen. Am Anfang des nächsten Abschnitts wird dies nochmal ausführlich diskutiert. ◦ *Bemerkung 2.52 Wird eine Matrix nur in einer Spalte oder Zeile geändert, kann dies durch Addition einer Rang-1-Matrix (siehe (2.49)) ausgedrückt werden. b ⊗ ei

bzw. e j ⊗ c

für

b, e j ∈ Rm

und

c, ei ∈ Rn

sind die (m, n)-Matrizen, in denen die i-te Spalte bzw. j-te Zeile mit b bzw. c übereinstimmen, und sonst alle Einträge Null sind. Die Änderung z. B. einer Spalte a(i) zu e a(i) in (m,n) A∈R kann somit durch das Rang-1-Update e = A + (e A a(i) − a(i) ) ⊗ ei

(2.69)

ausgedrückt werden und analog für Zeilenänderungen. Das beinhaltet auch die Änderungen von nur einem Eintrag. Für Matrizen der Form (2.69) lässt sich bei Kenntnis von A−1 e−1 geben, die Sherman-Morrison910 -Formel : eine Darstellung von A   Sei A ∈ R(n,n) invertierbar, u, u ∈ Rn und 1 + A−1 u . u , 0. Dann ist auch A + u ⊗ u invertierbar und es gilt:    (A + u ⊗ u)−1 = A−1 − αA−1 uut A−1 mit α := 1/ 1 + A−1 u . u . (2.70)

Der Nachweis erfolgt in Aufgabe 3.11. Für den Fall A = 1 ergibt es sich durch einfaches Ausmultiplizieren und den allgemeinen Fall kann man mittels A + u ⊗ u = A(1 + A−1 u ⊗ u) darauf zurückführen. Unter Benutzung der Transponierten (siehe Definition 1.48 bzw. (2.79)) kann die Formel auch geschrieben werden als (A + u ⊗ u)−1 = A−1 − αA−1 u ⊗ A−t u . Liegt A−1 also nicht explizit vor, muss zur Anwendung von (A + u ⊗ u)−1 auf einen Vektor z neben der Berechnung von A−1 z ein LGS mit A (Ax = u) und eines mit At (At y = u) gelöst werden, um das Update durch das SKP (x . u) (für α) und die Anwendung x ⊗ yz, folglich ein weiteres SKP, zu erhalten. Der Vorteil dieser Vorgehensweise wird erst ersichtlich, wenn das Gauss-Verfahren als Verfahren zur Erzeugung einer LR-Zerlegung interpretiert wird (Abschnitt 2.4.3). Das 9 10

Jack Sherman Winifred J. Morrison

218

2 Matrizen und lineare Abbildungen

Lösen eines LGS mit Matrix A wird dann zur Vorwärts- und Rückwärtssubstitution, vom Aufwand her demnach zu untergeordneten Operationen (siehe Bemerkungen 1.51). Solche Rang-1-Updates spielen eine Rolle in der Optimierung, insbesondere auch beim △ Simplex-Verfahren (siehe Kapitel 6) und in der Statistik. Bis auf solche sehr einfachen Fälle gilt aber generell die goldene Regel: Inverse Matrizen werden nicht explizit berechnet, sondern die zugehörigen LGS werden (mit dem Gauss-Verfahren) gelöst.

2.3.4 Das Gauss-Verfahren vom Matrizenstandpunkt Sei A ∈ R(n,n) eine invertierbare Matrix. Die Darstellung (2.63) könnte dazu verführen, zur Lösung eines solchen LGS A−1 zu bestimmen und dann das Matrix-Vektor-Produkt zu bilden. Davon ist aus Aufwandsgründen dringend abzuraten, wie die nachfolgenden Überlegungen zeigen. Sie zeigen aber auch, dass in Erweiterung der Anwendung des Gauss-Verfahrens dieses nicht nur zur Lösung eines LGS, sondern auch zur Bestimmung von A−1 genutzt werden kann (wie dies schon für (2.68)  geschehen ist). Sei A−1 = c(1) , . . . , c(n) die (unbekannte) Spaltendarstellung, dann gilt wegen A A−1 = 1n : Ac(i) = ei

für i = 1, . . . , n .

Die i-te Spalte von A−1 kann sodann durch Lösen eines LGS (mittels Gaussscher Elimination) für die rechte Seite ei bestimmt werden. Da die Matrix bei allen n LGS gleich ist, kann dabei folgendermaßen vorgegangen werden: A wird nicht um eine, sondern um alle n rechte Seiten, d. h. um 1n erweitert. Ausgangspunkt der Umformungen ist demnach (A, 1n ) ∈ R(n,2n) . Die elementaren Zeilenumformungen des Gauss-Verfahrens führen zu der Form (R, B) ∈ R(n,2n)

(2.71)

  mit R wie in (2.64). Durch n Rückwärtssubstitutionen zu R, b(i) , wobei b(i) die i-te Spalte von B ist, erhält man die Spalten c(i) als Lösungen. Insbesondere ist daher auch R invertierbar und c(i) = R−1 b(i) ,

2.3 Matrizenrechnung

219

wobei dieses Produkt ohne explizite Kenntnis von R−1 über Rückwärtssubstitution bestimmt wird. Alternativ kann bei (2.71) die Umformung wie in Satz 1.6 fortgeführt werden (Gauss-Jordan-Verfahren ) zur Erreichung der Form (1n , C) ∈ R(n,2n) ,

(2.72)

woraus sich folgend die i-te Spalte von A−1 als i-te Spalte von C ergibt, d. h. A−1 = C . Auf diese Weise müssen also n Rückwärtssubstitutionen (und die zusätzliche MatrixVektormultiplikation A−1 b) statt einer wie bei der direkten Anwendung des Eliminationsverfahrens auf Ax = b durchgeführt werden, was aber in beiden Fällen insgesamt immer noch O(n3 ) Operationen sind. Einen Vorteil in der direkten Bestimmung von A−1 könnte man darin sehen, dass auch für weitere rechte Seiten b′ das LGS leicht (durch die Matrix-Vektormultiplikation A−1 b′ ) gelöst werden kann. In Abschnitt 2.4.3 werden wir aber sehen, dass bei richtig durchgeführter Gauss-Elimination danach jedes LGS mit einer Vorwärtssubstitution und einer Rückwärtssubstitution (Auflösung von Rx = b′ ), d. h. insgesamt mit O(n2 ) Operationen, aufgelöst werden kann. Sei A ∈ R(m,n) . Die im Gauss-Verfahren benutzten elementaren Umformungen sind lineare Abbildungen (auf Rn für Zeilenumformungen bzw. auf Rm für Spaltenumformungen) und lassen sich für die Zeilenumformungen durch folgende Elementarmatrizen darstellen: Vertauschen zweier Zeilen l und k (Elementarmatrix vom Typ I), wobei o. B. d. A. 1 ≤ k < l ≤ m: Hierbei deuten Einträge * die Zahl 1 an, nicht gekennzeichnete Einträge die Zahl 0.   1  ∗   1         E1 :=        

       0 ··· ··· ··· 1  .. ..  . 1 .   .. ..  . . ∗  = 1 − ek ⊗ ek − el ⊗ el + ek ⊗ el + el ⊗ ek  = 1 + e ⊗ (e − e ) + e ⊗ (e − e ) . .. .. k l k l k l  . 1 .   1 ··· ··· ··· 0  1  ∗   1 ↑ ↑ k-te l-te Spalte

(2.73)

220

2 Matrizen und lineare Abbildungen

Multiplikation einer Zeile j mit c ∈ R (Elementarmatrix vom Typ II):    1   ∗    P   = m e ⊗ e + ce ⊗ e 1 i i j j    i=1 c E2 :=  i, j   1   = 1 + (c − 1)e j ⊗ e j .  ∗    1

(2.74)

↑ j-te Spalte

Addieren des c-fachen einer Zeile k zu einer anderen Zeile j, j , k (Elementarmatrix vom Typ III):   1  ∗   1  ..  E3 := E3 (k, j) :=  . ∗   c ··· 1  ∗ 

1

       = 1 + ce j ⊗ ek ,   j-te Zeile   

(2.75)

↑ k-te Spalte (hier für k < j dargestellt)

Wir verifizieren, dass Linksmultiplikation der Matrix A = a(1) , . . . , a(m)

t

(Zeilendarstellung) mit Ei die Zeilenumformungen des entsprechenden Typs bewirkt. Dabei benutzen wir, dass die Matrix (1 + ek ⊗ el )A = A + ek ⊗ a(l) aus A entsteht, indem die l-te Zeile at(l) zur k-ten Zeile addiert wird. Typ I: E1 A = A + ek ⊗ (a(l) − a(k) ) + el ⊗ (a(k) − a(l) ) entsteht aus A, indem bei der k-ten Zeile diese Zeile subtrahiert und die l-te Zeile addiert wird und entsprechendes für die l-te Zeile. Typ II: E2 A = A + (c − 1)e j ⊗ a( j) , zur j-ten Zeile wird deren c − 1-faches addiert, d.h., sie wird durch ihr c-faches ersetzt. Typ III: E3 A = A + ce j ⊗ a(k) entsteht aus A durch Addition der k-ten Zeile zur j-ten.

2.3 Matrizenrechnung

221

Alle Elementarmatrizen sind invertierbar, da die Elementarumformungen durch solche gleichen Typs umgekehrt werden können, d. h. die Inversen der Elementarmatrizen sind:

E3−1

E2−1

E1−1

 −1    1   1   ∗   ∗            1 ··· c 1 · · · −c       .. ..  =   = 1 − ce ⊗ e =  j k   ∗ . ∗ .          1 1      ∗  ∗       1 1

−1    1   ∗     1    = c =    1    ∗    1   1  ∗   1   0 ··· ··· ··· 1  .. ..  . 1 .   .. . .. =  . ∗   .. .  . 1 ..   1 ··· ··· ··· 0    

(hier für k > j dargestellt).

    1   ∗     1    =  1/c   1    ∗    1  −1  1   ∗      1   0     ..   .     ..  =  .   ..   .     1     1   ∗    1

1+

! 1 − 1 ej ⊗ ej , c

··· ··· ··· 1 .. 1 . .. . ∗ . 1 .. ··· ··· ··· 0

            = E1       1  ∗   1

Mit diesen Kenntnissen lässt sich Hauptsatz 1.80 alternativ beweisen: Wie dort bleibt zu zeigen, dass sich bei elementaren Zeilenumformungen auch der Spaltenrang nicht ändert. Nun wissen wir, dass jede elementare Zeilenumformung in der Matrix A bewirkt werden kann als Links-Multiplikation EA mit einer Elementarmatrix E . Die Spaltenvektoren E a1 , . . . , E an von EA sind die Bilder der Spaltenvektoren a1 , . . . , an von A unter der linearen Abbildung x 7→ E x und E ist invertierbar. Daher überträgt E eine Basis des Spaltenraums von A auf eine Basis des Spaltenraums von EA und verändert daher nicht den Spaltenrang.

Die Äquivalenzliste der Sätze 1.85, 1.85I , 1.85II kann ergänzt werden um:

222

2 Matrizen und lineare Abbildungen

Hauptsatz 1.85III Lösbarkeit und Eindeutigkeit bei LGS Die Äquivalenzliste in Hauptsatz 1.85 (1.85I, 1.85II ) kann bei m = n ergänzt werden mit: (viii) A lässt sich als Produkt von Elementarmatrizen schreiben.

Beweis: Da jede Elementarmatrix invertierbar ist, ist auch ein Produkt aus Elementarmatrizen invertierbar. Andererseits kann eine invertierbare Matrix durch das GaussJordan-Verfahren in die Einheitsmatrix überführt werden und die Inverse ergibt sich als Produkt der Elementarmatrizen zu den durchgeführten Umformungsschritten: Ek Ek−1 . . . E1 A = 1 , somit auch A = E1−1 E2−1 . . . Ek−1 .



Betrachten wir als Beispiel im Detail die Eliminationsschritte für die erste Spalte, wobei vorerst vorausgesetzt sei, dass keine Zeilenvertauschungen nötig sind. Die Faktoren in den Umformungen vom Typ III sind dann −ci , wobei ci :=

ai,1 für i = 2, . . . , m . a11

Das Produkt der zugehörigen Elementarmatrizen vom Typ III lässt sich dann schreiben als E := Em Em−1 . . . E2 = 1 − u ⊗ e1 , wobei u := (0, c2 , . . . , cm ) ,

(2.76)

da etwa E3 E2 = (1 − c3 e3 ⊗ e1 )(1 − c2 e2 ⊗ e1 ) = 1 − c2 e2 ⊗ e1 − c3 e3 ⊗ e1 + c2 c3 e3 ⊗ e1 e2 ⊗ e1 = 1 − (0, c2, c3 , 0, . . . , 0)t e1 . Bemerkung 2.53 Die Gauss-Umformungen für eine (2,2)-Matrix (siehe (2.68)) lassen sich auch auf eine (2,2)-Blockmatrix übertragen (unter Beachtung, dass die (Matrizen-) Multiplikation nicht kommutativ ist). Hat das LGS etwa für A ∈ R(n,n) , B ∈ R(n,m) , C ∈ R(m,n) , D ∈ R(m,m) die Form A B C D

!

! ! b y = x f

(2.77)

(vergleiche (1.91)) mit invertierbarem A, dann ist dies äquivalent zu der gestaffelten Form

2.3 Matrizenrechnung

223

1 A−1 B 0 D − CA−1 B

!

!

A−1 b y = x −CA−1 b + f

!

,

(2.78)

was für C = Bt , D = 0, f = 0 gerade (MM.51) entspricht. Eine solche Schur-Komplement Form, S := D − CA−1 B heißt das Schur-Komplement von A, kann dann sinnvoll sein, wenn das der Operation A−1 z entsprechende LGS mit untergeordnetem Aufwand gelöst werden kann. Außerdem sieht man aus der Äquivalenz von (2.77) und (2.78) für beliebige rechte Seiten b ∈ Rn , f ∈ Rm : ! A B ist invertierbar ⇔ D − CA−1 B ist invertierbar. C D Bei Invertierbarkeit gilt A B C D

!−1

! A−1 + A−1 BS −1CA−1 −A−1 BS −1 = . −S −1CA−1 S −1

Durch Vertauschen in der Blockindizierung erhält man bei Invertierbarkeit von T mit T := A − BD−1C, dem Schur-Komplement von D, eine analoge Aussage. △

2.3.5 Transponierte, orthogonale und symmetrische Matrix Sei    a1,1 · · · a1,n   . ..  ∈ R(m,n) A =  .. .    am,1 · · · am,n

eine m × n-Matrix. Wie schon in Definition 1.48 eingeführt, heißt die n × m-Matrix    a1,1 · · · am,1    ..  ∈ R(n,m) At =  ... .    a1,n · · · am,n

(2.79)

die transponierte Matrix zu A. Dies verallgemeinert das Transponieren von Vektoren x ∈ R(n,1) bzw. x ∈ R(1,n) (siehe Seite 30). Einige Eigenschaften der Transposition sind für A, B ∈ R(m,n) , λ ∈ R Att = A , (A + B)t = At + Bt , (λA)t = λAt .

(2.80) (2.81) (2.82)

224

2 Matrizen und lineare Abbildungen

  Die Abbildung A 7→ At definiert demnach ein Φ ∈ Hom R(n,m) , R(m,n) mit identisch definierter Inversen. Weiter ist (AB)t = Bt At für A ∈ R(l,m) , B ∈ R(m,n) .

(2.83)

Dies kann komponentenweise nachgerechnet werden bzw. ergibt sich dies unten aus (2.94). Insbesondere ist also für A ∈ R(m,n) , x ∈ Rn (Ax)t = xt At .

(2.84)

Daraus folgt, dass im euklidischen Skalarprodukt A als At „auf die andere Seite wandern kann“:

 da (Ax . y) = (Ax)t y = xt At y = x . At y .

 (Ax . y) = x . At y ,

(2.85)

Eine Umformulierung von Hauptsatz 1.80 ist nun Satz 2.54: Zeilenrang = Spaltenrang Der Rang einer Matrix stimmt mit dem Rang ihrer transponierten Matrix überein: Rang A

=

Rang At .

Die Matrix A ∈ R(n,n) ist invertierbar, genau dann, wenn At invertierbar ist und dann gilt (At )−1 = (A−1 )t ,

(2.86)

so dass dafür auch die Kurzschreibweise A−t verwendet wird. Nach (2.83) ist nämlich: (A−1 )t At = (A A−1 )t = 1t = 1 . Beispiel 3(4) – Massenkette Im Fall der einseitig eingespannten Massenkette, d. h. dem LGS mit A ∈ R(m,m) aus (MM.12), gilt wegen (MM.41) mit B ∈ R(m,m) aus (MM.36) A = Bt B .

(MM.52)

Die Inverse von B lässt sich nach (2.71), (2.72) durch simultane Gauss-Jordan-Elimination bestimmen, die sich hier wegen der Dreiecksgestalt auf die Rückwärtssubstitutionschritte beschränkt, d. h.

2.3 Matrizenrechnung   −1    (B, 1) =    

1 .. .

225   0   1       →    ..  .   0 1

1 ..

.

..

.

.. 1 −1

.

0

folglich

B−1

und damit A−1

0 ..

. ..

. 1

−1 · · · · · · −1 .. .. . . .. .. . . 0 −1

      ,  

   1 · · · 1   . .  = −  . . ..    0 1

   0   1 · · · 1   1       = B−1 B−t =  . . . ...   ... . . .      0 1 1 ··· 1

  n n − 1 n − 2 · · ·  n − 1 n − 1 n − 2 · · ·   =  n − 2 n − 2 n − 2 · · ·  ..  . 1 ··· ··· ···

 1   1   1  .  ..  .  1

(MM.53)

Insbesondere ist also die Inverse der Tridiagonalmatrix A vollbesetzt, was auch bei ihrer Verfügbarkeit die direkte Operation damit nicht ratsam erscheinen lässt. Die Systemmatrix der beidseitig eingespannten Massenkette, d. h. A˜ nach (MM.11), unterscheidet sich vom obigen Fall (A nach (MM.12)) nur um 1 im Eintrag (1,1), d. h. A˜ = A + e1 ⊗ e1 . Damit kann A˜ −1 nach der Sherman-Morrison-Formel (2.70) bestimmt werden als A˜ −1 = A−1 − αA−1 e1 ⊗ A−t e1 ,

α=

Es folgt A˜ −1 = A−1 − C

mit C :=

1 1 .  = 1+n 1 + A−1 e1 . e1

1 ((n − i + 1) (n − j + 1))i, j . n+1

(MM.54)

Zum Beispiel für n = 3 ist ˜ −1

A

1 = 4

   3 2 1   2 4 2  .   123

^

Beispiel 4(3) – Input-Output-Analyse Wir betrachten wieder das Input-Output-Modell in seiner Mengenform (MM.7) bzw. in der Preisform (MM.26). Das Input-Output-Modell sei zulässig. Dann folgt nach Beispiel 4(2) die universelle Lösbarkeit von (1 − A)x = f .

226

2 Matrizen und lineare Abbildungen

Nach Hauptsatz 1.85III ist dies äquivalent mit der Invertierbarkeit von 1 − A. Für diese Inverse gilt (1 − A)−1 ≥ 0 , wobei für B = (bi, j ) ∈ R(m,n) definiert wird: B ≥ 0 ⇔ bi, j ≥ 0 für alle i = 1, . . . , m, j = 1, . . . , n . Dies kann man folgendermaßen einsehen: Für den i-ten Einheitsvektor ei existiert wegen ei ≥ 0 und Zulässigkeit ein x(i) ∈ Rn , x(i) ≥ 0, so dass (1 − A)x(i) = ei . x(i) ist aber gerade die i-te Spalte von (1 − A)−1 . Die damit als notwendig verifizierte Bedingung 1 − A ist invertierbar,

(1 − A)−1 ≥ 0

(MM.55)

ist aber auch hinreichend für Zulässigkeit, denn zu f ∈ Rn , f ≥ 0 ist x := (1 − A)−1 f ≥ 0 die eindeutige Lösung von (MM.7). Mit der gleichen Argumentation ergibt sich als äquivalente Bedingung für Profitabilität: 1 − At ist invertierbar,

(1 − At )−1 ≥ 0 .

(MM.56)

Wegen 1 − At = (1 − A)t und (2.86) sind die Bedingungen (MM.55) und (MM.56) äquivalent. Damit haben wir bewiesen: Satz 2.55 Sei A ∈ R(n,n) . Dann gilt für das durch (MM.7) bzw. (MM.25) definierte Input-Output-Modell die Äquivalenz der folgenden Aussagen: (i) Das Input-Output-Modell ist zulässig. (ii) 1 − A ist invertierbar, (1 − A)−1 ≥ 0.

(iii) 1 − At ist invertierbar, (1 − At )−1 ≥ 0.

(iv) Das Input-Output-Modell ist profitabel.

Sei C ∈ R(n,n) eine invertierbare Matrix. Die Bedingung C −1 ≥ 0

(MM.57)

C x ≥ 0 ⇒ x ≥ 0 für alle x ∈ Rn .

(MM.58)

ist äquivalent mit der Eigenschaft

Dass (MM.58) aus (MM.57) folgt, ist klar. Die Rückrichtung sieht man so ein: Es gilt die Bedingung Hauptsatz 1.85III , (b)(iv) Cx = 0 ⇒ x = 0 , denn

2.3 Matrizenrechnung

227 Cx = 0 ≥ 0 ⇒ x ≥ 0

und C x = 0 ≤ 0 ⇒ x ≤ 0

zeigt x = 0. Deshalb ist nach Hauptsatz 1.85III auch C invertierbar und mit der Argumentation von oben C x(i) = e(i) ≥ 0 ⇒ x(i) ≥ 0 . Dies zeigt, dass die Spalten von C −1 nicht negativ sind. Eine Matrix, die (MM.57) erfüllt, heißt daher auch invers-monoton. Die Matrix B = 1 − A hat nun die spezielle Eigenschaft bi, j ≤ 0

für

i , j, i, j = 1, . . . , n

und es kann auch bi,i > 0 angenommen werden. Invers-monotone Matrizen mit diesen Zusatzeigenschaften heißen auch nichtsinguläre M-Matrizen. Kriterien für (nichtsinguläre) M-Matrizen werden in Abschnitt 8.5 entwickelt werden. Ein Beispiel für solche Matrizen B sind die Beispiele nach (MM.12) und nach (MM.11), wie in Beispiel 3(4) durch die explizite Berechnung der Inversen gezeigt wurde. ^

Die in Abschnitt 2.1.2 eingeführten orthogonalen Transformationen sind gerade die linearen Abbildungen, deren Darstellungsmatrix orthogonal ist in folgendem Sinn: Definition 2.56 Eine Matrix A ∈ R(n,n) heißt orthogonal, wenn sie invertierbar ist, und d. h.

A−1 = At , A A = A At = 1 t

gilt .

Orthogonalität von A ist also äquivalent mit: Die Spalten (Zeilen) von A bilden eine ONB .

(2.87)

Sei O(n, R) die Menge aller orthogonalen A ∈ R(n,n) . Unmittelbare Folgerungen sind: Ist A orthogonal, dann auch A−1 und At . Sind A, B ∈ R(n,n) orthogonal, dann ist auch AB orthogonal. O(n, R) ist bezüglich der Matrixmultiplikation eine nichtkommutative Gruppe, die orthogonale Gruppe . Der behauptete Zusammenhang mit orthogonalen Transformationen wird in Satz 2.63 bewiesen.

228

2 Matrizen und lineare Abbildungen

Bemerkungen 2.57 1) O(2, R) besteht nach Bemerkung 2.27 genau aus den Drehungen und den Spiegelungen an einer Gerade. Man fasst darin die Drehungen zu einer Menge SO(2, R) zusammen. SO(2, R) ist abgeschlossen bezüglich der Matrizenmultiplikation nach (2.45) und (2.66) und damit auch eine Gruppe, die nach (2.45) sogar kommutativ ist. 2) Für A ∈ R(n,n) reicht eine der Beziehungen At A = 1

oder

AAt = 1

bzw. die Orthonormalität der Spalten von A oder die Orthonormalität der Zeilen von A, um jeweils die andere zu implizieren, denn beide sind äquivalent mit At = A−1 . Für A ∈ R(m,n) sind die Bedingungen:

a) At A = 1 bzw. die Orthonormalität der Spalten von A,

b) AAt = 1 bzw. die Orthonormalität der Zeilen von A unabhängig voneinander. Aber auch hier folgt aus a) weiterhin Längenerhaltung: kAxk = kxk in der jeweiligen euklidischen Norm (siehe (2.95)). 3) Sei A ∈ R(m,n) , dann gelten: a) Kern A = Kern(At A) ,

b) Bild(AAt ) = Bild A . Das kann man wie folgt einsehen: Für a) ist Kern(At A) ⊂ Kern A zu zeigen, was aus   At Ax = 0 ⇒ 0 = At Ax . x = (Ax . Ax) ⇒ Ax = 0 folgt. Für b) beachte man als Folge von a)

Kern At = Kern(AAt ) ,

so dass aus Theorem 1.82 folgt: dim Bild(AAt ) = m − dim Kern At = dim Bild At = dim Bild A

und damit wegen Bild(AAt ) ⊂ Bild A die Behauptung.

4) Sei A ∈ R(m,n) , n, m ∈ N, dann werden elementare Spaltenumformungen durch AE1 bzw. AE2 bzw. AE3 beschrieben, wobei bei der Typ III-Umformung Addition des c-fachen der Spalte k zur Spalte j, die Matrix E3 = E3 ( j, k) zu nehmen ist.

2.3 Matrizenrechnung

229

Spaltenumformungen von A sind Zeilenumformungen von At und (Ei At )t = AEit , Eit = Ei für i = 1, 2, E3 (k, j)t = E3 ( j, k).

5) Wegen Hauptsatz 1.85III , (viii) sind die CA für A ∈ R(m,n) und für invertierbare C ∈ R(m,m) alle aus A durch elementare Zeilenumformungen bildbaren Matrizen und analog die AD für invertierbare D ∈ R(n,n) für elementare Spaltenumformungen. Durch A ∼ B genau dann, wenn B = CA [B = AD] für ein invertierbares C[D]) wird jeweils eine Äquivalenzrelation definiert, die auch Zeilen- (bzw. Spalten-) Äquivalenz genannt wird (siehe Anhang A, Definition A.20), und die Zeilenstufenform nach (1.12) ist ein einfacher Repräsentant der Äquivalenzklasse bei Zeilen-Äquivalenz. 6) Seien A, B Zeilen-äquivalent, dann entsprechen sich die jeweiligen Basisspalten und die Linearkombinationen zur Darstellung der übrigen Spalten. Sei A = (a(1) , . . . , a(n) ) ∈ R(m,n) und A˜ eine zugehörige Zeilenstufenform mit den Pivotspalten j(1) , . . . , j(r) , dann sind auch (1) (r) a( j ) , . . . , a( j ) linear unabängig und a(i) für i < j(µ) kann durch eine Linearkombination (1) (µ−1) aus a( j ) , . . . , a( j ) dargestellt werden. Dazu muss nur beachtet werden: A = (a(1) , . . . , a(n) ) , B = (b(1) , . . . , b(n) ) B = CA impliziert b(i) = C a(i)

und der durch C vermittelte Isomorphismus überträgt Basen und Linearkombinationen (siehe Satz 2.2).

7) In Bemerkungen 1.79, 6) wurde gezeigt, dass die Stufenzahl einer Zeilenstufenform eindeutig bei Zeilen-Äquivalenz ist. Tatsächlich gilt dies für die reduzierte Zeilenstufenform selbst, wenn die Pivotelemente alle auf 1 normiert sind. Sei A ∈ R(m,n) , A1 , A2 seien reduzierte Zeilenstufenformen nach (1.16), also sind A1 , A2 Zeilen-äquivalent, CA1 = A2 für ein invertierbares C . Durch Zeilenvertauschung kann erreicht werden, dass die Pivotelemente Diagonalposition einnehmen und die obere Dreiecksgestalt erhalten bleibt. Insbesondere sind die Pivotspalten unverändert. Diese zu Ai so Zeilen-äquivalenten Matrizen seien Bi genannt, die damit auch Zeilen-äquivalent sind: DB1 = B2

für ein invertierbares D. Diese Matrizen erfüllen Bi Bi = Bi ,

denn man betrachte Bi = (b(1) , . . . , b(n) ) und Bi b(ℓ) : Ist b(ℓ) eine Pivotspalte, d. h. dann b(ℓ) = eℓ und also Bi b(ℓ) = b(ℓ) . Dies gilt aber auch sonst, da dann bk(ℓ) , 0 gerade die Koeffizienten zu den Pivotspalten j(µ) < ℓ sind. Damit folgt weiter B2 = DB1 = DB1 B1 = B2 B1

und analog B1 = B1 B2 .

230

2 Matrizen und lineare Abbildungen

Da B1 B2 und B2 B1 als obere Dreiecksmatrizen die gleichen Diagonaleinträge haben (siehe Beispiele 2.39, 3)), gilt dieses auch für B1 und B2 , d. h. die Pivotspalten stehen an den gleichen Positionen und damit sind nach 6) B1 und B2 insgesamt identisch und so auch A1 und A2 .

Also haben verschiedene Zeilenstufenformen zu A ∈ R(m,n) immer die Pivotspalten an den gleichen Positionen. 8) Seien A, B ∈ R(m,n) . A und B sind Zeilen-äquivalent genau dann, wenn ihre reduzierten Zeilenstufenformen mit Pivotelement immer 1 gleich sind. Dies folgt direkt aus 7).

9) Die Sherman-Morrison-Formel (2.70) kann verallgemeinert werden zur ShermanMorrison-Woodbury-Formel für A ∈ R(n,n) , B ∈ R(n,m) , C ∈ R(m,n) , D ∈ R(m,m) : (D − CA−1 B)−1 = D−1 + D−1 C(A − BD−1C)−1 BD−1 und setzt also die Invertierbarkeit von D und A − BD−1C voraus. Zum Nachweis betrachte man den Spezialfall A = 1, D = 1, d. h.

(1m − CB)−1 = 1m + C(1n − BC)−1 B, e = D−1 C, e der sich durch einfaches Ausmultiplizieren verifizieren lässt. Darauf (mit C B = A−1 B) lässt sich dann die allgemeine Aussage zurückführen.



Definition 2.58 A = (ai, j ) ∈ R(n,n) heißt symmetrisch, wenn gilt: A = At , d. h. ai, j = a j,i

für i, j = 1, . . . , n .

A heißt schiefsymmetrisch oder antisymmetrisch , wenn gilt: A = −At . Für die bisher betrachteten Beispiele gilt (a ⊗ b)t = (abt )t = bat = b ⊗ a , so dass das dyadische Produkt nur symmetrisch ist, wenn a ein Vielfaches von b oder b = 0 ist. Also sind die Darstellungsmatrizen symmetrisch von: • der Spiegelung aus (2.9) (siehe (2.48)), • der orthogonalen Projektion auf eine Gerade (durch 0) oder eine Hyperebene (durch 0) (siehe (2.52)),

2.3 Matrizenrechnung

231

• der orthogonalen Projektion auf einen Unterraum (dargestellt bezüglich einer ONB). Auch Spiegelungen gehören zu O(n, R). Man beachte aber, dass für n = 2 das Produkt von zwei Spiegelungen eine Drehung ist, genauer: *Bemerkungen 2.59 (Geometrie) 1) Sei ! cos(ϕ) − sin(ϕ) ∈ SO(2, R) , sin(ϕ) cos(ϕ) ! cos(ϕ) sin(ϕ) H(ϕ) = ∈ O(2, R)\ SO(2, R) . sin(ϕ) − cos(ϕ) G(ϕ) =

Symmetrische orthogonale Matrizen sind somit gerade die Spiegelungen oder Drehungen mit ϕ = 0 oder ϕ = π. Für sie gilt HH = 1 . Eine Drehung ist schiefsymmetrisch genau dann, wenn ϕ = π2 oder ϕ = 3π 2 (siehe Definition 4.38). Es gelten folgende Kompositionsregeln, woraus insbesondere die Nichtabgeschlossenheit der Menge der Spiegelungen bezüglich der Multiplikation folgt:

a) G(ϕ) G(ψ) = G(ϕ + ψ) b) G(ϕ) H(ψ) = H(ϕ + ψ) ,

(nach (2.45)),

c) H(ψ) G(ϕ) = H(ψ − ϕ) , d) H(ϕ) H(ψ) = G(ϕ − ψ) .

(2.88)

Diese Beziehungen lassen sich leicht beweisen auf der Basis des Spezialfalls ! ! 1 0 cos(ϕ) − sin(ϕ) H(0)G(ϕ) = 0 −1 sin(ϕ) cos(ϕ) ! cos(ϕ) − sin(ϕ) = = H(−ϕ) = H(0 − ϕ) . − sin(ϕ) − cos(ϕ) Mittels (2.89) folgt c) durch

H(ψ − ϕ) = H(0)G(−ψ + ϕ) = H(0)G(−ψ)G(ϕ) = H(ψ)G(ϕ) ,

dann d) durch H(ϕ)G(ϕ − ψ) = H(ψ) wegen

und b) durch

H(ϕ)−1 = H(ϕ)

(2.89)

232

2 Matrizen und lineare Abbildungen H(ϕ + ψ)H(ψ) = G(ϕ) .

2) Beschränkt man sich auf ϕnk = 2πk/n, k = 0, . . . , n − 1, so erhält man eine endliche Untergruppe von SO(2, R), nämlich die zyklische Gruppe

für die offensichtlich

n   o Cn := G ϕnk : k = 0, . . . , n − 1 ,       G ϕnk = G ϕn1 . . . G ϕn1

(k-mal)

gilt. Es handelt sich dabei um eine Symmetriegruppe , d. h. die Gesamtheit der linearen Operationen, die eine ebene Figur wieder auf sich abbilden. Mögliche Figuren für n = 3 heißen Triskele , für n = 4 Swastika . In diesem Sinn ist die ganze O(2, R) die Symmetriegruppe eines Kreises (siehe Abbildung 2.9).

Abb. 2.9: Triskele, Swastika und reguläre Polygone n = 6, 8.

3) Auch wenn die Spiegelungen keine Gruppe bilden, können wegen (2.88) gewisse mit Cn in einer Gruppe zusammengefasst werden, nämlich der Diedergruppe (mit 2n Elementen) n   o Dn := Cn ∪ H ϕnk : k = 0, . . . , n − 1 . Hier handelt es sich für n = 2 um die Symmetriegruppe eines nicht-quadratischen Rechtecks und für n ≥ 3 um die Symmetriegruppe eines ebenen regulären Polygons, d. h. einer durch n Geradenstücke begrenzten Figur, bei der alle Geradenstücke und Innenwinkel jeweils gleich sind. Sie ist in einem Kreis enthalten, auf dem alle ihre Ecken liegen (siehe Abbildung 2.9).

die Menge der antisymmetrischen die Menge der symmetrischen und R(n,n) 4) Sei R(n,n) A S Matrizen sind lineare Unterräume von R(n,n) : und R(n,n) a) R(n,n) A S denn A, B ∈ R(n,n) , λ, µ ∈ R, dann (λA + µB)t = λAt + µBt = λA + µB, d. h. aus R(n,n) und analog für R(n,n) S S A .

= 21 n(n − 1), dim R(n,n) = 12 n(n + 1), dim R(n,n) A S

2.3 Matrizenrechnung

233

< j, i, j = 1, . . . , n angibt: Für A ∈ R(n,n) gilt a = 0 für i = 1, . . . , n. da 12 n(n ± 1) die Anzahl der (i, j) mit i (−) i,i A



= R(n,n) bezüglich des SKP : aus Bemerkungen 1.93, 4) b) R(n,n) S A Sei A ∈ RS(n,n) , B ∈ R(n,n) A , dann hA . Bi =

n X

i, j=1

ai, j bi, j = −

n X

i, j=1

a j,i b j,i = − hA . Bi ,

also gilt „⊃“. Nach Satz 1.105, 2) ist ⊥

dim RS(n,n) = n2 −

1 1 n(n + 1) = n(n − 1) = R(n,n) A 2 2

und somit gilt auch Gleichheit nach Bemerkungen 1.77, 2).

c) Jeder A ∈ R(n,n) lässt sich eindeutig zerlegen in AS ∈ R(n,n) und AA ∈ R(n,n) S A , d. h. A = AS + A A

(2.89a)

und AS = P(A), wobei P die orthogonale Projektion auf R(n,n) bezeichnet. S AS := 12 (A + At ) ∈ RS(n,n) , AA := 12 (A − At ) ∈ R(n,n) erfüllen (2.89a) und gilt dies, dann At = AS − AA , also A 1 t 2 (A+ A ) = AS und analog für AA . Wegen b) gilt die die Projektion charakterisierende Fehlerorthogonalität (Hauptsatz 1.102).

d) Seien A, B ∈ R(n,n) mit den Zerlegungen A = AA + AS , B = BA + BS , dann A : B = AA : B A + AS : BS . △

Trotz ähnlicher Benennung darf folgender Unterschied nicht übersehen werden:

• (Symmetrische) orthogonale Projektion (wie etwa die orthogonale Projektion auf a⊥ ): Es gilt: AA = A

und i. Allg. Bild A $ Rn ,

d. h. A ist nicht invertierbar. • (Symmetrische) orthogonale Transformation (wie etwa die Spiegelung an a⊥ ): A A = 1 und A ist invertierbar . Im ersten Fall bezieht sich „orthogonal“ auf die Fehlerorthogonalität, im zweiten darauf, dass orthogonale Vektoren unter der Abbildung orthogonal bleiben. Um einzusehen, dass orthogonale Projektionen immer symmetrische Darstellungsmatrizen haben, müssen wir den Begriff der Transponierten auf Homomorphismen übertragen. Dies braucht RVektorräume mit Skalarprodukt. Später wird mit der Adjungierten ein verwandter Begriff allgemein definiert werden.

234

2 Matrizen und lineare Abbildungen

Definition 2.60 Seien V und W endlichdimensionale R-Vektorräume mit SKP (die nicht in der Schreibweise unterschieden werden) und Φ ∈ Hom(V, W). Die Transponierte Φt ∈ Hom(W, V) zu Φ wird definiert durch   (Φu . w) = u . Φt w für alle u ∈ V, w ∈ W . (2.90) Es ist zu klären, ob ein eindeutiges Φt ∈ Hom(W, V) existiert, das (2.90) erfüllt. Sei dazu {u1 , . . . un } eine ONB von V und {w1 , . . . wm } eine Basis von W . Ein Φt ∈ Hom(W, V) wird eindeutig durch die Angabe der Φt (w j ) für j = 1, . . . , m festgelegt (nach Hauptsatz 2.23) und erfüllt dann wegen der Linearität von Φ und Φt die Beziehung (2.90) genau dann, wenn     Φui . w j = ui . Φt w j für alle i = 1, . . . , n, j = 1, . . . , m . (2.91) Erfüllt ein Φt ∈ Hom(W, V) (2.91), so gilt notwendigerweise Φt (w j ) =

n  n  X X   Φt w j . ui ui = w j . Φui ui i=1

für j = 1, . . . , m ,

(2.92)

i=1

nach Bemerkungen 1.110, 1). Dann ist Φt eindeutig und kann andererseits gemäß (2.92) definiert werden.

Hat man demnach speziell V = Rn und W = Rm mit dem euklidischen SKP und beide Mal die Standardbasis gewählt, dann ist     (2.93) Φei . e j = ei . Φt (e j ) , d. h. der ( j, i)-te Eintrag der Darstellungsmatrix A von Φ ist der (i, j)-te Eintrag der Darstellungsmatrix von Φt , so dass diese also gerade At ist. Damit kann (2.83) ohne Indexrechnung bewiesen werden: Für alle u, w ist

folglich:

    (Ψ ◦ Φu . w) = (Ψ (Φu) . w) = Φu . Ψ t w = u . Φt (Ψ t w) , (Ψ ◦ Φ)t = Φt ◦ Ψ t .

(2.94)

Analog zu Matrizen gelte: Definition 2.61 Sei V ein R-Vektorraum mit SKP. 1) Φ ∈ Hom(V, V) heißt orthogonal, wenn Φ ein Isomorphismus ist, Φt existiert und

2.3 Matrizenrechnung

235

Φ−1 = Φt . 2) Φ ∈ Hom(V, V) heißt symmetrisch, wenn Φt existiert und Φ = Φt . Symmetrische Matrizen bzw. Homomorphismen können also durch das Skalarprodukt „hindurchgezogen“ werden. Bemerkungen 2.62 1) Man beachte, dass Φt und die darauf aufbauenden Begriffe von der Wahl des (der) SKP und die Darstellungsmatrix von der Basis abhängt. Werden aber beide miteinander verknüpft, indem sowohl in V eine ONB {u1 , . . . , un } als auch in W eine ONB {w1 , . . . , wm } gewählt wird, so gilt: Ist A die Darstellungsmatrix von Φ, so ist At die Darstellungsmatrix von Φt . Dies gilt also insbesondere für V = Rn bzw. W = Rm mit den Einheitsbasen, d. h. in diesem Sinn ist die transponierte Abbildung von x 7→ Ax die Abbildung y 7→ At y . Sei A die Darstellungsmatrix von Φ, B die von Φt , dann (siehe (2.21)) Φu j =

m X

ai, j wi =

i=1

also ai, j

m  X  Φu j . wi wi , i=1

     n n  P P = Φu j . wi = u j . Φt wi und Φt wi = b j,i u j = Φt wi . u j u j (siehe (2.92)), also j=1

j=1

  b j,i = Φt wi . u j = ai, j .

2) Sei V ein R-Vektorraum mit SKP, Φ, Ψ ∈ Hom(V, V). Es gilt Φ = 0 genau dann, wenn (Φu . w) = 0 für alle u, w ∈ V. Dabei ist „ ⇒ “ klar und für „ ⇐ “ betrachte man für beliebiges u ∈ V : Φu = 0 ⇔ Φu ∈ V ⊥

Also gilt auch Φ = Ψ genau dann, wenn (Φu . w) = (Ψ u . w) für alle u, w ∈ V. Ist V endlichdimensional mit Basis B = [u1 , . . . , un ], dann gilt weiter

    Φ = Ψ genau dann, wenn Φui . u j = Ψ ui . u j für alle i, j = 1, . . . , n.

236

2 Matrizen und lineare Abbildungen

3) Ist Φ symmetrisch, dann gilt sogar Φ = 0 genau dann, wenn (Φu . u) = 0 für alle u ∈ V und analog die weiteren Aussagen von 2). Es gilt nämlich: (Φu . w) =

1 ((Φ(u + w) . u + w) − (Φu . u) − (Φw . w)) 2

wegen 1 1 ((Φu . w) + (Φw . u)) = ((Φu . w) + (w . Φu)) = (Φu . w) . 2 2

Damit gilt bei „ ⇐ “ auch (Φu . w) = 0 für alle u, w ∈ V und nach 2) also Φ = 0.

4) Da für Φ ∈ Hom(V, V) Symmetrie bedeutet hΦu . wi = hu . Φwi für alle u ∈ V, w ∈ W , ist dieser Begriff auch ohne allgemeine Existenz einer Adjungierten wohldefiniert (bzw. impliziert diese gerade). △ Sei O(V) die Menge der orthogonalen Abbildungen von V nach V, dann ist dies mithin eine nichtkommutative Gruppe (und O(V) ⊂ GL(V)). Dies ist nicht im Konflikt zu den in Abschnitt 2.1.2 rein geometrisch definierten Begriffen der orthogonalen Transformation: Satz 2.63: Orthogonale Transformation = orthogonale Abbildung Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm k . k. Dann sind äquivalent: (i) Φ ist orthogonale Transformation. (ii) Φ ist orthogonal (im Sinn von Definition 2.61, 1)).

Beweis: „(i) ⇒ (ii)“: Aus der Längenerhaltung folgt die Skalarprodukterhaltung (siehe Satz 2.13): (Φu . Φy) = (u . y) Sei w ∈ V beliebig und y := Φ−1 w, also

für alle u, y ∈ V .

  (Φu . w) = (u, y) = u . Φ−1 w .

2.3 Matrizenrechnung

237

Daher existiert Φt und es gilt Φt = Φ−1 . „(ii) ⇒ (i)“:

  kΦuk2 = (Φu . Φu) = u . Φt Φu = (u . u) = kuk2 .

(2.95) 

Mit dem Begriff der transponierten Matrix bzw. Abbildung lassen sich die Äquivalenzlisten in Hauptsatz 1.85 ergänzen zu: Hauptsatz 1.85IV Lösbarkeit und Eindeutigkeit bei LGS Seien m, n ∈ N, A ∈ R(m,n) , b ∈ Rn . Betrachte das LGS Ax = b . Sei Φ die durch x 7→ Ax definierte lineare Abbildung. Dann sind die folgenden Aussagen äquivalent: (a) Φ ist surjektiv. (i) Bei jeder Wahl der b1 , . . . , bn auf der rechten Seite ist das Gleichungssystem lösbar (universelle Existenz). (ii) Der Zeilenrang der Koeffizientenmatrix ist voll, d. h. gleich m. (a’) Φt ist injektiv. Auch folgende Aussagen sind äquivalent: (b) Φ ist injektiv. (iii) Bei jeder Wahl der b1 , . . . , bn auf der rechten Seite gibt es höchstens eine Lösung des Systems (Eindeutigkeit ). (iv) Das zugehörige homogene System Ax = 0 hat nur die Null-Lösung (Eindeutigkeit im homogenen Fall). (v) Der Spaltenrang der Koeffizientenmatrix ist voll, d. h. gleich n. (b’) Φt ist surjektiv. Im Fall m = n, d. h. eines quadratischen LGS mit genauso vielen Gleichungen wie Unbekannten sind alle Aussagen (i)–(v),(a)–(b’) miteinander äquivalent und zusätzlich mit (c) Φ ist bijektiv.

238

2 Matrizen und lineare Abbildungen

(vi) Durch elementare Zeilenumformungen kann A auf die Form einer oberen Dreiecksmatrix mit nichtverschwindenden Diagonalelementen (bzw. = 1) gebracht werden:

(vii) A ist invertierbar.

  1  ..  .       0

..

.

 ∗       .   ..  .  1

(viii) A lässt sich als Produkt von Elementarmatrizen schreiben.

Beweis: Dies ergibt sich sofort aus den schon bewiesenen Äquivalenzen, da At die Darstellungsmatrix von Φt zu den Einheitsbasen ist und etwa der Zeilenrang von A der Spaltenrang von At ist.  In der Sprache von LGS bedeuten somit die neuen Äquivalenzen: (i) Ax = b ist für jede rechte Seite b lösbar (universelle Lösbarkeit). (ii) At x = c hat höchstens eine Lösung (Eindeutigkeit). In Theorem 2.70 wird diese Aussage verallgemeinert werden. Satz 2.64: Projektion orthogonal ↔ symmetrisch Sei V ein R-Vektorraum mit SKP ( . ). Sei P : V → V eine Projektion für die Pt existiere. P ist genau dann eine orthogonale Projektion, wenn P symmetrisch ist.

Beweis: „⇒“: Dafür ist (Pu . w) = (u . Pw)

für alle u, w ∈ V

zu zeigen. Wegen u − Pu ∈ U ⊥ für U := Bild P gilt also insbesondere (Pu − u . Pw) = 0, (Pw − w . Pu) = 0 für alle u, w ∈ V . Daher gilt (Pu . w) = (w . Pu) = (Pw . Pu) = (Pu . Pw) = (u . Pw) . „⇐“: Hier ist

2.3 Matrizenrechnung

239

(Pu − u . Pw) = 0

für alle u, w ∈ V

zu zeigen. Es ist aber   (Pu − u . Pw) = u . Pt Pw − (u . Pw)

= (u . Pw) − (u . Pw) = 0 .



*Bemerkung 2.65 Die explizite Darstellung einer Projektion auf einen eindimensionalen Unterraum nach (2.57) gilt in verallgemeinerter Form für jede Projektion auf Rn : Sei wie in Hauptsatz 2.44 Rn = U 1 ⊕ U 2 und P die durch Bild P = U1 ,

Kern P = U2

festgelegte Projektion. Sei [u1 , . . . , uk ] eine Basis von U1 , [uk+1 , . . . , un ] eine Basis von U2 , die sich nach Bemerkung 1.87 zu einer Basis von Rn ergänzen. Sei B die zusammengesetzte Basis von Rn . Nach Hauptsatz 2.44 ist ! 1k 0 [P] = , B B 0 0 also mit     U = U (1) U (2) , U −t = V (1) V (2) ,

d. h. einer Partionierung nach k Spalten bzw. Zeilen nach Bemerkungen 2.50, 6) !  t 1k 0 −1 P=U U = U (1) V (1) 0 0

und analog für P2 := 1 − P. Also gilt

und

 t  t U (1) V (1) + U (2) V (2) = 1  t V (1) U (1) = 1k ,  t V (1) U (2) = 0 ,



t V (2) U (2) = 1n−k ,  t V (2) U (1) = 0 ,

(2.96)

240

2 Matrizen und lineare Abbildungen

wie sich durch Blockmultiplikation von UU −1 = 1 = U −1 U ergibt. Der Spezialfall einer Projektion nach (2.57) ordnet sich hier ein: Es ist u1 = a und für die erste Spalte w1 von U −t gilt (wegen U −1 U = 1) (a . w1 ) = 1 , (ui . w1 ) = 0 für i = 2, . . . , n, also w1 ∈ (Kern P)⊥ = b⊥⊥ = Rb und so w1 =

1 b. (a . b)

Deshalb reduziert sich (2.96) auf (2.57). Eine orthogonale Projektion ergibt sich genau dann, wenn U1 und U2 orthogonal sind, d. h.: U2 = U1⊥ . Dann können die Basen in U1 und U2 orthonormal gewählt werden (was immer möglich ist), ergänzen sich aber zusätzlich zu einer ONB, so dass gilt     V (1) V (2) = U −t = U = U (1) U (2) , und damit vereinfacht sich die Darstellung zu  k  X  t  Px =  ui ⊗ ui  x = U (1) U (1) x , i=1

womit sich ein alternativer Beweis für (2.51) ergeben hat.



*Bemerkung 2.66 In der Statistik ist man daran interessiert, einen (Daten-)Vektor x ∈ Rn auch 1X 1 xi = (1 . x) , n i=1 n n

y := x − x1 , wobei

x :=

zuzuordnen, d. h. einen Vektor mit arithmetischem Mittel Null: y=0. Dabei ist 1 ∈ Rn der Vektor, dessen Komponenten alle 1 sind. Diese Abbildung lässt sich wegen nx1 = 1 (1 . x) = 1 ⊗ 1 x durch folgende Matrix beschreiben:

2.3 Matrizenrechnung

241

1 A := 1 − 1 ⊗ 1 . n Hierbei ist 1 ⊗ 1 ∈ R(n,n) die Matrix, deren Einträge alle gleich 1 sind. Dann gilt: A ist eine orthogonale Projektion, wobei Bild A = {y ∈ Rn : y = 0}, Kern A = span(1) .

(2.97)

Das lässt sich wie folgt einsehen: Die Beziehung A2 = A

rechnet sich sofort unter Beachtung von 1 ⊗ 1 · 1 ⊗ 1 = n1 ⊗ 1 in R(n,n) nach. A ist symmetrisch, so dass mit Satz 2.64 A orthogonale Projektion ist. (2.97) folgt sofort.

Man nennt A auch eine zentrierende Matrix. Es gilt demnach insbesondere 1t A = 0 ,

A1 = 0 ,

d. h. die Zeilen- und Spaltensummen von A sind sämtlich Null. Mittels A lässt sich die mittlere quadratische Abweichung 1X (xi − x)2 n i=1 n

d2x := und damit die (Stichproben-)Varianz

1 X (xi − x)2 n − 1 i=1 n

s2x := ausdrücken durch

d2x =

1 t x Ax n

und analog für s2x , denn nd2x = (x − x1)t (x − x1) = (Ax)t Ax = xt At Ax = xt Ax , da A symmetrisch und idempotent ist. Wir nehmen folgende Diskussion wieder auf:



Beispiel 2(3) – Elektrisches Netzwerk Wir betrachten wieder wie in Beispiel 2(2) ein elektrisches Netzwerk, wollen aber als Bauelemente neben Ohmschen Widerständen auch Kondensatoren und Spulen zulassen (siehe z. B. Eck, Garcke und Knabner 2011, Abschnitt 2.1). Ein Kondensator kann elektrische Ladungen speichern. Die Menge der gespeicherten Ladung ist proportional zur angelegten Spannung. Bei

242

2 Matrizen und lineare Abbildungen

Spannungsänderungen kann ein Kondensator daher Ströme aufnehmen oder abgeben. Dies wird beschrieben durch die Relation ˙ , I(t) = C U(t)

(MM.59)

wobei C die Kapazität des Kondensators ist. Dabei bezeichnet f˙ die Ableitung einer Funktion f = f (t). Es ist also i. Allg. nicht mehr möglich, die Fließverhältnisse in einem solchen elektrischen Netzwerk stationär zu betrachten, d. h. durch Vektoren x oder y, sondern es ist eine dynamische Beschreibung (durch zeitabhängige Funktionen y(t)) nötig. Analog gilt: Eine stromdurchflossene Spule erzeugt ein Magnetfeld, dessen Stärke proportional zur Stromstärke ist. Im Magnetfeld ist Energie gespeichert, diese muss beim Aufbau des Magnetfeldes aus dem Strom der Spule entnommen werden. Dies führt zu einem Spannungsabfall an der Spule, der proportional zur Änderung der Stromstärke ist, U(t) = L I˙(t) ,

(MM.60)

wobei L die Induktivität der Spule ist. Statt auf die potentialbasierte Formulierung (MM.50) bauen wir auf das Spannungsgesetz in der Form von (MM.47) auf und gehen ohne Nachweis davon aus, dass wir zwischen beiden Formulierungen äquivalent hin und her gehen können. Gesucht sind also Funktionen y : [t0 , T ] → Rn , die Ströme für ein vorgegebenes Zeitintervall [t0 , T ] und analog die Spannungen e = e(t). Ebenfalls möglicherweise zeitabhängig ist der Vektor der Quellstärken b = b(t), um etwa einen Wechselstromkreis zu beschreiben. Weiterhin gültig bleibt das Stromgesetz Bt y(t) = 0

(MM.61)

De(t) = 0 ,

(MM.62)

e(t) = eW (t) − b(t) ,

(MM.63)

und das Spannungsgesetz in der Form

wobei bisher

wenn man mit eW (t) = Ay(t) mit A = diag(R1 , . . . , Rn ) den Spannungsabfall an den Ohmschen Widerständen beschreibt. Kommen jetzt Spulen und Kondensatoren hinzu, ist eW in (MM.63) zu ersetzen durch e(t) = DW eW (t) + DS eS (t) + DC eC (t) − b(t) .

(MM.64)

  Dabei ist DW = diag δW und δW i i = 1 falls an der Kante i ein Widerstand liegt und 0 sonst. DS bzw. DC beschreiben analog das (Nicht-)Vorhandensein von Spulen bzw. Kondensatoren an der jeweiligen Kante. Dass sich die Spannungsabfälle wie postuliert addieren, ist eine Folge des Spannungsgesetzes. Auch kann o. B. d. A. angenommen werden, dass an jeder Kante genau ein Bauteil vorliegt. Aus (MM.62), (MM.64) folgt also ˙ . D (DW e˙ W + DS e˙ S + DC e˙ C ) (t) = D b(t) Dabei sind die Ableitungen komponentenweise zu verstehen, d. h. ˙f (t) = ( f˙1 (t), . . . , f˙n (t))t . Also ergibt sich zusammen mit (MM.59), (MM.60) ˙ . D(DW A˙y(t) + DS L¨y(t) + DC Cy(t)) = D b(t)

(MM.65)

2.3 Matrizenrechnung

243

Dabei ist L = diag(L1 , . . . , Ln ) bzw. C = diag(1/C1 , . . . , 1/Cn ) mit den jeweiligen Induktivitäten Li bzw. Kapazitäten Ci zur Kante i. Bei Fehlen des Bauelements auf Kante i kann Li bzw. 1/Ci beliebig gesetzt werden. Wird in dem Fall Ri = 0, Li = 0 bzw. 1/Ci = 0 vereinbart, sind die Matrizen DW , DS , DC entbehrlich. Es sind also Lösungen von (MM.65) zusammen mit (MM.61) gesucht. Es handelt sich um ein System gewöhnlicher Differentialgleichungen 2. Ordnung mit algebraischen Nebenbedingungen. Gewöhnliche Differentialgleichungen 1. und 2. Ordnung werden ab Abschnitt 7.2 behandelt. Einer der einfachsten Fälle entsteht wenn je eines der verschiedenen Bauteile mit einer Spannungsquelle in der Schleife verbunden wird (siehe Abbildung 2.10). In diesem Fall ist n = m = 3, d. h. es gibt eine Schleifengleichung

2

C

L

3 R

1

Ohmscher Widerstand

R

, Spule

, Kondensator

.

Abb. 2.10: Elektrischer Schwingkreis mit Ohmschem Widerstand, Spule und Kondensator.

R˙y1 (t) + L¨y2 (t) +

1 ˙ y3 (t) = b(t) C

und die Gleichungen aus dem Stromgesetz y1 − y2 = 0, y2 − y3 = 0, d. h. y1 = y2 = y3 und damit die gewöhnliche Differentialgleichung 2. Ordnung y¨ (t) +

R 1 1˙ y˙ (t) + y(t) = b(t) für t ∈ [t0 , T ] , L LC L

(MM.66)

zu versehen mit Anfangsbedingungen y(t0 ) = y0 , y˙ (t0 ) = y′0 . Die Lösung von (MM.66) kann wegen der Linearität des Problems (siehe allgemeiner Abschnitt 8.6.1) zerlegt werden in eine Lösung y p zur rechten Seite und irgendeiner Anfangsvorgabe y0 , y′0 und eine Lösung ya zur rechten Seite gleich 0 und den Anfangsvorgaben y0 − y0 , y′0 − y′0 . y p beschreibt das erzwungene Langzeitverhalten, ya den Einschwingvorgang. ^ Beispiel 2(4) – Elektrisches Netzwerk In (MM.51) wurde ein LGS in Spannung y und Potential x hergeleitet, aus dem sich aber y eliminieren lässt. Auflösen des oberen Teilsystems nach y, d. h. y = −A−1 Bx + A−1 b

(MM.67)

244

2 Matrizen und lineare Abbildungen

und Einsetzen in das untere ergibt Bt A−1 Bx = Bt A−1 b .

(MM.68)

Dabei ist hier A nicht nur invertierbar, sondern sogar diagonal, so dass C = A−1 explizit (und diagonal) vorliegt. Wir erwarten, dass der Kern von Bt A−1 B mindestens span(1) umfasst. Es gilt: Satz 2.67 Sei C ∈ R(n,n) Diagonalmatrix mit positiven Einträgen, B ∈ R(n,m) . Dann gilt für M := Bt CB: 1) Kern M = Kern B . 2) Das LGS M x = Bt c hat für jedes c ∈ Rn eine Lösung.

3) Ist das Netzwerk zusammenhängend, so hat das LGS aus 2) mit B nach (MM.43) nach Fixierung einer Komponente von x eine eindeutige Lösung.

Beweis: Zu 1): Kern B ⊂ Kern M ist klar und für x ∈ Kern M gilt:   0 = x . Bt CBx = (Bx . CBx) ,

woraus Bx = 0 folgt, da (x . Cy) nach (1.63) ein SKP auf Rn darstellt. Zu 2): Zu zeigen ist Bt c ∈ Bild M = (Kern M t )⊥ = (Kern M)⊥ , da M symmetrisch ist. Sei x ∈ Kern M = Kern B, dann   x . Bt c = (Bx . c) = 0 .

Zu 3): Nach Satz 1.114 ist Kern M = Kern B = span(1), woraus sich die Behauptung ergibt.



Bemerkung 2.68 Die Matrix C darf auch allgemeiner sein: 1) C muss symmetrisch sein (damit auch M symmetrisch ist). 2) (x . Cy) muss ein SKP definieren, d. h. es muss (x . C x) > 0 für alle x ∈ Rn , x , 0 gelten: siehe Abschnitt 4.7.1. △ Anwendung von (MM.68) auf das Beispiel (aus Abbildung 1.1) ergibt das LGS ! !  U   R1  RG −RG x1 =  U  , −RG RG x2 − R1

wobei

RG :=

1 1 1 + + . R1 R2 R3

Nach Fixierung von x2 = 0 ergibt sich also x1 =

U R2 R3 U = R1 RG RS

Aufgaben

245

mit RS := R1 R2 + R1 R3 + R2 R3 und daraus nach (MM.67) y1 = −

U x1 R3 U x1 R2 U x1 + , y2 = = , y3 = = . R1 R1 R2 RS R3 RS

Das ist nach leichter Umformung die Lösung aus Beispiel 2(1).

^

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • • • • • • •

Matrizenmultiplikation, Matrixpotenzen Tensorprodukt von Vektoren, Rang-1-Matrizen Projektion Invertierbare Matrix Elementarmatrizen Orthogonale Matrix und Abbildung, O(n, R) Transponierte, symmetrische Matrix und Abbildung

• • • • •

Darstellungsmatrix von Kompositionen (Theorem 2.35) (R(m,n) , +, ·) als (nicht kommutativer) Ring (Überlegung nach (2.44)) Projektionen und direkte Zerlegung (Hauptsatz 2.44, 2.46) Gauss-Umformung als Multiplikation mit Elementarmatrizen ((2.73)ff.) Projektion orthogonal ⇔ symmetrisch (Satz 2.64)

Zusammenhänge

Beispiele

• Produkte von

– Drehmatizen – Diagonalmatrizen

• Darstellungsmatrizen der Orthogonalprojektion auf Unterraum, insbesondere Gerade und Hyperebene • (GL(n, R), ·) als (nicht kommutative) Gruppe

Aufgaben Aufgabe 2.10 (K) Verifizieren Sie Bemerkung 2.27 unter Benutzung der trigonometrischen Additionstheoreme. Aufgabe 2.11 (K) Verifizieren Sie (2.40). Aufgabe 2.12 (T) Zeigen Sie Satz 2.46, 1).

246

2 Matrizen und lineare Abbildungen

Aufgabe 2.13 (T) Arbeiten Sie Bemerkung 2.49 aus. Aufgabe 2.14 (K) Zeigen Sie die Aussagen aus Bemerkungen 2.50, 2) über invertierbare (obere) Dreiecksmatrizen. Aufgabe 2.15 (T) Zeigen Sie, dass für alle A ∈ R(p,n) der Rang von A mit dem Rang von AAt und von At A übereinstimmt. Aufgabe 2.16 (T) Seien A ∈ R(m,n) , B ∈ R(n,p) beliebig. Zeigen Sie:  Rang(AB) ≤ min Rang A, Rang B .

Aufgabe 2.17 (T) Es sei C ∈ R(m,n) eine Matrix von Rang k. Man beweise: Es gibt Matrizen A ∈ R(m,k) und B ∈ R(k,n) mit C = AB. Aufgabe 2.18 (K) Es sei A eine reelle n × n-Matrix, 1 die Einheitsmatrix, es sei (A − 1) invertierbar, und es sei B := (A + 1)(A − 1)−1 . Man beweise: a) (A + 1)(A − 1)−1 = (A − 1)−1 (A + 1) durch Betrachtung von

(A − 1 + 21)(A − 1)−1 − (A − 1)−1 (A − 1 + 21). b) (B − 1) ist invertierbar, indem man B − (A − 1)(A − 1)−1 = 2(A − 1)−1 zeigt. c) (B + 1)(B − 1)−1 = A.

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

247

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

2.4.1 Lineare Gleichungssysteme und ihre Unterräume II Mit den bisherigen Überlegungen können die für eine Matrix A ∈ R(m,n) (und dem von ihr definierten LGS) wesentlichen linearen Unterräume, nämlich Kern A Bild A Kern At Bild At

(= (= (= (=

Lösungsraum von Ax = 0) , Spaltenraum von A) , Lösungsraum von At x = 0 bzw. von xt A = 0t ) , Zeilenraum von A)

genauer in Beziehung gesetzt werden. Nämlich: Spaltenrang = dim Bild A , Zeilenrang = dim Bild At , und somit nach Hauptsatz 1.80: dim Bild A = dim Bild At . In Theorem 1.82 haben wir gesehen: dim Kern A + dim Bild At = n

(2.98)

dim Kern A + dim Bild A = n

(2.99)

dim Kern At + dim Bild A = m , dim Kern At + dim Bild At = m .

(2.100) (2.101)

und somit auch

und entsprechend

In (1.70) haben wir sogar folgendes gesehen, dass Hauptsatz 2.69: Kern-Bild-Orthogonalität Sei A ∈ R(m,n) . Dann gilt bezüglich des euklidischen SKP: und

(Kern A)⊥ = Bild At

bzw.

Kern A = (Bild At )⊥

(Kern At )⊥ = Bild A

bzw.

Kern At = (Bild A)⊥

und insbesondere die Dimensionsbeziehungen (2.98)–(2.101).

248

2 Matrizen und lineare Abbildungen

Damit ergibt sich insbesondere folgendes Lösbarkeitskriterium für LGS: Theorem 2.70: Lösbarkeit eines LGS Sei A ∈ R(m,n) , b ∈ Rm . Das LGS Ax = b ist lösbar, genau dann, wenn b ∈ (Kern At )⊥ , d. h. (b . x) = 0

für alle x ∈ Rm

mit At x = 0 .

Bemerkung 2.70a Insbesondere folgt: Ax = b ist lösbar für alle b ∈ Rm genau dann, wenn At injektiv ist. Da Kern(At )⊥ = Rm ⇔ Kern(At ) = {0} und durch Vertauschung von At und Att = A:

A ist injektiv genau dann, wenn At y = c lösbar für alle c ∈ Rn ist.



Die zentrale Bedeutung von Hauptsatz 2.69 wird unterstrichen durch: Bemerkungen 2.70b 1) Sei A ∈ R(m,n) , r = Rang(A), dann gibt es orthogonale U ∈ R(m,m) , V ∈ R(n,n) , ein nichtsinguläres C ∈ R(r,r) , so dass ! C0 t . (2.101a) U AV = 0 0

    Sei U = u(1) , . . . , u(m) , V = u(1) , . . . , u(n) , dann gilt {u(1) , . . . , u(r) } {u(1) , . . . , u(r) } {u(r+1) , . . . , u(m) } {u(r+1) , . . . , u(n) }

ist eine ONB von ist eine ONB von ist eine ONB von ist eine ONB von

Bild A, Bild At , Kern At , Kern A.

(2.101b)

Das kann man wie folgt einsehen: Man wähle ONBs Räume und bezeichne sie nach   der jeweiligen  (2.101b). Setzt man U = u(1) , . . . , u(m) und V = u(1) , . . . , u(n) , so sichert Hauptsatz 2.69 die Orthogonalität von U und V . Sei C˜ = (ci, j ) := U t AV also ci, j = uti Au j und wegen At ui = 0 für i = r + 1, . . . , m und Au j = 0 für j = r + 1, . . . , n hat C˜ die behauptete Gestalt. Weiter ist Rang(C) = Rang C˜ = Rang(A) = r, also nichtsingulär.

In Hauptsatz 4.127 wird diese Aussage in der Singulärwertzerlegung dahingehend verbessert, dass C tatsächlich als Diagonalmatrix (mit positiven Diagonalelementen) gewählt

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

249

werden kann. Da dies Eigenwerte (siehe Kapitel 4) benötigt, kann diese Darstellung nicht wie (2.101a) in endlich vielen Elementaroperationen bestimmt werden. Dies ist weiterhin der Fall, wenn C nur eine obere Dreiecksmatrix sein soll. Dazu ist eine QR-Zerlegung von C (siehe Kapitel 4.8) von Nöten: C = QR, wobei R obere Dreiecksmatrix und Q orthogonal ist. Dann kann C durch R ersetzt werden bei gleichzeitigem Ersatz von U durch ! Qt 0 U =: U˜ . 0 1

2) Sei A ∈ R(n,n) , r = Rang(A), dann sind folgende Aussagen äquivalent: (i) (x, y) = 0 für alle x ∈ Bild(A), y ∈ Kern(A)

(ii) Bild(A) = Bild(At )

(iii) Kern(A) = Kern(At ) (iv) In (2.101a) kann U = V gewählt werden Das kann man wie folgt einsehen: Die Äquivalenz von (ii) und (iii) folgt sofort aus Hauptsatz 2.69: Bild(A) = Bild(At ) ⇔ Kern(At ) = Bild(A)⊥ = Bild(At )⊥ = Kern(A)

(ii)(⇔(iii))⇒(iv): Nach Definition in 1) ist es also ausreichend V zusammenzusetzen aus einem ONB von Bild(At ), für die (u(1) , . . . , u(r) ) genommen werden kann, und einer ONB von Kern(A), für die (u(r+1) , . . . , u(n) ) genommen werden kann, also V = U . (iv)⇒(ii): Nach (2.101a), d. h. ! ! C 0 Ct 0 A=U U t und At = U Ut 0 0 0 0 gilt wegen der Invertierbarkeit von C : Bild(A) = Bild(At )

Schließlich ist (ii)⇒(i) klar und bei (i)⇒(ii) beachte man: Nach Voraussetzung ist Bild(A) ⊂ (Kern(A))⊥ = Bild(At )

und damit gilt die Behauptung, da die Dimensionen gleich sind (Satz 2.54).



Beispiel 3(5) – Massenkette Mit Theorem 2.70 ist es möglich, das Lösbarkeitskriterium (MM.16) für eine Matrix der Form (MM.15) und darüber hinaus ohne explizite Gauss-Elimination zu verifizieren. Wegen n X i=1

bi = 0 ⇔ (b . 1) = 0

für b = (bi )i ∈ Rn ist somit Kern At = span(1)

(MM.69)

nachzuweisen. Wegen A = At folgt die Teilmengenbeziehung „⊃“ analog zu Satz 1.114, 1) sofort daraus, dass die Zeilensummen (bzw. allgemein die Spaltensummen) verschwinden. Wegen der Gestalt A = Bt B nach (MM.52) mit B nach (MM.36) ist auch hier Satz 1.114, 1) gültig und liefert mit Satz 2.67, 1) die

250

2 Matrizen und lineare Abbildungen

Behauptung. Ein alternativer Weg ohne Rückgriff auf B benötigt weitere Eigenschaften von A, etwa die Irreduzibilität. Dieser Begriff wird in Abschnitt 8.4 genauer untersucht (siehe Satz 8.43): Definition 2.71 Sei A ∈ R(n,n) . A heißt irreduzibel , wenn zu i, j ∈ {1, . . . , n} ein r ∈ {1, . . . , n} und Indizes i1 = i, i2 , . . . , ir−1 , ir = j existieren, so dass aik ,ik+1 , 0 für alle

k = 1, . . . , r − 1 .

A heißt reduzibel , wenn A nicht irreduzibel ist. Irreduzibilität bedeutet gerade für ein zugehöriges LGS, dass es nicht möglich ist, einen Teil der Unbekannten unabhängig von den anderen zu bestimmen (siehe Bem. 8.44, 2)). Bezeichnen wir für i ∈ {1, . . . , n} mit Ni = { j ∈ {1, . . . , n}\{i} : ai, j , 0} die Nachbarn des Index i, so ist es bei Irreduzibilität demnach möglich, beliebige Indizes über Nachbarschaftsbeziehungen zu verbinden. Der folgende Satz enthält insbesondere die Aussage (MM.69): Satz 2.72 Sei A = (ai, j )i, j ∈ R(n,n) mit folgenden Eigenschaften: 1) A ist irreduzibel. n P 2) ai, j = 0 für alle

i = 1, . . . , n .

j=1

3) ai, j ≤ 0

für

i, j = 1, . . . , n, i , j .

Dann gilt: Kern A = span(1) .

Beweis: Die Bedingung 2) lässt sich wegen 3) auch schreiben als ai,i = −

n X

ai, j =

j=1 j,i

n X j=1 j,i

|ai, j |

(MM.70)

und damit ai,i ≥ 0 . Da wegen 1) für i ∈ {1, . . . , n} mindestens ein ai, j , 0 für ein j , i, d. h. Ni , ∅ gilt, ist sogar ai,i > 0

für alle

i = 1, . . . , n .

Sei x = (xi )i ∈ Kern A und k ∈ {1, . . . , n} so gewählt, dass xk = max{xi : i ∈ {1, . . . , n}} . Dann folgt mit 3) und (MM.70)

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme ak,k xk =

n X j=1 j,k

|ak, j |x j =

X j∈Nk

|ak, j |x j ≤

251 X j∈Nk

|ak, j |xk = ak,k xk .

Damit muss obige Ungleichung als Gleichung gelten und da die Abschätzung für die Summanden einzeln gilt, auch: |ak, j |x j = |ak, j |xk

für

j ∈ Nk

und damit x j = xk

für

j ∈ Nk .

Diese Gleichheit kann auf die Nachbarn der j ∈ Nk usw. übertragen werden. Wegen 1) wird dadurch schließlich die ganze Indexmenge erfasst.  Dieser Satz impliziert noch einmal die Aussage (2.97) für die zentrierende Matrix 1 A=1− 1⊗1. n

^

2.4.2 Ausgleichsrechnung und Pseudoinverse Sei A ∈ R(m,n) , b ∈ Rm und man betrachte das LGS Ax = b . Dies möge nicht lösbar sein, was typischerweise im Fall m > n (Überbestimmung durch zu viele widersprüchliche Gleichungen) auftritt. Dann ist es naheliegend, das LGS durch folgendes Ersatzproblem (lineares Ausgleichsproblem) zu approximieren: Gesucht ist x ∈ Rn , so dass kAx − bk = min{kAy − bk : y ∈ Rn } .

(2.102)

Dabei ist k.k die euklidische Norm. Also ist Ax die orthogonale Projektion in Rm von b auf Bild A und damit eindeutig existent (siehe Definition 1.101 und Hauptsatz 1.102). Ax ist dadurch charakterisiert, dass Ax − b ∈ (Bild A)⊥ = Kern At nach Hauptsatz 1.102 und Hauptsatz 2.69, folglich ist Ax bestimmt durch das LGS At Ax = At b , die Normalgleichungen .

(2.103)

252

2 Matrizen und lineare Abbildungen

Damit nicht nur Ax, sondern auch x ∈ Rn eindeutig ist, müssen die Spalten von A linear unabhängig sein, d. h.: Hauptsatz 2.73: Ausgleichsproblem lösbar Sei A ∈ R(m,n) , b ∈ Rm . Dann ist das lineare Ausgleichsproblem (2.102) immer lösbar und die Lösungen erfüllen die Normalgleichungen (2.103). Genau dann, wenn Rang A = n, ist die Lösung eindeutig. Rang A = n bedeutet auch Rang(At A) = n (siehe Bemerkungen 2.57, 3)) und damit die Regularität von At A ∈ R(n,n) : Die Lösung von (2.102) ist daher in diesem Fall x := (At A)−1 At b ,

(2.104)

wird aber nicht so berechnet. Dafür gibt es diese Möglichkeiten: • Lösung der Normalgleichungen: Zwar ist At A symmetrisch und hier auch positiv definit (siehe Definition 4.133), was die algorithmische Lösung von (2.103) erleichtert (siehe Abschnitt 8.2.3), die Stabilität dieses LGS kann aber schlecht sein (siehe Abschnitt 8.1.1). Eine Möglichkeit, dies zu verbessern, ist das LGS als LGS doppelter Dimension zu schreiben durch Einführung des Defekts y := Ax − b als weitere Unbekannte. Dann ist (2.103) äquivalent zum symmetrischen LGS ! ! ! 0 0 At x = . A −1 y b Dies ist mithin ein LGS vom Typ (1.91) mit folgender Notationsänderung: Statt A, B, b, f steht hier 1, −A, −b, 0. • Direkte Lösung von (2.102): Dies wird in Abschnitt 4.8 behandelt.

Beispiel 2.74 (Datenanpassung) Lineare Ausgleichsprobleme entstehen, wenn („viele“) Daten (ti , yi ), i = 1, . . . , m, ti , yi ∈ R, durch eine Funktion aus einem (niedrigdimensionalen) Funktionenraum U mit gegebener Basis ϕ0 , . . . , ϕn , etwa Rn [x] mit der Monombasis, (wobei n + 1 < m) „möglichst gut“ wiedergegeben werden sollen: Es werden also x0 , . . . , xn ∈ R gesucht, so dass n X j=0

was sich durch die Forderung

 x j ϕ j (ti ) ≈ yi ,

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme m  X n X i=1

j=0

253

2  x j ϕ j (ti ) − yi → minimal

(Methode der kleinsten Quadrate ), präzisieren lässt. Setzt man A = (ai, j )i j ∈ R(m,n+1) , b = (bi ) ∈ Rm durch ai, j := ϕ j (ti ), bi := yi , i = 1, . . . , m,

j = 0, . . . , n ,

so handelt es sich um das lineare Ausgleichsproblem zu Ax = b. Die exakte Lösung von Ax = b, d. h. von   n  X  (ti ) = yi  x ϕ j j  

für i = 1, . . . , m,

j=0

ist gerade das Interpolationsproblem in V := span(ϕ0 , . . . , ϕn ). In Bemerkung 2.34 wurde für V = Rn [x] oder auch S 1 (∆) gezeigt, dass für m = n + 1 die Interpolationsaufgabe eindeutig lösbar ist. Für m > n + 1 ist deswegen, bis auf „spezielle“ Daten yi die Interpolationsaufgabe nicht lösbar und daher das Ausgleichsproblem angemessen. ◦ Beispiel 2.75 (Polynomiale Regression) Spezialfälle sind die polynomiale Regression, d. h. die Anpassung eines Polynoms n-ten Grades an Datenpunkte, für U = Rn [X], ϕi (x) := xi , und davon wieder die lineare Regression für n = 1. Für n = 1 lässt sich die Lösung explizit angeben. Wegen

ist

  1  A =  ...  1

  m  m P ti     i=1  At A =  P m m  ti P t2  i i=1

und

 t1   ..  .   tm

i=1

P   m y  i     At b =  i=1  . m  P ti yi  i=1

Mit den arithmetischen Mitteln als Abkürzungen, d. h.

254

2 Matrizen und lineare Abbildungen

1X ti , m i=1 m

t :=

1X 2 t , m i=1 i m

t2 :=

und analog y und ty lässt sich infolgedessen nach (2.68) die Lösung der Normalgleichung darstellen als ! !  !  −1  1 x0 mt2 −mt my , wobei d := t2 − (t)2 , = At A At b = 2 x1 mty m d −mt m demnach ergibt sich für den Achsenabschnittsparameter der Ausgleichsgeraden x0 =

 12 t y − t ty d

x1 =

 1 ty − ty . d

und für den Steigungsparameter

Durch Einsetzen verifiziert man, dass

(2.105)

x0 + x1 t = y , d. h. (t, y) liegt exakt auf der Ausgleichsgeraden. Damit lässt sich z. B. die Gleichung (2.105) ersetzen durch x0 = y − x1 t . ◦ Sei A ∈ R(m,n) und Rang A = n. Nach (2.103) wird durch A+ := (At A)−1 At

(2.106)

eine Verallgemeinerung der inversen Matrix definiert, insofern für n = m und A invertierbar gilt A+ = A−1 . A+ heißt die Pseudoinverse von A. Im Folgenden soll die Definition von A+ auch für den Fall Rang A < n erweitert werden, indem aus der Lösungsmenge für das Ausgleichsproblem eine spezielle Lösung ausgewählt wird. Dafür sollen die im Fall Rang A = n geltenden Eigenschaften zusammengestellt werden. Wegen der eindeutigen Lösbarkeit des Ausgleichsproblems gilt: A+ Ax = x für alle x ∈ Rn , d. h. A+ A = 1n ,

(2.107)

da A+ die Lösung des Ausgleichsproblems zuordnet und dieses für b = Ax natürlich x ist. Weiter ist

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

255

P := A(At A)−1 At = AA+ die orthogonale Projektion auf Bild A, da Pb− b = Ax− b, wobei Ax gerade durch Ax− b ∈ (Bild A)⊥ gekennzeichnet ist. Da Rang A = n ⇔ Kern A = {0}, gilt zusammenfassend in diesem Fall: • AA+ ist die orthogonale Projektion auf Bild A, • A+ A(= 1) ist die orthogonale Projektion auf (Kern A)⊥ (= Rn ).

Im Folgenden bezeichne, wie bisher auch, PU die orthogonale Projektion auf den linearen bzw. affinen Unterraum U. A+ b zu bestimmen bzw. das Ausgleichsproblem zu b zu lösen bedeutet daher bei Rang A = n: 1) Zerlege b in b = PBild A b + b − PBild A b. 2) Löse Ax = PBild A b (die Lösung existiert eindeutig). 3) A+ b := x. Im allgemeinen Fall (d. h. auch Rang A < n) ist für U = Bild A und b ∈ Rm zwar PU b eindeutig, nicht aber x ∈ Rn , so dass Ax = PU b .

(2.108)

Bei der Lösungsmenge von (2.108) handelt es sich vielmehr um einen affinen Raum der Form W b := x′ + Kern A ,

(2.109)

wobei x′ eine spezielle Lösung von (2.108) ist. Ein Element aus W b kann daher eindeutig durch die folgende Minimierungsaufgabe ausgewählt werden: Gesucht ist x ∈ W b , so dass kxk = min{kyk : y ∈ W b }

(2.110)

mit der euklidischen Norm k . k. Da es sich hierbei um die orthogonale Projektion von 0 auf W b handelt, ist die Lösung x von (2.110) eindeutig bestimmt und x = PW b 0

(2.111)

und nach (1.78) (siehe auch (2.166)) bzw. (1.77) mit Bemerkung 2.7 und Satz 1.105, 3) x = PKern A (0) + P(Kern A)⊥ (x′ ) = P(Kern A)⊥ (x′ ) . Damit ist die Lösung x von (2.111) charakterisiert durch x ∈ (Kern A)⊥ und

(2.112)

256

2 Matrizen und lineare Abbildungen

x − x′ ∈ Kern A ⇔ Ax = Ax′ = PU b . Aus diesem Grund: Definition 2.76 Sei A ∈ R(m,n) , b ∈ Rm . Die (Moore-Penrose11 -) Pseudoinverse A+ wird durch ihre Anwendung auf b definiert durch: A+ b ist die normminimale Lösung des Ausgleichsproblems, d. h. von (2.110), und ist charakterisiert durch A+ b ∈ (Kern A)⊥ und A(A+ b) = PBild A b . Mit dem folgenden (ersten) Isomorphiesatz (siehe auch Theorem A.23) lässt sich die Pseudoinverse alternativ darstellen: Theorem 2.77: Zerlegung in surjektive und injektive lineare Abbildung Seien V, W R-Vektorräume, V endlichdimensional und mit SKP, Φ : V → W eine lineare Abbildung. Dann gilt Φ = Φ|(Kern Φ)⊥ ◦ P(Kern Φ)⊥ , d. h. das folgende Diagramm ist kommutativ: Φ V W P(Kern Φ)⊥

Φ|(Kern Φ)⊥

(Kern Φ)⊥ Dabei ist P(Kern Φ)⊥ surjektiv, Φ|(Kern Φ)⊥ injektiv und insbesondere Ψ : (Kern Φ)⊥ → Bild Φ, x 7→ Φx

ein Isomorphismus.

Beweis: Sei x ∈ V, dann gilt nach Hauptsatz 1.102 11

Eliakim Hastings Moore ∗28. Januar 1862 in Marietta †30. Dezember 1932 in Chicago Roger Penrose ∗8. August 1931 in Colchester

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

257

x = P(Kern Φ)⊥ x + x − P(Kern Φ)⊥ x und x − P(Kern Φ)⊥ x ∈ (Kern Φ)⊥⊥ = Kern Φ und so    Φx = Φ ◦ P(Kern Φ)⊥ x = Φ|(Kern Φ)⊥ ◦ P(Kern Φ)⊥ x .

Eine Projektion ist immer surjektiv und die Injektivität von Φ|(Kern Φ)⊥ folgt aus Φ|(Kern Φ)⊥ x = 0 ⇒ x ∈ Kern Φ ∩ (Kern Φ)⊥ = {0} .



Bemerkung 2.78 Tatsächlich wird in Theorem 2.77 nur die Endlichdimensionalität von (Kern Φ)⊥ (für (Kern Φ)⊥⊥ = Kern Φ) gebraucht. △ Hauptsatz 2.79: Eigenschaften Pseudoinverse Sei A ∈ R(m,n) .

1) Die Pseudoinverse erfüllt die Identität A+ = Ψ −1 ◦ PBild A

(2.113)

mit Ψ nach Theorem 2.77. Es entsprechen sich also folgende Zerlegungen von A bzw. A+ : P(Kern A)⊥

Ψ

A : Rn −−−−−−→ (Kern A)⊥ −→ Bild A ⊂ Rm Ψ −1

PBild A

Rn ⊃ (Kern A)⊥ ←−−− Bild A ←−−−− Rm : A+ . Insbesondere ist A+ eine lineare Abbildung, die (bezüglich der Einheitsbasis) darstellende Matrix wird identisch mit A+ ∈ R(n,m) bezeichnet, d. h. A+ = (A+ e1 , . . . , A+ en ) . 2) Bild A+ = (Kern A)⊥ . 3) A+ A ist die orthogonale Projektion auf (Kern A)⊥ , A+ A = P(Kern A)⊥ , d. h.

(2.114)

258

2 Matrizen und lineare Abbildungen

für

A A+ Ax = Ax +

t

x ∈ Rn

+

und (A A) = A A .

(2.115) (2.116)

Weiter gilt: A+ A A+ y = A+ y

für

y ∈ Rm .

(2.117)

4) AA+ ist die orthogonale Projektion auf Bild A, d. h. AA+ = PBild A , und damit auch (AA+ )t = AA+ .

(2.118)

5) Ist Rang A = n, d. h. das Ausgleichsproblem eindeutig lösbar, dann ist A+ = (At A)−1 At und (2.114) wird zu (2.107), d. h. A+ ist eine Linksinverse.

Beweis: Zu 1): Die Darstellung entspricht der Charakterisierung (2.112). Da Ψ aus Theorem 2.77 ein Isomorphismus ist, gilt dies auch für Ψ −1 nach Satz 2.5, 3). Zu 2): Folgt sofort aus (2.113). Zu 3): Nach Theorem 2.77 gilt P(Kern A)⊥ = Ψ −1 ◦ A und damit A+ A = Ψ −1 ◦ PBild A ◦ A = Ψ −1 ◦ A = P(Kern A)⊥ . Wir schreiben kurz P für P(Kern A)⊥ . Auch die Identität (2.115) gilt, da Px − x ∈ Kern A = (Kern A)⊥⊥ ,

also

A(Px − x) = 0 .

Als orthogonale Projektion ist A+ A symmetrisch (nach Satz 2.64), d. h. (2.116) gilt. Die Beziehung (2.117) gilt, da sie P = 1 auf Bild A+ = (Kern A)⊥ bedeutet. Zu 4): Aus (2.113) folgt AA+ = A ◦ Ψ −1 ◦ PBild A = PBild A und damit auch (2.118). Zu 5): Folgt aus Hauptsatz 2.73 und (2.106)).



2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

259

Es ergibt sich daher das folgende Diagramm (i bezeichnet jeweils die Einbettung (Identität)): A −→ ←− A+

Rn  x      P = A+ A   y i

Bild A+ = (Kern A)⊥

Rm  x      i  y P = AA+  Bild A .



In Verallgemeinerung der Situation mit Rang A = n gilt also: A+ b bedeutet: 1) Zerlege b in b = PBild A b + b − PBild A b . 2) Der Lösungsraum von Ax = PBild A b ergibt sich als x = x′ + x p – mit x′ ∈ Kern A beliebig – und x p als spezielle Lösung des LGS. Andererseits gilt für x ∈ Rn die eindeutige Darstellung x = xk + xz

mit

xk ∈ Kern A ,

xz ∈ (Kern A)⊥ = Bild At .

Die spezielle Lösung wird so gewählt, dass x p ∈ (Kern A)⊥ , dann A+ b := x p . Im Fall b ∈ Bild A wird also ein Element (das mit der kleinsten Norm) aus A−1 ({b}) ausgewählt. Im Fall Rang A = n ist die Lösung von Ax = PBild A b eindeutig. Durch die Eigenschaften (2.115)-(2.118) wird A+ schon charakterisiert:

260

2 Matrizen und lineare Abbildungen

Satz 2.80: Charakterisierung Pseudoinverse Die Pseudoinverse A+ ∈ R(n,m) zu A ∈ R(m,n) ist charakterisiert durch

1) (A+ A)t = A+ A ,

2) (AA+ )t = AA+ , 3) A+ AA+ = A+ , 4) AA+ A = A .

Beweis: Wir haben bereits in Hauptsatz 2.79 gesehen, dass A+ 1)–4) erfüllt. Zum Beweis der Eindeutigkeit von A+ aus 1)–4) nehmen wir an, für B ∈ R(n,m) gelte 1)–4). Wir definieren P := BA, P := AB, dann gilt: 1)

Pt = P,

3)

P2 = (BAB)A = BA = P ,

nach Satz 2.64 ist P deshalb orthogonale Projektion auf Bild P, analog für P. Weiter gilt:  4)   x ∈ Kern P ⇒ Ax = ABAx = APx = 0  ⇒ Kern A = Kern P .    x ∈ Kern A ⇒ Px = BAx = 0

Hieraus folgert man Bild P = (Kern P)⊥ = (Kern A)⊥ , also ist P die von B unabhängige orthogonale Projektion auf (Kern A)⊥ . Mit Bild P = N := {y ∈ Rm : Py = y}

(2.119)

schließen wir in ähnlicher Weise  y∈N ⇒ ABy = y ⇒ y ∈ Bild A      Bild P = N ⇒ y ∈ Bild A, y = Ax    = Bild A ,  für ein x ∈ Rn ⇒ Py = ABAx = Ax = y ⇒ y ∈ Bild P 

d. h. P ist die von B unabhängige orthogonale Projektion auf Bild A. Erfüllen also B1 , B2 die Eigenschaften 1)–4), dann gilt: AB1 = AB2 und B1 A = B2 A, d. h. B1 = B1 AB1 = B2 AB1 = B2 AB2 = B2 .



2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

261

Satz 2.81 Sei A ∈ R(m,n) , dann gilt: 1) A++ = A,

2) (At )+ = (A+ )t .

Beweis: Zu 1): Die Bedingungen 1)–4) in Satz 2.80 sind symmetrisch in A und A+ . Zu 2): Durch Transponieren der Bedingungen 1)–4) in Satz 2.80 erhält man  At (A+ )t t = At (A+ )t  (A+ )t At t = (A+ )t At (A+ )t At (A+ )t = (A+ )t At (A+ )t At = At . Damit folgt die Behauptung nach Satz 2.80.



Bemerkungen 2.82 1) Ein B ∈ R(m,n) , das die Bedingungen 1)–4) von Satz 2.80 erfüllt, hat demgemäß die Eigenschaften a) AB ist die orthogonale Projektion auf Bild A. b) BA ist die orthogonale Projektion auf (Kern A)⊥ . c) Bild B = (Kern A)⊥ . Für c) beachte man, dass wegen b) und 3) gilt: (Kern A)⊥ = Bild(BA) = Bild B . Andererseits folgen aus a), b), c) für ein B ∈ R(m,n) die Eigenschaften 1)–4) aus Satz 2.80. 2) Zur Erinnerung: Ist Rang A = n, dann gilt A+ A = 1n

und

A+ = (At A)−1 At ,

und

A+ = At (AAt )−1 .

(2.120)

A+ ist somit Linksinverse. 3) Ist Rang A = m, dann gilt AA+ = 1m Hier ist also A+ Rechtsinverse.

(2.121)

262

2 Matrizen und lineare Abbildungen

Hierbei folgt die erste Eigenschaft sofort aus Hauptsatz 2.79, 4). Für die zweite betrachte man At , das vollen Spaltenrang hat, so dass nach (2.106) folgt: (At )+ = (AAt )−1 A und daraus mit Satz 2.81, 2) die Behauptung.

4) Über die Charakterisierungen 1)–4) in Satz 2.80 lassen sich für viele Beispiele die Pseudoinversen verifizieren. Es gilt: a) Sei A ∈ R(m,n) die Nullmatrix, dann gilt A+ = 0.

b) Sei A ∈ R(n,n) orthogonale Projektion, dann A+ = A .

c) Sei a ∈ Rn = R(n,1) , a , 0, dann gilt a+ = 1/(at a)at und damit insbesondere für λ ∈ R = R(1,1) , λ , 0 : λ+ = 1/λ . – Dies folgt alternativ auch aus (2.106), da A = a vollen Spaltenrang hat. – Die Abbildung a+ ordnet also den Faktor λ zu, so dass λa die orthogonale Projektion auf Ra ist.

d) Seien a ∈ Rm , b ∈ Rn , a , 0, b , 0, dann gilt für A := a ⊗ b: wobei α := 1/(at abt b) .

A+ = αb ⊗ a, 5)

Sei A ∈ R(m,n) , Q eine orthogonale (m, m) - bzw. (n, n) - Matrix. Dann gilt a) bzw.

(QA)+ = A+ Q−1 = A+ Qt

b)

(AQ) = Q A = Q A .

(2.122) +

−1 +

t

+

Dies kann entweder über die Bedingungen 1)–4) aus Satz 2.80 verifiziert werden, alternativ kann auch direkt die Definition überprüft werden, da die orthogonale Transformation Q die Längen nicht verändert. So folgt a) etwa direkt daraus, dass die Aufgabe kAx − Qt bk2 = kQAx − bk2 → minimal, so dass x ∈ (Kern A)⊥ = (Kern(QA))⊥

von x = A+ Qt b gelöst wird.

Für beliebige Matrizen gilt aber die Beziehung (AB)+ = B+ A+ i. Allg. nicht, auch nicht wenn einer der Faktoren invertierbar ist. Ein mögliches Gegenbeispiel ist

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme ! ! 1 20 0 (siehe 6)), A= , also A+ = 2 00 0 0 ! ! 11 2 −1 B= , also B+ = B−1 = 12 . 02 0 1

Und damit AB =

! 22 , also mit leichter Rechnung aus der Definition (AB)+ = 00 B+ A+ =

! 1 10 . 2 00

263

1 4

! 10 , aber 10

6) Sei D ∈ R(m,n) eine Diagonalmatrix (in dem allgemeinen Sinn von Bemerkung 1.47) und seien di := di,i , i = 1, . . . , min(m, n) die Diagonalelemente. Dann ist D+ ∈ R(m,n) auch eine Diagonalmatrix mit den Diagonaleinträgen    1/di , falls di , 0 d˜i =   0 , falls di = 0 . Dies kann über die Bedingungen 1)–4) aus Satz 2.80 verifiziert werden oder direkt über die Definition. 7) Sei A ∈ R(m,n) , b ∈ Bild A, dann kann der Lösungsraum von Ax = b ausgedrückt werden durch x = A+ b + (1 − A+ A)z für alle

z ∈ Rn .

Dabei sind die beiden Summanden orthogonal zueinander. Dies gilt, da in der Zerlegung einer allgemeinen Lösung in eine spezielle und ein Element aus Kern A für die spezielle Lösung A+ b gewählt werden kann und 1 − A+ A die orthogonale Projektion auf Kern A ist.

△ Es fehlt bisher eine „explizite“ Formel für A+ . Man beachte aber, dass (2.120) oder (2.121) mit der Inversenanwendung von At A bzw. AAt auch die Lösung eines LGS bedeutet. Da dies numerisch ungünstig sein kann (siehe Abschnitt 8.1.2), sind direkte algorithmische Zugänge, die auf die direkte Lösung des Ausgleichsproblems aufbauen, vorzuziehen (siehe Abschnitt 4.8). Mit der Kenntnis der Singulärwertzerlegung einer Matrix wird auch explizit die Pseudoinverse gegeben (siehe Abschnitt 4.6). Dies ist mittlerweile der übliche Zugang. Die Pseudoinverse lässt sich aber auch durch ein endliches, rekursives Verfahren bestimmen, den Algorithmus von Greville12 :

12

Thomas Nall Eden Greville ∗27. Dezember 1910 in New York †16. Februar 1998 in Charlottesville

264

2 Matrizen und lineare Abbildungen

Sei A = (a(1) , . . . , a(n) ) ∈ R(m,n) (1)

und für k = 1, . . . , n ,

(k)

Ak = (a , . . . , a ) ∈ R(m,k) ,

d. h. die Teilmatrix aus den ersten k Spalten von A. Für k = 1 ist A+k aus Bemerkungen 2.82, 4c) bekannt. Für k > 1 ergibt sich A+k aus A+k−1 durch folgende Vorschrift: dk := A+k−1 a(k) , ck := a(k) − Ak−1 dk ,  t falls ck , 0 , bk := c+k t −1   A+k−1 dk bk := 1 + dtk dk  +   Ak−1 − dk ⊗ bk  + Ak :=   . btk

falls

ck = 0 ,

Auf die Verifikation dieses Verfahrens wird hier verzichtet (siehe z. B. Ben-Israel und Greville 2003, Seite 263). Es ist mit einem Aufwand von O(n2 m) Operationen nicht aufwändiger als eine Inversenbestimmung mit dem Gauss-Verfahren. Definition 2.82a Sei A ∈ R(m,n) , Rang A = r. Sind B ∈ R(m,r) , C ∈ R(r,n) und Rang B = Rang C = r, so dass A = BC , so heißt (B, C) eine Voll-Rang-Zerlegung von A. Sei A ∈ R(m,n) . Eine Voll-Rang-Zerlegung ergibt sich etwa durch die reduzierte Zeilenstufenform C˜ (nach (1.16)) mit Pivotelementen gleich 1, da dann A = BC , C und Rang C = Rang A =: r, d. h. aus den nichtverschwindenden Zeilen besteht und 0 genau aus den linear unabhängigen Spalten von A gebildet ist (siehe Bemerkungen 2.57, 6)).

wobei C˜ = B ∈ R(m,r)

!

Bei einer Voll-Rang-Zerlegung wird also A zerlegt in eine surjektive lineare Abbildung gefolgt von einer injektiven (siehe Hauptsatz 1.85I). Dies wird auch abstrakt abgesichert durch den Homomorphiesatz II (Theorem 3.37). Bemerkung 2.83 1) Besitzt A ∈ R(m,n) mit Rang A = r eine Voll-Rang-Zerlegung, d. h. existieren B ∈ R(m,r) , C ∈ R(r,n) , jeweils mit Rang r, so dass

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

265

A = BC , Rang A = Rang B = Rang C . Dann gilt A+ = C t (Bt AC t )−1 Bt in Verallgemeinerung von (2.120) und (2.121). Es gilt nämlich Bt AC t = (Bt B)(CC t ) ,

d. h. nach Bemerkungen 2.57, 3) oder Aufgabe 2.15 ein Produkt invertierbarer Matrizen und damit auch invertierbar. Somit wird die folgende Matrix als Pseudoinverse von A behauptet: F := C t (CC t )−1 (Bt B)−1 Bt ,

was durch Überprüfung von 1)–4) in Satz 2.80 verifiziert werden kann.

Die durch A+ A bzw. AA+ gegebenen orthogonalen Projektionen auf (Kern A)⊥ bzw. Bild A sind also AA+ = B(Bt B)−1 Bt A+ A = C t (CC t )−1C 2) Sei A ∈ R(n,n) , so dass Bild A ⊕ Kern A = Rn , sei A = BC eine Voll-Rang-Zerlegung von A, dann ist CB ∈ R(r,r) , r = Rang A, invertierbar und P := B(CB)−1C ist eine Projektion auf Bild A längs Kern A. Das kann man folgendermaßen einsehen: Allgemein gilt: Sind M1 , M2 , M3 komponierbare Matrizen, so dass M1 injektiv (voller Spaltenrang) bzw. M3 surjektiv (voller Zeilenrang) ist (siehe Hauptsatz 1.85I ). Dann gilt Kern(M1 M2 ) = Kern M2 , Bild(M2 ) = Bild(M2 M3 ) ,

insbesondere (mit der Dimensionsformel I (Theorem 2.32)) Rang(M1 M2 ) = Rang M2 = Rang(M2 M3 ) .

Nach Voraussetzung ist Bild A2 = Bild A

Denn bei einer echten Teilmengenbeziehung Bild A2 ( Bild A

wäre wegen der Dimensionsformel I auch Kern A2 ) Bild A ,

d. h. es gäbe ein x ∈ Rn , so das Ax , 0, aber A2 x = 0, d. h. insbesondere Ax ∈ Bild A ∩ Kern A. Nach der Vorbemerkung ist also Rang(CB) = Rang(BCBC) = Rang(A2 ) = Rang(A) = r

266

2 Matrizen und lineare Abbildungen

und damit ist CB invertierbar. P erfüllt P2 = P und nach Vorbemerkungen Bild P = Bild B = Bild(BC) = Bild A

und Kern P = Kern C = Kern(BC) = Kern A .



2.4.3 Gauss-Verfahren und LR-Zerlegung I Hier wollen wir noch einmal das Gauss-Verfahren betrachten, aber vorerst nur für den Spezialfall A ∈ R(n,n) , A invertierbar, so dass die Lösung von Ax = b für jedes b ∈ Rn eindeutig existiert. Das Gauss-Verfahren transformiert demnach A auf eine obere Dreiecksmatrix R mit nichtverschwindenden Diagonalelementen. Zusätzlich soll (vorläufig) vorausgesetzt werden, dass das Gauss-Verfahren ohne Zeilenvertauschung durchgeführt werden kann. Zur „Bereinigung“ der ersten Spalte von A sind daher (wegen a1,1 , 0) n − 1 elementare Zeilenumformungen vom Typ III nötig, die nach (2.75) als Multiplikationen mit Elementarmatrizen ausgedrückt werden können. Ausmultiplizieren dieser Elementarmatrizen, d. h. sukzessives Anwenden der elementaren Zeilenumformungen, liefert als ersten Zwischenschritt des Gauss-Verfahrens wie schon in (2.76) gesehen:     A(2) , b(2) := L(1) A(1) , b(1) , wobei



 A(1) , b(1) := (A, b) ,

L(1) := 1 − m(1) ⊗ e1

und (1)

m

an,1 a2,1 := 0, ,..., a1,1 a1,1

!t

.

Die obige Voraussetzung bedeutet, dass a(2) 2,2 , 0. Der zweite Teilschritt zur Bereinigung der zweiten Spalte unter der Diagonale lässt sich dann ausdrücken durch

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme



A(3) , b(3) := L(2) (A(2) , b(2) )

mit

wobei denn

267



L(2) := 1 − m(2) ⊗ e2 ,  (2) t (2)   a a n,2  3,2 m(2) := 0, 0, (2) , · · · , (2)  , a2,2 a2,2

L(2) A(2) e1 = L(2) a11 e1 = a11 (1 − m(2) et2 )e1 = a11 e1 ,

  d. h. die erste Spalte von A(2) bleibt unverändert, für A˜ (2) = A(2) , b(2) und für i = 1, 2 eti L(2) A˜ (2) = eti (1 − m(2) et2 )A˜ (2)

     t  = ei − eti m(2) et2  A˜ (2) = eti A˜ (2) , |{z}   =0

d. h. die erste und zweite Zeile von A˜ (2) bleibt unverändert. Weiter gilt:

eti L(2) A(2) e2 = 0 für i = 3, . . . , n , wie im nachfolgenden Beweis in (2.126) allgemein für k + 1 statt 2 gezeigt wird. Allgemein gilt: Theorem 2.84: Gauss-Verfahren und Frobenius-Matrizen Betrachte Ax = b mit invertierbarem A ∈ R(n,n) . Ist der Gauss-Algorithmus ohne Zeilenvertauschung möglich, d. h. sind a(i) i,i , 0 (definiert in (2.124)) für alle i = 1, . . . , n − 1 (diagonale Pivotwahl), dann formt der Gauss-Algorithmus durch folgende Schritte in ein äquivalentes Gleichungssystem mit oberer Dreiecksmatrix um:   b(1) := b . A(1) := a(1) i, j := A, Für i = 1, . . . , n − 1 :

t    a(i) a(i) i+1,i n,i   m := 0, . . . , 0, (i) , . . . , (i)  , ai,i ai,i (i)

L(i) := 1 − m(i) ⊗ ei ,



   A(i+1) , b(i+1) := L(i) A(i) , b(i) .

(2.123) (2.124)

268

2 Matrizen und lineare Abbildungen −1

Dabei heißt eine Matrix vom Typ L(i) bzw. L(i) , die nur in einer Spalte von der Einheitsmatrix abweicht, Frobenius-Matrix.

Beweis: Es genügt, durch Induktion über k für k ≥ 2 zu zeigen, dass die A(k) erfüllen: Die ersten k − 1 Zeilen und k − 2 Spalten von A(k) stimmen mit A(k−1) überein und zusätzlich sind alle Einträge bis zur (k − 1)-ten Spalte unter dem Diagonalelement Null, d. h. insbesondere eti A(k) e j = 0 für 2 ≤ k ≤ n,

1 ≤ j < k,

j j. Für j = k, i > j ist ei t A(k+1) e j = ei t A(k) ek −

ei t A(k) ek t (k) ek A ek = 0 ek t A(k) ek

wegen ei t m(k) =

a(k) i,k a(k) k,k

=

ei t A(k) ek . ek t A(k) ek

Für die ersten k Zeilen von A(k+1) gilt eti A(k+1) = eti (1 − m(k) etk )A(k) = eti A(k) ,

da

eti m(k) = 0 für i = 1, . . . , k .



Die folgende Routine realisiert die Gauss-Elimination, wobei das Eingabeargument A eine quadratische Matrix mit den oben angenommenen Eigenschaften und das Ausgabeargument L bzw. R eine untere bzw. obere Dreiecksmatrix ist. Hierbei werden die Multiplikatoren, d. h. die Einträge von m(i) auf den jeweils frei werdenden Plätzen von A in der i-ten Spalte ab Zeile i + 1 abgespeichert und als normierte untere Dreiecksmatrix ausgegeben. Algorithmus 1 (Gauss-Elimination ohne Pivotisierung13 ) function [L, R] = gausszerlegung (A) n = length(A); for k = 1 : n - 1 d = 1/A(k, k); for i = k + 1 : n A(i, k) = A(i, k)*d;

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

269

for j = k + 1 : n A(i, j) = A(i, j) - A(i, k)*A(k, j); end end end L = eye(n) + tril (A, -1); % nach 2.129 R = triu (A); end

Das obige Vorgehen erfordert 31 (n3 − n) + 21 (n2 − n) Multiplikationen bzw. Divisionen (bei i. Allg. n2 Einträgen in A). Der eigentliche Grund für die Speicherung der Multiplikatoren ergibt sich im Folgenden: Ist das Eliminationsverfahren von Gauss durchführbar, dann ist R := A(n) = L(n−1) L(n−2) · · · L(1) A eine obere Dreiecksmatrix, also A = LR mit −1

L := L(1) L(2)

−1

· · · L(n−1)

−1

.

Wegen Bemerkungen 2.50, 2) ist L eine untere Dreiecksmatrix, der Gauss-Algorithmus realisiert folglich eine sogenannte Dreiecks - oder LR-Zerlegung von A (in der englischen Literatur LU-decomposition genannt, von Lower und Upper). Es zeigt sich, dass wir die Matrix L schon explizit mitberechnet (und gespeichert) haben. Dazu zeigen wir: Lemma 2.85 Sei x ∈ Rn mit xi = 0; dann ist (1 − x ⊗ ei )−1 = 1 + x ⊗ ei , insbesondere also: L(i)

−1

−1  = 1 + m(i) ⊗ ei . = 1 − m(i) ⊗ ei

Beweis: 

    1 + xei t 1 − xei t = 1 + xei t − xei t − x ei t x ei t = 1 . |{z} =0



Es handelt sich um einen Spezialfall der Sherman-Morrison-Formel (2.70), soll aber nochmal direkt verifiziert werden (siehe auch Bemerkungen 2.86 ,1)): 13

Algorithmen werden in einem an MATLAB-orientierten Pseudocode angegeben.

270

2 Matrizen und lineare Abbildungen

Bemerkungen 2.86 1) Die Inverse von 1 + x ⊗ ei lässt sich auch angeben für xi , −1: Sei e xi := 1 + xi , 0, dann:

(1 + x ⊗ ei )−1

Dies ist ein Spezialfall von 2)

  1        =        

..

−x1 /e xi .. .

. 1

−xi−1 /e xi 1/e xi

−xi+1 /e xi .. .

1 ..

.

−xn /e xi

1

          .        

(2.127)

2) Seien u, u ∈ Rn , (u . u) , −1, dann ist 1 + u ⊗ u invertierbar und (1 + u ⊗ u)−1 = 1 −

1 u⊗u. 1 + (u . u)

Sei α := 1/(1 + (u . u)), dann (1 + u ⊗ u)(1 − αu ⊗ u) = 1 + (1 − α − α (u . u))u ⊗ u = 1 .

Daraus ergibt sich mittels (A + u ⊗ u)−1 = (1 + (A−1 u) ⊗ u)−1 A−1 ein Beweis von (2.70).



Eine normierte untere Dreiecksmatrix ist als das Produkt aus den mit ihren Spalten gebildeten Frobenius-Matrizen darstellbar: Satz 2.87: Untere Dreiecksmatrix und Frobenius-Matrizen Seien x( j) ∈ Rn , j = 1, . . . , m ≤ n − 1, mit x(i j) = 0 für alle i = 1, . . . , j gegeben. Dann gilt für      e L := 1 − x(m) ⊗ em 1 − x(m−1) ⊗ em−1 · · · 1 − x(1) ⊗ e1 :

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

271

e L−1 = (1 + x(1) ⊗ e1 )(1 + x(2) ⊗ e2 ) . . . (1 + x(m) ⊗ em ) m X =1+ x( j) ⊗ e j .

(2.128)

j=1

Beweis: Die erste Identität folgt sofort aus Lemma 2.85. Die zweite folgt durch vollständige Induktion über m: m = 1 ist klar. m→m+1:   m+1 m Y X     (i) (i) t (1 + x ⊗ ei ) = 1 + x ei  1 + x(m+1) em+1 t i=1

i=1

=1+

m+1 X

x(i) ei t +

i=1

m X i=1

  x(i) ei t x(m+1) em+1 t . | {z }



=0

Bemerkung 2.88 Offenbar darf in der Summendarstellung (2.128) beliebig umgeordnet werden. Dies ist aber für die Produktdarstellung von e L−1 in Satz 2.87 nicht der Fall. Die Identität gilt nur bei der angegebenen Reihenfolge der Faktoren, eine andere Reihenfolge ergibt im Allgemeinen eine andere normierte untere Dreiecksmatrix. Insbesondere gilt i. Allg. nicht

Aus (2.128) folgt:

e L =1−

m X j=1

x( j) ⊗ e j .



Hauptsatz 2.89: Gauss liefert LR-Zerlegung (ohne Zeilenvertauschung) Der Gauss-Algorithmus ohne Zeilenvertauschung liefert, wenn durchführbar, eine LR-Zerlegung von A, A = LR , mit der oberen Dreiecksmatrix R = A(n) und der normierten unteren Dreiecksmatrix L=1+

n−1 X i=1

m(i) ⊗ ei .

(2.129)

Die Einträge von L unter der Diagonalen sind also spaltenweise gerade die Multiplikatoren, die in Algorithmus 1 an genau den richtigen Plätzen gespeichert wurden. Auf die Transformation von b kann verzichtet werden, da sich

272

2 Matrizen und lineare Abbildungen

x = A−1 b aus A = LR durch Auflösung der beiden gestaffelten Gleichungssysteme Ly = b,

(2.130)

Rx = y

durch eine Vorwärts- und eine Rückwärtssubstitution mit O(n2 ) Operationen berechnen lässt. Lemma 2.90: Eindeutigkeit LR-Zerlegung Die LR-Zerlegung einer invertierbaren Matrix A ∈ R(n,n) mit normiertem L ist eindeutig.

Beweis: Sei L1 R1 = L2 R2 , wobei Li normierte untere Dreiecksmatrizen bzw. Ri obere Dreiecksmatrizen seien. Dann ist −1 L−1 2 L1 = R2 R1 .

Die linke Seite ist untere normierte Dreiecksmatrix nach Bemerkungen 2.50, 2). Die rechte Seite ist obere Dreiecksmatrix nach Bemerkungen 2.50, 2), somit: −1 L−1 2 L1 = 1 = R2 R1 .



Sei nun allgemeiner A ∈ R(m,n) , aber das Gauss-Verfahren sei weiter ohne Zeilenvertauschung durchführbar. Dann lassen sich die obigen Überlegungen mit folgenden Modifikationen übertragen: Es ergibt sich eine obere Dreiecksmatrix R ∈ R(m,n) , L(i) und damit L gehört zu R(m,m) , und es sind gerade die Spalten unter der Diagonalen mit Multiplikatoren , 0 besetzt, wo die in A(i) zu bereinigende Spalte nicht schon von vornherein nur Nullen unter dem Diagonalelement besitzt, demnach   1  ∗ 1  .   ∗ 0 . .  L =  . .  .. .. ∗   .. .. ..  . . . ∗ 0 ∗

❆ ❑ ✕ ✁ ❆ ✁ Multiplikatoren

..

. ..

. 1

       .     

. – Dabei setzt „ . . “ den Diagonaleintrag gleichartig fort, „∗“ deutet i. Allg. von Null verschiedene Einträge an. –

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

273

In der Notation von Abschnitt 1.1 sind folglich die Spalten j(1) < j(2) < . . . < j(r) mit Multiplikatoren unter der Diagonalen besetzt, ansonsten stehen dort Nullen. Die Matrix R hat die Zeilenstufenform (1.12). Diese (und auch folgende) multiplikative Matrixzerlegungen können „kompakter“ geschrieben werden in Form einer Voll-Rang-Zerlegung nach Definition 2.82a. Sei A ∈ R(m,n) , r = Rang A, dann kann eine LR-Zerlegung folgdermaßen partioniert werden   L = L1 L2 mit L1 ∈ R(m,r) ! R R = 1 mit R1 ∈ R(r,n) , Rang R1 = r R2 (dabei können L2 und R2 nicht auftreten) und A = LR = L1 R1 , d. h. (L1 , R1 ) ist eine VollRang-Zerlegung. *Bemerkung 2.91 Es ist auch möglich im Sinn des Gauss-Jordan-Verfahrens weiter fortzufahren und die Spalten von R, die Pivotelemente enthalten, d. h. die Spalten j(1) < j(2) < . . . < j(r) so zu transformieren, dass oberhalb des Diagonalelements nur Nullen stehen. Da die zugehörigen Elementarmatrizen Frobenius-Matrizen mit Einträgen oberhalb der Diagonalen sind, ist deren Komposition eine normierte obere Dreiecksmatrix und damit auch deren Inverse. Die Normierung der Pivoteinträge auf 1 entspricht der Anwendung einer Diagonalmatrix von links. Es ergibt sich infolgedessen eine Zerlegung der Form A = LRDRˆ

(2.131)

mit normierten unteren bzw. oberen Dreiecksmatrizen L und R, Diagonalmatrix D und der ˆ Dies wird in allgemeiner Form in Abschnitt 2.5.2 wieder reduzierten Zeilenstufenform R. aufgegriffen. △ Einige Spezialfälle sind also: m < n, Rang A = m :  1   ∗ L =  .  .  .  ∗

.. ..

. .

..

···



m > n, Rang A = n :

.

      ,    1

 #   0 R =  .  .  .  0



···

..

.

..

.

..

···

0

.

···

···

···



···



#

 ∗  ..  .   ..  . .   ∗

274

2 Matrizen und lineare Abbildungen

 1       L =       

..

.

∗ .. . .. . ∗

..

.

∗ .. . ∗

.. ∗

. ..

.



n Multiplikatorenspalten.

1

         ,      

 #   0   .. . R =  .  .  .  .  ..   0



..

.

..

.

···

··· .. . .. . .. .

···

 ∗  ..  .    ∗   #   0  0

– Dabei ist „#“ ein immer von Null verschiedener Eintrag. – Die untere Dreiecksmatrix L ist also immer invertierbar, die ganze Frage der Lösbarkeit und Dimension des Lösungsraums „steckt“ in der Zeilenstufenform R: Wird das LGS Ax = b betrachtet, so ist wegen LRx = b ⇔ Ly = b und Rx = y das Gauss-Verfahren zur Bestimmung des Lösungsraums äquivalent zu: 1) Löse (durch Vorwärtssubstitution) Ly = b . 2) a) Prüfe Rx = y auf Lösbarkeit: ⇔ y′′ = 0 für y =

! ! y′ ′ r ′′ m−r , und y ∈ R , y ∈ R y′′

wobei r := Rang(A) die Stufenzahl bei R ist. b) Bei Lösbarkeit bestimme den affinen Raum der Lösungen durch Rückwärtssubstitution aus Rx = y mit den Parametern x j , j ∈ {1, . . . , n}\{ j(1), . . . , j(r)} . Eine Implementierung der Vorwärtssubstitution und Rückwärtssubstitution zur Lösung eines LGS Ax = b, A = LR findet man in Algorithmus 3. Dort ist aufgrund des bisher vorliegenden Falls P gleich der Einheitsmatrix zu setzen. Obwohl mit der (reduzierten) Zeilenstufenform alle Information über den Lösungsraum vorliegt, ist sie doch nicht geeignet, eine einfache Darstellung der Pseudoinversen zu liefern. Zwar lässt sich Rˆ + leicht angeben (siehe Abschnitt 2.5.2), doch wegen der fehlenden Gültigkeit von (AB)+ = B+ A+ , können keine weiteren Schlüsse aus A = LR bzw (2.131) gezogen werden.

Aufgaben

275

Anders würde sich wegen (2.122) die Situation darstellen, wenn die Transformationen orthogonal wären.

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • • • •

Ausgleichsrechnung, Normalgleichung Pseudoinverse Gauss-Verfahren mit Speicherung der Multiplikatoren Frobenius-Matrizen

Zusammenhänge • • • • • • •

Orthogonalität von Kern At und Bild A (Hauptsatz 2.69) Charakterisierung der Lösbarkeit eines LGS (Theorem 2.70) Ausgleichsproblem lösbar, Normalgleichung (Hauptsatz 2.73) Erster Isomorphiesatz (Theorem 2.77) Charakterisierung Pseudoinverse (Hauptsatz 2.79, Satz 2.80) Gauss durch Frobenius-Matrizen beschreibbar (Theorem 2.84) Gauss liefert LR-Zerlegung (ohne Zeilenvertauschung) (Hauptsatz 2.89)

Beispiele • Lineare Regression • Pseudoinverse und orthogonale Matrix • Pseudoinverse einer Diagonalmatrix

Aufgaben Aufgabe 2.19 (K) Bestimmen Sie die Normalgleichungen für quadratische Regression. Aufgabe 2.20 (K) Verifizieren Sie die Angaben von Bemerkungen 2.82, 4). Aufgabe 2.21 (T) Zeigen Sie, dass eine LDR-Zerlegung, d. h. eine Darstellung von A ∈ R(n,n) als A = LDR , wobei L und R normierte untere bzw. obere Dreiecksmatrizen sind und D eine Diagonalmatrix ist, eindeutig ist, für eine invertierbare Matrix A. Aufgabe 2.22 (T) Arbeiten Sie die Gültigkeit von (2.131) aus.

276

2 Matrizen und lineare Abbildungen

Aufgabe 2.23 (K) Gegeben sei die Matrix   1  1 A =   1 1

00 10 11 11

 0   0  . 0  1

a) Stellen Sie die Matrix A als Produkt von Frobenius-Matrizen dar. b) Invertieren Sie die Matrix A. Aufgabe 2.24 (K) Gegeben seien eine Matrix A = (a(1) , a(2) , a(3) , a(4) ) ∈ R(3,4) und ein Vektor u ∈ R3 gemäß      1 2 1 2   −1      A =  0 1 −1 2  , u =  4  .     1 −2 5 −6 1

a) Berechnen Sie den Kern von At . b) Bestimmen Sie dim Kern A. Welcher Zusammenhang muss zwischen den Komponenten des Vektors b = (b1 , b2 , b3 )t ∈ R3 bestehen, damit das lineare Gleichungssystem Ax = b lösbar ist? Ist die Lösung im Existenzfall eindeutig? c) Berechnen Sie den Rang von A unter Beachtung von a(1) ⊥ a(2) und bestimmen Sie eine ONB von Bild A. d) Bestimmen Sie alle x ∈ R4 mit kAx − uk = min{kAy − uk : y ∈ R4 } und geben Sie A+ u an.

Aufgabe 2.25 (K) Zu den Messwerten ti −1 0 1 2 yi 2 1 2 3 sollen Polynome Pn (t) = quadratische Fehler

Pn

k=0 ak t

k

, n = 1, 2, 3, so bestimmt werden, dass der mittlere 4

F(Pn ) :=

1X (Pn (ti ) − yi )2 4 i=1

minimal wird. Berechnen Sie jeweils F(Pn ) und skizzieren Sie die Funktionen Pn .

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

277

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

2.5.1 Permutationen und Permutationsmatrizen Definition 2.92 Eine Permutation von n Elementen, z. B. der Zahlen 1, 2, . . . , n, ist eine bijektive Abbildung σ : {1, . . . , n} → {1, . . . , n}. Eine solche Permutation schreiben wir auch σ=

! 1 ... n . σ(1) . . . σ(n)

Die Menge aller Permutationen von n Elementen bezeichnen wir mit Σn . Jedes σ ∈ Σn besitzt eine Umkehrabbildung σ−1 ∈ Σn . Beispiele 2.93 n = 1 : Σ1 = {id} , ( !) 12 n = 2 : Σ2 = id, σ1,2 = , 21 !   123    id, σ = , σ1,3 = 1,2   213  ! n = 3 : Σ3 =    123   ,   231

! !  123 123    , σ2,3 = ,  3 21! 132   .    123     312



Hier haben wir die Bezeichnung σk,l für die Vertauschung (Transposition ) ! 1 ... k ... l ... n 1 ... l ... k ... n verwendet. Mit je zwei Permutationen σ, τ ∈ Σn gehört auch die Hintereinanderausführung (oder das Produkt) σ ◦ τ : ν 7→ σ(τ(ν)) wieder zu Σn . Es ist zu beachten, dass (wie immer) (σ ◦ τ)−1 = τ−1 ◦ σ−1 .

278

2 Matrizen und lineare Abbildungen

Die Menge Σn ist daher bezüglich ◦ abgeschlossen und die Verknüpfung ◦ ist assoziativ, P hat ein neutrales Element (= id) und es gibt jeweils inverse Elemente, also ist ( n , ◦) eine (nichtabelsche) Gruppe, die symmetrische Gruppe . Satz 2.94: Symmetrische Gruppe Die symmetrische Gruppe Σn der Permutationen von n Zahlen enthält n! := 1 · 2 · 3 · . . . · n Elemente. Für fest gewähltes σ ∈ Σn ist die Abbildung Σn ∋ τ 7→ τ ◦ σ ∈ Σn bijektiv.

Beweis: Die Anzahlformel wird durch vollständige Induktion gezeigt: Die Anzahl der Elemente in Σ1 ist 1 = 1! (Induktionsanfang). Nehmen wir nun n ≥ 2 an und dass Σn−1 aus (n − 1)! Elementen bestünde. Daraus schließen wir die Behauptung für Σn : Jede Permutation σ ∈ Σn ist bestimmt durch ihren Wert s := σ(n) (dafür gibt es n Möglichkeiten) und eine bijektive Abbildung {1, . . . , n − 1} → {1, . . . , n} \ {s}. Solche Abbildungen gibt es genauso viele, wie Σn−1 Elemente enthält, nach Induktionsannahme folglich (n − 1)!. Deswegen enthält die Menge Σn insgesamt n · (n − 1)! = n! Elemente. Die angegebene Abbildung τ 7→ τ ◦ σ ist bijektiv, weil τ 7→ τ ◦ σ−1 deren Umkehrabbildung ist.  Jede Permutation σ ∈ Σn bestimmt eine Permutationsmatrix    eσ−1 (1) t   e −1 t   σ (2)  Pσ =  .  .  ..    eσ−1 (n) t

Diese Matrix ist aus der Einheitsmatrix durch Vertauschen von Zeilen entstanden, deswegen steht in jeder Zeile und in jeder Spalte dieser Matrix genau eine Eins. Zum Beispiel haben wir

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

  0  1  σ = σ1,2 , Pσ =  0  .  ..  0   0  0 !  1 2 3 ··· n  σ= , Pσ =  ... n 1 2 ··· n−1   0  1

279

10 00 01 .. .. . . 00 10 01 .. .. . . 00 00

 · · · 0   · · · 0   · · · 0  , . . ..  . .   ··· 1  · · · 0   · · · 0   . .  . . 0   · · · 1  ··· 0

Wie auch an diesen Beispielen ersichtlich, ist damit Pσ die Matrix, die durch Positionierung von eti in der Zeile σ(i) entsteht. Die lineare Abbildung, die durch die Permutationsmatrix Pσ beschrieben wird, erfüllt    eσ−1 (1) . ek    ..  = el mit σ−1 (l) = k bzw. l = σ(k) . ek 7→ Pσ ek =  .     eσ−1 (n) . ek In Spaltendarstellung gilt somit Pσ = (eσ(1) , . . . , eσ(n) ) . Zur Permutationsmatrix Pτ◦σ gehört deswegen die lineare Abbildung ek 7→ e(τ◦σ)(k) = eτ(σ(k)) = Pτ (Pσ (ek )) , d. h. Pτ◦σ = Pτ Pσ . Damit ist die Zuordnung σ 7→ Pσ von Σn nach GL(n, R) also verträglich mit der jeweiligen Gruppenstruktur durch ◦ bzw. · . Insbesondere ist die Matrix Pσk,l Pσ , die aus Pσ durch Vertauschen der k-ten mit der l-ten Zeile hervorgeht, gerade Pσk,l ◦σ und: Pid = 1

bzw.

Pσ−1 = (Pσ )−1 .

Darüber hinaus ist Pσ auch orthogonal, da   ei t Pσ t Pσ e j = (Pσ ei )t Pσ e j = eσ(i) . eσ( j) = δσ(i),σ( j) = δi, j für i, j = 1, . . . , n, also Pσ−1 = (Pσ )−1 = Pσ t ,

280

2 Matrizen und lineare Abbildungen

d. h. σ 7→ Pσ bildet verträglich von Σn nach O(n, R) ab. Transponieren (vertauschen von Zeilen und Spalten) bedeutet mithin für eine Permutationsmatrix den Übergang zur inversen Permutation. Für Transpositionen σ = σk,l gilt daher (beachte σk,l = σ−1 k,l ) Pσ = Pσ t = Pσ−1 .

(2.132)

Permutationen lassen sich leichter erfassen mit dem folgenden Begriff: Definition 2.95 Unter der zyklischen Permutation (i1 , i2 , . . . , ik ), bzw. unter dem Zyklus der Länge k (i1 , i2 , . . . , ik ), versteht man diejenige Permutation, welche i1 7→ i2 7→ . . . 7→ ik−1 7→ ik 7→ i1 abbildet und alle anderen i , i1 , . . . , ik fest lässt. Hierbei müssen die k Zahlen i1 , . . . , ik alle voneinander verschieden sein. Zwei Zyklen σ = (i1 , i2 , . . . , ik )

und τ = ( j1 , j2 , . . . , jl )

heißen elementfremd, wenn kein iκ mit einem jλ übereinstimmt. Dieser Begriff des Zyklus für Permutationen ist viel eleganter als unsere bisherige Schreibweise. Hierzu Beispiele: Zyklus (k, l)

bisherige Schreibweise σk,l ! 123 (1, 2, 3) 2 3 1! 123 (1, 3, 2) 312 ! 1 2 3 ... n (1, 2, 3, . . . , n) 2 3 4 ... 1

Ein Zyklus σ′ von σ ist also durch ein Element a daraus und seine Länge k gegeben, da σ′ = (a, σ(a), . . . , σk−1 (a)). Das Rechnen mit Permutationen in Zyklenschreibweise ist auch deswegen vorteilhaft, weil Zyklen sehr einfach zu multiplizieren sind. Statt der allgemeinen Aussage hierzu ein Beispiel: Wir berechnen das Produkt σ := σ1 ◦ σ2 , wobei σ1 = (1, 2, 3) und σ2 = (2, 3, 4) ist. Wir berechnen das Bild von 1: Wegen σ2 (1) = 1 ist σ(1) = σ1 (1) = 2.

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

281

Wir berechnen das Bild von 2: σ(2) = σ1 (σ2 (2)) = σ1 (3) = 1, deswegen enthält σ den Zyklus (1, 2). Wir berechnen das Bild von 3: σ(3) = σ1 (σ2 (3)) = σ1 (4) = 4, und das Bild von 4: σ(4) = σ1 (σ2 (4)) = σ1 (2) = 3. Das Ergebnis ist: (1, 2, 3) ◦ (2, 3, 4) = (1, 2) ◦ (3, 4). Allerdings ist die Schreibweise einer Permutation als Zyklus nicht eindeutig: Es ist ja zum Beispiel (i1 , i2 , i3 , . . . , ik ) = (i2 , i3 , . . . , ik , i1 ). Jede Permutationsmatrix kann durch elementare Zeilenumformungen vom Typ I (Zeilenvertauschungen) in Zeilenstufenform gebracht werden. Dabei ändert sich die Zahl n der Matrixeinträge gleich 1 nicht. Die Zeilenstufenform von P ist deswegen die Einheitsmatrix 1. Zeilenvertauschungen entsprechen der Anwendung von Permutationsmatrizen zu Transpositionen. Damit lässt sich also jede Permutationsmatrix als Produkt von Elementarmatrizen zu Transpositionen schreiben (siehe auch Hauptsatz 1.85III , (viii)). Daraus folgt:

Satz 2.96: Permutation aus Vertauschungen oder Zyklen aufgebaut

1) Jede Permutationsmatrix Pσ ist ein Produkt Pkm ,lm . . . Pk1 ,l1 von Elementarmatrizen Pk,l = Pσk,l , die zu Vertauschungen gehören, wobei m ≤ n − 1.

2) Jede Permutation σ ist ein Produkt σkm ,lm ◦ . . . ◦ σk1 ,l1 von Vertauschungen, wobei m ≤ n − 1.

3) Jede Permutation σ ist ein Zyklus oder ein Produkt von paarweise elementfremden Zyklen:

mit n =

r P

j=1

  σ = a1 , σ(a1 ), . . . , σz1 −1 (a1 ) . . . . . . ar , σ(ar ), . . . , σzr −1 (ar )

z j und {1, . . . , n} ist die disjunkte Vereinigung der {a j , . . . , σz j −1 (a j )}.

282

2 Matrizen und lineare Abbildungen

Beweis: 1) und damit 2) sind klar. 3): Sind σ = σl.k und τ = τm,p zwei elementfremde Vertauschungen, d. h. {l, k} ∩ {m, p} = ∅ , dann gilt σ◦τ= τ◦σ. In der durch 1) gegebenen Darstellung eines allgemeinen σ ∈ Σn σ = σkm ,lm ◦ . . . σk1 ,l1 kann daher zuerst wegen (2.132) ki < li für i = 1, . . . , m gewählt werden und dann in der Komposition so umgeordnet werden, dass am Ende ein Term der Art (ar , σ(ar ), . . . , σzr −1 (ar )) entsteht (mit ar = km ). Ist nämlich die Transposition σkm−1 ,lm−1 elementfremd mit σkm ,lm , dann kann σkm−1 ,lm−1 mit σkm ,lm getauscht werden und so weiter, bis entweder eine dazu nicht elementfremde Transposition σki ,li gefunden wird oder alle als elementfremd ihren Platz mit σkm ,lm tauschen und diese zum ersten Zyklus (der Länge 2) wird. Im anderen Fall bilden σkm ,lm ◦ σki ,li einen Zyklus der Länge 3, σkm ,lm ◦ σki ,li = ( j1 , j2 , j3 ) und auch damit sind die elementfremden Transpositionen vertauschbar, da sie mit den einzelnen Transpositionen vertauschbar sind. Für eine nicht elementfremde Transposition (i1 , i2 ) ist notwendig {i1 , i2 } ∩ { j1 , j3 } , ∅, so dass sie den Zyklus der Länge 3 zu einem der Länge 4 ergänzt. In beiden Fällen ergibt sich also schließlich σ = σ′ ◦ ar , σ(ar ), . . . , σzr −1 (ar )



und σ′ besteht aus zum Zyklus elementfremden Transpositionen. Fortsetzen des Prozesses mit σ′ liefert die Behauptung.  Insbesondere ist auch die Reihenfolge der elementfremden Zyklen beliebig: Satz 2.97: elementfremd = vertauschbar Es seien σ, τ zwei elementfremde Zyklen. Dann ist σ◦τ =τ◦σ.

Beweis: Weil die Zyklen elementfremd sind, lässt σ alle jλ fest und τ alle iκ in der Notation von Definition 2.95. Ob wir nun zuerst die iκ zyklisch vertauschen, und danach die jλ oder umgekehrt, ergibt jeweils die gleiche Permutation.

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

283

Oder: σ und τ lässt sich als Komposition von Transpositionen σi bzw. τ j schreiben, wobei die σi und τ j jeweils elementfremd, also vertauschbar, sind.  Unser nächstes Ziel ist die Konstruktion der sogenannten Signum-Funktion. Satz 2.98: Existenz des Signums Es gibt eine Abbildung sign : Σn → {±1} mit den Eigenschaften

1) sign(σk,l ) = −1 für jede Vertauschung σk,l .

2) sign(σ ◦ τ) = sign(σ) · sign(τ) für alle σ, τ ∈ Σn .

Beweis: Nur für diesen Beweis führen wir folgende Bezeichnung ein: Ein Fehlstand in der Permutation σ ∈ Σn ist ein Paar (i, j), 1 ≤ i < j ≤ n, mit σ(i) > σ( j). Eine Vertauschung σk,l zum Beispiel hat die Bilder (σ(1), . . . , σ(n)) = (1, . . . , k − 1, l, k + 1, . . . , l − 1, k, l + 1, . . . , n). | {z } l−k−1

Sie hat damit 2(l − k − 1) + 1 = 2(l − k) − 1 Fehlstände, da (k, l) einen Fehlstand darstellt und weitere durch l bzw. k mit jedem j ∈ {k + 1, . . . , l − 1} entstehen. Wir definieren die Signum-Funktion durch sign(σ) := (−1) f ,

f = Anzahl der Fehlstände in σ .

Beweis von 1): Die Anzahl der Fehlstände in σk,l ist, wie soeben bemerkt, ungerade. Beweis von 2): Wir wissen, dass jede Permutation σ ein Produkt von Vertauschungen Q σkµ ,lµ ist. Wenn wir 2) für den Fall beweisen können, dass σ = σk,l eine Vertauschung ist, folgt deshalb sign(σ ◦ τ) = sign(σkm ,lm ◦ . . . ◦ σk1 ,l1 ◦ τ) = sign(σkm ,lm ) · . . . · sign(σk1 ,l1 ) · sign(τ) = sign(σ) · sign(τ) , d. h. der allgemeine Fall. Somit genügt es, die Behauptung nur für σ = σk,l zu beweisen. Wenn l > k + 1, dann ist σk,l = σk,k+1 σk+1,k+2 . . . σl−2,l−1 σl−1,l σl−1,l−2 . . . σk+2,k+1 σk+1,k demnach das Produkt von einer ungeraden Anzahl von (2(l − k) − 1) „benachbarten“ Transpositionen σk,k+1 . Deswegen genügt es, die Behauptung für Vertauschungen der Art σk,k+1 zu beweisen. Wir zählen die Fehlstände von σk,k+1 ◦ τ :

• Wenn τ−1 (k) < τ−1 (k + 1), dann ist (τ−1 (k), τ−1 (k + 1)) kein Fehlstand von τ, wohl aber von σk,k+1 ◦ τ. • Wenn τ−1 (k) > τ−1 (k + 1), dann ist (τ−1 (k), τ−1 (k + 1)) ein Fehlstand von τ, aber nicht von σk,k+1 ◦ τ.

284

2 Matrizen und lineare Abbildungen

Alle anderen Fehlstände von τ und σk,k+1 ◦ τ stimmen überein. Ist daher f die Anzahl der Fehlstände von τ, dann ist f ± 1 die Anzahl der Fehlstände von σk,k+1 ◦ τ. Es folgt mit der Definition der Signum-Funktion sign(σk,k+1 ◦ τ) = − sign(τ) = sign(σk,k+1 ) sign(τ), und damit ist die Behauptung bewiesen.



In Σ3 beispielsweise gibt es die drei Vertauschungen σ1,2 , σ1,3 und σ2,3 mit sign = −1 und die drei Permutationen

1 2 1 3

σ Anzahl der Vertauschungen sign id 0 +1 ! 23 = σ1,3 ◦ σ1,2 2 +1 3 1! 23 = σ1,2 ◦ σ1,3 2 +1 12

mit sign = +1. Bemerkung 2.99 Sei σ ∈ Σn .

  sign σ−1 = 1/ sign(σ) = sign(σ) .

  Dabei folgt die erste Gleichheit allgemein aus Satz 2.98, 2): sign σ−1 sign(σ) = sign(id) = 1 und die zweite Gleichung, da sign(σ) ∈ {−1, 1}.



2.5.2 Gauss-Verfahren und LR-Zerlegung II Wir kehren noch einmal zum Gauss-Verfahren zurück mit dem Ziel der Interpretation als eine Matrixzerlegung, aber ohne wie in Abschnitt 2.4.3 die Zeilenvertauschung auszuschließen. Da es sich hier um eine üblichere Notation handelt, werden Permutationsmatrizen mit P bezeichnet. Wir beginnen mit einem invertierbaren A ∈ R(n,n) , b ∈ Rn . Setzen wir wie in Theorem 2.84   A(1) , b(1) := (A, b) , dann lässt sich analog zu (2.124) der i-te Teilschritt, i = 1, . . . , n − 1, beschreiben als     A(i+1) , b(i+1) := L(i) Pτi A(i) , b(i) .

Dabei ist L(i) wie in (2.124) definiert und Pτi die Permutationsmatrix zur Transposition τi , die der Zeilenvertauschung entspricht (bzw. zur Identität, falls keine Zeilenvertauschung stattfindet.) Es gilt nämlich:

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

285

Eine Zeilenpermutation, bei der die k-te Zeile auf die Position π−1 (k) kommt für ein π ∈ Σn , lässt sich schreiben als Pπ−1 A(= Ptπ A) ,

(2.133)

denn die Zeilen von Pπ−1 A sind die Spalten von (Pπ−1 A)t = At (Pπ−1 )t = At Pπ und At Pπ hat die Spalten At Pπ ei = At eπ(i) = a(π(i)) , wenn a(1) , . . . , a(n) die Zeilen von A sind. Analog wird eine Spaltenpermutation, bei der die k-te Spalte auf die Position π−1 (k) kommt für ein π ∈ Σn , beschrieben durch A Pπ .

(2.134)

Man kann die Zeilenvertauschung durch reales Umspeichern vornehmen (direkte Pivotisierung ) oder nur die Vertauschungen der Zeilen in einem Vektor (p1 , . . . , pn ), pi ∈ {1, . . . , n} notieren, der die realen Zeilenindizes enthält (indirekte Pivotisierung). Das erspart das Umspeichern, führt aber zu nichtsequentiellen Speicherzugriffen. Bei exaktem Rechnen in R kann jedes von Null verschiedene Spaltenelement als Pivotelement genommen werden. Beim numerischen Rechnen empfiehlt es sich ein betragsmäßig größtes Element zu wählen. Diese Strategie wird Spaltenpivotsuche genannt und wird von folgender Routine realisiert, die indirekte Pivotisierung verwendet und als Eingabeargument eine invertierbare quadratische Matrix A erwartet. Algorithmus 2 (Gauss-Elimination mit Spaltenpivotsuche) function [L, R, P] = gausszerlegungpivot (A) n = length(A); p = 1 : n; % Initialisierung von p = (1,...,n) als Identitaet for k = 1 : n - 1 m = k; for i = k + 1 : n if abs(A(p(i), k)) > abs(A(p(m), k)) m = i; end end h = p(m); p(m) = p(k); p(k) = h; d = 1/A(p(k), k); for i = k + 1 : n A(p(i), k) = A(p(i), k)*d; for j = k + 1 : n A(p(i), j) = A(p(i), j) - A(p(i), k)*A(p(k), j);

286

2 Matrizen und lineare Abbildungen

end end end L = eye(n) + tril (A(p, :), -1); % vgl. Algorithmus 1 , R = triu (A(p, :)); % Zugriff auf Zeilenindex via p P = zeros (n); for k = 1 : n, P(k, p(k)) = 1; end end

Zu logischem Zeilenindex i ist p(i) der physikalische Zeilenindex. Also: i ist der permutierte Zeilenindex zum Ausgangszeilenindex p(i) und damit p(i) = π−1 (i) , wenn π die insgesamt durchzuführende Permutation beschreibt. Die Folgen der Spaltenpivotsuche (und der kompakten Speicherung) für die LRZerlegung lassen sich mit Permutationsmatrizen beschreiben. Theorem 2.100: LR-Zerlegung durch Gauss von PA Sei A ∈ R(n,n) nichtsingulär. Dann existiert eine Permutationsmatrix P, so dass eine Dreieckszerlegung von PA, d. h. PA = LR , möglich ist. P, L, R sind durch Algorithmus 2 bestimmbar. Dabei ist P = Pπ mit π = τn−1 ◦ . . . ◦ τ1 , wobei τk die Transposition ist, die die Zeilenvertauschung in A(k) beschreibt, d. h. mit dem Vektor p aus Algorithmus 2 gilt (P)i, j = δ p(i), j und nach Durchführung von Algorithmus 2 gilt: L = (li, j ) mit l j, j = 1, li, j = a p(i), j für j = 1, . . . , n , i = j + 1, . . . , n, R = (ri, j )

mit ri, j = a p(i), j

für i = 1, . . . , n , j = i, . . . , n .

Wird das Pivotelement als betragsmäßiges Spaltenmaximum bestimmt, dann gilt: |li, j | ≤ 1 für alle i, j. Dabei sind die ai, j die Einträge von A(n) , d. h. des Speicherfeldes A nach Durchführung von Algorithmus 2.

Beweis: Analog zu (2.124) schreiben wir A(k+1) = L(k) Pτk A(k)

für k = 1, . . . , n − 1

mit L(k) = 1 − m(k) ⊗ ek , m(k) = (0, . . . , 0, lk+1,k , . . . , ln,k )t . Wiederholte Anwendung von (2.135) liefert schließlich

(2.135)

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

R = A(n) = L(n−1) Pτn−1 L(n−2) Pτn−2 . . . L(1) Pτ1 A .

287

(2.136)

Aus (2.136) wird durch Einschieben von P−1 σk Pσk mit geeigneten σk : R = L(n−1) Pτn−1 L(n−2) P−1 Pτ Pτ L(n−3) (Pτ ◦τ )−1 Pτ ◦τ Pτ . . . A τ | {z n−1 } | n−1 n−2 {z n−1 n−2 } n−1 n−2 n−3 Lˆ (n−3)

Lˆ (n−2)

ˆ (n−1) ˆ (n−2)

=L

L

ˆ (1)

. . . L Pπ0 A ,

wobei Lˆ (k) := Pπk L(k) P−1 πk , und πk für k = 0, . . . , n − 1 durch πn−1 := id,

πk := τn−1 ◦ . . . ◦ τk+1

für k = 0, . . . , n − 2

definiert ist, somit insbesondere π0 = π nach obiger Definition. Nach Definition besteht πk = τn−1 ◦ . . . ◦ τk+1 aus den in den Teilschritten k + 1, . . . , n − 1 nachfolgenden Transpositionen, für die π(i) = i für alle i = 1, . . . , k gilt. Daher folgt: t    (k) t −1 (k) P−t Lˆ (k) = Pπk L(k) P−1 πk ek πk = Pπk 1 − m ek Pπk = 1 − Pπk m  = 1 − Pπk m(k) Pπk ek t = 1 − Pπk m(k) ek t (da πk (i) = i für alle i = 1, . . . , k)    1    .   ..       1 =  ˆ (k) ⊗ ek , (2.137)  = 1 − m    −1 (k+1),k −l  π   k   .. ..   . .   −lπ−1 1 (n),k k wobei

 t m ˆ (k) = 0, . . . , 0, lπ−1 , (k+1),k , . . . , lπ−1 (n),k k k

da nach (2.133) durch A → Pπk A eine Zeilenpermutation mit π−1 k bewirkt wird. Wir betrachten eine Spalte (lk+1,k , . . . , ln,k )t und die in Algorithmus 2 darauf wirkenden Transpositionen τk+1 , . . . , τn−1 . Allgemein gilt für einen Vektor x : Nach Anwendung der Permutation σ1 ist xi auf −1 Position σ1 (i) und xσ−1 auf Position i, bzw. xσ−1 auf Position σ−1 2 (i) für eine weitere 1 (i) 1 (σ2 (i)) Permutation σ2 . Nach zusätzlicher Anwendung der Permutation σ2 ist demnach xσ−1 (σ−1 (i)) 1 2 auf Position i.

288

2 Matrizen und lineare Abbildungen

Betrachte eine Position j ∈ {1, . . . , n}: Nach Anwendung von σ2 ◦ σ1 steht folglich auf Position j der Eintrag −1 xσ−1 = x(σ2 ◦σ1 )−1 ( j) . 1 (σ2 ( j))

Die Gestalt von m ˆ ist somit genau eine Konsequenz der Zeilenvertauschungen durch τk+1 , . . . , τn−1 . Also folgt aus (2.137) mit Lemma 2.85 und Satz 2.87 Pπ0 A = LR

mit

−1 −1 L := Lˆ (1) · · · Lˆ (n−1) = 1 +

n−1 X k=1

m ˆ (k) ⊗ ek .

Damit folgt die Behauptung. P π0 hat also die gemäß π0 = p−1 permutierten Einheitsvekto ren als Zeilen, d. h. Pπ0 i, j = δ p(i), j .  Für das LGS Ax = b ergibt sich PAx = Pb und damit ist es durch folgende zwei Schritte lösbar: ′ 1) Ly = Pb Vorwärtssubstitution, wobei mithin b′ =  = b durch  bπ−1 (i) = b p(i) . i i 2) Rx = y durch Rückwärtssubstitution.

(2.138)

Der folgende Algorithmus realisiert die Lösung eines LGS Ax = b, PA = LR mittels (2.138): Algorithmus 3 (Vorwärts- und Rückwärtssubstitution) function x = vorwrueckwsubs (L, R, P, b) n = length(b); % Vorwaertssubstitution y = zeros (n, 1); b = P*b; % Permutation der rechten Seite for i = 1 : n y(i) = b(i); for j = 1 : i - 1 y(i) = y(i) - L(i, j)*y(j); end y(i) = y(i)/L(i, i); end % Rueckwaertssubstitution x = zeros (n, 1); for i = n : -1 : 1 x(i) = y(i); for j = i + 1 : n x(i) = x(i) - R(i, j)*x(j); end x(i) = x(i)/R(i, i); end end

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

289

Es verbleibt, die Transformation auf Zeilenstufenform R für allgemeines A ∈ R(m,n) zu betrachten. Der Beweis von Theorem 2.100 zeigt, dass Eigenschaften von A keine Rolle gespielt haben bei der Umformung zu der Gestalt PA = LR .

(2.139)

(2.139) gilt also auch allgemein, mit P = Pπ wie in Theorem 2.100, R ∈ R(m,n) in Zeilenstufenform und L ∈ R(m,m) wie bei (2.129) als normierte untere Dreiecksmatrix mit den Multiplikatoren in den Spalten der Stufenindizes j(1), . . . , j(r). Auch die Bestimmung des Lösungsraums eines LGS von (2.130) gilt hier, wenn man b durch Pb ersetzt.

*Bemerkungen 2.101 1) Wie schon in Abschnitt 1.1 angedeutet, ist es manchmal nützlich, R weiter zu vereinfachen. Durch Spaltenvertauschungen, wobei die zugehörige Permutation π durch π−1 = σ j(r),r ◦ . . . ◦ σ j(1),1 ,

d. h. π = σ j(1),1 ◦ . . . ◦ σ j(r),r

e übergeführt werden, d. h. definiert ist, kann R in die Staffelform R ≈

≈   e  e =  R C  R 0 0

(2.140)

e ∈ R(r,n−r) . Bezeichnet man P mit R ∈ R(r,r) als invertierbare obere Dreiecksmatrix und C aus (2.139) mit PZ (Z =Zeilen) und hier die Permutationsmatrix mit PS , gilt damit nach (2.134) e. PZ APS = LRPS = LR

2) Wie in Abschnitt 1.1 beschrieben, ist es möglich durch weitere Zeilenumformungen vom Typ III jeweils von Zeile r bis Zeile 1, bei Spalte r beginnend bis Spalte 1, zu erreichen e übergeht in (Gauss-Jordan-Verfahren), dass R ! Dˆ Cˆ Rˆ = . (2.141) 0 0 Dabei ist Dˆ = diag(d1 , . . . , dr ) eine Diagonalmatrix in R(r,r) mit nichtverschwindenden Diagonalelementen.Nach (2.124) gilt

290

2 Matrizen und lineare Abbildungen

e wobei Rˆ = E1 . . . Er R,

Ei : = 1m − m(i) ⊗ ei mit

m(i) = r˜1,i /˜ri,i , . . . , r˜i−1,i /˜ri,i , 0, . . . , 0

Also folgt

und

t

.

e = (E1 . . . Er )−1 Rˆ =: RRˆ R

    R = Er−1 . . . E1−1 = 1 + m(r) ⊗ er . . . 1 + m(1) ⊗ e1

nach Lemma 2.85, da immer m(i) i = 0 ist. Hier gilt die analoge Aussage zu Satz 2.87 (Formulierung und Beweis: Übung), so dass schließlich R=1+

r X i=1

m(i) ⊗ ei .

R ist deswegen die normierte obere Dreiecksmatrix mit den Multiplikatoren aus den r Eliminationsschritten oberhalb der Diagonale in den Spalten 1, . . . , r, daher PZ APS = LRRˆ .

(2.142)

Wenn gewünscht, können die ersten r Diagonalelemente von Rˆ auch als 1 gewählt werden, d. h. Dˆ als 1r . Diese Transformation wird mit einer Diagonalmatrix D als zusätzlichem Faktor beschrieben: PZ APS = LRDRˆ . Dabei sind PZ , PS , L, R invertierbar, so dass Lösbarkeit und Dimension des Lösungsraums aus der reduzierten Zeilenstufenform Rˆ abgelesen werden können, wobei mit der Form (2.142) fortgefahren wird. Genauer: Das LGS Ax = b ist äquivalent mit PZ APS z = PZ b , wobei z := P−1 S x. Folglich ˆ = PZ b LRRz

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

291

und damit: 1) Löse Ly = PZ b (eindeutige Lösung durch Vorwärtssubstitution). 2) Löse Rw = y (eindeutige Lösung durch Rückwärtssubstitution). ˆ = w auf Lösbarkeit 3a) Prüfe Rz ′′ (lösbar  ′ ⇔ w = ′0, wenn w w = w′′ , z = zz′′ , w′ , z′ ∈ Rr , w′′ ∈ Rm−r , z′′ ∈ Rn−r ).

3b) Bei Lösbarkeit bestimme den Lösungsraum U, z′′ ∈ Rn−r sind freie Parameter, z′ := Dˆ −1 (w′ − Cˆ z′′ ), ˆ bzw. U = ˆz + Kern R,  ′  ˆ −1 ′  z ˆz = D 0 w , Kern Rˆ = span(z1 , . . . , zn−r ) und zi = z′′i , z′′i := ei , i z′ := −Dˆ −1Cˆ z′′ . i

i

4) x := PS z .

3) Alternativ lässt sich durch elementare Spaltenumformungen von Typ III beginnend mit Spalte 1 bis Spalte r sogar die Form ! D0 Rˆ = 0 0 erreichen. Da dies Zeilenumformungen für die transponierte Matrix entspricht (siehe Bemerkungen 2.57, 4)), gilt sodann et , Rˆ t = Er . . . E1 R

(n,n) wobei die Frobenius-Matrizen die Gestalt (2.123) haben mit Multiplikato  Ei ∈ R renvektoren m(i) , so dass m(i) = 0 für j < i + 1, also j

Daher

e = R(E ˆ r . . . E1 )−t =: RR ˆ . R R = Er−t . . . E1−t ,

wobei nach Lemma 2.85 Ei−1 der Matrix Ei entspricht nach Weglassen des Minuszeichens bei den Multiplikatoren, und Satz 2.87 (angewendet auf die Transponierten) folgendes liefert:

292

2 Matrizen und lineare Abbildungen

R = 1n +

r X i=1

ei ⊗ m(i) ,

also eine normierte obere Dreiecksmatrix mit den Multiplikatoren in den ersten r Zeilen. Hier ergibt sich also die alternative Darstellung ˆ . PZ APS = LRR

(2.143)

(Man beachte den Platztausch von Rˆ und R und R ∈ R(n,n) .) Im Lösungsschema sind 2) und 3) zu ersetzen durch: ˆ = y auf Lösbarkeit (lösbar ⇔ y′′ ∈ Rm−r = 0). 2)’a) Prüfe Rw 2)’b) Bei Lösbarkeit bestimme den Lösungsraum ! D−1 y′ w= , w′′ ∈ Rn−r beliebig. w′′ 3)’ Löse Rz = w (eindeutige Lösung durch Rückwärtssubstitution). Schließlich kann bei (2.143) noch, wenn dies aus „ästhetischen“ Gründen gewünscht wird, durch zusätzliche Umformungen vom Typ II erreicht werden, dass Rˆ die Gestalt ! 1r 0 ˆ (2.144) R= 0 0 annimmt. Da die Umformungen sowohl als Zeilen- als auch als Spaltenumformungen aufgefasst werden können, können sie sowohl bei L oder R als Faktoren auftreten. △

Obwohl durch die (reduzierte) Zeilenstufenform Lösbarkeit und Lösungsraum klar gegeben sind, ist diese Umformung nicht geeignet zur Darstellung der Pseudoinversen A+ . e nach (2.140) oder Rˆ nach (2.141) die Pseudoinverse angegeben werden, Zwar kann für R dann kann damit allerdings nicht die Pseudoinverse insgesamt bestimmt werden (siehe Bemerkungen 2.82, 5)). Dazu müssten wie die Permuationsmatrizen auch die Matrizen L (in (2.139)) bzw. L, R (in (2.142)) orthogonal sein. In Abschnitt 4.8 wird daher als Alternative zur LR-Zerlegung die QR-Zerlegung mit einer orthogonalen Matrix Q besprochen.

Aufgaben

293

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • • • • •

Permutation, symmetrische Gruppe Permutationsmatrix Transposition, Zyklus Signumsfunktion Multiplikatoren

Zusammenhänge • Jede Permutation lässt sich als ein Produkt von Transpositionen bzw. elementfremden Zyklen schreiben (Satz 2.96). • Gauss-Elimination erzeugt Zerlegung PA = LR, L wird durch (Mit-)Permutation erzeugt (Theorem 2.100).

Aufgaben Aufgabe 2.26 (K) Stellen Sie alle Permutationen σ ∈ Σ4 als Zyklus oder als Produkt zyklischer Permutationen dar. Aufgabe 2.27 (T) Zeigen Sie für die zyklische Permutation σ = (i1 , i2 , . . . , ik ) sign(σ) = (−1)k+1 . Aufgabe 2.28 (T) Formulieren und zeigen Sie die nach (2.141) benutzte analoge Aussage zu Satz 2.87. Aufgabe 2.29 (T) Arbeiten Sie die Einzelheiten zum Erhalt der Darstellungen (2.142) und (2.143) aus. Aufgabe 2.30 (T) Bestimmen Sie die Pseudoinverse einer Matrix in (reduzierter) Zeilenstufenform.

294

2 Matrizen und lineare Abbildungen

2.6 Die Determinante

2.6.1 Motivation und Existenz In (2.67) wurde für die Matrix A=

ab cd

!

die Zahl δ := ad − bc definiert und festgestellt, dass A invertierbar ⇔ δ , 0 .

(2.145)

δ = δ(A) ist ein nichtlinearer Ausdruck in A, da offensichtlich nicht δ(A + B) = δ(A) + δ(B) gilt, und δ(λA) = λ2 δ(A) statt δ(λA) = λδ(A) . Allerdings ist δ(A) linear bei Veränderung von A in einer Zeile (Spalte) bei festgehaltener weiterer Zeile (Spalte). Ziel ist es für eine beliebige Matrix A ∈ R(n,n) einen (nichtlinearen) Ausdruck δ = δ(A) zu definieren, der (2.145) erfüllt. Man kann sich dem auch geometrisch nähern: Wir betrachten eine n × n-Matrix  t    a1   a1,1 · · · a1,n     ..  A =  ...  =  ... .      an t an,1 · · · an,n

mit den Zeilenvektoren a1 , . . . , an . – In diesem Abschnitt werden Zeilen mit Indizes ohne Klammern bezeichnet. – Diese Zeilenvektoren spannen einen Spat , bzw. ein Parallelotop, festgemacht an a0 , P(a1 , . . . , an ) = {x ∈ Rn : x = a0 +

n X 1

ck a k ,

c1 , . . . , cn ∈ R, 0 ≤ ck ≤ 1}

auf. Wir möchten das Volumen vol(A) dieses Spats berechnen. Der elementare Volumenbegriff in R2 oder R3 und seine anstehende Verallgemeinerung ist translationsinvariant, so dass im Folgenden a0 = 0 gesetzt werden kann.

2.6 Die Determinante

295

✟ ✟✟ ✂ ✂ ✟✟ ✂ ✂✍ ✂ ✂ ✂ ✂ ✂ ✯✂(a, b) ✟ ✟ ✂α ✟ ✟ ✂ ✟ (c, d)

✏ ✏✏ ✡✄ ✡✄ ✡✄ ✡ ✄ ✏✡ ✄ ✏ ✡✏ ✄ ✄✏✄ ✄✗ ✏ ✄ ✏✄ ✡ ✟ ✄ ✡ ✣ ✄ ✡✟✟ ✄✡ ✏ ✟✟ ✄✡ ✶ ✟ ✏ ✄✡ ✏ ✟ ✟

n=2

n=3

Abb. 2.11: Parallelotope im Rn , festgemacht bei a0 = 0.

Beispiel 2.102 (Geometrie) Der Fall n = 2 ist aus der Elementargeometrie bekannt: Die Fläche des Parallelogramms ist das Produkt der Seitenlängen mal sin(α) (siehe Abbildung 2.11 wegen der Notation: Zur Vereinfachung der Schreibweise werden hier Vektoren ausnahmsweise als Zeilen geschrieben): !! p ab vol = k(a, b)k · k(c, d)k · sin(α) = k(a, b)k · k(c, d)k · 1 − cos2 (α) cd s ( (a, b) . (c, d) )2 = k(a, b)k · k(c, d)k · 1 − k(a, b)k2 · k(c, d)k2 = = =

p

p

k(a, b)k2 · k(c, d)k2 − ( (a, b) . (c, d) )2 (a2 + b2 )(c2 + d2 ) − (ac + bd)2



a2 d2 + b2 c2 − 2 · abcd =

= |ad − bc| = |δ| .

p

(ad − bc)2 (2.146) ◦





✄✗ ✄ vol(A) ✲✄ ak



✄ ✄

|t| · vol(A)

✲✄







t · ak

Abb. 2.12: Volumenveränderung bei Streckung des Vektors ak .

296

2 Matrizen und lineare Abbildungen

Es ist ziemlich einsichtig, dass das Volumen vol(A) des Spats P(a1 , . . . , an ) folgende Eigenschaften haben sollte: (I) Beim Vertauschen zweier Zeilen in der Matrix A ändert sich das Volumen vol(A) nicht. (II) Streckt man einen Zeilenvektor mit einem Faktor t ∈ R, so ändert sich vol(A) mit dem Faktor |t| (siehe auch Abbildung 2.12), d. h. in Formeln vol(a1 , . . . , ak−1 , t · ak , ak+1 , . . . , an ) = |t| · vol(a1 , . . . , an ) für t ∈ R. (III) vol(a1 , . . . , ak , . . . , al + tak , . . . , an ) = vol(a1 , . . . , ak , . . . , al , . . . , an ) für alle 1 ≤ k , l ≤ n und t ∈ R (siehe Abbildung 2.13). (0) Für die Einheitsmatrix 1 (d. h. den Einheitswürfel) ist vol(1) = 1 .

al

al + tak

✑ ✸ ✄✑✑ ✑ ✑✄ ✑ ✄ ✑✑ ✄ ✑✑ ✑ ✄ ✲✑ ✄ ✲ ✄✗ ✄

ak

tak

Abb. 2.13: Volumeninvarianz bei Zeilenaddition.

Die Eigenschaften (I)-(III) beschreiben die Änderung des Volumens von P(a1 , . . . , an ), wenn man die Vektoren elementaren Zeilentransformationen vom Typ (I)(III) unterwirft. Wir wollen ein vorzeichenbehaftetes Volumen (für Parallelotope) einführen, indem wir eine Funktion det : R(n,n) → R , die Determinante der Matrix A, konstruieren, deren Absolutbetrag das Volumen vol(A) ist: vol(A) = | det(A)|. Von der Funktion det verlangen wir die folgenden Eigenschaften, aus denen die obigen (I)-(III), (0) folgen:

2.6 Die Determinante

297

(I) Vertauscht man in der Matrix A ∈ R(n,n) zwei Zeilen, so ändert sich das Vorzeichen von det(A). (II) det(a1 , . . . , ak−1 , t · ak , ak+1 , . . . , an ) = t · det(a1 , . . . , an ) für alle t ∈ R. (III) det(a1 , . . . , ak , . . . , al + tak , . . . , an ) = det(a1 , . . . , ak , . . . , al , . . . , an ) für alle 1 ≤ k , l ≤ n und t ∈ R. (0) (Normierung) Für die Einheitsmatrix 1 gilt det(1) = 1 .

Äquivalent können wir somit det auffassen als Abbildung n det : R . . . × R}n → R , | × {z n−mal

wobei A ∈ R(n,n) und a1 , . . . , an sich dadurch entsprechen, dass die ai t die Zeilen von A sind. Beispiel 2.103 Die Funktion det

! ab := ad − bc cd

hat die Eigenschaften (0),(I),(II),(III). Hiervon sind (0), (I), und (II) unmittelbar einsichtig. Zum Beweis von (III) betrachten wir nur den Fall k = 1 und l = 2 auf den mit (I) der verbleibende zurückgeführt werden kann. Dann ist ! ! a b ab det = a(d + tb) − b(c + ta) = ad − bc + t(ab − ba) = det . c + ta d + tb cd ◦

Satz 2.104: Eindeutigkeit der Determinante Wenn eine Funktion det : R(n,n) → R mit den Eigenschaften (0) bis (III) existiert, dann ist sie durch diese Eigenschaften eindeutig festgelegt und für A mit Rang A < n gilt notwendigerweise det(A) = 0 .

Beweis: Wir wissen, dass man A durch elementare Zeilenumformungen auf Zeilenstufenform bringen kann, bzw. umgekehrt, dass A durch elementare Zeilenumformungen aus einer Matrix Z in Zeilenstufenform hervorgeht. Da die Eigenschaften (I),(II),(III) festlegen, wie sich die Determinante bei einer elementaren Zeilenumformung ändert, und zwar

298

2 Matrizen und lineare Abbildungen

höchstens um einen Faktor ungleich Null, genügt es, die Eindeutigkeit für Matrizen Z in Zeilenstufenform (mit Pivotelementen 1) zu beweisen. Dazu unterscheiden wir die Fälle: Rang A < n. In diesem Fall ist der letzte Zeilenvektor zn in Z ein Nullvektor. Dann ist 0 · zn = zn , und aus (II) folgt det(Z) = det(z1 , . . . , zn ) = det(z1 , . . . , zn−1 , 0 · zn ) = 0 · det(z1 , . . . , zn ) = 0 . Rang A = n. Nun ist Z eine Dreiecksmatrix und der letzte Zeilenvektor ist zn = en . Durch Addition geeigneter Vielfacher dieses Vektors zu den vorhergehenden Zeilen (Umformung vom Typ (III)) können wir erreichen, dass der letzte Eintrag in den ersten n − 1 Zeilen 0 ist. Jetzt ist der vorletzte Zeilenvektor zn−1 = en−1 , und durch elementare Zeilenumformungen vom Typ III können wir erreichen, dass auch der vorletzte Eintrag in den ersten n−2 Zeilen 0 ist. Mit endlich vielen elementaren Zeilenumformungen vom Typ III, können wir daher Z in die Einheitsmatrix 1 überführen (Gauss-Jordan-Verfahren, siehe auch (1.16)). Aus Eigenschaft (III) und (0) folgt det(Z) = det(1) = 1 .



Mit den obigen Überlegungen ist schon „fast“ eine Definition von det(A) gefunden, da für invertierbares A nach dem Beweis von Satz 2.104 notwendig gilt (2) (n) det(A) = (−1)l a(1) 1,1 a2,2 · · · an,n .

Dabei ist l die Anzahl der durchgeführten Zeilenvertauschungen und die a(i) i,i sind die jeweiligen Pivotelemente zur Bereinigung der i-ten Spalte unter der Diagonale. Bemerkungen 2.57, 6) zeigt zwar, dass dieser Ausdruck unabhängig von der Wahl der elementaren Umformungsschritte ist. Somit liegt auch ein effizientes Berechnungsverfahren vor (siehe (2.154)). Nun soll eine „explizitere“ Darstellung für eine Funktion det mit den Eigenschaften (0),. . .,(III) gefunden werden. Im Wesentlichen läuft dies auf die Existenz des Signums (Satz 2.98) hinaus, denn wenn eine Determinantenfunktion det(A) mit den Eigenschaften (0) und (I) existiert, dann gilt wegen Satz 2.98 und Satz 2.96) für jede Permutationsmatrix Pσ det(Pσ ) = sign(σ) .

(2.147)

Ist nämlich Pσ = Pkm ,lm . . . Pk1 ,l1 , so führen die Vertauschungen σkm ,lm , . . . , σk1 ,l1 sukzessive Pσ in 1 mit det(1) = 1 über und erzeugen nach (I) jeweils den Faktor sign(σki ,li ), insgesamt also sign(σ). Dies ist ein Zusammenhang zwischen Determinante und signum-Funktion. Wir benutzen die signumFunktion nun für unsere Definition der Determinante:

2.6 Die Determinante

299

Definition 2.105 Es sei A = (ak,l)k,l=1,...,n ∈ R(n,n) eine n × n-Matrix. Die Zahl det(A) :=

P

σ∈Σn

sign(σ) · a1,σ(1) · . . . · an,σ(n)

heißt Determinante der Matrix A. (Diese Formel für die Determinante stammt von Gottfried Wilhelm Leibniz14 und ist nach ihm benannt.) Eine alternative Schreibweise ist auch |A|. Dass diese Determinante tatsächlich die Eigenschaften (0),. . .,(III) besitzt, weisen wir im nächsten Abschnitt nach. Zuerst einige einfache Beispiele, die zeigen sollen, was diese Formel bedeutet. n = 1: Im Fall n = 1 ist det(a) = a. n = 2: Für n = 2 ist ! a1,1 a1,2 det = sign(id) · a1,1 a2,2 + sign(σ1,2 )a1,2 a2,1 = a1,1 a2,2 − a1,2 a2,1 . a2,1 a2,2 | {z } | {z } σ=σ1,2

σ=id

Wenn wir die Matrix

!

!

ab a1,1 a1,2 = schreiben, dann wird dies zu cd a2,1 a2,2 det

! ab = ad − bc . cd

n = 3: Für n = 3 haben wir    a1,1 a1,2 a1,3    det  a2,1 a2,2 a2,3  = a1,1 a2,2 a3,3 für σ = id   a3,1 a3,2 a3,3 12 + a1,2 a2,3 a3,1 für σ = 23 12 + a1,3 a2,1 a3,2 für σ = 31 12 − a1,3 a2,2 a3,1 für σ = 32 12 − a1,1 a2,3 a3,2 für σ = 13 12 − a1,2 a2,1 a3,3 für σ = 21

14

! 3 = σ1,3 ◦ σ1,2 = (1, 2, 3) 1! 3 = σ1,2 ◦ σ1,3 = (1, 3, 2) 2! 3 = σ1,3 = (1, 3) 1! 3 = σ2,3 = (2, 3) 2! 3 = σ1,2 = (1, 2) . 3

Gottfried Wilhelm Leibniz ∗1. Juli 1646 in Leipzig †14. November 1716 in Hannover

300

2 Matrizen und lineare Abbildungen

Dies ist die klassische „Regel von Sarrus15 “: a1,1 a1,2 a1,3 a1,1 a1,2 ❅ ❅ ❅ ❅ ❅ ❅ a2,1 ❅ a2,2 ❅ a2,3 ❅ a2,1 a2,2 ❅ ❅ ❅ ❅ ❅ ❅ a3,1 a3,2 ❅ a3,3 ❅ a3,1 ❅a3,2



a1,1

a1,2

a1,3

a1,1

a1,2

a2,1

a2,2

a2,3

a2,1

a2,2

a3,1

a3,2

a3,3

a3,1

a3,2

.

Dabei ist nunmehr über die eingezeichneten „Diagonalen“ und „Gegendiagonalen“ der durch Wiederholung der Spalten 1 und 2 erweiterten Matrix zu multiplizieren und die Produkte zu addieren bzw. zu subtrahieren.

2.6.2 Eigenschaften Wir wollen jetzt einige wichtige Eigenschaften der Determinante angeben. Insbesondere suchen wir nach praktischen Möglichkeiten, die Determinante einer gegebenen Matrix zu berechnen, da die Leibnizsche Formel hierfür bei großen n ungeeignet ist, da schon allein n! Summanden zu addieren wären. Theorem 2.106: Fundamentaleigenschaften der Determinante Die Funktion det : R(n,n) → R,

A 7→ det(A) ,

hat folgende Eigenschaften: 1) Linearität in Bezug auf jede Zeile:       a1    a1   a1     .   .  ..    ..   ..  .        ak−1   ak−1   ak−1        det  sak + ta′k  = s · det  ak  + t · det  ak ′  .        ak+1   ak+1   ak+1   .   .    ..  ..   ..    .         an an an

2) Schiefsymmetrie in Bezug auf je zwei Zeilen (also (I)):

15

Pierre Frédéric Sarrus ∗10. März 1798 in Saint-Affrique †20. November 1861 in Saint-Affrique

2.6 Die Determinante

301

     a1   a1   .   .   ..   ..       ak−1   ak−1       ak   al     a   ak+1   k+1       det  ...  = − det  ...  .      al−1   al−1        al   ak   al+1   al+1       ..   ..   .   .      an an

3) Normierung (also (0)): det(1n ) = 1.

Beweis: Zu 1): Wir werten die Determinante auf der linken Seite der Gleichung mit der Leibniz-Formel aus: X sign(σ) · a1,σ(1) · . . . · (s · ak,σ(k) + t · a′k,σ(k) ) · . . . · an,σ(n) σ∈Σn

=s ·

X

σ∈Σn

+t·

sign(σ) · a1,σ(1) · . . . · ak,σ(k) · . . . · an,σ(n) +

X

σ∈Σn

sign(σ) · a1,σ(1) · . . . · a′k,σ(k) · . . . · an,σ(n) .

Zu 2): Wieder mit der Leibniz-Formel und mit Satz 2.98 ist die Determinante auf der rechten Seite der Gleichung X sign(σ) · · · a1,σ(1) · . . . · al,σ(k) · . . . · ak,σ(l) · . . . · an,σ(n) σ∈Σn

=

X

σ∈Σn

=− =−

sign(σ ◦ σk,l ) · a1,σσk,l (1) · . . . · al,σσk,l (k) · . . . · ak,σσk,l (l) · . . . · an,σσk,l (n)

X

σ∈Σn

X

σ∈Σn

sign(σ) · a1,σσk,l (1) · . . . · al,σσk,l (k) · . . . · ak,σσk,l (l) · . . . · an,σσk,l (n) sign(σ) · a1,σ(1) · . . . · al,σ(l) · . . . · ak,σ(k) · . . . · an,σ(n) .

Dazu wurde benutzt, dass bei beliebiger, fester Vertauschung σk,l wegen σ = σ ◦ σk,l ◦ σk,l mit allgemeinen σ ∈ Σn auch durch σ ◦ σk,l alle Permutationen erfasst werden und dann sign(σ ◦ σk,l ) = sign(σ) sign(σk,l ) = − sign(σ) gilt. Zu 3): Es ist

302

2 Matrizen und lineare Abbildungen

det(1n ) =

X σ

sign(σ) · δ1,σ(1) · . . . · δn,σ(n) ,

und der Summand ist nur dann ungleich 0, wenn alle Kronecker-Deltas gleich 1 sind, d. h. wenn k = σ(k) für alle k = 1, . . . , n. Somit bleibt nur der Summand für σ = id übrig und die Determinante wird gleich 1.  Die Abbildung det : Rn × . . . × Rn → R ist demnach multilinear in dem Sinn, dass fi : Rn → R,

fi (x) := det(a1 , . . . , ai−1 , x, ai+1 , . . . , an )

für fest gewählte a j ∈ Rn linear ist. Dagegen ist det : R(n,n) → R i. Allg. nicht linear. Vielmehr folgt aus der Multilinearität für A ∈ R(n,n) , λ ∈ R det(λA) = λn det(A) und für det(A + B) gibt es keine einfache Beziehung zu det(A) und det(B). Lemma 2.107 Hat die n × n-Matrix A zwei gleiche Zeilen, so ist det(A) = 0.

Beweis: Sind die Zeilenvektoren ak und al gleich, so ändert sich A und damit det(A) nicht, wenn wir beide Zeilen vertauschen. Andererseits ändert sich dabei wegen der Schiefsymmetrie das Vorzeichen von det(A). Es folgt: det(A) = − det(A),

2 · det(A) = 0,

det(A) =

1 (2 · det(A)) = 0 . 2 

Bemerkung 2.108 In obigem Beweis wird zum ersten Mal wirklich eine andere reelle Zahl als 0 und 1, nämlich 12 gebraucht. Gäbe es diese Zahl nicht, wäre das Argument unrichtig. Dies ist der Fall, wenn wir nur in der Zahlenmenge {0, 1} „rechnen“ mit der Regel 1 + 1 = 0. Ein alternativer Beweis wird daher noch in Bemerkung 2.119 gegeben.△

2.6 Die Determinante

303

Satz 2.109: Leibniz-Formel ist Determinante Die mit der Leibniz-Formel definierte Determinante hat die Eigenschaften (0),(I),(II),(III) aus Abschnitt 2.6.1.

Beweis: Normierung (0) und Schiefsymmetrie beim Vertauschen von Zeilen (I) sind die Eigenschaften 3) und 2) von Theorem 2.106. Eigenschaft (II) ist Teil der Linearität der Determinante und Eigenschaft (III) folgt aus der Linearität mit Hilfe von Lemma 2.107. Bemerkungen 2.110 1) Führt man verallgemeinernd eine abstrakte Volumenfunktion (mit Vorzeichen) VS : R(n,n) → R als eine Abbildung ein, die die Eigenschaften (I)-(III) (ohne (0)) erfüllt, so zeigen der Beweis von Satz 2.104 und Satz 2.109: Die abstrakten Volumenfunktionen (mit Vorzeichen) VS sind gerade die Abbildungen c·det für c ∈ R (und notwendigerweise ist c = VS (1)). 2) Alternative Formen für die Bedingungen (I)-(III) sind diese Bedingungen:

(I)’ Hat A ∈ R(n,n) zwei gleiche Zeilen, so ist det(A) = 0 (siehe Lemma 2.107).

(II)’ det als Funktion der Zeilen von A ist multilinear (siehe Theorem 2.106, 1)). 3) Die Eigenschaft aus Lemma 2.107 heißt auch alternierend und ist tatsächlich äquivalent mit der Schiefsymmetrie der Multilinearform det. Für die Richtung alternierend ⇒ schiefsymmetrisch, beachte man für eine Abbildung d : Rn × . . . × Rn → R 0 = d(. . . , al + ak , . . . , al + ak , . . .) = d(. . . , al , . . . , al , . . .) + d(. . . , ak , . . . , al , . . .) + d(. . . , al , . . . , ak , . . .) + d(. . . , ak , . . . , ak , . . .) = d(. . . , ak , . . . , al , . . .) + d(. . . , al , . . . , ak , . . .)

4) Die Leibniz-Formel „ fällt nicht vom Himmel “ sondern ergibt sich zwingend für eine schiefsymmetrische Multilinearform d : Rn × . . . × Rn → R: a) Sei σ ∈ Σn , dann gilt für a1 , . . . , an ∈ Rn d(aσ(1) , . . . , aσ(n) ) = sign(σ)d(a1 , . . . , an ). Nach Satz 2.96 lässt sich σ mit Transpositionen τi , i = 1, . . . , m schreiben als σ=

m Y i=1

und damit, wobei σk :=

Qk

i=1 τi , 1

≤k≤m

τi

304

2 Matrizen und lineare Abbildungen d(aσ(1) , . . . , aσ(n) ) = (−1)d(aσm−1 (1) , . . . , aσm−1 (n) ) = (−1)m d(a1 , . . . , an ) = sign(σ)d(a1 , . . . , an )

b) Sei ai :=

Pn

j=1

a j,i b j wobei A = (ai, j ) ∈ R(n,n) , bi ∈ Rn , i = 1, . . . , n, dann

d(a1 , . . . , an ) = (

X

sign(σ)a1,σ(1) . . . an,σ(n) )d(b1 , . . . , bn ).

σ∈Σn

Es gilt nämlich d(a1 , . . . , an ) = d(

n X

a j1 ,1 b j1 , . . . ,

j1 =1

n X

=

j1 =1

...

n X

a jn ,n b jn )

jn =1

n X

jn =1

a j1 ,1 · · · a jn ,n d(b j1 , . . . , b jn )

aufgrund der Multilinearität. Jeder Summand entspricht eindeutig einer Abbildung τ auf {1, . . . , n}, definiert durch i 7→ ji für die spezifische Auswahl j1 , . . . , jn ∈ {1, . . . , n}. Ist τ nicht bijektiv, d. h. also nicht injektiv (siehe Satz A.18), so ist b ji = b jk für gewisse i, k ∈ {1, . . . , n} und damit verschwindet der Summand, so dass nur die Summanden zu berücksichtigen sind, für die τ ∈ Σn gilt, also: X d(a1 , . . . , an ) = aτ(1),1 . . . aτ(n),n d(bτ(1) , . . . , bτ(n) ) τ∈Σn

a)

=

X

sign(τ)aτ(1),1 . . . aτ(n),n d(b1 , . . . , bn )

τ∈Σn

=

X

sign(τ−1 )a1,τ−1 (1) . . . an,τ−1 (n) d(b1 , . . . , bn )

τ−1 ∈Σn

=

X

sign(σ)a1,σ(1) . . . an,σ(n) d(b1 , . . . , bn ),

σ=τ−1 ∈Σn

wobei sign(τ−1 ) = 1/ sign(τ) = sign(τ) eingeht.

c) Wenn d(e1 , . . . , en ) = 1, dann gilt die Leibniz-Formel. Für bi = ei in b) sind die ai die Spalten von A und damit folgt die Behauptung.

△ Theorem 2.111: Determinanten-Multiplikationssatz 1) Für A, B ∈ R(n,n) gilt: det(AB) = det(A) · det(B) .

2) Für A ∈ R(n,n) gilt: det(A) = 0 ⇔ Rang A < n . 3) det(At ) = det(A).

2.6 Die Determinante

305

Beweis: Zu 1): Wir beweisen die Aussage zunächst für den Fall, dass A = E eine Elementarmatrix ist. Eine Elementarmatrix E vom Typ (I) entsteht aus der Einheitsmatrix durch Vertauschen zweier Zeilen. Also ist det(E) = − det(1) = −1. Die Matrix EB entsteht aus B ebenfalls durch Vertauschen zweier Zeilen. Und deswegen ist det(EB) = − det(B) = det(E) · det(B). Eine Elementarmatrix E vom Typ (II) multipliziert in B eine Zeile mit einem Faktor c ∈ R. Für E gilt det(E) = c (da nach Eigenschaft (II) det(E) = c det(1) = c) und mit gleicher Begründung ist det(EB) = c · det(B). Eine Elementarmatrix E vom Typ (III) entsteht aus der Einheitsmatrix, indem man ein Vielfaches einer Zeile zu einer anderen addiert. Wegen Eigenschaft (III) der Determinante ist daher det(E) = 1. Da weiter wieder wegen Eigenschaft (III) det(EB) = det(B) ist, folgt die Behauptung auch in diesem Fall. Wenn Rang A < n ist, ist auch Rang(AB) < n, da dies die Dimension eines linearen Unterraums ist. Mit Satz 2.104 folgt det(A) = 0 und det(AB) = 0 und damit auch det(AB) = det(A) · det(B). Wenn Rang A = n ist, gibt es nach Hauptsatz 1.85III Elementarmatrizen E1 , . . . , Ek , so dass A = E1 . . . Ek . Es folgt nach der Vorüberlegung det(AB) = det(E1 . . . Ek B) = det(E1 ) · . . . · det(Ek ) · det(B) = det(A) · det(B) .

(2.148)

Zu 2): „⇐“: folgt schon aus Satz 2.104. „⇒“: Angenommen Rang A = n. Nach (2.148) ist dann det(A) = det(E1 ) · . . . · det(Ek ) , 0 und damit ist die Kontraposition der Behauptung gezeigt. Zu 3): Der Beweis entspricht den letzten 3 Zeilen des Beweises von Bemerkungen 2.110, 4), b) mit det statt d und d(b1 , . . . , bn ) = 1.  Eigenschaft 3) bedeutet, dass alles, was für die Zeilen hinsichtlich einer Determinante gilt, auch für Spalten stimmt. Insbesondere ist also det(A) auch linear in Bezug auf jede Spalte und ändert beim Vertauschen zweier Spalten das Vorzeichen.

Bemerkungen 2.112 1) Nach Theorem 2.111, 2) kann folglich die Äquivalenzliste in Hauptsatz 1.85 bei m = n ergänzt werden um (ix)

det(A) , 0 .

– Dabei ist aber zu beachten, dass | det(A)| kein Maß für die „Stärke“ der Invertierbarkeit ist. – 2) det : Rn × . . . × Rn → R kann deshalb auch als Abbildung der Spalten a(i) einer Matrix A aufgefasst werden, weiterhin mit den Eigenschaften der Multilinearität und Schiefsymmetrie.

306

2 Matrizen und lineare Abbildungen

3) Aus Theorem 2.111, 1) folgt insbesondere für invertierbares A ∈ R(n,n) : det(A−1 ) = 1/ det(A) . 4) Die geometrische Bedeutung von det wird jetzt klar: Der Einheitswürfel P(e1 ,. . . , en ) = [0, 1]n wird durch A ∈ R(n,n) abgebildet auf das Par (1) allelotop P a , . . . , a(n) , wenn a(i) die Spalten von A sind. | det(A)| ist also gerade der Faktor der Volumenvergrößerung/-verkleinerung. det(A), oder allgemeiner eine abstrakte Volumenfunktion, ist aber zusätzlich vorzeichenbehaftet. Dies kann dahingehend verstanden werden, dass bei det(A) > 0 die Orientierung der Basisvektoren e1 , . . . , en beim Übergang zu a(1) , . . . , a(n) beibehalten bzw. bei det(A) < 0 geändert wird (siehe Abschnitt 2.6.3). 5) Bei der Polynominterpolation (siehe Bemerkung 2.34) ist bei Zugrundelegung der Monombasis von Rn−1 [x] ein LGS auf Eindeutigkeit oder Lösbarkeit zu überprüfen, das die folgende Systemmatrix hat (siehe (2.33)):   1 t1  A =  ... ...  1 tn

 t12 · · · t1n−1   .. ..  . .   tn2 · · · tnn−1

(2.149)

für die Stützstellen a ≤ t1 < t2 < . . . tn ≤ b, die Vandermonde16 sche Matrix. Alternativ zu den Überlegungen in Bemerkung 2.34 kann die Invertierbarkeit von A geprüft werden und zwar dadurch, dass det(A) , 0 gezeigt wird. Diese Vandermondesche Derterminante lässt sich explizit angeben: det(A) =

n  Q

i, j=1 i< j

t j − ti



(2.150)

(Übungsaufgabe), d. h. insbesondere det(A) , 0. 6) Permutiert man in (2.149) die Stützstellen mit δ ∈ Σn und betrachtet nachfolgend

dann gilt nach (2.133)

  1  ˜ A =  ...  1

n−1  tδ(1) · · · tδ(1)  .. ..  , . .  n−1  tδ(n) · · · tδ(n)

A˜ = Eδ−1 A und damit nach (2.150) sowie (2.147) 16

Alexandre-Théophile Vandermonde ∗28. Februar 1735 in Paris †1. Januar 1796 in Paris

2.6 Die Determinante

n Y

307

˜ = det(Eδ−1 ) det(A) = sign(δ) det(A) = sign(δ) (tδ( j) − tδ(i) ) = det(A)

i, j=1 i< j

n Y

(t j − ti ) .

i, j=1 i< j

sign (δ) ∈ {−1, 1} hätte somit auch als der mögliche Vorzeichenwechsel definiert werden können, den n Y

(t j − ti )

i, j=1 i< j

bei Permutation der Stützstellen erfährt. Eine alternative Definition von sign (für ti := i) ist also insbesondere: sign(σ) :=

n Y σ( j) − σ(i) i, j=1 i< j

j−i

für σ ∈ Σn .

Die Eigenschaften von Satz 2.98 ergeben sich daraus direkt. 7) Eine alternative Darstellung der Leibnizschen Formel ergibt sich mit dem LeviCivita17 -Symbol für eine Indexabbildung σ : {1, . . . , n} → {1, . . . , n}, σ( j) = i j    , wenn σ < Σn 0 (2.150a) εi1 ,...,in :=   sign(σ) , wenn σ ∈ Σn .

Damit lässt sich der Ausdruck aus Definition 2.105 auch schreiben als det(A) =

n X

...

i1 =1

n X

εi1 ,...,in a1,i1 . . . an,in .

(2.150b)

in =1

Das Levi-Civita-Symbol lässt sich auch mit der Determinante ausdrücken: Nach (2.147) ist εi1 ,...,in = det(Pσ ) = det(eσ(1) , . . . , eσ(n) ) für jede Abbildung σ auf {1, . . . , n}.

Dabei ist die Notation der Permutationsmatrix Pσ = (eσ(1) , . . . , eσ(n) ) erweitert worden für beliebige Abbildungen σ : {1, . . . , n} → {1, . . . , n},

so dass det(Pσ ) = 0 für σ < Σn .

Damit lässt sich auch das „Tensorprodukt“ zweier Levi-Civita-Symbole ausdrücken 17

Tullio Levi-Civita ∗29. März 1873 in Padua †29. Dezember 1941 in Rom

308

2 Matrizen und lineare Abbildungen

εi1 ,...,in ε j1 ,..., jn

   δi1 j1 . . . δi1 jn     . = det  ...   δin j1 . . . δin jn

Mit σ und τ als den zugehörigen Indexabbildungen ist nämlich Seite gleich (siehe Theorem 2.111,  die linke   t t 1)) det(Pσ ) det(Pτ ) = det(Pσ ) det(Pτ ) = det(Pσ Pτ ) = det eσ(i) . eτ( j) i, j .



Beispiel 2.113 (Geometrie) Betrachtet wird in der Ebene ein Dreieck △ mit den Ecken 0, x, y ∈ R2 . Da F := | det(x, y)| die Fläche des von x und y aufgespannten Parallelogramms ist, ist vol(△) :=

| det(x, y)| 2

die Fläche des Dreiecks.



Für orthogonale Matrizen, d. h. längen- (und SKP-) erhaltende Transformationen gilt insbesondere: 1 = det(1) = det(A At ) = det(A)2 , also det(A) = ±1 .

Bis auf einen eventuellen Orientierungswechsel sind also orthogonale Matrizen auch volumenerhaltend. Diejenigen mit det(A) = 1 sind bezüglich der Matrizenmultiplikation abgeschlossen und werden zusammengefasst zu

bzw.

SL(n, R) := {A ∈ GL(n, R) : det(A) = 1}

(2.151)

SO(n, R) := SL(n, R) ∩ O(n, R) .

(2.152)

SL(n, R) heißt die spezielle lineare Gruppe , SO(n, R) die spezielle orthogonale Gruppe . Für n = 2 stellen SO(2, R) gerade die Drehungen dar und O(2, R) \ SO(2, R) die Spiegelungen, in Übereinstimmung mit der Setzung in Bemerkungen 2.57, 1).

2.6 Die Determinante

309

Wir wollen noch zwei häufig anwendbare Methoden zur Berechnung von Determinanten entwickeln. Dazu betrachten wir eine Partitionierung von A ∈ R(m,n) etwa in der Form ! A A A = 1,1 1,2 A2,1 A2,2 mit A1,1 ∈ R(r,s) , A1,2 ∈ R(r,n−s) , A2,1 ∈ R(m−r,s) , A2,2 ∈ R(m−r,n−s) . Für eine 2 × 2 Matrix in Dreiecksform A=

! a1,1 a1,2 gilt 0 a2,2

det(A) = a1,1 · a2,2 . Dies überträgt sich auf 2 × 2 Blockmatrizen: Hauptsatz 2.114: Kästchenregel 1) Die n × n-Matrix A habe 2 × 2 Blockdreiecksgestalt, d. h. ! ! A ∗ A1 0 A= 1 oder , 0 A2 ∗ A2 wo A1 eine r × r-Matrix und A2 eine (n − r) × (n − r)-Matrix ist. Dann gilt det(A) = det(A1 ) · det(A2 ) . 2) Insbesondere folgt somit für eine Dreiecksmatrix A = (ai, j ) ∈ R(n,n) det(A) = a1,1 · a2,2 . . . . . . · an,n .

(2.153)

Beweis: Zu 1) Wegen det(A) = det(At ) reicht es, den ersten Fall zu betrachten. In der Leibniz-Formel X sign(σ) · a1,σ(1) · . . . · ar,σ(r) · ar+1,σ(r+1) · . . . · an,σ(n) det(A) = σ∈Σn

sind alle Produkte a1,σ(1) · . . . · ar,σ(r) =0, wo die Permutation σ eine Zahl k, r + 1 ≤ k ≤ n auf eine Zahl σ(k) ≤ r abbildet. Die Summe ist demgemäß nur über solche Permutationen zu erstrecken, welche die Teilmengen {1, . . . , r} und {r + 1, . . . , n}

310

2 Matrizen und lineare Abbildungen

in sich abbilden. Diese Permutationen bestehen also aus zwei Permutationen σ1 : {1, . . . , r} → {1, . . . , r} ∈ Σr ,

σ2 : {r + 1, . . . , n} → {r + 1, . . . , n} ∈ Σn−r .

Schreiben wir dies in die Leibniz-Formel, dann wird X   det(A) = sign(σ1 σ2 ) · a1,σ1 (1) · . . . · ar,σ1 (r) · ar+1,σ2 (r+1) · . . . · an,σ2 (n) σ1 ∈Σr ,σ2 ∈Σn−r

   X  =  sign(σ1 ) · a1,σ1 (1) · . . . · ar,σ1 (r)  · σ1 ∈Σr    X   ·  sign(σ2 ) · ar+1,σ2 (r+1) · . . . · an,σ2 (n)  = det(A1 ) · det(A2 ) .

σ2 ∈Σn−r

Zu 2) folgt durch sukzessives Anwenden von 1).



Beispiel 2.115 (zu Beispiel 3(2) – Massenkette) Sei A nach (MM.12) gegeben, ergibt sich also aus Hauptsatz 2.114, 2) und Theorem 2.111 det(A) = 1 und analog für A nach (MM.11) (siehe (MM.13) und Hauptsatz 2.89) det(A) = det(L) det(R) = m + 1 . ◦ Berechnung der Determinante allgemein. Es ergibt sich damit eine Berechnungsmöglichkeit für det(A), die im Wesentlichen das Gausssche Eliminationsverfahren bedeutet und damit mit einer Größenordnung von n3 Operationen sehr vorteilhaft gegenüber der Definition ist: Nach (2.139) liefert Gauss für ein invertierbares A ∈ R(n,n) PA = LR , wobei P die durch die Zeilenvertauschungen entstehende Permutationsmatrix, L eine normierte untere und R = (ri, j ) eine obere Dreiecksmatrix ist, folglich nach Theorem 2.111, 1) det(P) det(A) = det(L) det(R) , det(P) = (−1)l , wobei l die Anzahl der Zeilenvertauschungen ist und nach (2.153) gilt det(R) = r1,1 · . . . · rn,n RLGS

det(L) = 1 · . . . · 1 .

2.6 Die Determinante

311

Also: det(A) = (−1)l r1,1 · . . . · rn,n .

(2.154)

Bis auf das Vorzeichen ist det(A) damit das Produkt der Pivotelemente aus dem GaussVerfahren. Tatsächlich hat sich dieses Resultat schon aus dem Beweis von Satz 2.104 ergeben. Dort wurde mit det(A) = f det(Z)

argumentiert, wobei f die Folge von elementaren Zeilenumformungen auf eine normierte obere Dreiecksmatrix Z ist. Jede Vertauschung trägt zu f den Faktor (−1) bei, die jeweilige Normierung des Pivotelements auf 1 den Faktor ai,i (i) (Notation wie Theorem 2.100), der eigentliche Eleminationsschritt verändert die Determinante nicht, daher f = (−1)l a1,1 (1) . . . an,n (n) = (−1)l r1,1 . . . rn,n ,

d. h. mit det(Z) = 1 gilt wieder (2.154).

Anstelle von n! Produkten aus n Faktoren in der Leibniz-Formel muss nun nur ein solches Produkt berechnet werden, wobei die Faktoren zwar nicht gegeben, aber mit einem Aufwand von O(n3 ) berechnet werden können. Entwicklung nach Spalten oder Zeilen. Wir schreiben den ersten Zeilenvektor a1 unserer Matrix A als (a1,1 , . . . , a1,k , . . . , a1,n ) = = (a1,1 , 0, . . . , 0) + . . . + (0, . . . , 0, a1,k , 0, . . . , 0) + . . . + (0, . . . , 0, a1,n) und wenden die Linearität der Determinante auf die erste Zeile an:    a1,1 0 · · · 0    det(A) = det  .  .. A1,1 .. .    0 · · · 0 a1,k 0 · · · 0   + det  .. . A′′1,k A′1,k .. .

   0 · · · 0 a1,n   + det  ..  . A1,n .

Hier bezeichnen wir mit Ak,l die Streichungsmatrix von A zur Stelle (k, l), d. h. die (n − 1) × (n − 1)-Matrix, welche aus der n × n-Matrix A entsteht, indem man die k-te Zeile und die l-te Spalte streicht (nicht zu verwechseln mit der Bezeichnung von Partitionierungen). Die Matrix der ersten Determinante auf der rechten Seite hat Blockdreiecksgestalt, daher:

312

2 Matrizen und lineare Abbildungen

det

!

a1,1 0 = a1,1 · det(A1,1 ). ∗ A1,1

Die anderen Matrizen können auch auf diese Blockdreiecksgestalt gebracht werden. Und zwar müssen wir dazu die k-te Spalte mit der (k − 1)-ten Spalte vertauschen, dann mit der (k − 2)-ten usw. Insgesamt ergeben sich dabei k − 1 Änderungen des Vorzeichens: ! ! 0 a1,k 0 a1,k 0 1+k det ′ = (−1) det = (−1)1+k a1,k · det(A1,k ) . A1,k . A′′1,k . A1,k Damit haben wir die Entwicklung von det(A) nach der ersten Zeile: det(A) =

n X k=1

(−1)1+k · a1,k · det(A1,k ) .

Ebenso kann man nach einer anderen (etwa der l-ten) Zeile entwickeln, wenn man diese erst durch l − 1 Vertauschungen nach oben bringt. Und genauso, wie man nach einer Zeile entwickeln kann, kann man die Determinante nach einer Spalte entwickeln wegen Theorem 2.111, 3). Das bedeutet: Satz 2.116: Entwicklung nach Zeile oder Spalte Sei A ∈ R(n,n) , Ak,l bezeichne die Streichungsmatrix von A zur Stelle (k, l). Dann gilt: Entwicklung nach der l-ten Zeile:

det(A) =

n X k=1

Entwicklung nach der k-ten Spalte:

det(A) =

(−1)k+l · al,k · det(Al,k ) .

n X l=1

(−1)k+l · al,k · det(Al,k ) .

Man beachte, dass diese Formeln in speziell strukturierten Fällen (wenn die Entwicklungszeile/-spalte möglichst viele Nullen enthält) sehr nützlich sind, im Allgemeinen aber keine wirkliche Aufwandsverbesserung gegenüber der Leibniz-Formel darstellen, im Gegensatz zu (2.154). Bemerkungen 2.117 1) In Verallgemeinerung der Streichungsmatrizen Ak,l kann man Matrizen A′ ∈ R(k,k) betrachten, die durch Streichung der restlichen Zeilen und Spalten entstehen (auch bei A ∈ R(m,n) , dann Streichung von m − k Zeilen und n − k Spalten). Bei det(A′ ) spricht man von einem k-reihigen Minor . Sei speziell für A ∈ R(n,n) Ak ∈ R(k,k)

2.6 Die Determinante

313

die Matrix, die durch Streichen der letzten n − k Zeilen bzw. Spalten entsteht, d. h. ! a a A1 = (a1,1 ), A2 = 1,1 1,2 usw. a2,1 a2,2 Die det Ak , k = 1, ..., n heißen die Hauptminoren von A. 2) Sei A ∈ R(n,n) invertierbar. Dann lässt sich A mit dem gauss-Verfahren auf Dreiecksform mit n Pivotelementen transformieren, i. Allg. aber nur mit Zeilenvertauschungen, d. h. es gibt eine LR-Zerlegung in der Form PA = LR , wobei P Permutationsmatrix und L bzw. R invertierbare normierte untere bzw. (nicht normierte) obere Dreiecksmatrizen sind. Das gauss-Verfahren kann genau dann ohne Zeilenvertauschungen durchgeführt werden, wenn eine LR-Zerlegung der Gestalt (2.155)

A = LR existiert. Dies kann folgendermaßen charakterisiert werden: Es gilt (2.155) ⇔ det(Ak ) , 0 für alle k = 1, ..., n.

(2.156)

Das kann man wie folgt einsehen: „⇐“: Wir zeigen durch vollständige Induktion: Es gibt invertierbare normierte untere bzw. (nicht normierte) obere Dreiecksmatrizen Lk bzw. Rk ∈ R(k,k) , so dass Ak = Lk Rk . k = 1 : A1 = (a1,1 ) = (1)(a1,1 ) = L1 R1 und a1,1 , 0. k→k+1: Sei Ak+1 partioniert als Ak+1 =

Ak b at c

!

mit a, b ∈ Rk , c ∈ R. Wir machen den Ansatz Lk+1 =

! Lk 0 , t m 1

Rk+1

Rk s 0 u

!

mit m, s ∈ Rk , u ∈ R. Lk+1 bzw. Rk+1 sind normierte untere bzw. (unnormierte) obere Dreiecksmatrizen, da dies für Lk bzw. Rk gilt. Weiter: Ak+1 = Lk+1 Rk+1 ⇔ Ak = Lk Rk , b = Lk s, at = mt Rk , c = mt s + u .

(2.157)

314

2 Matrizen und lineare Abbildungen

Dabei gilt die erste Beziehung nach Induktionsvoraussetzung und s und m sind über die nachfolgenden LGS eindeutig definiert, da Lk und Rk invertierbar sind; u ergibt sich schließlich aus der letzten Beziehung. Wegen 0 , det(Ak+1 ) = det(Lk+1 ) det(Rk+1 ) muss det(Lk+1 ), det(Rk+1 ) , 0 gelten (nach der Kästchenregel u , 0), somit sind Lk+1 , Rk+1 invertierbar. „⇒“: Die Beziehung (2.157) zeigt, dass mit A = An auch An−1 eine LR-Zerlegung besitzt mit 0 , det(Ln ) = det(Ln−1 ) , 0 , det(Rn ) = det(Rn−1 )u , det(Ln−1 ) , 0, det(Rn−1 ) , 0

also

und

damit det(An−1 ) = det(Ln−1 ) det(Rn−1 ) , 0 .

Fortführung der Argumentation führt zu det(Ak ) , 0 für alle

k = 1, ..., n .

Das Kriterium (2.156) ist als theoretisches Hilfsmittel zu sehen. Seine numerische Überprüfung ist mindestens so aufwändig wie die Umformung von A auf Zeilenstufenform. 3) Analog zur Sherman-Morrison-Formel (2.70) für Rang-1-Updates gilt a) det(1 + x ⊗ y) = 1 + (x . y) für x, y ∈ Rn .    b) det(A + x ⊗ y) = det(A) 1 + A−1 x . y für invertierbares A ∈ R(n,n) . (Determinanten-Lemma )

Zu a): Die Aussage a) folgt aus der Zerlegung ! ! ! ! 1 0 1+ x⊗y x 1 0 1 x = t t y 1 0 1 −y 1 0 1 + (x . y) da dann nach Theorem 2.111, 1) und Hauptsatz 2.114, 1): 1 · 1 · det(1 + x ⊗ y) · 1 · 1 · 1 = 1 · (1 + (x . y)) .

Zu b): A + x ⊗ y = A(1 + A−1 x ⊗ y), also folgt die Behauptung aus a) und Theorem 2.111, 1).



Adjunkte und die inverse Matrix. Mit Hilfe der Determinante lassen sich „explizite“ Darstellungen von A−1 und A−1 b angeben, die für theoretische Zwecke, nicht aber zur Berechnung nützlich sind: Die Streichungsdeterminanten det(Al,k ) kann man zu einer n × n-Matrix zusammenfassen. Transponiert und mit Vorzeichen versehen heißen diese Determinanten die Adjunkten von A, und die Matrix t  Aad j = ((−1)l+k det(Al,k ))l,k

heißt die Matrix der Adjunkten .

Diese Matrix wurde transponiert, damit das Produkt

2.6 Die Determinante

315

  AAad j = (aµ,ν ) µ:Zeile · (−1)k+ν det(Ak,ν ) ν:Zeile ν:Spalte

k:Spalte

  n  X =  aµ,ν (−1)k+ν det(Ak,ν ) ν=1

µ,k

leicht auszurechnen ist. Die Entwicklung nach Zeilen hat zur Folge, dass alle Diagonaleinträge 

AAad j



l,l

=

n X (−1)ν+l · al,ν · det(Al,ν ) = det(A) ν=1

sind. Und die Nicht-Diagonaleinträge (l1 , l2 ) n X (−1)ν+l2 al1 ,ν det(Al2 ,ν ) ν=1

kann man interpretieren als Entwicklung nach der l2 -ten Zeile für die Determinante derjenigen Matrix, welche aus A entsteht, indem die l2 -te Zeile durch die l1 -te Zeile ersetzt worden ist. Diese Matrix hat zwei gleiche Zeilen, ihre Determinante ist gleich 0, und damit insgesamt   = det(A) · δl1 ,l2 . AAad j l1 ,l2

Damit haben wir:

Satz 2.118: Inversendarstellung

AAad j = det(A) · 1n . Wenn det(A) , 0 ist, dann: A−1 = (det(A))−1 Aad j . Cramersche Regel.18 Ist die Matrix A eine n × n-Matrix und ist A invertierbar, so ist die Lösung des Gleichungssystems Ax = b von der Gestalt x = A−1 b . Die Lösung wird also nach Satz 2.118 gegeben durch x=

1 · Aad j b . det(A)

Die k-te Komponente des Lösungsvektors x ist dann xk =

n n X X 1 1 · (Aad j )k,l · bl = · (−1)k+l · det(Al,k ) · bl . det(A) l=1 det(A) l=1

Die Summe kann interpretiert werden als die tenmatrix  a1,1 · · · a1,k−1  .. (k) A :=  ... .  an,1 · · · an,k−1 18

Entwicklung der modifizierten Koeffizien b1 a1,k+1 · · · a1,n   .. .. ..  , . . .   bn an,k+1 · · · an,n

Gabriel Cramer ∗31. Juli 1704 in Genf †4. Januar 1752 in Bagnols-sur-Cèze

316

2 Matrizen und lineare Abbildungen

nach der k-ten Spalte, wobei diese in A durch die rechte Seite b ersetzt worden ist. Mit dieser Matrix A(k) erhält man sodann die Lösung x = (x1 , . . . , xn )t in der Form   xk = (det(A))−1 det A(k) .

(2.158)

Dies ist die Cramersche Regel zur Darstellung der Lösung linearer Gleichungssysteme mit quadratischer und invertierbarer Koeffizientenmatrix. Bemerkung 2.119 Ab Kapitel 3 werden wir überall versuchen, R durch eine allgemeine Zahlmenge K (einen Körper ) zu ersetzen, wozu dann auch F2 := {0, 1} gehört mit einer Addition und Multiplikation, in der 2 := 1 + 1 = 0 gilt, die Argumentation in Beweis von Lemma 2.107 somit nicht statthaft ist. Daher:

Beweis (alternativer Beweis von Lemma 2.107): Es seien die Zeile i und j gleich: ai = a j . Sei F : Σn → Σn definiert durch τ 7→ τ ◦ σi, j , dann ist F bijektiv (und F −1 = F). F(τ) = τ ist nicht möglich, da dann τ(i) = τ( j) sein müsste. Durch {{τ, F(τ)} : τ ∈ Σn } wird also eine disjunkte Zerlegung von Σn in n!/2 Teilmengen definiert (beachte n ≥ 2). Betrachten wir zu einer solchen zweielementigen Menge die Summanden in der Leibniz-Formel, somit s1 = sign(τ)a1,τ(1) . . . ai,τ(i) . . . ai,τ( j) . . . an,τ(n) s2 = sign(τ ◦ σi, j )a1,τ(1) . . . ai,τ( j) . . . a j,τ(i) . . . an,τ(n) . Wegen sign(τ ◦ σi, j ) = − sign(τ) gilt deshalb s1 = −s2 und insgesamt det(A) = 0 .

 △

2.6.3 Orientierung und Determinante Der uns umgebende Raum hat eine Orientierung. Wie jeder weiß wird die im Spiegel geändert (das ist richtig), weil der Spiegel die rechte und die linke Hand vertauscht (das weiß jeder, es ist aber falsch). Trotzdem: Es gibt zwei Orientierungen im Raum, die beim Spiegeln an einer Ebene vertauscht werden aber bei Drehungen nicht. Nur, was ist das: Eine Orientierung? Erinnern wir uns an Drehungen und Spiegelungen in der Ebene R2 : Drehung um 180◦ α

0◦ 10 01 det

1

!

! ! −1 0 cos(α) − sin(α) 0 −1 sin(α) cos(α) 1

1

Spiegelung an      x-Achse y-Achse Achse cos α2 , sin α2 ! 1 0 0 −1

! −1 0 01

cos(α) sin(α) sin(α) − cos(α)

−1

−1

−1

!

Die zugehörigen Matrizen unterscheiden sich um das Vorzeichen ihrer Determinante. Natürlich haben nur invertierbare Matrizen eine Determinante ungleich 0 und damit eine

2.6 Die Determinante

317

Determinante mit Vorzeichen. In Verallgemeinerung der Spiegelungen in der Ebene definieren wir daher: Eine lineare Abbildung Φ : Rn → Rn ändert die Orientierung des Raums Rn , wenn ihre Determinante negativ ist. Damit wissen wir, wann sich die Orientierung ändert. In Übereinstimmung damit definieren wir: Definition 2.120 Zwei Basen a1 , ..., an und b1 , ..., bn des Rn definieren die gleiche Orientierung, wenn beide n × n-Matrizen (a1 , ..., an )

und (b1 , ..., bn )

Determinanten mit dem gleichen Vorzeichen haben. Dies definiert eine Äquivalenzrelation „gleiche Orientierung“ auf der Menge der Basen des Rn mit zwei Äquivalenzklassen. Hat die n × n-Matrix A eine Determinante det(A) > 0, so definiert die Basis a1 , ..., an die gleiche Orientierung des Rn wie die Basis Aa1 , ..., Aan . Wenn det(A) < 0 ist, so definiert sie die andere Orientierung. Also: Definition 2.121 Eine Orientierung des Rn ist eine Äquivalenzklasse der Relation „gleiche Orientierung“, d. h. eine Menge von Basen a1 , ..., an des Rn , und zwar die Menge aller Basen mit demselben Vorzeichen von det(a1 , ..., an ). Es gibt infolgedessen genau zwei Orientierungen des Rn , weil Determinanten invertierbarer Matrizen zwei Vorzeichen haben können: Die Äquivalenzklasse der Basen a1 , ..., an mit det(a1 , ..., an ) > 0 und die der Basen mit det(a1 , ..., an ) < 0. Beispiele 2.122 1) (n = 1): Die zwei Orientierungen der Geraden R1 sind genau die beiden Richtungen, in der man sie durchlaufen kann. 2) (n = 2): Im R2 gibt es die mathematisch positive Orientierung, definiert durch die Basis e1 , e2 und die mathematisch negative Orientierung, definiert durch die Basis e1 , −e2 . Diese unterscheiden sich nur dadurch, ob man von oben oder von unten auf das Papier schaut (Letzteres ist schwieriger). Dass Peter Henlein19 seine Taschenuhr in die mathematisch negative Richtung laufen ließ, liegt wahrscheinlich daran, dass er sich am „Zeigerverlauf“ einer auf dem Boden stehenden Sonnenuhr orientierte. Den Vektor e2 in der Zeichenebene nach oben anzutragen und nicht nach unten, ist auch nicht zwingend.

19

Peter Henlein ∗1479/1480 in Nürnberg †August 1542 in Nürnberg

318

2 Matrizen und lineare Abbildungen

3) (n = 3): Die beiden Orientierungen des R3 kann man an den Fingern ablesen. Zeigt der Daumen der rechten Hand nach rechts, der Zeigefinger nach vorne, so zeigt der Mittelfinger nach oben. Das ist näherungsweise die Position der Vektoren e1 , e2 , e3 ∈ R3 (wenn man sie sich konventionell vorstellt). Dies definiert die positive Orientierung des R3 und wird unter Rechte-Hand-Regel verstanden. Zeigt der Daumen der linken Hand nach rechts, deren Zeigefinger nach vorne, so zeigt ihr Mittelfinger nach unten. Das definiert die andere Orientierung. ◦ Eine Orientierung eines endlichdimensionalen R-Vektorraums kann man genauso als eine Äquivalenzklasse von Basen definieren. Definition 2.123 Sei V ein n-dimensionaler R-Vektorraum. Zwei Basen a1 , . . . , an , b1 , .. . , bn definieren die gleiche Orientierung, wenn die Darstellungsmatrix C = cν,µ ∈ R(n,n) des durch Φai = bi , i = 1, . . . , n auf V definierten Isomorphismus bezüglich der Basen {a1 , . . . , an } und {a1 , . . . , an }, d. h. die durch bµ =

n X

cν,µ aν

für µ = 1, . . . , n

(2.159)

ν=1

definierte invertierbare Matrix, erfüllt: det(C) > 0 . Analog zu Definition 2.121 werden dadurch zwei Orientierungen auf V definiert. Für V = Rn fällt die neue Definition mit der alten zusammen, da (2.159) bedeutet: B = AC , wobei A und B gerade aus den ai bzw. bi als Spalten gebildet werden. Nach Theorem 2.111, 1) folgt damit det(B) = det(A) det(C) und damit det(C) > 0



det(A) · det(B) > 0 .

Eine Orientierung des Rn hat keinerlei Einfluss auf die Orientierung eines Untervektorraums. Ist eine Orientierung der Ebene R2 gewählt, so kann man eine Gerade in dieser Ebene in jeder ihrer beiden Richtungen durchlaufen. Psychologisch schwierig ist das nur bei den Koordinatenachsen. Da muss sich sodann in Erinnerung gerufen werden, dass die gleiche Orientierung des R2 auch durch jede Basis definiert ist, welche nicht aus den Einheitsvektoren besteht. Anders ist dies bei Hyperebenen, wenn die Orientierung in Bezug zu der des Gesamtraums stehen soll. Eine Hyperebene H ⊂ Rn ist ein Untervektorraum der

2.6 Die Determinante

319

Dimension n − 1. Eine Orientierung von H wird definiert durch eine Basis a1 , ..., an−1 von H. Durch jeden Vektor an ∈ Rn , an < H kann man sie zu einer Basis des Rn ergänzen. Ist eine Orientierung des Rn vorgegeben, so kann die Basis a1 , ..., an−1 , an diese Orientierung repräsentieren oder auch nicht. Im letzteren Fall ist a1 , ..., an−1 , −an eine Basis mit det(a1 , ..., an−1 , −an ) = − det(a1 , ..., an−1 , an ), welche die vorgegebene Orientierung des Rn definiert. Wir sehen: Es sei V ein endlichdimensionaler R-Vektorraum und H ⊂ V eine Hyperebene. Ist eine Orientierung von V und ein Vektor u ∈ V, u < H gegeben, so wird dadurch eine Orientierung von H gegeben. Und zwar ist diese Orientierung von H definiert durch jede Basis a1 , ..., an−1 von H derart, dass die Basis a1 , ..., an−1 , u die vorgegebene Orientierung von V repräsentiert. Man würde jetzt die Definition von orientierungstreuen Homomorphismen erwarten. Für V = R2 liegt bei Betrachtung von Drehungen (det(G) > 0) und Spiegelungen (det(H) < 0) nahe, dies über die Determinante der Darstellungsmatrix zu tun. Da diese aber von der gewählten Basis abhängig ist, ist sicherzustellen, dass Basiswechsel die Determinante der Darstellungsmatrix nicht ändert. Dies wird erst in Abschnitt 4.1 geschehen. Dort wird gezeigt, dass Basiswechsel von B zu B′ in V für Φ ∈ Hom(V, V) und die Darstellungsmatrix A = B AB die Existenz eines C ∈ GL(n, R) bedeutet mit A′ = C −1 AC , wobei A′ =

B′ AB′

die Darstellungsmatrix bezüglich der neuen Basis darstellt. Daher: det(A′ ) = (det(C))−1 det(A) det(C) = det(A) .

Im Vorgriff auf diese Ergebnisse definieren wir: Definition 2.124 Sei V ein n-dimensionaler R-Vektorraum mit fest gewählter Basis B := {u1 , . . . , un }. Für Φ ∈ GL(V) sei A ∈ R(n,n) die Darstellungsmatrix bezüglich B. Φ heißt orientierungstreu, wenn gilt det(A) > 0 .

Bemerkung 2.125 A ∈ SO(n, R) ist folglich orientierungstreu, insbesondere die Drehungen für n = 2. Spiegelungen (für n = 2) sind nicht orientierungstreu. △ Beispiel 2.126 (Geometrie) Der orientierte Winkel zwischen zwei Geraden L : a + Ru und M : b + Rw, also der Winkel mit Vorzeichen, ist eindeutig festgelegt, sobald eine Orientierung der Ebene festgelegt ist, welche beide Geraden aufspannen. Im R2 wird die kanonische Basis e1 , e2 als positiv orientiert aufgefasst. Seien u, w ∈ R2 und linear unabhängig, dann ist die Ebene span(u, w) genau dann positiv orientiert, wenn

320

2 Matrizen und lineare Abbildungen

[u.w] := det(u, w) = v1 w2 − v2 w1 > 0.

(2.160)

Demnach definiert [u.w] das Vorzeichen des Winkels zwischen u und w. Dann h kanni der orientierte Winkel zwischen L und M definiert werden als das eindeutige β ∈ − π2 , π2 , so dass sin β =

[u.w] . kuk · kwk

(2.161)

Wegen [u.w]2 + (u.w)2 = (v1 w2 − v2 w1 )2 + (v1 w1 + v2 w2 )2

= (v1 w2 )2 + (v2 w1 )2 + (v1 w1 )2 + (v2 w2 )2 = kuk2 · kwk2

(siehe Hauptsatz 1.102)ist insbesondere [u.w] ∈ [−1, 1] kuk · kwk und dann cos2 α + sin2 β = 1 mit dem nicht orientierten Winkel α ∈ [0, π].



Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • Volumenfunktion • Determinante, Leibniz-Formel • Orientierung

Zusammenhänge

• Determinantenfunktion ist multilinear und schiefsymmetrisch in zwei Zeilen (Theorem 2.106) • Determinanten-Multiplikationssatz (Theorem 2.111) • Kästchenregel (Hauptsatz 2.114) • Entwicklung nach Spalten und Zeilen (Satz 2.116) • Cramersche Regel (2.158)

Aufgaben

321

Aufgaben Aufgabe 2.31 (K) (Vandermondesche Determinante) Betrachte An ∈ R(n,n) definiert nach (2.149) . Sei gn (t1 , . . . , tn ) := det(An ). a) Zeigen Sie

gn (t1 , . . . , tn ) = (t2 − t1 ) . . . (tn − t1 ) gn−1 (t2 , . . . , tn ) .

Hinweis: Durch geeignete Spaltenumformungen kann die erste Zeile von An auf et1 transformiert und dann die Kästchenregel angewendet werden. b) Zeigen Sie det(An ) =

n  Y

i, j=1 i< j

 t j − ti .

Aufgabe 2.32 (K) Berechnen Sie die Determinante der Matrix   0  2   3   4 5

11 02 30 44 55

Aufgabe 2.33 (T) Für A ∈ R(n,n) zeige man: det(A) = 0

⇐⇒

 1 1   2 2   3 3  .  0 4  50

Es gibt B ∈ R(n,n) \ {0} mit AB = 0 .

Aufgabe 2.34 (T) In Rn seien die k Vektoren x1 , . . . , xk gegeben. Sei A = (ai, j )i, j ,  i, j = 1, . . . , k, die Matrix mit ai, j = x j . xi . Beweisen Sie: Genau dann sind die Vektoren x1 , . . . , xk linear unabhängig, wenn det(A) , 0 ist. Aufgabe 2.35 (K) Es sei A = (ai, j )i, j ∈ R(n,n) mit ai, j = (−1)i · i für i + j > n und ai, j = 0 sonst, also z. B.

A1 = (−1),

A2 =

!

0 −1 , 2 2

   0 0 −1    A3 =  0 2 2  ,   −3 −3 −3

Man berechne det(An ) für beliebiges n.

  0 0 0  0 0 2 A4 =   0 −3 −3 4 4 4

 −1   2  . −3  4

322

2 Matrizen und lineare Abbildungen

! A B die durch sie in C D Blockschreibweise gegebene 2n × 2n-Matrix. Es sei det A , 0. Man zeige: Aufgabe 2.36 (T) Seien A, B, C, D reelle n × n-Matrizen und X = a) Dann gilt:

det(X) = det(A) det(D − CA−1 B) b) Ist auch AC = CA, dann gilt det(X) = det(AD − CB) (siehe auch Bemerkung 2.53, 1)).

2.7 Das Vektorprodukt

323

2.7 Das Vektorprodukt Im Folgenden definieren wir speziell auf R3 (oder dem dreidimensionalen Anschauungsraum) das Vektorprodukt, d. h. die Zuordnung eines Vektors, was für geometrische oder mechanische Betrachtungen sehr nützlich ist. Für beliebige, fest gewählte a, b ∈ R3 wird durch x 7→ det(a, b, x) eine Linearform auf R3 definiert. Diese lässt sich (was auch allgemein gilt: Theorem 3.48) eindeutig durch ein c ∈ R3 darstellen. Satz 2.127 Seien a, b ∈ R3 . Sei c ∈ R3 definiert durch c1 := a2 b3 − a3 b2

c2 := a3 b1 − a1 b3 c3 := a1 b2 − a2 b1 .

(2.162)

Dann ist c der eindeutige Vektor, der erfüllt: det(a, b, x) = (c . x)

für alle

x ∈ R3 .

(2.163)

Die identischen Ausdrücke in (2.163) werden auch Spatprodukt von a, b, x genannt und stellen dadurch das vorzeichenbehaftete Volumen von P(a, b, x) dar.

Beweis: Sei c ∈ R3 ein Vektor, der (2.163) erfüllt, dann folgt notwendigerweise für x = e1 , e2 , e3 : direkt aus der Sarrusschen Regel oder etwa durch Entwicklung nach der dritten Spalte: (c . e1 ) = c1 = det(a, b, e1 ) = a2 b3 − a3 b2 (c . e2 ) = c2 = det(a, b, e2 ) = a3 b1 − a1 b3 (c . e3 ) = c3 = det(a, b, e3 ) = a1 b2 − a2 b1 für a = (ai ), b = (bi ) ∈ R3 .

Der so definierte Vektor c erfüllt aber (2.163) nicht nur für die Einheitsvektoren, sondern wegen der Linearitätseigenschaften von Skalarprodukt und Determinante auch für beliebige x ∈ R3 (Hauptsatz 2.23). Noch einmal konkret durchgeführt:     3 3 3 3 X X   X  X  det  a, b, xi ei  = xi det(a, b, ei ) = xi (c . ei ) =  c . xi ei  , also (2.163) . i=1

i=1

i=1

i=1



324

2 Matrizen und lineare Abbildungen

Definition 2.128 Seien a, b ∈ R3 . c ∈ R3 definiert nach (2.162) heißt das Vektorprodukt oder Kreuzprodukt von a und b, geschrieben als a × b. Eine Merkregel dafür erhält man, indem man formal (!) nach Sarrus die „Determinante“    e1 e2 e3    det  a1 a2 a3    b1 b2 b3

bestimmt. Es ist aber sinnvoller, sich bei den folgenden Überlegungen auf die Definition zu beziehen. Beispiel 2.129 Wir berechnen das Vektorprodukt der ersten beiden kanonischen Basisvektoren        1   0   0        e1 × e2 =  0  ×  1  =  0  = e3 ,       0 0 1

denn det(e1 , e2 , ei ) = 0 für i = 1, 2 und det(e1 , e2 , e3 ) = 1 . Durch zyklisches Vertauschen findet man ohne weitere Rechnung e2 × e3 = e1 ,

e3 × e1 = e2 .

Analog gilt für eine ONB u1 , u2 , u3 von R3 mit positiver Orientierung, d. h. det(u1 , u2 , u3 ) = 1: u2 × u3 = u1 ,

u3 × u1 = u2 ,

u1 × u2 = u3 .

Für die erste Aussage ist det(u2 , u3 , x) = (u1 . x) für alle x ∈ R3 bzw. äquivalent für x = u1 , u2 , u3 zu zeigen: det(u2 , u3 , u1 ) = 1 = (u1 . u1 ) det(u2 , u3 , u2 ) = 0 = (u1 . u2 ) det(u2 , u3 , u3 ) = 0 = (u1 . u3 )

und analog für die weiteren Identitäten.



Eine andere Sichtweise ist: Die 2-reihigen Minoren der 3 × 2-Matrix (a, b) sind die Komponenten des Vektors a × b: (a × b)1 = det2,3 (a, b) (a × b)2 = det3,1 (a, b) (a × b)3 = det1,2 (a, b)

2.7 Das Vektorprodukt

325

Vektorprodukt und Spaltprodukt lassen sich auch mit dem Levi-Citavi-Symbol (nach (2.150b)) ausdrücken, was manchmal das Rechnen erleichtert. Für n = 3 hat Σn 3! = 6 Elemente von den 27 Einträgen εi jk sind also nur 6 von Null verschieden, genauer: ε123 = ε312 = ε231 = 1, ε321 = ε213 = ε132 = −1 . Seien a, b, c ∈ R3 , dann ist (a × b . c) =

3 X 3 X 3 X

εi jk ai b j ck

(2.163a)

j=1 j=1 k=1

 t   a  denn nach Satz 2.127, Theorem 2.111, 2) (a × b . c) = det((a, b, c)) = det  bt . ct

Daraus folgt

(a × b)l =

3 X 3 X

εi jl ai b j .

i=1 j=1

Wähle in (2.163a) c = el , d. h. (a × b)l =

3 X

εi jk ai b j δkl .

i, j,k

Hauptsatz 2.130: Eigenschaften Vektorprodukt Das Vektorprodukt hat folgende Eigenschaften: 1) Schiefsymmetrie: a × b = −b × a,

2) Linearität in beiden Argumenten (Bilinearität), 3) a × b ist orthogonal zu a und b,

4) a × b = 0 ⇔ a, b sind linear abhängig.

Beweis: 1), 2) sind Eigenschaften der Determinante. 3) gilt wegen (a × b . a) = det(a, b, a) = 0 und analog für b. 4) „⇐“ ist eine Eigenschaft der Determinante. 4) „⇒“ bedeutet: det(a, b, x) = 0

für alle x ∈ R3 .

Sind a, b linear unabhängig, kann man sie im Widerspruch dazu mit einem x ∈ R3 zu einer Basis ergänzen. 

326

2 Matrizen und lineare Abbildungen

Es gilt: det(a, b, a × b) = ka × bk2 > 0 für linear unabhängige a, b entsprechend zu det(e1 , e2 , e3 ) = 1 > 0. In diesem Sinn haben (a, b, a × b) und (e1 , e2 , e3 ) die gleiche Orientierung bzw. hat, wenn man die letztere als positiv bezeichnet, (a, b, a × b) positive Orientierung. Nicht gleichermaßen unmittelbar ergeben sich folgende Aussagen: Satz 2.131: Eigenschaften Vektorprodukt Seien a, b, c ∈ R3 .

1) Grassmann20 -Entwicklung: a × (b × c) = b (a . c) − c (a . b) .

(a × b . c × d) = (a . c) (b . d) − (a . d) (b . c) . 2) Lagrange-Identität:  1/2 3) ka × bk = kak2 kbk2 − (a . b)2 .

Beweis: 1): Wegen der Bilinearität der Ausdrücke in b, c für festgehaltenes a ∈ R3 reicht es, die Identität für b, c ∈ {e1 , e2 , e3 } nachzuprüfen, d. h. a ∈ R3 , b = e j , c = ek für j, k ∈ {1, 2, 3}. Wenn j = k ist, ist die Formel richtig, weil beide Seiten gleich 0 sind. Wenn j , k ist, können wir wegen der Schiefsymmetrie beider Seiten in Bezug auf b und c annehmen, dass j < k ist. Dann gibt es die drei Möglichkeiten j = 1, k = 2 : a × (e1 × e2 ) = a × e3 = (a2 , −a1 , 0)t = (a . e2 ) e1 − (a . e1 ) e2 , j = 1, k = 3 : a × (e1 × e3 ) = −a × e2 = (a3 , 0, −a1)t = (a . e3 ) e1 − (a . e1 ) e3 , (2.164) j = 2, k = 3 : a × (e2 × e3 ) = a × e1 = (0, a3 , −a2 )t = (a . e3 ) e2 − (a . e2 ) e3 . 2): Mit Satz 2.127 und der bereits gezeigten Grassmann-Entwicklung finden wir (a × b . c × d) = det(a, b, c × d) = det(c × d, a, b) = ((c × d) × a . b) = − (a × (c × d) . b) = − ((a . d) c − (a . c) d . b) = (a . c) (b . d) − (a . d) (b . c) . 3): Folgt sofort aus 2) für c = a, d = b.



Bei 1) sind die Skalare rechts ungewöhnlicherweise hinter den Vektoren geschrieben, um die folgende Merkregel zu gestatten: bac − cab, Klammern hinten. 3) bedeutet nach den Eingangsüberlegungen von Abschnitt 2.6 (siehe (2.146)), dass ka × bk gerade die Fläche des von a, b erzeugten Parallelogramms darstellt. 20

Hermann Günther Graßmann ∗15. April 1809 in Stettin †26. September 1877 in Stettin

2.7 Das Vektorprodukt

327

Das Kreuzprodukt a × b hat deswegen folgende Eigenschaften: 1) a × b ⊥ Ra + Rb .

2) ka × bk = kak kbk sin α, wobei α ∈ [0, π] der (nichtorientierte) Winkel zwischen a und b ist.

3) (a, b, a × b) haben die gleiche Orientierung wie e1 , e2 , e3 , erkenntlich an der Rechte-Hand-Regel : Zeigt an der rechten Hand der Daumen in Richtung a, der dazu senkrechte Zeigefinger in Richtung b, so zeigt der dazu senkrechte Mittelfinger in Richtung a × b. Durch die Bedingungen 1)–3) ist a × b auch festgelegt,

(2.165)

da durch 1) ein eindimensionaler Unterraum, durch 2) daraus 2 Vektoren und durch 3) dann einer ausgewählt wird. Die Bilinearität (Hauptsatz 2.130, 2)) bedeutet insbesondere, dass für festes a ∈ R3 die Abbildung a × _ : x 7→ a × x,

R3 → R3 ,

linear ist. Mit den Vektorprodukten a × ei berechnet man ihre darstellende Matrix (siehe (2.164))    0 −a3 a2    A =  a3 0 −a1  .   −a2 a1 0

Die Matrix erfüllt A = −At , sie ist also schiefsymmetrisch (siehe Definition 2.58). Wenn a , 0 ist, dann gilt Rang A = 2 und damit allgemein det(A) = 0. Es gilt nämlich Rang A = 2 ⇔ dim Kern At = 3 − 2 = 1 und nach Hauptsatz 2.130, 4) haben wir x ∈ Kern A ⇔ a × x = 0 ⇔ a, x sind linear abhängig ⇔ x ∈ span(a) und damit auch: Bild A = a⊥ . Es handelt sich bei der obigen Matrix um eine allgemeine schiefsymmetrische Matrix aus R(3,3) .

328

2 Matrizen und lineare Abbildungen

Satz 2.132: Vektorproduktabbildung Für a , 0 ist die Abbildung a × _ : R3 → a⊥ ⊂ R3 surjektiv. Das Urbild eines jeden Vektors c ∈ a⊥ ist eine affine Gerade mit Richtungsvektor a.

Beweis: Sei Φ := a × _. Bild Φ = a⊥ gilt nach den Vorüberlegungen. Das Urbild eines jeden Vektors c ∈ a⊥ ist ein affiner Unterraum der Dimension 1, folglich eine Gerade L c , da dim Kern A = 1. Mit a × x = c ist auch a × (x + λa) = c für alle λ ∈ R. Somit hat jede Gerade Lc den Richtungsvektor a.  Problematisch am Vektorprodukt ist, dass es sich anders transformiert als andere Vektoren.

Satz 2.133: Transformation Vektorprodukt Es sei M eine invertierbare 3 × 3-Matrix. Für alle a, b ∈ R3 gilt dann (Ma) × (Mb) = det(M)(M −1 )t (a × b).

Beweis: Nach Satz 2.127 ist für alle x ∈ R3 ((Ma) × (Mb) . x) = det(Ma, Mb, x) = det(M) det(a, b, M −1 x) =     = det(M) a × b . M −1 x = det(M) (M −1 )t (a × b) . x .

Daraus folgt die behauptete Gleichung.



Im Allgemeinen unterscheidet sich das Transformationsverhalten (unter linearen Abbildungen) des Vektors a × b sehr vom Transformationsverhalten seiner Faktoren a und b. Nur wenn M orthogonal ist, haben wir (M −1 )t = M. Sei M ∈ O(3, R), dann gilt: (Ma) × (Mb) = M(a × b) falls M ∈ SO(3, R), (Ma) × (Mb) = −M(a × b) falls M < SO(3, R). Das Vektorprodukt im R3 hat direkte Anwendungen. Bemerkungen 2.134 1) Betrachtet werde ein einfaches, aber häufig vorkommendes homogenes LGS mit drei Unbekannten und zwei Gleichungen

2.7 Das Vektorprodukt

329

a 1 x1 + a 2 x2 + a 3 x3 = 0 , b 1 x1 + b 2 x2 + b 3 x3 = 0 , wobei die Zeilenvektoren a = (a1 , a2 , a3 )t und b = (b1 , b2 , b3 )t linear unabhängig sind. Sein Lösungsraum L hat die Dimension 1 und besteht aus allen Vektoren, welche gleichzeitig auf a und b senkrecht stehen. Er wird erzeugt von a × b.

*2) In der Mechanik:

2a) Ein Vektorfeld auf R3 ist eine Abbildung F : R3 → R3 . Das zugehörige Momentenfeld ist G : R3 → R3 ,

x 7→ x × F(x).

Beschreibt etwa F ein Kraftfeld, so heißt G das Drehmoment, beschreibt F ein Geschwindigkeitsfeld von Teilchen der Masse m, so heißt mG der Drehimpuls. 2b) Infinitesimale Beschreibung einer Rotation: Wir betrachten die Matrix    cos(ωt) − sin(ωt) 0    Re3 (ωt) :=  sin(ωt) cos(ωt) 0  , t ∈ R.   0 01

Sie beschreibt eine gleichförmige Rotation um die e3 -Achse in mathematisch positiver Richtung in Abhängigkeit von der Zeit t. Dabei ist die Winkelgeschwindigkeit ω = 2π/T , wo T die Dauer einer Rotation um den Winkel 2π ist. Die Geschwindigkeit eines gedrehten Punktes x ∈ R3 zur Zeit t = 0 ist       0 −ω 0   x1   −x2  d       Re (t)x t=0 =  ω 0 0   x2  = ω  x1  = ωe3 × x.      dt 3 0 0 0 x3 0

Wir wollen ähnlich die infinitesimale Drehung R a (t) um eine beliebige Achse Ra beschreiben. Dabei sei kak = 1, und bei Blickrichtung in Richtung von a soll die Drehung im Uhrzeigersinn erfolgen. Wir wählen eine Matrix U ∈ SO(3) mit U a = e3 . Dann ist nämlich – wie in Theorem 4.4 bewiesen wird – R a (t) = U −1 Re3 (t)U und die Geschwindigkeit u in x zum Zeitpunkt t = 0 d −1 d u := R a (t)x = U Re3 (t) U x = U −1 (ωe3 × U x) . dt dt t=0 t=0

Mit der Transformationsformel (Satz 2.133) wird daraus

(U −1 ωe3 ) × (U −1 U x) = ωa × x.

330

2 Matrizen und lineare Abbildungen

Hier können wir noch den Vektor ω = ωa der Winkelgeschwindigkeit einführen und finden u = ω × x. Alternativ kann man diese Darstellung auch aus folgenden Forderungen herleiten: 1) u ⊥ x, a, also u = λa × x für ein λ ∈ R.

2) kuk = ωr, wobei r = kx − PRa xk = kxk sin α, wenn α ∈ [0, π] der Winkel zwischen x und a ist. Also: λ = ±ω. (a, x, u) müssen positiv orientiert sein, daher wegen ω ≥ 0: u = ωa × x .

a

)

✒ ·

r u senkrecht in Zeichenebene hinein

α

✲ x Abb. 2.14: Drehung in R3 um Achse a. △

Bemerkungen 2.135 (Geometrie)

1) Die Situation von Bemerkungen 2.134, 1) geometrisch beschrieben für L⊥ lautet: Betrachtet werde eine Ebene E = u+Ra+Rb im R3 . Weil a und b die Ebene aufspannen, sind sie linear unabhängig, und es ist a × b , 0 ein Normalenvektor der Ebene. Die Gleichung (a × b . x) = 0 beschreibt deswegen eine Ebene durch den Nullpunkt, welche von a und b aufgespannt wird. Eine Ebene E mit u ∈ E ist Lösungsmenge der inhomogenen Gleichung (a × b . x) = (a × b . u) . 2) Sei P der von a, b, c ∈ R3 aufgespannte Spat, dann gilt für sein Volumen nach Abschnitt 2.6.2

Aufgaben

331

vol(P) = | det(a, b, c)| = | (a × b . c) | . 3) Betrachtet werde eine Gerade a+Ru im R3 mit Aufhängevektor a und Richtungsvektor u. Der Vektor w := a × u heißt Momentenvektor dieser Gerade. Die sechs Koordinaten des Vektors (u, w) ∈ R6 heißen Plücker21 -Koordinaten der Gerade L. Der Richtungsvektor u ist durch die Gerade L nur bis auf einen konstanten Faktor ungleich 0 eindeutig bestimmt. Deswegen sind die Plücker-Koordinaten von L auch nur bis auf einen solchen Faktor eindeutig bestimmt. Sind umgekehrt zwei Vektoren u ⊥ w ∈ R3 ,

u,0

gegeben, so gibt es nach Satz 2.132 Vektoren a ∈ R3 mit a × u = w. Die Menge all dieser Vektoren a ist eine affine Gerade im R3 mit Richtungsvektor u und Momentenvektor w. △

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • Vektorprodukt Zusammenhänge • Eigenschaften des Vektorprodukts (Hauptsatz 2.130, Satz 2.132) Beispiele • Ebenendarstellung mit Vektorprodukt • Winkelgeschwindigkeit

Aufgaben Aufgabe 2.37 (G) Zeigen Sie: Der Punkt x ∈ R3 hat von der Ebene w + Ra + Rb den Abstand | (w − x . a × b) | ka × bk und deuten Sie diesen Quotienten als Höhe =

Volumen Grundfläche

eines Parallelotops. 21

Julius Plücker ∗16. Juni 1801 in Elberfeld †22. Mai 1868 in Bonn

332

2 Matrizen und lineare Abbildungen

Aufgabe 2.38 (Jacobi (T)) Zeigen Sie für alle a, b, c ∈ R3 a × (b × c) + b × (c × a) + c × (a × b) = 0. Aufgabe 2.39 (K) Finden Sie eine Parametrisierung der Geraden L1 mit den Plücker-Koordinaten (1, 0, 0, 0, 1, 0), L2 mit den Plücker-Koordinaten (1, −1, 0, 1, 1, 1). Aufgabe 2.40 (T) Es sei L ⊂ R3 eine Gerade mit Richtungsvektor u. Zeigen Sie:

a) Sei x ∈ L ein beliebiger Punkt und m := x × u. Zeigen Sie: m hängt nicht davon ab, welchen Punkt x ∈ L man wählt, ist also der Momentenvektor . b) (u . m) = 0. c) Die Gerade L ist durch ihren Richtungsvektor und ihren Momentenvektor eindeutig bestimmt. d) Zu je zwei Vektoren 0 , u ∈ R3 und m ∈ R3 mit (u . m) = 0 gibt es eine eindeutig bestimmte Gerade L ⊂ R3 , welche u als Richtungsvektor und m als Momentenvektor besitzt.

2.8 Affine Räume II

333

2.8 Affine Räume II Wir greifen die Diskussion aus Abschnitt 1.7 wieder auf. Die mit der affinen Struktur verträglichen Abbildungen sind: Definition 2.136 Seien A, A′ affine Räume zu den R-Vektorräumen V, V ′ , T : A → A′ heißt affinlinear, wenn gilt: Seien a, b ∈ A, t, s ∈ R und t + s = 1, dann T (ta + sb) = tT (a) + sT (b) . T heißt Affinität, wenn es zusätzlich auch bijektiv ist. Bemerkungen 2.137 1) T : A → A′ ist affin-linear genau dann, wenn das Bild jeder Affinkombination die Affinkombination der Bilder ist. (Übung). 2) Aus 1) folgt: Begriffe des Abschnitts 1.7, wie • Affinkombination, • affiner Unterraum, • aufgespannter affiner Unterraum, bleiben unter affin-linearen Abbildungen erhalten. Ist T eine Affinität, dann bleiben auch erhalten: • Affine Unabhängigkeit, • Dimension eines affinen Unterraums. 3) Die Komposition affin-linearer Abbildungen ist affin-linear. Eine Translation a 7→ a + u für a ∈ V und einen festen Vektor u ∈ V ist affin-linear.

4)

Sei T : A → A′ eine Affinität, dann ist auch T −1 affin-linear. A und A′ heißen dann isomorph. 5) Die Abbildung Ψ aus (1.92) ist affin-linear und somit ist Ψ [A] ⊂ Rn+1 ein affiner Unterraum, der isomorph zu A ist. △

334

2 Matrizen und lineare Abbildungen

Speziell für A = V gilt: Satz 2.138: affin = linear + konstant Seien V, W R-Vektorräume. F : V → W ist genau dann affin(-linear), wenn es sich als Komposition einer linearen Abbildung Φ von V nach W und einer Translation T auf W, F = T ◦ Φ, schreiben lässt, d. h. F(x) = Φ(x) + a

für alle x ∈ V

für ein a ∈ W.

Beweis: Es ist nur „⇒“ zu der Äquivalenz zu zeigen: Wie in Satz 2.12 lässt sich F unter Beachtung von Bemerkungen 2.137, 3) als Kompostion einer affin-linearen Abbildung Φ mit Φ(0) = 0 und einer Translation schreiben, d. h. F(x) = Φ(x) + a. Φ ist verträglich mit der Skalarmultiplikation, da Φ(λx) = Φ(λx + (1 − λ)0) = λΦ(x) + (1 − λ)Φ(0) = λΦ(x) für λ ∈ R, x ∈ V und daher auch mit der Addition !! ! 1 1 1 1 Φ(x + y) = Φ 2 x + y = 2Φ x + y 2 2 2 2 ! 1 1 = 2 Φ(x) + Φ(y) = Φ(x) + Φ(y) 2 2

für x, y ∈ V .



Bemerkungen 2.139 1) Mit etwas mehr Aufwand lässt sich allgemein folgende Charakterisierung für T : A → A′ zeigen, wobei A, A′ affine Räume zu R-Vektorräumen V, V ′ seien: T ist affin-linear genau dann, wenn: Es gibt ein lineares Φ : V → V ′ , so dass für alle a, b ∈ A gilt − → −−−−−−−→ Φ(ab) = T (a)T (b) . 2) Eine affin-lineare Abbildung T ist somit genau dann eine Translation, wenn − → −−−−−−−→ ab = T (a)T (b)

für

a, b ∈ A .

3) Aus 1) oder Satz 2.138 folgt für eine affin-lineare Abbildung T : Sind a0 , a1 , a2 Punkte auf einer Geraden, d. h. − a−0−→ a1 und − a−0−→ a2 sind linear abhängig, so liegen auch T (a0 ), T (a1), T (a2 ) auf einer Gerade: T ist daher eine Kollineation, die Geraden auf Geraden oder Punkte (wenn Φ(− a−0−→ a1 ) = 0) abbildet. Eine Affinität bildet Geraden auf Geraden ab. Sind zwei

2.8 Affine Räume II

335

Geraden g1 : a + Ru und g1 : b + Rw parallel, d. h. o. B. d. A. u = w , 0, so sind die Bilder entweder Punkte (wenn Φ(u) = 0) oder parallele Geraden. 4) Sei V ein R-Vektorraum des affinen Raum über sich selbst betrachtet. Affinitäten T (x) = Φx + a können nach ihren Fixpunkten klassifiziert werden, d. h. der x ∈ V, so dass Φx + a = x

bzw.

(id −Φ)x = a .

Sei V n-dimensional. In einer Koordinatendarstellung handelt es sich um die Lösungsmenge eines (inhomogenen) LGS, so dass für F := {x ∈ V : x ist Fixpunkt von T } gilt: F ist leer oder F ist ein k-dimensionaler affiner Unterraum von V, 0 ≤ k ≤ n. Wir betrachten folgende Fälle weiter: (1) F = ∅,

(2) dim F = 0: T hat genau einen Fixpunkt, hier spricht man von einer radialen Affinität, (3) dim F = n − 1: F bildet eine affine Hyperebene, hier spricht man von einer perspektiven Affinität.

Für n = 2 sind alle Fälle (außer dem Trivialfall Φ = id, a = 0) erfasst. Zu (1) gehören z. B. die Translationen, (2) ist durch Rang(1 − A) = n charakterisiert, wenn A eine Darstellungsmatrix von Φ bezeichnet. Bei (3) kommt neben Rang(1 − A) = n − 1 bzw. dim Kern(1 − A) = 1 noch die Lösbarkeitsbedingung a ∈ Bild(1 − Φ) hinzu. △ → − Bemerkung 2.140 Sei dim A = n und für einen affinen Unterraum B = a + B, dim B = k. Dann gibt es linear unabhängige Linearformen hi ∈ V ∗ , i = 1, . . . , l, wobei l = n − k, so dass gilt: − → B = {b ∈ A : hi (ab) = 0, i = 1, . . . , l} . Insbesondere hat also eine affine Hyperebene die Darstellung − → B = {b ∈ A : h(ab) = 0} für ein h ∈ V ∗ , h , 0. Ist A = V affiner Raum zu sich selbst, gilt äquivalent B = {b ∈ A : hi (b) = ci , i = 1, . . . , l} , wobei ci := hi (a), i = 1, . . . , l. Das kann man wie folgt einsehen: Wir können dies nur für A = An , V = Rn beweisen. Nach Korollar 1.83 → − lässt sich B schreiben als

336

2 Matrizen und lineare Abbildungen → − B = {x ∈ Rn : Ax = 0} ,

wobei A ∈ R(l,n) vollen Zeilenrang l hat. a(1) , . . . , a(l) ∈ Rn seien die Zeilen von A, dann sind hi (x) := at(i) x die gesuchten Linearformen, also B = {b ∈ Rn : Ab = c} ,

wobei c := Aa.

△ Beispiel 2.141 Für die orthogonale Projektion auf einen affinen Raum A = a + U gilt nach (1.77) PA (x) = PU (x − a) + a = PU (x) + a − PU (a) = PU (x) + PU⊥ (a) .

(2.166)

Folglich ist PA affin-linear. Die aus der Fehlerorthogonalität (siehe Hauptsatz 1.102) folgende Charakterisierung von PA (x) ist für x ∈ V, u ∈ U: u + a = PA (x) ⇔ u + a − x ∈ U ⊥ ,

(2.167)

d. h. wieder eine Fehlerorthogonalität. Zur Begründung beachte man: u + a = PA (x) = PU (x) + PU ⊥ (a) ⇔

u + a − PU ⊥ (a) − x ∈ U ⊥ ⇔

u + a − x ∈ U ⊥ + PU ⊥ (a) = U ⊥ .



Die Abbildung 2.15 verdeutlicht die Situation für V = R2 und U = Ru. Beispiel 2.142 (Geometrie) Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm k k. Seien g1 : a + Rp und g2 : b + Rq windschiefe Geraden, dann gibt es nach Beispiel 1.107 eindeutige x ∈ g1 , y ∈ g2 , sodass kx − yk = d(g1 , g2 ) . Für e n := x − y gilt:

1) e n steht orthogonal auf p und auf q, ist also ein Gemeinlot. 2) d(g1 , g2 ) = (a − b . n), wobei n := e n/ke nk.

3) Im Fall V = R3 mit dem euklidischen SKP ( . ) gilt: d(g1 , g2 ) =

1 |(a − b . p × q)| . kp × qk

2.8 Affine Räume II

337

✻ x

a+U

U

❅ ✂✍ U⊥ PA (x) ✂ ❅ ✂ ✁✁✕ ❅ ✂ ✁ ❅ a ✂ ✁ ❅ ✒ PU (x) ❅ ✄✗ ✂ ✁ ✄✂ ✁ ❅ ✄✂ ✁ ❅ ✄✂ ✁ ❅ ✄ ✂✁ ❅ PU ⊥ (a) ✄✂✁ ✒ v ■ ❅ ❅ ❅ ✄✂✁ ✄ ❅ ❅✂✁ ❅ ❅ ❅ ❅ ❅ ❅ ❅ ❅ ❅ Abb. 2.15: Orthogonalprojektion auf linearen und affinen Unterraum.

Nach Beispiel 1.107 gibt es eindeutig bestimmte Punkte x¯ := a + λ¯ p ∈ g1

und

y¯ = b + µq ¯ ∈ g2

mit k x¯ − y¯ k = d(g1 , g2 )

und

µq ¯ − λ¯ p = Pspan(p,q) (a − b) .

Insbesondere ist n˜ := x¯ − y¯ = a − b − (µq ¯ − λ¯ p)

der Fehler bei dieser orthogonalen Projektion und damit orthogonal zu p und q. Für n := n ˜ /k n˜ k berechnet sich d(g1 , g2 ) = k n˜ k = ( n ˜ . n) = (a − b . n)

und damit gelten 1) und 2). Unter den Zusatzvoraussetzungen von 3) lässt sich n explizit angeben, nämlich n=±

(siehe Hauptsatz 2.130, 3)) und damit

1 p× q kp × qk



338

2 Matrizen und lineare Abbildungen d(g1 , g2 ) =

1 | (a − b . p × q)| . kp × qk



Sei B = {a0 , . . . , am } eine affine Basis von B ⊂ A, d. h. nach Satz 1.124: Jedes a ∈ B lässt sich eindeutig als Affinkombination aus a0 , . . . , am darstellen Es gibt ein eindeutiges (t0 , . . . , tm )t ∈ Rm+1 , so dass P • m ti = 1 , i=0P • a= m i=0 ti ai .

Auf diese Weise wird eine bijektive Abbildung   m   X     m+1 t∈R : , ΦB : B →  ti = 1    

(2.168)

i=0

d. h. zwischen affinen Räumen, definiert. Analog zum Beweis von Satz 1.121, 2) sieht man, dass Φ und damit auch Φ−1 affin-linear sind. Dies entspricht daher der KoordinatendarB B stellung für einen linearen Unterraum. Definition 2.143 Sei A ein affiner Raum zum R-Vektorraum V, dim A = m, und B = {a0 , . . . , am } eine festgewählte affine Basis von A. Der zu a ∈ A nach (2.168) eindeutige Vektor (t0 , . . . , tm )t ∈ Rm+1 heißt Vektor der baryzentrischen Koordinaten, bzw. die ti , i = 0, . . . , m heißen die baryzentrischen Koordinaten von a (zur Basis B).

RLGS

Für A = Am werden die baryzentrischen Koordinaten (t0 , . . . , tm )t von x = (x1 , . . . , xm )t zur Basis ai = (a j,i ) j , i = 0, . . . , m durch das folgende LGS definiert: m X

ai, j t j = xi ,

i = 1, . . . , m,

j=0

m X

ti = 1 .

i=0

Die baryzentrischen Koordinaten lassen sich also „explizit“ mit der Cramerschen Regel angeben (siehe (2.158)): ! ! a · · · x · · · am a · · · am ti := det 0 det 0 (2.169) 1 ··· 1 ··· 1 1 ··· 1  = det (a1 − a0 · · · x − a0 · · · am − a0 ) det (a1 − a0 · · · am − a0 ) für i = 1, . . . , m

2.8 Affine Räume II

339

durch Subtraktion der ersten Spalten von den folgenden und Entwicklung nach den letzten Zeilen (siehe Satz 2.116). Nach (2.169) ist also ti der Quotient aus den vorzeichenbehafteten Volumina der von − −−−→ −−−→ −−−→ a−0−→ a1 , . . . , − a−→ 0 x, . . . , a0 am und von a0 a1 , . . . , a0 am aufgespannten Parallelotopen. Man spricht daher auch von Volumenkoordinaten. Speziell für m = 2, d. h. die affine Ebene A2 ist −−−→ −−−→ −−−→ t1 = det(− a−→ 0 x, a0 a2 )/ det(a0 a1 , a0 a2 ) t = det(− a−−→ a ,− a−→x)/ det(− a−−→ a ,− a−−→ a ) 2

0 1

0

0 1

0 2

t0 = 1 − t1 − t2 . Da hier die (vorzeichenbehafteten) Flächen der Parallelotope, d. h. der Parallelogramme, dem Doppelten der aufgespannten Dreiecke entsprechen, gilt somit: Bezeichnet V(− a−0−→ a1 , − a−0−→ a2 ) die vorzeichenbehafteten Flächen des von − a−0−→ a1 , − a−0−→ a2 ∈ R2 mit − − − → − − − → Eckpunkt a0 aufgespannten Dreiecks ∆(a0 a1 , a0 a2 ), d. h. ∆(− a−0−→ a1 , − a−0−→ a2 ) := {a ∈ A2 : a = a0 + s− a−0−→ a1 + t − a−0−→ a2 , 0 ≤ s, t ≤ 1, s + t = 1} − →→ − → − V(ab, − ac) := det(ab, → ac)/2 , dann ist −−−→ −−−→ −−−→ t1 = V(− a−→ 0 x, a0 a2 )/V(a0 a1 , a0 a2 ) t = V(− a−−→ a ,− a−→x)/V(− a−−→ a ,− a−−→ a ) 2

0 1

0

0 1

0 2

−−−→ −−−→ t0 = V(− a−1−→ a2 , − a−→ 1 x)/V(a0 a1 , a0 a2 ) . Siehe hierzu auch Abbildung 2.16. Bemerkung 2.144 Sei A ein affiner Raum zum R-Vektorraum V. Die Punkte a, b, c stehen im Teilverhältnis λ ∈ R, wenn gilt: → − → − ac = λcb . Seien a , b und g := spana (a, b) die aufgespannte Gerade. Dann haben genau alle c ∈ g \ {b} ein Teilverhältnis. Sei c in baryzentrischen Koordinaten gegeben durch c = ta + (1 − t)b,

t ∈ R, t , 0 ,

so gilt λ=

1−t t

bzw.

t=

1 . λ+1

Es ist nämlich − → → − → − − ac = (1 − t)ab = (1 − t)(→ ac + cb) .

340

2 Matrizen und lineare Abbildungen −u , → −v ): a) x ∈ ∆(→ a2 −−−→ V(− a−→ 0 x, a0 a2 ) > 0 V(− a−1−→ a2 , − a−→ 1 x) > 0

x → −v → −u

a1

V(− a−0−→ a1 , − a−→ 0 x) > 0

a0 −u , → −v ): b) x < ∆(→ a2

x

−−−→ V(− a−→ 0 x, a0 a2 ) > 0 V(− a−1−→ a2 , − a−→ 1 x) < 0 → −v → −u a0

a1

V(− a−0−→ a1 , − a−→ 0 x) > 0

Abb. 2.16: Baryzentrische Koordinaten in A2 .

Da für die Bilder einer affin-linearen Abbildung T gilt T (c) = tT (a) + (1 − t)T (b) sind also bei einem Teilverhältnis λ für a, b, c alle Punkte T (a), T (b), T (c) identisch oder stehen auch im Teilverhältnis λ. Das Teilverhältnis ist demnach neben Kollinearität und Parallelität eine weitere Invariante affin-linearer Abbildungen. △

Aufgaben

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Affin-lineare Abbildung, Affinität • Baryzentrische Koordinaten

Zusammenhänge:

• Affin-linear = linear + konstant (Satz 2.138) • Baryzentrische Koordinaten = Volumenkoordinaten (siehe (2.169))

Aufgaben Aufgabe 2.41 (T) Zeigen Sie Bemerkungen 2.137, 1). Aufgabe 2.42 (T) Beweisen Sie Bemerkungen 2.139, 1).

341

Kapitel 3

Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Für gewisse Anwendungen (z. B. Codierungstheorie) ist es nützlich andere „Zahlmengen“ als R (nämlich endliche) zugrunde zu legen. Andererseits werden manche Fragestellungen einfacher, wenn man sie in der Erweiterung der komplexen Zahlen C betrachtet. Wir wollen daher die Eigenschaften von R mit Addition und Multiplikation abstrakt fassen, die in die bisherigen Überlegungen eingegangen sind. Die Begriffe sind schon kurz in Anhang B.1 angeklungen.

3.1 Gruppen und Körper Definition 3.1 Eine Gruppe ist nach Definition B.7 eine nicht leere Menge G zusammen mit einer Verknüpfungsoperation · auf G, die assoziativ ist, ein (links-)neutrales Element e (eine Eins ) besitzt und zu jedem Element g ein (links-)inverses g−1 ∈ G. Ist · kommutativ, heißt die Gruppe kommutativ oder abelsch. Es sei G eine Gruppe. Eine nicht leere Teilmenge U ⊂ G heißt Untergruppe , wenn sie mit der Verknüpfungsoperation aus G selbst eine Gruppe ist. D. h. also: • g, h ∈ U ⇒ g · h ∈ U, • g ∈ U ⇒ g−1 ∈ U. Beispiele 3.2 Bevor wir aus diesen Eigenschaften Konsequenzen ziehen, beschreiben wir erst Beispiele von Gruppen, die wir schon kennen. 1) Die Menge R mit der Addition „+“ als Verknüpfung ist eine abelsche Gruppe. Es ist e = 0 und g−1 = −g. Diese Gruppe enthält die Untergruppen (Q, +) der rationalen und (Z, +) der ganzen Zahlen.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_3

343

344

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

2) Der Zahlenraum Rn mit der Addition „+“ als Verknüpfung ist ebenfalls eine abelsche Gruppe. Es ist e = 0 der Nullvektor und x−1 = −x.

3) Die Menge R∗ := R \ {0} der rellen Zahlen , 0 ist eine abelsche Gruppe mit der Multiplikation „·“ als Verknüpfung. Dabei ist e = 1 und g−1 = 1g . Sie enthält die Untergruppe Q∗ := R∗ ∩ Q. Auch die zwei-elementige Menge {±1} ist eine Untergruppe der Gruppe R∗ . 4) Mit Zn für n ∈ N, n ≥ 2, bezeichnen wir die endliche Menge {0, 1, . . . , n − 1}. Die Addition modulo n ( ) ( g+h g+h≤n−1 g + h := , wenn , (3.1) g+h−n g+h≥n definiert auf dieser Menge eine Verknüpfung, welche sie zu einer abelschen Gruppe macht. Es ist e = 0 und ( 0 , wenn g = 0 −1 g = . n − g , wenn g > 0 5) Die symmetrische Gruppe Σn ist die Menge aller Permutationen der Zahlen 1, . . . , n mit der Hintereinanderausführung σ · τ = σ ◦ τ als Verknüpfung. Es ist e = id und σ−1 die Umkehrabbildung. Diese Gruppe ist für n ≥ 3 nicht abelsch, da z. B. (1, 2)(2, 3) = (1, 2, 3) , (1, 3, 2) = (2, 3)(1, 2) . 6) Die allgemeine lineare Gruppe ist die Menge GL(n, R) aller invertierbaren n × nMatrizen mit der Matrizenmultiplikation als Verknüpfung. Das Einselement ist e = 1n , das Inverse ist die inverse Matrix. Für n = 1 ist dies die abelsche Gruppe R∗ , für n ≥ 2 ist GL(n, R) nicht abelsch. GL(n, R) enhält als Untergruppe die spezielle lineare Gruppe SL(n, R) = {A ∈ R(n,n) : det(A) = 1} , da die Abgeschlossenheit bezüglich · aus dem Determinanten-Multiplikationssatz (Theorem 2.111, 1)) folgt. 7) Die reelle orthogonale Gruppe ist die Menge O(n, R) = {A ∈ GL(n, R) : At A = 1n } . Sie ist eine Untergruppe der GL(n, R), d. h. die Verknüpfung ist die Matrizenmultiplikation. O(n, R) enthält als Untergruppe die spezielle orthogonale Gruppe SO(n, R) = {A ∈ O(n, R) : det(A) = 1} . Wir betrachten die zwei-dimensionale orthogonale Gruppe O(2, R) etwas genauer. Nach Bemerkung 2.27 und Bemerkungen 2.57 besteht O(2, R) aus den Drehmatrizen und den Spiegelungen an einer Geraden. Die Drehmatrizen in O(2, R) sind durch

3.1 Gruppen und Körper

345

det(A) = 1 gekennzeichnet, während die Spiegelungen det(A) = −1 erfüllen. Also besteht SO(2, R) gerade aus den Drehmatrizen, diese bilden demnach eine Untergruppe von O(2, R). Nach (2.45) ist diese Gruppe abelsch. Dagegen bilden die Spiegelungen O(2, R)\ SO(2, R) = {A ∈ O(2, R) : det(A) = −1} keine Gruppe. 8) Die konforme Gruppe C∗ ist die Menge ( ! ) a −b : a, b ∈ R, (a, b) , (0, 0) . b a Die Zeilen dieser Matrizen sind orthogonal und haben beide die Länge ist ! a −b det = a2 + b2 . b a

√ a2 + b2 , und es

Nach 7) ist somit  −1/2 a −b ! ∈ SO(2, R) , a2 + b2 b a

Ein Paar (a, b)t ∈ R2 kann gleichwertig als

a = r cos(ϕ) ,

b = r sin(ϕ) ,

√ mit r := a2 + b2 > 0 und ϕ ∈ [0, 2π) dargestellt werden. Dies wird in der Analysis gezeigt. So ist (

! ) cos(ϕ) − sin(ϕ) C = r : r, ϕ ∈ R, r > 0 sin(ϕ) cos(ϕ) ∗

= {r · A : 0 < r ∈ R, A Drehmatrix} .

Diese Matrizen beschreiben Drehstreckungen. Es handelt sich daher um eine Untergruppe von GL(2, R). Die Gruppe ist nach 7) abelsch. 9) Sei (V, +, . ) ein R-Vektorraum, dann ist insbesondere (V, +) eine abelsche Gruppe. ◦

346

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beispiele 3.3 (Geometrie) In Abschnitt 2.1.2 haben wir schon die Gruppe der Bewegungen und die der Ähnlichkeiten, in Abschnitt 2.8 die Gruppe der Affinitäten kennengelernt. 1) Die affine Gruppe eines Vektorraums V besteht aus allen Abbildungen F:V→V,

u 7→ Φ(u) + t,

wobei Φ eine bijektive lineare Abbildung von V in sich ist, und t ein Vektor aus V. Die Menge der affinen Transformationen ist eine Untergruppe von (G, ◦), wobei G := { f ∈ Abb(V, V) : f ist bijektiv} , unter Beachtung von Bemerkungen 2.137, 3) und 4). 2) Sei V ein R-Vektorraum mit SKP. Die Bewegungsgruppe besteht aus allen Abbildungen F:V→V,

u 7→ Φ(u) + t ,

wobei Φ ∈ O(V) und t ∈ V. Die Bewegungsgruppe ist eine Untergruppe der affinen Gruppe nach Satz 2.16, Beispiele 2.10, 4) und Satz 2.63. 3) Sei V ein R-Vektorraum mit SKP. Die Gruppe der Ähnlichkeiten besteht aus allen Abbildungen F : V → V, u 7→ cΦ(u)+ t, wobei Φ ∈ O(V), t ∈ V, c ∈ R, c > 0. Diese umfasst die Bewegungsgruppe und ist Untergruppe der affinen Gruppe nach Theorem 2.21. 4) Nimmt man jeweils die Bedingung det(Φ) > 0 mit auf, erhält man die Untergruppen ◦ der orientierungstreuen Bewegungen, Ähnlichkeiten bzw. Affinitäten. Beispiel 3.4 (Geometrie) Analytische Geometrie ist die Behandlung von Geometrie mit Methoden aus der Analysis. Seit René Descartes versteht man darunter wohl im Wesentlichen die Benutzung von Koordinatensystemen und von Funktionen dieser Koordinaten. Felix Klein1 brachte 1872 in seinem „Erlanger Programm“ den Gesichtspunkt ins Gespräch, dass jede Art von Geometrie etwas mit einer Transformationsgruppe zu tun habe. Die Geometrie ist die Gesamtheit der Eigenschaften, welche sich bei den Transformationen der Gruppe nicht ändern. Felix Klein war ganze drei Jahre in Erlangen: Herbst 1872 bis Herbst 1875. Im Dezember 1872 wurde er hier feierlich in die Fakultät und in den Senat aufgenommen. Damals war es Pflicht, dabei ein „Programm“ vorzulegen, worin man die Forschungsrichtung skizzierte, der man sich künftig widmen wollte. Klein wählte für sein Programm den Titel „Vergleichende Betrachtungen über neuere geometrische Forschungen“. Abgedruckt ist es in den Mathematischen Annalen Band 43 (1893) und in seinen gesammelten Werken. Auf jeden Fall hat Klein durch dieses Programm den Namen Erlangens in Mathematikerkreisen unsterblich gemacht. Der Ansatz von Klein besteht darin, Geometrie nach den Invarianten einer operierenden Gruppe zu klassifizieren, d. h. nach Eigenschaften, die unter allen Operationen einer Gruppe erhalten bleiben. In Abschnitt 2.1.2 haben wir kennen gelernt: 1

Felix Klein ∗25. April 1849 in Düsseldorf †22. Juni 1925 in Göttingen

3.1 Gruppen und Körper

347

Euklidische Geometrie: Zu den Invarianten der Bewegungsgruppe gehören • Länge, • Skalarprodukt, • (nicht orientierter) Winkel

(jeweils auf die Verbindungsvektoren bezogen). Eine typische Aussage ist: • Der Schnittpunktsatz (Satz von Euler): Mittelsenkrechte, Seitenhalbierende und Höhen in einem Dreieck schneiden sich in je einem Punkt m, s, bzw. h und es gilt s=

1 2 h+ m. 3 3

Ähnlichkeitsgeometrie: Zu den Invarianten der Ähnlichkeitsgruppe gehören • Längenverhältnis, • (nicht orientierter) Winkel.

Eine typische Aussage ist:

• Der Strahlensatz (siehe Beispiel 2.22).

Affine Geometrie: In Abschnitt 2.8 haben wir gesehen, dass zu den Invarianten der affinen Gruppe gehören • Kollinearität, • Parallelität, • Teilverhältnis.

Eine typische Aussage ist: • Der Schwerpunktsatz (siehe Beispiel 1.127).



Wir stellen noch einige Konsequenzen aus den Gruppeneigenschaften zusammen. Dies verallgemeinert Überlegungen, wie sie schon zu Beginn von Abschnitt 2.3.3 beschrieben wurden. Bemerkungen 3.5 1) Die Eins e ∈ G mit der Eigenschaft e · g = g („Linkseins“) ist auch eine „Rechtseins“, d. h. es gilt g · e = g für alle g ∈ G. Das kann man wie folgt einsehen: Zu beliebigem g ∈ G gibt es das Inverse g−1 mit g−1 · g = e und dazu wieder ein Inverses g′ ∈ G mit g′ · g−1 = e. Daraus folgt g = e · g = (g′ · g−1 ) · g = g′ · e = g′ · (e · e)   = (g′ · e) · e = g′ · (g−1 · g) · e = (g′ · g−1 ) · g · e = g · e .

2) Das „Linksinverse“ g−1 zu g mit der Eigenschaft g−1 · g = e ist auch ein „Rechtsinverses“, d. h. es gilt g · g−1 = e.

Mit der Notation des vorhergehenden Beweises ist g = g′ · e und wegen der Eigenschaft 1) ist dies g′ . Demnach ist auch g · g−1 = g′ · g−1 = e.

348

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3) Das Einselement e ist eindeutig bestimmt. Sei auch e′ ∈ G mit e′ · g = g für alle g ∈ G. Setzen wir g = e, so folgt daraus e′ · e = e. Da e aber auch eine Rechtseins ist, gilt e′ · e = e′ .

4) Das Inverse g−1 ist durch g eindeutig bestimmt, insbesondere gilt 

g−1

−1

= g, (g · h)−1 = h−1 · g−1

für h, g ∈ G, e−1 = e .

Es sei g−1 · g = g′ · g = e. Wegen 2) ist dann

  g−1 = e · g−1 = (g′ · g) · g−1 = g′ · g · g−1 = g′ · e = g′ .

5) Kürzungsregel: Seien a, b, g ∈ G. Wenn g · a = g · b gilt, dann auch (Linksmutiplikation mit g−1 ) die Gleichung a = b. Aus a · g = b · g folgt (nach Rechtsmultiplikation mit g−1 ) die Gleichung a = b. 6) Lösbarkeit von Gleichungen: Zu beliebigen g, h ∈ G gibt es genau ein x ∈ G und ein y ∈ G mit g · x = h ( nämlich x := g−1 · h) , y · g = h ( nämlich y := h · g−1 ) . 7) Sei U eine Untergruppe von (G, ·), e das neutrale Element in G. Dann ist e ∈ U und damit auch das neutrale Element. Sei g ∈ U , dann g−1 ∈ U und auch e = g−1 · g ∈ U .

8) In einer Gruppe (G, ·, e) kann die Potenz (bei additiver Schreibweise (G, +, 0) das Vielfache ) eingeführt werden für g ∈ G: g0 := e,

gk+1 := gk · g für k ∈ N0 .

Analog wird für n ∈ Z, n < 0, definiert: gn := (g−1 )−n . 9) Sei (G, ·, e) eine Gruppe, e , g ∈ G. Dann gibt es entweder ein n ∈ N, so dass gn = e oder für alle n ∈ N ist gn , e. Im ersten Fall heißt das minimale n die Ordnung von g, n = ord(g) im zweiten Fall wird ord(g) = ∞ gesetzt. Wird die Guppe additiv geschrieben, d. h. (G, +, 0), so wird die Notation k · g statt gk , wobei 0 · g := 0, (k + 1) · g := k · g + g für g ∈ G, k ∈ N0 benutzt. △

3.1 Gruppen und Körper

349

Definition 3.6 Es seien G, H Gruppen. Eine Abbildung ϕ : G → H heißt (Gruppen-) Homomorphismus, wenn für alle g1 , g2 ∈ G gilt ϕ(g1 · g2 ) = ϕ(g1 ) · ϕ(g2 ) .

(3.2)

Die Begriffe Isomorphismus und Automorphismus übertragen sich aus Definition 2.4.

Satz 3.7 Für jeden Gruppenhomomorphismus ϕ : G → H gilt:

1) Die Eins 1G ∈ G wird auf die Eins 1H ∈ H abgebildet: ϕ(1G ) = 1H .   2) Das Inverse von g ∈ G wird auf ϕ(g)−1 abgebildet: ϕ g−1 = ϕ(g)−1 .

3) Die Menge

Kern(ϕ) = {g ∈ G : ϕ(g) = 1H } ⊂ G ist eine Untergruppe von G. 4) ϕ ist injektiv genau dann, wenn Kern(ϕ) = {1G }.

Beweis: Zu 1): Wir berechnen ϕ(1G ) = ϕ(1G · 1G ) = ϕ(1G ) · ϕ(1G ) und multiplizieren diese Gleichung in H (etwa von rechts) mit ϕ(1G )−1 um 1H = ϕ(1G ) zu erhalten. Zu 2): Wegen ϕ(g−1 ) · ϕ(g) = ϕ(g−1 · g) = ϕ(1G ) = 1H ist ϕ(g−1 ) das Inverse von ϕ(g) in H. Zu 3): Mit g1 , g2 ∈ Kern(ϕ) gehört auch g1 · g2 zu Kern(ϕ) wegen ϕ(g1 · g2 ) = ϕ(g1 ) · ϕ(g2 ) = 1H · 1H = 1H . Mit g ∈ Kern(ϕ) gehört auch g−1 zu Kern(ϕ) wegen ϕ(g−1 ) = ϕ(g)−1 = 1−1 H = 1H . Zu 4): Wörtlich wie bei Satz 2.5, 2).



350

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Dies verallgemeinert teilweise Satz 2.5, 1) und Überlegungen nach Definition 2.1. Bemerkung 3.8 1) Wegen Satz 2.98 ist sign : Σn → {±1} ein Gruppenhomomorphismus. Sein Kern ist die alternierende Gruppe An der Permutationen σ mit sign(σ) = 1. 2) Aus dem Determinanten-Multiplikationssatz (Theorem 2.111, 1)) folgt, dass die Abbildung det : GL(n, R) → R∗ := R \ {0} ein Gruppenhomomorphismus ist. Sein Kern ist die spezielle lineare Gruppe SL(n, R). 3) Seien G, H Gruppen, ϕ : G → H ein Gruppenhomomorphismus, dann erfüllt G′ := Kern(ϕ) sogar: g · h · g−1 ∈ G′ für alle g ∈ G, h ∈ G′ . Es gilt nämlich: ϕ(g · h · g−1 ) = ϕ(g) · ϕ(h) · ϕ(g−1 ) = ϕ(g)1H ϕ(g)−1

= ϕ(g)ϕ(g)−1 = 1H nach Satz 3.7, 2) .

Solche Untergruppen heißen auch normal. Offensichtlich ist jede abelsche Untergruppe normal. 4) Es treten auch Strukturen auf, die „nicht ganz“ Gruppen sind, da nicht alle Elemente Inverse haben. Man spricht dann von Halbgruppen (siehe Definition B.5) bzw. von Halbgruppen mit Eins oder von einem Monoid, wenn auch ein neutrales Element e existiert. Das neutrale Element ist eindeutig (siehe Bemerkungen 3.5, 3)). Analog zu Beispiele 3.2 sind Halbgruppen (N, +) bzw. sogar Monoide: a) (N0 , +, 0) b) (N, ·, 1) und (Z, ·, 1) c) (Q, ·, 1) und (R, ·, 1)

d) (Abb(M, M), ◦, id) für eine Menge M , ∅ (analog zu Definition 1.31) e) (Hom(V, V), ◦, id) bzw. (R(n,n) , ·, 1)

Viele Begriffe zu Gruppen lassen sich analog fassen: Untermonoid, Monoidhomomorphismen, . . . 5) Sei (G, ·, e) ein Monoid,

3.1 Gruppen und Körper

351

G∗ := {g ∈ G : g hat ein Inverses g−1 }. Inverse sind auch eindeutig (wie in Bemerkungen 3.5, 4)) und damit gilt auch (g · h)−1 = h−1 · g−1 für g, h ∈ G∗ , e−1 = e und somit ist (G∗ , ·, e) eine Gruppe und G eine Gruppe, genau dann, wenn G = G∗ . Für die Beispiele aus 4) gilt: a) N∗0 = {0}

b) N∗ = {1} und Z∗ = {−1, 1} (siehe 1)) c) Q∗ = Q \ {0} und R∗ = R \ {0}

d) Abb(M, M)∗ = { f : M → M : f ist bijektiv}, d. h. insbesondere für M = {1, . . . , n}: Abb(M, M)∗ = Σn e) Hom(V, V)∗ = {Φ ∈ Hom(V, V) : Φ Isomorphismus } bzw. R(n,n)∗ = GL(n, R) 6) Beispiel 4), e) beruht darauf, dass die Komposition zweier linearer (d. h. strukturverträglicher) Abbildungen wieder linear ((2.4)) (d. h. strukturverträglich ist), Beispiel 5), e) darauf, dass im Falle der Bijektivität auch die Umkehrabbildung linear (d. h. strukturverträglich ist) (Satz 2.5, 3)). Dies gilt für beliebige Verknüpfungen und ihre strukturverträglichen Abbildungen und insofern sind die Mengen strukturverträglicher Abbildungen analog zu 4), e) bzw. 5), e) mit Komposition und Identität ein Monoid bzw. eine Gruppe. Dies gilt z. B. für die Gruppenhomomorphismen von G auf sich bzw. für die invertierbaren Gruppenhomomorphismen von G auf sich. △ Definition 3.9 Ein Schiefkörper ist eine nicht leere Menge K mit zwei Operationen „+“ und „·“. Für diese Operationen muss gelten: a) K mit „+“ ist eine abelsche Gruppe. (Das neutrale Element wird mit 0 ∈ K bezeichnet und das Inverse zu a ∈ K mit −a.) b) K ∗ := K \ {0} , ∅ , d. h. K hat mindestens zwei Elemente, und K ∗ mit „·“ ist eine Gruppe. (Das neutrale Element wird mit 1 ∈ K ∗ bezeichnet und das Inverse zu 0 , a ∈ K mit a1 .) c) Für alle a, b, c ∈ K gelten die Distributivgesetze c · (a + b) = c · a + c · b

(a + b) · c = a · c + b · c

Ist · auch kommutativ auf K, heißt K ein Körper.

Sei L ⊂ K eine nicht leere Teilmenge. L heißt Unterkörper von K, wenn (L, +, 0) und (L∗ , ·, 1) jeweils Untergruppen bilden.

352

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Seien K, L Körper, ϕ : K → L ein Gruppenhomomorphismus. Gilt zusätzlich auch für die zweite Operation für a, b ∈ K ,

ϕ(a · b) = ϕ(a) · ϕ(b)

dann heißt ϕ Körperhomomorphismus. Die Begriffe Isomorphismus und Automorphismus werden analog zu Definition 3.6 bzw. Definition 2.4 benutzt. Bemerkungen 3.10 1) Aus dem Distributivgesetz folgt sofort für alle x ∈ K also

0 · x = (0 + 0) · x = 0 · x + 0 · x ,

0 = 0 · x + −(0 · x) = 0 · x + 0 · x + −(0 · x) = 0 · x .

Für alle x ∈ K gilt daher:

0·x =0.

Also kann 0 ∈ K kein Inverses bezüglich der Multiplikation in K besitzen. 2) Sei K ein Körper und (K, +, 0) die zugrundeliegende additive Gruppe. Dann ist entweder ord(x) endlich für ein x ∈ K \ {0} oder ord(x) = ∞ für alle x ∈ K \ {0}. Im ersten Fall heißt die minimale Ordnung p die Charakteristik von K, Char K = p, im zweiten Fall setzen wir Char K = 0. Zu diesem Fall gehören K = Q, R, C (da η · x (nach Bemerkungen 3.5, 8)) auch der inneren Verknüpfung entspricht und somit gilt: η · x = 0, x , 0 ⇒ η = 0). 3) Sind K, L in der Situation nur Ringe (siehe Definition B.9), so spricht man von einem Ringhomomorphismus, wenn zusätzlich ϕ(1K ) = 1L für die Einsen gilt. (Sind K und L Körper so gilt dies immer nach Satz 3.7, 1)). Durch ϕ : Z → K,

n 7→ n · 1

wird ein Ringhomomorphismus definiert, da sich hier die Rechenregeln verifizieren lassen: (n + n′ ) · 1 = n · 1 + n′ · 1,

(n · n′ ) · 1 = (n · 1) · (n′ · 1) für n, n′ ∈ Z.

ϕ ist also injektiv, genau dann, wenn Char K = 0, da schon für Gruppenhomomorphismen nach Satz 3.7, 4) Injektivität äquivalent ist mit Kern(ϕ) = {0}. 4) Sei (K, +, 0, ·, 1) ein Körper mit Char K = 0, dann ist ϕ : Q → K,

n 7→ (n · 1)(m · 1)−1 für n ∈ Z, m ∈ N m

wohldefiniert und ein injektiver Körperhomomorphismus. Wir zeigen die Injektivität nach Satz 3.7, 4). Sei n/m ∈ Q∗ mit (n · 1)(m · 1)−1 = ϕ(n/m) = 1, also n · 1 = m · 1 ⇒ (n − m) · 1 = 0 und wegen Char K = 0 damit n = m, d. h. n/m = 1.

3.1 Gruppen und Körper

353

Damit ist über diese Einbettung Q in jedem Körper K mit Char K = 0 enthalten. 5) Sei (K, +, 0, 1) ein Körper mit Char K = p , 0, dann ist p prim. Angenommen, p ist nicht prim, also zerlegbar als p = nm, wobei n, m ∈ N, n, m < p, damit ist n·1, m·1 , 0 nach Voraussetzung und somit (n · 1)(m · 1) = (nm) · 1 = p · 1 , 0, im Widerspruch zu p · 1 = 0.

△ Beispiele 3.11 1) Die reellen Zahlen R und die rationalen Zahlen Q mit den üblichen Rechenoperationen bilden einen Körper. 2) Der Körper C der komplexen Zahlen: Als Menge ist C := R2 = {(a, b) : a, b ∈ R} , deren Elemente hier als geordnetes Paar geschrieben werden. Statt (a, b) schreibt man auch a + b · i, erst einmal als formale Schreibweise ohne weitere Bedeutung für i. Die reellen Zahlen sind durch Φ : R → C, x 7→ (a, 0) nach C eingebettet. Die Addition ist die übliche Vektoraddition des R2 , daher mit der Einbettung Φ verträglich im Sinn von (3.2) für +: (a1 + 0 · i) + (a2 + 0 · i) = a1 + a2 + 0 · i . Damit ist a) von Definition 3.9 erfüllt. e := C \ {0} wird bijektiv auf die konforme Gruppe C ) ( ! a −b C∗ = : (0, 0) , (a, b) ∈ R2 b a durch (a, b) 7→

a −b b a

!

abgebildet, was mit der eingeführten Addition in R und der in R(2,2) verträglich ist. Die e wird durch Rücktransformation der Multiplikation in C∗ definiert. Multiplikation in C D. h. wegen der Formel ! ! ! a −b a′ −b′ aa′ − bb′ −(ab′ + a′ b) = b a b′ a′ ab′ + a′ b aa′ − bb′ e somit durch definiert man die Multiplikation in C

354

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

(a + b · i) · (a′ + b′ · i) := aa′ − bb′ + (ab′ + a′ b) · i , die auch im Fall (a, b) = (0, 0) oder (a′ , b′ ) = (0, 0), d. h. in C∗ ∪

ist, und dann korrekterweise 0 + 0 · i ergibt. Wegen

(

00 00

(3.3) !)

, anzuwenden

(a1 + 0 · i) · (a2 + 0 · i) = (a1 a2 + 0 · i) ist auch die Multiplikation mit Φ verträglich. Wenn man nun i = 0 + 1 · i = (0, 1) setzt, ist insbesondere i2 = i · i = −1 + 0 · i, d. h. wenn Φ ab jetzt mit der Identität gleich gesetzt wird, gilt – jetzt nicht mehr nur formal – (a, b) = (a, 0) + (0, b) = (a, 0) + (b, 0)(0, 1) = (a, 0) + (b, 0) · i = a + b · i und

i heißt imaginäre Einheit.

i2 = −1 .

Für z = a + b · i wird a ∈ R als Realteil , a = Re z, und b ∈ R als Imaginärteil , b = Im z, bezeichnet. Oft wird auch die Schreibweise z = a + ib bevorzugt.Rechnet man andererseits mit „Zahlen a + ib“ unter Benutzung der Körpereigenschaften und von i2 = −1, erhält man notwendigerweise (3.3). Beweis von Definition 3.9 b): Die so definierte Multiplikation in C ist assoziativ, weil die Multiplikation von Matrizen assoziativ ist. Sie ist kommutativ, da (C∗ , ·) abelsch ist. Das Einselement ist 1 = 1 + 0 · i, weil dieses Element zur Einheitsmatrix gehört (a = 1, b = 0). Die inverse Matrix ist ! !−1 1 ab a −b · . = 2 b a a + b2 −b a Folglich ist für 0 , a + b · i ∈ C das Inverse (a + b · i)−1 =

a2

1 (a − b · i) . + b2 (

!) 00 interpretieren lässt, folgt 00 schließlich die Eigenschaft c) aus Definition 3.9 aus der Distributivität von Matrizenaddition und -multiplikation. Da die Addition sich auch als Matrixaddition in C∗ ∪

3.1 Gruppen und Körper

355

Über die Einbettung Φ wird R zu einem Unterkörper von C. Mit Identifizierung Φ = id gilt somit für eine komplexe Zahl z

z ∈ R ⇔ Im z = 0 .

Entsprechend heißt z ∈ C rein imaginär, genau dann, wenn Re z = 0. In diesem Sinn ist a + b · i die eindeutige Darstellung in R2 bezüglich der Basis 1 = (1, 0) und i = (0, 1).

In C gibt es die Konjugation z = a + b · i 7→ z = a − b · i , z heißt konjugiert komplex zu z.

Man benutzt sie, um wegen z · z = a2 + b2 (im Sinne der Einbettung) den Betrag der komplexen Zahl z (die Länge des Vektors (a, b))

|z| =

√ √ a2 + b2 = z · z

und ihr Inverses

1 1 = 2z z |z|

kürzer zu beschreiben. Die Zahl z ∈ C ist reell genau dann, wenn z = z. Konjugation verträgt sich nicht nur mit der Addition komplexer Zahlen (3.4)

z1 + z2 = z1 + z2 ,

da es sich um die lineare Abbildung von R2 nach R2 , (a, b) 7→ (a, −b), handelt, sondern auch mit der Multiplikation komplexer Zahlen: z1 z2 = (a1 + ib1 )(a2 + ib2 ) = a1 a2 − b1 b2 + i(a1 b2 + a2 b1 )

= a1 a2 − b1 b2 − i(a1 b2 + a2 b1 ) = (a1 − ib1 )(a2 − ib2 ) .

Demnach: (3.5)

z1 z2 = z1 · z2 . Außerdem gilt für z ∈ C: Re z =

1 2

(z + z) ,

Im z =

1 2i

(z − z) .

(3.6)

356

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Geometrisch ist daher die Addition in C die Addition in R2 , eine Addition von „Ortsvektoren“ nach dem „Kräfteparallelogramm“. Da die imaginäre Einheit i in C∗ der Matrix ! ! π π 0 −1 c −s = mit c = cos , s = sin 1 0 s c 2 2 entspricht, ist die Multiplikation eines z = x + y · i ∈ C mit i gleichbedeutend mit einer Drehung von (x, y)t ∈ R2 um ϕ = π/2. Allgemein ist die Multiplikation mit einem festen z = a + b · i eine Drehstreckung, wobei der Streckungsfaktor r := (a2 + b2 )1/2 = k(a, b)k2 ist und der Drehwinkel ϕ ∈ [0, 2π) definiert ist durch cos(ϕ) =

1 a, r

sin(ϕ) =

1 b. r

Die Konjugation ist die Spiegelung an der Realteilachse. Insbesondere gibt es neben der kartesischen Darstellung a + b · i immer die Polardarstellung (s. Abbildung 3.1) a + b · i = r(cos(ϕ) + (sin(ϕ)) · i) .

(3.7)

Mit Hilfe der komplexen Exponentialfunktion kann dies auch als a + bi = r exp(iϕ) geschrieben werden. Schließlich hat C die Charakteristik 0 (mit der gleichen Begründung wie in Bemerkungen 3.10, 2)). 3) Die endlichen Körper F p (p Primzahl). Als Menge ist F p die Teilmenge {0, 1, . . . , p − 1} ⊂ Z. Die Operationen „+“ und „·“ sind die übliche Addition und Multiplikation, aber modulo p genommen (siehe (3.1)). Bezeichnen wir die Zahl m ∈ Z, 0 ≤ m < p, aufgefasst als Element in F p , mit [m], so ist dementsprechend [m1 ] + [m2 ] = [m1 + m2 modulo p] . F p mit der Addition ist eine abelsche Gruppe, die wir oben mit Z p bezeichneten. Die Multiplikation ist analog definiert durch [m] · [n] = [r] ,

wenn r + k · p = m · n für ein k ∈ Z und 0 ≤ r < p.

Analog kann auch r ∈ {0, . . . , p − 1} mit [r] = [g] + [h] nach (3.1) als der Rest in der ganzzahligen Division von g + h durch p interpretiert werden. Diese Multiplikation ist assoziativ und kommutativ, da dies für die Multiplikation in Z gilt, und das neutrale Element ist [1] ∈ F p . Auch die Distributivgesetze übertragen sich aus Z, so dass alle Eigenschaften eines Körpers mit Ausnahme der Existenz des Inversen für die Multiplikation mit 0 , [m] ∈ F p klar sind, und zwar ohne dass p notwendigerweise prim ist. Für die fehlende Eigenschaft ist nachzuweisen, dass die Multiplikation

3.1 Gruppen und Körper

357

[n] 7→ [m] · [n]

Fp → Fp ,

surjektiv ist. Da F p eine endliche Menge ist, genügt es nach Satz A.18 zu zeigen, dass diese Abbildung injektiv ist (siehe Anhang A, Definition A.14), d. h.: [n1 ], [n2 ] ∈ F p mit [m] · [n1 ] = [m] · [n2 ]



[n1 ] = [n2 ] .

Wegen des Distributivgesetzes ist diese Abbildung ein Gruppenhomomorphismus, d. h. nach Satz 3.7, 4) genügt es für m, n ∈ {0, . . . , p − 1} zu zeigen, dass [m] · [n] = 0



[n] = 0 .

Nun bedeutet [m] · [n] = 0 ∈ F p für die ganzen Zahlen m und n, dass mn durch p teilbar ist. Dabei kann p nicht m teilen, weil 0 < m < p. Also muss der Primfaktor p die Zahl n teilen. Mit 0 ≤ n < p folgt daraus [n] = 0. Alternativ hätte auf Z auch die Äquivalenzrelation (siehe Anhang A, (A.19)) m ∼ n :⇔ m − n = kp

für ein k ∈ Z

definiert werden können und Z p (bzw. F p ) als Menge der Äquivalenzklassen. Addition und Multiplikation sind dann die Operationen in Z auf die Repräsentanten der Äquivalenzklassen angewendet. Es ist dann die Wohldefinition zu überprüfen, die Eigenschaft der Körpereigenschaften außer der Existenz von multiplikativ Inversen folgt dann aus der entsprechenden von Z. Die fehlende Körpereigenschaft, falls p Primzahl ist, ist wie hier gesondert nachzuweisen. ◦

y

x = const ϕ = const

y = const

r = const x

Abb. 3.1: Kartesische und Polarkoordinaten. Für die Theorie sind die komplexen Zahlen vor allem wegen des Fundamentalsatzes der Algebra wichtig (siehe Satz B.21 und Hauptsatz B.33). Jedes reelle Polynom ist natürlich auch ein komplexes Polynom. Der Fundamentalsatz der Algebra lehrt, dass jedes reelle Polynom zumindest komplexe Nullstellen hat.

358

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beispiel 3.12 Das reelle Polynom p(x) = 1 + x2 hat keine reellen Nullstellen, wohl aber die komplexen Nullstellen ±i. Genau wie man von Z zu Q übergehen muss, wenn man Gleichungen wie a·x=b für a , 0 immer lösen will, oder von Q zu R, wenn man Gleichungen wie x2 = a für a > 0 immer lösen will, ist die Körpererweiterung C von R nötig, um die Existenz von Nullstellen eines beliebigen Polynoms p (das nicht konstant ist) sicherzustellen. In Kapitel 4 werden daher reelle Matrizen insbesondere als komplexe Matrizen betrachtet werden, um wenigstens die Existenz komplexer Eigenwerte sicherzustellen. ◦

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • Gruppe, Untergruppe • Gruppenhomomorphismus, Kern • Körper

Zusammenhänge

• Fundamentalsatz der Algebra (Satz B.21)

Beispiele

• Zn , F p • C∗ , C, Konjugation

Aufgaben

359

Aufgaben Aufgabe 3.1 (K) a) Bestimmen Sie det(A), A2 und A−1 für die komplexe 2 × 2-Matrix ! 1 + i −i A= . i 1−i b) Lösen Sie das lineare Gleichungssystem x + iy = i y + iz = i ix + + z = i . Aufgabe 3.2 (K) a) Bestimmen Sie den Rang der Matrix    1 1 0   0 1 1    101

über dem Körper F2 und über dem Körper F5 . b) Lösen Sie das lineare Gleichungssytem x+y =1 y+z=0 x+ +z=1 über F2 und über F5 . Aufgabe 3.3 (T) Welche der folgenden Teilmengen von R(n,n) bilden eine Gruppe bezüglich der Matrizenmultiplikation? a) b) c) d)

Die Menge aller oberen Dreiecksmatrizen, die Menge aller oberen Dreiecksmatrizen mit Determinante ungleich 0, die Menge aller normierten oberen Dreiecksmatrizen, für festes B ∈ GL(n, R) die Menge {A ∈ GL(n, R) : ABAt = B}.

Aufgabe 3.4 (K) Zeigen Sie, dass die folgende Menge unter der Matrizenmultiplikation eine Gruppe ist:   !   A, B, C, D ∈ R(n,n) ,      A B (2n,2n) t t t t  AB = BA , CD = DC , ∈ R : . Sp(2n) :=       C D   ADt − BC t = 1 n

360

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.2 Vektorräume über allgemeinen Körpern Mit Elementen aus einem beliebigen Körper kann man genauso wie mit reellen Zahlen rechnen, wenn man nichts anderes als die genannten Körpereigenschaften benutzt. Also: Alles, was wir zu linearen Gleichungssystemen, Matrizenmultiplikation, Determinanten gesehen haben, gilt deswegen über beliebigen Körpern. Für die einzige Ausnahme, dem Beweis von Lemma 2.107, der die in F2 nicht existierende multiplikative Inverse von 2 benutzt, wurde eine allgemein gültige Alternative in Bemerkung 2.119 angegeben. Man kann somit in der Definition eines R-Vektorraums R durch einen Körper K ersetzen und kommt zu: Definition 3.13 Ein Vektorraum über dem Körper K (oder kürzer ausgedrückt: ein K-Vektorraum) ist eine abelsche Gruppe V (Gruppenoperation „+“ geschrieben, mit neutralem Element 0 ∈ V) zusammen mit einer Operation K×V →V ,

(c, u) 7→ c · u

von K auf V, für die gilt: a) c1 · (c2 · u) = (c1 c2 ) · u für alle c1 , c2 ∈ K, u ∈ V,

(Assoziativität),

b) (c1 + c2 ) · u = c1 · u + c2 · u c · (u1 + u2 ) = c · u1 + c · u2 für alle c1 , c2 , c ∈ K, u, u1 , u2 ∈ V,

(Distributivität), (Distributivität),

c) 1 · u = u für alle u ∈ V. Wie bisher auch wird der Operator · der Skalarmultiplikation i. Allg. weggelassen. Aus den Distributivgesetzen folgt für alle u ∈ V (wie schon für R-Vektorräume gezeigt): 0 · u = (0 + 0) · u = 0 · u + 0 · u ⇒ 0·u=0∈V , u + (−1) · u = (1 − 1) · u = 0 · u = 0 ⇒ (−1) · u = −u .

Alles, was bisher für R-Vektorräume an Begriffen und Aussagen (ohne weitere Voraussetzungen, wie ein Skalarprodukt) entwickelt wurde, gilt auch in K-Vektorräumen. In den Definitionen ist überall die Skalarenmenge R durch den zugrunde gelegten Körper K zu ersetzen, z. B.:

3.2 Vektorräume über allgemeinen Körpern

361

Definition 3.14 Eine Abbildung Φ : V1 → V2 des K-Vektorraums V1 in den K-Vektorraum V2 heißt linear (genauer K-linear), wenn Φ(s · x + t · y) = s · Φ(x) + t · Φ(y) für alle x, y ∈ V1 , s, t ∈ K gilt. Wenn der Körper K betont werden soll, benutzen wir HomK (V, W) := {Φ : V → W : Φ ist K-linear} für K-Vektorräume V, W. Manchmal erzwingt die Menge der Vektoren nicht automatisch den zulässigen Skalarenkörper. So kann z. B. V = Cn als Vektorraum über C oder auch über R betrachtet werden. Ist allgemeiner K ein Körper und K ′ ⊂ K ein Unterkörper, so kann ein K-Vektorraum auch als K ′ -Vektorraum betrachtet werden. Das hat Einfluss auf die Aussagen. So ist zum Beispiel die Konjugationsabbildung von C nach C nicht C-linear (wenn nunmehr C als C-Vektorraum betrachtet wird), wohl aber R-linear (wenn C als R-Vektorraum betrachtet wird). Analog wird bei der Dimension verfahren: dimK (V) bezeichnet die Dimension des K-Vektorraums V. Auch hier ist die Wahl des Skalarkörpers von Bedeutung: dimC (Cn ) = n (Cn als C-Vektorraum) , dimR (Cn ) = 2n (Cn als R-Vektorraum) , da {e1 , . . . , en , ie1 , . . . , ien } mit den reellen Einheitsvektoren e j eine Basis bilden von Cn als R-Vektorraum (dabei ist also i die imaginäre Einheit, kein Index!). Allgemein gilt für einen K-Vektorraum V aufgefasst als K ′ -Vektorraum: dimK ′ V = dimK ′ K · dimK V , da auch K ein K ′ -Vektorraum ist (Übung). Demnach: Alle Aussagen aus den Kapiteln 1 und 2 für allgemeine R-Vektorräume gelten auch für allgemeine K-Vektorräume. Davon sind die Beispiele 1–4 ausgenommen, die von ihrem Anwendungsbezug nur in R sinnvoll sind. Eine Ausnahme bildet das Beispiel 2: Es wird sich herausstellen, dass auch komplexe „Leitwerte“ sinnvoll sein können, so dass entsprechende Aussagen über das LGS (MM.43) auch dann gelten sollten (Beispiel 2(5)). Insbesondere ist die Signumsfunktion zu interpretieren als Abbildung

362

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

sign : V → {−1, 1} ⊂ K . Den schon bekannten Beispielen können weitere hinzugefügt werden. Beispiele 3.15 1) Der Zahlenraum Rn ist ein Vektorraum über dem Körper R. Ebenso ist für einen beliebigen Körper K der Raum t Kn = | K ×{z ... × K } = {(x1 , . . . , xn ) : x1 , . . . , xn ∈ K} n mal

(3.8)

ein Vektorraum über K, wobei wir die Elemente von K n weiter als Spalte auffassen. Analog setzen wir für die Menge der m × n Matrizen über K: K (m,n) := {(ai, j )i=1,...,m : ai, j ∈ K} . j=1,...,n

Dies ist mit komponentenweiser Addition und Skalarmultiplikation ein K-Vektorraum. Analog zu (2.65) bzw. (2.151) können auch die Matrixgruppen GL(n, K) bzw.

SL(n, K)

definiert werden. Aus Definition 1.48 zum Beispiel überträgt sich die Zuordnung der transponierten Matrix ·t : K (m,n) → K (n,m) A 7→ At . K n ist also (isomorph zu) K (n,1) zu verstehen und der Raum der n-komponentigen Zeilen als (isomorph zu) K (1,n) und diese im Sinn von (3.8) als isomorph zueinander. In (1.31) wurde schon der R-Vektorraum der unendlichen reellen Folgen RN eingeführt. Genauso lässt sich K N für einen Körper K definieren. 2) Die Menge

l2 (R) = {(aν ) ∈ RN :

X

a2ν konvergent }

der quadratsummierbaren reellen Folgen ist ein linearer Unterraum von RN . Es muss nun gezeigt werden, dass c · (aν ) und (aν ) + (a′ν ) wieder zu l2 (R) gehören: Dazu benutzen wir die wegen X X a2ν = |aν |2

3.2 Vektorräume über allgemeinen Körpern

363

aus der Charakterisierung von absoluter Reihenkonvergenz (siehe Analysis) folgende Charakterisierung l2 (R) = {(aν ) : es existiert ein M ∈ R so, dass für alle N ∈ N gilt:

N X 1

a2ν ≤ M} .

P P WennPalso für alle N ∈ gilt 1N a2ν ≤ M , dann ist 1N (caν )2 ≤ c2 M für alle N . Wenn für alle N ∈ N gilt, PN N 2 N ′ 2 ′ dass 1 aν ≤ M und 1 (aν ) ≤ M , dann zeigt die Cauchy-Schwarz-Ungleichung, dass v v u u t N t N N X X X √ ′ 2 aν aν ≤ aν · (a′ν )2 ≤ M · M ′ . 1

1

1

Daraus erhalten wir N N N N X X X X √ (aν + a′ν )2 = a2ν + 2 aν a′ν + (a′ν )2 ≤ M + 2 M · M ′ + M ′ 1

1

1

1

für alle N ∈ N.

Analog ist der Raum

l2 (C) = {(aν ) : aν ∈ C,

∞ X 1

|aν |2 konvergent }

der quadratsummierbaren Folgen komplexer Zahlen ein Vektorraum über C. 3) Oft kann man Aussagen für R und für C als Skalarkörper analog formulieren. Zur Vereinheitlichung benutzen wir dann die Bezeichnung K, dh. K ∈ {R, C} . In Verallgemeinerung von (1.50) definieren wir also C([a, b], K) := { f : [a, b] → K : f ist stetig} .

(3.9)

Direkter als in 2) ergibt sich etwa, dass l1 (K) := {(aν ) ∈ KN :

und

P

|aν | konvergent}

l∞ (K) := {(aν ) ∈ KN : (|aν |)ν ist beschränkt} lineare Unterräume von KN sind (Übung). 4) Auch Funktionen können Vektorräume bilden, wie schon gesehen. Bekannt ist bereits

364

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

 C 0 [a, b] := C [a, b], R , d. h. der Raum der stetigen reellwertigen Funktionen auf [a, b] ⊂ R, als R-Vektorraum. Genauso lässt sich für q ∈ N C q (a, b), d. h. der Raum der auf [a, b] ⊂ R stetigen und auf (a, b) q-mal stetig differenzierbaren reellwertigen Funktionen , als R-Vektorraum bilden oder allgemeiner für q ∈ N0  C q (a, b), K

(3.10)

als entsprechender K-Vektorraum. Schließlich sind (siehe Anhang B.3, Definition B.16) P K[x], d. h. der Raum der Polynome n0 aν xν , n ∈ N, aν ∈ K, Pd Kn [x], d. h. der Raum der Polynome 0 aν xν , aν ∈ K, vom Grad ≤ n,

Vektorräume über K für einen beliebigen Körper K. Bei endlichem K ist hier Bemerkungen B.18, 2) zu beachten. 5) Sind V1 und V2 Vektorräume über K, so ist auch ihr kartesisches Produkt V1 × V2 = {(u1 , u2 ) : u1 ∈ V1 , u2 ∈ V2 } mit komponentenweiser Definition der Vektoroperationen (u1 , u2 ) + (u′1 , u′2 ) = (u1 + u′1 , u2 + u′2 ) c · (u1 , u2 ) = (c · u1 , c · u2 ) ein K-Vektorraum. 6) Wie schon am Beispiel R und C bzw. Rn und Cn gesehen, kann allgemein aus einem RVektorraum VR ein C-Vektorraum VC gebildet werden, der – als R-Vektorraum aufgefasst – VR als linearen Unterraum enthält. Diese Komplexifizierung geschieht durch folgende Bildung: VC := VR × VR . Auf VC wird die komponentenweise Addition (x1 , y1 ) + (x2 , y2 ) := (x1 + x2 , y1 + y2 ) ,

xi , yi ∈ VR , i = 1, 2

mit der VC zur kommutativen Gruppe wird, und die Skalarmultiplikation (a + ib)(x, y) = (ax − by, ay + bx) ,

a, b ∈ R, x, y ∈ VR

(3.11)

3.2 Vektorräume über allgemeinen Körpern

365

definiert. Folglich ist (VC , +, · ) ein C-Vektorraum, und dimC VC = dimR VR (Übung).

Die C-Vektorräume aus obigen Beispielen 3.15, 2) und 3) sind Komplexifizierungen der reellen Varianten. Allgemein gilt VR ⊂ VC (über die Einbettung x ∈ VR 7→ (x, 0) ∈ VC ) und VR ist ein linearer Unterraum von VC , als R-Vektorraum betrachtet. Insbesondere in Kapitel 4 werden wir die Elemente eines R-Vektorraums auch als Elemente seiner Komplexifizierung betrachten, etwa A ∈ R(m,n) als A ∈ C(m,n) . ◦

Hinsichtlich des Tupelraumes K n und des entsprechenden Matrizenraumes K (m,n) ist Folgendes zu beachten: Wurde für die Begriffe und Aussagen nicht das (euklidische) Skalarprodukt zugrunde gelegt, so übertragen sie sich auf den allgemeinen Fall. Inbesondere bleiben alle Aussagen zur Transformation einer Matrix auf (reduzierte) Zeilenstufenform (Gauss-(Jordan-) Verfahren), zur LR-Zerlegung, zur Darstellung von linearen Abbildungen auf endlichdimensionalen K-Vektorräumen durch Matrizen über K usw. gültig. Alles, was ein Skalarprodukt erfordert (Orthogonalität, ONB, Schmidtsche Orthonormalisierung, . . .) braucht neue Überlegungen. Beispiel 2(5) – Elektrisches Netzwerk Ziel ist es, für (MM.66) und dann allgemein für (MM.61) sowie (MM.65) für periodische Quellstärken partikuläre Lösungen y p anzugeben. Die linearen Gleichungen (MM.66) (bzw. auch (MM.61), (MM.65)) können auch im Komplexen betrachtet werden. Wegen der RLinearität von Re : C → R und der Verträglichkeit mit der Ableitung Re(˙y) = (Re˙ y) ist der Realanteil einer komplexen Lösung eine reelle Lösung. Betrachten wir einen Wechselstromkreis, d. h. b(t) = b0 cos(ωt) mit einer Frequenz ω > 0. Gäbe es nur den Ohmschen Widerstand, so wäre durch y(t) = b0 /R cos(ωt) eine Lösung gegeben, die anderen Bauteile erzeugen aber eine Phasenverschiebung. Der komplexe Ansatz y(t) = y0 exp(iωt) ,

y0 ∈ C

b(t) = b0 exp(iωt) ,

b0 ∈ R

für die rechte Seite

liefert R + Liω −

! 1 i y0 exp(iωt) = b0 exp(iωt) , Cω

also für y0 eine echt komplexe Lösung: y0 = a + ib und damit die Lösung

366

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen y(t) = a exp(iωt) + ib exp(iωt) ,

d. h. auch Re y(t) = a cos(ωt) − b sin(ωt) . Für (MM.64), (MM.65) und eine Quellstärke b(t) = b0 cos(ωt) lässt sich diese Überlegung wiederholen. Dabei kann b0 ∈ Rn sein, wenn die Quellen alle „in Phase“ sind, oder auch b0 ∈ Cn , um unterschiedliche Phasen zu berücksichtigen. Wichtig ist nur die einheitliche Frequenz ω. Einsetzen des Ansatzes y(t) = y exp(iωt) ,

y ∈ Cn

liefert das LGS für y  −i  D DW A + DS Liω + DC C y = Db ω Bt y = 0 . Vergleicht man das mit (MM.48), sieht man, dass die Beschreibung formal die gleiche ist wie in einem Netzwerk nur mit Ohmschen Widerständen, wenn das LGS im Komplexen betrachet wird und wie den Ohmschen Widerständen der Widerstand R, an einer Spule die Impedanz iωL (als komplexer „Wideri stand“) und an einem Kondesator die Impedanz − ωC zugeordnet wird. Geht man von der Äquivalenz der Beschreibungen (MM.51) und (MM.48) aus, kann also y ∈ Cn dadurch bestimmt werden, dass auch in Cn das LGS Ay + Bx = b0 Bt y = 0 für

bzw. mit C := A−1

 i   diag(1/Ci ) A = DW diag(Ri ) + DS iω diag(Li ) + DC − ω Bt CBx = Bt C b0

und dann y := C(b0 − Bx) .

^

Bemerkungen 3.16 Trotz einer in weiten Teilen einheitlichen Theorie weisen K-Vektorräume gegenüber R-Vektorräumen Besonderheiten auf, insbesondere wenn K endlich definiert ist. 1) Offensichtlich ist: Sei V ein n-dimensionaler K-Vektorraum, wobei #(K) = p ∈ N – hierbei wird mit #(M) für eine endliche Menge M die Anzahl der Elemente bezeichnet, – dann ist auch V endlich und

3.2 Vektorräume über allgemeinen Körpern

367

#(V) = pn

(3.12)

(Übung). 2) Sei K = F p , p eine Primzahl. Dann sind die Vektorräume (V, +, · ) über K gerade die kommutativen Gruppen (V, +), in denen (3.13)

u|+ {z . . . +}u = 0 p-mal

gilt.

Das kann man wie folgt einsehen: Sei (V, +, · ) ein K -Vektorraum, dann ist für α = [k] ∈ K, u ∈ V wegen 1 = [1]: αu = (α · 1)u = ([1] + . . . + [1])u = | u + {z . . . +}u . | {z } k-mal

(3.14)

k-mal

Damit kann Skalarmultiplikation durch die Addition ausgedrückt werden und wegen u + {z . . . +}u = [p]u = 0u = 0 | p-mal

gilt (3.13). Ist andererseits (V, +) eine kommutative Gruppe mit (3.13), so definiert (3.14) eine Skalarmultiplikation, so dass (V, +, · ) ein K -Vektorraum ist.

3) Sei K = F2 , (V, +) eine Untergruppe von K n . Dann gilt immer (3.13). Die Untergruppen sind folglich genau die linearen Unterräume. Diese Unterräume spielen in der Codierungstheorie eine Rolle. Für n = 8 erhält man mit K n z. B. den Vektorraum der Bytes. Damit wird etwa der ASCIIZeichensatz realisiert, der mit 7 Komponenten, hier Bits genannt, 128 Zeichen codiert und die achte Komponente als Kontrollbit benutzt. Wird dieses so gewählt, dass die Anzahl der Einsen gerade ist, kann das Auftreten eines Fehlers in einem Bit erkannt (aber nicht korrigiert) werden. Allgemeiner versteht man unter jeder Untergruppe (linearem Unterraum) von K n einen linearen binären Block-Code der Länge n. Ein Problem ist (durch Redundanz wie oben) Codes zu konstruieren, die bis zu k fehlerhafte Bits erkennen oder sogar korrigieren können. 4) In V = (F2 )7 sei   U := span (1000110)t, (0100011)t, (0010111)t, (0001101)t .

Da das Erzeugendensystem linear unabhängig ist (Übung), ist dim U = 4 und damit gibt es nach (3.12) 16 Code-Wörter, d. h. Elemente in U. U ist ein „optimaler“ 1fehlerkorrigierender Code, der Hamming-Code der Länge 7 über F2 . △

368

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Ab Abschnitt 7.2.1 werden K-Vektorräume allgemein untersucht, die zusätzlich eine mit der Vektorraumstruktur verträgliche innere Verknüpfung haben. Definition 3.17 Sei K ein Körper, (V, +, λ·) ein K-Vektorraum. V heißt K -Algebra, wenn eine weitere innere Verknüpfung ◦, d. h. eine Abbildung ◦ : V × V → V definiert ist, so dass gilt: (u + u) ◦ w = u ◦ w + u ◦ w u ◦ (u + w) = u ◦ u + u ◦ w für alle u, u, w ∈ V (Distributivgesetze) λ · (u ◦ u) = (λ · u) ◦ u = u ◦ (λ · u) für alle u, u ∈ V, λ ∈ K . Beispiel 3.18 Beispiele für K-Algebren sind HomK (V, V), wobei V ein K-Vektorraum ist und ◦ durch die Komposition der Abbildungen definiert ist, oder K (n,n) , wobei ◦ durch die Matrixmultiplikation definiert ist. Man beachte, dass in beiden Fällen ◦ bis auf Trivialfälle nicht kommutativ ist. ◦

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • K-Vektorraum • K-lineare Abbildung • K-Algebra

Beispiele

• C-Vektorräume als R-Vektorräume • Komplexifizierung von R-Vektorräumen ((3.11)) • Unterräume von (F2 )n , lineare Codes (Bemerkungen 3.16)

Aufgaben

369

Aufgaben Aufgabe 3.5 (K) a) Ist V ein n-dimensionaler K-Vektorraum, wobei #(K) = p ∈ N, dann ist auch V endlich und #(V) = pn . b) In V = (F2 )7 sei   U := span (1000110)t, (0100011)t, (0010111)t, (0001101)t .

Zeigen Sie, dass das Erzeugendensystem linear unabhängig ist und berechnen Sie #(U). Aufgabe 3.6 Es sei K ein Körper mit p Elementen. Zeigen Sie: a) Die Anzahl der Elemente in der Gruppe GL(n, K) ist # (GL(n, K)) =

n−1 Y (pn − pν ) . ν=0

b) Die Anzahl der Elemente in der Gruppe SL(n, K) ist 1 · # (GL(n, K)) . p−1 c) Geben Sie für p = 2 die Matrizen aller bijektiven linearen Abbildungen von V in sich an, wobei V ein zweidimensionaler Raum über K sei. Aufgabe 3.7 (T) Bekanntlich trägt Cn die Struktur eines Vektorraumes über dem Körper C, aber auch über dem Körper R. a) Ergänzen Sie die Vektoren b1 = (1, 0, 1)t und b2 = (1, −1, 0)t zu einer Basis des C-Vektorraums C3 und zu einer Basis des R-Vektorraums C3 . b) Die Abbildung h : Cn → Rm sei eine lineare Abbildung der R-Vektorräume Cn und Rm . Zeigen Sie, dass f : Cn → Cm , f (x) = h(x) − ih(ix) eine lineare Abbildung der C-Vektorräume Cn und Cm ist. c) Sei nun f : Cn → Cm eine lineare Abbildung der C-Vektorräume Cn und Cm . Zeigen Sie, dass es eine lineare Abbildung h : Cn → Rm der R-Vektorräume Cn und Rm gibt, so dass f (x) = h(x) − ih(ix) für alle x ∈ Cn .

370

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume Im C-Vektorraum V := Cn ist eine Längenmessung (d. h. eine Norm) definiert durch  n   n 1/2 X 2 1/2 X  xi xi  ∈R kxk :=  |xi |  = 

für x = (xi ) ∈ Cn .

i=1

i=1

Analog zum reellen Fall gibt es eine Abbildung

h . i : Cn × Cn → C , so dass kxk = nämlich hx . yi :=

n X

p

hx . xi ,

für x = (xi ), y = (yi ) ∈ Cn .

xi yi

i=1

(3.15)

Die Form h . i hat folgende Eigenschaften: (i) Linearität im ersten Argument : hc1 x1 + c2 x2 . yi = c1 hx1 . yi + c2 hx2 . yi

x1 , x2 , y ∈ V, c1 , c2 ∈ C .

(3.16)

(ii) Hermite2 -Symmetrie : hx . yi = hy . xi ,

x, y ∈ V .

(3.17)

(iii) (Positiv-)Definitheit : hx . xi ∈ R (wegen (3.17)) und hx . xi ≥ 0 für alle x ∈ V, hx . xi = 0 ⇔ x = 0 .

(3.18)

Aus (i) und (ii) folgt: (i)’ Antilinearität im zweiten Argument :





x . c1 y1 + c2 y2 = c1 x . y1 + c2 x . y2 ,

x, y1 , y2 ∈ V, c1 , c2 ∈ C .

Um im Folgenden R und C als Skalarenkörper einheitlich behandeln zu können, benutzen wir die schon eingeführte Schreibweise K, d. h. K ∈ {R, C} . In Erweiterung von Definition 1.89 definieren wir: 2

Charles Hermite ∗24. Dezember 1822 in Dieuze †14. Januar 1901 in Paris

3.3 Euklidische und unitäre Vektorräume

371

Definition 3.19 Sei V ein K-Vektorraum. Eine Abbildung h . i : V × V → K heißt inneres Produkt auf V, wenn sie linear im ersten Argument, Hermite-symmetrisch und definit ist (d. h. (3.16), (3.17), (3.18) erfüllt). Für das Bild von x, y ∈ V schreibt man hx . yi. (V, +, ·, h . i) heißt euklidischer Vektorraum für K = R bzw. unitärer Vektorraum für K = C. Für K = R sind die Begriffe Skalarprodukt (SKP) und inneres Produkt identisch. In Abschnitt 1.5 ist ausgehend vom Beispiel V = Rn , aber in der Argumentation allgemein festgestellt worden, dass in jedem euklidischen Raum (V, h . i) durch p (3.19) kxk := hx . xi für x ∈ V

eine Norm auf V definiert wird, die mit dem inneren Produkt über die Cauchy-SchwarzUngleichung (1.59) zusammenhängt. Dies gilt genauso für unitäre Vektorräume. Wegen (3.18) ist (3.19) wohldefiniert. Um die genannten Eigenschaften nachzuvollziehen, betrachten wir als Erstes die Beziehung zwischen einem allgemeinen unitären und einem davon abgeleiteten euklidischen Raum. Es sei V ein unitärer C-Vektorraum mit dem inneren Produkt h . i. V ist insbesondere auch ein R-Vektorraum. Darauf ist Re(h . i) eine R-lineare reelle Funktion beider Argumente. Aus der Hermite-Symmetrie folgt die Symmetrie dieser reellen Funktion und die Definitheit ist ohnehin klar. Also ist ( . ) := Re h . i ein inneres Produkt auf dem RVektorraum V, ein SKP. Umgekehrt ist h . i durch das reelle innere Produkt ( . ) festgelegt vermöge hx . yi = Re(hx . yi) + i Im(hx . yi) = (x . y) + i Re(−i hx . yi) = (x . y) + i Re(hx . iyi) . Folglich: hx . yi = (x . y) + i (x . iy) .

Satz 3.20: Inneres Produkt und C.S.U. Ein inneres Produkt h . i auf dem K-Vektorraum V definiert eine Norm p kuk := hu . ui auf V. Es gilt die Cauchy-Schwarz-Ungleichung

| hx . yi | ≤ kxk kyk für alle x, y ∈ V .

(3.20)

372

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beweis: Nur für den komplexen Fall ist die Aussage neu. Sei deswegen V mit dem inneren Produkt h . i ein unitärer Raum. Wenn wir für den Moment die Norm des komplexen inneren Produkts mit p kxkC = hx . xi abkürzen und die Norm des zugehörigen reellen inneren Produkts Re h . i mit kxkR , so ist kxkC = kxkR , weil hx . xi reell ist. Beide Normen sind demnach gleich. Somit gelten alle Normeigenschaften mit eventueller Ausnahme der Homogenität, aber: Für alle c ∈ C gilt wegen der Antilinearität im zweiten Argument p p kc · uk = hc · u . c · ui = cc · hu . ui = |c| · kuk .

Cauchy-Schwarz-Ungleichung : Für das innere Produkt Re(h . i) auf dem R-Vektorraum V gilt die reelle Cauchy-Schwarz-Ungleichung | Re(hx . yi)| = | (x . y) | ≤ kxk · kyk ,

x, y ∈ V .

Sei c := hx . yi. Dann ist hcx . yi = c · c reell. Mit der reellen Cauchy-Schwarz-Ungleichung finden wir deswegen |c| · | hx . yi | = | hcx . yi | = | (cx . y) | ≤ kcxkR · kykR = kcxkC kykC = |c| · kxk · kyk . Für c = 0 ist die Ungleichung trivial. Falls c , 0 ist, können wir |c| kürzen und erhalten die Aussage.  Definition 1.91 und Satz 1.92 übertragen sich nun wörtlich auf C-Vektorräume, wobei eine Norm weiterhin (nicht negative) reelle Werte annimmt (als Längenmessung), im Gegensatz zum inneren Produkt. Ebenfalls überträgt sich nun die nachfolgende Definition 1.95 (nicht aber Definition 1.94), und ab Satz 1.96 der gesamte restliche Abschnitt 1.5. Analog wie beim Übergang vom euklidischen SKP des Rn zum inneren Produkt von n C übertragen sich die anderen Definitionen von SKPs auf die jeweiligen Komplexifizierungen. Es sei dann hervorgehoben: Bemerkungen 3.21 1) Auf C([a, b], K) (oder auf dem Raum der K-wertigen Riemann3 -integrierbaren Funktionen auf [a, b]) wird ein inneres Produkt definiert durch

3

Georg Friedrich Bernhard Riemann ∗17. September 1826 in Breselenz bei Dannenberg †20. Juli 1866 in Selasca bei Verbania

3.3 Euklidische und unitäre Vektorräume

373

h f . gi :=

Zb

f (x)g(x)dx

(3.21)

a

(man vergleiche Bemerkung 1.90) mit der erzeugten Norm  b 1/2 Z    2 k f k2 :=  | f (x)| dx .   a

2) Auf K(m,n) wird ein inneres Produkt definiert durch A : B :=

m X n X

a j,k b j,k

(3.22)

j=1 k=1

(man vergleiche Bemerkungen 1.93, 4) mit der erzeugten Norm  m n 1/2 X X  2  kAkF :=  |a j,k |  . j=1 k=1

Wir heben einige Kernbegriffe ein weiteres Mal explizit hervor: Definition 1.95I Sei (V, h . i) ein K-Vektorraum mit innerem Produkt. Zwei Vektoren x, y ∈ V heißen orthogonal, x ⊥ y, wenn hx . yi = 0 . Definition 1.97I Sei (V, h . i) ein K-Vektorraum mit innerem Produkt. Ist A ⊂ V, so sei A⊥ := {x ∈ V : hx . ai = 0

für alle a ∈ A} .

Ist A = U ⊂ V ein linearer Unterraum, so heißt U ⊥ das orthogonale Komplement zu U in V.



374

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Für das reelle innere Produkt gilt die Polarisationsformel kx + yk2 = kxk2 + 2 (x . y) + kyk2 . Sie zeigt, dass die Abstände das innere Produkt bestimmen. Für das komplexe innere Produkt lautet diese Formel kx + yk2 = kxk2 + 2 Re(hx . yi) + kyk2 .

(3.23)

Damit ist das abgeleitete (reelle) SKP, und nach (3.20) auch das innere Produkt, durch die Norm bestimmt, so dass auch für K = C aus Längentreue Erhaltung des inneren Produkts folgt (von Winkeln kann nicht allgemein geredet werden) (Übung). Es gilt sodann (Übung): Satz 3.22: SKP-Erhaltung Seien V, W unitäre bzw. euklidische Räume, Φ ∈ Hom(V, W), k . k die jeweils von den inneren Produkten erzeugte Norm. Dann gilt: kΦxk = kxk für alle x ∈ V



hΦx . Φyi = hx . yi

für alle x, y ∈ V .

Für K = C gibt es neben dem durch Definition 1.97I definierten C-Unterraum A⊥ =: A⊥C auch den R-Vektorraum A⊥R , wenn V als R-Vektorraum mit den SKP ( . ) = Re h . i aufgefasst wird. Der Zusammenhang dazwischen ist: Lemma 3.23 Sei V ein C-Vektorraum mit innerem Produkt h . i und A ⊂ V. Dann gilt: 1) A⊥C ⊂ A⊥R .

2) A⊥C = A⊥R , falls A = U ein C-Unterraum ist.

Beweis: Zu 1): Aus hx . ai = 0 folgt Rehx . ai = 0. ⊥ Zu 2): Sei also x ∈ UR , d. h. Re(hx . ui) = 0 für alle u ∈ U. Weil U ein komplexer Untervektorraum ist, ist mit u ∈ U auch iu ∈ U. Dadurch folgt mit (3.20) hx . ui = Re hx . ui + i Re(hx . iui) = 0 .



Damit ist auch die Orthogonalprojektion bezüglich des komplexen und des zugehörigen reellen inneren Produkts identisch, denn (x−u) ⊥ U bedeutet in beiden Fällen das Gleiche. Man kann hier auch mit dem minimalen Abstand argumentieren: Weil reelle und komplexe Norm identisch sind, sind auch die Abstände kx − uk in beiden Fällen dasselbe. Aus der reellen Theorie folgt:

3.3 Euklidische und unitäre Vektorräume

375

Hauptsatz 1.102I Eindeutige Existenz der orthogonalen Projektion Sei V ein K-Vektorraum mit innerem Produkt h . i und U ⊂ V ein linearer Unterraum. Sei u ∈ U, x ∈ V, dann gilt: 1) Es sind äquivalent:

(i) u ist orthogonale Projektion von x auf U. (ii) x − u ∈ U ⊥ (Fehlerorthogonalität ). Ist U endlichdimensional mit Basis u1 , . . . , ur und α ∈ Kr der Koordinatenvektor P von u, d. h. u = ri=1 αi ui , dann ist weiterhin äquivalent:

(iii)

Aα = β,

wobei

(3.24)

(r,r) A∈K , Eβ ∈ Kr definiert sind durch D A = u j . ui i, j , β = hx . ui ii . A heißt auch Gramsche Matrix.

Es gilt für α = (α1 , . . . , αr )t und das Fehlerfunktional ϕ wie in Definition 1.101: ϕ(u)2 = hAα . αi − 2 Re hα . βi + kxk2 , d. h. in α ist das quadratische Optimierungsproblem f (α) =

1 hAα . αi − Re hα . βi → min 2

zu lösen. 2) Ist U endlichdimensional, so existiert die orthogonale Projektion u von x ∈ V eindeutig und wird mit PU (x) bezeichnet.

Beweis: Aus der reellen Theorie folgt die eindeutige Existenz von PU (x) und mit Lemma 3.23 die Fehlerorthogonalität als Charakterisierung (d. h. 1) (i)⇔(ii), 2)). Die Fehlerorthogonalität ist aber im endlichdimensionalen Fall äquivalent zum LGS (3.24) mit der Gramschen Matrix:



hu − x . ui i = 0 für alle i = 1, . . . , r + *X r α j u j . ui = hx . ui i für alle i = 1, . . . , r j=1



Aα = β .

Der Zusatz in 1) folgt mit dem Fehlerfunktional ϕ wie in Definition 1.101 über

376

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

ϕ(u)2 = hx . xi − = kxk2 − 2

r X i=1

r X i=1

αi hui . xi + αi hx . ui i + Re(αi hx . ui i) +

r X j=1

r X

i, j=1

E D αi ui . u j α j

(Aα) j α j = kxk2 − 2 Re hα . βi + hAα . αi .

(Man beachte, dass hier - wie schon im reellen Fall - h . i sowohl für das komplexe innere Produkt in V als auch für das euklidische Produkt in Cn verwendet wird.) Zudem wurde in Bemerkungen 1.104, 1) bereits erwähnt, dass die Minimalstellen von ϕ (d. h. die u, für die das Minimum in (1.73) angenommen wird) mit denen von f : Cr → R, definiert als f (α) := übereinstimmen.

1  1 ϕ hα . αi2 − ||x||2 = hAα . αi − Re hα . βi , 2 2



Zudem brauchen Theorem 1.112 und die vorangehenden Ausführungen über das Schmidtsche Orthonormalisierungsverfahren wieder K = K. Betrachten wir die weitere Entwicklung der Theorie in Kapitel 2, so gelten die allgemeinen Überlegungen von Abschnitt 2.1.2 für allgemeine K-Vektorräume und die Überlegungen für Bewegungen und die Orthogonalprojektion gelten auch für unitäre Räume. Bei Satz 2.13 ist zu beachten, dass die Argumentation hier nur Re hΦx . Φyi = Re hx . yi

(3.25)

zeigt, was aber unter Beachtung von (3.20) und Anwendung von (3.25) auf iy statt y auch hΦx . Φyi = hx . yi liefert. Alternativ kann ebenso auf die Darstellung der inneren Produkte durch die identischen Normen zurückgegriffen werden (Übung). Abschnitt 2.2 gilt für allgemeine K-Vektorräume, wenn man unter „Skalarprodukt“ in P K n nur das Berechnungsschema i xi yi meint.

Abschnitt 2.3 gilt bis (2.44) und (2.47) für allgemeine K-Vektorräume. Ab (2.48) wird ein euklidischer bzw. unitärer K-Vektorraum gebraucht, wobei die Definition des Tensorprodukts aber erweitert werden sollte zu

t

a ⊗ b = ab

für a ∈ Km , b ∈ Kn ,

(3.26)

mit b = (bi ) für b = (bi )i ∈ Kn in Übereinstimmung mit Definition 2.40 für K = R. Dann bleiben die nachfolgenden Überlegungen alle auch im komplexen Fall gültig, die Darstellung aus Definition 2.40a muss aber umdefiniert werden zu

3.3 Euklidische und unitäre Vektorräume

AB =

377 n X i=1

a(i) ⊗ b¯ (i) .

(3.26a)

Zusätzlich kann ab Definition 2.42 mit dem Begriff der Projektion wieder ein allgemeiner K-Vektorraum zugrunde gelegt werden für die allgemeinen Überlegungen bis zu Satz 2.54. Ausgenommen werden muss hier die spezielle Konstruktion einer Rechtsinversen in Bemerkung 2.49, b), die eine unitäre Struktur braucht. Für Bemerkung 2.52 ist die modifizierte Definition des Tensorprodukts zu beachten, so dass die Sherman-Morrison-Formel (2.70) die Form D E (A + u ⊗ u)−1 = A−1 − αA−1 uut A−1 mit α := 1/ 1 + A−1 u . u annimmt und ihre Umformung

 −t (A + u ⊗ u)−1 = A−1 − αA−1 u ⊗ A u .

Neben der transponierten Matrix At mit ihren Eigenschaften (2.80)–(2.84) allgemein (Körper K) ist im komplexen Fall auch der Begriff der Adjungierten wichtig. Definition 3.24 Sei A = (ai, j)i, j ∈ K(m,n) . Dann heißt A := (ai, j )i, j ∈ K(m,n) , die zu A konjugiert komplexe Matrix und  t t A† := A = A ∈ K(n,m) die Adjungierte zu A. Für K = R gilt daher A† = At .

Dann bleiben (2.80), (2.81) für A† gültig, (2.82) wird modifiziert zu (γA)† = γA†

für A ∈ Kn , γ ∈ K .

(2.83) gilt weiterhin für A† und somit auch (2.85):

da

D E hAx . yi = x . A† y

für A ∈ K(n,n) , x, y ∈ Kn ,

D E t t hAx . yi = (Ax)t y = xt At y = xt A y = xt A y = x . A† y

378

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

unter Benutzung von A = A. Satz 2.54 gilt nun nicht nur allgemein für Körper K, sondern auch in der Form: Satz 3.25 Für A ∈ K(m,n) gilt:

1) Rang(A) = Rang(A) , 2) Rang(A) = Rang(A† ) .

Beweis: Es ist nur 1) zu zeigen. Sei dazu {u1 , . . . , uk } ⊂ Kn linear unabhängig, dann ist auch {u1 , . . . , uk } linear unabhängig, denn: 0=

k X

αi vi =

k X i=1

αi ui =

i=1

i=1



k X

k X

α i ui

i=1

αi ui = 0 ⇒ α1 = . . . = αk = 0

⇒ α1 = . . . , αk = 0

für α1 , . . . = αk ∈ K .

Somit folgt   Rang(A) = dim span a(1) , . . . a(n)     ≤ dim span a(1) , . . . , a(n) = Rang A   (1) (n) = Rang(A). ≤ dim span a , . . . , a



Definition 2.56 ist im Komplexen zu erweitern zu: Definition 3.26

A ∈ K(n,n) heißt unitär, wenn A invertierbar ist und A−1 = A† ,

d. h.

A† A = A A† = 1 .

Damit gelten im Komplexen alle ab (2.87) folgenden Aussagen nach Ersatz von At durch A† und „orthogonale Matrix“ durch „unitäre Matrix“. Insbesondere sind demzufolge die unitären Matrizen diejenigen, deren Spalten und auch Zeilen eine ONB bezüglich des komplexen inneren Produkts h . i bilden.

3.3 Euklidische und unitäre Vektorräume

379

Die Menge der unitären Matrizen, bezeichnet als O(n, C), bildet eine Untergruppe von GL(n, C), die unitäre Gruppe. Definition 2.58 ist im Komplexen zu erweitern zu: Definition 3.27 A ∈ C(n,n) heißt hermitesch, wenn gilt A = A† . Statt „symmetrisch“ bzw. „hermitesch“ für A ∈ R(n,n) bzw. A ∈ C(n,n) benutzt man auch einheitlich den Begriff selbstadjungiert. Man beachte, dass hermitesch für die Diagonalelemente ai,i ∈ R bedeutet. Mit dieser Modifikation gelten die nachfolgenden Überlegungen und Definition 2.60 ist zu erweitern zu: Definition 3.28 Seien V und W endlichdimensionale euklidische bzw. unitäre Räume. Sei Φ ∈ Hom(V, W). Die Adjungierte zu Φ, Φ† wird definiert durch D E hΦu . wi = u . Φ† w . Und analog zu Definition 2.61: Definition 3.29 Sei V ein endlichdimensionaler euklidischer bzw. unitärer Raum. 1) Φ ∈ Hom(V, V) heißt unitär, wenn Φ ein Isomorphismus ist und Φ−1 = Φ† . 2) Φ ∈ Hom(V, V) heißt hermitesch, wenn Φ = Φ† . Statt „symmetrisch“ bzw. „hermitesch“ benutzt man auch einheitlich selbstadjungiert.

380

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Dann gilt Satz 2.64 auch im Komplexen nach Ersatz von „symmetrisch“ durch „hermitesch“. Genau wie im Reellen ein Operator Φ als Φt durch das SKP „gezogen“ wird, wird im Komplexen ein Operator Φ als Φ† durch das innere Produkt gezogen. Insofern übertragen sich auch die diesbezüglichen Sätze. Als Beispiel sei dazu explizit die komplexe Variante von Satz 2.63 erwähnt: Satz 3.30: unitär = längenerhaltend Seien V und W endlichdimensionale euklidische bzw. unitäre Räume, sei Φ ∈ Hom(V, W), dann gilt: Φ ist unitär



Φ ist längenerhaltend.

D E Beweis: „⇒“ kΦxk2 = hΦx . Φxi = x . Φ† Φx = hx . xi = kxk2 „⇐“ Φ erfüllt nach Satz 3.22 hΦx . Φyi = hx . yi und damit D E Φ† Φx − x . y = 0 für alle x, y ∈ V , also

Φ† Φx = x für alle x ∈ V

wegen der Definitheit von h . i.



Bei Bemerkung 2.65 beachte man, dass (2.96) unverändert bleibt (nach Ersetzung von durch † ), verträglich mit der Form des Spezialfalls (2.57) P=

t

1 a⊗b. ha . bi

Bemerkung 3.30a Ist K = C, gilt die Aussage von Bemerkungen 2.62, 3) ohne Voraussetzung der Selbstadjungiertheit: Außer Φ = 0 gibt es also keinen linearen Operator, für den für jedes u ∈ V dieses auf Φu senkrecht steht. Für K = C gilt nämlich folgende Identität: hΦu . wi =

1 [hΦ(u + w) . u + wi − hΦ(u − w) . u − wi + i(hΦ(u + iw) . u + iwi − hΦ(u − iw) . u − iwi)], 4

so dass bei hΦu . ui = 0 für alle u ∈ V die ganze rechte Seite verschwindet, dann damit nach Bemerkungen 2.62, 2) Φ = 0 gilt.



Die Überlegungen vor Hauptsatz 2.69 (bis (2.101) ) gelten für allgemeine K-Vektorräume. Ausgenommen ist hier Bemerkung 2.66 und Beispiel 2(3). Hauptsatz 2.69 braucht dann K als Körper wegen der verwendeten Orthogonalität. Demnach:

3.3 Euklidische und unitäre Vektorräume

381

Hauptsatz 2.69I Kern-Bild-Orthogonalität Sei A ∈ K(m,n) . Dann gilt: (Kern A)⊥ = Bild A†

bzw.

Kern A = (Bild A† )⊥

(Kern A† )⊥ = Bild A

bzw.

Kern A† = (Bild A)⊥ .

und

Beweis: Es reicht, etwa die zweite Identität zu zeigen. Die Erste folgt dann durch Anwendung von ⊥ und Beachtung von U ⊥⊥ = U für endlichdimensionale lineare Unterräume U. Die Vierte und damit die Dritte ergibt sich durch Anwendung der gezeigten Aussagen auf A† . A habe die Zeilen a(1) , . . . , a(m) , d. h. Bild A† = span(a(1) , . . . , am ). Wiederholung der Argumentation von Bemerkungen 1.98, 4) ergibt: 

x ∈ Bild A† ⊥ ⇔ x . a(i) = 0 für i = 1, . . . , m n n P P  ⇔ ai, j x j = x j a(i) j = 0 für i = 1, . . . , m ⇔ x ∈ Kern A . j=1

j=1



Analog ist in Theorem 2.70 At durch A† zu ersetzen. Beispiel 3(5) wird ausgenommen, da Satz 2.72 schon zu seiner Formulierung die Ordnung (von R) braucht. In Abschnitt 2.4.2 nehmen die Normalgleichungen die Gestalt A† Ax = A† b an und mit dieser durchgehenden Modifikation von At zu A† übertragen sich alle Überlegungen zu Ausgleichsrechnung und Pseudoinversen. Dabei gilt der Isomorphiesatz 2.77 allgemein für K-Vektorräume, sofern V unitär ist. Die dann folgende Darstellung des Gauss-Verfahrens als Erzeugung einer LR-Zerlegung gilt in allgmeinen K-Vektorräumen, wenn man das bei der Darstellung der Elementarmatrizen verwendete dyadische Produkt durch das entsprechende Matrix-Vektor-Produkt ersetzt, d. h. (nur in diesem Zusammenhang!) für a ∈ K n , b ∈ K m setzt a ⊗ b := abt . Im Zusammenhang mit „Orthogonalität“ gilt somit folgende Übersetzungstabelle zwischen reellen und komplexen Vektorräumen:

382

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

reell (K = R) hx . yi = (x . y) =

a)

P

komplex (K = C) xi y i

i

hx . yi =

P i

xi y i

Symmetrisch und linear im zweiten Argument P kxk2 = x2i

Hermite-symmetrisch und antilinear im zweiten Argument P kxk2 = |xi |2

c)

a ⊗ b = abt für a ∈ Rm , b ∈ Rn

a ⊗ b = ab für a ∈ Cm , b ∈ Cn

d)

A = (ai, j) ∈ K(m,n) At := (a j,i)i, j Transponierte=Adjungierte

i

i

b) Skalarprodukt (SKP), inneres Produkt inneres Produkt euklidischer Raum unitärer Raum hx ± y . x ± yi = kxk2 + kyk2 ± 2 hx . yi hx ± y . x ± yi = kxk2 + kyk2 ± 2 Re hx . yi

e)

t

hAx . yi = x . At y orthogonal: A−1 = At symmetrisch: A = At

At : (a j,i )i, j Transponierte t A† := A Adjungierte D E hAx . yi = x . A† y unitär: A−1 = A† hermitesch: A = A†

wie d) für Φ ∈ HomR (V, W)

e) wie d) für Φ ∈ HomC (V, W)

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Inneres Produkt auf einem K-Vektorraum • Adjungierte A† • Unitäre K-Matrix, hermitesche K-Matrix

Zusammenhänge:

• Polarisationsformel ((3.23))

Aufgaben

383

Aufgaben Aufgabe 3.8 (T) Zeigen Sie: Die Normen k . k1 und k . k∞ auf Kn bzw. C([a, b], K) werden nicht durch ein inneres Produkt erzeugt. Hinweis: Gültigkeit der Parallelogrammgleichung. Aufgabe 3.9 (K) Sei V ein K-Vektorraum mit innerem Produkt h . i, k . k die erzeugte Norm. Zeigen Sie, dass h . i wie folgt durch die Norm k . k ausgedrückt werden kann: a) hx . yi = 41 (kx + yk2 − kx − yk2 ) für K = R, b) hx . yi = 41 (kx + yk2 − kx − yk2 + ikx + iyk2 − ikx − iyk2 ) für K = C.

Aufgabe 3.10 (T) Zeigen Sie Satz 3.22. Aufgabe 3.11 (T) Zeigen Sie die komplexe Version der Sherman-Morrison-Formel (A + u ⊗ u)−1 = A−1 − αu ⊗ A−† u .

384

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.4 Der Quotientenvektorraum Oft liegen Objekte in Bezug auf eine spezifische Eigenschaft nicht eindeutig vor, so dass man zusammenfassend die entstehende Menge als neues Objekt auffassen möchte. Betrachte man etwa ein lösbares LGS Ax = b mit Kern A , {0} und x als einer speziellen Lösung, so soll die Lösungsmenge x + Kern A ein solches Objekt in einem neuen Vektorraum sein. Andererseits beinhalten Vektoren oft mehr Informationen als die, an denen man interessiert ist. Ein einfaches Beispiel könnte sein: Beispiel 3.31 (Informationsreduzierung) Sei V = Rn und I ⊂ {1, . . . , n}. Zur Vereinfachung der Notation wird I = {1, . . . , k} für ein 1 < k ≤ n angenommen. Infolgedessen gilt für x ∈ V ! x′ mit x′ ∈ Rk , x′′ ∈ Rn−k . x = ′′ x Ist man nun an x′ interessiert, treten zwei Unterräume natürlich auf: U := {x ∈ Rn : x′ = 0} ,

W := {x ∈ Rn : x′′ = 0} ,

wobei W = U ⊥ bezüglich des euklidischen SKP gilt. Hier ist W der Raum der interessierenden Informationen. Der Raum U kann dagegen zur Konstruktion eines W entsprechenden (d. h. hier isomorphen) Raums genutzt werden. Dieser Raum ist zwar weniger „konkret“ als das obige W, die Konstruktion ist aber allgemein anwendbar. Der neue Raum lautet hier V/U = {x + U : x ∈ V} , dessen Elemente somit Mengen sind. Ein x + U ist demnach durch y, y˜ ∈ x + U



yi = y˜ i für alle i ∈ I

gekennzeichnet, es werden also alle Vektoren mit gleicher „relevanter“ (und verschiedener „irrelevanter“) Information zusammengefasst. ◦

3.4 Der Quotientenvektorraum

385

Diese Konstruktion lässt sich für einen beliebigen Unterraum U durchführen: Definition 3.32 Es sei U ⊂ V ein Untervektorraum des K-Vektorraums V. Wir definieren eine Relation ’∼’ auf V durch x∼y



x−y∈U .

Der Begriff der Relation und die nachfolgend betrachteten Eigenschaften sind in Anhang A (Definition A.20) eingeführt worden. Beispiel 3.33 Es sei U = R · (1, 1)t ⊂ R2 . Dann haben wir ! ! ! ! x1 y x − y1 1 =c· , ∼ 1 ⇔ 1 1 y2 x2 − y 2 x2 ⇔ x1 − y 1 = x2 − y 2

c∈R

⇔ x1 − x2 = y 1 − y 2 . ◦

1

y x

1

U

V = R2

Abb. 3.2: Geraden mit fester Steigung als Äquivalenzklassen.

Die oben definierte Relation ’∼’ ist eine Äquivalenzrelation, d. h., sie hat die Eigenschaften Reflexivität: x ∼ x für alle x ∈ V . Symmetrie: x ∼ y ⇒ y ∼ x für alle x, y ∈ V . Transitivität: x ∼ y und y ∼ z ⇒ x ∼ z für alle x, y, z ∈ V .

386

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beweis dieser drei Eigenschaften: Wegen x − x = 0 ∈ U ist die Reflexivität erfüllt. Wenn x ∼ y, dann ist x − y ∈ U und auch y − x = −(x − y) ∈ U. Das beweist die Symmetrie. Und aus x ∼ y, y ∼ z folgt x − y ∈ U, sowie y − z ∈ U, folglich x − z = (x − y) + (y − z) ∈ U. Dies ist die Transitivität. Jeder Vektor x ∈ V definiert seine Äquivalenzklasse [x] := {u ∈ V : u ∼ x} = {u ∈ V : u − x ∈ U} = x + U . Das ist der affine Unterraum x + U ⊂ V. Diese Äquivalenzklassen sind also Teilmengen von V. Der Vektor x ∈ x + U heißt ein Repräsentant seiner Äquivalenzklasse x + U. In Anhang A (Lemma A.21) wird gezeigt, dass jedes y ∈ [x] die gleiche Äquivalenzklasse hat: [y] = [x], d. h. alle Elemente von [x] sind auch seine Repräsentanten. In diesem konkreten Fall folgt dies auch aus Lemma 1.56, 1). Die Äquivalenzklassen [x] für die Relation nach Definition 3.32 werden auch Restklassen (zu x) genannt. Die Menge aller Restklassen [x], x ∈ V, bezeichnen wir mit V/U und nennen sie Quotientenraum oder Faktorraum (von V nach U ).

Satz 3.34 Sei V ein K-Vektorraum, U ein Unterraum. 1) Die Vereinigung aller Äquivalenzklassen ist der gesamte Vektorraum V. 2) Der Durchschnitt zweier verschiedener Äquivalenklassen ist leer. – Diese Aussagen gelten für beliebige Äquivalenzklassen. – 3) Auf der Menge V/U aller Restklassen kann man die Struktur eines KVektorraums definieren durch: Addition: [x] + [y] = := Multiplikation: c[x] = :=

(x + U) + (y + U) [x + y] = (x + y) + U c · (x + U) [cx] = (c · x) + U

für x, y ∈ V. für x ∈ V, c ∈ K.

Insbesondere ist [0] das neutrale Element und [−x] das inverse Element zu [x].

Beweis: Der Beweis von 1) und 2) erfolgt in Anhang A, Satz A.22. 3) Addition (und Multiplikation) der Restklassen sind repräsentantenweise definiert. Es ist zuerst zu zeigen, dass die Definition von der Wahl des Repräsentanten in der Restklasse unabhängig ist, und damit überhaupt erst sinnvoll. Seien also x′ ∈ x + U und y′ ∈ y + U weitere Repräsentanten. Dann ist x′ = x + u1 , y′ = y + u2 mit u1 , u2 ∈ U. Daraus folgt

3.4 Der Quotientenvektorraum

387

(x′ + y′ ) + U = (x + u1 + y + u2 ) + U = (x + y) + (u1 + u2 + U) = (x + y) + U. Das zeigt, dass die Addition nur von der Restklasse und nicht vom Repräsentanten abhängt. Der Beweis bei der Multiplikation geht analog. Jetzt müssten eigentlich für die so definierte Addition und Multiplikation auf der Menge V/U die Vektorraum-Eigenschaften nachgewiesen werden. Aber aus ihrer Gültigkeit für die Repräsentanten von Restklassen folgen sie auch für die Restklassen.  Satz 3.35 Die Restklassenabbildung Ψ : V → V/U,

x 7→ x + U

ist K-linear und surjektiv. Ihr Kern ist der Unterraum U.

Beweis: Dass die Abbildung K-linear ist, ist nur eine Umformulierung dessen, dass die Vektorraum-Operationen auf V/U repräsentantenweise definiert sind. Der Nullvektor im Quotientenraum V/U ist die Restklasse 0 + U = U. Der Kern der Restklassenabbildung ist deswegen die Menge aller x ∈ V mit x + U = U, d. h. x ∈ U. Die Surjektivität ist offensichtlich.  Theorem 3.36: Dimensionsformel III Ist V endlichdimensional, so hat der Quotientenraum die Dimension dim V/U = dim V − dim U .

Beweis: Weil die Restklassen-Abbildung surjektiv ist, folgt dies aus der Dimensionsformel I Theorem 2.32.  Theorem 3.37: Homomorphiesatz II V und W seien K-Vektorräume und Φ : V → W sei K-linear. Dann ist die Abbildung X : V/ Kern Φ → W ,

x + Kern Φ 7→ Φ(x)

wohldefiniert, linear und injektiv, also gibt es einen „kanonischen“ Isomorphismus V/ Kern Φ → Bild Φ ,

x + Kern Φ 7→ Φ(x).

388

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beweis: Die Abbildung X ist schon in Anhang A (Theorem A.23) definiert für eine allgemeine Abbildung f , da hier im linearen Fall x1 ∼ x2 ⇔ Φx1 = Φx2 ⇔ x1 − x2 ∈ Kern Φ . Es ist nun nur noch die Linearität von X zu prüfen: X([x] + [y]) = X([x + y]) = Φ(x + y) = Φx + Φy = X([x]) + X([y]) und analog X(λ[x]) = λX[x] Kern X = {0} : [x] ∈ Kern X ⇔ Φx = 0 ⇔ x ∈ Kern Φ ⇔ [x] = 0 .



Den Isomorphismus aus Theorem 3.37 kann man in die lineare Abbildung Φ „einschieben“, man sagt auch Φ faktorisiert vermöge Φ = X ◦ Ψ , d. h. Φ:

V → V/ Kern Φ

Mit anderen Worten: Das Diagramm V

∼ →

Bild Φ ⊂ W.

Φ W

Ψ surjektiv

X injektiv V/U

ist kommutativ. Bemerkungen 3.38 1) Aus Theorem 3.36 und Theorem 3.37 ergibt sich die in Theorem 2.32 anders hergeleitete Dimensionsformel I: dim Kern Φ + dim Bild Φ = dim V für Φ ∈ HomK (V, W) und endlichdimensionales V, denn dim Bild Φ = dim V/ Kern Φ = dim V − dim Kern Φ . In diesem Sinn sind die beiden Dimensionsformeln I und III äquivalent. 2) Für endlichdimensionale Vektorräume V gibt es bei einem Unterraum U eine Analogie zwischen V/U und der Ergänzung von U (durch Ergänzung einer Basis von U zu einer Basis von V) mit einem Unterraum W, so dass U ⊕W =V . In beiden Fällen gilt die Dimensionsformel

3.4 Der Quotientenvektorraum

389

dim U + dim V/U = dim V

bzw.

dim U + dim W = dim V .

3) Wenn V ein endlichdimensionaler R-Vektorraum mit SKP ist, dann gilt: Die Abbildung Φ : V → W definiert durch Einschränkung einen Isomorphismus ϕ = Φ|(Kern Φ)⊥ : (Kern Φ)⊥ → Bild Φ. Die Restklassenabbildung Ψ : V → V/ Kern Φ definiert durch Einschränkung eine lineare Abbildung (Kern Φ)⊥ → V/ Kern Φ. Wegen (Kern Φ)⊥ ∩ Kern Φ = {0} ist diese injektiv. Weil beide Räume nach 2) dieselbe Dimension haben, ist sie auch surjektiv, sie ist also ein Isomorphismus. Man kann sich in Übereinstimmung mit 2) den Unterraum (Kern Φ)⊥ ⊂ V als eine andere Realisierung des Quotientenraums V/ Kern Φ vorstellen. Für das Beispiel 3.31 (Informationsreduzierung) erhalten wir daher dim V/U = n − dim U = n − (n − k) = k = dim W und damit sind tatsächlich V/U und W isomorph. 4) Rest- oder Nebenklassen wie in Definition 3.32 ff. kann man auch in einer Gruppe bezüglich einer Untergruppe bilden. Damit eine Addition wie in Satz 3.34, 3) wohldefiniert ist, muss die Untergruppe normal sein. Analoges gilt für Ringe mit Eins, wenn die Äquivalenzrelation bezüglich eines Ideals (siehe Satz B.23) gebildet wird. 5) Sei K ein endlicher Körper mit Char K = p. Dann gibt es ein n ∈ N, so dass #(K) = pn .

Man betrachte den Ringhomomorphismus ϕ : Z → K nach Bemerkungen 3.10, 3). Dann ist Kern(ϕ) ein Ideal und nach dem in 4) angedeuteten Homomorphiesatz K = Bild(ϕ) ringisomorph zu Z/ Kern(ϕ) und Kern(ϕ) = pZ, also ist ein Unterkörper von K körperisomorph zu F p (sein Primkörper). Insbesondere ist K über F p ein F p -Vektorraum, dessen Dimension endlich - etwa n - ist, und der wegen K endlich ist. Nach Bemerkungen 3.16, 1) ist also #(K) = #(F p )n = pn .



Das folgende Beispiel ist nur das Beispiel 3.31 (Informationsreduzierung) in anderem Gewande: Beispiel 3.39 (Unterbestimmte Polynominterpolation) Sei V = Rn−1 [x], d. h. die Menge der Polynome maximal (n − 1)-ten Grades auf R, und es seien Stützstellen t1 < t2 < . . . < tn−k für k ∈ −N ∪ {0, . . . , n − 1} gegeben. Ist k = 0, ist die Interpolationsaufgabe (siehe Bemerkung 2.34) an den Stützstellen eindeutig lösbar. Ist k < 0, wird im Allgemeinen keine Lösung vorliegen und man wird daher zum Ausgleichsproblem übergehen müssen (siehe Beispiel 2.75 und Beispiel 2.74). Für k > 0, d. h. der unterbestimmten Interpolationsaufgabe, liegt keine eindeutige Lösung vor.

390

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Um die Lösungen zu Restklassen zusammenzufassen, definieren wir den Unterraum U von V durch U := {g ∈ V : g(ti ) = 0 für i = 1, . . . , n − k} . Dann gilt für [ f ] ∈ V/U f˜ ∈ [ f ] ⇔ f˜(ti ) = f (ti )

für i = 1, . . . , n − k ,

d. h. [ f ] ist gerade die Lösungsmenge zu den Werten f (t1 ), . . . , f (tn−k ). Um dim U zu bestimmen ergänzen wir die Stützstellen beliebig um tn−k+1 , . . . , tn , so dass alle Stützstellen paarweise verschieden sind. Eine Basis von U ist dann durch gn−k+1 , . . . , gn ∈ U gegeben, die als eindeutige Lösung der Interpolationsaufgabe gi (t j ) = 0 gi (t j ) = δi j

für j = 1, . . . , n − k, für j = n − k + 1, . . . , n

definiert werden. Dann gilt nämlich wegen der eindeutigen Lösbarkeit der Interpolationsaufgabe in Rn−1 [x] zu den Stützstellen t1 , . . . , tn (siehe Bemerkung 2.34) für g ∈ U: ! n n P P g= αi gi ⇔ g(t j ) = αi gi (t j ) für alle j = 1, . . . , n i=n−k+1

i=n−k+1

⇔ g(t j ) = α j für alle j = n − k + 1, . . . , n ,

d. h. {gn−k+1 , . . . , gn } ist eine Basis von U. Nach Theorem 3.36 gilt also dim V/U = dim V − dim U = n − k .



Oft ist es notwendig, auch unendlichdimensionale Vektorräume zu betrachten, insbesondere in der Analysis: *Beispiele 3.40 1) Als Beispiel betrachten wir den R-Vektorraum V der auf einem Intervall [a, b] ⊂ R Riemann-integrierbaren Funktionen. Für je zwei Funktionen f, g ∈ V ist auch ihr Produkt f · g auf [a, b] Riemann-integrierbar (z. B. Forster 2008, §18, Satz 6c). Deswegen ist für f, g ∈ V ( f . g) :=

Z

b

f (x)g(x)dx a

wohldefiniert. In Bemerkung 1.90 wurde diese Form auf dem Raum der stetigen Funktionen C([a, b], R) als SKP eingeführt. In dem hier betrachteten größeren Funktionenraum gelten weiterhin Symmetrie und Bilinearität, aber es fehlt die Definitheit: Aus

3.4 Der Quotientenvektorraum

391

(f . f) =

Z

b

f (x)2 dx = 0

a

folgt nicht f ≡ 0. Deswegen ist k f k :=

s

Z

b

f (x)2 dx

a

auch keine Norm auf V, sondern eine sogenannte Halbnorm. 2) Die Menge aller Funktionen f ∈ V mit k f k = 0 bildet einen Untervektorraum U ⊂ V.

Wir zeigen dies in einer abstrakten Situation: Diese Aussage gilt auch allgemein. Sei V ein R-Vektorraum, p : V → R eine Halbnorm auf V, d. h. p(x + y) ≤ p(x) + p(y) p(λx) = |λ|p(x) p(x) ≥ 0

für x, y ∈ V für x ∈ V, λ ∈ R für x ∈ V ,

dann ist U := {x ∈ V : p(x) = 0} ein Unterraum von V.

Wegen p(0) = p(0 · 0) = 0p(0) = 0 ist 0 ∈ U und für x, y ∈ U folgt 0 ≤ p(x + y) ≤ p(x) + p(y) = 0, also x + y ∈ U, p(λx) = |λ|p(x) = 0, also λx ∈ U .

3) Wir betrachten den Quotientenvektorraum V/U und schreiben seine Elemente, die Restklassen, als [g] := g + U . Wenn gi1 , gi2 für i = 1, 2 Funktionen in derselben Restklasse sind, dann ist         g11 . g12 − g21 . g22 = g11 . g12 − g22 − g21 − g11 . g22 = 0, da g12 − g22 , g21 − g11 ∈ U . Deswegen können wir auf dem Quotientenraum V/U

([g1 ] . [g2]) := (g1 . g2 ) repräsentantenweise definieren, die Zahl ([g1 ] . [g2]) ist unabhängig von der Auswahl der Repräsentanten in [g1 ] und [g2 ] ∈ V/U. Weil ([g1 ] . [g2 ]) repräsentantenweise definiert ist, ist dieses Produkt weiterhin symmetrisch und bilinear, und hier gilt auch die Definitheit: Sei [g] ∈ V/U mit ([g] . [g]) = 0. Nach Definition ist dann g ∈ U und [g] = 0. Insbesondere wird durch p k[g]k := ([g] . [g]) eine Norm auf dem Quotientenraum V/U definiert. Allgemein lässt sich in der abstrakten Situation in 2) eine Norm auf W := V/U durch kx + Uk := p(x) für x ∈ V

392

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

definieren. Wegen kx+Uk = 0 ⇔ x ∈ U ⇔ x+U = U und der von p ererbten Homogenität und Dreiecksungleichung erfüllt k.k die Normeigenschaften, sofern die Wohldefinition sichergestellt ist: Sei x + U = y + U , d. h. x − y ∈ U und damit kx + Uk = p(y + x − y) ≤ p(y) + p(x − y) = ky + Uk und durch Vertauschung schließlich kx + Uk = ky + Uk. Damit der Funktionenraum mit dem SKP ( . ) bzw. der erzeugten Norm k . k weitere positive Eigenschaften hat (insbesondere die Vollständigkeit: siehe Abschnitt 7.1), wird in der Analysis im Allgemeinen statt der Riemann-Integration der allgemeinere Begriff der Lebesgue4 -Integration verwendet. Die obige Form ( . ) ist dann für Funktionen f wohldefiniert, für die | f |2 (Lebesgue-) integrierbar ist. Dieser Raum wird für K-wertige Funktionen als  L2 [a, b], K ,

der Raum der quadratintegrierbaren Funktionen, bezeichnet. Auch hier muss (implizit) die obige Quoti entenbildung gemacht werden, damit durch (1.61) bzw. (1.64) auf L2 [a, b], K ein SKP bzw. eine Norm gegeben wird.



Zur weiteren Behandlung unendlichdimensionaler Räume verallgemeinern wir Theorem 3.36: *Satz 3.41 Sei V ein K-Vektorraum, U ⊂ V ein Unterraum. Sei [ui : i ∈ I] eine Basis von U, [u j + U : j ∈ J] eine Basis von V/U, dann ist B := [ui , u j : i ∈ I, j ∈ J] eine Basis von V. Insbesondere gibt es also zu U einen Unterraum W (W := span{u j : j ∈ J}), so dass U ⊕ W = V.

Beweis: Sei u ∈ V beliebig, dann existiert ein endliches J ′ ⊂ J und a j ∈ K für j ∈ J ′ , so dass   X X X  u+U = a j (u j + U) =  a j u j  + U ⇔ u − a ju j ∈ U . (3.27) j∈J ′

j∈J ′

j∈J ′

Damit gibt es ein endliches I ′ ∈ I und bi ∈ K für i ∈ I ′ , so dass X X u− a ju j = bi ui . j∈J ′

i∈I ′

Demnach ist B ein Erzeugendensystem von V. Sei andererseits X X 0= a ju j + bi ui j∈J ′

4

i∈I ′

Henri Léon Lebesgue ∗28. Juni 1875 in Beauvais †26. Juli 1941 in Paris

(3.28)

3.4 Der Quotientenvektorraum

393

für endliche J ′ ⊂ J, I ′ ⊂ I und a j , bi ∈ K. Dann ist 0 − folglich

0+U =

X

P

j∈J ′

a j u j ∈ U und nach (3.27)

a j (u j + U) .

j∈J ′

Wegen der linearen Unabhängigkeit der u j + U ist a j = 0 für j ∈ J ′ und damit aus (3.28) wegen der linearen Unabhängigkeit der ui auch bi = 0 für i ∈ I ′ . Damit ist B linear unabhängig.  Der Vorteil des Faktorraums liegt darin, dass er auch bei unendlichdimensionalem Grundraum gebildet werden kann. Insofern ist eine Verallgemeinerung von (1.51) in Bemerkungen 1.84 (siehe Bemerkungen 3.38, 2)): *Definition 3.42 Sei V ein K-Vektorraum und U ⊂ V ein Unterraum. Dann heißt dim V/U die Kodimension von U, geschrieben codim U. Ist codim U = 1, so heißt U eine Hyperebene. Sei U eine Hyperebene in einem im Allgemeinen unendlichdimensionalen Vektorraum, d. h. V/U = span(w + U) für ein w < U. Dann gilt U ∩ span(w) = {0},

U + span(w) = V,

da für beliebiges u ∈ V u + U = λw + U für ein λ ∈ K,

also

u − λw = u für ein u ∈ U .

Insgesamt gilt somit: Falls dim V/U = 1, existiert ein w ∈ V, so dass U ⊕ Kw = V , wie im endlichdimensionalen Fall. Ist allgemein dim V/U = k, dann gibt es w1 , . . . , wk ∈ V, so dass U ⊕ span(w1 , . . . , wk ) = V , da für eine Basis w1 + U, . . . , wk + U von V/U und für u ∈ V gilt u+U =

k X i=1

λi wi + U

und damit u ∈ U + span(w1 , . . . , wk ) .

(3.29)

394

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Ist andererseits

k P

i=1 k X

λi wi ∈ U, dann ist

λi (wi + U) = U = 0 + U

und somit λ1 = . . . = λk = 0 .

i=1

Es gilt weiter: *Satz 3.43 Seien V ein K-Vektorraum und U ⊂ V ein Unterraum. Ist codim U = k ∈ N, dann gibt es Hyperebenen W j , j = 1, . . . , k, so dass U=

k \

Wj .

j=1

Beweis: Seien {u1 + U, . . . , uk + U} eine Basis von V/U und V j := span(u1 , . . . , u j−1 , u j+1 , . . . , uk ),

W j := span(U ∪ V j ).

Dann ist W j = U + V j = U ⊕ V j , da k X

i=1,i, j

λi ui ∈ U



k X

λi (ui + U) = U

i=1,i, j



λi = 0 für i , j .

Somit ist  V/W j = span u j + (U + V j ) .

Denn wegen Satz 3.41 lässt sich ein beliebiges u ∈ V schreiben als u= u+

k X i=1

µi ui

mit einem u ∈ U

und µ1 , . . . , µk ∈ K ,

und dann sind äquivalent: w ∈ u + U + Vj w−

X i, j

λi ui ∈

k X i=1

µi ui + U

X

λi ui + U



w∈ u+



w ∈ µ j u j + U + V j = µ j (u j + U + V j ) .

Offensichtlich gilt weiter für die Hyperebenen W j

i, j



3.4 Der Quotientenvektorraum

395 k \



W j = U.

j=1

In Vorgriff auf Definition 3.46 sind daher Hyperebenen Kerne von nicht trivialen Linearformen ϕ, d. h. ϕ ∈ V ∗ : *Satz 3.44 Sei V ein K-Vektorraum, U ⊂ V ein Unterraum.

1) Sei ϕ ∈ V ∗ , ϕ , 0, dann ist

codim Kern ϕ = 1 . 2) Ist codim U = 1, dann existiert ein ϕ ∈ V ∗ , ϕ , 0, so dass U = Kern ϕ . 3) Ist codim U = k ∈ N, dann gibt es ϕi ∈ V ∗ , i = 1, . . . , k, ϕi , 0, so dass U=

k \

Kern ϕi .

i=1

Beweis: Zu 1): Folgt sofort aus Theorem 3.37, da dimK Bild ϕ = dimK K = 1. Zu 2): Nach (3.29) gilt U ⊕ Kw = V und damit ist ϕ : V → K durch ϕ(U + λw) := λ wohldefiniert und ϕ ∈ V ∗ , für das gilt Kern ϕ = U . Zu 3): Folgt sofort aus 2) und Satz 3.43.



Man betrachte als

Rb *Beispiel 3.45 V = C([a, b], R) und ϕ ∈ V ∗ , definiert durch ϕ( f ) := a f (s)ds. Dadurch erfüllt Z b Z b g(s)ds . g˜ (s)ds = [g] ∈ V/ Kern ϕ gerade g˜ ∈ [g] ⇔ a

a

396

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Nach Satz 3.44, 1) ist dim V/ Kern ϕ = 1 . Durch Übergang zum Quotientenraum wird deswegen genau ein Freiheitsgrad „herausgenommen“. Das bietet sich bei Betrachtung eines Problems (z. B. einer Differentialgleichung) an, bei dem die Lösungen nur bis auf eine Konstante bestimmt sind. ◦

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Äquivalenzrelation • Quotientenraum, Restklassen • Kodimension (bei unendlichdimensionalem Grundraum)

Zusammenhänge

• Dimensionsformel III (Theorem 3.36) • Homomorphiesatz II (Theorem 3.37)

Beispiele

• Informationsreduktion durch Restklassenbildung • Definitheit des L2 -Skalarprodukts ((1.61)) durch Restklassenbildung

Aufgaben

397

Aufgaben Aufgabe 3.12 (T) Es sei V ein K-Vektorraum mit einer Basis u1 , . . . , un und U ⊂ V der von u1 +. . .+un erzeugte Unterraum. Bestimmen Sie eine Basis des Quotientenraums V/U. Aufgabe 3.13 (T) Es seien U, U ′ lineare Unterräume eines Vektorraums V und x, x′ ∈ V. Man zeige: x + U ⊂ x′ + U ′

⇐⇒

U ⊂ U ′ und x′ − x ∈ U ′ .

Aufgabe 3.14 (K) Sei U ⊂ R4 der Untervektorraum des R4 , der von den Vektoren u1 = (1, 2, −1, 1)t und u2 = (−1, −2, 1, −2)t erzeugt wird, und V ⊂ R4 der Untervektorraum des R4 , der von u1 = (1, 2, −1, −2)t, u2 = (−1, 3, 0, −2)t und u3 = (2, −1, −1, 1)t erzeugt wird. Zeigen Sie, dass U ein Untervektorraum von V ist, und geben Sie eine Basis des Raums V/U an. Aufgabe 3.15 (K) Es sei V der R-Vektorraum aller Funktionen f : R → R und U die Teilmenge { f : R → R : f (0) = 0} ⊂ V . a) Zeigen Sie: U ⊂ V ist ein Untervektorraum. b) Geben Sie einen Isomorphismus V/U → R an.

398

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.5 Der Dualraum Definition 3.46 Sei V ein K-Vektorraum. Eine lineare Abbildung ϕ:V →K von V in den Grundkörper K heißt Linearform. Der Vektorraum HomK (V, K) der Linearformen auf V heißt der Dualraum V ∗ von V. Für ϕ ∈ V ∗ , ϕ , 0 gilt: Bild ϕ = K , da K nur die K-Unterräume {0} und K besitzt. Nach Satz 3.44, 1) ist somit dim V/ Kern ϕ = 1. Daher beschreibt ein ϕ ∈ V ∗ , ϕ , 0, gerade einen „Freiheitsgrad“, der n Freiheitsgrade von V (falls V n-dimensional ist) bzw. der unendlich vielen Freiheitsgrade von V (falls V unendlichdimensional ist). Beispiele 3.47 1) Sei V der Raum K n der Spaltenvektoren x = (x1 , . . . , xn )t , xk ∈ K. Die i-te Koordinatenfunktion ϕi : x 7→ xi

(3.30)

ist eine Linearform auf V. Man kann ϕi auch schreiben als Matrizenprodukt    x1    ϕi (x) = xi = (0, . . . , 0, 1, 0, . . . , 0)  ...    xn

des Zeilenvektors eti = (0, . . . , 0, 1, 0, . . . , 0) mit x ∈ K n . Allgemeiner definiert jeder Zeilenvektor at = (a1 , . . . , an ) auf V eine Linearform ϕ    x1  X n   t x 7→ a · x = (a1 , . . . , an ) ·  ...  = a k xk .   1 xn

(3.31)

P P Es ist at · x = n1 ak xk = n1 ak ϕk (x) und ai = ati · ei = ϕ(ei ). Andererseits hat jedes ϕ ∈ V ∗ die Form (3.31) mit ai := ϕ(ei ), denn

3.5 Der Dualraum

399

 n  n X  X  ϕ(x) = ϕ  xi ei  = ϕ(ei )xi = at · x . i=1

i=1

2) Konkretisierungen von 1) sind mit 1t = (1, . . . , 1) ϕ(x) =

n X i=1

xi = 1t · x

(die Summe, siehe Mathematische Modellierung 2),

und für K = K 1 1X xi = 1t · x n i=1 n n

ϕ(x) =

(das arithmetische Mittel, siehe Bemerkung 2.66).

3) Sei V = C([a, b], R), d. h. ein unendlichdimensionaler R-Vektorraum. Analog zu (3.30) sind die Punktfunktionale ϕt : f 7→ f (t)

für t ∈ [a, b]

Elemente aus V ∗ . Daraus lässt sich zum Beispiel die näherungsweise Integralformel aus Bemerkung 2.30 durch Linearkombination zusammensetzen, nicht aber (auf dem ganzen Raum V) das Beispiel ϕ : f 7→

Z

b

f (s)ds .

(3.32)

a

Dies geht nur mit einem Grenzprozess, erinnert man sich an die Definition des (Riemann-)Integrals. ◦ Pn n Wir betrachten wieder V = K und die Koordinatenfunktionen ϕk . Durch a 7→ 1 ak ϕk wird eine Abbildung von V nach V ∗ definiert, die auch linear ist, d. h. ein FV ∈ HomK (V, V ∗ ) . Identifizieren wir FV (a) mit der darstellenden Zeile at , bedeutet diese Vorgehensweise: Die Transposition von (Spalten-)Vektoren aus K n erzeugt einen linearen Isomorphismus FV : K n → (K n )∗ , a 7→ at . Nach Beispiele 3.47, 1) ist FV surjektiv. Wegen dim(K n )∗ = dim HomK (V, K) = n · 1 = n nach Theorem 2.24 ist also FV nach Hauptsatz 2.31 ein Isomorphismus von K n nach (K n )∗ .

Analog kann man vorgehen, wenn V ein euklidischer Vektorraum mit innerem Produkt h . i ist. Dann wird für festes a ∈ V durch x 7→ hx . ai

400

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

eine lineare Abbildung auf V mit Werten in R, d. h. ein Element ϕ a ∈ V ∗ , definiert. Weiter ist die Abbildung a 7→ ϕ a auch linear, somit ein FV ∈ HomR (V, V ∗ ). FV ist injektiv, da ϕ x = 0 ⇒ hx . xi = ϕ x (x) = 0 ⇒ x = 0 . Ist V endlichdimensional, dann ergibt sich identisch zur obigen Überlegung, dass FV ein Isomorphismus ist. Damit gilt: Theorem 3.48: Riesz5 scher Darstellungssatz, 1.Version Sei (V, h . ii ein endlichdimensionaler euklidischer Raum. Sei ϕ ∈ V ∗ . Dann gibt es ein eindeutiges a ∈ V, so dass ϕ(x) = hx . ai

für alle x ∈ V .

Die Zuordnung a 7→ h. . ai ist ein Isomorphismus von V nach V ∗ . Bemerkungen 3.49 1) Ist V ein unitärer Raum (K = C), so kann genauso vorgegangen werden, nur dass dann FV antilinear ist. Die dann auch gültige Tatsache, dass FV ein Isomorphismus ist, muss anders bewiesen werden. Theorem 3.48 gilt daher auch für K = C und, falls man sich auf stetige, lineare Funktionale beschränkt, auch für gewisse unendlichdimensionale Vektorräume (die bezüglich der erzeugten Norm vollständig, d. h. Hilbert-Räume 6 sind: siehe Abschnitt 7.3.1 oder (Funktional-)Analysis). 2) Für einen endlichdimensionalen euklidischen Raum (V, h . i) ist demnach ϕ(x) = hx . ai die allgemeine Gestalt für ein ϕ ∈ V ∗ . Wegen |ϕ(x)| ≤ kxk kak in der erzeugten Norm k . k und ϕ(a) = kak2 ,

ϕ(−a) = −kak2

ist deswegen a [−a] die Richtung des steilsten Anstieges [Abstieges] von ϕ bezogen auf den Anfangspunkt 0 und damit auf einen beliebigen Anfangspunkt. *3) Da zu jedem Vektorraum der Dualraum V ∗ gebildet werden kann, kann auch V ∗∗ := (V ∗ )∗ , der Bidualraum ,

5 6

Frigyes Riesz ∗22. Januar 1880 in Gy˝or †28. Februar 1956 in Budapest David Hilbert ∗23. Januar 1862 in Königsberg (Preußen) †14. Februar 1943 in Göttingen

3.5 Der Dualraum

401

betrachtet werden. Es gibt eine natürliche lineare Einbettung E : V → V ∗∗ u 7→ ψu , wobei ψu ∈ V ∗∗ das zu u gehörige Auswertungsfunktional ist, definiert durch ψu (ϕ) = ϕ(u)

für ϕ ∈ V ∗ .

E ist injektiv, da ψu = 0



ϕ(u) = 0 für alle ϕ ∈ V ∗



u=0.

In der letzten Äquivalenz beachte man für „⇒“: Wäre u , 0, dann lässt sich V nach Satz 3.41 schreiben e und damit ein ϕ ∈ V ∗ definieren, so dass ϕ , 0 durch ϕ(u) = 1, ϕ|e = 0. als V = Ku ⊕ V V

Folglich ist immer

dim V ≤ dim V ∗∗ . Ist V unendlichdimensional, ist E i. Allg. nicht surjektiv. Ist aber V endlichdimensional, dann ist E immer ein Isomorphismus wegen dim V = dim V ∗ = dim V ∗∗ .

(3.33)

Identifiziert man auf dieser Basis V und V ∗∗ , bedeutet dies die Gleichsetzung von u ∈ V und dem Auswertungsfunktional ϕ 7→ ϕ(u) aus V ∗∗ . Ist (V, h . i) ein endlichdimensionaler Raum, so gilt E(u)ϕ = ϕ(u) = hu . ai für ϕ = h. . ai ∈ V ∗ .



Satz 3.50: Dualbasis Sei V ein n-dimensionaler K-Vektorraum. Sei u1 , . . . , un ∈ V eine Basis. Dann gibt es Linearformen ϕ1 , . . . , ϕn ∈ V ∗ , eindeutig bestimmt durch die Eigenschaft ϕi (uk ) = δi,k .

(3.34)

Die Linearformen ϕ1 , . . . , ϕn bilden eine Basis von V ∗ , die sogenannte Dualbasis zur Basis u1 , . . . , un ∈ V.

Beweis: Durch (3.34) werden ϕi ∈ V ∗ eindeutig definiert nach Hauptsatz 2.23. Für ϕ ∈ V ∗ gilt:

402

ϕ=

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen n X i=1

αi ϕi ⇔ ϕ(u j ) =

n X i=1

αi ϕi (u j ) ⇔ ϕ(u j ) =

n X

αi δi, j = α j

für alle j = 1, . . . , n .

i=1

Damit ist jedes ϕ ∈ V ∗ eindeutig als Linearkombination der ϕi darstellbar, mit n P

ϕ(ui )ϕi ,

(3.35)

d. h. {ϕ1 , . . . , ϕn } ist Basis von V ∗ . P Für u ∈ V, u = nj=1 α j u j gilt sodann ϕi (u) = αi , d. h.



ϕi (u)ui .

(3.36)

ϕ=

i=1

u=

n P

i=1

Das i-te Element der dualen Basis ordnet gerade den Koeffizient zum i-ten Basisvektor zu, beschreibt also in diesem Sinn – bei gegebener Basis u1 , . . . , un – den i-ten Freiheitsgrad . Beispiele 3.51 1) Für V = S 0 (∆) oder V = S 1 (∆) oder V = Rn−1 [x] liegen mit den Treppen- bzw. Hut- bzw. den Lagrangeschen Basispolynomen (siehe (1.27) bzw. (1.37) bzw. (2.31)) Basisfunktionen fN , . . . , fN vor, die für feste Stützstellen ti , i = N, . . . , N, erfüllen: fi (t j ) = δi, j

für i, j = N, . . . , N .

(Bei S 0 (∆) : N = 0, N = n − 1 etc.) Für f ∈ V sind infolgedessen die eindeutigen Koeffizienten, so dass f =

N X

αi fi ,

durch αi = f (ti ) definiert.

i=N

Daher ist die zugehörige duale Basis jeweils gegeben durch ϕi ( f ) := f (ti ) für

f ∈V,

d. h. durch das zur Stützstelle gehörige Punktfunktional. Bei diesen Basen sind also die Funktionswerte an den Stützstellen die Freiheitsgrade. 2) Für V = Rn−1 [x], nun aber mit der Monombasis fi (t) := ti ,

i = 0, . . . , n − 1,

ergibt sich für die duale Basis ϕi ( f ) :=

1 di f |t=0 , i! dti

i = 0, . . . , n − 1 ,

3.5 Der Dualraum

403

Hier bezeichnet der Ausdruck auf der rechten Seite bis auf den Faktor der i-ten Ableitung bei t = 0. Denn es ist    1 di j 1 für i = j (t )| = ϕi ( f j ) =  t=0  0 für i , j . i! dti

1 i!

die Auswertung

3) Die Darstellung eines beliebigen Funktionals ϕ ∈ V ∗ nach (3.35) nimmt für Beispiel 1) die folgende Form an: ϕ( f ) =

n X

ϕ( fi ) f (ti ) .

i=1

Für ϕ nach (3.32) erhalten wir die auf den jeweiligen Räumen exakten Quadraturformeln (siehe Bemerkung 2.30). 4) Für Beispiel 2) nimmt (3.35) die Form ϕ( f ) =

n−1 X i=0

ϕ( fi )

1 di f |t=0 i! dti

(3.37)

an. Sei t ∈ [a, b] beliebig, fest gewählt. Für ϕ ∈ V ∗ , definiert durch ϕ( f ) = f (t) , ist dann (3.37) die für Polynome (n − 1)-ten Grades exakte Taylor7 -Entwicklung der Stufe n − 1 um t = 0, ausgewertet bei t. Für ϕ nach (3.32) ergibt sich eine Darstellung der auf Rn−1 [x] exakten Quadraturformeln mit bei t = 0 konzentrierten Freiheitsgraden. 5) Sei K = K, V = Kn , u1 , . . . , un eine Basis von V. Die zugehörige Dualbasis ϕi ∈ V ∗ ist nach Theorem 3.48, Theorem 7.53 eindeutig gegeben als ϕi (u) = hu . ai i und damit lautet die ϕi bzw. ai bestimmende Bedingung ati u j = δi, j ,

i, j = 1, . . . , n

d. h. [u1 , . . . , un ] und [a1 , . . . , an ] sind biorthogonal (siehe Bemerkungen 1.98, 5)) bzw. für A ∈ K(n,n) mit den Zeilen ati : Au j = e j ,

für j = 1, . . . , n

bzw. A = (u1 , . . . , un )−† . Ist also u1 , . . . , un eine ONB, dann 7

Brook Taylor ∗18. August 1685 in Edmonton †29. Dezember 1731 in Somerset House

404

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

A = (u1 , . . . , un ) . Dies gilt analog für einen n-dimensionalen unitären Raum mit ONB u1 , . . . , un .



Definition 3.52 Seien V, W endlichdimensionale K-Vektorräume. Jedes Φ ∈ Hom(V, W) definiert eine duale Abbildung in Hom(W ∗ , V ∗ ) ( ∗ W → V∗ Φ∗ : . ϕ 7→ ϕ ◦ Φ In Symbolen:

Φ V

W ϕ ∈ W∗

Φ∗ ϕ = ϕ ◦ Φ K

Bemerkung 3.53 Insbesondere kann auch Φ∗∗ : V ∗∗ → W ∗∗ gebildet werden. Sind V, W endlichdimensional und V ∗∗ , W ∗∗ mit ihnen identifiziert nach Bemerkungen 3.49, 2), dann gilt auch im Sinne dieser Identifizierung Φ∗∗ = Φ , da für Φ∗∗ dann gilt: ϕu 7→ ϕΦ(u) .



Sind V und W endlichdimensionale unitäre Vektorräume, dann gibt es nach Theorem 3.48 (vorerst nur K = R) die Darstellungsisomorphismen FV : V → V ∗ , FW : W → W ∗ ,

u 7→ h. . ui , w 7→ h. . wi

(in der Notation der inneren Produkte wird nicht unterschieden). −1 Etwa für ein ϕ ∈ W ∗ ist somit FW (ϕ) ∈ W der darstellende Vektor, d. h. D E −1 ϕ(w) = w . FW (ϕ) .

Sei ϕ ∈ W ∗ beliebig. Aus Φ∗ (ϕ)(u) = ϕ(Φ(u)) für alle u ∈ V folgt D E D E D E −1 −1 Φ∗ (ϕ)(u) = Φ(u) . FW (ϕ) ⇒ u . FV−1 Φ∗ (ϕ) = Φ(u) . FW (ϕ)

3.5 Der Dualraum

405

und damit D E hΦ(u) . wi = u . (FV−1 Φ∗ FW )(w)

−1 für w := FW (ϕ) ∈ W, das beliebig ist, da ϕ ∈ W ∗ beliebig ist, und alle u ∈ V. Vergleich mit Definition 2.60 zeigt, dass demnach

FV−1 Φ∗ FW = Φ†

(3.38)

bzw. Φ∗ ◦ FW = FV ◦ Φ† . (3.38) lässt sich äquivalent (und suggestiver) ausdrücken durch: Satz 3.54: duale ↔ adjungierte Abbildung Seien V und W endlichdimensional unitäre Vektorräume, Φ ∈ Hom(V, W). Sei FV : V → V ∗ der Isomorphismus nach Theorem 3.48 und analog FW . Dann ist das folgende Diagramm kommutativ: V

Φ†

W FW

FV V∗

W∗

Φ∗

Identifiziert man daher einen unitären Raum V mittels FV mit V ∗ , so sind Φ† und Φ∗ identisch. Satz 3.55: Darstellung von Φ∗ mit Dualbasis Sei V ein m-dimensionaler und W ein n-dimensionaler K-Vektorraum. Es seien Basen u1 , . . . , um ∈ V

und

w1 , . . . , wn ∈ W

festgehalten mit den zugehörigen Dualbasen ϕ1 , . . . , ϕm ∈ V ∗

und

ψ1 , . . . , ψn ∈ W ∗ .

Weiter sei Φ : V → W eine lineare Abbildung. Ist A ∈ K (n,m) die beschreibende Matrix für Φ bezüglich der Basen u1 , . . . , um und w1 , . . . , wn , dann ist die transponierte Matrix At ∈ K (m,n) die beschreibende Matrix für die duale Abbildung Φ∗ : W ∗ → V ∗ bezüglich der Dualbasen.

406

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beweis: Es sei A = (aν,µ ) ∈ K (n,m) die Matrix für Φ und B = (bµ,ν ) ∈ K (m,n) die Matrix für Φ∗ . Dann ist Φ(uk ) =

n X

aν,k wν ,

Φ∗ (ψl ) =

ν=1

m X

bµ,l ϕµ

µ=1

und bk,l

 m   n  X  X  ∗   =  bµ,l ϕµ  (uk ) = (Φ (ψl ))(uk ) = ψl (Φ(uk )) = ψl  aν,k wν  = al,k , µ=1

ν=1

also wie behauptet B = At .



Dies ist nicht im Widerspruch zu Bemerkungen 2.62, 1) (für K = C), sondern impliziert dies vielmehr, da dann die Zuordnung u 7→ ϕu := h. . ui antilinear ist, also erfüllt α1 ϕu1 + α2 ϕu2 = ϕα1 u1 +α2 u2 : P P Sei in der Notation von Satz 3.55 Φui = nj=1 a j,i w j und so Φ∗ ψi = nj=1 ai, j ϕu j , so gilt für unitäre Räume und ONB B1 := {u j : j = 1, . . . , m} bzw. B2 := {wi P:= 1, . . . , n}: Φ† wi = (FV−1 Φ∗ FW )wi = −1 ∗ −1 Pn FV (Φ (h. . wi i)) = FV ( j=1 ai, j ϕu j ) = FV−1 (ϕw ) = w, wobei w = nj=1 ai, j u j und damit ist B1 [Φ† ]B2 = A† .

Aus (2.17) und Rang(A) = Rang(At ) erhält man eine einfache Folgerung, die aus der Definition von Φ∗ zunächst keineswegs einsichtig ist: Korollar 3.56 Für jede lineare Abbildung Φ zwischen endlichdimensionalen Vektorräumen gilt dim Bild Φ = dim Bild Φ∗ .

Bemerkung 3.57 Unmittelbar aus der Definition ergeben sich die folgenden Rechenregeln: (Ψ ◦ Φ)∗ = Φ∗ ◦ Ψ ∗ (id)∗ = id (Φ−1 )∗ = (Φ∗ )−1 . Das kann man sich wie folgt klarmachen: Seien Φ : V → W und Ψ : W → U linear. Für alle f ∈ U ∗ ist dann (Ψ ◦ Φ)∗ ( f ) = f ◦ Ψ ◦ Φ = Φ∗ ( f ◦ Ψ ) = Φ∗ (Ψ ∗ ( f )).

Natürlich ist (id)∗ ( f ) = f ◦ id = f für alle Linearformen f und deswegen (id)∗ = id. Wenn Φ−1 existiert, dann ist Φ−1 ◦ Φ = id und deswegen Φ∗ ◦ (Φ−1 )∗ = (Φ−1 ◦ Φ)∗ = (id)∗ = id .



Alternativ zu Abschnitt 3.4 gibt es folgenden allgemeinen Zugang zur Kodimension:

3.5 Der Dualraum

407

*Definition 3.58 Sei V ein K-Vektorraum, U ⊂ V. Dann heißt U ⊥ := {ϕ ∈ V ∗ : ϕ(u) = 0 für alle u ∈ U}

orthogonales Komplement oder Annihilator von U. *Bemerkungen 3.59 1) U ⊥ ist ein Unterraum von V ∗ , U ⊥ = span U ⊥ . 2) Ist V endlichdimensional und unitär, dann lässt sich (siehe Theorem 3.48, dort vorerst K = R) ϕ ∈ V ∗ eindeutig als ϕ(x) = hx . ai

für ein a ∈ V

darstellen und U ⊥ ⊂ V ∗ ist isomorph zum früher definierten U ⊥ = {a ∈ V : hu . ai = 0 für alle u ∈ U} ⊂ V . 3) U ⊂ U ⊥⊥ . Dabei wird U als E(U) ⊂ V ∗∗ aufgefasst.

4) In Verallgemeinerung von Hauptsatz 2.69I gilt für K-Vektorräume V, W und Φ ∈ HomK (V, W): a) Kern Φ∗ = (Bild Φ)⊥

(⊂ W ∗ ) .

Dazu beachte man Ψ ∈ Kern Φ∗ ⇔ Ψ ◦ Φ = 0 ⇔ Ψ (Φx) = 0 für x ∈ V ⇔ Ψ ∈ (Bild Φ)⊥ .

b) Bild Φ∗ ⊂ (Kern Φ)⊥ . Dazu beachte man

ϕ ∈ Bild Φ∗ ⇔ ϕ = Φ∗ (ψ)

also: ϕx = 0

für ein ψ ∈ W ∗ ⇔ ϕ = ψ ◦ Φ ,

für x ∈ Kern Φ ⇔ ϕ ∈ (Kern Φ)⊥ .

△ *Satz 3.60 Sei V ein K-Vektorraum, U ⊂ V ein Unterraum. Dann ist U ⊥  (V/U)∗ .

408

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beweis: Sei Φ : U ⊥ → (V/U)∗ definiert durch ϕ 7→ e ϕ,

wobei e ϕ(u + U) := ϕ(u)

für alle u ∈ V .

(3.39)

ϕ wohldefiniert, denn es gilt Nach Theorem 3.37, angewendet auf ϕ (bei W = K) ist e U ⊂ Kern ϕ. Auch Φ ist linear. Schließlich ist Φ injektiv, da Φ(ϕ) = 0



ϕ(u) = e ϕ(u + U) = 0 für alle u ∈ V



ϕ=0,

und surjektiv, denn durch (3.39) wird für e ϕ ∈ (V/U)∗ ein ϕ ∈ V ∗ definiert mit ϕ(u) = e ϕ(U) = 0 ,

also ϕ ∈ U ⊥ .

u∈U,



*Bemerkungen 3.61 1) Ist V endlichdimensional, gilt insbesondere U = U ⊥⊥ – im Sinn der Identifizierung von V und V ∗∗ . – Wegen dim U ⊥ = dim(V/U)∗ = dim V/U = dim V − dim U

dim U ⊥⊥ = dim V ∗ /U ⊥ = dim V − dim U ⊥

gilt dim U = dim U ⊥⊥ , was zusammen mit Bemerkungen 3.59, 3) die Behauptung ergibt (vgl. auch (3.33)).

2) Ist V endlichdimensional, sind die weiteren Varianten zu Bemerkungen 3.59, 4 a): Kern Φ = (Bild Φ∗ )⊥ (⊂ V ∗∗ ) , Bild Φ = (Kern Φ∗ )⊥ (⊂ W ∗∗ ) , Bild Φ∗ = (Kern Φ)⊥ (⊂ V ∗ ) . Man benutze 1) und Bemerkung 3.53.

△ Ist demzufolge U ein Unterraum von V mit endlicher Kodimension, ohne dass V notwendigerweise endlichdimensional ist, dann auch codim U = dim V/U = dim(V/U)∗ = dim U ⊥ , da für endlichdimensionale K-Vektorräume W gilt W ∗  W. Ist andererseits dim U ⊥ endlich, also

3.5 Der Dualraum

409

dim(V/U)∗ = dim U ⊥ < ∞ , dann ist auch dim(V/U)∗∗ = dim(V/U)∗ < ∞ . Damit muss aber auch dim V/U < ∞ und damit dim V/U = dim(V/U)∗ gelten. Wegen der Injektivität von E nach Bemerkungen 3.49, 3) ist dim W ≤ dim W ∗∗ . Somit gilt auch hier codim U = dim V/U = dim(V/U)∗ = dim U ⊥ . Daher: *Satz 3.62 Sei V ein K-Vektorraum, U ⊂ V ein Unterraum. Dann gilt: codim U = dim U ⊥ .

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Dualraum V ∗ • Dualbasis • Duale Abbildung Φ∗

Zusammenhänge

• Dualraumdarstellung, Rieszscher Darstellungssatz (Theorem 3.48) • Zusammenhang Φ∗ und Φt (Satz 3.54) • Zusammenhang Darstellungsmatrizen von Φ und Φ∗ (Satz 3.55)

Beispiele

• Dualbasis für S 1 (∆), Rn [x]

410

3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Aufgaben Aufgabe 3.16 (K) Es sei Φ : R3 → R3 die lineare Abbildung mit der darstellenden Matrix    1 2 3   2 3 1    312

und f, g : R3 → R die Linearform

f : (x1 , x2 , x3 ) 7→ x1 + x2 − x3 , g : (x1 , x2 , x3 ) 7→ 3x1 − 2x2 − x3 . Bestimmen Sie die Linearformen Φ∗ ( f ) : R3 → R und Φ∗ (g) : R3 → R. Aufgabe 3.17 (T) Es seien V, W Vektorräume über einen Körper K und Φ : V → W eine lineare Abbildung. Weiter seien V ∗ , W ∗ die zu V, W dualen Vektorräume und Φ∗ die zu Φ duale Abbildung. Man zeige: Φ ist genau dann injektiv, wenn Φ∗ surjektiv ist. Aufgabe 3.18 (K) Geben Sie zu den Vektoren x1 = (1, 0, −2)t ,

x2 = (−1, 1, 0)t ,

x3 = (0, −1, 1)t ∈ R3

die Linearformen ϕi mit ϕi (x j ) = δi, j an. Aufgabe 3.19 (K) (Hermite-Interpolation) Sei V = R3 [x] der R-Vektorraum der Polynome vom Grad ≤ 3. Durch ϕ1 ( f ) = f (1) , ϕ2 ( f ) = f ′ (1) , ϕ3 ( f ) = f (−1) , ϕ4 ( f ) = f ′ (−1) werden Linearformen ϕi : V → R definiert. (Dabei bezeichne f ′ die Ableitung von f .) a) Zeigen Sie, dass ϕ1 , . . . , ϕ4 eine Basis des Dualraums V ∗ von V bilden. b) Bestimmen Sie die dazu duale Basis von V.

Kapitel 4

Eigenwerte und Normalformen von Matrizen

4.1 Basiswechsel und Koordinatentransformationen In diesem Abschnitt ist K ein beliebiger Körper. „Vektorraum“ bedeutet stets „K-Vektorraum“. Ist u1 , . . . , un eine Basis des Vektorraums V, so lässt sich jeder Vektor x ∈ V als Linearkombination x = x1 u1 +. . .+ xn un mit (durch x) eindeutig bestimmten x1 , . . . , xn ∈ K darstellen. Diese Körperelemente x1 , . . . , xn heißen Komponenten von x oder Koordinaten von x in der Basis u1 , . . . , un .1 Wir wollen hier der Frage nachgehen, wie sich diese Koordinaten des Vektors x ändern, wenn wir ihn in einer anderen Basis w1 , . . . , wn ∈ V entwickeln. Dazu schreiben wir zuerst die neuen Basisvektoren wi als Linearkombinationen der alten Basisvektoren ui :

w1 =

n X ν=1

aν1 uν , . . . , wn =

n X

aνn uν .

(4.1)

ν=1

Die Koordinaten aνµ der neuen Basisvektoren wµ in der alten Basis bilden die Spalten einer Matrix  1   a1 · · · a1n   ..  ∈ K (n,n) . A =  ... (4.2) .    an1 · · · ann

Diese Matrix A ist eine Übergangsmatrix, mit den Koordinaten des i-ten (neuen) Basisvektors wi als i-te Spalte.

1

Dass die Indizes jetzt oben angebracht sind, ist mathematisch bedeutungslos, mnemotechnisch aber hoffentlich von Vorteil: Über die „hochgestellt-tiefgestellt“-auftretenden Indizes wird summiert.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_4

411

412

4 Eigenwerte und Normalformen von Matrizen

Definition 4.1 Seien B = [u1 , . . . , un ], B′ = [w1 , . . . , wn ] Basen eines K-Vektorraums V. Dann heißt A ∈ K (n,n) mit (4.2) und (4.1) Übergangsmatrix von B nach B′ . Bisher wurden für eine Matrix A die Komponenten mit aν,µ indiziert, wobei ν der Zeilenindex war und µ der Spaltenindex. In der Notation von (4.2) werden die Komponenten von Übergangsmatrizen A nun mit aνµ geschrieben. Für Übergangsmatrizen gilt somit: Die hochgestellten Indizes sind die Zeilenindizes. Die tiefgestellten Indizes sind die Spaltenindizes. A ist eine spezielle Darstellungsmatrix. Sie stellt bezüglich der Basis u1 , . . . , un eine lineare Abbildung dar, und zwar diejenige Abbildung, welche u1 7→ w1 , . . . , un 7→ wn abbildet und dadurch nach Hauptsatz 2.23 eindeutig bestimmt ist. Da die w1 , . . . , wn eine Basis von V bilden, ist Rang(A) = n, die Übergangsmatrix A ist invertierbar ((2.17) und Satz 2.2). Ein Vektor x ∈ V schreibt sich nun auf die zwei Weisen Pn ν Pn µ x= = 1 x uν 1 y wµ alte Koordinaten: neue Koordinaten:  1  1  x   y   ..   ..   .   .  ,  n  n x y die durch folgende Beziehung verknüpft sind: n X ν=1

ν

x uν = x =

n X

µ

y wµ =

µ=1

Daraus folgt für die Koordinaten:

n X µ=1

  n  n  n X  X ν  X  ν µ    aµ y  uν . y  aµ uν  = µ

ν=1

ν=1

µ=1

 1  1    x  a1 · · · a1n  y1     ..   ..  , Alte Koordinaten =  ...  =  ... .   .       n n x a1 · · · ann yn

anders formuliert:Alte Koordinaten = A „mal“ neue Koordinaten bzw.

neue Koordinaten = A−1 „mal“ alte Koordinaten.

(4.3)

(4.3) bedeutet natürlich nicht, dass A−1 bestimmt werden muss, sondern nur, dass das LGS für y

4.1 Basiswechsel und Koordinatentransformationen

413

Ay = x gelöst werden muss. Ist bei K = K A orthogonal bzw. unitär, d. h. A−1 = A† , so ist (4.3) explizit zu berechnen. Dieses Transformationsverhalten, welches die Koordinaten eines Vektors x ∈ V aufweisen, heißt kontravariantes Transformationsverhalten. (Die Koordinaten transformieren sich „gegenläufig“ zur Übergangsmatrix.) Beispiel 4.2 (Geometrie) Die Kontravarianz des Transformationsverhaltens bedeutet geometrisch folgendes. Der Transformation eines Koordinatensystems mit A ∈ K (n,n) entspricht die Transformation der betrachteten Teilmenge M von K n mit A−1 . Einer Folge A = Ak Ak−1 · · · A1 von Transformationen des Koordinatensystems (mit A1 als Erster) ent−1 −1 −1 spricht demnach A−1 = A−1 1 A2 · · · Ak als Transformation von M (mit Ak als Erster). Sind insbesondere bei K = K die Ai orthogonal bzw. unitär, dann ist A−1 = A†1 · · · A†k . ◦ Ein anderes Transformationsverhalten besitzen die Vektoren des Dualraums V ∗ . Um das zu bestimmen wählen wir in V ∗ die Dualbasen zu der zur Übergangsmatrix A gehörenden alten Basis u1 , . . . , un und der neuen Basis {w, . . . , wn }: f 1 , · · · , f n mit f µ (uν ) = δµν (alt) und g1 , · · · , gn mit g j (wi ) = δij (neu) – angepasst wird hier somit auch das Kronecker-Symbol δ j,i als δij geschrieben. – Jetzt entwickeln wir die alte Dualbasis in der neuen fµ =

n X

cµj g j ,

j=1

hier wird nun anders als bei (4.1) der Summationsindex der Koordinaten tiefgestellt und folgerichtig die Indizierung der Basen hochgestellt. Die zugehörige Übergangsmatrix mit µ C := (c j )µ, j ist also C t . Der Grund für diese Schreibweise ergibt sich aus f µ (w j ) =

n X

µ

ck gk (w j ) =

k=1

n X

µ

µ

ck δkj = c j

k=1

und andererseits  n  n n X X ν  X f (w j ) = f  a j uν  = aνj f µ (uν ) = aνj δµν = aµj , µ

µ

ν=1

also

cµj

=

aµj

ν=1

ν=1

und damit:

Zur linearen Abbildung gµ 7→ f µ gehört die Matrix At , zur linearen Abbildung f µ 7→ gµ gehört die Matrix (At )−1 .

Im Vektorraum V ∗ gehört folglich zum Übergang von der alten Basis f 1 , . . . , f n zur neuen Basis g1 , . . . , gn die Übergangsmatrix (At )−1 . Jetzt wenden wir für diesen Basiswechsel das an, was wir soeben ganz allgemein über Koordinatentransformationen und Übergangsma-

414

4 Eigenwerte und Normalformen von Matrizen

trizen gesehen haben:

Alte duale Koordinaten = (At )−1 „mal“ neue duale Koordinaten bzw. neue duale Koordinaten = At „mal“ alte duale Koordinaten. Richtig „schön“ wird diese Formel erst, wenn wir die Koordinaten eines Vektors im Dualraum als Zeilenvektor schreiben und dann die letzte Gleichung transponieren:

Neue duale Koordinaten = alte duale Koordinaten „mal“ A . Dieses Transformationsverhalten heißt kovariant. Es wurde gezeigt: Theorem 4.3: Koordinatentransformation Seien V ein K-Vektorraum, B und B′ Basen von V. Sei A ∈ K (n,n) die Übergangsmatrix nach (4.2). Dann transformieren sich die Koordinaten x ∈ K n bezüglich B zu den Koordinaten y ∈ K n bezüglich B′ , gemäß y = A−1 x

(kontravariant).

Sind B∗ bzw. B′∗ die jeweils dualen Basen von V ∗ , dann transformieren sich die Koordinaten bezüglich B∗ , α ∈ K (1,n) zu denen bezüglich B′∗ , β ∈ K (1,n) , gemäß β = αA

(kovariant).

Jetzt ist es wohl angebracht, einige - hoffentlich klärende - Worte zur Notation zu verlieren: • Vektoren, in ihrer ganzen Allgemeinheit, sind Elemente eines Vektorraums. Dieser kann ziemlich unanschaulich sein: Ein Dualraum, ein Quotientenraum, ein Funktionenraum usw. Jede Veranschaulichung solcher Vektoren versagt. Nur über die abstrakte Theorie der Vektorräume gelingt es, solche Vektoren zu beschreiben. • Ein Vektor des Anschauungsraums, „mit einem Pfeilchen vorne dran“, ist ein Element des Zahlenraums Rn , und wird durch ein n-Tupel reeller Zahlen gegeben. Dieses n-Tupel können wir wahlweise als Spalte oder als Zeile schreiben. Darauf, auf die Systematik der Indizes, kommt es nicht an. • Hat man einen endlichdimensionalen Vektorraum und darin eine Basis, so gehört zu jedem Vektor des Vektorraums sein Koordinatenvektor, ein n-Tupel von Körperelementen (d. h. Zahlen.) Um die Koordinaten von den Vektoren zu unterscheiden, wird der Index der Koordinaten oben notiert und der Vektor wird fett geschrieben: x=

n X ν=1

x ν uν .

4.1 Basiswechsel und Koordinatentransformationen

415

Einen Koordinatenvektor eines Vektors aus dem Vektorraum V wollen wir uns immer als Spaltenvektor vorstellen, sodass seine oberen Indizes die Zeile angeben. • Hingegen den Koordinatenvektor eines Vektors im Dualraum V ∗ , bezüglich der Dualbasis, wollen wir uns immer als Zeilenvektor vorstellen. Die Dualkoordinaten bekommen ihre Indizes unten, weil sie sich kovariant transformieren, d. h. so wie die Übergangsmatrix die ursprünglichen Basisvektoren. Untere Indizes geben somit die Spalte an. Die Zeilenschreibweise ist in Übereinstimmung mit der Darstellung von ϕ ∈ (Rn )∗ als ϕ(x) = (a . x) = at x über den Rieszschen Darstellungssatz (3.48). Eine gewisse Logik bekommt dieses System, wenn man sich folgende Version der Einsteinschen2 Summenkonvention zu eigen macht: Kommen in einer Formel zwei gleiche Indizes vor, einer unten und einer oben, so muss darüber automatisch summiert werden, P auch wenn kein Summenzeichen vorhanden ist. Damit ist sodann xν uν dasselbe wie xν uν . Das Skalarprodukt, d. h. das Produkt eines Zeilenvektors mit einem Spaltenvektor, schreibt sich dann  1  x    (c1 , . . . , cn ) ·  ...  = cν xν .  n  x

Nicht nur Koordinaten von Vektoren aus einem Vektorraum V oder von Vektoren im Dualraum V ∗ ändern sich bei Koordinatentransformationen, sondern auch Matrizen zu linearen Abbildungen. Dies müssen wir als Nächstes untersuchen. Sei dazu Φ : V → W eine lineare Abbildung des Vektorraums V in den Vektorraum W. Zudem seien u1 , . . . , un ∈ V und w1 , . . . , wm ∈ W Basen und es sei  1   c1 · · · c1n   . ..  C =  .. .   m  c1 · · · cm n

die Darstellungsmatrix gemäß Hauptsatz 2.23, welche die Abbildung Φ in diesen Basen beschreibt, d. h. Φ(uν ) =

m X

ciν wi .

i=1

Wir wechseln zu neuen Basen u′1 , . . . , u′n in V und w′1 , . . . , w′m in W, d. h.:

2

Albert Einstein ∗14. März 1879 in Ulm †18. April 1955 in Princeton

416

4 Eigenwerte und Normalformen von Matrizen

Neue Basis Beziehung zur alten Basis Übergangsmatrix  1   a1 · · · a1n  P  ..  u′1 , . . . , u′n u′µ = nν=1 aνµ uν A =  ... .    an1 · · · ann   1  b1 · · · b1m  P  ..  i w′1 , . . . , w′m w′j = m B =  ... i=1 b j wi .   m bm · · · a m 1

und berechnen die Darstellungsmatrix C ′ für die Abbildung Φ bezüglich der neuen Basen   m m m X m m X X X X   j i ′ ′ ′ j ′ ′ j i  (c )µ b j  wi , Φ(uµ ) = (c )µ w j = (c )µ b j wi = j=1 j=1 i=1 i=1 j=1  n  n n n X m m X X X X X   ′ ν ′ ν ν i ν i uµ = aµ uν ⇒ Φ(uµ ) = aµ Φ(uν ) = a µ cν wi =  aµ cν  wi . ν=1

ν=1

ν=1 i=1

i=1

ν=1

Durch Koeffizientenvergleich findet man hieraus n X

ciν aνµ =

ν=1

m X j=1

bij (c′ )µj

für jedes i ∈ {1, . . . , m}

oder in Form eines Matrizenprodukts CA = BC ′ bzw.

Neue Darstellungsmatrix C ′ = B−1CA . Hier sind C, C ′ ∈ K (m,n) , B ∈ K (m,m) und A ∈ K (n,n) . Es wurde also bewiesen: Theorem 4.4: Darstellungsmatrix unter Basiswechsel Seien V, W zwei n- bzw. m-dimensionale K-Vektorräume, B1 , B2 und auch B′1 , B′2 Basen von V bzw. W. Sei Φ ∈ Hom(V, W) mit Darstellungsmatrix C ∈ K (m,n) bezüglich B1 , B2 und C ′ Darstellungsmatrix ∈ K (m,n) bezüglich B′1 , B′2 . Ist A die Übergangsmatrix von B1 nach B′1 und B die Übergangsmatrix von B2 nach B′2 , dann ist das folgende Diagramm kommutativ:

4.1 Basiswechsel und Koordinatentransformationen

C

Kn A−1

A

417

Kn

Km

C′

(4.4)

B−1

B Km

Basistransformationen erzeugen daher über ihre Übergangsmatrizen A ∈ GL(n, K), B ∈ GL(m, K) eine neue Darstellung gemäß (4.4). Andererseits erzeugen A ∈ GL(n, K), B ∈ GL(m, K) Basistransformationen gemäß (4.1), (4.2) mit (4.4) als Konsequenz. Die expliziten Rechnungen der vorhergehenden Seiten dienen nur zur Verdeutlichung, da sich alle Aussagen schon aus den Eigenschaften der Darstellungsmatrix, d. h. aus (2.16) ableiten lassen: Die Übergangsmatrix A von B nach B′ lässt sich auch als die Darstellungsmatrix der Identität verstehen, wenn der Definitionsbereich V (Urbildraum) mit der Basis B′ und der Wertebereich V (Bildraum) mit der Basis B, also nach (2.16) ψB ◦ id = A ◦ ψB′ , wobei ψB , ψB′ : V → K n die Koordinatenabbildungen bezeichnen, also gilt ψB′ = A−1 ◦ ψB , d. h. (4.3) und auch A = ψB ◦ ψ−1 B′ , bzw. in alternativer Schreibweise und B′ [u] = A−1 (B [u]) = B′ [id]BB [u] .

A = B [id]B′

Betrachtet man andererseits zur Herleitung von (4.4) das kommutative Diagramm Abbildung 4.1 so impliziert die Kommutativität −1 C ′ = ψB′ 2 ◦ ψ−1 B2 ◦ C ◦ ψB1 ◦ ψB′ 1

−1 ◦C ◦A = (ψB2 ◦ ψ−1 ′) B 2

= B−1CA

nach obiger Überlegung, also (4.4), bzw. in alternativer Schreibweise B′2 [Φ]B′1

= B′2 [id]B2 B2 [Φ]B1 B1 [id]B′1  −1 = B2 [id]B′2 B2 [Φ]B1 B1 [id]B′1 .

Man beachte dabei nach Theorem 2.35

418

4 Eigenwerte und Normalformen von Matrizen C

Kn

Km ψB2

ψB1 Φ V

W

ψB′1

ψB′2 C′

Kn

Km

Abb. 4.1: kommutatives Diagramm

B′

[id]

B B

[id]

= [id ◦ id] = 1 B′ B′ B′

für beliebige Basen B, B′ . Satz 4.5: Normalform bei beliebigem Basiswechsel Es seien V, W endlichdimensionale K-Vektorräume. Es sei Φ : V → W eine lineare Abbildung vom Rang r. Dann gibt es Basen in V und W, in denen Φ die Darstellungsmatrix ! ( 1r 0 dim(W) 0 0 | {z } dim(V)

hat. Diese Darstellung heißt auch Smith3 -Normalform.

Beweis: Es sei C ∈ K (m,n) die Matrix für Φ bezüglich beliebiger, aber fest gewählter Basen von V und W. Es ist zu zeigen, dass es invertierbare Matrizen A ∈ GL(n, K) und B ∈ GL(m, K) gibt, derart, dass das Produkt B−1CA die angegebene Form hat. Dies ist schon in (2.144) gezeigt worden.  Dieser Satz ist eine Formulierung des Homomorphiesatzes 3.37 bzw. des Isomorphiesatzes 2.77 in der Sprache der Matrizen. Der Sinn seiner Aussage besteht darin, dass man durch voneinander unabhängige Basiswechsel im Urbild- und im Bildraum ihre Matrizen auf eine ganz einfache Normalform bringen kann, die nur vom Rang der linearen Abbildung abhängt. Andererseits zeigt dies auch, dass die Freiheit der unabhängigen Basiswahl im Urbild- und Bildraum nur noch den Rang als invariante Information lässt. 3

Henry John Stephen Smith ∗2. November 1826 in Dublin †9. April 1883 in Oxford

4.1 Basiswechsel und Koordinatentransformationen

419

Völlig anders ist die Situation für lineare Abbildungen eines Vektorraums in sich selbst. Dann ist nämlich der Bildraum W gleich dem Urbildraum V, wir haben sinnvollerweise nur eine einzige Basis, die wir wechseln können, es ist in obiger Formel B = A zu setzen. Bei einem Basiswechsel des Vektorraums V mit Übergangsmatrix A wird die Matrix C zu einer linearen Abbildung Φ : V → V in C ′ = A−1CA transformiert. Die Abschnitte bis einschließlich 4.3 sind der Frage nach einer möglichst einfachen Form C ′ , auf welche wir die Matrix C transformieren können, gewidmet. Definition 4.6 Zwei Matrizen C, C ′ ∈ K (n,n) heißen ähnlich, wenn es eine invertierbare Matrix A ∈ GL(n, K) gibt, so dass C ′ = A−1CA bzw. das folgende Diagramm kommutativ ist: C

Kn A−1

A K

n

Kn A−1

A C′

Kn

Man sagt auch: C ′ ergibt sich aus C durch eine Ähnlichkeitstranformation. C ∈ K (n,n) heißt über K diagonalisierbar, wenn C ähnlich ist zu einer Diagonalmatrix C ′ = diag(λi ) mit λi ∈ K, i = 1, . . . , n. Die diagonalisierbaren Matrizen sind daher genau diejenigen, die durch gemeinsamen Basiswechsel in Urbild- und Bildraum K n Diagonalgestalt erhalten. Die Art der dafür notwendigen Basen wird in Abschnitt 4.2 studiert. Die Ähnlichkeit von Matrizen ist eine Äquivalenzrelation (Definition A.20): • Reflexivität: A = 1n ⇒ C = 1−1 n C1n , • Symmetrie: C ′ = A−1CA ⇒ C = (A−1 )−1C ′ A−1 , • Transitivität: Aus C ′ = A−1CA und C ′′ = B−1C ′ B folgt C ′′ = B−1 A−1 C AB = (AB)−1 C AB . Für einen endlichdimensionalen K-Vektorraum V können Begriffe für Matrizen, die invariant unter Ähnlichkeitstransformationen sind, also auf Φ ∈ Hom(V, V), übertragen werden,

420

4 Eigenwerte und Normalformen von Matrizen

indem sie über die Darstellungsmatrix für eine fest gewählte Basis und damit genauso auch für alle anderen Basen definiert werden. Zum Beispiel: Definition 4.7 Sei V ein endlichdimensionaler K-Vektorraum, Φ ∈ HomK (V, V), C die Darstellungsmatrix bezüglich einer fest gewählten Basis, dann heißt det(Φ) := det(C) die Determinante von Φ. Ist nämlich C ′ die Darstellungsmatrix bezüglich einer anderen Basis, so gibt es ein invertierbares A mit C ′ = A−1C A und nach dem Determinanten-Multiplikationssatz (Theorem 2.111) ist det(C ′ ) = det(A−1C A) = det(A−1 ) det(C) det(A) = (det(A))−1 det(C) det(A) = det(C) . Damit können wir als Teilmenge von GL(V), die auch bezüglich der Komposition eine Gruppe darstellt, einführen (in Erweiterung von (2.151)) SL(V) := {Φ ∈ GL(V) : det(Φ) = 1} . Bemerkungen 4.8 1) Auch die in (4.4) eingeführte Relation auf K (m,n) , d. h. C ∼ C ′ :⇔ es gibt A ∈ GL(n, K), B ∈ GL(m, K), so dass C ′ = B−1CA , ist eine Äquivalenzrelation auf K (m,n) . Man sagt manchmal, C und C ′ seien äquivalent. Satz 4.5 zeigt, dass sich hier sehr große Äquivalenzklassen ergeben, etwa bei m = n [C] = GL(n, K)

für alle C ∈ GL(n, K) .

Insbesondere gilt immer: C ∼ C t , was entweder aus Satz 2.54 bzw. Hauptsatz 1.80 folgt oder durch unabhängigen Beweis: C ∼ C ′ nach Satz 4.5, wobei C′ =

! 1r 0 ∈ K (m,n) 0 0

also C ′ = B−1 CA mit A ∈ GL(n, K), B ∈ GL(m, K) und so ! 1 0 Ce′ := r = C ′t = (A−t )−1 C t B−t ∈ K (n,m) 0 0 also C t ∼ Ce′ und somit C ∼ C t bei n = m und allgemein

4.1 Basiswechsel und Koordinatentransformationen

421

Rang(C) = r = Rang(C t ),

was also anderseits einen neuen Beweis von Zeilenrang = Spaltenrang liefert. (Siehe auch den Alternativbeweis von Hauptsatz 1.80 auf S. 93)

2) C und C ′ sind also nach Hauptsatz 1.85III (viii) genau dann äquivalent, wenn die eine Matrix aus der anderen durch endlich viele Elementarumformungen hervorgeht. 3) Ist A ähnlich zu B so auch Ak zu Bk für jedes k ∈ N.

Ist nämlich für ein C ∈ GL(n, K), B = C −1 AC , so gilt auch B2 = C −1 ACC −1 AC = C −1 A2 C und mit vollständiger Induktion auch Bk = C −1 AkC .

In den Äquivalenzklassen der Ähnlichkeitsrelation möglichst einfache Repräsentanten zu finden, ist Aufgabe der nächsten Abschnitte. △ ′



Die Normalform aus Satz 4.5 kann so interpretiert werden, dass zu Basen B1 , B2 von V bzw. W übergegangen wird mit den Eigenschaften: ′

B1 = B1,1 ∪ B1,2 , ′

B2 = B2,1 ∪ B2,2 ,

B1,1 ∩ B1,2 = ∅ B2,1 ∩ B2,2 = ∅.

B1,2 ist Basis von Kern(Φ). Φ|B1,1 : B1,1 → B2,1 ist eine Bijektion und so ist B2,1 eine Basis von Bild(Φ). Es ist dann nämlich B [ Φ|B1,1 ]B = idr und r = Rang(Φ). 2,1 1,1 Auch für unendlichdimensionale V oder W und Φ ∈ Hom(V, W) lässt sich die Existenz solcher Basen zeigen. In diesem Sinn gilt die Dimensionsformel I (Theorem 2.32) auch im Unendlichen. Ist speziell K = K und haben die Vektorräume jeweils ein inneres Produkt h . i (d. h. wir benutzen die gleiche Schreibweise für verschiedene Räume), so können auch Orthonormalbasen (ONB) betrachtet werden. Als Vorbereitung zeigen wir: Satz 4.9: Orthogonalität der Darstellungsmatrix bei ONB Seien V, W zwei n- bzw. m-dimensionale euklidische oder unitäre K-Vektorräume und Φ ∈ HomK (V, W). Weiter seien B1 ⊂ V und B2 ⊂ W zwei ONB und A ∈ K(m,n) die Darstellungsmatrix von Φ bezüglich B1 und B2 . Dann gilt: Φ ist orthogonal bzw. unitär

⇐⇒

A ist orthogonal bzw. unitär.

Beweis: Dies folgt aus Bemerkungen 2.62. Ein alternativer Beweis ist: Nach Satz 3.30 ist Φ genau dann unitär bzw. orthogonal, wenn Φ längenerhaltend ist. Das gilt insbesondere für A ∈ K(m,n) mit dem euklidischen inneren Produkt. Außerdem lässt sich nach Bemerkungen 1.110, 1) der Koeffizientenvektor α eines Vektors x bezüglich einer ONB explizit angeben (Fourier-Koeffizienten) und damit gilt (siehe (1.89))

422

4 Eigenwerte und Normalformen von Matrizen

kxk = kαk . Damit ergibt sich Φ ist orthogonal bzw. unitär ⇔ kΦxk = kxk ⇔ kAαk = kΦxk = kxk = kαk , wobei α der Koeffizientenvektor von x bezüglich B1 und damit Aα der Koeffizientenvektor von Φx bezüglich B2 ist.  Dies bedeutet für einen Basiswechsel zwischen ONB: Satz 4.10: Basiswechsel bei ONB Seien V, W zwei n- bzw m-dimensionale euklidische oder unitäre K-Vektorräume. 1) Sind B und B′ ONB von V, so ist die Übergangsmatrix A ∈ K(n,n) dazu orthogonal bzw. unitär. 2) Sei Φ ∈ HomK (V, W). Die Basen B1 von V, B2 von W seien ONB. Genau dann, wenn die Basen B′1 von V, B′2 von W ONB sind, ändert sich die Darstellungsmatrix beim Basiswechsel von B1 und B2 zu B′1 und B′2 zu C ′ = B−1CA = B†CA und A, B sind orthogonal bzw. unitär. 3) Sei V = W = Kn mit dem euklidischen inneren Produkt versehen und sei C ∈ K(n,n) , dann ist die Darstellungsmatrix der zugehörigen Abbildung x 7→ Cx bezüglich einer ONB B = {u1 , . . . , un } C ′ = A−1CA = A†CA . Dabei ist A orthogonal bzw. unitär, nämlich A = (u1 , . . . , un ) .

Beweis: Zu 1): Die Übergangsmatrix ist die Darstellungsmatrix in der Basis B zu der linearen Abbildung, die B auf B′ abbildet. Diese ist nach Theorem 2.17 unitär bzw. orthogonal und damit folgt die Behauptung aus Satz 4.9. Zu 2): „⇒“ aus 1), „⇐“ folgt mit der Argumentation von 1), d. h. der Verweis auf Theorem 2.17. Zu 3): Die Abbildung x 7→ Cx hat die Darstellungsmatrix C bezüglich der Standardbasis, so dass die Übergangsmatrix A von {e1 , . . . , en } zu B nach 1) orthogonal bzw. unitär ist und A auch die angegebene Gestalt hat, woraus dies wiederholt ersichtlich ist.  Die höheren Forderungen an die transformierende Matrix bzw. die neue Basis fassen wir in folgendem Begriff zusammen:

4.1 Basiswechsel und Koordinatentransformationen

423

Definition 4.11 1) Sind C, C ′ ∈ C(n,n) , dann heißt C unitär ähnlich zu C ′ , wenn ein A ∈ O(n, C) existiert, so dass A†CA = C ′

bzw.

CA = AC ′ .

2) Sei C ∈ C(n,n) . C heißt unitär diagonalisierbar, wenn C unitär ähnlich zu einer Diagonalmatrix ist. 3) Seien C, C ′ ∈ R(n,n) . C heißt orthogonal ähnlich zu C ′ , wenn ein A ∈ O(n, R) existiert, so dass A†CA = C ′

bzw.

CA = AC ′ .

4) Sei C ∈ R(n,n) . C heißt orthogonal diagonalisierbar, wenn C orthogonal ähnlich zu einer Diagonalmatrix in R(n,n) ist.

Bemerkungen 4.12 1) Genau wie „ähnlich“ sind auch „unitär ähnlich“ und „orthogonal ähnlich“ Äquivalenzrelationen. Man kann somit auch von der (unitären bzw. orthogonalen) Ähnlichkeit von C und C ′ reden. 2) In Ergänzung von Satz 4.10 gilt: C ist unitär bzw. orthogonal ähnlich zu C ′ ⇔ C ′ ist die Darstellungsmatrix der Abbildung x 7→ Cx bezüglich einer komplexen bzw. reellen ONB. 3) Offensichtlich gilt für C ∈ K(m,n) : C ist unitär bzw. orthogonal diagonalisierbar ⇒ C ist diagonalisierbar über K und für C ∈ R(n,n) : C ist diagonalisierbar über R =⇒ C ist orthogonal diagonalisierbar =⇒

C ist diagonalisierbar über C C ist unitär diagonalisierbar

Später werden wir sehen, dass keine der Implikationen i. Allg. umgedreht werden kann. △

424

4 Eigenwerte und Normalformen von Matrizen

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Übergangsmatrix • Ähnlichkeit von Matrizen, orthogonale bzw. unitäre Ähnlichkeit für reelle bzw. komplexe Matrizen • Übertragung ähnlichkeitstransformationsinvarianter Begriffe von Matrizen auf Homomorphismen

Zusammenhänge • Kontravariante und kovariante Koordinatentransformation (Theorem 4.3) • Darstellungsmatrix unter Basiswechsel (Theorem 4.4)

Aufgaben Aufgabe 4.1 (K) Der Homomorphismus ϕ : R3 → R2 werde bezüglich der Standardbasen durch die Matrix ! 0 22 M= 1 −2 2 beschrieben. Man berechne die Darstellungsmatrix von ϕ bezüglich der Basis a1 = (0, 1, 1)t ,

a2 = (1, 0, 3)t ,

a3 = (1, 0, 1)t

des R3 und der Basis b1 = (1, 1)t ,

b2 = (1, −1)t

des R2 . Aufgabe 4.2 (K) Geben Sie die Darstellungsmatrix der linearen Abbildung      x2   x1      f : R3 → R3 ,  x2  7→  x3      x1 x3

bezüglich der kanonischen Basis des R3 an und bezüglich der Basis        1   0   1        a1 =  0  , a2 =  1  , a3 =  1  ∈ R3 .       1 1 0

Aufgaben

425

Aufgabe 4.3 (K) Im R4 seien die Vektoren    1   2  a1 =   ,  0  0

   2   1  a2 =   ,  0  0

   0   0  a3 =   ,  1  2

gegeben. Weiter sei f : R4 → R4 eine lineare Abbildung mit f (a1 ) = a2 ,

f (a2 ) = a1 ,

   0   0  a4 =    2  1

f (a3 ) = f (a4 ) = a3 + a4 .

Geben Sie die Darstellungsmatrix von f in der kanonischen Basis des R4 an. Aufgabe 4.4 (T) Durch C ∼ C ′ :⇔ Es gibt invertierbare A ∈ K (n,n) bzw. B ∈ K (m,m) , so dass B−1CA = C ′

wird auf K (m,n) eine Äquivalenzrelation definiert.

426

4 Eigenwerte und Normalformen von Matrizen

4.2 Eigenwerttheorie

4.2.1 Definitionen und Anwendungen Das Problem, eine möglichst einfache Normalform für ähnliche oder orthogonal bzw. unitär ähnliche Matrizen zu finden, hat eine Bedeutung, die weit über die lineare Algebra, ja weit über die Mathematik hinausgeht. Dies soll an einem einfachen DifferentialgleichungsSystem aus der Mechanik illustriert werden. (Wie eine solche Differentialgleichung aufgestellt wird, ist ein Problem der mathematischen Modellierung, Lösungsmethoden dafür brauchen Analysis, Numerik und auch Lineare Algebra.) Beispiel 3(6) – Massenkette Wir greifen wieder das Beispiel einer Massenkette auf, erst einmal nur für den Fall von zwei Federn, die frei hängen (siehe Abbildung 1.2), also n = 3, m = 2. Es sollen keine äußeren Kräfte angreifen ( f = 0). Das sich nach (MM.41) ergebende LGS (bei Vertauschung von x1 und x2 ) ! ! c + c2 −c2 2 −1 (MM.71) Ax = 0 mit A = 3 =c −c2 c2 −1 1 bei gleicher Federkonstante c = c3 = c2 hat die Ruhelage x = 0 als einzige Lösung. Werden die Massenpunkte x1 , x2 daraus ausgelenkt, werden sie eine von der Zeit t abhängige Bewegung vollführen, d. h. zu bestimmen sind Funktionen xi : [t0 , ∞) → R,

i = 1, 2 ,

für die

und

x(t0 ) = x0 ∈ R2 !! x˙ (t ) = x′0 x˙ (t0 ) = 1 0 x˙2 (t0 )

– die Position –

(MM.72)

– die Geschwindigkeit –

(MM.73)

zu einem Anfangszeitpunkt t0 gegeben sind. – Der Punkt bezeichnet nunmehr die Ableitung nach t, bei vektorwertigen Funktionen komponentenweise zu nehmen. – Zur Bestimmung fehlt eine Gleichung, die sich aus (MM.71) ergibt, indem in die dort beschriebene Kräftebilanz die zusätzliche Kraft nach dem Newtonschen Gesetz Kraft = Masse · Beschleunigung , d. h.

Kraft = mi · x¨i (t) ,

aufgenommen wird, wobei mi die Masse im Punkt i bezeichnet (Genaueres in Beispiel 3(1) bzw. Beispiel 3(3)), so dass sich LGS (MM.71) erweitert zu den gewöhnlichen Differentialgleichungen ! m1 x¨1 + Ax = 0 , (MM.74) m2 x¨2 e = m1 = die zusammen mit (MM.72), (MM.73) eine Anfangswertaufgabe bilden. Zur Vereinfachung sei m m2 , durch Skalierung kann dann m e = c = 1 erreicht werden. Für das konkrete Beispiel ändern wir die Notation von x1 (t) x2 (t)

!

in

! y1 (t) . 2 y (t)

4.2 Eigenwerttheorie

427

Für die Funktion t 7→

! y1 (t) ∈ R2 2 y (t)

ist also die folgende Differentialgleichung zu lösen: ! ! ! y¨ 1 −2 1 y1 = . y¨ 2 1 −1 y2

(MM.75)

Die obigen Differentialgleichungen sind von Ordnung 2 (die zweite Ableitung tritt auf), linear (es treten keine Produkte etc. von der gesuchten Funktion und ihren Ableitungen auf) und homogen (es treten keine von y unabhängigen Funktionen auf der rechten Seite auf: zusätzliche Anregungsterme) und als Folge beider Eigenschaften ist die Lösungsmenge ein Vektorraum (Übung). In Abschnitt 8.6 werden diese Eigenschaften allgemeiner untersucht. Das Problem besteht in der Kopplung der beiden Gleichungen für die beiden Koordinaten y1 und y2 . Entsprechende skalare Gleichungen wie x¨ = λx

für λ ∈ R

sind leicht zu lösen. Für λ < 0 sieht man durch direktes Einsetzen, dass x(t) = α1 sin(µt) + α2 cos(µt) √ für α1 , α2 ∈ R, wobei µ := −λ ,

(MM.76)

Lösungen sind und auch alle Lösungen darstellen, da die Lösungsmenge ein R-Vektorraum ist, der (wie Kenntnisse über gewöhnliche Differentialgleichungen zeigen, siehe auch Abschnitt 8.6) die Dimension 2 hat. Für den Fall λ > 0 bekommt man x(t) = α1 exp(νt) + α2 exp(−νt) √ für α1 , α2 ∈ R, wobei ν := λ ,

(MM.77)

was wieder direktes Nachrechnen und die Information, dass der Lösungsraum 2-dimensional ist, bestätigt und schließlich für λ = 0 x(t) = α1 + α2 t .

(MM.78)

Durch Anpassung der Koeffizienten α1 , α2 können jeweils die zwei Anfangsvorgaben analog zu (MM.72), (MM.73) erfüllt werden. Falls die Koeffizientenmatrix ! −2 1 C= 1 −1 ähnlich zu einer Diagonalmatrix, d. h. diagonalisierbar über R wäre, etwa ! λ1 0 = A−1 CA , 0 λ2 dann hätten wir für die Funktion ! ! x1 (t) y1 (t) := A−1 2 2 x (t) y (t) wegen

428

4 Eigenwerte und Normalformen von Matrizen ! 1

y¨ y¨ 2

! ¨x1 !! x¨1 = A 2 =A 2 x x¨

die Gleichung ! ! ! ! 1! x¨1 y1 x1 λ1 0 x −1 −1 . 2 = A C 2 = A CA 2 = x¨ y x 0 λ2 x2 Dies sind zwei entkoppelte Differentialgleichungen x¨1 = λ1 x1 ,

x¨2 = λ2 x2

für die beiden Komponenten. Diese können nach (MM.76) bzw. (MM.77) bzw. (MM.78) explizit gelöst werden. Die Lösung des Ausgangssystems ergibt sich dann durch ! ! y1 x1 = A , y2 x2 d. h. durch Linearkombination von x1 und x2 . Lässt man die Parameter αi1 , αi2 ∈ R in xi , i = 1, 2, frei, hat man eine Darstellung des 4-dimensionalen Lösungsraums von (MM.75), durch Anpassung der Parameter kann die Anfangsvorgabe erfüllt werden (siehe unten Beispiel 3(7)). Analoge Systeme 1. Ordnung, die dann auch linear und homogen sind, haben die Gestalt y˙ = Cy

(MM.79)

für y : R → Rn bei gegebenem C ∈ R(n,n) . Der Punkt bezeichnet weiterhin die Ableitung nach t, die hier komponentenweise zu verstehen ist. Die entsprechende skalare Gleichung x˙ = λx,

λ∈R

für x : R → R hat die allgemeine Lösung x(t) = α exp(λt)

(MM.80)

mit α ∈ R.

^

Sei jetzt V ein K-Vektorraum und Φ : V → V eine K-lineare Abbildung. Wir fragen, wann es eine Basis B := {u1 , . . . , un } von V gibt, in der Φ durch eine Diagonalmatrix C = diag (λ1 , . . . , λn ) beschrieben wird. Genau dann, wenn das so ist, gilt für die Basisvektoren u1 , . . . , un Φ(uν ) = λν uν ,

ν = 1, · · · , n .

(Diese Vektoren werden durch Φ demnach nur gestreckt um den Faktor λν , ihre Richtung wird nicht geändert.) Es folgt: Für die Darstellungsmatrix C ∈ K(m,n) bezüglich B gilt C = diag(λ1 , . . . , λn ) ⇐⇒ Alle ui , i = 1, . . . n, sind Eigenvektoren (zum Eigenwert λi ), wobei:

4.2 Eigenwerttheorie

429

Definition 4.13 Ein Vektor 0 , u ∈ V heißt Eigenvektor der linearen Abbildung Φ : V → V, wenn ein Skalar λ ∈ K existiert, sodass Φ(u) = λu . Insbesondere heißt 0 , x ∈ K n ein Eigenvektor zur Matrix C ∈ K (n,n) , wenn Cx = λx .

Bemerkungen 4.14 1) Der Streckungsfaktor λ ist durch den Eigenvektor u und die lineare Abbildung Φ eindeutig bestimmt, denn wenn Φ(u) = λ1 · u = λ2 · u, dann folgt (λ1 − λ2 ) · u = 0, folglich u = 0 (siehe Rechenregeln nach Definition 1.30). *2) Ist Speziell V = Kn , so spricht man manchmal statt von Eigenvektoren genauer von rechten Eigenvektoren und bezeichnet dann mit linken Eigenvektoren u ∈ Kn , u , 0, sodass u†C = λu† .



Definition 4.13 b Der eindeutige Streckungsfaktor λ ∈ K heißt der Eigenwert zum Eigenvektor u. Die Menge Kern(Φ − λ id)

bzw.

Kern(C − λ1) ,

d. h. die Menge der Eigenvektoren und zusätzlich der Vektor 0, heißt der Eigenraum von Φ bzw. C zum Eigenwert λ. dimK Kern(Φ − λ id) bzw. dimK Kern(C − λ1) heißt die geometrische Vielfachheit von λ. Die Menge der Eigenvektoren ist also kein Vektorraum, da 0 kein Eigenvektor ist, aber wenn sie nicht verschwinden, sind Linearkombinationen von Eigenvektoren wieder Eigenvektoren. Der Eigenraum zu einem Eigenwert λ ist somit immer mindestens eindimensional. Ist K unendlich, gibt es immer unendlich viele Eigenvektoren zu einem Eigenwert. Die Bemerkungen 4.14, 1) bedeutet sodann Kern(C − λ1 1) ∩ Kern(C − λ2 1) = {0} für verschiedene Eigenwerte λ1 , λ2 .

430

4 Eigenwerte und Normalformen von Matrizen

Wir werden uns im Folgenden meist auf die Matrizenschreibweise beschränken oder zwanglos zwischen Matrizen- und Endomorphismenschreibweise hin und her gehen, da gilt: Satz 4.15 Sei V ein endlichdimensionaler K-Vektorraum, Φ ∈ HomK (V, V), sei B eine Basis von V und C ∈ K (n,n) die Darstellungsmatrix von Φ bezüglich B. Dann sind folgende Aussagen äquivalent: (i) λ ∈ K ist Eigenwert von Φ zum Eigenvektor u ∈ V.

(ii) λ ∈ K ist Eigenwert von C zum Eigenvektor x ∈ K n .

Dabei ist x der Koordinatenvektor von u bezüglich B.

Beweis: Sei B = {u1 , . . . , un } und u = Φu = λu ⇔

n X i=1

xi Φui =

n X j=1

Pn

i=1

xi ui , C = (cij )i, j . Dann gilt:

λx j u j ⇔

n X n X j=1 i=1

cij xi u j =

n X j=1

λx j u j ⇔ Cx = λx . 

Definition 4.16 Sei V ein n-dimensionaler K-Vektorraum Φ ∈ HomK (V, V).  σ(Φ) := λ ∈ K :

λ ist Eigenwert von Φ



heißt das (Punkt-)Spektrum von Φ in K. ̺(Φ) := K \ σ(Φ) heißt die Resolvente(nmenge) von Φ. Bemerkungen 4.17 1) Satz 4.15 zeigt, dass für endlichdimensionale K-Vektorräume V alle Information aus dem Fall V = K n , Φ = C ∈ K (n,n) gezogen werden kann. Der Fall unendlichdimensionaler V ist nicht vollständig mit Methoden der Linearen Algebra behandelbar (siehe Funktionalanalysis ). 2) Für unendlichdimensionale K-Vektorräume (für K = K) wird das Spektrum allgemein gefasst und ist i. Allg. eine Obermenge des Punkt-Spektrums (siehe Funktionalanalysis oder Definition 7.18). △

4.2 Eigenwerttheorie

431

Sind also u1 , . . . , uk Eigenvektoren, dann gilt für V := span(u1 , . . . , uk ), dass C·V ⊂V , d. h. V ist invariant unter C, wobei: Definition 4.18 Sei V ein K-Vektorraum, Φ ∈ HomK (V, V), U ⊂ V ein linearer Unterraum. U heißt invariant unter Φ, wenn Φ(U) ⊂ U . Bemerkungen 4.19 1) Sei V ein K-Vektorraum, Φ ∈ HomK (V, V), sei U = span(u) für ein u , 0. Dann ist U invariant unter Φ, genau dann, wenn u ein Eigenvektor von Φ ist. 2) Sei U = span(u1 , . . . , uk ) und uk+1 , . . . , un eine Ergänzung zu einer Basis B des ndimensionalen Raums V. U ist invariant unter Φ ∈ HomK (V, V), genau dann, wenn die Darstellungsmatrix C von Φ bezüglich B die Gestalt ! C C C = 1,1 1,2 0 C2,2 hat mit C1,1 ∈ K (k,k) . V k := span(uk+1 , . . . , un ) ist invariant unter Φ



C1,2 = 0 .

Eigenvektoren unter den Basisvektoren führen dazu, dass die Blöcke C1,1 oder C2,2 weiter zerfallen, d. h. z. B. bis zu   0  λ1   C1,1 =  . . .  ,   0 λk

wenn u1 , . . . , uk Eigenvektoren sind, bis schließlich bei einer Basis nur aus Eigenvektoren der Diagonalfall erreicht ist.

3) Sei V ein K-Vektorraum, Φ ∈ HomK (V, V), B = [u1 , . . . , un ] eine Basis von V. Für die Darstellungsmatrix C = B [Φ]B sind dann äquivalent:

432

4 Eigenwerte und Normalformen von Matrizen

(i) C ist obere Dreiecksmatrix (ii) Vi := span(u1 , . . . , ui ),

i = 1, . . . , n, sind invariant unter Φ.

Dies kann man wie folgt einsehen: (i) entspricht der Aussage Φui ∈ Vi für i = 1, . . . , n und damit gilt insbesondere „ (ii) ⇒ (i) “ . Für „ (i) ⇒ (ii) “ betrachte P man Φui ∈ Vi ⊂ VPj für i ≤ j und somit Φuk ∈ Vi für k = 1, . . . , i, i = 1, . . . , n und damit folgt für u = ik=1 αk uk ∈ Vi : Φu = ik=1 αk Φuk ∈ Vi , d. h. (ii).

4) Sei Φ ∈ Hom(V, V), dann ist Bild(Φ) invariant unter Φ und auch U := Bild(Φ − λ id) ist invariant unter Φ für jedes λ ∈ K. Uˆ := Bild(Φ − λ id) ist ein echter, linearer Unterraum von V genau dann, wenn λ Eigenwert von Φ ist. Denn: λ ist Eigenwert von Φ, genau dann, wenn Vˆ := Kern(Φ − λ id) , {0}, also genau dann, wenn ˆ = dim(V) − dim(V) ˆ < dim(V). dim(U)

5) Sei V ein K-Vektorraum, Φ ∈ HomK (V, V), U ⊂ V ein linearer Unterraum, sei P eine Projektion von V auf U. Invarianz von U unter Φ lässt sich auch mittels P beschreiben. Es gilt: a) U ist invariant unter Φ genau dann, wenn P◦Φ◦P = Φ◦P Das kann man folgendermaßen einsehen: Invarianz von U bedeutet: (P ◦ Φ)x = Φx für x ∈ U

und damit gilt „ ⇒ “ . Für „ ⇐ “ beachte man: Sei x ∈ U , d. h. x = Px, also Φx = (Φ ◦ P)x = (P ◦ Φ ◦ P)x, also Φx ∈ U .

b) Ist K = K, h . i inneres Produkt auf V, P = PU , d. h. die orthogonale Projektion existiere, dann gilt: U und U ⊥ sind invariant unter Φ genau dann, wenn PU ◦ Φ = Φ ◦ PU . Für „ ⇐ “ beachte man: Sei x ∈ U , dann Φx = (Φ ◦ PU )x = PU ◦ (Φx), also Φx ∈ U.

Nach Satz 2.64 ist P†U = PU und also PU ◦ Φ† = P†U ◦ Φ† = (Φ ◦ PU )† = (PU ◦ Φ)† = Φ† ◦ PU ,

d. h. auch Φ† erfüllt die obige Kommutativitätsbedingung und damit ist U auch invariant unter Φ† . Sei u ∈ U ⊥ , dann gilt für u ∈ U

da Φ† u ∈ U und somit Φu ∈ U ⊥ . Zu „ ⇒ “ : Nach a) gilt für x ∈ V :

D E hΦu . ui = u . Φ† u = 0,

(Φ ◦ PU )x = (PU ◦ Φ ◦ PU )x = (PU ◦ Φ)x − PU ◦ Φ(x − PU x).

4.2 Eigenwerttheorie

433

Für den letzten Summanden gilt x − PU x ∈ U ⊥ , also auch Φ(x − PU x) ∈ U ⊥ und damit verschwindet der letzte Summand wegen Kern(PU ) = U ⊥ ( (2.56)).

△ Theorem 4.20: Tautologische Formulierung der Diagonalisierbarkeit Die Matrix C ∈ K (n,n) ist ähnlich zu einer Diagonalmatrix, d. h. über K diagonalisierbar genau dann, wenn der Vektorraum K n eine Basis besitzt, die aus lauter Eigenvektoren für C besteht.

Beweis: Dies braucht nicht mehr bewiesen zu werden, da es nur eine Zusammenfassung der obigen Diskussion ist. Weil es so wichtig ist, aber noch einmal: Es gibt ein A = (u1 , . . . , un ) ∈ GL(K, n), d. h. mit ui als Bezeichung der Spalten, so dass A−1CA = diag(λi ) ⇔ CA = A diag(λi ) ⇔ Cui = λi ui für alle i = 1, . . . , n . Insbesondere daher: Die Spalten der Übergangsmatrix sind somit genau die eine Basis bildenden Eigenvektoren.  Analog zu Definition 4.6 setzt man: Definition 4.21 Sei V ein K-Vektorraum. Φ ∈ HomK (V . V) heißt diagonalisierbar, wenn eine Basis von V existiert, die nur aus Eigenvektoren von Φ besteht. Bemerkung 4.22 Nach Satz 4.15 sind demnach für endlichdimensionales V äquivalent: (i) Φ ∈ HomK (V, V) ist diagonalisierbar,

(ii) Die Darstellungsmatrix C von Φ bezüglich einer Basis B ist diagonalisierbar,

(iii) Die Darstellungsmatrix C von Φ bezüglich jeder Basis B ist diagonalisierbar.



Wir haben noch keine Aussage darüber, ob Eigenwerte und zugehörige Eigenvektoren existieren und wie diese gefunden werden können. Die entscheidende (theoretische) Idee besteht darin, zuerst Eigenwerte zu suchen: Satz 4.23: Eigenwertgleichung Ein Skalar λ ∈ K ist genau dann Eigenwert der Matrix C (zu einem Eigenvektor 0 , u ∈ K n ), wenn gilt:

434

4 Eigenwerte und Normalformen von Matrizen

det(C − λ1n ) = 0 . Diese Gleichung für λ heißt Eigenwertgleichung.

Beweis: Für einen Vektor u ∈ V ist Cu = λu



(C − λ1n )u = 0 .

Es gibt genau dann einen Vektor 0 , u ∈ V mit dieser Eigenschaft, wenn Rang(C − λ1n ) < n

(Hauptsatz 1.85) ,

und dies ist äquivalent mit det(C − λ1n ) = 0

(Theorem 2.111, 2)) .



Bemerkungen 4.24 1) Es sei daran erinnert, dass wegen Satz 4.15 und Bemerkungen 4.17 1) die Charakterisierung der Eigenwerte in Satz 4.23 statt für C ∈ K (m,n) ebenso für Φ ∈ HomK (V, V) gilt. 2) Nach Satz 4.23 sind daher äquivalent für C ∈ K (n,n) : 0 ist Eigenwert von C

⇐⇒

det(C) = 0

⇐⇒

C ist nicht invertierbar

und der Eigenraum zu λ = 0 ist gerade Kern C. In die Äquivalenzliste von Hauptsatz 1.85 kann dann bei m = n noch aufgenommen werden: (x) 0 ist kein Eigenwert von A.



Beispiel 3(7) – Massenkette Wir suchen Eigenwerte der Matrix ! −2 1 C= 1 −1 aus Beispiel 3(6). Die Eigenwertgleichung für diese Matrix ist ! −2 − λ 1 = (−2 − λ)(−1 − λ) − 1 = λ2 + 3λ + 1 = 0 . det(C − λ12 ) = det 1 −1 − λ

 √  Die Nullstellen λ1,2 = 1/2 −3 ± 5 dieser quadratischen Gleichung sind die Eigenwerte. Die zugehörigen Eigenvektoren u berechnet man aus den linearen Gleichungssystemen √ ! ! v2 − 12 (1 + 5)v1 + 0 √ (C − λ1 12 )u = , = 0 v1 + 21 (1 − 5)v2 ! 2√ , s1 ∈ R, s1 , 0 , u(1) := s1 · 1+ 5

4.2 Eigenwerttheorie

435 !

5)v1 + √ v = 0 , 0 v1 + 21 (1 + 5)v2 ! 2√ := s2 · , s2 ∈ R, s2 , 0 . 1− 5

(C − λ2 12 )u = u(2)

1 2 (−1

! 2



+

Diese Eigenvektoren sind linear unabhängig und damit eine Basis des R2 , d. h.C ist über R diagonalisierbar. Der Lösungsraum von (MM.75) hat also die Darstellung für A = u(1) , u(2) (für s1 = s2 = 1) y(t) = Ax(t) = x1 (t)u(1) + x2 (t)u(2) .

Dabei sind x1 und x2 Lösungen der skalaren Differentialgleichung zu λ = λ1 bzw. λ = λ2 nach (MM.76) (MM.78). Also, da λ1 < 0, λ2 < 0: ! ! ! 2√ 2√ y1 (t) + (β1 sin(µ2 t) + β2 cos(µ2 t)) = (α1 sin(µ1 t) + α2 cos(µ1 t)) 2 y (t) 1− 5 1+ 5 für α1,2 , β1,2 ∈ R und µ1 :=

! √ 1/2 1 (3 − 5) , 2

µ2 :=

! √ 1/2 1 (3 + 5) . 2

Der Lösungsraum ist aus diesem Grund 4-dimensional, die vier Freiheitsgrade können nach (MM.72), (MM.73) durch Vorgabe von y1 (t0 ), y˙ 1 (t0 ), y2 (t0 ), y˙ 2 (t0 ) , d. h. durch Ausgangsposition und -geschwindigkeit für einen festen „Zeitpunkt“, festgelegt werden.

^

Beispiel 3(8) – Massenkette Für die Massenkette mit konstanten Materialparameter im Hookeschen Gesetz (im Folgenden o. B. d. A. c = 1) können Eigenwerte und Eigenvektoren explizit angegeben werden. Wir betrachten den Fall mit beidseitiger Einspannung, d. h. A ∈ R(m,m) nach (MM.11) und den Fall ohne jede Einspannung, d. h. A ∈ R(m,m) nach (MM.15). In beiden Fällen sind die „inneren“ Gleichungen 2, . . . , m − 1 jeweils gleich und lauten für das Eigenwertproblem −x j−1 + 2x j − x j+1 = λx j ,

j = 2, . . . , m − 1 .

Eine Lösungsfamilie im Parameter α ∈ [0, 2π) ist gegeben durch λα = 2 − 2 cos α

uα = (vα, j ) = (sin( jα)) j=1,...,m .

(MM.81)

Dies entspricht dem trigonometrischen Additionstheorem − sin(( j − 1)α) + 2 sin( jα) − sin(( j + 1)α) = (2 − 2 cos α) sin( jα) , das sich direkt mit eiϕ = cos(ϕ) + i sin(ϕ) als Imaginärteil der Identität −ei( j−1)α + 2ei jα − ei( j+1)α = (2 − e−iα − eiα )ei jα = (2 − 2 cos α)ei jα ergibt (i bezeichnet hierbei die imaginäre Einheit). Diese Argumentation zeigt, dass in (MM.81) sin auch durch cos und j durch j + r für r ∈ R ersetzt werden kann. Die Parameter α (und r) müssen so gewählt werden, dass die verbliebenen Gleichungen 1 und m auch erfüllt sind: A nach (MM.11): Hier kann bei Erweiterung von x ∈ Rm auf x = (xi )i=0,...,m+1 ∈ Rm+2 die Gleichung in 1 und m umge-

436

4 Eigenwerte und Normalformen von Matrizen

schrieben werden zu (a) x0 (b) −x0 + 2x1 − x2 (c) −xm−1 + 2xm − xm+1 (d) xm+1

=0 = λx1 = λxm =0.

Dabei stellt nur (d) eine Bedingung, nämlich sin((m + 1)α) = 0 , die kπ für ein k ∈ Z m+1

α :=

erzwingt. Für k = 1, . . . , m ergeben sich die Eigenwerte λk := 2 − 2 cos

kπ , m+1

k = 1, . . . , m

und dazu die Eigenvektoren u1 , . . . , um ∈ Rm , wobei uk = (vk, j ) j = sin j

kπ m+1

!!

(MM.82)

. j=1,...,m

A nach (MM.15): Hier lautet die äquivalente Erweiterung (a) x0 (b) −x0 + 2x1 − x2 (c) −xm−1 + 2xm − xm+1 (d) xm

= x1 = λx1 = λxm = xm+1 ,

die erfüllt wird durch die Wahl λk = 2 − 2 cos

! kπ , m

k = 1, . . . , m − 1 ! !! 1 kπ j− . 2 m j=1,...,m−1

uk = (vk, j ) j = cos

Da die Zeilensummen von A alle verschwinden, kommt noch λ0 = 0 u0 = (1, . . . , 1)t , d. h. der Fall k = 0, dazu. Die exakte Eigenwertbestimmung ist analog zum Beispiel (MM.16) auch möglich, wenn eine Tridiagonalmatrix mit jeweils gleichen Werten auf der Diagonale bzw. den Nebendiagonalen vorliegt:  b   c  A =      0

a .. . .. .

..

.

..

.

..

.

.

..

.

..

c

 0      ∈ K(m,m) ,    a b

4.2 Eigenwerttheorie

437

wobei a , 0 , c. Solche Matrizen, bei denen die (Neben-) Diagonalen jeweils mit dem gleichen Wert besetzt sind, heißen Toeplitz4 -Matrizen. In Verallgemeinerung von (MM.82) gilt (siehe z. B. Meyer 2000, S. 515 f.) r ! c kπ λk = b + 2a , k = 1, . . . , m cos a m+1 und uk =

r

c jkπ sin a m+1

!!

,

j = 1, . . . , m .

^

Bei der (theoretischen) Suche nach den Eigenwerten kommt es mithin darauf an, die Nullstellen λ der Funktion λ 7→ det(C − λ · 1n ) zu finden. Definition 4.25 Sei C = (ci, j ) ∈ K (n,n) . sp(C) := c1,1 + c2,2 + . . . + cn,n heißt Spur von C . Die Spur einer Matrix A ∈ K (m,n) wird in der englischen Literatur oft mit tr(A) bezeichnet (von trace ). Satz 4.26 Es sei C = (ci, j ) ∈ K (n,n) . Die Funktion χC : K ∋ λ 7→ det(C − λ1n ) ∈ K ist ein Polynom vom Grad n, für das gilt: χC (λ) = (−1)n λn + (−1)n−1 · sp(C) · λn−1 + . . . + det(C) .

Beweis: Die Leibniz-Formel X sign(σ) · (c1,σ(1) − λδ1,σ(1) ) · . . . · (cn,σ(n) − λδn,σ(n) ) χC (λ) = σ∈Σn

zeigt, dass χC (λ) ein Polynom in λ vom Grad ≤ n ist. Man findet auch als Koeffizienten

4

Otto Toeplitz ∗ 1. August 1881 in Breslau † 15. Februar 1940 in Jerusalem

438

4 Eigenwerte und Normalformen von Matrizen

bei λn (nur σ = id :) (−1)n , n−1 bei λ (nur σ = id :) (−1)n−1 (c1,1 + . . . + cn,n ) , 0 bei λ (betrachte λ = 0 :) det(C).  Bemerkungen 4.27 1) Sei p ∈ K[x] ein Polynom n-ten Grades, p(x) =

n X i=0

ai xi mit ai ∈ K, i = 0, . . . , n und an = 1 ,

dann gibt es mindestens ein C ∈ K (n,n) , so dass χC (λ) = p(λ)(−1)n . Dies gilt nämlich für die Begleitmatrix   1 0   0   .. ..   . .     .. ..  . C :=  . .     ..   . 0 1   −a0 · · · · · · · · · −an−1

(4.5)

Man erhält dies etwa durch die Entwicklung von det(C − λ1) nach der letzten Zeile (siehe Übung).

2) Bestimmung von Eigenvektoren ist also identisch mit Nullstellenbestimmung für ein Polynom (ignoriert man den Aufwand zur Aufstellung eines charakteristischen Polynoms). Nach dem Satz von Abel5 -Ruffini6 (siehe Bosch 2013, Korollar 7, S. 266) ist dies mit endlich viel Elementaroperationen (unter Einschluss des Wurzelziehens) nur für n ≤ 4 möglich. Darüber hinaus können also allgemein insbesondere die Eigenwerte auch bei exakter Rechnung nur durch Iterationsverfahren approximativ bestimmt werden. In Kapi△ tel 8.2.4 wird ein einfaches Verfahren besprochen. Definition 4.28 Das Polynom χC (λ) = det(C − λ1n ) heißt charakteristisches Polynom der Matrix C. Allgemein heißt für ein Φ ∈ HomK (V, V) bei einem endlichdimensionalen KVektorraum V auch

5

Niels Henrik Abel ∗5. August 1802 in Ryfylke, auf der Insel Finnøy, Norwegen †6. April 1829 in Froland, Aust-Agder, Norwegen 6 Paolo Ruffini ∗22. September 1765 in Valentano †10. Mai 1822 in Modena

4.2 Eigenwerttheorie

439

χΦ (λ) := det(Φ − λ id) das charakteristische Polynom des Homomorphismus Φ. Sei λ ∈ K Eigenwert von Φ, d. h. Nullstelle von χΦ . Ist λ eine k-fache Nullstelle, d. h. χΦ lässt sich schreiben als χφ (λ) = (λ − λ)k p(λ) mit ¯ ,0, p ∈ Kn−k [x], p(λ) so hat λ die algebraische Vielfachheit k. Die Grundlagen für die Abdivision von Linearfaktoren zu Nullstellen finden sich im Anhang B, Satz B.21. Nach der Begründung der Wohldefinition von det(Φ) gemäß Satz 4.5 kann dabei für Φ ∈ HomK (V, V) jede Darstellungsmatrix C, d. h. zu einer beliebig in V gewählte Basis genommen werden. Dann hat −λ id immer die Darstellungsmatrix −λ1 und man erhält jeweils das gleiche Polynom n-ten Grades (nach Satz 4.26). Dies bedeutet umformuliert: Satz 4.29 Ähnliche Matrizen haben dasselbe charakteristische Polynom.

Beweis: Wenn C ′ = A−1CA, dann ist in Wiederholung der Überlegung nach Definition 4.7 χC′ (λ) = det(A−1CA − λ1n ) = det(A−1 (C − λ1n )A) = det(A)−1 · det(C − λ1n ) · det(A) = χC (λ)

nach Theorem 2.111, 1). Satz 4.30: Ähnliche Matrizen Ähnliche Matrizen haben 1) die gleiche Determinante, 2) die gleiche Spur, 3) die gleichen Eigenwerte (bei gleicher algebraischer Vielfachheit), 4) für den gleichen Eigenwert λ die gleiche geometrische Vielfachheit.



440

4 Eigenwerte und Normalformen von Matrizen

Beweis: Folgt sofort aus Satz 4.29. Bei 4) beachte man für C, C ′ ∈ K (n,n) , C ′ = A−1CA für ein A ∈ GL(n, k), λ ∈ K: Kern(C ′ − λ1) = A−1 (Kern(C − λ1)) .



Bemerkungen 4.31 1) Sei C ∈ K (n,n) diagonalisierbar, λ1 , . . . , λn ∈ K seien die Eigenwerte, dann gilt det(C) = λ1 · . . . · λn ,

sp(C) = λ1 + . . . + λn .

Sei C ähnlich zu D = diag(λi ), dann gilt det(C) = det(D) = λi · . . . · λn ,

sp(C) = sp(D) = λ1 + . . . + λn .

In Satz 4.53 wird die Aussage allgemein gezeigt werden. 2) Vergleicht man dies mit der LR-Zerlegung PC = LR , P Permuations-, L normierte untere, R obere Dreiecksmatrix, dann gilt nach (2.154) det(C) = det(P) det(R) = (−1)l r1,1 . . . rn,n . Dies ist demnach für gerades l das Produkt der Eigenwerte und das Produkt der Pivotelemente, die aber i. Allg. nicht identisch sind. 3) In der Situation von Bemerkungen 4.19, 2) gilt deswegen für das charakteristische Polynom von Φ bzw. C nach der Kästchenregel: χΦ (λ) = det(C − λ1) = det(C1,1 − λ1k ) det(C2,2 − λ1n−k ) . Die Eigenwerte von Φ bzw. C setzen sich also zusammen aus denen von C1,1 und C2,2 . 4) Für K = K gilt: Seien A, B ∈ K(m,n) , dann ist sp(AB† ) =

Pm Pn j=1

k=1

a j,k b j,k = A : B ,

(4.6)

d. h. sp(AB†) ist eine andere Darstellung für das in (3.22) eingeführte innere Produkt. Insbesondere gilt für A ∈ K(m,n) : kAk2F = sp(AA† ) und damit folgt aus den Normeigenschaften

(4.7)

4.2 Eigenwerttheorie

441

A = 0 ⇔ sp(AA† ) = 0 ,

sp(AB†) ≤ kAkF kBkF = sp(AA† )1/2 sp(BB†)1/2

(4.8)

(Cauchy-Schwarz-Ungleichung). Wegen kAkF = kA† kF folgt aus (4.8) auch sp(AB) ≤ kAkF kBkF . 5) Satz 4.29 ist nicht umkehrbar, wie man z. B. mittels ! 11 ′ C = 1, C = 01 in K (2,2) sieht, da C nur zu sich selbst ähnlich ist. Wegen Satz 4.30, 4) sind also algebraische und geometrische Vielfachheit unabhängige Informationen, die letztere ist nicht im charakteristischen Polynom enthalten. 6) Sei A ∈ R(3,3) , χA werde in der Form χA (λ) = −λ−3 +i1 (A)λ2 −i2 (A)λ+i3 (A) geschrieben mit der Hauptinvarianten i j (A), j = 1, 2, 3. Für diese gilt i1 (A) = sp(A) = λ1 + λ2 + λ3 i2 (A) = λ1 λ2 + λ1 λ3 + λ2 λ3 =

1 (sp(A)2 − sp(A2 )) 2

i3 (A) = det(A) = λ1 λ2 λ3 . Dabei sind λi ∈ C, i = 1, 2, 3, die Eigenwerte von A.

Q Dies folgt durch Ausmultiplizieren von χA (λ) = 3i=1 (λi − λ) und P unter Berücksichtigung von Bemerkungen 4.31, 1) bzw. Satz 4.53, aus dem auch allgemein sp(A2 ) = 3i=1 λ2i folgt mit Beispiele 2.39,3).



Da nicht jedes nichtkonstante reelle Polynom reelle Nullstellen besitzt, gibt es also nach Bemerkungen 4.27 auch reelle Matrizen, die keine reellen Eigenwerte besitzen. Beispiel 4.32 (Drehmatrix) Wir betrachten die Matrix ! cos(ϕ) − sin(ϕ) C= , sin(ϕ) cos(ϕ) welche eine Drehung um den Winkel ϕ in der Ebene R2 beschreibt. Ihr charakteristisches Polynom ! cos(ϕ) − λ − sin(ϕ) χC (λ) = det = (cos(ϕ) − λ)2 + sin2 (ϕ) sin(ϕ) cos(ϕ) − λ hat die Nullstelle λ ∈ R, für welche λ = cos(ϕ) während sin(ϕ) = 0. Es gibt dafür nur die Fälle:

442

4 Eigenwerte und Normalformen von Matrizen

Winkel ϕ Eigenwert λ Drehung 0 1 Identität π −1 Punktspiegelung

Dies ist auch anschaulich völlig klar: Bei einer echten Drehung (nicht um den Winkel 0 oder π) ändert jeder Vektor seine Richtung. Ganz anders ist die Situation, wenn man C als Matrix komplexer Zahlen auffasst, und Eigenwerte in C sucht. Diese sind Wurzeln der quadratischen Gleichung λ2 − 2 cos(ϕ) λ + 1 = 0 , also λ1,2 = cos(ϕ) ± i · sin(ϕ) für ϕ ∈ [0, π] .



Allgemein kann jede reelle (n, n)-Matrix durch Komplexifikation auch als komplexe (n, n)Matrix aufgefasst werden und hat als solche (nach Satz B.21, Hauptsatz B.33) mindestens einen komplexen Eigenwert bzw. genauer k ≤ n komplexe Eigenwerte, deren algebraische Vielfachheiten sich zu n addieren (siehe Definition 4.28). Mit Satz 4.26 lässt sich das charakteristische Polynom einer reellen oder komplexen Matrix C schreiben als χC (λ) = (λ1 − λ) . . . (λn − λ) mit den komplexen Eigenwerten λ1 , . . . , λn . Die geometrische Interpretation komplexer Eigenwerte wird in (4.15) ff. klar werden. Man beachte auch, dass eine reelle Matrix zu einem komplexen, nicht reellen Eigenwert keine rein reellen Eigenvektoren haben kann. Beispiel 4.33 Wir betrachten als einfachstes Beispiel eine reelle 2 × 2-Matrix, d. h. ! ab A= ∈ R(2,2) . cd Dann ist χA (λ) = λ2 − sp(A)λ + det(A) und damit gilt mit δ := sp(A)2 − 4 det(A) = (a − d)2 + 4bc:

1) A hat zwei verschiedene reelle Eigenwerte, wenn δ > 0. 2) A hat einen reellen Eigenwert mit algebraischer Vielfachheit 2, wenn δ = 0. 3) A hat zwei zueinander konjugiert komplexe Eigenwerte, wenn δ < 0.

Im Fall 3), in dem keine reellen Eigenwerte vorliegen, werde A sodann als komplexe Matrix aufgefasst. Weiter gilt: Ist A symmetrisch, b = c, dann hat A nur reelle Eigenwerte. ! a0 Nur A = hat einen Eigenwert der algebraischen Vielfachheit 2. 0a Insbesondere ist A diagonalisierbar. Dies kann man wie folgt einsehen: δ = (a − d)2 + 4b2 ≥ 0

(4.9)

4.2 Eigenwerttheorie

443

sichert die Existenz reeller Eigenwerte, und δ = 0 ⇔ a = d und b = 0

zeigt, dass nur Vielfache von 1 einen mehrfachen Eigenwert haben. Neben diesem Fall, in dem schon Diagonalgestalt vorliegt, hat somit A zwei Eigenräume E1 und E2 zu verschiedenen Eigenwerten λ1 und λ2 . Sei x ∈ E1 , y ∈ E2 , x , 0, y , 0, dann folgt zum Beispiel aus x = αy, dass x auch Eigenvektor zu λ2 ist im Widerspruch zu Bemerkungen 4.14 1), d. h. x, y sind linear unabhängig und damit E1 ⊕ E2 = R2 , was in Theorem 4.42 allgemein gezeigt werden wird. Damit hat R2 eine Eigenvektorbasis, d. h. A ist diagonalisierbar. Dass symmetrische Matrizen allgemein (reell) diagonalisierbar sind, ist der Inhalt von Hauptsatz 4.58.



Ziemlich offensichtlich sind die im folgenden Satz formulierten Beziehungen für Eigenwerte und Eigenvektoren. In 1) benutzen wir die Notation C k , k ∈ N, für die k-te Potenz der Matrix C, wie sie in (2.42) definiert ist. Satz 4.34: Eigenwerte abgeleiteter Matrizen Die n × n-Matrix C ∈ K (n,n) habe den Eigenwert λ ∈ K mit zugehörigem Eigenvektor x ∈ Kn. 1) Dann ist x auch Eigenvektor

a) für αC, α ∈ K, zum Eigenwert αλ,

b) für α1n + C, α ∈ K, zum Eigenwert α + λ, c) für C k zum Eigenwert λk ,

d) für C −1 zum Eigenwert 1/λ, falls C invertierbar ist. 2) Auch die transponierte Matrix C t besitzt den Eigenwert λ. 3) Falls K = C, dann ist λ Eigenwert für C zum Eigenvektor x, und λ ist auch Eigenwert für C † . Hat also die reelle Matrix C den Eigenwert λ ∈ C zum Eigenvektor x ∈ Cn , so hat sie auch den Eigenwert λ zum Eigenvektor x ∈ Cn . (Komplexe Eigenwerte reeller Matrizen treten in konjugierten Paaren auf.) 4) Ist C = (ci, j ) eine obere (oder untere) Dreiecksmatrix, dann sind ihre Eigenwerte gerade die Diagonaleinträge ci,i . 5) Seien A, B ∈ K (n,n) , dann sind die Eigenwerte von AB und BA gleich: σ(AB) = σ(BA) .

Beweis: Die Formeln in 1) sind offensichtliche Umformungen der Eigenwertgleichung Cx = λ·x. Mit Theorem 2.111, 3) hat die transponierte Matrix das gleiche charakteristische Polynom

444

4 Eigenwerte und Normalformen von Matrizen

det(C t − λ1n ) = det(C − λ1n )t = det(C − λ1n ) wie C. Damit folgt 2). Konjugieren der Eigenwertgleichung Cx = λx ⇒ C x = λx führt auf die erste Aussage in 3) und die zweite Aussage folgt mit 2). Schließlich ist mit C auch C − λ1n eine Dreiecksmatrix und deren Determinante ist das Produkt (c1,1 − λ) · . . . · (cn,n − λ) ihrer Diagonaleinträge. Zu 5): Sei λ ∈ K ein Eigenwert von AB, u , 0 ein Eigenvektor dazu. Ist λ = 0, dann ist Rang(AB) < n und somit auch Rang(A) < n oder Rang(B) < n und schließlich Rang(BA) < n, also ist λ = 0 auch Eigenwert von BA. Ist λ , 0, dann gilt für w := Bu : Aw = λu , 0, also w , 0 und: BAw = BABu = B(λu) = λBu = λw, d. h. w ist Eigenvektor von BA zu λ. Vertauschen von A und B schließt den Beweis ab.  Bemerkungen 4.35 1) Sei C ∈ R(n,n) und ci ∈ C \ R ein Eigenwert und damit auch ci , dann hat das charakteristische Polynom (über C) die Linearfaktoren (ci − λ) und (ci − λ), demnach auch den Teiler (siehe Satz B.19) (ci − λ)(ci − λ) = λ2 − 2 Re ci λ + |ci |2 = (λ − ai )2 + b2i , =: qi (λ)

wobei ai = Re ci , bi = Im ci

(4.10)

und damit hat p den reellen, über R irreduziblen (siehe Definition B.28), quadratischen Faktor qi . *2) Damit gilt also mit den Bezeichnungen aus Bemerkungen 4.14, 2): x ∈ Kn ist linker Eigenvektor zu C zum Eigenwert λ ⇔ x†C = λx† ⇔ C † x = λx ⇔ n x ∈ K ist rechter Eigenvektor zu C † zum Eigenwert λ . Ist C ∈ K(n,n) diagonalisierbar, d. h. A−1CA = D = diag(λi ) für ein A ∈ GL(n, K) bzw. A†C † A−† = D† , dann sind die Spalten von A eine Basis aus rechten Eigenvektoren von C, die Spalten von A−† sind eine Basis von rechten Eigenvektoren von C † zu den Eigenwerten λi . Demnach sind die Spalten von A−† eine Basis von linken Eigenwerten für C. Wegen (A−† )† A = A−1 A = 1n gilt für die sich entsprechenden rechten Eigenvektoren u1 , . . . , un

(zu λ1 , . . . , λn )

4.2 Eigenwerttheorie

445

und linken Eigenvektoren w1 , . . . , wn

(zu λ1 , . . . , λn )

die Beziehung D

E ui . w j = δi. j

für i, j = 1, . . . , n .

Hat insbesondere λk für C die einfache algebraische Vielfachheit (und damit auch für C † ), so sind uk bzw. wk Basen für den Eigenraum von C bzw. C † zu λk , so dass für alle rechten bzw. linken Eigenvektoren u bzw. w zu λk gilt: hu . wi , 0 . Im Fall eines einfachen Eigenwerts λ werden (durch Normierung) rechte und linke Eigenvektoren u und w so gewählt, dass hu . wi = 1 . Dann ist P=u⊗w

(4.11)

die Darstellungsmatrix einer Projektion auf den Eigenraum span(u). Für K = R entspricht △ sie der Definition von (2.57). Beispiel 4.36 Es sei P : Kn → Kn eine Projektion. Dann ist P2 = P und aus Satz 4.34, 1) folgt für jeden Eigenwert λ von P, dass λ2 = λ, somit λ = 1 oder = 0. Alle Vektoren im Kern von P sind Eigenvektoren zum Eigenwert 0, alle Vektoren im Bild von P sind Eigenvektoren zum Eigenwert 1. Nach Hauptsatz 2.44, 1) ist Kn = Kern(P) ⊕ Bild(P). Somit ist P diagonalisierbar (was wir aber in Hauptsatz 2.44, 3) schon bewiesen haben). Speziell für kak2 = 1 und P = a ⊗ a, die Projektion auf Ka, ist der Eigenraum: zum Eigenwert der Unterraum λ=0 a⊥ λ=1 Ka ◦ Beispiel 4.37 Es sei a ∈ Kn mit kak2 = 1. Dann ist S = 1n − 2a ⊗ a die Matrix der Spiegelung an der Hyperebene a⊥ . Aus S 2 = 1n folgt mit Satz 4.34, 1) für jeden Eigenwert λ von S , dass λ2 = 1, also λ = ±1. Es ist der Eigenraum: zum Eigenwert der Unterraum λ = −1 Ka λ = +1 a⊥ ◦

446

4 Eigenwerte und Normalformen von Matrizen

Spezielle Matrizen haben gelegentlich spezielle Eigenwerte. Wir erinnern an die folgenden Arten spezieller Matrizen A ∈ C(n,n) : t

• A heißt hermitesch, wenn A† = A = A. Eine reelle Matrix ist hermitesch genau dann, wenn sie symmetrisch ist. • U heißt unitär, wenn UU † = 1n . Eine reelle Matrix ist unitär genau dann, wenn sie orthogonal ist. Diesen beiden Arten spezieller Matrizen fügen wir noch eine dritte Art hinzu: Definition 4.38 Die Matrix A ∈ C(n,n) heißt schiefhermitesch oder antihermitesch , wenn A† = −A. Im reellen Fall handelt es sich also um schiefsymmetrische Matrizen. A ∈ C(n,n) ist antihermitesch, genau dann, wenn iA hermitesch ist. Satz 4.39: Eigenwerte spezieller Matrizen 1) Jeder Eigenwert einer hermiteschen n × n-Matrix H ist reell.

2) Jeder Eigenwert λ einer unitären Matrix U hat den Betrag |λ| = 1.

3) Jeder Eigenwert einer antihermiteschen Matrix A ist rein imaginär.

Beweis: Wir verwenden das innere Produkt hx . yi = xt y auf dem Cn .

Zu 1): Falls x ∈ Cn ein Eigenvektor der hermiteschen Matrix H zum Eigenwert λ ∈ C ist, dann gilt folglich λ hx . xi = hλx . xi = hHx . xi = hx . Hxi = hx . λxi = λ hx . xi . Daraus folgt (λ − λ) hx . xi = 0. Da x ein Eigenvektor ist, ist hx . xi , 0 und daher λ = λ, d. h. λ ∈ R. Zu 2): Hier ist hx . xi = hU x . U xi = hλx . λxi = λλ hx . xi . Wegen hx . xi , 0 folgt |λ| = λλ = 1. Zu 3): Die Matrix iA ist hermitesch und hat nur reelle Eigenwerte. Die Behauptung folgt aus 1).  Beispiel 4.40 Sei A ∈ R(3,3) antisymmetrisch, d. h. A hat die Gestalt

4.2 Eigenwerttheorie

447

   0 a b   A = −a 0 c   −b −c 0

mit a, b, c ∈ R. Sei x := (a, b, c)t , 0 d. h. A , 0, dann gilt    −c    Kern A = span  b  .   −a

Neben λ = 0 hat A noch die rein imaginären Eigenwerte λ = ± ikxk2 , denn das charakteristische Polynom ist   pA (λ) = −λ λ2 + kxk22 .



Unabhängig von der Diagonalisierbarkeit soll noch einmal der Charakter von Eigenwerten und Eigenvektoren verdeutlicht werden. Beispiel 4.41 (Differenzengleichung) Für A ∈ K (n,n) ist x(k) ∈ K n , k ∈ N gesucht, so dass x(0) gegeben,

x(k+1) = Ax(k) .

(4.12)

Solche (zeit-)diskreten dynamischen Systeme entstehen etwa durch die Approximation der Ableitung in (MM.74) oder (MM.79) durch einen Differenzenquotienten (siehe (4.25)) und werden daher auch (lineare) Differenzengleichungen genannt. Man spricht hier auch von Fixpunktform, bei (4.12) von Fixpunktiteration, da etwa für K = K der Grenzwert x der Folge x(k) (siehe Abschnitt 7) (bei Existenz) notwendigerweise die Fixpunktgleichung x = Ax erfüllt. Die Lösungsfolge ist offensichtlich gegeben durch x(k) = Ak x(0) ,

(4.13)

so dass für das Langzeitverhalten Ak x(0) für große k zu betrachten ist. Das ist besonders einfach für einen Eigenvektor x(0) möglich: Sei A ∈ K (n,n) für einen Körper K, λ ∈ K Eigenwert und x ∈ K n ein Eigenvektor dazu. Sei U := span(x) , dann ist

448

4 Eigenwerte und Normalformen von Matrizen

A(U) ⊂ U , d. h. der eindimensionale Unterraum U ist invariant unter A und eingeschränkt darauf verhält sich A wie eine Streckung/Stauchung mit dem Faktor λ. Anwendung von Ak bedeutet daher Multiplikation mit λk . Für K = K bedeutet das etwa in der euklidischen Norm: 1) |λ| < 1 : Die „Bedeutung“ dieser(-s) Lösung(-santeils) verschwindet für k → ∞: kAk xk = |λ|k kxk → 0

für k → ∞ .

(4.14)

2) |λ| = 1 : kAk xk = kxk ,

3) |λ| > 1 : kAk xk = |λ|k kxk → ∞ für k → ∞ ,

mit analogen Interpretationen. Noch konkreter bleibt bei K = R und λ ∈ R für λ > 0 die Richtung von x erhalten, bei λ < 0 alterniert sie mit der von −x (siehe Abbildung 4.2).

x

0 0) und ϕ = π (λ < 0). ◦

450

4 Eigenwerte und Normalformen von Matrizen A3 x

x

A2 x

Ax

A2 x

Ax ϕ ϕ

ϕ x

|λ| > 1

ϕ A3 x

ϕ ϕ |λ| < 1

Abb. 4.3: Verhalten von A auf span(Re x, Im x), Eigenvektor x ∈ Cn zu Eigenwert λ ∈ C\R.

4.2.2 Diagonalisierbarkeit und Trigonalisierbarkeit Wenn im Folgenden nur explizit von Matrizen C ∈ K (n,n) die Rede ist, gelten dennoch wegen Satz 4.15 alle Aussagen auch für Φ ∈ HomK (V, V) bei einem n-dimensionalen K-Vektorraum V. Zur Vorbereitung der Diagonalisierungskriterien formulieren wir: Theorem 4.42: Summe aus Eigenräumen direkt Sei C ∈ K (n,n) , λi , i = 1, . . . , l seien paarweise verschiedene Eigenwerte in K von C. Dann gilt für die Eigenräume Ei := Kern(C − λi 1n ) : Die Summe von Eigenräumen ist direkt, d. h. E1 + . . . + El = E1 ⊕ . . . ⊕ El bzw. äquivalent dazu: Sind ui ∈ Ei , ui , 0, i = 1, . . . , l, Eigenvektoren zu verschiedenen Eigenwerten, dann sind die ui linear unabhängig.

Beweis: Für l = 2 ist dies schon mit Bemerkungen 4.14, 1) gezeigt, allgemein gilt: Nach Satz 2.46 sind beide Aussagen äquivalent, so dass nur die Zweite zu beweisen ist. Dies soll durch vollständige Induktion über l geschehen: l=1: l→l+1:

Klar. P Für αi ∈ R und ui ∈ Ei , ui , 0 sei l+1 i=1 αi ui = 0 .

4.2 Eigenwerttheorie

451

Also ist (Anwendung von C): bzw. (Multiplikation mit λl+1 ) und damit

Pl+1 i=1

αi λi ui = 0

i=1

αi λl+1 ui = 0

Pl+1

Pl

i=1

αi (λl+1 − λi )ui = 0 .

Nach Induktionsvoraussetzung und wegen λl+1 − λi , 0 für i = 1, . . . , l ist damit gezeigt, dass α1 = . . . = αl = 0, weshalb auch αl+1 = 0 folgt.  Bemerkungen 4.43 Sei V ein endlichdimensionaler K-Vektorraum und Φ ∈ HomK (V, V).

1) Für die Eigenräume Ei := Kern(Φ − λi id), i = 1, . . . k, wobei die (Eigenwerte) λi ∈ K paarweise verschieden seien, gilt demzufolge: • Φ|Ei = λi id, insbesondere Vi ist Φ-invariant. • Die Summe der Ei ist direkt. Lk • Φ ist diagonalisierbar ⇔ i=1 E i = V.

2) Sei andererseits E =

Pk

i=1

Vi eine Zerlegung von V, so gilt:

Φ ∈ Hom(V, V) ist diagonalisierbar und Vi ist Eigenraum zum Eigenwert λi für i = 1, . . . , k ⇔ Φ|Vi = λi id für i = 1, . . . , k. Die Summe ist dann direkt und die Vi sind Φ-invariant. 3) Unter den Voraussetzungen von 2) seien Pi : V → Vi die nach Satz 2.46 zugehörigen Lk Projektionen zur direkten Zerlegung V = von V. Dann gilt: i=1 ViP Φ ∈ HomK (V, V) ist diagonalisierbar ⇔ Φ = ki=1 λi Pi für gewisse L λi ∈ K für eine gewisse direkte Zerlegung. Die P j sind Projektionen auf V j in Richtung i, j Vi , d. h. auf V j := Kern(Φ − λ j id) in Richtung W j := Bild(Φ − λ j id), j = 1, . . . , k. Die Projektionen können gemäß Bemerkung 2.65 dargestellt werden. Bei „⇒“ beachte man

 k  k k X X  X   Φ = Φ ◦  Pi  = Φ ◦ Pi = λi Pi i=1

i=1

i=1

Pk

wegen Φ|Vi = λi id nach 2). Zu „⇐“: Aus Φ = j=1 λ j P j folgt Φ|Vi = Φ ◦ Pi |Vi = λi Pi |Vi = λi id wegen P j ◦ Pi = 0 für j , i und damit nach 2) die Diagonalisierbarkeit.



452

4 Eigenwerte und Normalformen von Matrizen

Satz 4.44: Diagonalisierbarkeitskriterien Sei C ∈ K (n,n) .

1) Notwendige Bedingung: Wenn C über K diagonalisierbar ist, dann zerfällt ihr charakteristisches Polynom χC in ein Produkt von Linearfaktoren über K: χC (λ) = (λ1 − λ) · . . . · (λn − λ),

λk ∈ K .

2) Hinreichende Bedingung: Wenn χC in Linearfaktoren zerfällt und alle seine Nullstellen λ1 , . . . , λn ∈ K paarweise verschieden sind, dann ist C über K diagonalisierbar.

Beweis: Zu 1): Die Aussage ist klar, da C das gleiche charakteristische Polynom wie C ′ = diag(λi ) hat. Zu 2): Zu den n paarweise verschiedenen Eigenwerten λ1 , . . . , λn finden wir als Lösungen der linearen Gleichungssysteme (C − λk 1n )u = 0 Eigenvektoren u1 , . . . , un . Zu zeigen ist,  dass die u1 , . . . , un linear unabhängig sind, was direkt aus Theorem 4.42 folgt. Auch wenn (reelle) Eigenwerte existieren, muss die Matrix nicht diagonalisierbar sein: Beispiel 4.45 (Jordan7 -Block) Wir werden uns im Abschnitt 4.5 ausführlich mit n ×nMatrizen der Form   c 1   .  . . . . .    , C =  c∈K  ..   . 1   c

beschäftigen, sogenannten Jordan-Blöcken zu Eigenwerten c. Sein charakteristisches Polynom χC (λ) = (c − λ)n hat nur die einzige Nullstelle c, diese mit der (algebraischen) Vielfachheit n. Wenn wir alle Eigenvektoren des Jordan-Blocks bestimmen wollen, müssen wir das lineare Gleichungssystem Cx = cx,

d. h.

(C − c1n )x = 0

lösen. Nun ist

7

Marie Ennemond Camille Jordan ∗5. Januar 1838 in Lyon †21. Januar 1922 in Paris

4.2 Eigenwerttheorie

453

   x1   x2  0 1       .   x   x  . . . . .   2   3  !    ..  =  ..  = 0 . (C − c1n )x =    .   .  ..  . 1  x   x     n−1   n  0  xn   0 

der Nullvektor, falls x2 = . . . = xn = 0, d. h. alle Eigenvektoren liegen auf der Geraden, welche vom ersten Koordinatenvektor e1 aufgespannt wird. Damit ist die geometrische Vielfachheit nur 1, falls n ≥ 2 gibt es keine Basis aus Eigenvektoren und damit ist ein Jordan-Block nicht diagonalisierbar. ◦ Dass die geometrische Vielfachheit wie im Fall des Jordan-Blocks höchstens zu klein sein kann, zeigt: Satz 4.46 Sei C ∈ K (n,n) und µ ∈ K Eigenwert von C. Dann gilt für µ: 1 ≤ geometrische Vielfachheit ≤ algebraische Vielfachheit ≤ n .

Beweis: Sei u1 , . . . , ul ∈ K n eine Basis des Eigenraums zu µ. Damit ist l = geometrische Vielfachheit von µ . Wir ergänzen diese Basis zu einer Basis von K n mit ul+1 , . . . , un ∈ K n . C ist damit ähnlich zu (vgl. Bemerkungen 4.19 ,2)) ! µ1l A ′ C := 0 B für ein A ∈ K (l,n−l) , B ∈ K (n−l,n−l) . Also χC = χC′

(µ − λ)1l A und χC′ (λ) = det 0 B − λ1n−l

!

und nach der Kästchenregel (siehe Hauptsatz 2.114) ist weiterhin χC′ (λ) = (µ − λ)l χB (λ) . Damit gilt algebraische Vielfachheit von µ ≥ l .



454

4 Eigenwerte und Normalformen von Matrizen

Wir formulieren jetzt ein Diagonalisierbarkeitskriterium, welches sowohl hinreichend als auch notwendig ist. Theoretisch ist dies eine sehr befriedigende Beschreibung der Diagonalisierbarkeit; praktisch für das Problem, eine konkret gegebene Matrix zu diagonalisieren, jedoch oft unbrauchbar. Hauptsatz 4.47: Notwendiges und hinreichendes Diagonalisierbarkeitskriterium Eine Matrix C ∈ K (n,n) ist genau dann diagonalisierbar, wenn

(i) das charakteristische Polynom χC in Linearfaktoren zerfällt, etwa χC (λ) = (λ1 − λ)r1 · . . . · (λk − λ)rk ,

r1 + . . . + rk = n ,

(4.19)

wobei die Nullstellen λ1 , . . . , λk alle paarweise verschieden sein sollen, aber mit ihren algebraischen Vielfachheiten r1 , . . . , rk zu Potenzen zusammengefasst, und (ii) für die verschiedenen Nullstellen λ1 , . . . , λk , j = 1, . . . , k gilt Rang(C − λ j 1n ) = n − r j

 bzw. dim Kern(C − λ j 1n ) = r j .

Beweis: „⇒“: Sei C diagonalisierbar, also etwa ähnlich zur Matrix   λ1    . ..      ′  λ1 C =     λ2   . .  .

und seien r1 , . . . , rk die Vielfachheiten, mit denen die verschiedenen Eigenwerte λ1 , . . . , λk in C ′ auftreten. Dann zerfällt das charakteristische Polynom χC (λ) = χC′ (λ) = (λ1 − λ)r1 · . . . · (λk − λ)rk in Linearfaktoren. Für j = 1, . . . , k ist C − λ j 1n = AC ′ A−1 − λ j 1n = A(C ′ − λ j 1n )A−1 und deswegen Rang(C −λ j 1n ) = Rang(C ′ −λ j 1n ). Schließlich fallen in C ′ −λ j 1n genau die r j Diagonaleinträge weg, die gleich λ j sind, während an den anderen Stellen der Diagonale die Zahlen λi − λ j für i , j stehen. Diese sind ungleich Null. Der Rang von C ′ − λ j 1n ist die Zahl der Diagonaleinträge ungleich 0, und damit gleich n − r j . Die letzte Identität ist eine Folge der Dimensionsformel I (Theorem 1.82). „⇐“: Für j = 1, . . . , k sei E j := Kern(C − λ j 1n )

4.2 Eigenwerttheorie

455

der Eigenraum zu λ j . Nach (ii) und Theorem 1.82 ist dim(E j ) = n − (n − r j ) = r j . Nach Theorem 4.42 gilt für V :=E1 + . . . + Ek dim V =

k X

rj = n

j=1

und damit (z. B. nach Bemerkungen 1.77, 2)) V = Kn . Basen der einzelnen Eigenräume setzen sich folglich zu einer Basis von K n zusammen.  Das Diagonalisierbarkeitskriterium kann man demnach sehr griffig folgendermaßen formulieren: Eine Matrix über K ist über K diagonalisierbar. ⇐⇒ Das charakteristische Polynom zerfällt über K in Linearfaktoren. Für jeden Eigenwert ist algebraische Vielfachheit = geometrische Vielfachheit. Manchmal benutzen wir folgende Sprechweisen: Definition 4.48 Sei C ∈ K (m,n) und λ ∈ K Eigenwert von C. Dann heißt λ halbeinfach , wenn gilt: algebraische Vielfachheit von λ = geometrische Vielfachheit von λ . λ heißt einfach, wenn gilt: algebraische Vielfachheit λ = 1 . Ein einfacher Eigenwert ist somit halbeinfach, Diagonalisierbarkeit liegt genau dann vor, wenn das charakteristische Polynom zerfällt und alle Eigenwerte halbeinfach sind. Für einen Jordan-Block ab n ≥ 2 ist die Lücke zwischen algebraischer und geometrischer Vielfachheit maximal, nämlich (n − 1). Er ist geradezu im höchstmöglichen Maß un-diagonalisierbar. Wenn wir eine Matrix diagonalisieren wollen, kommt es nach Hauptsatz 4.47, Eigenschaft 1), zunächst darauf an, die Nullstellen des charakteristischen Polynoms dieser Matrix zu suchen. Dies ist auch eine Frage nach den Eigenschaften des Grundkörpers K. Es gibt reelle Polynome (etwa das charakteristische Polynom einer Drehmatrix), welche keine reellen Nullstellen besitzen.

456

4 Eigenwerte und Normalformen von Matrizen

Da aber nach Satz B.21, Hauptsatz B.33 nichtkonstante komplexe und damit auch reelle Polynome immer komplexe Nullstellen haben, so dass (4.19) gilt, werden wir immer reelle Matrizen als komplexe auffassen, um wenigstens komplexe Eigenwerte zu haben, die auch einfach geometrisch interpretiert werden können (siehe (4.15) ff.). Nach Satz 4.34 treten echte komplexe Eigenwerte einer reellen Matrix als konjugiert komplexe Paare λ und λ auf. Ist nun der Grad des (charakteristischen) Polynoms p ungerade, so können nicht alle Nullstellen als solche Paare auftreten, es muss mindestens eine reelle Nullstelle von p geben. (Dass reelle Polynome ungeraden Grades immer mindestens eine reelle Nullstelle besitzen, kann man auch mit dem Zwischenwertsatz der Analysis zeigen.) Hieraus folgt der zweite Teil des nächsten Satzes, dessen erster Teil sich aus dem Fundamentalsatz (Satz B.21, Hauptsatz B.33) ergibt. Satz 4.49: Existenz von Eigenwerten Eine C-lineare Abbildung eines endlichdimensionalen komplexen Vektorraums in sich hat immer mindestens einen komplexen Eigenwert, also auch immer mindestens einen (komplexen) Eigenvektor. Eine R-lineare Abbildung eines reellen Vektorraums ungerader Dimension hat immer mindestens einen reellen Eigenwert, daher auch mindestens einen reellen Eigenvektor. Beispiel 1(4) – Historische Probleme Nachdem 1833 William Rowan Hamilton8 die Fundierung der komplexen Zahlen im Sinn von Beispiele 3.11, 2) gelungen war, mühte er sich viele Jahre vergeblich, R3 mit einer Körperstruktur zu versehen, die mit der von R  Re1 ⊂ R3 verträglich ist. Die folgende Überlegung zeigt, dass dies unmöglich ist: Sei (R3 , +, ·) ein solcher Körper. R3 ist dann ein R3 -Vektorraum und damit auch ein R-Vektorraum über dem Unterkörper R, also    λ  λx =  0  · x 0

für λ ∈ R, x ∈ R3 .

Dann wird durch ein beliebiges x ∈ R3 mittels

S x y := x · y ∈ R3 eine lineare Abbildung auf R3 definiert, wobei hier „·“ die Multiplikation im Körper (R3 , +, ·) ist. Für diese existiert ein Eigenwert λ ∈ R mit Eigenvektor z ∈ R3 , z , 0. Ist e das neutrale Element bezüglich der Multiplikation im Körper (R3 , +, ·) und 1 das neutrale Element der Multiplikation in R, folgt somit x · z = S x z = λz = λ1z = λe · z und so (x − λe) · z = 0, demzufolge wegen der Nullteilerfreiheit (s. Seite B-6) ein Widerspruch x = λe für alle x ∈ R3 .

8

William Rowan Hamilton ∗4. August 1805 in Dublin †2. September 1865 in Dunsink bei Dublin

4.2 Eigenwerttheorie

457

Mehr Glück hatte Hamilton mit der Einführung einer Schiefkörper-Struktur auf R4 , den Quaternionen : Am 16. Oktober 1843 fielen ihm bei einem Spaziergang an der Brougham Bridge in Dublin die entscheidenden Multiplikationsregeln ein, die er spontan dort einritzte. ^

Im Folgenden wird sich mehrfach die Fragestellung ergeben, ob aus einer (unitären) Ähnlichkeitstransformation einer Matrix C auf eine solche einer daraus abgeleiteten größeren e geschlossen werden kann. Dies lässt sich allgemein beantworten: Matrix C Sei K ein Körper, C ∈ K (n−k,n−k) gehe durch die durch A ∈ GL(n − k, K) gegebene Ähnlichkeitstransformation über in C ′ : A−1CA = C ′ . Sei ! C1 C2 e , C := 0 C

wobei C1 ∈ K (k,k) , C2 ∈ K (k,n−k) . Dann gilt ! ! ! ! 1k 0 C 1 C 2 1k 0 C1 C2 A e′ . = =: C 0 A−1 0 C 0 A 0 C′

(4.20)

Dies ist wegen

1k 0 0 A

!−1

=

1k 0 0 A−1

!

e zu C e′ . Für K = K ist die Transformationsmatrix eine Ähnlichkeitstransformation von C unitär (orthogonal), wenn A unitär (orthogonal) ist. Offensichtlich gilt: e′ ist obere Dreiecksmatrix, wenn C1 und C ′ C obere Dreiecksmatrizen sind.

(4.21)

Die gleichen Aussagen gelten für (obere) Blockdreiecksmatrizen bzw. auch für Blockdiagonalmatrizen, falls C2 = 0 (siehe Definition 4.54). Die Interpretation der Eigenwerte als Nullstellen des charakteristischen Polynoms ist theoretisch nützlich, aber nicht unbedingt zu deren numerischen Bestimmung geeignet. Die Bestimmung der Koeffizienten des Polynoms ist unklar und im Allgemeinen sind auch bei bekanntem charakteristischem Polynom numerische Verfahren zur Nullstellenbestimmung nötig. Gerade mehrfache Nullstellen (algebraische Vielfachheit > 1) bereiten hier Schwierigkeiten. Insofern ist auch eine Dreiecksmatrix als Normalform, aus der die Eigenwerte direkt ablesbar sind, nützlich.

458

4 Eigenwerte und Normalformen von Matrizen

Definition 4.50 Sei C ∈ K (n,n) . C heißt trigonalisierbar über K, wenn C ähnlich zu einer (oberen) Dreiecksmatrix ist. Analog zur Diagonalisierbarkeit bedeutet also Triagonalisierbarkeit die Existenz einer Basis u1 , . . . , un , so dass (bei geeigneter Anordnung der ui ) die Unterräume Vi := span(u1 , . . . , ui ), i = 1, . . . , n alle C-invariant sind, u1 daher insbesondere ein Eigenvektor ist (siehe Bemerkungen 4.19, 4)). Soll demnach jede Matrix trigonalisierbar sein über einen Körper K, muss K algebraisch abgeschlossen sein (siehe Definition B.20 und Bemerkungen 4.27). In diesem Fall ist dies auch möglich: Hauptsatz 4.51: Komplexe Schur-Normalform Jede komplexe n × n-Matrix C ist ähnlich zu einer oberen Dreiecksmatrix  c1   0   ..  .  0

 ∗ · · · ∗  .  c2 ∗ ..   . .  . . . ∗   · · · 0 cn

Man spricht auch von (komplexer) Schur9 -Normalform. Die transformierende Matrix A kann unitär gewählt werden, d. h. A ∈ O(n, C) und damit ist C unitär ähnlich zu einer oberen Dreiecksmatrix.

Beweis (Induktion nach n): Für den Induktionsanfang n = 1 ist nichts zu zeigen. Sei also n ≥ 2. Nach dem Fundamentalsatz der Algebra (Hauptsatz B.33) existiert ein Eigenwert c1 mit einem zugehörigen Eigenvektor u1 , ku1 k = 1. Wir ergänzen u1 zu einer ONB u1 , . . . , un des Vektorraums Cn . Dabei verändert sich die Darstellungsmatrix C durch diesen Wechsel von alter ONB ({e1 , . . . , en }) zu neuer ONB mit einer unitären Ähnlichkeitstransformation in   c1 ∗ · · · ∗  0    .  .  ′  . C   0 9

Issai Schur ∗10. Januar 1875 in Mogiljow †10. Januar 1941 in Tel Aviv

4.2 Eigenwerttheorie

459

mit einer komplexen (n − 1) × (n − 1)-Matrix C ′ . Nach Induktionsannahme existiert dann eine Matrix A ∈ O(n − 1, C) so, dass A−1C ′ A eine obere Dreiecksmatrix ist. Dann hat auch die nach (4.20) (k = 1) zu C ähnliche 2 × 2 Block-Matrix    c1 ∗ · · · ∗   0     .  . −1 ′  . A C A    0

Dreiecksgestalt und die transformierende Matrix ist unitär.



Bemerkungen 4.52 1) Die induktiv gesuchten Eigenvektoren (der jeweils kleineren Matrizen) können zunächst alle zum gleichen Eigenwert λ1 , dann zum nächsten Eigenwert λ2 der Matrix C, und so weiter, gewählt werden. Dann erhält man als Diagonaleinträge in der zu C ähnlichen Matrix:  c1 = · · · = cr1 = λ1      cr1 +1 = · · · = cr1 +r2 = λ2    paarweise voneinander verschieden. .. .. ..    . . .     cn−rk +1 = · · · = cn = λk 

D. h. in einer gewählten Reihenfolge unter Berücksichtigung ihrer algebraischen Vielfachheit (siehe auch Satz 4.29). 2) Ist C ∈ K (n,n) über K trigonalisierbar, dann zerfällt χC über K in Linearfaktoren. Der Beweis ist analog zum Beweis von Hauptsatz 4.47.

3) Von den Eigenschaften des Körpers C haben wir nur den Fundamentalsatz der Algebra im Beweis benutzt. Wir hätten von vorneherein auch voraussetzen können, dass das charakteristische Polynom χC in Linearfaktoren zerfällt, dann hätte der Beweis keine Voraussetzung an dem Körper gebraucht. Wir sehen zusammen mit 2): Eine Matrix ist (über einem beliebigen Körper K) genau dann trigonalisierbar, wenn ihr charakteristisches Polynom über diesem Körper K in Linearfaktoren zerfällt. Das ist folglich insbesondere für eine reelle Matrix der Fall, wenn das charakteristische Polynom in Linearfaktoren (über R) zerfällt, auch wenn nicht gilt: Algebraische Vielfachheit = geometrische Vielfachheit . Analog gilt für einen Körper K:

460

4 Eigenwerte und Normalformen von Matrizen

Jede Matrix über K ist trigonalisierbar genau dann, wenn K algebraisch abgeschlossen ist. (Zur Definition von algebraisch abgeschlossen siehe Definition B.20.) Daher wird im Folgenden oft vorausgesetzt, dass K algebraisch abgeschlossen ist, statt der Konkretisierung K = C. 4) Die Herleitung der Schur-Normalform setzt die Kenntnis der Eigenwerte voraus, bzw. diese sind aus ihr ablesbar. Nach Bemerkungen 4.27, 2) kann es also kein Verfahren geben, das nach endlich vielen Elementaroperationen die Schur-Normalform liefert. Hier zeigt sich nochmal der Unterschied zwischen der einseitigen Umformung des GaussVerfahrens C { A−1C bzw. von Umformungen zu äquivalenten Matrizen (siehe Bemerkungen 4.8, 2)), die eine Dreiecksmatrix in endlich vielen Schritten liefern, und den beidseitigen Umformungen C { A−1CA zu ähnlichen Matrizen. Mit einer HouseholderTransformation als A−1 (siehe Beispiele 2.26, 5)), d. h. einem C1 ∈ O(n, C), kann die erste t Spalte von C auf (c1,1 , c(2) 2,1 , 0, . . . , 0) transformiert werden und die erzeugten Nullen werden auch durch A−1C { A−1CA erhalten (siehe z. B. Börm und Mehl 2012, Abschnitt 5.2). Auf diese Weise kann C in endlich vielen Elementaroperationen zwar nicht auf eine obere Dreiecksmatrix, aber auf eine Matrix C = (ci, j ) der Gestalt ci, j = 0

für i > j + 1, j = 1, . . . , n

unitär ähnlichkeitstransformiert werden (d. h. die untere Nebendiagonale ist auch i. Allg. besetzt). Eine solche Matrix heißt (obere) Hessenberg10 -Matrix. 5) Eine matrixfreie Formulierung der Trigonalisierungsaussage ist: Sei V ein K-Vektorraum, dim(V) = n, Φ ∈ HomK (V, V). Genau dann, wenn χΦ in Linearfaktoren über K zerfällt, gibt es eine Basis B = [u1 , . . . , un ], so dass Vi := span(u1 , . . . , ui ), i = 1, . . . , n inva riant unter Φ sind. Ist K = K und hat V ein inneres Produkt h . i, so kann B diesbezüglich als ONB gewählt werden. Die Aussage ist eine Reformulierung von 3) (siehe Bemerkungen 4.19, 4)). Der Zusatz zur ONB folgt aus Theorem 1.112, da das Schmidtsche Orthogonalisie rungsverfahren eine ONB B′ = [u1 , . . . , un ] erzeugt, so dass

Ui := span(u1 , . . . , ui ) = Vi , i = 1, . . . , n.

10



Karl Adolf Hessenberg ∗ 8. September 1904 in Frankfurt am Main †22. Februar 1959 in Frankfurt am Main

4.2 Eigenwerttheorie

461

Satz 4.53 Sei K algebraisch abgeschlossen und C ∈ K (n,n) , λ1 , . . . λn ∈ K seien die Eigenwerte von C. Dann gilt: det(C) = λ1 · . . . · λn

sp(C) = λ1 + . . . + λn .

Beweis: Nach Bemerkungen 4.52, 3) ist C ähnlich zur oberen Dreiecksmatrix mit den λi als Diagonalelementen. Satz 4.30 (siehe auch Bemerkungen 4.31, 1)) ergibt die Behauptung.  Insbesondere ist dieses Ergebnis auch auf C ∈ R(n,n) , aufgefasst als Element von Cn , anwendbar: Seien o. B. d. A. λ1 , . . . , λk ∈ R die reellen und µ1 ± iν1 , . . . , µl ± iνl ∈ C die echt komplexen (k + 2l = n) Eigenwerte, dann det(C) =

k Y i=1

sp(C) =

k X i=1

λi

l Y (µ2i + ν2i ) i=1

λi + 2

l X

µi .

i=1

Eine reelle Matrix, die echt komplexe Eigenwerte besitzt, kann nicht ähnlich zu einer reellen Dreiecksmatrix sein, aber sie besitzt eine stark verwandte Normalform. Zur Vorbereitung sei definiert: Definition 4.54 P Sei A ∈ K (n,n) eine Matrix. Durch n1 , n2 , . . . , nk ∈ {1, . . . , n} mit kl=1 nl = n sei eine Partitionierung von A in Teilmatrizen Ai, j ∈ K (ni ,n j ) , i, j = 1, . . . , k gegeben. 1) A heißt obere Blockdreiecksmatrix, wenn gilt

Ai, j = 0 für i > j . Analog wird eine untere Blockdreiecksmatrix definiert. 2) A heißt Blockdiagonalmatrix, wenn gilt Ai, j = 0 für i , j. Die Blöcke Ai,i heißen Diagonalblöcke.

462

4 Eigenwerte und Normalformen von Matrizen

Theorem 4.55: Reelle Schur-Normalform Sei C ∈ R(n,n) . Dann ist C (reell) ähnlich zu einer oberen Blockdreiecksmatrix    B1 ∗ · · · ∗   .  .  0 . . ∗ ..    .  .. . . . .  . . ∗   .  0 · · · 0 Bk

Die Diagonalblöcke Bi sind dabei entweder (1, 1)- oder (2, 2)-Blöcke. Die (1, 1)Blöcke entsprechen genau den reellen Eigenwerten λ ∈ R von C. Die (2, 2)-Blöcke entsprechen genau den konjugiert komplexen Paaren λ und λ¯ von Eigenwerten durch ! cos(ϕ) − sin(ϕ) λ = µ + iν, µ, ν ∈ R, B = α , sin(ϕ) cos(ϕ) wobei α := |λ|, ϕ ∈ [0, π] so, dass cos(ϕ) = αµ und sin(ϕ) = − αν . C ist auch orthogonal ähnlich zu einer oberen Blockdreiecksmatrix, deren Diagonalblöcke nur (1, 1)- oder (2, 2)-Blöcke sind. Die (1, 1)-Blöcke sind genau die reellen Eigenwerte von C. Man spricht auch von der reellen Schur-Normalform.

Beweis: Der Beweis folgt aus Hauptsatz 4.51 zusammen mit den Überlegungen von (4.15) ff. Für n = 1 ist die Aussage klar, für n = 2 sei λ ∈ C ein Eigenwert von C. Ist λ ∈ R, so muss auch der zweite Eigenwert reell sein und es kann Hauptsatz 4.51 unter Beachtung von Bemerkungen 4.52, 3) angewendet werden. Sei daher λ ∈ C\R, λ = µ + iν, µ, ν ∈ R und x = y + iz, y, z ∈ Rn , z , 0 ein Eigenvektor von C , analog zu (4.15) ff. sei A = (y, z) ∈ R

(2,2)

,

cos(ϕ) − sin(ϕ) C := α sin(ϕ) cos(ϕ) ′

!

für α := |λ|, ϕ ∈ [0, π), so dass cos(ϕ) = αµ , sin(ϕ) = − αν . Dann ist C ′ die Darstellungsmatrix bezüglich der neuen Basis {y, z} (und C die Darstellungsmatrix des Homomorphismus bezüglich der Standardbasis {e1 , e2 }), also ist A die Übergangsmatrix und so C ′ = A−1CA .

4.2 Eigenwerttheorie

463

Die Modifikationen zu einer orthogonalen Übergangsmatrix ist ein Spezialfall der den Beweis abschließenden Überlegungen. Für den Induktionsschluss sei n ≥ 3 und C ∈ R(n,n) . Hat C einen reellen Eigenwert c1 ∈ R, kann wie in Beweis von Hauptsatz 4.51 verfahren werden. Kann nur ein echt komplexer Eigenwert λ ∈ C\R gesichert werden, so wird wie oben bei n = 2 verfahren (bei gleicher Notation). Die linearen unabhängigen y, z ∈ Rn werden mit u3 , . . . , un ∈ Rn zu einer Basis ergänzt. Dies verändert die Darstellungsmatrix zu         

B 00 .. .. . . 00

 ∗ · · · ∗   ∗ · · · ∗     C ′  

mit B = α

! cos(ϕ) − sin(ϕ) , C ′ ∈ R(n−2,n−2) . sin(ϕ) cos(ϕ)

(4.22)

Nach Induktionsvoraussetzung gibt es zu C ′ ein A ∈ GL(n − 2, R), so dass A−1C ′ A eine obere Blockdreiecksmatrix der beschriebenen Art ist. Nach (4.20) (k = 2) ergibt sich als reell ähnliche Matrix   ∗ · · · ∗    B  ∗ · · · ∗     0 0  . (4.23)  . .  . . A−1C ′ A  . .   00

In beiden Fällen haben wir also durch eine reelle Ähnlichkeitstransformation eine obere Blockdreiecksmatrix der behaupteten Struktur erhalten. Soll die obere Blockdreiecksmatrix auch orthogonal ähnlich sein, so kann statt {y, z} eine ONB {y′ , z′ } von V = span{y, z} gewählt werden, die mit u3 , . . . , un zu einer ONB des Rn ergänzt wird. Dadurch verändert sich B zu einem e B ∈ R(2,2) in (4.22) und die zugehörige Übergangsmatrix ist orthogonal nach Satz 4.10, 3). Für den weiteren Schritt zu (4.23) kann A in O(n − 2, R) gewählt werden. Damit ist auch die Übergangsmatrix in (4.20) und damit die gesamte Ähnlichkeitstranformation orthogonal.  Beispiele 4.56 (Differenzengleichung) 1) In Beispiel 3(6) wurden Exempel betrachtet für (kontinuierliche) dynamischen Systeme der Art

oder

x˙ (t) = Cx(t) x¨ (t) = Cx(t),

(4.24) t ∈ R.

Hierbei ist C ∈ K(n,n) , x(t0 ) bzw. auch x˙ (t0 ) ∈ Kn und t0 ∈ R gegeben und Funktionen x : R → Kn gesucht. Der Punkt bezeichnet wieder die Ableitung nach t und ist für x komponentenweise zu verstehen. Kontinuierliche dynamische Systeme stehen in engem Zusammenhang mit diskreten dynamischen Systemen in der Form einer Fixpunktiteration,

464

4 Eigenwerte und Normalformen von Matrizen

wie sie in (4.12) formuliert ist. Eine solche Fixpunktiteration entsteht nämlich z. B. aus (4.24), wenn dieses System nur zu diskreten (Zeit-) Punkten tk (z. B. tk = k∆t + t0 für ein ∆t > 0) betrachtet wird und x˙ (tk ) durch einen Differenzenquotienten angenähert wird, etwa 1 (x(tk+1 ) − x(tk )) ≈ x˙ (tk ) = Cx(tk ) , ∆t

(4.25)

d. h. durch eine Differenzengleichung. Betrachtet man demzufolge ein System der Form (4.12) mit A := 1n + ∆tC ,

(4.26)

so kann man erwarten, dass die x(k) Näherungswerte für x(tk ) sind. Diese Approximation nennt man das explizite Euler11 -Verfahren. Umgekehrt kann man für ∆t > 0 und Auflösung von (4.26) nach C eine Fixpunktform (4.12) in die Form einer Differenzengleichung überführen. Dies erklärt auch die Bezeichnung in (MM.19) und (4.12). 2) Wir kehren zurück zur Fixpunktformulierung (4.12). Sei A diagonalisierbar in K, d. h. D = C −1 AC mit D = diag(λi ) und den Eigenwerten λ1 , . . . , λn sowie C = (u1 , . . . , un ), wobei u1 , . . . , un eine Basis aus Eigenvektoren ist. Dann lässt sich eine Lösungsdarstellung von (4.12) angeben. Seien λ(1) , . . . , λ(l) die paarweise verschiedenen Eigenwerte und E1 , . . . , El die zugehörigen Eigenräume. x(0) ∈ K n hat also die eindeutige Darstellung x(0) = x1 + . . . + xk

mit xi ∈ Ei

und nach Satz 4.34, 1) ist  k  k x(k) = λ(1) x1 + . . . λ(l) xl .

(4.27)

Genauer ist die Lösungsdarstellung von (4.12) für beliebiges D x(k) = CDk C −1 x(0) = CDk α und damit für diagonales D x(k) =

n X

αi λki ui ,

i=1

11

Leonhard Euler ∗15. April 1707 in Basel †18. September 1783 in Sankt Petersburg

(4.28)

4.2 Eigenwerttheorie

465

wobei λi die Eigenwerte zu den Eigenvektoren ui bezeichnen und α = C −1 x(0) . Sei im Folgenden K = K. Das Verhalten der einzelnen Anteile in (4.27) für k → ∞ hängt demnach von |λ| ab, wie schon in (4.14) dargestellt. Die Anteile für λ(i) mit |λ(i) | < 1 verschwinden also für k → ∞ aus der Iterierten x(k) . Gibt es Anteile mit |λ(i) | > 1, dann wächst x(k) unbeschränkt. Ein asymptotischer Zustand für k → ∞, d. h. x(k) → x ∈ Kn

für k → ∞,

wird erreicht, wenn es keine Eigenwerte mit |λ(i) | > 1 und bei |λ(i) | = 1 nur λ( j) = 1 auftritt (dann x = x j ), da x notwendigerweise Ax = x erfüllt, folglich ein Fixpunkt von A ist. 3) Ist A reell, aber nur in C diagonalisierbar, so gibt es analog zu Theorem 4.55 (siehe Aufgabe 4.14) (bzw. in Vorgriff auf Satz 4.100) eine reelle Blockdiagonalform  λ1  ..  . 0   λℓ D =  B1   ..  . 0  mit λi ∈ R ,

i = 1, . . . , ℓ ,

Bℓ ′

       ,    

! µj νj Bj = , −ν j µ j

(4.29)

j = 1, . . . , ℓ′ .

Die Übergangsmatrix C = (u1 , . . . , uℓ , u1 , w1 , . . . , uℓ′ , wℓ′ )

(4.30)

besteht dabei aus den Eigenvektoren für reelle λ bzw. aus Real- und Imaginärteil davon für konjugiert komplexe Eigenvektoren. Das nach (4.28) für die Lösungsdarstellung zu berechnende Dk ist gegeben durch die (1, 1)-Blöcke λki und die (2, 2)-Blöcke ! cos(kϕ j ) − sin(kϕ j ) (4.31) Dkj = akj sin(kϕ j ) cos(kϕ j ) 1  µ ν mit a = µ2 + ν2 2 , cos(ϕ) = , sin(ϕ) = − (4.32) a a

(unter Beachtung von (2.45)). Daher lautet die Lösungsdarstellung

466

x(k) =

4 Eigenwerte und Normalformen von Matrizen ℓ X i=1

αi λm i ui +

ℓ′ X i=1

 |λi |k βi (cos(kϕi )ui + sin(kϕi )wi ) + γi (cos(kϕi )wi − sin(kϕi )ui ) ,

(4.33)

wobei (α1 , . . . , αℓ , β1 , γ1 , . . . , βℓ′ , γℓ′ )t = C −1 x(0) .



Beispiel 1(5) – Historische Probleme Wir kehren zurück zur Folge der Fibonacci-Zahlen nach (MM.17), (MM.18). Sei ! f x(k) := k+1 für k = 0, 1, . . . , fk+2 dann gilt x(k+1) =

! 0 1 (k) x , 11

so dass nur die Eigenwerte von A=

! 01 11

untersucht werden müssen. Diese sind λ1 =

√ 1+ 5 , 2

λ2 =

√ 1− 5 2

! 1 , λ1

x˜ 2 =

! 1 . λ2

mit zugehörigen Eigenvektoren x˜ 1 =

Der Startvektor x(0) = (0, 1)t hat in dieser Basis die Darstellung x(0) =

1 ( x˜ 1 − x˜ 2 ) =: x1 + x2 λ1 − λ2

und somit erhält man für fk als erste Komponente von x(k−1) nach (4.27):  √ k  √ k  1  1 + 5   1 − 5    −    . fk = √  2 2 5

So erhalten wir auch das Ergebnis aus Beispiel 1(3), ohne auf den Ansatz (MM.32) zurückgreifen zu müssen. ^

Beispiel 4.57 (Differenzengleichung) Wie in Beispiel 1(5) eine lineare Differenzengleichung 2. Ordnung in ein System 1. Ordnung umgewandelt worden ist, kann dies auch mit einer Gleichung m-ter Ordnung nach (MM.20), (MM.21) geschehen. Dazu sei

4.2 Eigenwerttheorie

467

300

300 250

250 200 200

150 100

150 50 100

0 −50

50 −100 0

−150 1

2

3

4

5

6

7

8

1

2

3

λ>1

4

5

6

7

8

6

7

8

6

7

8

λ < −1

0.5

0.3

0.45

0.2

0.4 0.1 0.35 0

0.3 0.25

−0.1

0.2

−0.2

0.15 −0.3 0.1 −0.4

0.05 0

−0.5 1

2

3

4

5

6

7

8

1

2

3

0 0, also (u1 , u2 , a) ein Rechtssystem bilden (siehe Beispiel 2.129). Somit ist P2 x = a × x = a ×

3 X i=1

xi ei =

3 X i=1

(a × ei )xi =

3 X (a × ei ) ⊗ ei x i=1

und damit folgt die Darstellung (4.49).

3) Zu S ∈ O(3, R), det(S ) = −1 gibt es eine Drehachse a ∈ R3 , so dass S eine durch ϕ ∈ [0, 2π) beschriebene Drehspiegelung darstellt. A lässt sich schreiben als S = DS (ϕ, a) = cos(ϕ)1 − (1 + cos(ϕ))a ⊗ a + sin(ϕ)

3 X (a × ei ) ⊗ ei .

(4.51)

i=1

Da S notwendigerweise den Eigenwert -1 hat, ergibt sich die Aussage völlig analog zu 2).

4) Nach Beispiele 3.2, 7) und Definition 2.123 ist ein S ∈ SO(3, R) dadurch charakterisiert, dass eine festgewählte rechtsorientierte ONB auf eine rechtsorientierte ONB abgebildet wird. Diese Abbildung kann man auch als Produkt von drei Drehungen um die „kartesischen Hauptachsen“ schreiben. Dies ergibt die Beschreibung einer rechtsorientierten ONB (zur Beschreibung von Körperkoordinaten, etwa Flugzeugen) durch drei Winkel in Bezug auf eine festgewählte „erdgebundene“ rechtsorientierte ONB, o. B. d. A. B1 = {e1 , e2 , e3 }. Sei dann B2 = {u1 , u2 , u3 } ein ONB von R3 mit det(u1 , u2 , u3 ) = 1. Dann kann S = (u1 , u2 , u3 ) ∈ SO(3, R) folgendermaßen zerlegt werden: S 1 : (e1 , e2 , e3 ) 7→ (u′1 , u′2 , e3 ), wobei    v1,1  1   v′1 :=  v1,2  , α 0 

   −v1,2  1   v′2 :=  v1,1  α 0 

1

mit α := (v21,1 + v21,2 ) 2 .

S 1 kann nach (4.48) durch einen Drehwinkel Ψ um die Drehachse e3 beschrieben werden. S 2 : (u′1 , u′2 , e3 ) 7→ (u1 , u′2 , u′3 ), wobei u′3 := u1 × u′2 . S 2 kann man durch einen Drehwinkel Θ um die Drehachse u′2 (die „neue“ y-Achse) beschreiben. S 3 (u1 , u′2 , u′3 ) 7→ (u1 , u2 , u3 ). S 3 kann durch einen Drehwinkel Φ um die Drehachse u1 (die „neue“ x-Achse) beschrieben werden. Die auftretenden Winkel heißen auch Euler-Winkel . In der Luftfahrt heißen Ψ Gierwinkel , Θ Nickwinkel und Φ Rollwinkel , die Hilfsachsen u′1 , u′2 , u′3 heißen Knotenachsen . ◦ Matrizen A, B ∈ K (n,n) kommutieren i. Allg. nicht. Ausnahmen bilden z. B. DiagonalmaP trizen oder eine Matrix A und dazu B = ki=0 ai Ai (siehe Kapitel 4.4.1). Im Folgenden wird eine Charakterisierung für normale Matrizen gegeben, die die genannten Beispiele verallgemeinert.

486

4 Eigenwerte und Normalformen von Matrizen

Satz 4.71: Simultane Diagonalisierbarkeit Für zwei normale n × n-Matrizen S 1 und S 2 sind äquivalent:

(i) Es gibt eine Orthonormalbasis des Kn , deren Vektoren Eigenvektoren sowohl für S 1 als auch für S 2 sind.

(ii) S 1 S 2 = S 2 S 1 .

Beweis: „(i) ⇒ (ii)“: Ist A die Übergangsmatrix in diese (Orthonormal-)basis, so sind D1 := A−1 S 1 A und D2 := A−1 S 2 A beides Diagonalmatrizen. Diese kommutieren, und daraus folgt S 1 S 2 = AD1 A−1 AD2 A−1 = A D1 D2 A−1 = A D2 D1 A−1 = AD2 A−1 AD1 A−1 = S 2 S 1 . „(ii) ⇒ (i)“: Nach Hauptsatz 4.66 gibt es eine Orthonormalbasis des Kn aus Eigenvektoren für S 1 . Die zugehörigen Eigenwerte brauchen nicht alle verschieden zu sein. Seien λ1 , · · · , λm die Verschiedenen unter den Eigenvektoren und Ek := {u ∈ Kn : S 1 u = λk u} ⊂ Kn , k = 1, . . . , m, die zugehörigen Eigenräume von S 1 . Es gibt somit eine direkte Summenzerlegung Kn = E1 ⊕ . . . ⊕ Em in paarweise orthogonale Eigenräume von S 1 . Sei u ∈ Ek . Aus (ii) folgt S 1 (S 2 u) = S 2 (S 1 u) = S 2 λk u = λk S 2 u. In Worten: Der Vektor S 2 u ist auch Eigenvektor von S 1 zum selben Eigenwert λk , demnach S 2 u ∈ Ek . Da dies für beliebige Vektoren u ∈ Ek gilt, ist der Eigenraum Ek invariant unter der linearen Abbildung mit Matrix S 2 . Die orthogonale direkte Summen-Zerlegung ist also auch unter der linearen Abbildung u 7→ S 2 u invariant. Ist A eine Übergangsmatrix in eine Orthonormalbasis, welche dieser Zerlegung angepasst ist, so ist A−1 S 2 A eine entsprechende Blockdiagonalmatrix. Dabei sind die Kästchen in dieser Matrix normal nach Satz 4.65, 4), während die Kästchen in A−1 S 1 A Vielfache der Einheitsmatrix sind. Jetzt wenden wir Hauptsatz 4.66 auf die einzelnen Kästchen in A−1 S 2 A an und erhalten Orthonormalbasen der einzelnen Eigenräume Ek aus Eigenvektoren für S 2 . Die Vereinigung dieser Orthonormalbasen ist eine Orthonormalbasis des ganzen Kn aus Eigenvektoren für S 2 , die gleichzeitig Eigenvektoren für S 1 sind.  Bemerkung 4.72 Die Charakterisierung der simultanen Diagonalisierbarkeit (es gibt eine Basis des Kn , deren Vektoren Eigenvektoren sowohl für S 1 als auch S 2 sind) durch die Kommutativität im Matrixprodukt gilt allgemein für diagonalisierbare S 1 , S 2 (und damit für eine Menge diagonalisierbarer Matrizen). Der Beweis (i)⇒(ii) von Satz 4.71 gilt auch hier und (ii)⇒(i) ist eine Folge von Bemerkungen 4.116. △

Aufgaben

487

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Normaler Operator, normale Matrix • Spektraldarstellung • Simultane Diagonalisierbarkeit

Zusammenhänge: • • • • •

Hauptachsentransformation für selbstadjungierte Matrizen (Hauptsatz 4.58) Normal bleibt durch unitäre Ähnlichkeitstransformation erhalten (Satz 4.63) Mit U ist auch U ⊥ Φ-invariant für normales Φ Eigenräume bei normalen Operatoren sind orthogonal (Satz 4.65) Normal ⇔ unitär diagonalisierbar (Hauptsatz 4.66)

Aufgaben Aufgabe 4.17 (K) Sei A eine symmetrische, reelle 3 × 3-Matrix, deren fünfte Potenz die Einheitsmatrix 1 ist. Man zeige A = 1. Aufgabe 4.18 (K) Zeigen Sie, dass die Matrix  1 2 1  S :=  2 3 6 31

 3   1   2

mittels einer orthogonalen Matrix A auf Diagonalform D = A−1 S A gebracht werden kann, und geben Sie die Matrix D explizit an. Aufgabe 4.19 (K) Üben Sie auf die Matrix   −1 0  0 −1 S =   2 0 0 2

 2 0   0 2   ∈ R4×4 −1 0  0 −1

eine Hauptachsentransformation aus, d. h. bestimmen Sie eine Matrix A ∈ R4×4 , so dass At S A diagonal ist. Aufgabe 4.20 (T) Zeigen Sie, dass jedes Φ ∈ Hom(V, V), das (4.45) erfüllt, unitär ist.

488

4 Eigenwerte und Normalformen von Matrizen

4.4 Blockdiagonalisierung aus der Schur-Normalform

4.4.1 Der Satz von Cayley-Hamilton Im Anhang B, Definition B.16 werden Polynome allgemein über einem Körper K definiert. Eine andere Art der Bildung entsteht, wenn ein Polynom über K „ausgewertet“ wird an einem Element x ∈ V, wobei V ein K-Vektorraum ist, auf dem auch eine Multiplikation definiert ist (genauer ist V somit eine sogenannte K -Algebra (siehe Definition 3.17)). Ein Beispiel dafür ist V = K (n,n) für ein beliebiges n ∈ N oder allgemein Hom(W, W) für einen K-Vektorraum W. Für festes C ∈ K (n,n) ist m X ν=0

aνC ν = amC m + am−1C m−1 + . . . + a1C + a0 1n ∈ K (n,n)

und somit ist die Abbildung    K[x] ϕ :  ν  p = p(λ) = Pm 0 aν λ

→ K (n,n) P ν 7→ ϕ(p) := p(C) := m 0 aν C

(4.52)

wohldefiniert und auch K-linear. Analog ist p(Φ) für ein Φ ∈ Hom(W, W) definiert. Bei p(C) für C ∈ K (n,n) sprechen wir vom Matrizenpolynom. Nach Theorem 2.35 hat Φk die Darstellungsmatrix C k , falls Φ zu gegebener Basis die Darstellungsmatrix C hat. Damit gilt mit Theorem 2.24 p(Φ) hat die Darstellungsmatrix p(C).

(4.53)

Beispiel 4.73 Sei etwa p(λ) = λ2 − 1. Dann ist p(C) = C 2 − 1 . Die Faktorisierung p(λ) = (λ + 1)(λ − 1) ergibt die gleiche Faktorisierung für das Matrizenpolynom: (C + 1)(C − 1) = C 2 + C − C − 1 = C 2 − 1 . Diese Produktformel gilt ganz allgemein: Satz 4.74 Ist p(λ) = q1 (λ)q2 (λ)



4.4 Blockdiagonalisierung aus der Schur-Normalform

489

ein Polynom-Produkt, so gilt für jede n × n-Matrix C p(C) = q1 (C)q2 (C) .

Beweis: Offensichtlich gilt für die Abbildung ϕ aus (4.52) ϕ(xi+ j ) = C i+ j = C i C j = ϕ(xi )ϕ(x j ) . Wegen der K-Linearität von ϕ gilt dies auch für entsprechende Linearkombinationen und damit folgt die Behauptung.  Ein ganz wesentlicher Punkt ist, dass man daher im obigen Produkt die Faktoren vertauschen darf: q1 (C)q2 (C) = q2 (C)q1 (C) . Obwohl Matrizen i. Allg. nicht kommutieren, kommutieren Matrizen, die Polynome der gleichen Matrix C sind, immer. Etwas formaler: R(C) := {p(C) : p ∈ K[x]} definiert zu gegebenem C ∈ K (n,n) einen kommutativen Unterring von K (n,n) (bzw. für Φ ∈ HomK (V, V) statt C dann von HomK (V, V)). Außerdem ist die Polynombildung mit der Ähnlichkeitstransformation verträglich: Satz 4.75 Die Matrix C ′ = A−1CA sei ähnlich zur Matrix C. Dann gilt für jedes Polynom p(λ) p(C ′ ) = A−1 p(C)A .

Beweis: Dies kann als Folgerung von (4.53) verstanden werden, soll aber noch einmal explizit nachgerechnet werden. Wegen (C ′ )ν = (A−1CA) (A−1CA) . . . (A−1CA) = A−1C C . . . CA = A−1C ν A ist die Ähnlichkeitsrelation mit der Matrixpotenz verträglich, d. h. man kann einfach ausmultiplizieren  m  m m  X X  X  ′ ′ ν −1 ν −1  ν p(C ) = aν (C ) = aν A C A = A  aνC  A = A−1 p(C)A .  0

0

0

490

4 Eigenwerte und Normalformen von Matrizen

Offensichtlich gilt für eine beliebige Basis B = {u1 , . . . , un } von K n p(C) = 0 ⇔ p(C)ui = 0

für alle

i = 1, . . . , n .

Sei insbesondere C diagonalisierbar und habe daher eine Basis aus Eigenvektoren u1 , . . . , un zu den Eigenwerten λ1 , . . . , λk ∈ K. Sei χC (λ) :=

k Y (λi − λ)ri i=1

das charakteristische Polynom und pC (λ) :=

k Y i=1

(λi − λ) ,

(4.54)

d. h. pC hat die gleichen Nullstellen wie χC , aber jeweils nur einfach. Dann gilt χC (C) = 0 und

pC (C) = 0 .

(4.55)

Dies kann man folgendermaßen einsehen: Sei uα Eigenvektor zu Eigenwert λβ , dann ist pC (C)uα =

k k Y Y (λi 1 − C)uα = (λi 1 − C)(λβ uα − Cuα ) = 0 i=1

i=1 i,β

und analog auch χC (C)uα = 0. Alternativ hätte Satz 4.75 auch um die folgende Aussage ergänzt werden können: Sei p ∈ K[x], C ∈ K (n,n) , λ ∈ K ein Eigenwert von C zum Eigenvektor u. Dann ist p(C)u = p(λ)u .

(4.56)

Satz 4.77a: Spectral Mapping Theorem Sei K algebraisch abgeschlossen, V ein eindimensionaler K-Vektorraum, Φ ∈ HomK (V, V), p ∈ K[x], dann gilt p(σ(Φ)) = σ(p(Φ)).

Beweis: Es reicht eine Matrix C ∈ K (n,n) zu betrachten. Dann ist „⊂“ in (4.56) enthalten und für „⊃“ beachte man: Sei λ ∈ σ(p(C)), dann hat p−λ eine Zerlegung in Linearfaktoren, d. h.

4.4 Blockdiagonalisierung aus der Schur-Normalform

p(x) − λ = a0

491

n Y (x − αi ) i=1

und damit p(C) − λ1 = a0

n Y i=1

(C − αi 1) .

Da die linke Seite nicht invertierbar ist, muss dies auch für einen Faktor der rechten Seite gelten, etwa für C − α j 1 und damit α j ∈ σ(C), also λ = p(α j ) ∈ p(σ(C)).  Ist z. B. K = R, dann gilt nur (4.56), denn ist z. B. C = G(α) zu α = (siehe Beispiel 4.32), dann ist σ(C) = ∅, σ(C 2 ) = {−1}.

π 2

die Drehmatrix

Zur Bestätigung von (4.55) betrachten wir:

Beispiel 4.76 (Drehmatrix) Wir kürzen ab cos(ϕ) = c,

sin(ϕ) = s,

dann hat eine Drehmatrix die Form: ! c −s C= . s c Ihr charakteristisches Polynom ist χC (λ) = (c − λ)2 + s2 . Einsetzen von C liefert: 0 s χC (C) = (c · 12 − C) + s · 12 = −s 0 2

2

!2

! ! ! s2 0 −s2 0 s2 0 + = + =0. 0 s2 0 −s2 0 s2



In Abschnitt 4.2.2 wurde der Jordan-Block (zum Eigenwert 0) als spezielle strikte obere Dreiecksmatrix in K (n,n) eingeführt, die nur den Eigenwert 0 hat. Solche Matrizen sind nilpotent, wobei: Definition 4.77 Sei C ∈ K (n,n) . C heißt nilpotent, wenn ein k ∈ N existiert, so dass Ck = 0 . Sei V ein K-Vektorraum, Φ ∈ HomK (V, V). Φ heißt nilpotent , wenn ein k ∈ N existiert, so dass

492

4 Eigenwerte und Normalformen von Matrizen

Φk = 0. Die minimale Potenz k heißt der Nilpotenzgrad (oder -index ) von Φ.

Satz 4.78 1) (Obere) Dreiecksmatrizen C ∈ K (n,n) mit ci,i = 0

für alle i = 1, . . . , n ,

sind nilpotent. 2) Sei K ein algebraisch abgeschlossener Körper12, C ∈ K (n,n) habe genau den Eigenwert 0. Dann ist C nilpotent. Im Fall der Nilpotenz gilt mindestens C n = 0.

Beweis: Zu 1): Seien A = (ai, j ), B = (bi, j ) ∈ K (n,n) obere Dreiecksmatrizen und l ∈ N0 ai, j = 0 für

j ≤i+l,

bi, j = 0

für

j≤i,

dann erfüllt AB = (di, j ) di, j = 0

für j ≤ i + l + 1 .

Es ist nämlich di, j =

n X k=1

ai,k bk, j = |{z} |{z} =0 für =0 für k≤i+l j≤k

j−1 X

ai,k bk, j = 0

k=i+l+1

für j − 1 < i + l + 1 d. h. j ≤ i + l + 1. Sukzessive Anwendung auf A = C l+1 , B = C für l = 0, . . ., zeigt, dass mindestens   C l+1

i, j

= 0 für

j≤i+l

und damit C n = 0. e ähnlich zu C und C nilpotent, so ist auch C e nilpotent. Nach Hauptsatz 4.51 Zu 2): Ist C und Bemerkungen 4.52, 3) ist C ähnlich zu einer oberen Dreiecksmatrix, deren Diagonaleinträge verschwinden. 

12

siehe Anhang Definition B.20

4.4 Blockdiagonalisierung aus der Schur-Normalform

493

Bemerkungen 4.79 1) Unter den angegebenen Bedingungen sind die in Satz 4.78, 1) bzw. 2) beschriebenen Matrizen auch die einzigen nilpotenten oberen Dreiecksmatrizen bzw. n × n-Matrizen über K. Für c ∈ K , c , 0, gilt auch cn , 0 für alle n ∈ N. Zu 1): Hat C ein Diagonalelement ci , 0, so gilt für alle n ∈ N : (C n )ii = cni , 0, C kann folglich nicht nilpotent sein. Ohne Rückgriff auf eine ähnliche Dreiecksmatrix und für allgemeine K kann folgendermaßen argumentiert werden: Ist C = 0, dann ist λ = 0 der einzige Eigenwert, ist C , 0, also C k+1 = 0, aber C k , 0 für ein k ∈ N, dann gilt für ein y ∈ K n , so dass x := C k y , 0 : C x = 0, d. h. 0 ist Eigenwert. Ist andererseits λ Eigenwert zum Eigenvektor x , 0, dann folgt aus C x = λx auch 0 = C k+1 x = λk+1 x und damit λk+1 = 0, also λ = 0.

2) Ein Φ ∈ HomK (V, V) ist nilpotent genau dann, wenn die Darstellungsmatrix bezüglich einer und dann bezüglich aller Basen nilpotent ist. △ Beispiel 4.80 1) Für einen Jordan-Block J zum Eigenwert 0 der Dimension n gilt:   0 · · · 0 1 · · ·  .. .. ..  . . .   .. ..  . . J k =  ..  .   ..  .  0

0 .. . 1 0 .. . 0

            

hat k − 1 mit Null besetzte obere Nebendiagonalen neben der Diagonalen. Insbesondere ist Jn = 0 . 2) Es ist χC (C) = 0 für jede (auch nichtdiagonalisierbare) strikte (obere) Dreiecksmatrix. Es sei dazu nämlich     C =   

0 ∗ ··· ∗ .. . . . . .. . . . . .. .. . ∗ . 0 ··· ··· 0

     .   

Sie hat den einzigen Eigenwert λ = 0 mit der Vielfachheit n. Ihr charakteristisches Polynom ist demnach

494

4 Eigenwerte und Normalformen von Matrizen

χC (λ) = (−λ)n . Nach Satz 4.78 gilt: χC (C) = (−1)n · C n = 0. 3) Sei ! ab C= ∈ R(2,2) , cd Wegen (C − d1)(C − a1)e1 = (C − d1)ce2 = bce1

(C − a1)(C − d1)e2 = (C − a1)be1 = bce2

gilt:

χC (C) = (C − a1)(C − d1) − bc1 = 0 .



Die gefundene Aussage gilt allgemein. Theorem 4.81: Satz von Cayley-Hamilton13 Sei K algebraisch abgeschlossen, dann gilt für jede Matrix C ∈ K (n,n) : χC (C) = 0 .

Beweis: Nach dem Trigonalisierbarkeitskriterium Hauptsatz 4.51 (siehe auch Bemerkungen 4.52, 3)) ist C ähnlich zu einer oberen Dreiecksmatrix C ′ . Es ist deswegen χC′ (λ) = χC (λ) und wegen Satz 4.75 gilt mit der Transformationsmatrix A χC′ (C ′ ) = χC (C ′ ) = A−1 χC (C)A . Damit ist χC (C) = 0 ⇔ χC′ (C ′ ) = 0 .

(4.57)

Es genügt also, die Aussage für die obere Dreiecksmatrix C ′ zu beweisen. Mit anderen Worten: Wir können o. B. d. A. annehmen, C selbst ist eine obere Dreiecksmatrix. Auf der 13

Arthur Cayley ∗16. August 1821 in Richmond upon Thames †26. Januar 1895 in Cambridge

4.4 Blockdiagonalisierung aus der Schur-Normalform

495

Diagonale von C stehen dann die Eigenwerte, etwa in der Reihenfolge λ1 , λ2 , . . . , λn . Wir beweisen jetzt durch Induktion nach k = 1, . . . , n die folgende Aussage: (λ1 · 1n − C)(λ2 · 1n − C) . . . (λk · 1n − C)ei = 0

für i = 1, . . . , k .

Anders ausgedrückt: Die ersten k Spalten der Matrix (λ1 · 1n − C) . . . (λk · 1n − C) sind Null-Spalten. Für k = n ist dies die Behauptung unseres Satzes. Induktionsanfang (k = 1): Die Matrix λ1 · 1n hat, ebenso wie die Matrix C in ihrer linken oberen Ecke den Eintrag λ1 . Alle anderen Einträge dieser beiden Matrizen in der ersten Spalte sind Null. Aufgrund dessen sind alle Einträge Null in der ersten Spalte der Matrix λ1 · 1n − C. Induktionsannahme: Die Behauptung gelte für alle i < k. Induktionsschluss: Für jedes i < k ist (Vertauschbarkeit von Polynomen derselben Matrix) (λ1 · 1n − C) . . . (λk · 1n − C)ei = (λi+1 · 1n − C) . . . (λk · 1n − C) [(λ1 · 1n − C) . . . (λi · 1n − C)ei ] = (λi+1 · 1n − C) . . . (λk · 1n − C)0 = 0

nach Induktionsannahme. Für i = k ist der (k, k)-Diagonal-Eintrag der Matrix λk · 1n − C gerade λk − λk = 0. Deswegen stehen in der k-ten Spalte dann höchstens Einträge c1 , . . . , ck−1 auf den ersten k − 1 Positionen, d. h. (λk · 1n − C)ek =

k−1 X

ci ei .

1

Daraus folgt auch für i = k (λ1 · 1n − C) . . . (λk · 1n − C)ek

= (λ1 · 1n − C) . . . (λk−1 · 1n − C)(c1 e1 + . . . + ck−1 ek−1 ) = 0 .

Für k = n ist damit gezeigt, dass χC (C) die Nullmatrix ist.



Bemerkungen 4.82 1) Dieser Satz von Cayley-Hamilton gilt nun für komplexe Matrizen C und damit auch für reelle Matrizen. Mit anderen Methoden (unter Rückgriff auf die Matrix der Adjunkten) kann man zeigen, dass dieser Satz allgemein für jeden Körper K gilt, ohne die Voraussetzung, dass K algebraisch abgeschlossen ist. So soll er auch im Folgenden benutzt werden. 2) Übersetzt für ein Φ ∈ HomK (V, V), mit einem ein endlichdimensionalen K-Vektorraum V, bedeutet der Satz von Cayley-Hamilton

496

4 Eigenwerte und Normalformen von Matrizen

χΦ (Φ) = 0

 ∈ HomK (V, V) ,

da χΦ (Φ) nach (4.53) die Darstellungsmatrix χΦ (C) hat, wenn Φ die Darstellungsmatrix C für eine gegebene Basis hat. Damit ist χΦ (C) = χC (C) = 0 . Sind C, C ′ Darstellungsmatrizen für ein Φ ∈ HomK (V, V) bezüglich verschiedener Basen, so gilt nach (4.57) allgemein χC (C) = 0 ⇔ χC′ (C ′ ) = 0 , so dass die Überlegung unabhängig von der Wahl der Darstellungsmatrix, d. h. unabhängig von der gewählten Basis ist. Für ein C ∈ K (n,n) gibt es mindestens ein p ∈ K[x] mit p(C) = 0 , und der Satz von Cayley-Hamilton zeigt insbesondere 1 ≤ grad(p) ≤ n . Die Aussage dim K (n,n) = n2 hätte hier nur ein p ∈ K[x] mit 1 ≤ grad(p) ≤ n2 gesichert. Nur für die schwächere Aussage p(C)x = 0, x ∈ K n fest, hätte ein p ∈ K[x] mit 1 ≤ grad(p) ≤ n = dim K n gesichert werden können.

3) Angewendet auf den speziellen Fall eines einzigen Eigenwerts λ, d. h. bei χC (λ) = (λ − λ)n für ein C ∈ C(n,n) ist also 0 = χC (C) = (λ1 − C)n und damit gilt Kern(C − λ1)n = Cn . Es kann hier also i. Allg. nicht eine Basis im Eigenraum Kern(C − λ1) gefunden werden (siehe Beispiel 4.45), aber wie angedeutet mit „verallgemeinerten Eigenvektoren“. Dies wird ab dem nächsten Abschnitt weiter entwickelt. 4) Diese letzte Überlegung zeigt auch für K = C und x , 0 bzw. einen algebraisch abgeschlossenen Körper mit der Linearfaktorzerlegung von p, dass ein Eigenwert existieren muss, ohne auf das charakteristische Polynom zurückzugreifen (Satz 4.49). 5) Eine weitere Konsequenz aus dem Satz von Cayley-Hamilton ist: Sei C ∈ K (n,n) invertierbar, dann gibt es ein p ∈ Kn−1 [x], so dass C −1 = p(C). Ist nämlich χC (λ) =

Pn

i=0

ai λi das charakteristische Polynom von C , so ist a0 = det(C) , 0 und somit 1 χC (λ) = 1 − λp(λ) und p ∈ Kn−1 [x], a0

4.4 Blockdiagonalisierung aus der Schur-Normalform

497

wegen 1/a0 χC (λ)− 1 = 0 für λ = 0, so dass der Linearfaktor abdividiert werden kann (siehe Satz B.21, 1)). Es gilt also 0=

1 χC (C) = 1 − C p(C), d. h. 1 = C p(C) a0

und damit gilt die Behauptung.

△ Mit den Abschnitten 4.4.2 und 4.4.3 werden ein nichtkonstruktiver und ein konstruktiver Weg angeboten zur nächsten Zwischenstation für eine allgemeine Normalform, nämlich einer spezifischen Blockdiagonaldarstellung. Will man dem Weg von 4.4.3 folgen, ist der Rest dieses Abschnitts entbehrlich. Ist C zusätzlich diagonalisierbar und k die Anzahl der verschiedenen Eigenwerte, so sagt (4.55), dass es auch ein Polynom pC mit grad(p) = k und pC (C) = 0 gibt. Dies legt die Definition nahe: Definition 4.83 Sei C ∈ K (n,n) . Das normierte Polynom µC (λ) = λν + aν−1 λν−1 + . . . + a0 , 0 kleinsten positiven Grades mit µC (C) = 0 heißt Minimalpolynom der Matrix C.

Satz 4.84: Teilereigenschaft des Minimalpolynoms Sei C ∈ K (n,n) . Ist µC , 0 das Minimalpolynom, so teilt µC jedes andere Polynom p(λ) mit der Eigenschaft p(C) = 0.

Beweis: In K[x] kann man mit Rest dividieren, d. h. nach Anhang B, Satz B.19 gibt es q, r ∈ K[x], so dass p(λ) = µC (λ) · q(λ) + r(λ) und grad(r) < grad(µC ). Andererseits folgt aus p(C) = 0, dass r(C) = p(C) − µC (C)q(C) = 0 . Daher kann nicht r , 0 gelten, und damit ist die Behauptung bewiesen.



498

4 Eigenwerte und Normalformen von Matrizen

Bemerkungen 4.85 1) Ähnliche Matrizen haben das gleiche Minimalpolynom. Daher kann auch vom Minimalpolynom eines Φ ∈ HomK (V, V) für endlichdimensionales V gesprochen werden (als Minimalpolynom einer und damit jeder Darstellungsmatrix). Seien C und C ′ ähnlich, d. h. C ′ = A−1 CA für ein A ∈ GL(n, K), µC und µC′ bezeichnen die Minimalpolynome. Aus µC (C) = 0 folgt mit Satz 4.75 auch µC (C ′ ) = 0 und damit wird µC von µC′ geteilt und umgekehrt. Da µC und µC′ so gleichen Grad haben und normiert sind, folgt (siehe Satz B.19) nun µC = µC′ .

2) Zur Wohldefinition von µC muss überhaupt ein Polynom p existieren, so dass p(C) = 0. Hierzu muss nicht auf Satz von Cayley-Hamilton zurückgegriffen werden, siehe Bemerkungen 4.82, 2). Etwas formaler gilt: Sei S C := {p ∈ K[x] : p(C) = 0} . S C ist dann ein Ideal (siehe Anhang B, Satz B.23) und damit S C = hgi für ein dadurch eindeutig bestimmtes normiertes g ∈ K[x]. Es ist gerade g = µC .

3) Sei C ∈ R(2,2) und habe keine reellen Eigenwerte. Dann gilt für jedes p ∈ R2 [x] p = αχC für ein α ∈ R oder p(C) ist invertierbar. Es sei p kein Vielfaches von χC , o. B. d. A. χC (λ) = λ2 + a1 λ + a0 , p(λ) = λ2 + b1 λ + b0 , mit ai , bi ∈ R, i = 0, 1,

also p(C) = p(C) − χC (C) = (b1 − a1 )C + (b0 − a0 )1.

Ist b1 = a1 , also b0 , a0 , dann ist p(C) Vielfaches von 1, ist b1 , a1 , also p(C) = (b1 − a1 )(C − β1) mit β = (b0 − a0 )/(b1 − a1 )

und somit auch invertierbar, da β kein Eigenwert ist.

Insbesondere gilt also: µC = χC . 4) In Erweiterung von 2) sei für einen endlichdimensionalen K-Vektorraum V, Φ ∈ HomK (V, V), einen Φ-invarianten Unterraum W ⊂ V und für u ∈ V: S Φ (u, W) = {p ∈ K[x] : p(Φ)u ∈ W} . Für W = {0} heißt diese Menge der Φ-Annihilator von u. Es gilt immer: µΦ ∈ S Φ (u, W). Auch S Φ (u, W) ist ein Ideal und damit

4.4 Blockdiagonalisierung aus der Schur-Normalform

499

S Φ (u, W) = hµΦ (u, W)i für ein dadurch eindeutig bestimmtes normiertes µΦ (u, W) ∈ K[x]. Für W = {0} heißt µuΦ := µΦ (u, {0}) auch Φ-Minimalpolynom von u.

5) Die Begriffe von 4) erlauben einen „koordinatenfreien“ Beweis von Hauptsatz 4.51 in der Form von Bemerkungen 4.52, 5). Die Hilfsaussage, die dann einen Induktionsbeweis (analog zum Beweis von Hauptsatz 4.51) erlaubt, ist: Das Minimalpolynom von Φ sei µΦ (λ) =

k Y (λ − λi )mi i=1

mit paarweise verschiedenen Eigenwerte λi , i = 1, . . . , k, mit mi ≥ 1. Ist W , V ein Φ-invarianter Unterraum, dann gibt es ein u ∈ V \ W, so dass Φu ∈ W + λ j u für einen Eigenwert λ j . Sei nämlich w ∈ V \ W und g := µ(w,W) . Wegen w < W ist der Grad von g positiv, also Φ g(λ) =

k Y i=1

(λ − λi )si

mit si ≥ 0

wobei für mindestens ein j gilt: s j > 0, also g(λ) = (λ − λ j )h(λ)

für ein h ∈ K[x]

und daher gilt für u := h(Φ)w: u < W , da sonst h ∈ S Φ (w, W), was wegen grad(h) < grad(g) einen Widerspruch zur Minimalität darstellte. Die Aussage folgt sofort für u.

6) Sei C ∈ K (n,n) , dann kann µC wie folgt berechnet werden: 1, C, C 2 , . . . , C k werden auf lineare Abhängigkeit geprüft, d. h. ein homogenes LGS in n2 Gleichungen und k + 1 Unbekannten wird auf nichttriviale Lösbarkeit untersucht. Für P Pk−1 i i k das erste k, für das dies zutrifft, ist C k = k−1 i=0 ai C und damit µC (λ) = λ − i=0 ai λ . Wählt man x ∈ K n fest, so führt die gleiche Prozedur mit x, Cx, . . . , C k x, d. h. jetzt nur n Gleichungen, zu µCx und damit zumindestens zu einem Teiler von µC , genauer: 7) Sei u1 , . . . , un eine Basis des n-dimensionalen K-Vektorraums, dann gilt µΦ = kgV(µuΦ1 , . . . , µuΦn ) (zur Definition von kgV siehe Definition B.25). Die rechte Seite werde mit p bezeichnet, dann gilt wegen µuΦi | µΦ auch p | µΦ (für beliebige ui ). Wegen µuΦi | p gilt auch p(Φ)ui = 0 für i = 1, . . . , n und damit p(Φ) = 0, also µΦ | p und wegen der Normiertheit also µΦ = p.

8) Mit 6) werden auch Faktoren des charakteristischen Polynoms χC gefunden. Dies kann zu einer Methode zur Bestimmung von χC (aber damit noch nicht von seinen Nullstellen!) erweitert werden. Dieser (für kleine Beispiele) beschreitbaren Weg: Bestimmung von χC , Bestimmung der Nullstellen davon, ist aber allgemein nicht zielführend (siehe Kapitel 8.2.4). △

500

4 Eigenwerte und Normalformen von Matrizen

Aus dem Satz von Cayley-Hamilton folgt: Das Minimalpolynom µC teilt das charakteristische Polynom χC . Jede Nullstelle von µC ist also auch eine Nullstelle von χC , d. h. ein Eigenwert. Davon gilt aber auch die Umkehrung: Satz 4.86: Eigenwerte und Minimalpolynom 1) Die Eigenwerte einer Matrix C ∈ K (n,n) sind genau die Nullstellen ihres Minimalpolynoms µC (λ). 2) C ist diagonalisierbar genau dann, wenn µC nur einfache Nullstellen hat.

Beweis: Zu 1): Nach Satz 4.84 ist jede Nullstelle von µC auch Nullstelle von χC . Sei andererseits λ ein Eigenwert von C, u , 0 ein Eigenvektor dazu. Nach (4.56) gilt insbesondere für p = µC : 0 = µC (C)u = µC (λ)u und wegen u , 0 also µC (λ) = 0, d. h. λ ist auch Nullstelle des Minimalpolynoms. Zu 2): „⇒“: Mit der Definition (4.54) von pC teilt somit pC nach 1) das Minimalpolynom µC . Nach (4.55) teilt aber das Minimalpolynom auch pC , so dass diese Polynome, eventuell bis auf das Vorzeichen, identisch sind. „⇐“: – Mit der Kenntnis der Jordanschen Normalform wird sich dies später sehr direkt zeigen lassen. – Es sei µC (λ) =

k Y (λ − λi ) i=1

mit den paarweise verschiedenen Eigenwerten λi , i = 1, . . . , k, Ei , i = 1, . . . , k, seien die Eigenräume dazu und W := E1 ⊕ . . . ⊕ Ek der von den Eigenvektoren aufgespannte Unterraum von K n . Es ist also W = K n zu zeigen. Angenommen, dies gilt nicht, dann gibt es nach Bemerkungen 4.85, 5) ein u < W, so dass w := (C − λ j 1)u ∈ W für einen Eigenwert λ j . Sei q(λ) :=

k Y (λ − λi ) , i=1 i, j

d. h. µC (λ) = q(λ)(λ − λ j ), also wegen 0 = µC (C)u = (C − λ j 1)q(C)u und damit ist also q(C)u = 0 oder q(C)u ist ein Eigenvektor von C zum Eigenwert λ j , in beiden Fällen also: q(C)u ∈ W .

4.4 Blockdiagonalisierung aus der Schur-Normalform

501

Weiter gibt es ein h ∈ K[x], so dass q(λ) − q(λ j ) = (λ − λ j )h(λ) und damit q(C)u − q(λ j )u = h(C)(C − λ j 1)u = h(C)w und wegen h(C)w ∈ W, da W C- und damit h(C)-invariant ist, schließlich: q(λ j )u ∈ W . Da aber u < W gilt, muss also q(λ j ) = 0 sein, im Widerspruch zur paarweisen Verschiedenheit der Linearfaktoren.  Die Nullstellen von χC und µC stimmen folglich überein. Der Unterschied zwischen beiden Polynomen liegt nur darin, dass diese Nullstellen in χC mit einer höheren Vielfachheit vorkommen können als in µC . Den anderen Extremfall im Vergleich zu einer diagonalisierbaren Matrix zeigt ein Jordan-Block J der Dimension n: Beispiel 4.80 zeigt (−J)k , 0, k = 0, . . . , n − 1. Also gilt µ J (λ) = λn = (−1)n χ J (λ) .

4.4.2 Blockdiagonalisierung mit dem Satz von Cayley-Hamilton Mit Abschnitt 4.4.1 sind die algebraischen Grundlagen gelegt, um eine Matrixdarstellung einer linearen Abbildung durch einen Basiswechsel, d. h. durch eine Ähnlichkeitstransformation im allgemeinen Fall zwar nicht zu diagonalisieren, aber zu block-diagonalisieren. Dies ist gleichbedeutend mit einer direkten Zerlegung in invariante Unterräume. Die in diesem Abschnitt präsentierte Vorgehensweise ist nur dann konstruktiv, wenn man (unrealistischerweise) annimmt, dass das charakteristische Polynom explizit bekannt ist und auch numerisch nicht effizient. Daher wird in Abschnitt 4.4.3 ein alternativer Zugang angedeutet. Aufbauend auf die Schur-Normalform bedeutet dies die Ähnlichkeit zu einer Blockdiagonalmatrix, deren Blöcke obere Dreiecksmatrizen (zu jeweils einem Eigenwert) sind. Abschnitt 4.5 entwickelt eine spezielle Basis für die invarianten Unterräume, so dass dann die Jordansche Normalform entsteht. Für Informationen über den Ring der Polynome sei auf Anhang B.3 verwiesen. Satz 4.87: Zerlegung Raum und charakteristisches Polynom Sei V ein endlichdimensionaler K-Vektorraum, Φ ∈ HomK (V, V) und V = U1 ⊕ U2 eine Φ-invariante Zerlegung. Bezeichnet Φi : Ui → Ui die Einschränkung von Φ : V → V auf Ui für i = 1, 2,

502

4 Eigenwerte und Normalformen von Matrizen

dann gilt für das charakteristische Polynom χΦ χΦ = χΦ1 χΦ2 und wenn µΦ1 , µΦ2 teilerfremd sind, auch für das Minimalpolynom µΦ von Φ µΦ = µΦ1 µΦ2 .

Beweis: Wähle eine Basis u1 , . . . , un von V so, dass u1 , . . . , uk eine Basis von U1 und uk+1 , . . . , un eine Basis von U2 ist. Nach Bemerkungen 4.19, 2) gilt für die Darstellungse1 ∈ K k,k von Φ1 , C e2 ∈ K (n−k,n−k) von Φ2 und C ∈ K n,n von Φ matrizen C ! e1 0 C C= e2 . 0 C

Demzufolge gilt für die charakteristischen Polynome nach der Kästchenregel ( Hauptsatz 2.114): χC (λ) = χΦ1 (λ)χΦ2 (λ) . Weiter gilt für ein beliebiges Polynom p p(C) =

e1 ) 0 p(C e2 ) 0 p(C

!

e1 ) = 0 = µC (C e2 ). Somit und damit folgt speziell für p = µC wegen µC (C) = 0 sofort µC (C gilt wegen Satz 4.84 µCe1 |µC und µCe2 |µC

und nach Voraussetzung und Bemerkungen B.29, 4) auch µCe1 µCe2 |µC . Andererseits folgt mit der Wahl von p = µCe1 µCe2 = µCe2 µCe1 auch p(C) = 0 und damit wegen Satz 4.84 µC |µCe1 µCe2 .



Der Beweis der letzten Teilaussage zeigt, dass ohne die Voraussetzung der Teilerfremdheit verallgemeinernd gilt: µΦ = kgV(µΦ1 , µΦ2 ) . Insgesamt ergibt sich also die folgende Behauptung:

4.4 Blockdiagonalisierung aus der Schur-Normalform

503

Theorem 4.88: Invariante Zerlegung aus Zerlegung Polynom Sei V ein endlichdimensionaler K-Vektorraum und Φ ∈ HomK (V, V). Sei p ein Polynom mit p(Φ) = 0, das in der Form p(λ) = p1 (λ) · p2 (λ) in teilerfremde Faktoren p1 (λ) und p2 (λ), d. h. ohne gemeinsame Nullstellen, zerfällt. Dann gilt für die Untervektorräume U1 := Kern p1 (Φ), U2 := Kern p2 (Φ) ⊂ V: 1) U1 = Bild p2 (Φ), U2 = Bild p1 (Φ), 2) U1 ⊕ U2 = V,

3) Ui ist invariant unter Φ für i = 1, 2. 4) Es sei Φi : Ui → Ui die Einschränkung von Φ auf Ui für i = 1, 2. Ist K algebraisch abgeschlossen, dann folgt für p = χΦ pi = χΦi und für die Minimalpolynome µΦ = µΦ1 µΦ2 .

Beweis: Durch Wahl einer Darstellungsmatrix C ∈ K (n,n) kann der Beweis auch in Matrixschreibweise erfolgen. Korollar B.26 aus Anhang B.3 gestattet die Wahl von Polynomen fi , i = 1, 2, mit f1 (λ) · p1 (λ) + f2 (λ) · p2 (λ) = 1 . Für eine beliebige Matrix A bedeutet dies p1 (A) f1 (A) + p2 (A) f2 (A) = 1

(4.58)

und ebenfalls die weiteren Varianten, die durch Umordnung der Faktoren entstehen. Wir definieren die Matrizen C1 := p2 (C), C2 := p1 (C) und wählen für i = 1, 2 als Unterräume Ui ⊂ K n die Bilder der linearen Abbildungen Ci : K n → K n , d. h. U1 := Bild p2 (C), U2 := Bild p1 (C) . Nach Voraussetzung folgt:

504

4 Eigenwerte und Normalformen von Matrizen

0 = p(C) = p1 (C)p2 (C) = p2 (C)p1 (C) und damit U1 = Bild p2 (C) ⊂ Kern p1 (C) ,

U2 = Bild p1 (C) ⊂ Kern p2 (C) .

Ist andererseits x ∈ Kern p1 (C), so folgt aus (4.58) x = p2 (C) f2 (C)x ∈ Bild p2 (C)

und damit

Kern p1 (C) ⊂ Bild p2 (C)

und analog Kern p2 (C) ⊂ Bild p1 (C). Das zeigt 1).

Die Invarianzaussage 3) folgt sofort aus der Definition, da U = Bild p(C) für ein p ∈ K[x] immer unter C invariant ist wegen C p(C)x = p(C)(Cx). Weiter gilt 2), da sich jeder Vektor x ∈ K n nach (4.58) als x = 1x = p2 (C)( f2 (C)x) + p1 (C)( f1 (C)x) =: C1 x1 + C2 x2 =: u1 + u2 ,

(4.59)

d. h. als Summe zweier Vektoren ui := Ci xi ∈ Ui , i = 1, 2, schreiben lässt. Für die Direktheit der Summen sei x ∈ U1 ∩ U2 . Dann ist nach (4.59) und wegen Ui = Kern pi (Φ) x = f1 (C)p1 (C)x + f2 (C)p2 (C)x = 0 . Für den Nachweis von 4) sei speziell p = χC . Dann folgt nach Satz 4.87 p1 (λ)p2 (λ) = χC (λ) = χΦ1 (λ)χΦ2 (λ) . Ist nun λα eine Nullstelle von pi , i = 1, 2, dann gilt mit (4.56) Cx = λα x ⇒ pi (C)x = 0 ,

d. h. Kern(C − λα 1) ⊂ Ui ,

und damit ist λα Eigenwert von Φi . Da so jeder der Linearfaktoren, in die pi zerfällt, erfasst wird, ist χΦi (λ) = pi (λ) . χΦ1 und χΦ2 sind demnach teilerfremd und haben damit keine Eigenwerte gemeinsam. Somit sind auch die Minimalpolynome teilerfremd, d. h. nach Satz 4.87 µΦ (λ) = µΦ1 (λ)µΦ2 (λ) . Das zeigt die Behauptung.



Bemerkungen 4.89 1) Theorem 4.88, 4) gilt auch für K = R, da die quadratischen irreduziblen Faktoren nach Bemerkungen B.31, 4) in komplexe Linearfaktoren zerlegt werden können. Dann wendet man Theorem 4.88, 4) für K = C an. 2) Es gilt also die Zerlegung in Φ-invariante Unterräume

4.4 Blockdiagonalisierung aus der Schur-Normalform

505

V = Kern p1 (Φ) ⊕ Kern p2 (Φ) = Bild p2 (Φ) ⊕ Bild p1 (Φ) = Kern p1 (Φ) ⊕ Bild p1 (Φ) . 3) Eine verwandte Art, eine Φ-invariante Zerlegung zu erhalten, beruht auf der Betrachtung der Potenzen von Φ. Sei V ein endlichdimensionaler K-Vektorraum, Φ ∈ HomK (V, V). Dann gilt offensichtlich mit id = Φ0 {0} = Kern(Φ0 ) ⊂ Kern(Φ1 ) ⊂ . . . ⊂ Kern(Φk ) ⊂ Kern(Φk+1 ) ⊂ . . . und V = Bild(Φ0 ) ⊃ Bild(Φ1 ) ⊃ . . . ⊃ Bild(Φk ) ⊃ Bild(Φk+1 ) ⊃ . . . denn Φk u = 0 ⇒ Φk+1 u = Φ(Φk u) = 0 und u = Φk+1 w = Φk (Φw).

Wegen dim V = n < ∞ gibt es in jeder dieser Ketten einen Index k, sodass Kern(Φk ) = Kern(Φk+1 ) bzw. Bild(Φk ) = Bild(Φk+1 ). Da nach der Dimensionsformel I (Theorem 1.82) immer n = dim Kern(Φl ) + dim Bild(Φl )

für alle l ∈ N0

(4.59a)

gilt, bedingt die eine Eigenschaft die andere und bleibt auch für höhere Indizes erhalten. Aus Kern(Φk ) = Kern(Φk+1 ) folgt Kern(Φk ) = Kern(Φl ) für l ∈ N0 , l ≥ k und analog für Bild. Der minimale dieser Indizes wird der Fitting14 -Index von Φ genannt und mit Ind Φ bezeichnet, also k = Ind Φ ∈ N0 , wenn Kern(Φk ) = Kern(Φk+1 ) bzw. äquivalent Bild(Φk ) = Bild(Φk+1 ) und entweder k = 0 oder Kern(Φk−1 ) ( Kern(Φk ) bzw. äquivalent Bild(Φk−1 ) ) Bild(Φk ). Es gilt: Ind Φ = 0 genau dann, wenn Φ invertierbar ist. Denn Ind Φ = 0 bedeutet {0} = Kern Φ bzw. (äquivalent) V = Bild Φ.

Sei k = Ind Φ, U1 := Bild(Φk ), U2 := Kern(Φk ), dann sind U1,2 Φ-invariant. Das kann man folgendermaßen einsehen: Sei u ∈ U1 , d. h. u = Φk w, und damit Φu = Φk+1 w ∈ Bild(Φk+1 ) = U1 bzw. sei u ∈ U2 , d. h. Φk u = 0, also auch Φk+1 u = 0 und damit Φu ∈ U2 (dieser Schritt gilt also für beliebige k).

Nach (4.59a) sind folgende Aussagen für l ∈ N0 äquivalent: (i) Bild(Φl ) ⊕ Kern(Φl ) = V,

(ii) Bild(Φl ) ∩ Kern(Φl ) = {0}. i) ⇒ ii) ist klar und für ii) ⇒ i) beachte man nach Dimensionalsformel II (Satz 1.86) dim(Bild(Φl ) + Kern(Φl )) = n − dim(Bild(Φl ) ∩ Kern(Φl )). 14

Hans Fitting ∗13. November 1906 in Mönchengladbach †15. Juni 1938 in Königsberg (Preußen)

506

4 Eigenwerte und Normalformen von Matrizen

Für l ≥ k = Ind Φ gilt Bild(Φl ) ∩ Kern(Φl ) = {0} .

(4.59b)

Es gilt nämlich u ∈ Bild(Φk ), d. h. u = Φk w und u ∈ Kern(Φk ) implizieren 0 = Φk u = Φ2k w, d. h. w ∈ Kern(Φ2k ) = Kern(Φk ), also u = Φk w = 0.

Für l ≥ k = Ind Φ bilden also U1 := Bild(Φl ), U2 = Kern(Φl ) eine Φ-invariante Zerlegung von V. Ist V = Kn , und eine Basis als Basis von Bild(Φk ) gewählt, B1 = {u1 , . . . , um } ergänzt um eine Basis B2 = {um+1 , . . . , un } von Kern(Φk ), dann gilt ! C 0 [Φ]B = (4.59c) 0 N und C ist invertierbar und N nilpotent mit Nilpotenzgrad k. Die Darstellung gilt nämlich wegen der Φ-Invarianz der Unterräume und damit auch ! Ck 0 k B [Φ ]B = k . 0 N Wegen der Definition der Räume ist N k = 0. Außerdem ist Φ : Bild Φk → Bild Φk+1 = Bild Φk surjektiv und wegen der Gleichheit der Räume auch invertierbar (z. B. Hauptsatz 2.31), also ist C invertierbar. Wäre schon N k−1 = 0, dann würde auch gelten Rang(B [Φk−1 ]B = (Rang[Φk ]B ) , B

im Widerspruch zu k = Ind(Φ), also ist k der Nilpotenzgrad von N .

4) Für eine nilpotente Matrix N ∈ K (n,n) gilt: Ind N = Nilpotenzgrad von N . Sei k der Nilpotenzgrad von N , dann gilt nach Definition Ind N ≤ k, aber Ind(N) < k ist unmöglich.

Sei K = K, Φ sei normal, dann ist Ind Φ ≤ 1.

Es reicht also zu zeigen: Ist Φ nicht invertierbar, dann gilt Ind(Φ) = 1. Nach (4.59b) reicht also zu zeigen Bild(Φ) ∩ Kern(Φ) = {0} . † † † Sei u ∈ Bild(Φ), d. h. u = Φw D und uE ∈ Kern(Φ) = Kern(Φ Φ) , d. h. u ∈ Kern(ΦΦ ) = Kern(Φ ) und damit kuk2 = hu . ui = hΦw . ui = w . Φ† u = 0 und schließlich u = 0.



Wenn U1 oder U2 weiter in eine direkte Summe C-invarianter Unterräume zerfällt, kann die Block-Diagonaldarstellung weiter zerlegt werden. Der Extremfall sind eindimensionale U1 , . . . , Un , wenn C ähnlich zu einem diagonalen C ′ ist. Dessen Einträge sind dann die Eigenwerte und

4.4 Blockdiagonalisierung aus der Schur-Normalform

507

Ui = Kui , wobei u1 , . . . , un eine Basis aus zugehörigen Eigenvektoren ist. Im nichtdiagonalisierbaren Fall könnte man daher für die Eigenräume, für die „algebraische = geometrische Vielfachheit“ gilt, die Diagonalstruktur erwarten, für die mit „zu wenig“ Eigenvektoren eine Blockstruktur als „Normalform“, die nach Hauptsatz 4.51 und Bemerkungen 4.52 mindestens aus Dreiecksmatrizen bestehen kann. Definition 4.90 Sei Φ : V → V linear. Eine direkte Summen-Zerlegung V = U1 ⊕ . . . ⊕ Uk heißt Φ-invariant, wenn Φ(U j ) ⊂ U j für j = 1, . . . , k. Bei einer direkten Zerlegung kann man nach Satz 2.46, 3) folgendermaßen eine Basis von V wählen: u1 , . . . , ur1 , ur1 +1 , . . . , ur1 +r2 , . . . , un−rk +1 , . . . , un , | {z } | {z } | {z } Basis von U1 Basis von U2 Basis von Uk

r j = dim U j .

Für eine solche Basis sind dann folgende Aussagen äquivalent: (i) Die Zerlegung ist Φ-invariant, (ii) Die Basis-Vektoren von U j werden wieder nach U j abgebildet, (iii) Die darstellende Matrix C für Φ in einer derartigen Basis ist von der Form    C1 0 · · · 0   ..   0 C .  2    .. ..   . . 0    0 · · · 0 Ck

(4.60)

mit Matrizen C j ∈ K (r j ,r j ) , j = 1, . . . , k.

Die Matrix C aus (4.60) ist nach Definition 4.54 eine Blockdiagonalmatrix der Matrizen C1 , . . . , Ck . Dabei ist jede Matrix C j die beschreibende Matrix für die lineare Abbildung Φ|U j : U j → U j , die Einschränkung von Φ auf U j , definiert durch Φ|U j : U j → U j ,

u 7→ Φu .

Insbesondere ist das charakteristische Polynom der ganzen Matrix das Produkt χC1 (λ) · . . . · χCk (λ) der charakteristischen Polynome der Teilmatrizen (nach der Kästchenregel).

508

4 Eigenwerte und Normalformen von Matrizen

Die Tatsache, dass bei Φ-invarianten Unterräumen alles lokal (auf den Unterräumen) betrachtet werden kann, spiegelt sich in der folgenden Aussage wider: Sei V ein K-Vektorraum, V = U1 ⊕ . . . ⊕ Uk eine direkte Zerlegung und Pi : V → Ui die davon induzierten Projektionen (siehe Satz 2.46. Sei Φ ∈ HomK (V, V). Dann sind äquivalent: (i) Ui ist Φ-invariant für alle i = 1, . . . , k, (ii) Pi ◦ Φ = Φ ◦ Pi für alle i = 1, . . . , k.

(4.60a)

„(ii) ⇒ (i)“: Sei u ∈ Ui , i = 1, . . P . , k, dann Φu = Φ ◦ Pi u = Pi ◦ Φu ∈ Ui . „(i) ⇒ (ii)“: Sei u ∈ V , d. h. u = ki=1 Pi u die eindeutige Zerlegung von u in U1 , . . . , Uk und Φu =

k X i=1

Φ ◦ Pi u .

Wegen Pi u ∈ Ui ist auch Φ ◦ Pi u ∈ Ui , so dass dies die eindeutige Zerlegung von Φu darstellt, also Pk i=1 Pi ◦ Φu und damit Pi ◦ Φ = Φ ◦ Pi für alle i = 1, . . . , k.

Eigenräume von Φ sind insbesondere Φ-invariant. Treten sie in einer solchen direkten Zerlegung auf, ist das zugehörige Ci sogar λi 1 für den Eigenwert λi . Ist ein Eigenraum nicht „groß genug“ (im Sinne geometrischer Vielfachheit < algebraische Vielfachheit), muss an seine Stelle ein größerer Raum mit nicht diagonalem Ci treten. Für zwei verschiedene Eigenwerte ist dieser durch Theorem 4.88 schon als Kern(C − λ1)r identifiziert, wobei r die algebraische Vielfachheit des Eigenwerts λ ist. Dies gilt auch allgemein, wie Theorem 4.93 zeigen wird. Definition 4.91 Sei V ein n-dimensionaler K-Vektorraum. Sei Φ ∈ HomK (V, V) mit charakteristischem Polynom χΦ (λ) = (λ1 − λ)r1 · . . . · (λk − λ)rk ,

r1 + . . . + rk = n

und die λ1 , . . . , λk ∈ K seien paarweise verschieden. Dann heißt der Unterraum Vi := Kern(Φ − λi id)ri

verallgemeinerter Eigenraum oder Hauptraum zum Eigenwert λi und u ∈ Vi Hauptvektor zu λi . Als Vorbereitung beweisen wir: Theorem 4.92: Invariante direkte Summe der Haupträume 1) Seien V ein K-Vektorraum und Φ, Ψ ∈ HomK (V, V) mit Φ ◦ Ψ = Ψ ◦ Φ. Dann ist Kern Φ unter Ψ invariant.

4.4 Blockdiagonalisierung aus der Schur-Normalform

509

Im Weiteren gelten die Voraussetzungen von Definition 4.91. 2) Seien pi (λ) := (λi − λ)ri , i = 1, . . . , k, dann ist pi (Φ) auf V j für i , j invertierbar. 3) Dann sind die Haupträume Φ-invariant und ihre Summe ist direkt, d. h. V1 + . . . + Vk = V1 ⊕ . . . ⊕ Vk .

Beweis: Zu 1): Aus Φu = 0 folgt auch Φ ◦ Ψ u = Ψ ◦ Φu = 0. Zu 2): Φ und auch pi (Φ) = (Φ − λi id)ri kommutiert mit (Φ − λ j id)r j , weshalb nach 1) die Haupträume V j somit Φ- und auch pi (Φ)-invariant sind. Also sind pi (Φ)u ∈ V j für u ∈ V j . Es sind pi und p j teilerfremd, d. h. nach Korollar B.26 gibt es Polynome f, g, so dass pi (λ) · f (λ) + p j (λ) · g(λ) = 1 . Damit gilt für u ∈ V j u = f (Φ)pi (Φ)u + g(Φ)p j(Φ)u = f (Φ)pi (Φ)u , d. h. f (Φ)|V j ist die Inverse von pi (Φ) auf V j . Zu 3): Der Beweis der Direktheit der Summe erfolgt durch Induktion über k. Für k = 1 ist nichts zu zeigen. P Für den Induktionsschluss k − 1 → k seien ui ∈ Vi , i = 1, . . . , k. Sei ki=1 ui = 0, zu zeigen ist ui = 0 für i = 1, . . . , k. Für j ∈ {1, . . . , k} gilt  k  k k X X X  0 = p j (Φ)  ui  = p j (Φ)ui = p j (Φ)ui . i=1

i=1

i=1 i, j

Da Vi p j (Φ)-invariant ist, folgt zudem p j (Φ)ui ∈ Vi . Nach Induktionsannahme ist somit p j (Φ)ui = 0

für i , j .

Nach 2) folgt daraus ui = 0 für i , j und so auch aus der Anfangsannahme ui = 0. Theorem 4.93: Invariante direkte Summenzerlegung durch Haupträume Sei K algebraisch abgeschlossen und V sei ein n-dimensionaler K-Vektorraum. Es sei Φ ∈ HomK (V, V) mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk ∈ K, bei algebraischer Vielfachheit ri . Sei Ui := Kern(Φ − λi id)ri , Dann gilt

der Hauptraum zu λi .



510

4 Eigenwerte und Normalformen von Matrizen

dim Ui = ri , i = 1, . . . , k , und die Ui bilden eine Φ-invariante direkte Summenzerlegung V = U1 ⊕ . . . ⊕ Uk , so dass Φ|U j das charakteristische Polynom (λ j − λ)r j hat, j = 1, . . . , k. Man spricht hier auch von der Primärzerlegung von V.

Beweis: (Induktion nach k). Der Induktionsanfang (k = 1) ist klar, da nach dem Satz von Cayley-Hamilton 0 = χΦ (Φ) = (λ1 id −Φ)r1 und damit V = U1 = Kern(Φ − λ1 id)r1 ⇒ dim U1 = n = r1 . Induktionsschluss (k − 1 → k): Sei k ≥ 2. Wir zerlegen das charakteristische Polynom χΦ (λ) in die zwei Faktoren p1 (λ) = (λ1 − λ)r1 , p2 (λ) = (λ2 − λ)r2 · . . . · (λk − λ)rk . Die beiden Faktoren p1 und p2 haben keine gemeinsame Nullstelle. Wir können also Theoe2 . rem 4.88 anwenden und finden eine direkte Φ-invariante Summenzerlegung V = U1 ⊕ U Hier hat U1 = Kern p1 (Φ) = Kern(Φ − λ1 id)r1

schon die behauptete Form. Seien Φi , i = 1, 2 die Einschränkungen von Φ auf U1 bzw. e2 . U Nach Theorem 4.88, 4) gilt χΦ1 (λ) = (λ1 − λ)r1 .

e2 , so dass Φ|U das Wir haben eine Φ-invariante direkte Summenzerlegung V = U1 ⊕ U 1 charakteristische Polynom (λ1 − λ)r1 hat. Auf Φ|Ue2 wenden wir die Induktionsannahme an. e2 , so dass U2 , . . . , Uk eine Φ2 -invariante direkte Zerlegung Diese liefert U2 , . . . , Uk ⊂ U e2 bilden, dim Ui = ri (i = 2, . . . , k) gilt und Φ2 |U und damit auch eine Φ-invariante von U i ri das charakteristische Polynom (λi − λ) hat. Damit bilden U1 , . . . , Uk eine Zerlegung von V. Diese Zerlegung ist auch direkt, denn gilt 0 = u1 +

k X

ui ,

i=2

e2 , dass u1 = 0 und Pki=2 ui = 0 und die Direktheit der so ergibt die Direktheit von U1 ⊕ U e2 , dass u2 = . . . uk = 0. Zerlegung von U Nach Satz 2.46, 3) muss notwendigerweise

4.4 Blockdiagonalisierung aus der Schur-Normalform

511

dim U1 = r1 gelten. Weiter hat Φ|Ui = Φ2 |Ui das charakteristische Polynom (λi −λ)ri . Der nachfolgende Satz 4.94 sichert dann Ui = Kern(Φ − λi id)ri , i = 2, . . . , k .



Satz 4.94: Eindeutigkeit einer invarianten Summenzerlegung Seien Unterräume Ui ⊂ V gegeben, die eine Φ-invariante direkte Summenzerlegung V = U1 ⊕ . . . ⊕ Uk bilden, so dass Φ|U j das charakteristische Polynom (λ j − λ)r j hat, j = 1, . . . , k. Dann sind die Unterräume U j durch die lineare Abbildung Φ eindeutig bestimmt als U j = Kern(Φ − λ j id)r j .

Beweis: Nach Forderung ist (λi − λ)ri das charakteristische Polynom von Φ|Ui . Aus dem Satz von Cayley-Hamilton folgt für jeden Vektor u ∈ Ui (Φ − λi · id)ri (u) = 0 . Demnach ist Ui in Vi := Kern(Φ − λi · id)ri enthalten. Insbesondere gilt daher dim Ui ≤ dim Vi für alle i. Da nach Theorem 4.92, 3) e := V1 + . . . + Vk V

direkt ist, folgt

also e V = V. Damit ist

e= dim V n=

X

X i

i

X

dim Vi ≥

dim Ui ≤

dim Ui = n ,

i

X

dim Vi = n ,

i

folglich dim Ui = dim Vi , und so Ui = Vi für alle i und damit Ui = Vi = Kern(Φ − λi · id)ri für alle i = 1, . . . , k .



512

4 Eigenwerte und Normalformen von Matrizen

Korollar 4.95 Unter der Voraussetzung von Theorem 4.93 ist jede Matrix C ∈ K (n,n) ähnlich zu einer Blockdiagonalmatrix von oberen Dreiecksmatrizen C1 , . . . , Ck der Dimension (r j , r j ) als Blöcke, wobei jede Matrix C j ausschließlich das Diagonalelement λ j hat und als charakteristisches Polynom (λ j − λ)r j (nur eine einzige Nullstelle!). Dabei sind die λ1 , . . . , λk die paarweise verschiedenen Eigenwerte mit algebraischen Vielfachheiten r j.

Beweis: Dies ist Theorem 4.93 in Matrizenschreibweise. Kombination von Hauptsatz 4.51 mit Bemerkungen 4.52, 1), 3) zeigt mit den Überlegungen zu (4.21), dass die Ci als obere Dreiecksmatrizen gewählt werden können. 

4.4.3 Algorithmische Blockdiagonalisierung – Die Sylvester-Gleichung Hier beschränken wir uns auf K = K und die Matrizenschreibweise. Die Verallgemeinerung auf allgemeine Körper und lineare Operatoren auf endlichdimensionalen Vektorräumen ergibt sich ohne Probleme. Nach Hauptsatz 4.51 zusammen mit Bemerkungen 4.52, 1) gibt es für C ∈ K(n,n) , falls das charakteristische Polynom über K in Linearfaktoren zerfällt, eine sogar unitäre Ähnlichkeitstransformation, so dass C die Form annimmt:   C1,1 C1,2 · · · C1,k   ..  ..  . .  ′ (n,n)  C =  . (4.61) ..  ∈ K .  . . .    Ck,k

Dabei sind die Ci,i quadratische obere Dreiecksmatrizen, die jeweils nur den einzigen Eigenwert λi ∈ C, i = 1, . . . , k haben. Ziel ist deswegen, durch weitere (i. Allg. nicht unitäre) Ähnlichkeitstransformationen (algorithmisch) die Nichtdiagonalblöcke durch die Nullmatrix zu ersetzen. Dies kann sukzessiv bzw. innerhalb eines Induktionsbeweises bewerkstelligt werden (siehe (4.21)), wenn folgende Grundaufgabe gelöst wird: Sei ! C C C = 1,1 1,2 0 C2,2 mit C1,1 ∈ K(k,k) , C2,2 ∈ K(l,l) , k + l = n. Die Matrizen C1,1 und C2,2 haben keinen Eigenwert gemeinsam. Gesucht ist ein A ∈ K(k,l) , so dass

4.4 Blockdiagonalisierung aus der Schur-Normalform

1k −A 0 1l

!

C1,1 C1,2 0 C2,2

!

513

!

!

1k A C 0 = 1,1 . 0 1l 0 C2,2

(4.62)

Dabei handelt es sich um eine spezielle Ähnlichkeitstransformation, da ! !−1 1k −A 1k A = , 0 1l 0 1l wie man direkt nachrechnet. Die Gleichung (4.62) ist äquivalent zu

C1,1 A − AC2,2 = −C1,2 .

(4.63)

Dies ist ein lineares Gleichungssystem für die Matrix A, die Sylvester15 Gleichung. Im allgemeinen Fall muss man den Begriff des Kronecker-Produkts nutzen, um (4.63) in ein LGS für eine Vektordarstellung von A umzuwandeln. Im hier für K = C oder für K = R (bei reellen Eigenwerten) interessierenden speziellen Fall von oberen Dreiecksmatrizen C1,1 und C2,2 lässt sich (4.63) explizit lösen. Seien     A = a(1) , . . . , a(l) , C1,2 = b(1) , . . . , b(l) die Spaltendarstellungen, dann ist (4.63) äquivalent zu 

C1,1 a(1) , . . . , a(l)



   c · · · c1,l    1,1   . . ..  = − b(1) , . . . , b(l) , − a(1) , . . . , a(l)   . .    0 cl,l 

(4.64)

  mit C2,2 = ci, j . Die erste Spalte dieser Gleichung ist C1,1 a(1) − c1,1 a(1) = −b(1)

bzw.

 C1,1 − c1,1 1k a(1) = −b(1) .

Da c1,1 ein Eigenwert von C2,2 ist und damit kein Eigenwert bzw. Diagonalelement von C1,1 , existiert a(1) eindeutig (und kann durch Rückwärtssubstitution bestimmt werden). Ist a(1) bekannt, so ergibt die zweite Spalte von (4.64) das LGS für a(2) C1,1 a(2) − c2,2 a(2) = −b(2) + c1,2 a(1) , das nach der gleichen Argumentation eine eindeutige Lösung besitzt. Allgemein ergibt die i-te Spalte das folgende LGS für a(i) :

15

James Joseph Sylvester ∗3. September 1814 in London †15. März 1897 in London

514

4 Eigenwerte und Normalformen von Matrizen

X  C1,1 − ci,i 1k a(i) = −b(i) + c j,i a( j) . i−1

(4.65)

j=1

Damit wurde bewiesen: Satz 4.96: Eindeutige Lösbarkeit Sylvester-Gleichung Seien C1,1 ∈ K(k,k) , C2,2 ∈ K(l,l) , C1,2 ∈ K(k,l) gegeben, so dass C1,1 , C2,2 obere Dreiecksmatrizen sind. Dann hat die Sylvester-Gleichung (4.63) genau dann eine eindeutige Lösung A ∈ K(k,l) , wenn C1,1 , C2,2 keine gemeinsamen Eigenwerte haben. Die Lösung kann durch l Rückwärtssubstitutionen der Dimension k, d. h. mit O(l k2 ) Operationen bestimmt werden.

Beweis: Es bleibt nur „⇒“ zu zeigen. Die Lösung von (4.63) ist allgemein äquivalent mit (4.65). Eindeutige Lösbarkeit davon bedeutet, dass ci,i kein Diagonalelement von C1,1 ist und damit die Behauptung.  Bemerkungen 4.97 1) Die Charakterisierung der eindeutigen Lösbarkeit gilt auch für C1,1 , C2,2 ohne Dreiecksgestalt. 2) Die Ähnlichkeitstransformation in (4.62) ist nur im Trivialfall A = 0, d. h. C1,2 = 0 unitär. △ Daraus folgt folgendes Blockdiagonalisierungsresultat: Theorem 4.98: Invariante direkte Summenzerlegung durch Haupträume Sei C ∈ K(n,n) mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk ∈ K, so dass Pk i=1 ri = n für die algebraischen Vielfachheiten ri . 1) Dann ist C über K ähnlich zu einer Blockdiagonalmatrix   0   C1,1   ..  .  .   0 Ck,k

Dabei sind Ci,i ∈ K(ri ,ri ) obere Dreiecksmatrizen mit Einträgen aus K, die auf der Diagonale jeweils genau den Eigenwert λi haben.

4.4 Blockdiagonalisierung aus der Schur-Normalform

515

2) Es gebe eine Blockdiagonaldarstellung mit den in 1) spezifizierten Eigenschaften. Sei Kn = U1 ⊕ . . . ⊕ Uk die zugehörige direkte Summenzerlegung in C-invariante Unterräume von Kn . Sei r j die algebraische Vielfachheit von λ j . Dann ist  r j U j = Kern C − λ j 1 der verallgemeinerte Eigenraum oder Hauptraum von C zum Eigenwert λ j und dim U j = r j .

Beweis: 1) durch vollständige Induktion über k in (4.61): Für k = 2 folgt die Behauptung aus Satz 4.96 zusammen mit der Schur-Normalform (Hauptsatz 4.51). Beim Induktionsschluss wird die Behauptung für k − 1 vorausgesetzt. Anwendung von Satz 4.96 auf    C1,1 C1,2 · · · C1,k    e =   , C C   0 e ∈ GL(n, K), so wobei C vom Typ (4.61) ist, aber aus k − 1 Blöcken besteht, sichert ein A dass ! C1,1 0 −1 ee e . A CA = 0 C

Anwendung der Induktionsvoraussetzung auf C sichert eine invertierbare K-wertige Matrix A, so dass   0   C2,2    ..  . A−1CA =  .   0 Ck,k eA, b wobei Nach (4.20) vermittelt A

! b= 1 0 , A 0 A

die gewünschte Ähnlichkeitstransformation. Zu 2): Die erhaltene Blockdiagonalgestalt bedeutet gerade, dass die neu gewählte Basis in k Teilmengen zerfällt, die jeweils C-invariante Unterräume U j von Kn aufspannen. Die Abbildung

516

4 Eigenwerte und Normalformen von Matrizen

Φ j : U j → U j , x 7→ Cx hat gerade die Darstellungsmatrix C j, j und das charakteristische Polynom  r j χΦ j (λ) = χC j, j (λ) = λ j − λ .

Exakt wie in dem Beweis von Satz 4.94 zeigt man zuerst

U j ⊂ V j := Kern(C − λ j · id)r j und dann mittels Theorem 4.92, 3), der auch für K = R wegen der dann vorausgesetzten reellen Eigenwerte angewendet werden kann, U j = V j und dim U j = r j für j = 1, . . . , k.



Bemerkungen 4.99 1) Die einzige Variationsmöglichkeit in einer Blockdiagonaldarstellung wie in Theorem 4.98, 1) ist die Anordnung der Diagonalblöcke, d. h. der Eigenwerte. 2) Die Fragestellung etwas abstrakter ist also: Sei V = U1 ⊕ U2 die direkte Zerlegung eines K-Vektorraums, Φ ∈ HomK (V, V) und U1 sei Φ-invariant. Wann ist dann auch U2 Φ-invariant? Eine notwendige Bedingung ist: Sei p ∈ K[x], u ∈ V. Ist p(Φ)u ∈ U1 , dann gibt es auch ein u1 ∈ U1 , sodass p(Φ)u1 = p(Φ)u .

(4.65a)

Sei nämlich u = u1 + u2 , ui ∈ Ui , also p(Φ)u = p(Φ)u1 + p(Φ)u2 und p(Φ)ui ∈ Ui wegen der Φ-Invarianz der Ui . Da die Zerlegung eindeutig ist, folgt p(Φ)u2 = 0.



Will man für eine reelle Matrix bei komplexen Eigenwerten die reelle Schur-Normalform (Theorem 4.55) blockdiagonalisieren, so muss die Lösbarkeit der Sylvester-Gleichung für den Fall gesichert werden, dass C1,1 und C2,2 obere Blockdreiecksmatrizen sind, entweder mit (1, 1)-Blöcken zu einem reellen Eigenwert oder mit (2, 2)-Blöcken ! µ ν −ν µ zu einem komplexen Eigenwert λ = µ+iν, ν , 0 (siehe Theorem 4.55) auf der Diagonalen. Geht man in (4.64) die sich aus den Spalten ergebenden LGS durch, so ergibt sich: Liegt der erste Fall für die jeweilige Spalte von C2,2 vor (reeller Eigenwert), so gilt die Äquivalenz mit (4.65). Da die Eigenwerte von C1,1 − ci,i 1k alle von Null verschieden sind, sind diese LGS für die Spalten a(i) eindeutig lösbar. Im zweiten Fall für die jeweilige Spalte von C2,2 (komplexer Eigenwert) muss auch die nächste Spalte betrachtet werden, so dass sich äquivalent zu (4.63) immer gekoppelte LGS ergeben für zwei Spalten von A. Der Fall liege o. B. d. A. für a(1) und a(2) vor:

4.4 Blockdiagonalisierung aus der Schur-Normalform

517

C1,1 a(1) − µa(1) + νa(2) = −b(1) C1,1 a(2) − νa(1) − µa(2) = −b(2)

(4.66)

bzw. in Blockform C1,1 − µ1 ν1 −ν1 C1,1 − µ1

!

! ! a(1) b(1) = − (2) . a(2) b

Nach dem nachfolgenden Lemma (Lemma 4.102) ist dieses LGS eindeutig lösbar, wenn die Blöcke wie gefordert jeweils kommutieren, was offensichtlich ist, und die folgende Matrix D invertierbar ist: D := (C − µ1)2 + ν2 1 = C 2 − 2µC + |λ|2 1 ,

C := C1,1 .

Es muss somit ausgeschlossen werden, dass α = 0 ein Eigenwert von D ist. Wegen der Faktorisierung für ν2 ≥ α  1 1 x2 − 2µx + |λ|2 − α = x − µ − i(ν2 − α) 2 x − µ + i(ν2 − α) 2 1

ist α Eigenwert von D, genau dann, wenn eine der Zahlen µ ± i(|ν|2 − α) 2 Eigenwert von C ist. Für α = 0 müsste demnach µ + iν = λ oder µ − iν = λ Eigenwert von C sein, was ausgeschlossen ist. Es gilt daher ein Analogon zu Satz 4.96 und darauf aufbauend: Satz 4.100: Reelle Blockdiagonalisierung Sei C ∈ R(n,n) mit den paarweise verschiedenen Eigenwerten λ1 , . . . , λk ∈ C, worin bei echt komplexem Eigenwert λ nur entweder λ oder λ auftritt. Dann ist C (reell) ähnlich zu der Blockdiagonalmatrix   0   C1,1   ..  .  .   0 Ck,k

Dabei sind die C j, j entweder obere Dreiecksmatrizen aus R(r j ,r j ) mit einem reellen Eigenwert λ j der algebraischen Vielfachheit r j auf der Diagonalen oder obere Blockdreiecksmatrizen aus R(2r j ,2r j ) mit (2, 2)-Diagonalblöcken, alle von der Form ! µ ν , −ν µ wobei λ j = µ + iν, ν , 0 ein komplexer Eigenwert von C mit der algebraischen Vielfachheit r j ist.

Beweis: Analog zum Beweis von Theorem 4.98 unter Rückgriff auf die reelle SchurNormalform und die obigen Lösbarkeitsaussagen zur Sylvester-Gleichung. 

518

4 Eigenwerte und Normalformen von Matrizen

Bemerkungen 4.101 1) Der obige Zugang ist bei Vorliegen der Schur-Normalform völlig algorithmisch, da die Blockdiagonalisierung ausschließlich auf das Lösen von LGS zurückgeführt ist, die bei Eigenwerten in K und Rechnen in K sogar gestaffelt sind. 2) Das (reelle) charakteristische Polynom der Blöcke C j, j ∈ R(r j ,r j ) mit Eigenwert λ j = µ j + iν j ist: Im Fall λ j ∈ R : (λ j − λ)r j , im Fall λ j < R : ((µ j − λ)2 + ν2j )r j bzw. im Komplexen (λ j − λ)r j . △ Abschließend sei das benutzte Lemma formuliert, das die Formel zur Invertierung einer (2, 2)-Matrix (2.68) verallgemeinert. Lemma 4.102 ! A1,1 A1,2 ∈ K (2n,2n) , Ai, j ∈ K (n,n) . Es gelte A1,1 A2,2 = A2,1 A2,2 A2,2 A1,1 , A1,2 A2,1 = A2,1 A1,2 , A1,1 A2,1 = A2,1 A1,1 , A1,2 A2,2 = A2,2 A1,2 und D := A1,1 A2,2 − A1,2 A2,1 sei invertierbar. Dann ist A invertierbar und ! ! D−1 0 A2,2 −A1,2 −1 A = . 0 D−1 −A2,1 A1,1

Sei K ein Körper und A =

Beweis: Direktes Nachrechnen.



Aufgaben

519

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • •

Matrizenpolynom Minimalpolynom Φ-invariant (Definition 4.90) Sylvester-Gleichung (4.63)

Zusammenhänge: • Satz von Cayley-Hamilton (Theorem 4.81) • Invariante direkte Summenzerlegung (Theorem 4.88, Theorem 4.92, Theorem 4.93 und Satz 4.94) • Lösbarkeit der Sylvester-Gleichung (Satz 4.96) • Ähnlichkeit zu einer Blockdiagonalmatrix aus oberen Dreiecksmatrizen (Korollar 4.95 bzw. Theorem 4.98) • Blockdiagonalisierung für komplexe Matrizen und reelle Matrizen mit reellen Eigenwerten (Theorem 4.98) • Blockdiagonalisierung für reelle Matrizen mit komplexen Eigenwerten (Satz 4.100)

Beispiele:

• Nilpotente Matrix

Aufgaben Aufgabe 4.21 (K) Finden Sie die Unterräume Ui aus Theorem 4.88 für die Zerlegung des charakteristischen Polynoms der Matrix ! 01 C= 10 in seine beiden Linearfaktoren. Aufgabe 4.22 (T) Es sei D eine n × n-Matrix mit n verschiedenen Eigenwerten. Zeigen Sie für jede n × n-Matrix C CD = DC



C = p(D)

mit einem Polynom p(λ). Aufgabe 4.23 (T) Der Matrizenraum R(2,2) werde aufgefasst als vier-dimensionaler Vektorraum R4 . Zeigen Sie für jede Matrix C ∈ R(2,2) , dass alle ihre Potenzen 12 , C, C 2 , C 3 , . . . in einer Ebene liegen.

520

4 Eigenwerte und Normalformen von Matrizen

Aufgabe 4.24 (K) Bestimmen Sie das Minimalpolynom der Matrix    1 0 1    B =  0 1 0  .   002

Aufgabe 4.25 (T) Vervollständigen Sie den Beweis von Satz 4.100. Aufgabe 4.26 (K) Zeigen Sie Lemma 4.102. Aufgabe 4.27 (T) Sei A ∈ K(n,n) nilpotent. Zeigen Sie: 1 − A ist invertierbar und geben sie die Inverse an. Aufgabe 4.28 (K) Gegeben sei die Matrix   1  1 A =   −1 0

 −1 −1 1   4 1 −3   . −2 0 2  0 −1 1

a) Trigonalisieren Sie A, d. h. bestimmen Sie ein S ∈ GL(4, C), sodass S −1 AS eine obere Dreiecksmatrix ist. b) Bestimmen Sie ausgehend von a) durch Lösen der Sylvester-Gleichung ein T ∈ GL(4, C), sodass T −1 AT Blockdiagonalform hat.

4.5 Die Jordansche Normalform

521

4.5 Die Jordansche Normalform

4.5.1 Kettenbasen und die Jordansche Normalform im Komplexen Unabhängig vom eingeschlagenen Weg ist mit Theorem 4.93 und 4.94 bzw. mit Theorem 4.98 der gleiche Zwischenstand erreicht: Eine Matrix C ∈ K (n,n) (ein linearer Operator auf einem n-dimensionalen K-Vektorraum V) kann, sofern das charakteristische Polynom über K in Linearfaktoren zerfällt, durch eine Ähnlichkeitstransformation in eine Blockdiagonalmatrix überführt werden, deren Diagonalblöcke genau einen der k verschiedenen Eigenwerte λ j als Eigenwert haben und deren Dimension dessen algebraische Vielfachheit r j ist. Die der Ähnlichkeitstransformation zugrundeliegende neue Basis kann so in k Teilmengen zerlegt werden, dass die aufgespannten Unterräume U j eine C- bzw. Φ- invariante direkte Zerlegung von C bzw. Φ darstellen und U j = Kern(Φ − λ j id)r j gerade der Hauptraum zu λ j ist. U j enthält somit den Eigenraum E j := Kern(Φ − λ j id) als Unterraum. Wegen dim U j = r j trifft also immer einer der folgenden beiden Fälle zu: 1) Ist dim E j = r j (geometrische=algebraische Vielfachheit), dann gilt: U j = E j und C j = λ j 1r j . 2) Ist dim E j < r j , dann gilt: E j ist ein echter Unterraum von U j . Im Fall von dim E j < r j muss die Struktur von U j und C j weiter untersucht werden. Wir wissen bisher, dass C j als obere Dreiecksmatrix gewählt werden kann, deren Diagonalelemente alle gleich λ j sind:   ∗   λ j   . . .  . C j =    0 λj

Demnach ist N j := C j − λ j 1 nach Satz 4.78 nilpotent, d. h. N kj = 0 für ein k = k j ∈ N . e j zu finden, Es reicht, für die N j durch eine Ähnlichkeitstransformation eine Normalform N da dann auch ej + λ j 1 ähnlich ist zu N

N j + λ j1 = C j .

522

4 Eigenwerte und Normalformen von Matrizen

Im Folgenden sei nun V ein K-Vektorraum, vorerst für einen allgemeinen Körper K, und das lineare Φ : V → V sei nilpotent, d. h. Φr = 0 für ein r ∈ N. Dann definiert jeder Vektor u ∈ V eine endliche Kette von Bildvektoren mit einer Länge, die höchstens r ist, wobei: Definition 4.103 Sei K ein Körper, V ein K-Vektorraum, u ∈ V, Φ ∈ HomK (V, V). Die Vektoren u, Φu, Φ2 u, . . . , Φ p−1 u bilden eine Kette der Länge p, falls alle Elemente von 0 verschieden sind, aber gilt Φpu = 0 . Insbesondere ist folglich Φ p−1 u ein Eigenvektor von Φ zum Eigenwert 0. Ist eine Kette (Teil) eine(r) Basis, so ist der dann aufgespannte Unterraum Φ-invariant und es hat der entsprechende Teil der Darstellungsmatrix von Φ die Gestalt          

0 1 0 .. . 0

 · · · · · · · · · 0  ..  .. . .   ..  . .. .. . . .   .  .. .. .. . . . ..   ··· 0 1 0

Es ist möglich, aus Ketten eine Basis aufzubauen, denn Satz 4.104 Sei K ein Körper, V ein K-Vektorraum, Φ ∈ HomK (V, V).

1) Eine Kette der Länge p, d. h. bestehend aus u, Φu, . . . , Φ p−1 u, ist linear unabhängig. 2) Es seien u1 , Φu1 , . . . , Φr1 u1 , . . . , uk , Φuk , . . . , Φrk uk Ketten in V der Längen r1 + 1, . . . , rk + 1. Dann sind äquivalent: (i) Die in all diesen Ketten enthaltenen Vektoren sind linear unabhängig.

4.5 Die Jordansche Normalform

523

(ii) Die letzten Vektoren Φr1 u1 , . . . , Φrk uk dieser Ketten sind linear unabhängig.

Beweis: Zu 1): Dies folgt insbesondere aus 2). Zur Verdeutlichung sei der Beweis auch unabhängig davon angegeben. Sei p−1 X

αi Φi u = 0 .

(4.67)

i=0

Anwendung von Φ p−1 auf (4.67) liefert 0=

p−1 X

αi Φi+p−1 u = α0 Φ p−1 u

i=0

und damit α0 = 0. Nun nehme man an, dass für ein k ∈ {0, . . . , p − 2} bereits α0 = . . . = αk = 0 gezeigt sei. Anwendung von Φ p−2−k auf (4.67) liefert αk+1 Φ p−1 u = −

p−1 X

αi Φi+p−2−k u = 0

i=k+2

und damit ist auch αk+1 = 0. Zu 2): Zu zeigen ist nur (ii) ⇒ (i). Wir beweisen die Aussage durch Induktion nach der maximalen Länge der beteiligten Ketten. Sei etwa eine lineare Relation c1,0 u1 + . . . + c1,r1 Φr1 u1 + . . . + ck,0 uk + . . . + ck,rk Φrk uk = 0 gegeben. Anwendung von Φ liefert: Aus jeder Kette fällt der letzte Vektor weg. Die letzten Vektoren der verkürzten Ketten sind aber nach wie vor linear unabhängig, da sie sich durch die Anwendung von Φ nicht verändert haben. Nach Induktionsannahme sind dann alle Vektoren der verkürzten Ketten linear unabhängig und es folgt c1,0 = . . . c1,r1 −1 = . . . = ck,0 = . . . ck,rk −1 = 0 . Die ursprüngliche Relation wird eine Relation c1,r1 Φr1 u1 + . . . + ck,rk Φrk uk = 0 zwischen den letzten Vektoren der beteiligten Ketten. Diese sind linear unabhängig und wir sehen c1,r1 = . . . = ck,rk = 0.  Bemerkungen 4.105 1) Eine Kette B bildet nach Satz 4.104, 1) eine Basis des von ihr erzeugten Φ-invarianten Unterraums U. Die Darstellungsmatrix von Φ|U bezüglich B ist

524

4 Eigenwerte und Normalformen von Matrizen

  0   1    0  .  ..  0

 0  .  0 · · · ..   ..  1 .   .. . . ..  . . .  0 ··· 1 0 0 ···

und daher bei umgekehrter Anordnung der Basiselemente der durch Transposition entstehende Jordan-Block zum Eigenwert 0. In einer Basis und ihrer Darstellungsmatrix für einen Homomorphismus Φ entsprechen sich daher Ketten und Jordan-Blöcke zum Eigenwert 0, insbesondere ist die Länge der Kette die Dimension des Blocks. 2) Nach Satz 4.104, 2) gilt sodann: Es gibt dim Kern Φ viele Ketten, so dass die Vereinigung aller Elemente eine linear unabhängige Menge ergibt. 3) w ∈ V ist der letzte Vektor einer Kette der Länge k in der Form u, Φu, . . . , Φk−2 u, Φk−1 u = w , genau dann, wenn w ∈ Kern Φ ∩ Bild Φk−1 , also im euklidischen bzw. unitären Fall genau dann, wenn  ⊥ w ∈ Kern Φ ∩ Kern(Φ† )k−1 , wobei man (2.94) und Bemerkung 3.57 beachte.

4) Eine Verallgemeinerung des Kettenbegriffs ergibt sich folgendermaßen: Sei V ein K-Vektorraum, Φ ∈ HomK (V, V) und u ∈ V, U ⊂ V ein Φ-invarianter Unterraum und u ∈ U. Dann gilt auch Z(u, Φ) := {p(Φ)u : p ∈ K[x]} ⊂ U und Z(u, Φ), der von u erzeugte Φ-zyklische Unterraum, ist also der kleinste Φ-invariante Unterraum von V, der u enthält. Gilt Z(u, Φ) = V, so heißt u zyklisch bez¨glich Φ und V ein Φ-zyklischer Raum. Sei dim V = n, u , 0. Dann gibt es ein 1 ≤ p ≤ n, so dass u, Φu, . . . , Φ p−1 u eine Basis von Z(u, Φ) bilden. Allgemein heißt für u , 0, k ∈ N, u, Φu, . . . , Φk−1 u eine Krylow16 -Sequenz und

16

Alexei Nikolajewitsch Krylow ∗ 3. August 1863 in Wisjaga † 26. Oktober 1945 in Leningrad

4.5 Die Jordansche Normalform

525

Kk = Kk (Φ; u) := span(u, Φu, . . . , Φk−1 u) der k-te Krylow-Raum von Φ bezüglich u. Für k = p ist also Z(u, Φ) = K p (Φ; u) und dim Kk (Φ; u) = k für k ≤ p, Kk (Φ; u) = K p (Φ; u) für k ≥ p. Man betrachte die Mengen

Ni := {Φ j u : j = 0, . . . , i für i ∈ N0 } ,

dann ist spätestens Nn linear abhängig, so dass ein 1 ≤ p ≤ n existiert, so dass p minimal in dieser Eigenschaft ist. Dann ist u, Φu, . . . , Φ p−1 u linear unabhängig und es gibt ai ∈ K , so dass Φ pu =

p−1 X

(4.67a)

ai Φi u .

i=1

Daraus folgt durch vollständige Induktion, dass Φk u ∈ span(u, . . . , Φ p−1 u) für alle k ∈ N0

und damit Z(u, Φ) = span(u, . . . , Φ p−1 u).

Der Raum Z(u, Φ) hat also eine Kette der Länge p als Basis genau dann, wenn {Φ j u : j = 0, . . . , p − 1} linear unabhängig ist und Φ p u = 0. Satz 4.104 zeigt, dass die vorletzte Bedingung durch Φ j u , 0, j = 0, . . . , p − 1 ersetzt werden kann. Bezüglich der Basis u, . . . , Φ p−1 u von U := Z(u, Φ) hat Φ|U die Darstellungsmatrix  0  1   C := 0   ..  .  0

 −a0    −a1   ..  .   ..  .  1 −a p−1

··· ··· 0 .. . .. .. . . . .. .. . . .. ···

0

(4.67b)

wobei die a1 durch (4.67a) bestimmt sind. Die Matrix (4.67b) ist gerade die Transponierte von (4.5) und damit gilt   p−1 X   χ Φ|U (λ) = χC (λ) = (−1) p λ p + ai λi  . (4.67c) i=0

Andererseits erzeugt jedes normierte Polynom eine Matrix vom Typ (4.67b), die dann Darstellungsmatrix ist von Φ auf U mit der Basis u1 , . . . , u p durch Φui = ui+1 , i = 1, . . . , p− P p−1 1, Φu p = − i=0 ai ui+1 , d. h. U = Z(u1 , Φ) = K p (Φ; u1 ).

5) In Fortsetzung von 4) gilt: Sei U := Z(u, Φ). Das Φ-Minimalpolynom von u (nach Bemerkungen 4.85, 4)) erfüllt µuΦ = (−1) p χ Φ|U = µ Φ|U ,

526

4 Eigenwerte und Normalformen von Matrizen

d. h. das Φ-Minimalpolynom von u ist gerade – bis auf das Vorzeichen – das charakteristische Polynom von Φ auf dem von u zyklisch erzeugten Raum. Im zyklischen Fall sind charakteristisches und Minimalpolynom – bis auf Vorzeichen – gleich (in Verallgemeinerung der Ketten- bzw. Jordan-Block-Situation). Wegen µuΦ (Φ)p(Φ)u = p(Φ)µuΦ (Φ)u = 0 für alle p ∈ K[x], also µuΦ (Φ) = 0 auf U , und damit gilt µ Φ|U |µuΦ wegen der Minimalität in µ Φ|U bezüglich dieser Eigenschaft. Andererseits ist aber insbesondere µ Φ|U (Φ)u = µ Φ|U ( Φ|U )u = 0

nach dem Satz von Caley-Hamilton (Theorem 4.81), also mit gleicher Argumentation µuΦ |µ Φ|U

und damit sind diese normierten Polynome gleich. Nach 4) ist p = dim U = grad(χ Φ|U ). Sei m := grad(µuΦ ), q ∈ K[x]. Nach Satz B.19 gibt es h, r ∈ K[x], grad(r) < m, so dass q(λ) = h(λ)µuΦ (λ) + r(λ)

und damit q(Φ)u = h(Φ)µuΦ (Φ)u + r(Φ)u = r(Φ)u

und so U = Z(Φ, u) ⊂ span(u, . . . , Φm−1 u)

also p ≤ m und damit grad(χ Φ|U ) = p ≤ m = grad(µ Φ|U )

und damit sind auch diese Polynome – bis auf das Vorzeichen – gleich.

6) Sei V ein K-Vektorraum, dim V = n, Φ ∈ HomK (V, V), dann gibt es ein u ∈ V, so dass µuΦ = µΦ , d. h. das Φ-Minimalpolynom von u ist gleich dem Minimalpolynom von Φ.

Q Sei µ := µΦ = ki=1 µi , wobei die µi die Potenzen von jeweils verschiedenen irreduziblen Polynomen darstellen. Zu i = 1, . . . , k gibt es dann ein ui ∈ V , so dass µ(Φ)ui = 0 (gilt immer), aber (µ/µi )(Φ)ui , 0, da sonst die P Minimaleigenschaft von µ verletzt wäre. Sei u := ki=0 ui , dann ist µuΦ = µΦ . Zur Vereinfachung der Argumentation werde K als algebraisch abgeschlossen angenommen, dann ist ui ∈ Vi , ui , 0, der i-te Hauptraum (Definition 4.91), also insbesondere ist {u1 , . . . , uk } linear unabhängig. Sei grad(µ) = m, grad(µuΦ ) = l. Da µuΦ |µ (siehe etwa 4)), ist l ≤ m und es reicht wegen der Normierung l = m zu zeigen. Sei also l < m, dann lässt sich µ zerlegen: µ = µuΦ µ˜ und o. B. d. A. µuΦ =

j Y (λ − λi )mi , i=1

zu den Eigenwerten λi und damit

µ˜ =

k Y

i= j+1

(λ − λi )mi

4.5 Die Jordansche Normalform

527

0 = µuΦ (Φ)u =

j X

µuΦ (Φ)ui + µuΦ (Φ)

i=1

k X

ui .

i= j+1

Hier verschwindet der erste Summand, der zweite aber ist nach Theorem 4.92 das bijektive Bild eines nicht verschwindenden Vektors, also nicht verschwindend und damit ist ein Widerspruch erzielt.

7) Es gelten weiter die Voraussetzungen von 6). Φ ∈ HomK (V, V) heißt nicht-derogatorisch , wenn gilt µΦ = (−1)n χΦ . Dies gilt also für Jordan-Blöcke oder für Begleitmatrizen bzw. allgemein: Die folgenden Aussagen sind äquivalent: (i) Φ ist nicht-derogatorisch. (ii) Es gibt eine Basis B, so dass B [Φ]B die Gestalt (4.67b) hat.

(iii) V ist Φ-zyklisch.

In 4) wurde iii) ⇔ ii) und in 5) ii) ⇒ i) gezeigt, so dass nur noch i) ⇒ iii) fehlt. Nach 6) gibt es ein u ∈ V , so dass µuΦ = µΦ , also µuΦ = (−1)n χΦ ,

also dim V = grad(χφ ) = grad µuΦ = dim Z(u, Φ) und damit Z(u, Φ) = V .

△ Theorem 4.106: Normalform für nilpotente lineare Abbildungen Sei K ein Körper. Ist Φ : V → V eine nilpotente lineare Abbildung des endlichdimensionalen K-Vektorraums V in sich, so gibt es eine Basis von V, die sich nur aus Ketten für Φ zusammensetzt. Bei umgekehrter Anordnung innerhalb der Ketten wird in einer solchen Basis die Abbildung Φ durch eine Matrix beschrieben, welche eine Blockdiagonalmatrix von Blöcken der Form

ist.

         

0 1 0 ··· .. . . . . . . . . . . .. .. .. . . . .. .. . . 0 ··· ··· ···

      0    1  0 0 .. .

Jordan-Block zum Eigenwert 0

Beweis: Der Beweis erfolgt durch vollständige Induktion nach dem Nipotenzgrad p. Der Induktionsanfang ist p = 1. Dann ist Φ = 0 die Nullabbildung. Jeder Vektor 0 , u ∈ V

528

4 Eigenwerte und Normalformen von Matrizen

stellt eine – wenn auch kurze – Kette dar. Und jede Basis von V besteht aus derartigen Ketten der Länge 1. Sei jetzt p ≥ 2 für den Induktionsschluss p − 1 → p. Wir betrachten den Bildraum B := Bild Φ ⊂ V. Die Einschränkung Φ|B bildet auch B in das Bild Φ ab, definiert also eine Abbildung Φ|B : B → B. Für jeden Vektor b = Φu ∈ B ist Φ p−1 b = Φ p−1 Φu = Φ p u = 0 . Deswegen ist ( Φ|B ) p−1 = 0 und wir können auf Φ|B die Induktionsannahme anwenden. Es gibt somit eine Basis von B, die aus Ketten besteht: b1 → Φb1 → . . . → Φr1 b1 , .. . bk → Φbk → ... → Φrk bk . Hier soll jeweils Φri bi , 0 sein, aber Φri +1 bi = 0. Zuerst verlängern wir unsere Ketten etwas: Jedes bi ∈ B ist ein Bild Φui . Wir können zu jeder Kette einen solchen Vektor ui hinzunehmen und ihre Länge um 1 vergrößern: ui → Φui → Φ2 ui → . . . → Φri +1 ui , k k ... k bi → Φbi → . . . → Φri bi . Dann vermehren wir unsere Ketten auch noch: Die Vektoren Φri bi = Φri +1 ui , i = 1, . . . , k, gehören zum Kern von Φ. Als Teil der gewählten Basis von B sind sie linear unabhängig. Wir können sie durch Vektoren uk+1 , . . . , ul zu einer Basis des Kerns ergänzen. Jeden dieser ergänzenden Vektoren im Kern fassen wir als eine kurze Kette auf. Die Gesamtheit der erhaltenen Ketten ist damit: u1 Φu1 . . . Φr1 +1 u1 .. . uk Φuk . . . Φrk +1 uk uk+1 .. .

(4.68)

ul Das Bild dieser Vektoren unter Φ ist genau die Kettenbasis von B, vermehrt um den Nullvektor. Die Anzahl aller Vektoren in einer Kettenbasis von B ist dim(B). Hier haben wir insgesamt k Vektoren hinzugenommen um jede Kette zu verlängern. Schließlich haben wir die gewählten Ketten um l − k = dim(Kern Φ) − k kurze Ketten vermehrt. Damit ist die Anzahl aller Vektoren in unseren Ketten

4.5 Die Jordansche Normalform

529

dim(Bild Φ) + dim(Kern Φ) = dim V geworden. Wir müssen nun nur noch zeigen, dass alle Vektoren der gewählten Ketten linear unabhängig sind, um eine Kettenbasis von V zu erhalten. Dies folgt nach Satz 4.104, 2), da die Vereinigung der jeweils letzten Kettenvektoren eine Basis von Kern Φ bilden, d. h. linear unabhängig sind. Die Aussage über die Darstellungsmatrix folgt aus Bemer kungen 4.105, 1). Bemerkung 4.107 Insbesondere entspricht also bei einer Kettenbasis und der zugehörigen Darstellungsmatrix aus Jordan-Blöcken (zum Eigenwert 0) eine Kette einem Block, d. h. die Anzahl der Blöcke (einer festen Größe) ist die Anzahl der Ketten (einer festen Länge). △ Die in Theorem 4.106 auftretenden Ketten sind i. Allg. nicht eindeutig bestimmt, deswegen sind auch die durch die einzelnen Jordan-Blöcke definierten Φ-invarianten Unterräume durch die lineare Abbildung i. Allg. nicht eindeutig bestimmt. Ihre Anzahlen und Dimensionen dagegen sind dies sehr wohl. Satz 4.108: Anzahl der Jordan-Blöcke Die Größen der in Theorem 4.106 auftretenden Jordan-Blöcke und die Anzahl der Blöcke einer festen Größe sind durch die Abbildung Φ eindeutig bestimmt: Seien ai := dim Kern Φi für i ∈ N0 , dann gilt für i ∈ N:

1) bi := ai − ai−1 ist die Anzahl der Jordan-Blöcke, deren Größe entweder größer oder gleich i ist, 2) ai ≥ ai−1 ,

3) ci = 2ai − ai−1 − ai+1 ist die Anzahl der Jordan-Blöcke, deren Größe genau i ist,

(4.69)

4) bi+1 ≤ bi .

Insbesondere ist b1 = dim Kern Φ die Anzahl aller Blöcke. Ist b j = 0 für ein j ∈ N, dann auch bi = 0 für i ≥ j und so ci = 0 für i ≥ j.

Beweis: Nach Bemerkung 4.107 können wir die Behauptung in der Sprache der Ketten betrachten. Wir bezeichnen mit bi die Anzahl der Jordan-Blöcke bzw. Ketten mit Größe größer oder gleich i. Wenden wir Φ auf eine Kette an, so fällt der erste Vektor weg, die anderen reproduzieren sich. Weil die ursprünglichen Ketten eine Basis von V bilden, sind die reproduzierten Kettenreste eine Kettenbasis von B = Bild Φ. Aus dem Beweis von Theorem 4.106 folgt, dass jede Kettenbasis von B auf diese Weise aus einer Kettenbasis von V hervorgeht. Damit haben wir eine Bijektion zwischen den Kettenbasen von V und B, wobei die Letzteren insgesamt dim(V) − dim(B) = dim(Kern Φ)

530

4 Eigenwerte und Normalformen von Matrizen

weniger Kettenelemente haben und die Ketten von B jeweils um einen Vektor kürzer sind. Insbesondere bildet die Gesamtheit der „letzten“ Vektoren in der Kettenbasis von V eine Basis von Kern Φ, d. h. dim Kern Φ ist die Anzahl der Ketten in der Kettenbasis von V. Dies ergibt die vorletzte Aussage dim Kern Φ = a1 = a1 − a0 = b1 .

(4.70)

Durch die Anwendung von Φ, d. h. die Reduktion von V auf Bild Φ, werden somit die ursprünglichen Ketten der Länge 1 aus der Basis entfernt. Zusammenfassend bezeichnet b2 die Anzahl der Ketten in der verbleibenden Kettenbasis von Bild Φ, also b2 = dim Kern Φ|Bild Φ und durch Fortführung dieses Prozesses ergibt sich für k ∈ N, k ≥ 2 bk = dim Kern Φ|Bild Φk−1 . Nun ist nach Definition a2 − a1 = dim Kern Φ2 − dim Kern Φ . Diese Identität lässt sich umformen, da einerseits für a1 mit der offensichtlichen Identität Kern Φ = Kern Φ|Kern Φ2 gilt a1 = dim Kern Φ|Kern Φ2 . Zusätzlich gilt wegen x ∈ Kern Φ|Bild Φ ⇔ Φx = 0, x = Φy ⇔ Φ2 y = 0, x = Φy ⇔ x ∈ Bild Φ|Kern Φ2 aber auch Kern Φ|Bild Φ = Bild Φ|Kern Φ2 . Andererseits lässt sich a2 mit der Dimensionsformel I (Theorem 2.32) als a2 = dim Kern Φ2 = dim Bild Φ|Kern Φ2 + dim Kern Φ|Kern Φ2 schreiben. Zusammengesetzt folgt daher a2 − a1 = dim Bild Φ|Kern Φ2 + dim Kern Φ|Kern Φ2 − dim Kern Φ|Kern Φ2 = dim Kern Φ|Bild Φ = b2 .

Wegen Kern Φ|Bild Φk−1 = Bild Φk−1 Kern Φk

folgt allgemein aus Theorem 2.32:

4.5 Die Jordansche Normalform

bk = dim Kern Φ|Bild Φk−1

531

= dim Bild Φk−1 Kern Φk + dim Kern Φk−1 Kern Φk − dim Kern Φk−1

= dim Kern Φk − dim Kern Φk−1 = ak − ak−1 ,

d. h. 1) gilt. Die Aussage 2) ist offensichtlich wegen Kern Φi−1 ⊂ Kern Φi und es folgt auch sofort wegen bi ≥ 0 nach 1). Die Aussage 3) ergibt sich unmittelbar aus 2), da ci = bi − bi+1 . Da ci ≥ 0, folgt aus 3) sofort 4). Für die Schlussbehauptung ist nur ai = ai−1 , d. h.

Kern Φi = Kern Φi−1

=⇒ Kern Φ

i+1

= Kern Φi

d. h. ai+1 = ai

zu beachten.



Bemerkung 4.109 Wegen der Dimensionsformel I aus Theorem 2.32 können die Identitäten aus Satz 4.108 statt in dim Kern Φi auch in Rang Φi =: ri geschrieben werden: bi = ri−1 − ri

ci = ri+1 + ri−1 − 2ri .

Eine Verifikation dieser Form kann alternativ zum Beweis von Satz 4.108, 1) auf folgenden Überlegungen beruhen: Bei Anwendung von Φi−1 fallen alle Ketten der Länge ≤ i − 1 weg, die Längen der anderen Ketten werden um i − 1 verringert. Bei Anwendung von Φi fallen alle Ketten der Länge ≤ i weg, die Längen der anderen Ketten werden um i verringert. In jeder Kette einer Länge ≥ i liegt genau ein Vektor mehr aus dem Bild von Φi−1 als im Bild von Φi . Also ist die Anzahl dieser Ketten der Länge ≥ i gerade die Differenz ri−1 − ri der Ränge. △ Beispiel 4.110 Sei dim V = 7 und m = 3 die kleinste Potenz, so dass Φm = 0, dann sind für die Zahlenfolgen bi , ci , ai , i = 1, 2, 3 folgende Fälle möglich: bi 5 1 1 4 2 1 3 3 1 3 2 2 ci 4 0 1 2 1 1 0 2 1 1 0 2 ai 5 6 7 4 6 7 3 6 7 3 5 7 ◦ Satz 4.111: Hauptraum und Minimalpolynom Sei V ein K-Vektorraum über einem algebraisch abgeschlossenen Körper K, Φ : V → V sei K-linear und das charakteristische Polynom χΦ bestehe aus verschiedeQ nen linearen Faktoren pi mit den Vielfachheiten ri : χΦ (λ) = ki=1 pri i (λ). Sei µΦ das Minimalpolynom von Φ.

532

4 Eigenwerte und Normalformen von Matrizen

1) Dann ist µΦ (λ) =

Qk

i=1

i pm i (λ) mit mi ≤ ri .

2) Für die invarianten Unterräume Ui nach Theorem 4.93 (bzw. Theorem 4.98) gilt i Ui = Kern pri i (Φ) = Kern pm i (Φ) .

3) Φ ist (über K) diagonalisierbar genau dann, wenn Ui = Kern(Φ − λi id) =: Ei für i = 1, . . . , k.

Beweis: Zu 1): Dies ist eine Wiederholung von Satz 4.86, 1). i Zu 2): pmi ist das Minimalpolynom von Φ auf Ui nach Satz 4.87 und pm i (Φ) = 0 auf U i nach Definition. Damit gilt i Kern pri i (Φ) ⊂ Kern pm i (Φ)

und die umgekehrte Inklusion gilt immer wegen mi ≤ ri . Zu 3): Es gilt: Φ ist diagonalisierbar ⇔ dim Ui = dim Ei für i = 1, . . . , k (algebraische = geometrische Vielfachheit) ⇔ Ui = Ei für i = 1, . . . , k , da immer Ei ⊂ Ui gilt.



Aus Satz 4.111, 3) ergibt sich ein alternativer Beweis für Satz 4.86, 2) „⇐“. Das charakteristische Polynom von Φ|Ui ist das Polynom χi (λ) = (λi − λ)ri mit ri = dim(Ui ). Das Minimalpolynom µi von Φ|Ui kann nach Voraussetzung nur verschiedene einfache Linearfaktoren haben, d. h. µi (λ) = (λi − λ). Also bedeutet µi (Φ)u = 0 für u ∈ Ui , dass Ui ⊂ Ei und damit folgt die Behauptung mit 3).

Bemerkungen 4.111a Wir betrachten weiter einen algebraisch abgeschlossenen Körper K und benutzen wieder die Matrixschreibweise, d. h. es sei C ∈ K (n,n) , λ ∈ K. Wir schreiben im Folgenden als Abkürzung Cλ := C − λ1 . 1) Der (Fitting-)Index von Cλ (nach Bemerkungen 4.89, 3)) wird auch der (Fitting-) Index kλ des Eigenwerts λ von C genannt, d. h. kλ = Ind(λ). Die Zahl kλ ≤ m ist also minimal in der Eigenschaft. Kern(Cλk ) = Kern(Cλk+1 ) und deswegen Kern(Cλl ) = Kern(Cλk ) für l ≥ k. Sei λ ein Eigenwert von C und sei für k ∈ N im Folgenden U k := Kern(Cλk ), d. h. speziell

(4.71)

4.5 Die Jordansche Normalform

533

Uλ := U rλ , der zu λ zugehörige invariante Unterraum aus Satz 4.94, dann folgt kλ ≤ mλ ≤ rλ , wobei mλ die Vielfachheit von λ im Minimalpolynom ist. Es gilt nämlich U mλ = U mλ +1 . Hierbei ist die Inklusion „⊂“ klar und für „⊃“ sei x ∈ U mλ +1 , d. h. Cλmλ Cλ x = 0 und so Cλ x ∈ U mλ . Hätte x Lk in der C -invarianten Zerlegung K n = i=1 U i nach Satz 4.94 (bei Beachtung von Satz 4.111, 2)), wobei etwa Uλ = U1 , eine Komponente ul , 0 für ein l ≥ 2, so wäre auch Cλ ul , 0 wegen der für die Räume paarweise verschiedenen Eigenwerte. Dies wäre ein Widerspruch zur Eindeutigkeit der entsprechenden Darstellung von Cλ x.

Folglich gilt x ∈ U mλ , also U kλ = U kλ +1 = . . . = U mλ = U rλ und damit insbesondere dim Kern(Cλkλ ) = dim Uλ = rλ . Damit ist (C − λ1)kλ x = 0 für x ∈ Uλ und so teilt das Minimalpolynom µ Uλ x = (x − λ)mλ das Polynom pλ (x) = (x − λ)kλ . Infolgedessen ist auch mλ ≤ kλ

insgesamt:

k λ = mλ . 2) Wegen der Dimensionsformel Theorem 2.32 entspricht der Folge aufsteigender Kerne eine Folge absteigender Bilder: Bild(Cλ ) ⊃ Bild(Cλ2 ) ⊃ . . . ⊃ Bild(Cλkλ ) = Bild(Cλkλ +1 ) . Die Rangbestimmung von Cλk muss maximal bis zu k = rλ erfolgen und führt zur Bestimmung von mλ und damit des Minimalpolynoms. Genauer gilt in der Nomenklatur von Satz 4.108: bi = ci = 0 für i > m = Grad der Nullstelle λ im Minimalpolynom, und somit ist

534

4 Eigenwerte und Normalformen von Matrizen m X i=1

bi =

m X i=1

(ai − ai−1 ) = am = algebraische Vielfachheit.

Einen Jordan-Block der Größe mλ bzw. eine Kette der Länge mλ gibt es also immer, da die Bedingung aus Bemerkungen 4.105, 3) w ∈ Kern Cλ |Uλ ∩ Bild Cλmλ −1 Uλ

wegen

Cλmλ U = 0, d. h. Bild Cλmλ −1 U ⊂ Kern Cλ |Uλ λ

immer erfüllbar ist. Und wegen

Pm

i=1

λ

bi =

m X

Pm

i=1

ici gilt weiter

ici = algebraische Vielfachheit .

i=1

Die maximale Anzahl ununterbrochener Einsen auf der oberen Nebendiagonalen ist also mλ + 1. △ Hauptsatz 4.112: Jordansche Normalform Sei K algebraisch abgeschlossen. Jede Matrix ∈ K (n,n) ist ähnlich zu einer Blockdiagonalmatrix   0  C1   .  . .  .   0 CI

Für i = 1, . . . , I ist dabei Ci ∈ K (ri ,ri ) mit r1 + . . . + rI = n. Weiter entsprechen die Diagonaleinträge der Matrix Ci genau dem Eigenwert λi und auch die Ci sind wieder als eine Blockdiagonalmatrix gegeben, diesmal von der speziellen Gestalt   0   Ji,1   ..  . Ci =  .   0 Ji,Mi

Hier ist m = 1, . . . , Mi mit Ji,m ∈ K (si,m ,si,m ) und si,1 + . . . + si,Mi = ri . Dabei sind die Ji,m die sogenannten Jordan-Blöcke der Größe si,m zum Eigenwert λi und von der Form

4.5 Die Jordansche Normalform

Ji,m

  λi    :=     

535

1 .. .

0

..

.

..

.

   0   ..  ∈ K (si,m ,si,m ) . .   .. . 1   λi

Weiter ist die Anzahl der Blöcke einer festen Größe zu einem festen Eigenwert durch die Matrix eindeutig bestimmt durch (4.69) und die Anzahl der JordanBlöcke zu einem festen Eigenwert ist gerade die geometrische Vielfachheit.

Beweis: Globale Zerlegung der Matrix in Blöcke Ci : Nach Theorem 4.93 bzw. Theorem 4.98, 1) ist die Matrix C ähnlich zu einer Blockdiagonalmatrix C0 , d. h. C = A−1 0 C 0 A0

für eine geeignete Transformationsmatrix A0 ∈ K (n,n) .

C0 besteht dabei aus den Blöcken Ci ∈ K (ri ,ri ) , i = 1, . . . , I, wobei I die Anzahl der paarweise verschiedenen Eigenwerte ist. Die Ci haben das charakteristische Polynom (λi − λ)ri , d. h. ri ist gerade die algebraische Vielfachheit des i-ten Eigenwertes λi . Das zeigt r1 + . . . + rI = n. Zudem sind die Diagonaleinträge von Ci durch den Eigenwert λi gegeben. Daher lässt sich Ci schreiben als Ci = λi 1ri + Ni , wobei die Matrix λi 1ri ∈ K (ri ,ri ) schon Diagonalgestalt hat und Ni ∈ K (ri ,ri ) nach Satz 4.78 eine nilpotente Matrix ist.

Lokale Zerlegung der Blöcke Ci in Jordan-Blöcke Ji,m : Es ist anzumerken, dass nach Theorem 4.98 die Matrix Ci gerade die beschreibende Matrix von C auf dem C-invarianten Hauptraum Ui = Kern(C − λi 1)ri ist. Daher kann Ci weiteren Ähnlichkeitstransformationen unterzogen werden, ohne dabei die anderen C j , j , i zu verändern. Das erlaubt alle Ci mittels einer weiteren Ähnlichkeitstransformation auf Ui auf die gewünschte Gestalt zu bringen und zum Schluss alle Ähnlichkeitstransformationen auf den Ui zu einer globalen Ähnlichkeitstransformation für C zusammenzusetzen. Um Ci auf die gewünschte Form zu bringen, untersuchen wir die nilpotente Matrix Ni genauer. Wegen Theorem 4.106 ist Ni ähnlich zu einer Blockdiagonalmatrix Jei , d. h. es ist e Ni = A−1 i Ji A i

für eine geeignete Transformationsmatrix Ai ∈ K (ri ,ri ) .

Jei besteht dabei wieder nach Theorem 4.106 aus Jordan-Blöcken Jei,m mit Eigenwert 0, m = 1, . . . , Mi . Das zeigt si,1 + . . . + si,Mi = ri . Nach Satz 4.108 ist hier Mi = dim Kern Ni , nämlich die Anzahl der Ketten, die benötigt werden um eine Basis für den Hauptraum Ui zu bilden. Also:

536

4 Eigenwerte und Normalformen von Matrizen

Anzahl Jordan-Blöcke zu λi = Mi = dim Kern Ni = dim Kern(Ci − λi 1ri ) = geometrische Vielfachheit .

Mit den bisherigen Überlegungen gilt nun für Ci −1 e Ci = λi 1ri + Ni = A−1 i λi 1ri Ai + Ai Ji Ai =   = A−1 λi 1ri + Jei Ai . i

D. h. Ci ist ähnlich zu einer Blockdiagonalmatrix Ji := λi 1ri + Jei , die aus den JordanBlöcken Ji,m := λi 1 si,m + Jei,m zum Eigenwert λi besteht.

Die Eindeutigkeitsaussage folgt aus der Eindeutigkeit in Satz 4.94 bzw. Theorem 4.98, 2) und Satz 4.108. Für die „globale“ Gültigkeit von (4.69) für die Gesamtmatrix C muss die in Satz 4.108 gezeigte „lokale“ Gültigkeit für Ci auf C übertragen werden. Das folgt jedoch unmittelbar, da bereits bekannt ist, dass C auf dem C-invarianten Unterraum Ui durch Ci beschrieben wird. Damit gilt für k ≤ ri = dim Ui die Identität dim Kern(C − λi 1)k = dim Kern (C − λi 1)k U , i

hierbei folgt die Gleichheit der Räume aus Theorem 4.92 mit analogen Überlegungen im dortigen Beweis. 

Wegen des Eindeutigkeitsteils in Satz 4.108 können wir von der Jordanschen Normalform einer Matrix sprechen. Somit wurde bewiesen Satz 4.113: Größe der Jordan-Blöcke In einer Jordanschen Normalform nach Hauptsatz 4.112 setze für jeden der paarweise verschiedenen Eigenwerte λl , l = 1, . . . , I die Größen ai als a(l) := i dim Kern(Φ − λl 1)i , i ∈ N. Dann gilt: (ai )i ist eine monoton nicht fallende Folge mit monoton nicht wachsenden Inkrementen ai − ai−1 . Ab i = ml = Grad von λl im Minimalpolynom gilt ak = aml für k ≥ ml . Die Anzahl der Jordan-Blöcke der Größe i ist durch ci := 2ai − ai−1 − ai+1 gegeben. Der größtmögliche Jordan-Block hat die Dimension ml und ein solcher tritt immer auf. Jede solche Blockdiagonalmatrix aus Jordan-Blöcken aus Hauptsatz 4.112 lässt sich offensichtlich zerlegen in eine Diagonalmatrix mit den Eigenwerten auf der Diagonale und eine Matrix, die sich aus Jordan-Blöcken zum Eigenwert 0 zusammensetzt, also

4.5 Die Jordansche Normalform

537

nilpotent ist. Für den einzelnen Eigenwert λ ist diese Zerlegung J = λ1 + N =: Jd + Jn , so dass Jd und Jn kommutieren. Damit kommutieren auch für die gesamte Matrix in der Zerlegung J = Jd + Jn , Jd und Jn : Jd Jn = Jn Jd , wovon man sich durch Blockmultiplikation überzeugt. Für eine allgemeine Matrix C ∈ K (n,n) , die durch eine Ähnlichkeitstransformation −1 A CA = J in die Jordansche Normalform gebracht wird, folgt C = Cd + Cn

(4.72)

mit Cd := AJd A−1 , Cn := AJn A−1 und: Cd Cn

ist diagonalisierbar, ist nilpotent,

Cd Cn = Cn Cd . Eine solche Zerlegung (4.72) heißt Jordan-Zerlegung einer Matrix bzw. analog eines linearen Operators. Etwas struktureller notiert, gilt: Theorem 4.114: Eindeutige Existenz Jordan-Zerlegung Sei K ein algebraisch abgeschlossener Körper, V ein endlichdimensionaler KVektorraum, Φ : V → V linear. Dann existieren ein diagonalisierbares Φd und ein nilpotentes Φn in HomK (V, V) so, dass Φ = Φd + Φn

und Φd ◦ Φn = Φn ◦ Φd .

Eine solche Darstellung von Φ heißt Jordan-Zerlegung oder auch JordanChevalley17 -Zerlegung. Weiter gilt: 1) Die Eigenräume von Φd sind die Haupträume von Φ. 2) Kommutiert Ψ ∈ HomK (V, V) mit Φ, so auch mit Φn und Φd aus einer JordanZerlegung. 3) Die Jordan-Zerlegung ist eindeutig.

Beweis: Zu 1): Sei V = U1 ⊕ . . . ⊕ Uk die Φ-invariante direkte Summenzerlegung nach Theorem 4.93 bzw. Korollar 4.95 in die Haupträume 17

Claude Chevalley ∗11. Februar 1909 in Johannesburg †28. Juni 1984 in Paris

538

4 Eigenwerte und Normalformen von Matrizen

Ui := Kern(Φ − λi id)ri für die paarweise verschiedenen Eigenwerte λi . Seien Pi : V → Ui die nach Satz 2.46 definierten Projektionen, die für i = 1, . . . , k durch  k  X  Pi  u j  := ui für u j ∈ U j , j = 1, . . . , k, j=1

gegeben sind. Auf der Ebene der Darstellungsmatrix ist dies gerade die Einschränkung auf die zum i-ten Diagonalblock gehörigen Komponenten. Der Bemerkung 4.43, 3) entspricht Φd :=

k X

λi Pi .

i=1

Wegen Φd |Ui = λi 1 ist Ui Φd -invariant und die Ui sind genau die Eigenräume von Φd zu P λi , so dass die Aussage 1) gilt. Φ kommutiert mit Φd , denn für u ∈ V, u = kj=1 u j ∈ U j gilt:       X  X  X Φ Φd  u j  = Φ  λ j u j  = (4.73) λ j Φu j = Φd (Φu) , j

da Φu j ∈ U j und Φu = Man setze

P

j

j

Φu j die eindeutige Zerlegung von Φu ist. Φn := Φ − Φd ,

so kommutiert auch Φ mit Φn und auch Φn mit Φd . Waren die bisherigen Überlegungen (zu 1)) allgemein für jede Φ-invariante Zerlegung, so folgt die zur Existenz einer Jordan-Zerlegung noch fehlende Nilpotenz von Φn aus Φrni U = (Φ − λi 1)ri |Ui = 0 . i

Zu 2): Wenn Ψ und Φ kommutieren, so lässt auch Ψ nach Theorem 4.92, 1) die Haupträume invariant. Betrachtet man noch einmal (4.73), so sieht man, dass dort für Φ außer Linearität nur diese Invarianz benutzt worden ist. Also gilt auch Ψ ◦ Φd = Φd ◦ Ψ und damit die Vertauschbarkeit auch für Φn . Zu 3): Sei Φ = Φ′d + Φ′n eine weitere Jordan-Zerlegung, dann gilt Φd − Φ′d = Φ′n − Φn . Da Φ′d , Φ′n miteinander kommutieren und daher ebenso mit Φ, kommutieren sie nach 2) auch mit Φd und Φn . Nach dem folgenden Lemma 4.115 ist Φd − Φ′d diagonalisierbar und

4.5 Die Jordansche Normalform

539

Φ′n − Φn nilpotent, was nur im Fall Φd = Φ′d ,

Φn = Φ′n

möglich ist.



Lemma 4.115 Sei V ein endlichdimensionaler K-Vektorraum über einem Körper K, seien Φ, Ψ ∈ HomK (V, V) und kommutieren miteinander. Dann gilt: 1) Sind Φ, Ψ diagonalisierbar, dann auch Φ + Ψ . 2) Sind Φ, Ψ nilpotent, dann auch Φ + Ψ .

Beweis: Zu 1): Nach Bemerkung 4.72 sind Φ und Ψ simultan diagonalisierbar und damit ist auch Φ + Ψ diagonalisierbar. Zu 2): Wegen der Kommutativität gilt (Φ + Ψ )n =

! n X n i Φ ◦ Ψ n−i . i i=0

(4.74)

Es sei m ∈ N, sodass Φl = Ψ l = 0, für l ≥ m, dann gilt infolgedessen (Φ + Ψ )2m = 0 , denn in (4.74) ist für i = 0, . . . , m schon Ψ 2m−i = 0 und ebenso für i = m + 1, . . . , 2m auch Φi = 0.  Bemerkungen 4.116 1) Sei K ein algebraisch abgeschlossener Körper, V ein n-dimensionaler K-Vektorraum, und Φ, Ψ ∈ HomK (V, V) kommutieren miteinander, d. h. Ψ ◦ Φ = Φ ◦ Ψ . Dann gibt es eine Basis von V, deren Elemente sowohl Hauptvektoren für Φ als auch für Ψ sind (vgl. Satz 4.71). Es reicht, die Aussage für A1 , A2 , ∈ K (n,n) zu zeigen. Nach Voraussetzung kommutiert A2 auch mit (A1 − λ1)l für λ ∈ K und l ∈ N. Seien Ui = Kern(A1 − λi 1)ri , i = 1, . . . , k, die Haupträume von A1 in einer Jordanschen Darstellung, dann ist also für x ∈ U i : (A1 − λi 1)ri A2 x = A2 (A1 − λ1 1)r x = 0 ,

d. h. A2 x ∈ Ui . Da also die Ui invariant unter A2 sind, besitzen sie jeweils eine Hauptraumzerlegung bezüglich A2 : Ui = Ui,1 ⊕ . . . Ui,ki .

Durch Auswahl von Kettenbasen von Ui, j bezüglich A2 erhält man insgesamt eine Basis aus Hauptvektoren von A2 , die auch Hauptvektoren von A1 sind.

540

4 Eigenwerte und Normalformen von Matrizen

2) Die im Beweis von Theorem 4.114 gezeigte „koordinatenfreie“ Form der JordanZerlegung läßt sich weiter konkretisieren. Unter den Voraussetzungen von Theorem 4.114 gilt mit der dortigen Notation: Sei V = U1 ⊕· · ·⊕Uk die direkte Summenzerlegung in die Haupträume zu den LEigenwerten λi , Pi : V → Ui die zugehörigen Projektionen auf Ui in Richtung U˜ i := j,i U j , dann gilt: Φ = Φd + Φn und Φd =

k X

λi Pi ,

i=1

Φn =

k X i=1

(Φ − λi 1)Pi =

k X i=1

Pi (Φ − λi 1)

in Verallgemeinerung von Bemerkungen 4.43, 3). Φd ist diagonalisierbar und Φn ist nilpotent: (Φ − λi 1)Pi ist nilpotent mit dem Nilpotenzgrad ki , dem Fitting-Index (siehe (4.71)). Pi kann „koordinatenbehaftet“ nach Bemerkung 2.65 konkretisiert werden. Es ist nur die Darstellung von Φn zu verifizieren: Aus id = Φ=

k X i=1

ΦPi =

k X i=1

Pk

i=1

Pi folgt

(Φ − λi 1)Pi +

k X

λi Pi

i=1

und damit die eine Darstellung für Φn = Φ − Φd , die andere folgt durch Komposition: von id an Φ von links.

△ Beispiel 4.117 (Differenzengleichung) Im allgemeinen, nicht diagonalisierbaren Fall ist mit der Jordanschen Normalform für (4.12) eine Lösungsdarstellung gegeben, falls die Eigenwerte in K liegen. Sei CJC −1 = A eine Jordan-Zerlegung nach Hauptsatz 4.112, dann reicht wegen Ak = CJ k C −1 die Bestimmung von J k = (D + N)k , wobei D der Diagonal- und N der nilpotente Anteil der Jordan-Zerlegung nach Theorem 4.114 ist. Sei D = diag(Di ) die durch die paarweise verschiedenen Eigenwerte λ1 , . . . , λr gegebene Zerlegung und verträglich N = diag(Ni ) , dann ist J k = diag(Jik ) = diag(Di + Ni )k , so dass nun nur noch die Blöcke zum festen Eigenwert λi betrachtet werden müssen. Sei weiter Ni = diag(Ni, j ) die Zerlegung in Jordan-Blöcke zum Eigenwert

4.5 Die Jordansche Normalform

541

0 , falls die Basis des zugehörigen invarianten Unterraums aus mehreren Ketten besteht. Für die entsprechende Zerlegung Ji = diag(Ji, j ) gilt dann  k Ji,k j = Di + Ni, j .

Ni, j habe die Dimension si, j . Da Di und Ni, j kommutieren, gilt (siehe (4.74)) für k ≥ si, j −1: Ji,k j =

! si, j −1 ! k X k ℓ k−ℓ X k k−ℓ ℓ λ Ni, j Ni, j Di = ℓ i ℓ ℓ=0 ℓ=0

und daher

Ji,k j

 k k k−1  λi 1 λi  ..  . =    

··· .. . .. .



Die Lösung (siehe Beispiele 4.56, 2) ) ist

 k−si, j +1   λi  ..   .  . k   k−1 λ  1 i k λi

k si, j −1

(4.75)

x(k) = Ak x(0) = CJ k α , wobei α = C −1 x(0) , und ist daher durch Linearkombination der Hauptvektorbasis zum jeweiligen Eigenwert λi gegeben, wobei aber in einer Hauptvektorenkette zu λi nur der Hauptvektor der höchsten Stufe (siehe Definition 4.122) den Vorfaktor λki (wie in (4.28)) bekommt, die Hauptvektoren r-ter Stufe haben hingegen einen Vorfaktor der Form s−r X

j) α(i, ℓ+r

ℓ=0

! k k−ℓ λ . ℓ i

(4.76)

j) Dabei sind die α(i, die zur Kette gehörigen Komponenten von α in einer lokalen Numℓ merierung. Für eine skalare Differenzengleichung m-ter Ordnung (siehe Beispiel 4.57) lässt sich eine Lösung einfach bestimmen. Nichtdiagonalisierbarkeit bedeutet gerade, dass nicht alle Nullstellen der charakteristischen Gleichung

f (λ) = λm −

m−1 X

a(i) λi = 0

i=0

einfach sind. Für eine mehrfache, etwa j-fache Nullstelle λ gilt aber zusätzlich f (l) (λ) = 0,

l = 1, . . . , j − 1

für die Ableitungen f (i) (vergleiche Satz B.21, 2)). Daher ist nicht nur

542

4 Eigenwerte und Normalformen von Matrizen

fk(1) = λk eine Lösung, sondern auch ( j)

fk(2) = kλk−1 , fk(3) = k(k − 1)λk−2 , . . . , fk = k · · · (k − j + 2)λk− j+1 und diese sind linear unabhängig. Wir beschränken uns zur Vereinfachung auf j = 2, dann 0 = f ′ (λ) = mλm−1 −

m−1 X

a(i) iλi−1

i=1

und daher für f = f (2) : fn+m −

m−1 X i=0

a(i) fn+i = (n + m)λn+m−1 −

m−1 X

a(i) (n + i)λn+i−1

i=0

= λn f ′ (λ) + nλn−1 f (λ) = 0.

Auch die lineare Unabhängigkeit von f (1) und f (2) ist hier klar.

Die einfachsten Beispiele sind f (λ) = (λ − 1)2 bzw. f (λ) = (λ + 1)2 , d. h. die Differenzengleichungen fn+2 = 2 fn+1 − fn bzw. fn+2 = −2 fn+1 − fn . Im ersten Fall gibt es also neben der konstanten Lösung fk(1) := 1 noch fk(2) := k, im zweiten Fall neben der oszillierenden Lösung fk(1) := (−1)k noch fk(2) := k(−1)k−1 . Im Gegensatz zu den periodischen Lösungen in Beispiel 4.57 sind die hier für Periode N = 1 bzw. 2 gefundenen instabil (siehe Kapitel 8.6.2): Kleine Abweichungen, d. h. das „Einschleppen“ der zweiten Lösung (in die Anfangsvorgabe) führt zu einer unbeschränkten Lösung. ◦

4.5.2 Die reelle Jordansche Normalform Ist K = R und hat C ∈ R(n,n) nur reelle Eigenwerte, d. h. zerfällt χC in reelle Linearfaktoren, dann können alle Überlegungen von Abschnitt 4.4.1, 4.4.2 und 4.5.1 in R durchgeführt werden und Hauptsatz 4.112 gilt wörtlich mit einer reellen Ähnlichkeitstransformation. Hat C ∈ R(n,n) auch komplexe Eigenwerte, so kann Hauptsatz 4.112 wie schon die Schursche Normalform in R nicht gelten. Mit Blick auf die reelle Schursche Normalform (Theorem 4.55) ist aber eine analoge Variante der Jordanschen Normalform zu erwarten. Es ist also sicherzustellen, dass alle Transformationsschritte mit reellen Basiswechseln durchzuführen sind. Diese sind:

4.5 Die Jordansche Normalform

543

1) Ähnlichkeitstransformation auf eine Blockdiagonalgestalt (Theorem 4.93 bzw. Theorem 4.98), 2) Normalform der Blöcke unter Kenntnis der Eigenwerte (für K = C: ein Eigenwert) (Theorem 4.106). Ist man dem Weg von Abschnitt 4.4.3 gefolgt, so ist der Schritt 1) schon bewerkstelligt (Satz 4.100). Der Leser kann daher das Weitere überspringen und die Lektüre auf Seite 545 oben fortsetzen. Ist C ∈ R(n,n) , so hat das charakteristische Polynom nach Bemerkungen 4.35, 1) die spezifische Gestalt χΦ (λ) = pr11 · . . . · prkk · q1s1 · . . . · qlsl ,

r1 + . . . + rk + 2(s1 + .. + sl ) = n .

(4.77)

Dabei seien λ1 , . . . , λk die paarweise voneinander verschiedenen reellen Nullstellen von p und p1 (λ) = (λ1 − λ), . . . , pk = (λk − λ) die linearen Faktoren und entsprechend q1 (λ) = (c1 − λ)(¯c1 − λ), . . . , ql (λ) = (cl − λ)(¯cl − λ) die quadratischen Faktoren ohne gemeinsame (komplexe) Nullstellen. Dabei ist qi (λ) ein reeller quadratischer Faktor nach (4.10). Wenn nun diese Faktoren noch berücksichtigt werden, können die Überlegungen von Abschnitt 4.4.1 und 4.4.2 auch in R durchgeführt werden. Dies braucht folgende Ergänzungen: Theorem 4.81 (Cayley-Hamilton) gilt auch in R mit den quadratischen Faktoren, da es in C mit den Zerlegenden gilt (siehe Bemerkungen 4.85, 2)) und weiter ist von den Überlegungen aus Abschnitt 4.4.2 nur Theorem 4.93 anzupassen: Theorem 4.93I Invariante direkte Summenzerlegung, K = R Es sei V ein endlichdimensionaler R-Vektorraum und Φ : V → V eine R-lineare Abbildung und das charakteristische Polynom habe die Darstellung (4.77). Dann gibt es eine Φ-invariante reelle direkte Summenzerlegung

mit

V = U1 ⊕ . . . ⊕ Uk ⊕ W1 ⊕ . . . ⊕ Wl dim(U j ) = r j , dim(W j ) = 2s j ,

so dass Φ|U j das charakteristische Polynom (λ j − λ)r j und Φ|W j das charakteristische s Polynom q j j hat.

Beweis: Wir erweitern den Beweis von Theorem 4.93, wobei der Induktionsbeweis hier über die Anzahl m(= k + l) aller Faktoren läuft. Für m = 1 liegt entweder ein linearer

544

4 Eigenwerte und Normalformen von Matrizen

Faktor, wie in Beweis von Theorem 4.93 behandelt, vor oder es gibt einen quadratischen Faktor q mit Vielfachheit s = n/2. Für diesen gilt analog 0 = χΦ (Φ) = q(Φ) s = 0 , und so W1 = V = Kern q(Φ) s . Beim Induktionsschluss zerlegen wir χΦ (λ) = p(1) (λ) · p(2) (λ) in zwei reelle Faktoren ohne gemeinsame lineare oder quadratische Faktoren, wobei p(1) einer (komplexen) Nullstelle entspricht, folglich die Potenz eines linearen oder quadratischen Faktors ist. Mit Theorem 4.88 und Bemerkungen 4.89, 1) zerlegen wir V = U (1) ⊕ U (2) , so dass für Φ1 := Φ|U(1) und Φ2 := Φ|U(2) gilt p(1) (Φ1 ) = 0 und p(2) (Φ2 ) = 0. Jetzt müssen wir aber zwei Fälle unterscheiden: a) Wenn p(1) (λ) = (λ1 − λ)r mit λ1 ∈ R ist, dann verläuft der Induktionsschluss identisch wie beim Beweis von Theorem 4.93. b) Wenn p(1) (λ) = q(λ) s = (c1 − λ) s · (¯c1 − λ) s mit c1 < R ist, dann folgt wie im Beweis von Theorem 4.93, dass χΦ1 nur die Nullstellen c1 und c¯1 hat und diese jeweils mit der Vielfachheit s := dim(U (1) )/2, während χΦ2 nur komplexe Nullstellen ungleich c1 , c¯ 1 besitzt. Aber aus χΦ (λ) = χΦ1 (λ) · χΦ2 (λ) = (c1 − λ) s (¯c1 − λ) s · p2 (λ) folgt wieder χΦ1 (λ) = (c1 − λ) s · (¯c1 − λ) s und U (1) = Kern p(1) = Kern q s . Der restliche  Beweis verläuft wie sein Vorbild von Theorem 4.93. Satz 4.94I Eindeutigkeit einer invarianten Summenzerlegung, K = R Wir betrachten den endlichdimensionalen R-Vektorraum V und die R-lineare Abbildung Φ : V → V. Gegeben sei eine direkte Summenzerlegung wie in Theorem 4.93I , wobei die invarianten Unterräume einheitlich mit U j und die charakteristischen Polynome von Φ j := Φ|U j mit p j (λ)r j bezeichnet werden für lineare oder quadratische Faktoren p j . Diese Unterräume sind durch Φ eindeutig bestimmt, und U j = Kern(p j (Φ))r j .

Beweis: Der Beweis folgt dem von Satz 4.94. Um nach U j ⊂ Kern(p j (Φ)r j ) =: V j auch U j = Kern(p j (Φ)r j ) zu zeigen, beachte man: Die spezielle Form der Polynome spielt keine Rolle, so dass die Aussagen von Theorem 4.92 für die Räume V j unverändert gelten. Insbesondere ist die Summe direkt. Daher kann genau wie im Beweis von Satz 4.94 argumentiert werden. 

4.5 Die Jordansche Normalform

545

Korollar 4.95I Jede reelle n × n-Matrix ist ähnlich zu einer Blockdiagonalmatrix aus oberen Blockdreiecksmatrizen C j als Blöcke, wobei jede Matrix C j entweder ein charakteristis sches Polynom (λ j − λ)r j mit λ j ∈ R hat oder ein charakteristisches Polynom p j j mit p j = (a j − λ)2 + b2j und 0 , b j ∈ R. Mit den erzielten Ergebnissen kann nun auch im reellen Fall eine Jordansche Normalform entwickelt werden. Es sei C eine reelle n×n-Matrix und Φ : Rn → Rn die zugehörige R-lineare Abbildung. Das charakteristische Polynom χC (λ) zerfällt in Linearfaktoren, die zu reellen Eigenwerten gehören, und in quadratische Faktoren p(λ) = (µ − λ)2 + ν2 , ν , 0, welche zu komplexen Nullstellen µ ± iν gehören. In beiden Fällen sind die zugehörigen C-invarianten Unterräume Ui ⊂ Rn wohldefiniert (Theorem 4.93, 4.93I oder Satz 4.100) und führen auf eine Blockdiagonalmatrix, welche zu C reell ähnlich ist. Ist λi ein reeller Eigenwert von C, so ist C − λi 1 auf dem zugehörigen invarianten Unterraum Ui nilpotent. Nach Theorem 4.106 findet man eine Basis von Ui aus reellen Ketten und eine Blockdiagonalmatrix aus Jordan-Blöcken, welche die Abbildung Φ|Ui in dieser Basis beschreibt. Anders ist es bei einem invarianten Raum U zu einem Faktor r (µ − λ)2 + ν2 . Wir wählen eine reelle Basis von U und identifizieren damit U mit dem R2r durch Wahl dieser Basis. Wir gehen über zu der darstellenden reellen 2r × 2r-Matrix A für Φ|U : U → U. Um die schon vorliegende komplexe Jordan-Form ausnutzen zu können, betrachten wir die Situation im Komplexen. Nach der komplexen Theorie ist C2r = H ⊕ H die direkte Summe zweier komplexer invarianter Unterräume zu den komplexen Eigenwerten µ + iν und µ − iν H = Kern((µ + iν)12r − A)r

und

H = Kern((µ − iν)12r − A)r .

Diese beiden komplexen Haupträume sind konjugiert im folgenden Sinn: u∈H



u ∈ H,

d. h. die R-lineare Abbildung v 7→ v bildet H bijektiv auf H ab. Nach Theorem 4.106 gibt es eine komplexe Basis für H, welche sich aus Ketten (1) (l) (l) u(1) 1 , ..., uk1 , ..., u1 , ..., ukl ,

k1 + ... + kl = r,

zusammensetzt, die rückwärts durchlaufen werden. Die dazu konjugiert komplexen Vektoren bilden wieder Ketten und damit bilden sie eine Kettenbasis von H. Die von diesen Ketten aufgespannten C-Untervektorräume sind eine Φ-invariante direkte Summenzerlegung H1 ⊕ ... ⊕ Hl ⊕ H 1 ⊕ ... ⊕ H l = H ⊕ H = C2r .

(4.78)

Auf jedem dieser Summanden hat Φ bezüglich der Kettenbasis (mit rückwärts durchlaufenen Ketten) als darstellende Matrix einen Jordan-Block. Blockweise liegt demnach hier

546

4 Eigenwerte und Normalformen von Matrizen

die gleiche Situation vor, die schon in (4.15) ff. bzw. dann in Theorem 4.55 und Satz 4.100 betrachtet worden ist, dort aber nicht für Elemente einer Kettenbasis und deren konjugiert komplexe, sondern nur für einen Eigenvektor. Für eine Kette (aus einer Kettenbasis) u1 , . . . , uk zu λ = µ + iν und entsprechend u1 , . . . , uk zu λ = µ − iν gilt Φu j = λu j + u j−1 , wenn man u0 = 0 ergänzt. Dies bedeutet für u j = y j + iz j Φ(y j + iz j ) = (µ + iν)(y j + iz j ) + (y j−1 + iz j−1 ) und damit in Real- und Imaginärteil zerlegt (vergleiche (4.16)): Φy j = µy j − νz j + y j−1

Φz j = νy j + µz j + z j−1 .

Dies ergibt für R2k die Basis y1 , z1 , y2 , z2 , . . . , yk , zk (die lineare Unabhängigkeit zeigt man analog zu der Überlegung nach (4.17)) und damit die Darstellungsmatrix   µ ν 1 0  −ν µ 0 1   µν 10   −ν µ 0 1  ..  .      0  

   0      ..  ∈ R(2k,2k) , .   µν 10   −ν µ 0 1  µ ν   −ν µ

(4.79)

d. h. eine spezielle obere Blockdreiecksmatrix mit den aus (4.18) bzw. Satz 4.100 bekannten (2, 2) Diagonalblöcken. Wiederholt man diese Prozedur für alle Ketten zu einem komplexen Eigenwert und alle komplexen Eigenwerte, so erhält man den nachfolgenden Theorem 4.118. In Matrixschreibweise lautet das obige Argument: Nimmt man die oben angegebenen Kettenvektoren für alle Ketten einer Kettenbasis aus H (siehe (4.78)) als Spalten einer komplexen 2r × r-Matrix V, dann ist die komplexe 2r × 2r-Matrix (V, V) die Übergangsmatrix in die Kettenbasis von H ⊕ H. In dieser Basis wird Φ : U → U durch eine Blockdiagonalmatrix

4.5 Die Jordansche Normalform

547

  J1  ..  . !   Jl J 0  =  J1 0 J   ..  . 

Jl

aus komplexen Jordan-Blöcken beschrieben. Wir gehen von der Transformationsmatrix (V, V) über zu

          

! √ √ 1 1r −i1r 1 T := (V, V) √ = √ (V + V, −i · (V − V)) = ( 2 Re(V), 2 Im(V)). 2 1r i1r 2 Dabei ist Re(V) bzw. Im(V) eintragsweise definiert. Diese Transformationsmatrix ist somit rein reell. Mit ihr finden wir ! ! ! J 0 1r −i1r 1 1r 1r −1 T AT = 2 i1r −i1r 0 J 1r i1r ! ! ! ! J −iJ 1 J + J −iJ + iJ 1 1r 1r Re(J) Im(J) = = . = − Im(J) Re(J) 2 i1r −i1r J iJ 2 iJ − iJ J + J Dass 1n −i1n 1n i1n

!−1

=

1 1n 1n 2 i1n −i1n

!

ist, ergibt direktes Nachrechnen (siehe auch Lemma 4.102). Durch Zusammenfügen der Transformationsmatrizen zu einer Blockdiagonalmatrix (siehe (4.20)) erhalten wir eine Ähnlichkeitstransformation der Gesamtmatrix C. Aus diesem Grund hat man bewiesen, dass jede reelle n×n-Matrix ähnlich ist zu einer Blockdiagonalmatrix aus reellen JordanBlöcken und aus Blöcken der Form   ν  µ 1    .. .. ..   . . .   .. ..   . 1 .     µ ν   .  −ν  µ 1     .. .. ..   . . .   .. ..   . . 1   −ν µ Nun müssen noch zusammengehörige Real- und Imaginärteile µ und ν in diesen Blöcken in direkte Nachbarschaft gebracht werden. Dazu wird schließlich in jedem dieser Blöcke der

548

4 Eigenwerte und Normalformen von Matrizen

Größen (2r, 2r) die Ähnlichkeitstransformation mit der Permutationsmatrix durchgeführt, die die r + 1-te Spalte zwischen die erste und zweite Spalte schiebt, wodurch auch die r + 1-te Zeile zwischen die erste und zweite Zeile kommt, anschließend die r + 2-te Spalte zwischen die dritte und vierte Spalte, und damit die r + 2-te Zeile zwischen die dritte und vierte Zeile usw., so ergibt sich schließlich: Theorem 4.118: Reelle Jordansche Normalform Jede reelle n × n-Matrix ist (reell) ähnlich zu einer Blockdiagonalmatrix aus reellen Jordan-Blöcken (zu den reellen Eigenwerten) und aus Blöcken der Form (4.79) Diese Blöcke entsprechen genau den echt komplexen Eigenwerten λ = µ + iν und den komplexen Jordan-Blöcken zu λ und λ in einer komplexen Jordanschen Normalform. Die Anzahl der Blöcke zu einem festen Eigenwert ist dessen geometrische Vielfachheit, auch die Anzahl der Blöcke einer festen Größe zu einem festen Eigenwert ist durch die Matrix eindeutig bestimmt.

Beispiel 4.119 (Geometrie) In Fortführung von Bemerkungen 2.139, 4) können die ebenen Affinitäten (n = 2) klassifiziert werden, d. h. durch Wechsel des Koordinatensystems sind folgende Normalformen möglich: (2) Dies bedeutet, dass 1 kein Eigenwert von A ist, es verbleiben also folgende Fälle: (2.1) a, b ∈ R, a , b, Eigenwerte von A , a, b < {0, 1}: ! a0 A= , auch Euler-Affinität genannt, 0b

(2.2) a ∈ R, a , 1, doppelter Eigenwert von A, diagonalisierbar:

A = a1: zentrische Streckung , eventuell mit Spiegelung, insbesondere für a = −1 Punktspiegelung,

(2.3) a ∈ R, a , 1, doppelter Eigenwert von A, nicht diagonalisierbar: ! a1 A= : Streckscherung, 0a (2.4) λ, λ ∈ C\R konjugiert komplexe Eigenwerte: ! cos(ϕ) − sin(ϕ) A=r : Drehstreckung. sin(ϕ) cos(ϕ)

(3) Dies bedeutet, dass 1 Eigenwert von A ist mit eindimensionalem Eigenraum. Sofern nicht die Lösbarkeitsbedingung aus Bemerkungen 2.139, 4) verletzt ist und dann Fall (1) vorliegt, verbleiben folgende Fälle: (3.1) 1 und a ∈ R, a < {0, 1} sind die Eigenwerte von A: ! 10 A= für a > 0 ist eine Parallelstreckung, für a < 0 eine Streckspiegelung, 0a

4.5 Die Jordansche Normalform

549

(3.2) 1 ist doppelter Eigenwert: ! 11 A= : Scherung. 01



Beispiel 4.120 (Differenzengleichung) Es werde wieder die Lösungsdarstellung (4.13) für die Anfangswertaufgabe (4.12) betrachtet. Für den verbliebenen Fall einer (nicht diagonalisierbaren) reellen Matrix mit komplexen Eigenwerten kann durch den Beweis von Theorem 4.118 eine explizite(re) Darstellung gegeben werden. Ein Vorgehen analog zu Beispiel 4.117 ergibt die dortige Darstellung für reelle Eigenwerte und für ein komplexes λi mit µi = Re(λi ), νi = Im(λi ), αi = |λi |, cos(ϕi ) = µi /αi , sin(ϕi ) = −νi /αi :

Ji,k j

wobei

Bℓi

    αk Bk  i i      =         

k  1

k−1 αk−1 i Bi

..

.

··· ..

.

..

.

! cos(ℓϕi ) − sin(ℓϕi ) = . sin(ℓϕi ) cos(ℓϕi )



 k−si, j +1 k−si, j+1 k Bi si, j −1 αi .. . k  k−1 k−1 1 αi Bi αki Bki

           ,         

Die Lösung beinhaltet also (für Ketten in der Hauptvektorbasis mit Länge größer 1) sowohl die „nachhängende“ Eigenvektor(betrags)potenz aus (4.75) als auch die „schwingende“ ◦ Überlagerung durch die Drehmatrizen Bℓi wie in (4.33).

4.5.3 Beispiele und Berechnung Beispiele 4.121 1) n = 2 (siehe Beispiel 4.33): Die möglichen Jordanschen Normalformen für reelle 2 × 2-Matrizen sind ! ! ! λ1 0 λ1 λ0 , , , 0 λ2 0λ 0λ wobei λ1 , λ2 . Um zu entscheiden, welche Jordansche Normalform eine reelle Matrix ! ab C= cd hat, berechnen wir das charakteristische Polynom

550

4 Eigenwerte und Normalformen von Matrizen

χC (λ) = (a − λ)(d − λ) − bc = δ − σλ + λ2 , was hier noch problemlos möglich ist, wobei wir det(C) mit δ := ad − bc und sp(C) mit σ := a + d abkürzen. Die beiden Eigenwerte sind dann λ1,2 =

√ 1 (σ ± σ2 − 4δ) 2

und beide Eigenwerte fallen genau dann zusammen, wenn σ2 = 4δ. Da σ2 = 4δ ⇔ (a − d)2 = −4bc und λ =

1 (a + d) 2

ist, betrachten wir die Dimension des Kerns von ! ! 1 (a − d) b e= a− λ b C = 2 . 1 c d−λ c 2 (d − a)

Es gibt die Fälle

e = 2. - b = c = 0, d. h. a = d, also dim Kern C

- b , 0 oder c , 0: Im Fall bc = 0, d. h. a = d ist also bei o. B. d. A. b , 0 ! e = 0 b , d. h. dim Kern C e= 1 . C 00

Im Fall bc , 0, d. h. h := 12 (d − a) , 0 ist die Matrix ! −h b e e= 1 . C= , d. h. dim Kern C c h

Daraus folgt: C ist

ähnlich zu ähnlich zu ähnlich zu

! λ1 0 ⇔ sp(C)2 , 4 · det(C) , 0 λ2 ! λ0 ⇔a=d 0λ ! λ1 ⇔ sp(C)2 = 4 · det(C) und b , 0 oder c , 0 . 0λ

Wenn sp(C)2 > 4 · det(C) ist, dann hat das charakteristische Polynom von C reelle Nullstellen und die Matrix C ist reell diagonalisierbar. 2) n = 3: Die möglichen Jordanschen Normalformen für 3 × 3-Matrizen sind:

4.5 Die Jordansche Normalform

   λ1 0 0   0 λ 0  , 2   0 0 λ3    λ 1 0   0 λ 1  ,   0 0 λ

551

   λ1 1 0   0 λ1 0  ,   0 0 λ2    λ 1 0   0 λ   0  , 0 0 λ

   λ1 0 0   0 λ 0  1   0 0 λ2    λ 0 0     0 λ 0  ,   0 0 λ

(4.80)

wobei λ1 , λ2 , λ3 paarweise verschieden sind. Die zweite Zeile von Matrizen in (4.80) entspricht sodann für die ai , i = 1, . . . , 4 nach Theorem 4.114 und die Vielfachheit m vom λ im Minimalpolynom den Möglichkeiten: ai = 1, 2, 3, 3, . . . ai = 2, 3, 3, 3, . . . ai = 3, 3, 3, 3, . . .

m =3 m =2 m =1

3) Erinnern wir uns allgemein an die Entsprechung für eine Kettenbasis des invarianten Unterraums U zu einem Eigenwert λ (Satz 4.113): Bezeichnet man die geometrische Vielfachheit jλ und die algebraische Vielfachheit rλ , so gilt: Anzahl der Ketten = geometrische Vielfachheit = jλ , dim U = algebraische Vielfachheit, = rλ , Dimension größter Block = Vielfachheit im Minimalpolynom. D. h. die geometrische Vielfachheit jλ legt schon die Anzahl der Einzelblöcke fest und die algebraische Vielfachheit rλ bestimmt die Gesamtdimension. Die Vielfachheit von λ im Minimalpolynom, hier mit m bezeichnet, kann nach (4.71) ff. durch Berechnung von ai := dim(Kern(Cλi )), so dass a1 < . . . < am−1 bzw. äquivalent von (siehe Bemerkung 4.109) Rang(Cλ ) > . . . > Rang(Cλm−1 ) = Rang(Cλm ) bestimmt werden, wobei Cλ := C − λ1. Nach Satz 4.113 ist damit nicht nur m, d. h. die größte auftretende Jordan-Block Dimension festgelegt, sondern mittels der ci nach (4.69) auch die Anzahlen der Jordan-Blöcke genau der Größe i. Die Bestimmung der ai bzw. alternativ der Ränge kann mit dem Gaussschen Eliminationsverfahren erfolgen, solange die Matrizen nicht zu schlecht konditioniert sind (siehe Kapitel 8.1.1). Mit diesen Informationen sind dann, wie für n = 2 und n = 3 in 1), 2) gesehen, die folgenden Fälle festgelegt: (1) jλ = rλ :

jλ Blöcke, und damit der Größe 1 (der „diagonalisierbare“ Unterraum):

552

4 Eigenwerte und Normalformen von Matrizen

(2) jλ = 1 < rλ :

  λ 0   λ  λ J =   ..  0 . 

λ

      ,   

m = 1.

Ein Block und damit der Größe rλ :     λ 1 0   .. ..   . .     .. .. J =   , . .     .. . 1   0   λ

m = rλ .

Für kleine rλ ergeben sich einige Kombinationen zwangsläufig, etwa: (3) jλ = 2, rλ = 3 (siehe schon bei (4.80)): Zwei Blöcke, die damit notwendigerweise die Größen 1 und 2 haben, also bis auf die Reihenfolge    λ 1  0   m = 2. J =  0 λ  ,   0 λ

(4) jλ = 2, rλ = 4:

    λ 1  0 λ 0   , J =  λ 1    0 0λ

(5) jλ = 3, rλ = 4:

    λ 1 0  0 λ 1 0   , m = 2 oder J =    0 0 λ  0 λ

   λ 0      λ J =   ,  λ 1   0 0λ

m = 3.

m=2

und analog für rλ = 5, jλ = 2, 3, 4 . Man sieht also: Für rλ ≤ 3 ist bei Kenntnis von m die Struktur der Jordan-Zerlegung (Anzahl der Blöcke gegebener Größe) festgelegt. Daraus folgt: Haben zwei Matrizen das gleiche Minimalpolynom und alle Vielfachheiten sind kleiner gleich 3, so ist die Jordansche Normalform (bis auf die Reihenfolge der Blöcke) gleich,

4.5 Die Jordansche Normalform

553

insbesondere sind die Matrizen ähnlich. Für rλ = 4 sind aber ai = 2, 4, 4, . . . bzw. ci = 0, 2, 0, 0, . . . und ai = 3, 4, 4, . . . bzw. ci = 2, 1, 0, 0, . . . beide möglich, jeweils mit m = 2, so dass dann bei gleichem Minimalpolynom verschiedene Jordan-Zerlegungen, d. h.nicht ähnliche Matrizen möglich sind. Für rλ = 6 gibt es dann schon zweimal zwei verschiedene Fälle mit gleichem m und einmal drei. ◦ Wenn auch die zugehörigen Basisübergangsmatrizen gesucht sind, müssen die invarianten Unterräume zu diesen Kettenbasen bestimmt werden. Vorerst beschränken wir uns auf Matrizenschreibweise: Uλ umfasst den Eigenraum Eλ und eventuell weitere Vektoren. Diese können systematisch mit folgendem Begriff aufgebaut werden: Definition 4.122 u ∈ K n , u , 0, heißt Hauptvektor der Stufe k ∈ N zur Matrix C ∈ K (n,n) und deren Eigenwert λ ∈ K, wenn (C − λ1)k u = 0 und (C − λ1)k−1 u , 0 . Die Eigenvektoren sind folglich gerade die Hauptvektoren der Stufe 1 und es gilt: 1) Ist u ein Hauptvektor zur Stufe k, dann ist Cλ u ein Hauptvektor zur Stufe k − 1 für k ∈ N, k ≥ 2. 2) Die Hauptvektoren der Stufe k sind nicht durch Hauptvektoren der Stufen l ≤ k − 1 linear kombinierbar. Zum Aufbau einer Basis des Hauptraums Uλ zum Eigenwert λ bietet es sich nunmehr als ersten Weg an, von einer Basis des Eigenraums Eλ auszugehen (durch Bestimmung der Lösungsmenge des homogenen LGS Cλ u = 0) und soweit nötig weitere linear unabhängige Vektoren durch Hauptvektoren 2. bis kλ -ter Stufe hinzuzugewinnen. Ist b ein beliebiger Hauptvektor der Stufe j, so ergeben sich nach 1) Hauptvektoren der Stufe j + 1 als genau die Lösungen der inhomogenen LGS Cλ u = b . Da aber Cλ nicht invertierbar ist, muss b eine Lösungsbedingung erfüllen, die nach Hauptsatz 2.69 lautet: b ∈ (Kern Cλ† )⊥

(4.81)

(siehe Bemerkungen 4.105, 3)). Nur im z. B. für Anwendungen auf Differentialgleichungen (siehe Beispiel 4.57) wichtigen Spezialfall

554

4 Eigenwerte und Normalformen von Matrizen

geometrische Vielfachheit := jλ = dim Eλ = 1 < rλ = dim Uλ = algebraische Vielfachheit vereinfacht sich die Situation. Die Kettenbasis besteht hier aus einer einzigen Kette der Länge rλ und für den Fitting-Index nach Bemerkungen 4.89, 3) gilt kλ = rλ . Hier muss jeder Eigenvektor automatisch die Lösungsbedingung (4.81) erfüllen, da sie sonst von keinem Eigenvektor erfüllt würde. Man bestimmt daher einen Eigenvektor u1 und dann einen (davon linear unabhängigen) Hauptvektor 2. Stufe als eine Lösung des LGS C λ u2 = u1 . Fortführung dieses Prozesses in der Form Cλ ul+1 = ul

für l = 1, . . . , rλ − 1

liefert mit ui , i = 1, . . . , kλ eine Basis von Uλ , wobei ui gerade ein Hauptvektor der Stufe i ist. Wegen Cul+1 = λul+1 + 1 · ul ergibt sich als Darstellungsmatrix gerade ein Jordan-Block zum Eigenwert λ der Größe kλ . Im allgemeinen Fall muss die Lösbarkeitsbedingung berücksichtigt werden. Die sich so ergebende Basis von Uλ wird im Allgemeinen nicht nur aus einer Kette bestehen, sondern aus mehreren, jeweils in einem Eigenvektor endenden Ketten (siehe (4.68)). Eine Kette der Länge k entspricht in der Darstellung einem Jordan-Block der Größe k, wobei für k = 1 sich der Jordan-Block auf (λ) reduziert. Ein anderer Weg besteht darin, erst den Fitting-Index mλ des Eigenwerts λ dadurch zu berechnen, indem sukzessive der Rang von Cλ , Cλ2 , . . . bestimmt wird, bis dieser nicht mehr abnimmt. Durch Ermittlung (einer Basis) des Lösungsraums von Cλmλ u = 0 erhält man den invarianten Raum Uλ . Beschränken wir uns ab jetzt auf diesen, so fehlt mithin noch eine Kettenbasis für die nilpotente Matrix N := Cλ|Uλ , wobei N mλ = 0. Dies kann nach Bemerkungen 4.105, 3) dadurch geschehen, dass sukzessiv verschiedene Elemente aus Bild N k−1 ∩ Kern N für k = mλ , mλ − 1 . . . bestimmt werden, die eine Kette der Länge k erzeugen. Gegeben sei also die nilpotente n × n-Matrix N mit N r = 0, aber N r−1 , 0. Als erstes brauchen wir den Unterraum Z = Kern(N) ⊂ K n , wir berechnen ihn als Lösungsraum des homogenen LGS N x = 0. Seine Elemente sind die Hauptvektoren der Stufe 1. Dann berechnen wir für k = 2, . . . , r − 1 die Matrix-Potenzen N k . Den Spaltenraum der Matrix N k , also den Bildraum der durch N k beschriebenen linearen Abbildung, bezeichnen wir mit Bk ⊂ Cn . Dann haben wir die Inklusionen

4.5 Die Jordansche Normalform

555

Br = {0} ⊂ Br−1 ⊂ . . . ⊂ B1 ⊂ B0 = K n . Sukzessive berechnen wir dann Ketten der Länge r, r − 1, . . . , 1, deren Vektoren eine Kettenbasis des Cn bilden. Damit ist folgendes Konstruktionsverfahren möglich: Schritt 1: Wir wählen eine Basis von Br−1 ∩ Z, etwa die Spaltenvektoren von N r−1 zu den Indizes ν1 , . . . , νl . Sie sind die Bilder N r−1 eνi der Einheitsvektoren eν1 , . . . , eνl . Diese Einheitsvektoren sind Hauptvektoren der Stufe r und erzeugen Ketten der Länge r mit den gewählten Spaltenvektoren als letzte Vektoren und den Einheitsvektoren als Urbilder unter N r−1 als erstes Element. Die weiteren Elemente dazwischen ergeben sich als entsprechende Spalten von N, N 2 , . . . , N r−2 . Nach Satz 4.104, 2) sind alle Kettenvektoren linear unabhängig, da die letzten Vektoren gerade eine Basis von Br−1 ∩ Z bilden. Schritt k + 1: Wir nehmen an, wir haben Ketten der Längen r, r − 1, . . . , r − k + 1 konstruiert, deren letzte Vektoren eine Basis von Br−k ∩ Z sind. Wir ergänzen diese Basis zu einer Basis von Br−k−1 ∩ Z durch geeignete Linearkombinationen von Spaltenvektoren der Matrix N r−k−1 . Sie sind die Bilder unter N r−k−1 der entsprechenden Linearkombinationen von Einheitsvektoren, Hauptvektoren der Stufe r − k. Die von ihnen erzeugten Ketten der Länge r − k nehmen wir zu unseren Ketten der Länge > r − k hinzu und haben auf diese Weise Ketten der Längen r, r − 1, . . . , r − k, deren letzte Vektoren eine Basis des Raums Br−k−1 ∩ Z bilden. Nach dem Schritt k = r (Ketten der Länge 1) haben wir eine Kettenbasis des K n gefunden. Ist K nicht algebraisch abgeschlossen, aber das charakteristische Polynom zerfällt über K, können die gleichen Vorgehensweisen auch dann durchgeführt werden. Beispiel 4.123 Wir betrachten die folgende nilpotente Matrix N und rechnen für ihre Potenzen N i Basen der Bildräume Bi und der Durchschnitte Bi ∩ Z aus. Dazu benötigen wir natürlich die Information Z = span(e1 , e2 , e5 − e6 ).

556

4 Eigenwerte und Normalformen von Matrizen

i

  0 0  0 0  0 0 1   0 0  0 0  00   0 0  0 0   0 0 2   0 0  0 0  00   0 0  0 0   0 0 3   0 0  0 0  00

Ni 10 10 01 00 00 00 01 01 00 00 00 00 00 00 00 00 00 00

Basis von Bi Basis von Bi ∩ Z  0 0   1 1  0 0  e1 + e2  e + e2 , e3 , e2 + e4 1 1  1  0 0   00  0 0   0 0  1 1  e1 + e2 , e3 e1 + e2  0 0   0 0   00  1 1   1 1   0 0  e1 + e2 e1 + e2  0 0   0 0   00

Die vierte Potenz ist N 4 = 0, also r = 4. Im ersten Schritt nehmen wir die Basis {e1 + e2 } von Bild(N 3 ) ∩ Z. Wir sehen e1 + e2 = N 3 e5 . Deswegen ist e1 + e2 letzter Vektor einer Kette e5 , Ne5 = e2 + e4 , N 2 e5 = e3 , N 3 e5 = e1 + e2 der Länge 4. Für i = 2, 1 enthält Bi ∩ Z keine weiteren Hauptvektoren der Stufe 1 als den bereits benutzten Vektor e1 + e2 Anders ist es bei Bild(N 0 ) = R6 . Um Kern N = Z ganz zu erzeugen brauchen wir noch zwei Eigenvektoren, etwa e1 und e5 − e6 . Insgesamt haben wir eine Kette der Länge vier und zwei Ketten der Länge 1. Mit ihnen bekommt man als Transformationsmatrix   1 0 1 0 0 0 0 0 1 0 1 0   0 0 0 1 0 0   A =  0 0 0 0 1 0 0 1 0 0 0 1   0 −1 0 0 0 0 und die Jordan-Zerlegung für N ist

 0 0 0 0  0 0  0 0 0 0  00

000 000 010 001 000 000

 0  0 0  . 0  1  0

4.5 Die Jordansche Normalform

557

Zur Bewertung der obigen Vorgehensweisen sei nochmals betont:



- Sie beruhen auf einer exakten (oder extrem genauen) Bestimmung der Eigenwerte (als Lösung einer nichtlinearen Polynomgleichung nur in Spezialfällen exakt bestimmbar). - Es wurden mehrfach Operationen mit den vollen Matrizen gemacht, was sich in einer schlechten Komplexität der obigen Vorgehensweise bemerkbar macht. Desweiteren ist zu beachten, dass die Bestimmung der Eigenwerte einer Matrix im Gegensatz zu einer LGS ein nichtlineares Problem ist, bei dem bis auf Spezialfälle nicht ein Verfahren mit endlich vielen Rechenoperationen erwartet werden kann. Es müssen also iterative Verfahren formuliert werden, die die gewünschten Größen erst als Grenzwert liefern. Es gibt einfache solche Verfahren zur Bestimmung eines (speziellen) Eigenvektors und aufwändige allgemeine Verfahren zur Bestimmung etwa der Schurschen Normalform. In Abschnitt 8.2.4 wird auf den ersten Fall eingegangen. Das obige Zweistufen-Verfahren „erst Eigenwerte, dann Eigenvektoren“ zu bestimmen ist auch schon im diagonalisierbaren Fall problematisch, wenn nur Näherungslösungen erzielt werden: Ist e λ nur eine Näherung zu einem Eigenvektor von C ∈ Kn,n , so wird e λ im Allgemeinen kein Eigenwert sein, d. h. Kern(C − e λ1) = {0} ,

und Eigenvektoren können auch nicht näherungsweise über die Lösung des LGS (C − e λ1)x = 0

bestimmt werden. Ist a priori bekannt, dass eine spezielle Komponente bei einem Eigenvektor nicht verschwindet, etwa o. B. d. A. x1 , könnte x1 = 1 zu den Bedingungen aufgenommen werden und für das (nichtlösbare) überbestimmte LGS (C − e λ1)x = 0 x1 = 1 eine Näherungslösung über die Lösung der Normalgleichungen (siehe (2.103)) bestimmt werden. Im Allgemeinen wird solch eine Nebenbedingung nicht für alle Eigenvektoren bekannt sein. Nimmt man die immer zulässige Forderung kxk2 = 1 etwa für die euklidische Norm k.k = k.k2 , mit auf, so entsteht ein überbestimmtes, aber auch nichtlineares Gleichungssystem. Einfacher ist die Situation, wenn eine Näherung e x für einen Eigenvektor x von C vorliegt und daraus eine Näherung e λ für den Eigenwert e λ bestimmt werden soll. Der exakte Eigenwert erfüllt

558

4 Eigenwerte und Normalformen von Matrizen

λ=

hCx . xi , kxk22

(4.82)

d. h. λ ist ein so genannter Rayleigh18 -Koeffizient , denn aus Cx = λx folgt hCx . xi = hλx . xi = λ hx . xi. Die Beziehung (4.82) definiert aber auch eine sinnvolle Näherung e λ zu dem näherungsweisen Eigenvektor e x:

Ce x .e x e λ= , ke xk22 denn die im Allgemeinen nichtlösbare Beziehung für e λ bei gegebenem e x ∈ Kn e xλ = Ce x

kann als ein überbestimmtes LGS für λ ∈ R1 mit n Gleichungen aufgefasst werden, dessen Normalgleichungen gerade

e x†e xe λ =e x†Ce x bzw. ke xk22e λ = Ce x .e x sind.

Die Jordansche Normalform ist in numerischer Hinsicht zusätzlich kritisch: Die Fälle - λ1 = λ2 , - λ1 , λ2 , |λ1 − λ2 | sehr klein

für die Eigenwerte λ1 , λ2 müssen genau unterschieden werden, was im numerischen Rechnen fast unmöglich ist. Die Bestimmung der Jordanschen Normalform (insbesondere für große Dimension) kann also numerisch instabil sein oder anders ausgedrückt: Numerisch gibt es nur Eigenwerte mit algebraischer Vielfachheit gleich 1 und damit nur den diagonalisierbaren Fall. Hier muss man sich dann damit behelfen, dass man sehr dicht zusammenliegende einfache Eigenwerte als einen mehrfachen auffasst. Der Kern der Problematik liegt darin, dass zwar die Eigenwerte stetig von der Matrix abhängen (siehe Kapitel 8.1.3), nicht aber die Jordansche Normalform, wie folgendes einfache Beispiel zeigt. Sei ! 1 1 Aǫ := für ǫ > 0 , 0 1+ǫ dann hat Aǫ die verschiedenen Eigenwerte 1, 1 + ǫ und ist damit diagonalisierbar: ! 1 0 Jǫ := für ǫ > 0 . 0 1+ǫ Offensichtlich ist 18

John William Strutt 3rd Baron Rayleigh ∗12. November 1842 in Maldon †30. Juni 1919 in Witham

4.5 Die Jordansche Normalform

559

! ! 11 1 0 Aǫ → A := , Jǫ → J := , 01 0 1+ die Jordansche Normalform von A ist aber A , J. Mit den Eigenwerten „laufen“ die Eigenvektoren (1, 0)t bzw. (1, ǫ)t zusammen und für ǫ = 0 geht einer verloren. Es stellt sich die Frage, ob es nicht eine andersartige Normalform gibt, die in mancher Hinsicht brauchbarer ist. Dies ist der Fall und zwar sogar für Matrizen mit beliebiger Zeilen- und Spaltenanzahl, die Singulärwertzerlegung. (Abschnitt 4.6) Abschließend soll angedeutet werden, wie die Kenntnisse der Transformation auf Jordansche Normalform bei der Lösung von linearen Differentialgleichungssystemen mit konstanten Koeffizienten benutzt werden kann: Betrachtet werde wie in (MM.79) das System von linearen Differentialgleichungen 1. Ordnung. Gesucht ist y : [t0 , ∞) → Kn , so dass y˙ (t) = Ay(t) , y(t0 ) = y0 .

(4.83) (4.84)

Dabei ist die Koeffizientenmatrix A ∈ K(n,n) und der Anfangsvektor y0 ∈ Kn fest vorgegeben. y˙ bezeichnet die Ableitung nach t und ist komponentenweise zu verstehen, d. h. y˙ (t) = (y˙ 1 (t), . . . , y˙ n (t))t . Ist in Verallgemeinerung von Beispiel 3(7) u ∈ Kn ein Eigenvektor von A zum Eigenwert λ ∈ K, so ist u(t) := α exp(λt)u,

α∈K

(4.85)

eine Lösung von (4.83), denn u˙ (t) = λα exp(λt)u = λu(t) , die aber i. Allg. (4.84) nicht erfüllt. Man erhält durch eine Menge λ1 , . . . , λk von Eigenwerten mit zugehörigen Eigenvektoren u(1) , . . . , u(k) nach (4.85) Lösungen u(i) (t) := αi exp(λi t)ui ,

αi ∈ K .

(4.83) ist linear und homogen, d. h. jede Linearkombination von Lösungen ist eine Lösung von (4.83). Für beliebiges y0 ∈ Kn existiert genau dann eine solche Linearkombination, wenn {u1 , . . . , uk } eine Basis von Kn darstellt.

560

4 Eigenwerte und Normalformen von Matrizen

Genau im diagonalisierbaren Fall erhält man somit durch die Bestimmung der (mehrfach gezählten) Eigenwerte λi und einer Eigenvektorbasis ui dazu die allgemeine Lösung von (4.83) u(t) =

n X i=1

αi exp(λi (t − t0 ))ui

(4.86)

und αi ist so zu wählen für (4.84), dass Cα = y0 , wobei C = (u1 , . . . , un ), i = 1, . . . , n. Im nicht diagonalisierbaren Fall gibt es keine Eigenvektorbasis, aber eine Basis aus Hauptvektoren. Sei u ∈ Kn ein Hauptvektor k-ter Stufe von A zum Eigenwert λ, dann ist für Aλ := A − λ1n u(t) := α exp(λt)

k−1 X 1 m m t Aλ u, α ∈ K m! m=0

(4.87)

eine Lösung von (4.83), denn:

Au(t) = Aλ u(t) + λu(t) = α exp(λt)

und

u˙ (t) = λu(t) + α exp(λt)

k−1 X m=1

k−2 X 1 m m+1 t Aλ u(t) + λu(t) m! m=0

1 tm−1 Am λ u(t) . (m − 1)!

Damit ergibt sich (formal) für (einfach gezählte) Eigenwerte λi , i = 1, . . . , I mit algebraischer Vielfachheit ri und Hauptvektoren ui, j j = 1, . . . , ri , die eine Basis bilden, jeweils mit der Stufe si, j (≤ ri ), j = 1, . . . , ri , die allgemeine Lösung von (4.83) als u(t) :=

I X

exp(λi t)

i=1

ri X j=1

αi, j

sX i, j −1 m=0

1 m m t Aλi ui, j . m!

(4.88)

Es muss dabei sichergestellt werden, dass die durch die letzte Summe definierten Vektoren linear unabhängig sind. Das lässt sich verifizieren und auch etwas übersichtlicher wird die allgemeine Lösung, falls die Matrix A schon in Gestalt eines Jordan-Blocks der Größe n zum Eigenwert λ vorliegt. Durch einen Eigenvektor u zu λ wird dann eine (umgekehrte) Kettenbasis {u1 , . . . , un } erzeugt, d. h. Aλ ui = ui−1 ,

wobei u1 := u, u0 := 0 .

4.5 Die Jordansche Normalform

561

Dabei sind die ui Hauptvektoren der Stufe i. Nach (4.87) und (4.88) ist daher die allgemeine Lösung u(t) = exp(λt)

n X

αi

i=1

n−m i−1 n X X tm X 1 m m αi+m ui t Aλ ui = exp(λt) m! m! i=1 m=0 m=0

n i−1 n−i m X X X 1 m t αi+m = exp(λt) t ui−m αi m! m! m=0 i=1 m=0 i=1  n  n X X  1  k−i  = exp(λt) t  ui  αi (k − i)! i=1 k=i

= exp(λt)

n X

ui

(4.89)

für α1 , . . . , αn ∈ K. In (4.85), (4.88) oder (4.89) kann in der Lösungsdarstellung t durch t − t0 ersetzt werden für ein beliebiges, festes t0 ∈ R. Dann ist wie oben α durch Cα = y0 eindeutig bestimmt.

P 1 m Aus der linearen Unabhängigkeit der ui folgt auch die von { i−1 m=0 m! t vi−m : i = 1, . . . , n} (nach Aufgabe 1.23) und damit liegt eine allgemeine Lösungsdarstellung für den Spezialfall vor. Da die Summen jeweils direkt sind, summieren sich die Darstellungen für die Kettenbasen zu einem Eigenwert, und dann zu den verschiedenen Eigenvektoren (siehe Aufgabe 7.13).

Was Sie in diesem Abschnitt gelernt haben sollten: Begriffe : • • • • •

Ketten der Länge p, Kettenbasis Hauptvektor der Stufe k zum Eigenwert λ Fitting-Index des Eigenwerts λ Rayleigh-Koeffizient Jordan-Zerlegung

• • • • •

Kettenbasen bei nilpotenten Abbildungen (Theorem 4.106) Jordansche Normalform (in K bei Eigenwerten in K) (Hauptsatz 4.112) Eindeutige Existenz der Jordan-Zerlegung (Theorem 4.114) Reelle Jordansche Normalform (Theorem 4.118) Φ-invarianter Unterraum zu einem Eigenwert λ = Kern pm (Φ), wobei pm Faktor von λ in Minimalpolynom (Satz 4.111)

Zusammenhänge :

Beispiele : • Jordansche Normalform für n = 2 und n = 3 • Kettenbasisbestimmung zur nilpotenten Matrix (Seite 555)

562

4 Eigenwerte und Normalformen von Matrizen

Aufgaben Aufgabe 4.29 (T) a) Sei a ∈ Rn und sei Φ ein Endomorphismus des Rn mit Φn−1 (a) , 0 und Φn (a) = 0. Man beweise, dass die Vektoren a, Φ(a), . . . , Φn−1 (a) eine Basis des Rn bilden und gebe die Matrix von Φ bezüglich dieser Basis an. b) Sei A ∈ R(n,n) , B ∈ R(n,n) , An−1 , 0, Bn−1 , 0, An = Bn = 0. Man beweise: Die Matrizen A und B sind ähnlich zueinander. Aufgabe 4.30 (K) Man betrachte die Begleitmatrix nach (4.5). Unter Beachtung von Bemerkungen 4.27 und der Eindimensionalität der Eigenräume bestimme man die Jordansche Normalform von A unter der Annahme, dass χ(λ) in K[x] in Linearfaktoren zerfällt. Aufgabe 4.31 (K) Sei   0 0  1 0   −1 0   1 1 0 0

00 00 00 10 01

 0   0   0   0  0

darstellende Matrix eines Endomorphismus Φ : R5 → R5 bezüglich der kanonischen Basis des R5 . a) Bestimmen Sie Basen der Eigenräume zu den Eigenwerten von Φ. b) Geben Sie eine Matrix M in Jordanscher Normalform und eine Basis B des R5 an, so dass M die darstellende Matrix von Φ bezüglich B ist. Aufgabe 4.32 (K) Gegeben sei die von einem Parameter p ∈ R abhängige Matrix    0 1 p    A(p) :=  1 0 −1  .   01 0 a) Man bestimme das charakteristische Polynom von A(p). b) Man bestimme die Jordansche Normalform von A(p). c) Man bestimme das Minimalpolynom von A(p).

Aufgabe 4.33 (K) Sei das Polynom ϕ(t) = (t − 1)3 (t + 1)2 ∈ C[t] gegeben.

a) Welche Jordanschen Normalformen treten bei komplexen 5 × 5-Matrizen mit dem charakteristischen Polynom ϕ auf? b) Zeigen Sie: Zwei komplexe 5 × 5-Matrizen mit dem charakteristischen Polynom ϕ sind ähnlich, wenn ihre Minimalpolynome übereinstimmen.

Aufgaben

563

Aufgabe 4.34 (K) Sei    2 2 1    A =  −1 −1 −1  ∈ C(3,3) .   1 2 2

a) Bestimmen Sie die Eigenwerte und Eigenräume von A. b) Geben Sie die Jordansche Normalform von A an. c) Bestimmen Sie das Minimalpolynom von A.

564

4 Eigenwerte und Normalformen von Matrizen

4.6 Die Singulärwertzerlegung

4.6.1 Herleitung In den Abschnitten 4.2 bis 4.5 sind für die dort eingeführten Äquivalenzrelationen auf K(n,n) der Äquivalenz (Bemerkungen 4.8), der Ähnlichkeit (Definition 4.6) und der unitären (orthogonalen) Ähnlichkeit (Definition 4.11, 1), 3)) Normalformen untersucht worden. Diese Relationen stehen in folgender offensichtlicher Beziehung: A, A′ ∈ K(n,n) sind unitär (orthogonal) äquivalent ⇒ äquivalent ⇑ ⇑ unitär (orthogonal) ähnlich ⇒ ähnlich . Dabei ist links oben ein neuer Begriff eingeführt worden, der folgendermaßen definiert ist:

Definition 4.124 Seien A, A′ ∈ K(n,n) . A und A′ heißen unitär äquivalent, wenn es U, V ∈ O(n, K) gibt, so dass A′ = U −1 AV = U † AV gilt. Für K = R spricht man von orthogonal äquivalent. Der Unterschied in den vier Klassenbildungen besteht also darin, ob beim Übergang die Basen in Urbild- und Bildraum gleich sind bzw. ob sie orthonormal sind. Sei also A ∈ R(n,n) , r := Rang(A). Die Tabelle 4.1 stellt die bisher erreichten Normalformen für eine reelle Matrix zusammen. Ist die Situation (oben, links) zu aussagelos, ist die (oben, rechts) nicht immer befriedigend, insbesondere wenn sie numerisch instabil ist. Die Situation (unten, rechts) ist am aussagestärksten, aber auch am eingeschränktesten, so dass eventuell das noch nicht untersuchte (unten, links) einen allgemeinen aussagekräftigen Kompromiss bieten kann. Im Vorgriff ist hier schon die angesetzte (und erreichbare) Normalform notiert, d. h. : Gesucht werden mithin orthogonale bzw. unitäre U, V, so dass U −1 A V = U † A V = Σ = diag(σi )

(4.90)

gilt. Eine Normalform kann für verschiedene Zwecke nützlich sein. Eine Diagonalisierung oder auch die Jordansche Normalform erlaubt (prinzipiell) die explizite Berechnung von Lösungen von gewöhnlichen Differentialgleichungen (siehe das Ende von Abschnitt 4.5.3) bzw. damit zusammenhängend die Auswertung von Matrixpolynomen. Eine andere Frage ist die nach der Lösbarkeit des LGS

4.6 Die Singulärwertzerlegung

565

Basen ungleich

Basen beliebig

  1         

..

Basen gleich

. 1 0 ..

. 0

  σ1     Basen orthonormal     

..

   )   r       

. σr

0 ..

. 0

komplexe oder reelle Jordansche Normalform, diagonalisierbar in C ⇔ algebraische = geometrische Vielfachheit

           

komplexe oder reelle Schur-Normalform, unitär diagonalisierbar ⇐⇒ A normal orthogonal diagonalisierbar ⇐⇒ A symmetrisch

Tabelle 4.1: Mögliche Normalformen.

Ax = b für A ∈ K(n,n) , x, b ∈ Kn . Es sei hier A nichtsingulär. Hier ist die obere Zeile von Tabelle 4.1 (beliebige Basen) nicht sehr hilfreich, denn: Sei U −1 AV = D := 1 −1

U = V und U AU = J

im linken bzw.

im rechten Fall ,

wobei J aus Jordan-Blöcken oder für K = R bei komplexen Eigenwerten aus den reellen Blöcken nach Theorem 4.118 bestehe und U, V ∈ R(n,n) nichtsingulär seien. Dann folgt für y := V −1 x −1

, d. h. x = Vy : −1

Dy = U A Vy = U b

(4.91) (4.92)

im linken bzw. Jy = U −1 A Vy = U −1 b im rechten Fall.

(4.93)

566

4 Eigenwerte und Normalformen von Matrizen

Das LGS in (4.92) ist trivial zu lösen (durch yi = (U −1 b)i , i = 1, . . . , n), das in (4.93) entsprechend, wobei für K = C oder K = R mit reellen Eigenwerten maximal eine auf einen Term verkürzte Rückwärtssubstitution nötig ist. Das Problem liegt in der Bestimmung von U −1 b, was im Allgemeinen genau einem LGS des Ausgangstyps entspricht. Anders ist dies in der zweiten Zeile der Tabelle, da dort U und V orthogonal bzw. unitär sind: Im rechten Fall ist (bei Eigenwerten in K)   ∗  λ1    U −1 AU = T :=  . . .  ,   0 λn

  wobei U = u(1) , . . . , u(n) unitär bzw. orthogonal ist, d. h. U −1 = U †

und somit mit (4.91) (wobei U = V) gilt T y = U −1 b = U † b und dieses LGS ist durch Rückwärtssubstitution (wenn nicht T gar diagonal ist) mit geringem Aufwand zu lösen, bei durch Matrix-Vektormultiplikation explizit bekannter rechter Seite. Diese Vorteile bleiben auch im linken Fall erhalten, d. h. bei (4.90), dann: Σy = U −1 b = U † b , also yi =

1 † (U b)i , σi

i = 1, . . . , n

und damit x=

n X 1 † (U b)i u(i) , σ i i=1

  wobei V = u(1) , . . . , u(n) .

Eine äquivalente Schreibweise ist x=

Pn

1 i=1 σi

D

E b . u(i) u(i) .

Es stellt sich heraus, dass für eine solche Singulärwertzerlegung keine Bedingungen an A gestellt werden müssen, ja sogar beliebige Zeilen- und Spaltenanzahlen zugelassen werden können.

4.6 Die Singulärwertzerlegung

567

Definition 4.125 Seien n, m ∈ N, A ∈ K(m,n) . Gesucht sind σ1 , . . . , σk ∈ R, k = min(m, n), die Singulärwerte von A und orthogonale bzw. unitäre U ∈ K(m,m) , V ∈ K(n,n) , so dass U † AV = Σ = diag(σi ) ,

(4.94)

wobei Σ ∈ R(m,n) eine (verallgemeinerte) Diagonalmatrix ist (nach Bemerkung 1.47). (4.94) heißt eine Singulärwertzerlegung (SVD: Singular Value Decomposition) von A. Die Spalten von V heißen auch rechte singuläre Vektoren, die von U linke singuläre Vektoren. Bemerkungen 4.126 1) Eine SVD (sofern sie existiert bei A , 0) kann (unwesentlich) modifiziert werden, indem die Vorzeichen und die Anordnung der Singulärwerte verändert werden (bei veränderten U, V). Beide Modifikationen können nämlich durch Multiplikation (etwa von links) mit einer Diagonalmatrix, die für die Indizes, für die das Vorzeichen zu ändern ist, eine −1 und sonst eine 1 enthält bzw. mit einer Permutationsmatrix erzeugt werden, die daher im Produkt mit U † ein neues U † definieren.

Eine SVD kann folglich immer so gewählt werden, dass die Singulärwerte nicht negativ sind und absteigend geordnet, d. h. es existiert ein r ∈ {1, . . . , k}, so dass σ1 ≥ σ2 ≥ . . . ≥ σr > 0 = σr+1 = . . . = σk . Eine solche SVD heißt normiert. 2) Sei eine normierte SVD gegeben. Die Matrixgleichung (4.94) ist dann äquivalent mit Aui = σi ui

für i = 1, . . . , r ,

Aui = 0

für i = r + 1, . . . , n ,

daher die Bezeichnung rechte singuläre Vektoren für die ui , aber auch zu u†j A = σ j u†j

für j = 1, . . . , r,

u†j A

für j = r + 1, . . . , m ,

=0

daher die Bezeichnung linke singuläre Vektoren für die u j . Eine andere Bezeichnung für die u j , ui ist Karhunen-Loève1920 -Basis. Ist insbesondere A ∈ K(n,n) orthogonal bzw. unitär diagonalisierbar, d. h. es gilt für ein U ∈ O(n, K), dass 19 20

Kari Karhunen ∗1915†1992 Michel Loève ∗22. Januar 1907 in Jaffa †17. Februar 1979 in Berkeley

568

4 Eigenwerte und Normalformen von Matrizen

U † AU = Σ = diag(λi ) ,

(4.95)

dann ist (4.95) (für K = R) eine SVD, wobei die Eigenwerte λi die Singulärwerte und die Eigenvektoren die rechten und linken singulären Vektoren darstellen, für K = C muss aber (mittels diag(αi ), αi = λi / |λi | für λi , 0, αi := 1 für λi = 0) zu |λi | übergegangen werden. Die normierte SVD erhält man durch Vorzeichenwechsel, wenn nötig, und Anordnung der |λi |. Ist A diagonalisierbar, ohne dass die Eigenvektorbasis orthonormal ist, sind singuläre Vektoren i. Allg. keine Eigenvektoren. △ Abbildung 4.6 stellt die beinhalteten Fälle grafisch dar. Zum Nachweis der Existenz einer m > n (m, n)

(m, m)

(m, n) σ1 ..

(n, n) .

σn

= V† Σ

U

A m = n (n, n)

(n, n)

σ1 ..

= U

A

(n, n)

.

(n, n)

σn V†

Σ

(n, n)

m < n (m, n)

(m, m) σ1 ..

= A

(m, n)

U

.

σm Σ V†

Abb. 4.6: Die verschiedenen Fälle der Singulärwertzerlegung. SVD reicht es, den Fall m ≥ n zu behandeln, da der Fall m < n durch Übergang zur adjungierten Matrix in diesen übergeht: A = UΣV † ⇔ A† = VΣ † U † .

4.6 Die Singulärwertzerlegung

569

Im Folgenden sollen notwendige Bedingungen aus der Existenz einer SVD hergeleitet und in einem zweiten Schritt gezeigt werden, dass diese Bedingungen erfüllbar sind und zu einer SVD führen. Das ergibt schließlich einen Existenzbeweis (Hauptsatz 4.127). Sei also eine SVD von A ∈ K(m,n) gegeben: U†A V = Σ . Es besteht ein enger Zusammenhang zur unitären Diagonalisierung der selbstadjungierten Matrizen A A† und A† A (siehe Hauptsatz 4.58), da folgt: U † A A† U = U † A V V † A† U = ΣΣ † = diag(σ ˆ 2i ) , † † † † † † V A A V = V A U U A V = Σ Σ = diag(σ ˜ 2i ) . Dabei ist für k := min(m, n) diag(σ ˆ 2i ) ∈ R(m,m) , wobei

für i = 1, . . . , k, σˆ 2i = 0 für i = k + 1, . . . , m

σˆ 2i = σ2i

diag(σ ˜ 2i ) ∈ R(n,n) , wobei

für i = 1, . . . , k, σ˜ 2i = 0 für i = k + 1, . . . , n .

σ˜ 2i = σ2i

Deswegen etwa für m ≥ n:

 2 σ1  . .  .  σ2n  diag(σ ˆ 2i ) =  0   ..  . 

0



0 0

    ,    

 2 σ1  2 diag(σ ˜ i ) =  . . . 

0

0 σ2n

    . 

Die Matrizen U und V sind mithin notwendigerweise aus einer ONB von Eigenvektoren von A A† bzw. A† A (die existieren) zusammengesetzt und es muss gelten: Ist σi , 0, dann ist σ2i ein Eigenwert von AA† und von A† A . Diese Bedingungen sind erfüllbar, da gilt: A† Au = λu ⇒ A A† (Au) = λ(Au) , A A† u = λu ⇒ A† A(A† u) = λ(A† u) .

(4.96)

Wir erinnern an Kern A = Kern(A† A) , Kern A† = Kern(A A† ) (siehe Bemerkungen 2.57, 3)) und daher Au , 0 im ersten Fall, denn u < Kern(A† A) = Kern A und analog im zweiten Fall, demnach sind die von Null verschiedenen Eigenwerte

570

4 Eigenwerte und Normalformen von Matrizen

von A† A und A A† identisch und die Eigenvektoren gehen durch u 7→ Au bzw. u 7→ A† u ineinander über. Die Eigenwerte sind nicht nur reell nach Satz 4.39, 1), sondern auch nicht negativ: D E λ hu . ui = A† Au . u = hAu . Aui ≥ 0 ,

(4.97)

so dass für die positiven Eigenwerte λ von A† A (und AA† ), die o. B. d. A. absteigend angeordnet seien λ1 ≥ λ2 ≥ . . . ≥ λr > 0 definiert werden kann p σi := + λi

für i = 1, . . . , r .

(4.98)

Eine andere Anordnung der λi (und zugehörigen Eigenvektoren) bzw. eine andere Vorzeichenwahl als in (4.98) kann als orthogonale Permutations- bzw. Diagonalmatrix in U oder V aufgenommen werden und führt zu einer anderen Singulärwertzerlegung (siehe Bemerkung 4.126, 1)). Die spezielle normierte SVD mit σ1 ≥ σ2 ≥ . . . ≥ σr > 0 = σr+1 = . . . = σk existiert, wenn überhaupt eine existiert. Aus diesem Grund ist die Summe der Dimensionen der Eigenräume von A† A zu von 0 verschiedenen Eigenwerten r. Damit gilt wegen der Diagonalisierbarkeit von A† A: dim Kern(A† A) = n − r und deshalb wegen der Dimensionsformel (siehe Theorem 2.32) r = Rang(A† A) und auch n − r = dim Kern A und so r = Rang(A) . Sei nunmehr (falls r < n) ur+1 , . . . , un eine ONB von Kern A, d. h. des Eigenraums von A† A zum Eigenwert 0, dann gilt offensichtlich Aui = 0 ,

i = r + 1, . . . , n .

Genauso gilt wegen der Diagonalisierbarkeit von A A† : r + dim Kern(A A† ) = m und deshalb r = Rang(A A† )

4.6 Die Singulärwertzerlegung

571

(womit sich noch einmal Rang(A) = Rang(A† A) = Rang(A A† ) ergibt), also m − r = dim Kern(A† ) . Sei (falls r < m) ur+1 , . . . , um eine ONB von Kern A† , somit dem Eigenraum von A A† zum Eigenwert 0. Setzen wir genauer √ für i = 1, . . . , r, σi := + λi σi := 0 für i = r, . . . , min(m, n) für die Singulärwerte, so ist für die Gültigkeit von AV = UΣ schon Aui = 0ui = 0, i = r + 1, . . . , n erfüllt (man beachte m ≥ n) und noch Aui = σi ui ,

, i = 1, . . . , r

(4.99)

zu sichern. Dazu wählen wir u1 , . . . , ur als eine ONB von A† A zu den Eigenwerten λ1 , . . . , λr . Nach Satz 4.65, 6) wird diese mit ur+1 , . . . , un zu einer ONB von Kn ergänzt, d. h. die Matrix V = (u1 , . . . , un ) ∈ K(n,n) ist orthogonal bzw. unitär. Damit ist auch span (u1 , . . . , ur ) = (Kern A)⊥ = Bild(A† ) . Um (4.99) zu erfüllen, definieren wir ui :=

1 Aui , i = 1, . . . , r . σi

Nach (4.96) handelt es sich dabei um Eigenvektoren von AA† zu den Eigenwerten λi . Wir müssen noch die Orthonormalität dieser Vektoren zeigen: Sei 1 ≤ i, j ≤ r, dann D

E ui . u j =

E E 1 D 1 D † Aui . Au j = A Aui . u j σi σ j σi σ j 2 D E σi ui . u j = δi, j , da die u1 , . . . , ur orthonormal sind. = σi σ j

Wieder nach Satz 4.65, 6) werden diese mit ur+1 , . . . , um zu einer ONB von Km ergänzt. Damit ist U = (u1 , . . . , um ) ∈ K(m,m) also orthogonal bzw. unitär. Damit ist auch

572

4 Eigenwerte und Normalformen von Matrizen

span(u1 , . . . , ur ) = (Kern A† )⊥ = Bild A . Folglich ist bewiesen: Hauptsatz 4.127: Eindeutige Existenz der SVD Sei A ∈ K(m,n) . Dann existiert eine Singulärwertzerlegung (SVD) von A in der Form U†A V = Σ mit orthogonalen bzw. unitären U ∈ K(m,m) , V ∈ K(n,n) und einer Diagonalmatrix Σ ∈ R(m,n) mit genau r = Rang(A) positiven Diagonalelementen σi (o. B. d. A. auf den Positionen 1, . . . , r absteigend angeordnet), den (positiven) Singulärwerten und dem Singulärwert 0 auf den Diagonalpositionen r + 1, . . . , min(m, n), die normierte SVD. U und V sind erhältlich als Eigenvektor-ONB für A A† bzw. A† A zu den gemeinsamen Eigenwerten λ1 , . . . , λr > 0 und λr+1 = . . . = λm (bzw. λn ) = 0 und p σi = + λi , i = 1, . . . , r .

Andererseits ist für jede SVD die Anzahl der nichtverschwindenden Singulärwerte r = Rang(A); U = (u1 , . . . , um ) und V = (u1 , . . . , un ) sind Eigenvektor-ONB für A A† bzw. A† A. Die Singulärwerte können sich nur durch Vorzeichen oder Reihenfolge unterscheiden. Weiter gilt: {u1 , . . . , ur } {u1 , . . . , ur } {ur+1 , . . . , um } {ur+1 , . . . , un }

ist eine ONB von ist eine ONB von ist eine ONB von ist eine ONB von

Bild A, Bild A† , Kern A† , Kern A.

Die Singulärwertzerlegung kann auch in reduzierter (oder auch kompakter ) Form geschrieben werden. Sei o. B. d. A. m ≥ n, dann sei für A ∈ K(m,n) P     1  † A = U  V  0 

mit Σ1 ∈ R(n,n) die normierte SVD. Zerlegt man U = (U1 |U2 ) mit U1 ∈ K(m,n) , U2 ∈ K(m,m−n) , dann ist

4.6 Die Singulärwertzerlegung

573

A = U1 Σ1 V †

(4.100)

die reduzierte SVD. Im Fall m ≥ n, in dem Rang(A) ≤ n gilt, sind also die Spalten ui von V eine ONB von Kn und die Spalten u j , j = 1, . . . , n, von U1 eine ONB von W ⊃ Bild A (siehe (4.99)), so dass für x=

Pn

i=1

αi ui gilt:

Ax =

Pn

i=1

αi σi ui =

Pn

i=1

σi hx . ui i ui ,

d. h. die Abbildung wird in den gewählten Koordinatensystemen V und U1 diagonal. In der (nicht reduzierten) SVD wird U1 noch mit einer ONB von W ⊥ (mit W ⊥ ⊂ Bild A⊥ = Kern A† ) ergänzt. Die Darstellung des Bildes kann auch auf die σi , 0 beschränkt werden, d. h. Ax =

Pr

i=1

σi hx . ui i ui ,

da span(u1 , . . . , ur ) = Bild A. Die entsprechende Zerlegung von A in U˜ 1 = (u1 , . . . , ur ) , Σ˜ 1 = diag(σ1 , . . . , σr ), V˜ 1 = (u1 , . . . , ur ) ist eine Voll-Rang-Zerlegung nach Definition 2.82a. Im Fall einer normalen Matrix, d. h. der Diagonalisierbarkeit mit einer orthogonalen bzw. unitären Ähnlichkeitsformation, d. h. bei A = U Σ U† mit orthogonalem bzw. unitärem U = (u1 , . . . , un ) und Σ = diag(λi ) gilt A=

n X i=1

λi ui ⊗ ui

(vgl. (4.47)). In dieser Spektraldarstellung in dyadischer Form ist also A als Summe von Vielfachen von orthogonalen Projektionen auf (eindimensionale) Eigenräume geschrieben. Die entsprechende Darstellung für A ∈ K(m,n) auf der Basis der normierten SVD ist, wie schon gesehen, Ax =

r X i=1

bzw.

σi hx . ui i ui

574

4 Eigenwerte und Normalformen von Matrizen

A=

Pr

i=1

σi ui ⊗ ui .

(4.101)

Auch hier kann man im übertragenen Sinn von Spektraldarstellung in dyadischer Form sprechen, auch wenn die σi keine Spektralwerte sind. Die Interpretation ist sodann analog, wobei es sich um (für ui , ui ) nichtorthogonale Projektionen handelt (siehe (2.57)). (4.101) zeigt auch, dass nicht nur der Singulärwert σ = 0 (wie allgemein der Kern A) bei der Betrachtung von Bild A keine Rolle spielt, auch können anscheinend kleine, positive σi vernachlässigt werden. Das ist eine Basis für Datenkompression (siehe Abschnitt 8.3). Beim Handrechnen kann man folgendermaßen vorgehen, wobei o. B. d. A. m ≥ n: • Bestimmung von A† A, der Eigenwerte λ1 ≥ λ2 ≥ . . . ≥ λr > 0 = λr+1 = λn und einer Eigenvektor-ONB u1 , . . . , un dazu. Dabei müssen nur die Basen der einzelnen Eigenräume orthonormalisiert werden. √ • σi := λi , i = 1, . . . , r , σi := 0 , i = r + 1, . . . , n. ui := αi Aui für beliebiges αi > 0 und ui := e ui /ke ui k). • ui := σ1i Aui , i = 1, . . . , r (oder: e † • ur+1 , . . . , um ONB von Kern A .

Bemerkungen 4.128 Singulärwertzerlegung und Hauptachsentransformation hängen eng zusammen. Der Beweis von Hauptsatz 4.127 baut auf Hauptsatz 4.58 auf, andererseits kann Hauptsatz 4.58 auf der Basis von Hauptsatz 4.127 bewiesen werden. Sei A ∈ K(n,n) selbstadjungiert und A = VΣU † eine normierte SVD. Dann gilt auch A = A† = UΣ t V † und so A2 = UΣ t ΣU † . Also hat A2 eine ONB aus Eigenvektoren ui mit den reellen Eigenwerten σ2i . Es gilt aber auch Aui = σi ui für i = 1, . . . , n ,

denn nach Bemerkungen 4.136, 3) kann A o. B. d. A. als positiv definit angenommen werden, darum D E 0 ≤ hA(Aui − σi ui ) . Aui − σi ui i = σ2i ui − σi Aui . Aui − σi ui = −σi kAui − σi ui k2 ≤ 0 und damit folgt die Behauptung.



4.6 Die Singulärwertzerlegung

575

4.6.2 Singulärwertzerlegung und Pseudoinverse In der Konstruktion der normierten SVD einer Matrix A sind wieder die vier fundamentalen Unterräume aufgetreten: von Kn :

Kern A = span(ur+1 , . . . , un ) Bild A† = span(u1 , . . . , ur ) = (konjugierter) Zeilenraum

von Km :

Kern A† = span(ur+1 , . . . , um ) Bild A = span(u1 , . . . , ur ) = Spaltenraum .

Dadurch symbolisch: ! Spaltenraum Kern ∈ K(m,m) , U= von A von A† V=

! (konjugierter) Zeilenraum Kern ∈ K(n,n) . von A von A

Mit der Singulärwertzerlegung, deren Aufwand etwa dem der Diagonalisierung einer symmetrischen Matrix entspricht, lässt sich einfach der Lösungsraum für ein allgemeines Ausgleichsproblem (2.102) und damit die Pseudoinverse von A angeben. Für die Diagonalmatrix Σ folgt nach Bemerkungen 2.82, 6)

mit

   b 1  Σ + = diag   ∈ K(n,m) σi    b 1 1   := , i = 1, . . . , r, σi σi

   b 1   := 0, i = r + 1, . . . , min(n, m) . σi

Theorem 4.129: Pseudoinverse und SVD Sei A ∈ K(m,n) mit der Singulärwertzerlegung A = UΣV † .

(4.102)

576

4 Eigenwerte und Normalformen von Matrizen

Der Lösungsraum für das Ausgleichsproblem kAx − bk → min ist dann W b = VΣ + U † b + Kern A und Kern A = Vy′ für y′ = (0, . . . , 0, yr+1 , . . . , yn )t ∈ Kn . Damit ergibt sich die Pseudoinverse von A durch A+ = VΣ + U † . A+ ist demzufolge eine SVD, die aber i. Allg. nicht normiert ist.

Beweis: Die Darstellung der Pseudoinversen (und damit die gesamte Aussage) folgt direkt aus Bemerkungen 2.82, 5): A = UΣV † ⇒ A+ = (V † )+ (UΣ)+ = (V † )+ Σ + U + = VΣ + U † . Ein alternativer, direkter Beweis (der auch (4.102) mit einschließt) ist: Sei k . k die euklidische Norm auf Km bzw. Kn , dann folgt aus der Längenerhaltung durch orthogonale bzw. unitäre Abbildungen: kAx − bk2 = kUΣ |{z} V † x −bk2 = kΣy − U † bk2 =y

2

2 =

diag(σ1 , . . . , σr )(y1 , . . . , yr )t − (U † b)i=1,...,r

+

(U † b)i=r+1,...,m

und daher wird dieses Funktional minimiert für y ∈ Kn mit ( = (U † b)i /σi , i = 1, . . . , r . yi ∈ K beliebig , i = r + 1, . . . , n

Für x = Vy = V(y1 , . . . , yr , 0, . . . , 0)t + V(0, . . . , 0, yr+1, . . . , yn )t gilt daher x = VΣ + U † b + V(0, . . . , 0, yr+1, . . . , yn )t und damit wegen der Orthogonalität der beiden Summanden mit Pythagoras kxk2 ≥ kVΣ + U † bk2 , d. h. x = VΣ + U † b ist die Ausgleichslösung mit minimaler Norm und daher gilt A+ b = VΣ + U † b.  In dyadischer Spektralform lautet somit die Pseudoinverse A+ =

Pr

1 i=1 σi ui

⊗ ui .

Das allgemeine Bild über das Zusammenspiel der vier Fundamentalräume und von A und A+ wird demgemäß mit „Feinstruktur“ versehen (siehe Abbildung 4.7 in Anlehnung an

4.6 Die Singulärwertzerlegung

577

Strang 2003). Km

span ui , i = 1, . . . , r

Ke rn

A

Kn

ld Bi

x +

A

Ax= p := PBild(A) b

x − A+ b

b +



A

Ke rn

ld Bi

r := b − p

A†

A b=A p

span ui , i = 1, . . . , r

Abb. 4.7: Die vier fundamentalen Unterräume und die SVD. Geometrisch lässt sich eine SVD dann wie folgt interpretieren: Sei dazu S n−1 := {x ∈ Kn : kxk2 = 1} die Oberfläche der „Kugel“ mit Radius 1 und Mittelpunkt 0 in Kn . Wesentlich für eine orthogonale Abbildung U ist gerade, dass sie S n−1 invariant lässt: U(S n−1 ) ⊂ S n−1 (genauer „=“, da U nichtsingulär). Entsprechend kann man unter einem Ellipsoid in Kn die Bewegung (siehe Satz 2.12 ff.) eines Ellipsoiden mit Mittelpunkt 0 und Halbachsen αi > 0, i = 1, . . . , n, d. h. von   !2 n   X   x   i , (4.103) = 1 x ∈ Rn : Eˆ :=      αi i=1

verstehen.

578

4 Eigenwerte und Normalformen von Matrizen

Definition 4.130 Sei T (x) := Φx + a, wobei Φ ∈ Hom(Kn , Kn ) orthogonal bzw. unitär ist und a ∈ Kn , eine Bewegung in Kn . ˆ E := T [E] mit Eˆ nach (4.103) heißt Ellipsoid um den Mittelpunkt a mit Halbachsen αi . Dann gilt: Satz 4.131: Singulärwerte = Halbachsen Sei A ∈ K(n,n) , nichtsingulär mit normierter SVD A = U Σ V † , Σ = diag(σi ) . Dann ist A(S n−1 ), das Bild der Einheitskugeloberfläche, ein Ellipsoid um 0 mit Halbachsen σi , i = 1, . . . , n. Sei A ∈ K(m,n) , m, n ∈ N, r = Rang(A). Dann ist A(S n−1 ), eingebettet in Kr durch Auswahl einer ONB von Bild A aus den Spalten von U, ein Ellipsoid in Kr um 0 mit Halbachsen σi , i = 1, . . . , r (vgl. Abbildung 4.8).

1

1

b2

b2 b1

1

b1

V†

b2 1

b1

Σ

b2

b1

U

Abb. 4.8: Veranschaulichung der Singulärwertzerlegung

Beweis: Es reicht, die erste speziellere Aussage zu zeigen: Es ist V † (S n−1 ) = S n−1 und w ∈ Σ(S

n−1

!2 n X wi ) ⇔ kΣ wk = 1 ⇔ =1. σi i=1 −1



4.6 Die Singulärwertzerlegung

579

Da Satz 4.131 auch auf A−1 bzw. A+ anwendbar ist, zeigt er, dass kleine positive σi in der SVD von A bei A+ zu einem starken „Auseinanderziehen“ (mit dem Faktor σ−1 i ) von Komponenten (und der darin enthaltenen Fehler!) führt. Das lässt Schwierigkeiten beim Lösen von LGS und Ausgleichsprobleme erwarten (siehe Abschnitt 8.1). Beschränkt man sich auf die Betrachtung der Volumenänderung, so sieht man die obige Verstärkung durch |det(A)| = det(Σ) und der mögliche Orientierungswechsel für K = R ist durch das Vorzeichen von det(U) det(V) gegeben. Bemerkung 4.132 Mit einer SVD kann auch die in Bemerkungen 1.93, 4) auf K(m,n) eingeführte Norm äquivalent ausgedrückt werden: Sei A = UΣV † eine SVD, Σ = diag(σi ), dann: min(m,n)  12  X  kAkF =  σ2i  . i=1

Das kann man folgendermaßen einsehen: Nach (4.7) ist

kAk2F = sp(AA† ) = sp(UΣV † VΣ † U † ) = sp(UΣΣ † U † ) = sp(ΣΣ † )

unter Beachtung von Satz 4.30, 2) und damit die Behauptung.



Was Sie in diesem Abschnitt gelernt haben sollten: Begriffe : • (Normierte) Singulärwertzerlegung (SVD) • Spektraldarstellung in dyadischer Form

Zusammenhänge :

• Eindeutige Existenz der SVD (Hauptsatz 4.127) • SVD und Pseudoinverse (Theorem 4.129) • Bild der Einheitskugeloberfläche = Ellipsoid mit Singulärwerten als Halbachsen

580

4 Eigenwerte und Normalformen von Matrizen

Aufgaben Aufgabe 4.35 (T) Sei A ∈ K(n,n) . Zeigen Sie: Q a) | det(A)| = m i=1 σi . b) det(A) = 0 ⇒ det(A+ ) = 0.

Aufgabe 4.36 (T) Seien A ∈ R(m,n) , m ≥ n und Rang A = n mit der Singulärwertzerlegung A = UΣV t . Man leite die Beziehung der Pseudoinversen

A+ = VΣ + U t ,

mit Hilfe der Normalgleichungen her.

 −1  σ1 0 . . . . . . . . . 0  ..  .. .. Σ + =  . . .    −1 σn 0 . . . 0

Aufgabe 4.37 (K) Gegeben sei die Matrix  1 2 A =  0 1

 2  0  . 1 1

a) Bestimmen Sie eine normierte Singulärwertzerlegung A = UΣV † mit orthogonalen Matrizen U und V. b) Bestimmen Sie ausgehend von der Singulärwertzerlegung die Pseudoinverse A+ von A. Aufgabe 4.38 (K) Sei A ∈ R(n,n) mit der Singulärwertzerlegung A = UΣV t gegeben, wobei Σ = diag(σ1 , . . . , σn ). Zeigen Sie, dass die Matrix ! 0 At H= A 0 ! u die Eigenvektoren √12 i zu den 2n Eigenwerten ±σi besitzt. ±ui

4.7 Positiv definite Matrizen und quadratische Optimierung

581

4.7 Positiv definite Matrizen und quadratische Optimierung

4.7.1 Positiv definite Matrizen Die in 4.6 aufgetretenen selbstadjungierten A† A und AA† haben als wesentliche Eigenschaft, dass sie nicht nur reelle, sondern auch nicht negative Eigenwerte haben (siehe (4.97)). Grund dafür ist eine Eigenschaft, die schon bei der Gramschen Matrix aus (1.74) dafür gesorgt hat, dass die im Beweis von Bemerkungen 1.104, 1) zu minimierende Parabel g nach oben geöffnet ist (siehe nach (1.76)) und damit ein eindeutiges Minimum besitzt. Eine umfassende Definition ist (immer für K ∈ {R, C}): Definition 4.133 Sei (V, h . i) ein euklidischer/unitärer Vektorraum (endlicher Dimension). Sei Φ ∈ Hom(V, V), Φ sei selbstadjungiert, d. h. Φ = Φ† . Φ heißt positiv semidefinit, geschrieben auch Φ ≥ 0 genau dann, wenn hΦu . ui ≥ 0

für alle u ∈ V .

Φ heißt positiv definit (oder positiv ), geschrieben auch Φ > 0, wenn hΦu . ui > 0

für alle u ∈ V, u , 0 .

Φ ≥ 0 oder Φ > 0 setzt also die Selbstadjungiertheit voraus. Manchmal setzt man es trotzdem dazu und spricht z. B. von „symmetrischen, positiv definiten Matrizen“. Manchmal wird auch negativ definit verwendet für selbstadjungierte Abbildungen bzw. Matrizen, deren Negatives positiv definit ist. Liegt keiner der beiden Fälle vor, spricht man auch von indefiniten selbstadjungierten Abbildungen bzw. Matrizen. Bemerkungen 4.134 1) Die Selbstadjungiertheit von Φ allein sichert hΦu . ui ∈ R , denn:

hΦu . ui = hu . Φui = Φ† u . u = hΦu . ui .

2) Φ > 0 ist also äquivalent damit, dass durch

hu . wiΦ := hΦ u . wi , ein inneres Produkt auf V definiert wird,

u, w ∈ V

(4.104)

582

4 Eigenwerte und Normalformen von Matrizen

denn Definitheit wird gerade durch Definition 4.133 gesichert, Linearität (im ersten Argument) gilt immer, Hermite-Symmetrie ist gleichbedeutend mit der Selbstadjungiertheit von Φ.

Die von h . iΦ erzeugte Norm wird mit k . kΦ bezeichnet. Für V = Kn und das euklidische innere Produkt h . i, A ∈ K(n,n) bedeutet demnach A > 0: hAx . xi > 0

für alle x ∈ Kn , x , 0 .

Die von h . iA erzeugte Norm ist daher 1

(4.105)

kxkA = hAx . xi 2

und wird manchmal Energienorm genannt und das innere Produkt manchmal Energie-Skalarprodukt (siehe Bemerkungen 4.145,1)). 3) Für Diagonalmatrizen A = diag(λi ) ∈ R(n,n) ist hx . yiA = damit

Pn

i=1

λi xi yi (siehe (1.63)) und

A ≥ 0 ⇔ λi ≥ 0 für alle i = 1, . . . , n , A > 0 ⇔ λi > 0 für alle i = 1, . . . , n .

Die erzeugte Norm beinhaltet also eine komponentenweise Skalierung. 4) In Aufgabe 1.31 bzw. allgemein in Satz 5.3 werden die Bilinearformen bzw. hermiteschen Formen auf Rn bzw. Cn charakterisiert werden durch ϕ(x, y) = hAx . yi

für x, y ∈ Kn ,

wobei A ∈ K(n,n) . Symmetrische bzw. Hermite-symmetrische Formen sind demnach gerade durch selbstadjungierte A gegeben und Definitheit der Form entspricht gerade der Positivität von A. Also: Auf Kn sind alle möglichen inneren Produkte gegeben durch h . iA , wobei A > 0. 5) Ist allgemeiner Φ ∈ Hom(V, V), {u1 , . . . , un } eine ONB von V, A = (ai, j ) ∈ K(n,n) die zugehörige Darstellungsmatrix, d. h. Φu j =

n X k=1

dann ist für u =

Pn

i=1

xi ui , x = (xi ) ∈ Kn ,

ak, j uk ,

4.7 Positiv definite Matrizen und quadratische Optimierung

D

583

E

Φu j . uk = ak, j (Fourier-Koeffizient), n D n X X E hΦu . ui = ak, j x j xk = hAx . xi Φu j . uk x j xk = k, j=1

k, j=1

und somit > > Φ (≥) 0 ⇔ A (≥) 0.

6) 1 > 0 bzw. id > 0 und auch 0≥0 (dabei ist die linke Seite das neutrale Element in HomK (V, V) bzw. Kn,n , die rechte Seite in R). 7) > Φ, Ψ ∈ HomK (V, V), Φ, Ψ (≥) 0, dann: > Φ + Ψ (≥) 0, > α Φ (≥) 0

für α ∈ R, α > 0 ,

(aber i. Allg. nicht für α ∈ K).

8)

> Seien Φ, Ψ ∈ Hom(V, V), Φ (≥) 0, sei Ψ invertierbar, dann > Ψ † Φ Ψ (≥) 0.

D E Dazu beachte man: Ψ † ΦΨ u . u = hΦw . wi für w = Ψ u und w , 0 ⇔ u , 0.

In Matrizenschreibweise: Die Transformation

A 7→ U † A U für invertierbares U ∈ K(n,n) erhält die Positiv-(Semi-)Definitheit von A. Unitäre Ähnlichkeit erhält aufgrund dessen Positiv-(Semi-)Definitheit, nicht aber i. Allg. Ähnlichkeit. Andererseits definiert C ∼ C ′ ⇔ es existiert ein A ∈ GL(n, K), so dass C ′ = A†CA

584

4 Eigenwerte und Normalformen von Matrizen

allgemein eine Äquivalenzrelation auf K(n,n) , die in Kapitel 5 weiter untersucht wird und als Kongruenz bezeichnet wird. Eine Ähnlichkeitstransformation hingegen, selbst mit einem A > 0, erhält nicht Positivdefinitheit, da die Selbstadjungiertheit verloren geht. 9) Auf der Menge S der selbstadjungierten linearen Abbildungen bzw. Matrizen, d. h. S ⊂ HomK (V, V) bzw. S ⊂ K(n,n) , wird durch A ≤ B :⇔ B − A ≥ 0 eine Ordnungsrelation (siehe Anhang Definition A.20) definiert, da A ≤ A nach 6), A ≤ B, B ≤ C ⇒ A ≤ C nach 7) und A ≤ B, B ≤ A ⇒ A = B kann man folgendermaßen einsehen: B − A ≥ 0 und A − B ≥ 0 implizieren hAx . xi = hBx . xi für alle x ∈ Kn , also ist die jeweils erzeugte Norm identisch: kxkA = kxkB für alle x ∈ Kn .

Nach (3.23) und (3.20) gilt dies auch für die zugehörigen inneren Produkte hAx . yi = hx . yiA = hx . yi B = hBx . yi für alle x, y ∈ Kn

und damit A = B.

Auf R(n,n) (nicht auf C(n,n) ) kann auch alternativ eine Ordnungsrelation eingeführt werden durch A E B :⇔ B − A D 0 und C = (ci, j ) D 0 :⇔ ci, j ≥ 0 für alle i, j = 1, . . . , n . Auch hier spricht man etwas ungenau von positiven Matrizen. Diese werden in Abschnitt 8.5 untersucht werden. Zwar gilt für ein positiv (semi)definites A immer ai,i > 0 (≥ 0) , denn ai,i = hAei . ei i, aber Nichtdiagonalelemente können auch negativ sein. Im Allgemeinen ist nun zwischen beiden Ordnungsrelationen genau zu unterscheiden, nur für Diagonalmatrizen fallen die Begriffe zusammen. △ Im Folgenden werden direkt positiv (definit)e Matrizen A ∈ K(n,n) betrachtet. Satz 4.135: Positiv-Definitheit und Eigenwerte Sei A ∈ K(n,n) , A = A† .

> 1) A (≥) 0 ⇔ Alle Eigenwerte λ1 , . . . , λn von A sind positiv (nicht negativ).

2) Jedes positive A ist invertierbar und

A−1 > 0 .

4.7 Positiv definite Matrizen und quadratische Optimierung

585

> > 3) Sei A (≥) 0. Dann existiert eindeutig ein B ∈ K(n,n) , B (≥) 0, mit

B2 = B B = A , 1

geschrieben: B = A 2 , die Wurzel von A.

Beweis: Zu 1): Wegen A = A† hat A nur reelle Eigenwerte λ1 , . . . , λn und es gibt eine Hauptachsentransformation (nach Hauptsatz 4.58), d. h. für ein unitäres U ∈ K(n,n) , U −1 = U † gilt U −1 AU = D := diag(λi ) , somit folgt der Beweis aus Bemerkungen 4.134, 3) und 8). Zur Verdeutlichung sei die Argumentation noch einmal explizit dargestellt: D E D E hAx . xi = UDU −1 x . x = hUDy . xi = Dy . U † x = hDy . yi für y := U −1 x, d. h. x , 0 ⇔ y , 0 . „⇒“Wähle y := ei , dann λi = hAx . xi „⇐“ hAx . xi =

n X i=1

> (≥) 0.

λi y2i ≥ 0 für λi ≥ 0 bzw. > 0 für λi > 0 und y , 0 .

(4.106)

Zu 2): Sei A > 0. Die Invertierbarkeit folgt sofort aus 1) und dann auch A−1 = UD−1 U −1 mit D−1 = diag(1/λi ), 1/λi > 0, so dass A−1 > 0 auch aus 1) folgt. > Zu 3): Bei A = UDU −1 (≥) 0 setze 1

B : = U D 2 U −1 , wobei 1

1

D 2 : = diag(λi2 ) , so dass offensichtlich 1

1

B2 = UD 2 D 2 U −1 = A .

Eindeutigkeit : Sei B ≥ 0, so dass B2 = A. Dann BA = AB, da: BA = BB2 = B2 B = AB. Nach Satz 4.71 über die simultane Diagonalisierbarkeit haben demzufolge A und B eine simultane Hauptachsentransformation, d. h. es gilt auch e −1 , B = U DU

e := diag(µi ) D

586

4 Eigenwerte und Normalformen von Matrizen

e2 U −1 und somit λi = µ2 , mit den Eigenwerten µi ≥ 0 von B. Also UDU −1 = A = B2 = U D i 1

also µi = λi2 .



Bemerkungen 4.136 1) Sei A > 0. Nach (4.106) ist dazu äquivalent die Existenz einer Konstanten α > 0, so dass

hAx . xi ≥ α hx . xi

für x ∈ Kn ,

wobei das maximal mögliche α > 0 der kleinste Eigenwert von A ist. Diese Aussage kann auch ohne Rückgriff auf die Eigenwerte mit Methoden der Analysis gezeigt werden (man vergleiche Anhang C, Satz C.12).

2) Geometrisch gesehen ist für A > (≥) 0 der Winkel zwischen x und Ax für x , 0 kleiner als π/2 − δ (kleiner gleich π/2), wobei δ > 0 durch den kleinsten Eigenwert von A bestimmt wird. 3) Sei A ∈ K(n,n) selbstadjungiert. Dann gibt es ein λ > 0, so dass A + λ1 positiv definit ist (Übung). 4) Sei A ∈ K(n,n) , dann gilt in der euklidischen Norm für P := (A† A)1/2 : kAxk = kPxk für alle x ∈ Kn , d. h. in der Norm seiner Bilder entspricht A einem zugeordneten P ≥ 0.

Da A† A selbstadjungiert ist, ist nach Satz 4.135, 3) P wohldefiniert und P ≥ 0. Es gilt: D E kAxk2 = hAx . Axi = A† Ax . x D E D E = (A† A)1/2 (A† A)1/2 x . x = (A† A)1/2 x . (A† A)1/2 x .

5) Sei A ∈ K(n,n) . Dann besitzt A eine Polardarstellung , d. h. es gibt ein eindeutiges P ∈ K(n,n) , P ≥ 0 und ein orthogonales bzw. unitäres Q ∈ K(n,n) , so dass A = PQ . Stattdessen kann die Polardarstellung auch in der Form eP e A=Q

e und positiv semidefinitem P e angesetzt werden. Ist A mit orthogonalem bzw. unitärem Q invertierbar (genau dann, wenn P > 0), ist die Polardarstellung eindeutig.

Das kann man folgendermaßen einsehen:

Existenz: Mit Benutzung der SVD: Die normierte SVD

4.7 Positiv definite Matrizen und quadratische Optimierung

587

A = UΣV †

nach Hauptsatz 4.127 ergibt A = PQ mit P := UΣU † und Q := UV † .

Dabei ist Σ ≥ 0 und somit nach Bemerkungen 4.134, 8) auch P ≥ 0 und Q ist orthogonal/unitär.

eP e folgt notwendigerweise P e = Ohne Benutzung der SVD: Aus der zweiten Formulierung A = Q e so defineirt, dann kann folgende Abbildung (A† A)1/2 . Sei also P e → Bild(A), Φ1 : Bild(P)

e 7→ Ax Px

definiert werden, denn die Wohldefinition ergibt sich nach 4) aus



e = Px e ′ ⇔ 0 =

P(x e − x′ )

=

A(x − x′ )

⇔ Ax = Ax′ Px



e = kyk für y = Ax ∈ Bild(P) e ist Φ1 orthogonal/unitär. Es gilt und wegen kΦ1 yk = kAxk =

Px e = dim(Bild(A† A)) dim(Bild(P))

(wie aus der Definition der Wurzel ersichtlich) und nach Bemerkungen 2.57, 3) und Satz 2.54: e = dim(Bild(A)). dim(Bild(P))

Da Φ1 injektiv ist, ist es also nach Hauptsatz 2.31 bijektiv. Insbesondere gilt e Ax = Φ1 Px,

e ist dann dessen so dass Φ1 nun zu einem orthogonalen/unitären Φ auf Kn fortgesetzt werden muss. Q Darstellungsmatrix bezüglich der Standardbasis. Es reicht dazu, irgendeine orthogonale Abbildung Φ2 : e ⊥ → (Bild(A))⊥ anzugeben. Nach den obigen Überlegungen ist (Bild(P)) e ⊥ ) = dim(Bild(A)⊥ ) =: k, dim(Bild(P)

es reicht also jeweils eine ONB u1 , . . . , uk bzw. w1 , . . . , wk zu wählen und Φ2 zu definieren durch Φ2 ui := wi , i = 1, . . . , k (Hauptsatz 2.23). Nach Theorem 2.17, Satz 2.63 ist also Φ2 orthogonal/unitär. Ist schließlich die Existenz der Polardarstellung allgemein in der einen Form gezeigt, gilt sie auch in der anderen: Gibt es etwa für jedes A ∈ K(n,n) die Darstellung A = PQ mit P ≥ 0 und Q orthogonal/unitär, so bedeutet dies angewandt auf A† :

e. mit orthogonalem/unitärem Q

eP e A† = PQ, also A = Q† P† = Q† P =: Q

Eindeutigkeit:

Liegt eine Polarzerlegung o. B. d. A. in der Form A = QP, Q orthogonal/unitär und P ≥ 0, vor, dann ist notwendig P = (A† A)1/2 , denn A† A = P† Q† QP = P2

und A† A ≥ 0, so dass die Wurzel nach Satz 4.135, 3) eindeutig existiert. Ist zusätzlich P > 0, dann ist auch Q = AP† = A(A† A)1/2 festgelegt. Die Polardarstellung verallgemeinert die Polardarstellung einer komplexen Zahl (siehe (3.7)).

588

4 Eigenwerte und Normalformen von Matrizen

6) Sei A ∈ K(n,n) . Die Existenz einer (normierten) SVD folgt aus der Polarzerlegung.

Es sei A = QP, wobei P ≥ 0 und Q orthogonal/unitär. Sei u1 , . . . , un eine ONB aus Eigenvektoren von P (nach Hauptsatz 4.58), wobei die Eigenwerte σi ≥ 0 (nach Satz 4.135, 1)) absteigend angeordnet seien. Dann gilt also für x ∈ Kn : x= Px =

n X

i=1 n X i=1

hx . ui i ui , also hx . ui i σi ui und so

Ax = QPx =

n X i=1

hx . ui i σi Qui .

Da Q orthogonal/unitär ist, bilden auch die ui := Qui , i = 1, . . . , n eine ONB (Theorem 2.17), so dass die gewünschte Form (siehe (4.101)) erreicht ist.

△ Man betrachte für A, M ∈ K(n,n) , M > 0 das verallgemeinerte Eigenwertproblem : Gesucht sind λ ∈ K, x ∈ Kn , x , 0, so dass Ax = λMx .

(4.107)

1

In der Variablen y := M 2 x ergibt sich die Standardform e = λy Ay

e := M −1 A (bei y = x) ergibt sich der Vorteil, dass e := M − 12 AM − 12 . Gegenüber A mit A Selbstadjungiertheit und (Semi-)Positivität von A erhalten bleiben. Damit kann begründet werden: Bemerkungen 4.137 1) Ist A selbstadjungiert, so gibt es eine Basis aus Lösungen des verallgemeinerten Eigenwertproblems, die orthonormal im Skalarprodukt h· . ·iM ist, und die verallgemeinerten Eigenwerte λ sind reell. e reelle Eigenwerte und eine orthonormierte Eigenvektorbasis y1 , . . . , yn und Nach Hauptsatz 4.58 hat A 1 damit erfüllen xi := M − 2 yi das Ausgangsproblem und D E D E δi, j = yi . y j = M xi . x j .

2) Ist A zusätzlich positiv (semi-)definit, so sind die Eigenwerte im verallgemeinerten Eigenwertproblem positiv (nicht negativ).

> e(≥) Es gilt A 0, so dass die Aussage aus Satz 4.135, 1) folgt.

3) Seien M > 0, A selbstadjungiert. Dann sind die Eigenwerte von M −1 A reell und M −1 A ist diagonalisierbar mit einer bezüglich h . i M orthonormalen Eigenvektorbasis. Ist A auch positiv (semi-)definit, sind sie alle positiv (nicht negativ). Wegen M −1 Ax = λx ⇔ Ax = λM x folgt dies sofort aus 2) und 3).

4.7 Positiv definite Matrizen und quadratische Optimierung

589



Ist A nicht selbstadjungiert, macht Positivdefinitheit keinen Sinn. Jedes A ∈ K(m,n) lässt sich aber nach Aufgabe 4.15 eindeutig in einen selbstadjungierten Anteil AS und einen antisymmetrischen bzw. antihermiteschen Anteil AA zerlegen. Satz 4.135, 1) überträgt sich in folgender Form: Bemerkungen 4.138 1) Ist AS positiv definit, so gilt für die Eigenwerte λ von A: Re λ > 0. Wegen AS = 21 (A + A† ) ist dies der Spezialfall G =

1 2

· 1 der nachfolgenden Aussage.

2) Gibt es ein G > 0, so dass GA + A†G > 0 , dann gilt für alle Eigenwerte von A: Re λ > 0. Sei x ∈ Kn , x , 0, λ ∈ C, Ax = λx. Nach Voraussetzung ist D E GAx + A† Gx . x > 0

und damit (λ + λ¯ ) hGx . xi > 0 und wegen hGx . xi > 0, folglich Re λ > 0.

Es gilt auch die Umkehrung der Aussage 2) (und wird dann Satz von Ljapunov21 genannt). Solche Vorzeichenaussagen über Eigenwerte sind wesentlich zur Untersuchung des Langzeitverhaltens von Differenzen- oder Differentialsystemen (siehe Beispiel 4.41 und auch Abschnitt 8.6.2). 3) Gilt A, B > 0, A > B für A, B ∈ K(n,n) , dann auch B−1 > A−1 . Dabei ist A > B durch A − B > 0 definiert. 1

1

Es reicht, die Aussage für A = 1 zu beweisen. Für den allgemeinen Fall folgt nämlich 1 > A− 2 BA− 2 nach 1 Bemerkungen 4.134, 8) (mit Φ = A − B, Ψ = A− 2 ) und dann mit der Aussage für den Spezialfall 1

1

A 2 B−1 A 2 > 1 1

1

und daraus wieder B−1 > A− 2 A− 2 = A−1 . Sei also A = 1, für die Eigenwerte λ von B gilt damit λ < 1 und wegen B > 0, also 0 < λ < 1. Die Eigenwerte von B−1 als Kehrwerte erfüllen deswegen µ > 1 und damit sind die Eigenwerte der selbstadjungierten Matrix B−1 − 1 alle positiv, d. h. B−1 − 1 > 0.



Bemerkungen 4.139

1) In Erweiterung von Bemerkungen 4.134, 8) gilt: Seien A ∈ K(m,n) , B ∈ K(m,m) , B > 0. Dann: A† BA ≥ 0 . Ist Kern A = {0} bzw. gleichwertig Rang(A) = n (d. h. der Spaltenrang voll), dann gilt sogar 21

Alexander Michailowitsch Ljapunov ∗6. Juni 1857 in Jaroslawl †3. November 1918 in Odessa

590

4 Eigenwerte und Normalformen von Matrizen

A† BA > 0 (man vergleiche mit (4.97)). Die erzeugte Energienorm ist sodann bei B = 1 für x ∈ Kn .

kxkA† A = kAxk

2) Ist A ∈ K(n,n) eine orthogonale Projektion, d. h. A ist selbstadjungiert und idempotent (A2 = A), dann ist A ≥ 0.

Dies kann auch darüber eingesehen werden, dass A die Eigenwerte 0 und 1 hat (siehe Beispiel 4.36) oder über die Fehlerorthogonalität (siehe Hauptsatz 1.102, 1)): hAx − x . Axi = 0 ⇒ hAx . xi = hAx . Axi ≥ 0 .

△ Bei der Charakterisierung der orthogonalen Projektion (siehe Hauptsatz 1.102 und 1.102I , S. 375) trat ein LGS mit der Gramschen Matrix E D A := u j . ui ∈ K(n,n) (4.108) i, j

auf, wobei u1 , . . . , un ∈ V und (V, h . i) ein euklidischer/unitärer Raum ist. Satz 4.140: Positiv definit = Gramsche Matrix

1) Jede Gramsche Matrix (nach (4.108)) ist positiv semidefinit. Sind {u1 , . . . , un } linear unabhängig, dann ist sie auch positiv definit. 2) Sei A ∈ K(n,n) , A > 0, dann ist A für ui := ei die Gramsche Matrix bezüglich des folgenden inneren Produktes auf Kn : hx . yiA := hAx . yi für x, y ∈ Kn , des Energie-Skalarproduktes zu A.

Beweis: Zu 1): hAx . xi =

n X

i, j=1

ai, j x j xi =

n D X

i, j=1

*X + n n X E u j . ui x j xi = x ju j . x i ui

= hw . wi ≥ 0 für w :=

j=1

n X

i=1

x i ui

i=1

und w , 0 ⇔ (xi )i , 0 ⇔ x , 0, falls {u1 , . . . , un } linear unabhängig ist. (Das ist gerade der Beweis von 2c > 0 aus Bemerkungen 1.104, 1)). Zu 2):

4.7 Positiv definite Matrizen und quadratische Optimierung

D

e j . ei

E

A

D

591

E

= Ae j . ei = ai, j . 

Bemerkung 4.141 Sei A die in (1.80) bestimmte Gramsche Matrix bei der Orthogonalprojektion von V := C([a, b], R) auf U := S 1 (∆) bezüglich der L2 -Norm k . kL2 nach (1.61), S 1 (∆) = span( f0 , . . . , fn−1 ) mit den Hutfunktionen nach (1.37), dann gilt kαk2A = hα . αiA = αt Aα = k f k2L2

P t n für f := n−1 i=0 αi fi und α = (α0 , . . . , αn−1 ) ∈ R . 2 k . kL erzeugt mithin auf dem Koeffizientenraum Rn eine gewichtete Norm k . kA , wobei A gerade die Gramsche Matrix ist. Dies gilt für beliebige Grundräume V, endlichdimensionale U und von einem inneren Produkt erzeugte Normen. △ Wir kehren nochmals zur LR-Zerlegung einer Matrix zurück. Im Allgemeinen hat eine invertierbare Matrix keine LR-Zerlegung, d. h. (Zeilen-)Permutationen sind beim GaussVerfahren nötig. Der Fall A = LR wird durch das in (2.156) formulierte Kriterium charakterisiert, das in der Regel schwer zu überprüfen ist. Für A > 0 folgt es aber sofort:

Satz 4.142    a1,1 . . . a1,r    ..  ∈ K(r,r) , dann: Sei A ∈ K(n,n) , A = A† , A > 0 und sei Ar :=  ... .    ar,1 . . . ar,r 1) det(Ai ) > 0 für i = 1, . . . , n, d. h. A hat eine LR-Zerlegung.

2) A hat eine eindeutige Zerlegung der Form A = LL† mit einer (nicht normierten) unteren Dreiecksmatrix L mit positiven Diagonaleinträgen. Diese heißt Cholesky22 -Zerlegung.

Beweis: Zu 1): Aus der Hauptachsentransformation A = U D U −1 folgt für eine positive Matrix A det(A) = det(U) det(D) det(U −1 ) = det(D) =

n Y

λi > 0 .

(4.109)

i=1

22

André-Louis Cholesky ∗15. Oktober 1875 in Montguyon †31. August 1918 in Nordfrankreich

592

4 Eigenwerte und Normalformen von Matrizen

Auch ist Ai selbstadjungiert und positiv für alle i = 1, . . . , n. Um dies einzusehen, betrachte man im inneren Produkt die Vektoren y := (x1 , . . . , xr , 0, . . . , 0)t ∈ Kn . Aus (4.109) angewendet auf Ai folgt die Behauptung. Zu 2): Die LR-Zerlegung A = LR mit normiertem L lässt sich auch schreiben als e, A = LDR

(4.110)

e normiert wobei D = diag(ai ) mit den Pivotelementen ai und die obere Dreiecksmatrix R ist. Auch die Darstellung (4.110) ist eindeutig nach Aufgabe 2.21 (siehe auch Lemma 2.90). Da A = A† , folgt e† D† L† A = A† = R

e = L† und D = D† , d. h. ai ∈ R. Somit haben wir und daher wegen der Eindeutigkeit R A = L D L† .

Also ist auch D = L† AL und damit nach Bemerkung 4.134, 8) auch D positiv definit, d. h. 1

1

ai > 0, so dass die Diagonaleinträge durch ai = ai2 ai2 „gleichmäßig“ auf die obere und untere Dreiecksmatrix verteilt werden können. 1 1 Mit D 2 := diag(ai2 ) definiert 1 e L := L D 2

eine Cholesky-Zerlegung von A. Für die Eindeutigkeit betrachte man zwei Cholesky-Zerlegungen L1 L†1 = L2 L†2 , die Dia† −† −1 gonaleinträge von Li seien mit a(i) k (> 0) bezeichnet. Dann gilt auch L2 L1 = L2 L1 , wobei die rechte Matrix eine obere, die linke eine untere Dreiecksmatrix ist und die Diagonalein(2) (1) −1 −1 (1) träge (a(2) sind. Damit müssen sie gleich sein, d. h. L1 = L2 .  k ) ak bzw. ak (ak ) Die eigentliche Aussage von Satz 4.142, 2) liegt bei K = R. Für K = C können die Voraussetzungen an A abgeschwächt werden. Beispiel 4.143 Sei A ∈ K(2,2)

! ab A= ∈ K(2,2) , bc

a, c ∈ R, d. h. A sei selbstadjungiert. A > 0 ⇔ a = det(a) > 0 ,

ac − |b|2 = det(A) > 0 .

(4.111)

4.7 Positiv definite Matrizen und quadratische Optimierung

593

Bei „⇐“ beachte man für die Eigenwerte λ1 , λ2 ∈ R von A (nach Bemerkungen 4.31, 1)): λ1 λ2 = det(A) > 0 und c ≥ 0 wegen ac > |b|2 ≥ 0 und so λ1 + λ2 = sp(A) = a + c > 0, womit auch λ1 > 0, λ2 > 0 folgt.



4.7.2 Quadratische Optimierung Die Minimierungsaufgabe der orthogonalen Projektion auf den Unterraum U wird im Beweis von Hauptsatz 1.102 (in seiner „Koordinatenfassung“ nach Bemerkungen 1.104, 1)) bzw. 1.102I (S. 375) umgeformt in Minimiere

f : Kr → R (r = Dimension von U) 1 f (α) := hAα . αi − Re hα . βi 2

und damit gezeigt, dass diese Minimierungsaufgabe äquivalent ist mit Aα = β . Inspektion des Beweises zeigt, dass hierbei nur die Positivsemidefinitheit der Gramschen Matrix A eingegangen ist. Also: Satz 4.144: LGS = quadratische Minimierung Sei A ∈ K(n,n) , A = A† , A ≥ 0, b ∈ Kn . Dann sind äquivalent: (i) x ∈ Kn löst das LGS Ax = b.

(ii) x ∈ Kn löst das Minimierungsproblem Minimiere f : Kn → R, wobei 1 f (x) := hAx . xi − Re hx . bi . 2

(4.112)

Ist A > 0, dann sind beide Probleme eindeutig lösbar.

Beweis: Siehe Bemerkungen 1.104, 1) und den Beweis von Hauptsatz 1.102 und Hauptsatz 1.102I (S. 375) für die Erweiterung auf K = C.  Bemerkungen 4.145 1) Im Allgemeinen ist ein (Natur-)Vorgang stationär (zeitunabhängig), weil sich ein (Energie-)Minimum eingestellt hat. Satz 4.144 zeigt, dass ein LGS mit positiv defini-

594

4 Eigenwerte und Normalformen von Matrizen

ter Matrix zu erwarten ist. Bei einem (schwingenden) mechanischen System entspricht (4.112) der Minimierung der potentiellen Energie, das LGS heißt dann Prinzip der virtuellen Arbeit. *2) Im Beweis von Hauptsatz 1.102 (K = R) nach Bemerkungen 1.104, 1) wird die mehrdimensionale Analysis vermieden. Mit der dortigen Notation könnte aber auch folgendermaßen argumentiert werden: g : R → R minimal in t = 0



 Ab α − β . γ = b = g′ (0) = 0 .

Dabei ist (bei K = C) (x . y) := Re hx . yi das zugeordnete SKP und Kn wird als R-Vektorraum aufgefasst (siehe S. 371). Wegen d  f (b α + tγ) t=0 = Ab α − β.γ , dt

also speziell für γ = e j (und γ = −ie j für K = C), gilt für die partiellen Ableitungen von f : ∂f (b α) = (Ab α − β) j = 0, ∂α j

j = 1, . . . , r

und somit für den Gradienten von f ∇ f (b α) = Ab α−β =0.

Dabei gingen keine Bedingungen an A ∈ K(n,n) ein. Übertragen auch auf Satz 4.144 bedeutet das: a) f (nach (4.112)) ist differenzierbar und ∇ f (x) = A x − b

für alle x ∈ Kn ,

d. h. das Residuum im LGS. b) Es sind äquivalent: (i) Ax = b, (ii) ∇ f (x) = 0,

(iii) f ist minimal in x. Dabei gilt „ f ist minimal in x ⇒ ∇ f (x) = 0“ allgemein, die Rückrichtung folgt aus der speziellen („quadratischen“ mit A ≥ 0) Form von f .

3) Sei A > 0. Das LGS Ax = b kann also auch über das Minimierungsproblem (4.112) gelöst werden (durch Abstiegsverfahren wie das Gradientenverfahren (siehe Abschnitt 8.2.3) oder besser das Verfahren der konjugierten Gradienten (CG-Verfahren (Algorithmus 6)).

4) Die Ausgleichsrechnung bezüglich k . k = k . k2 fügt sich wie folgt ein: Sei A ∈ K(m,n) , b ∈ Kn , dann ist A† A ≥ 0 nach Bemerkungen 4.139, 1), sodann sind äquivalent:

4.7 Positiv definite Matrizen und quadratische Optimierung

595

(i) x ∈ Kn löst das LGS A† Ax = A† b (Normalgleichungen), D E D E (ii) Minimiere f (x) = 12 A† Ax . x − Re x . A† b = 12 kAx − bk2 − 12 kbk2 .

5) Betrachten wir ein Ausgleichsproblem bezüglich einer allgemeinen, von einem inneren Produkt auf Kn erzeugten Norm, d. h. nach Bemerkungen 4.134, 4) bezüglich k . kC für ein C ∈ K(m,m) , C > 0: Minimiere kAx − bkC2 auf x ∈ Kn für ein A ∈ K(m,n) , b ∈ Km .

(4.113)

Dann gilt 1

1

kAx − bkC2 = kC 2 Ax − C 2 bk2 , 1

(4.114)

1

wobei C 2 ∈ K(m,m) , C 2 > 0, die Wurzel von C ist nach Satz 4.135, 3). e = C 21 A und e b := Mit (4.113) liegt also ein Ausgleichsproblem bezüglich k . k2 vor für A 1 C 2 b. Es gilt somit: a) (4.113) hat eine Lösung x¯ ∈ Kn mit eindeutigem A x¯ , d. h. insbesondere eindeutigem Residuum kA x¯ − bkC . b) Die Lösung ist eindeutig, wenn A vollen Spaltenrang hat. c) Die Lösung ist charakterisiert durch das LGS A†CAx = A†Cb ,

(4.115)

die Normalgleichungen . 6) Andererseits lässt sich auch jedes quadratische Optimierungsproblem nach (4.112) für A > 0 als Ausgleichsproblem auffassen: 1 Bezeichnet A 2 die Wurzel von A, dann ist 1

1

1

1

Ax = b ⇔ A 2 A 2 x = A 2 A− 2 b und damit nach 4) und (4.115): Das Minimierungsproblem (4.112) ist äquivalent mit dem Ausgleichsproblem 1

1

kA 2 x − A− 2 bk2 = kAx − bk2A−1 → min . *7) Man betrachte in Verallgemeinerung von Definition 2.76 eine allgemeine Pseudoinverse zu den Normen k . kC bzw. k . kE , wobei E ∈ K(n,n) , E > 0, C ∈ K(m,m) , C > 0. D. h. sei A ∈ K(m,n) , b ∈ Km :

596

4 Eigenwerte und Normalformen von Matrizen

Unter den Lösungen des Ausgleichsproblems Minimiere kAx − bkC2 auf x ∈ Kn wähle die Normminimale x bezüglich k . kE und setze + x := AC,E b,

dann ist x wohldefiniert und 1

1

1

1

+ AC,E = E − 2 (C 2 AE − 2 )+C 2 .

1

(4.116) 1

Unter Beachtung von (4.114) und analog kxkE = kE 2 xk wird für y := E 2 x die bezüglich der euklidischen Norm normminimale Lösung von 1

1

1

Minimiere kC 2 AE − 2 y − C 2 bk2 gesucht, also 1

1

1

y = (C 2 AE − 2 )+ C 2 b 1

1

und damit (4.116). Hat A vollen Spaltenrang, folglich auch C 2 AE − 2 , so reduziert sich (4.116) auf + AC,E = (A† CA)−1 A†C

(unabhängig von E ), d. h. auf (4.115).

△ Im Folgenden sollen quadratische Optimierungsprobleme, d. h. Minimierungsprobleme der Form (4.112) und Erweiterungen daraus weiter verfolgt werden. Es sei im Folgenden A als positiv vorausgesetzt, so dass (4.112) eindeutig lösbar ist. In Hauptsatz 1.102 (Hauptsatz 1.102I, S. 375) entstand (4.112) als äquivalente Formulierung zu einer orthogonalen Projektion. Andererseits lässt sich jede quadratische Minimierung als orthogonale Projektion auffassen in der vom Energieskalarprodukt zu A erzeugten Norm k . kA . Satz 4.146 Sei A ∈ K(n,n) , A = A† , A > 0, b ∈ Kn . Sei x := A−1 b, dann gilt: f (x) =

1

1 1 b. x . hAx . xi − Re hx . bi = kx − xk2A − 2 2 2

4.7 Positiv definite Matrizen und quadratische Optimierung

597

Beweis:

1 1

1

 kx − xk2A = Ax − b . x − x = hAx . xi − hb . xi − x . Ax + b . x 2 2 2 1

1 b. x , = hAx . xi − Re hx . bi + 2 2

siehe auch Bemerkungen 4.145, 6).



Bemerkungen 4.147 1) Da der konstante Anteil 1

1 1

− b . x = − hb . biA−1 = − x . x A 2 2 2

!

keinen Einfluss auf die Minimalstelle von f hat, ist also, wie aus Satz 4.144 bekannt, x Minimalstelle von f auf Kn . Andererseits ergibt sich aus Satz 4.146 für A > 0 ein neuer Beweis von Satz 4.144, unabhängig von Kapitel 1. 2) Näherungen für die Lösung des LGS Ax = b können somit dadurch bestimmt werden, dass statt (4.112) gelöst wird: Minimiere f (x)

für alle

x∈W

(4.117)

für einen affinen Unterraum W von Kn . Da (4.117) nach Satz 4.146 die orthogonale Projektion von x auf W bezüglich k . kA darstellt, existiert die Minimalstelle nach Hauptsatz 1.102 eindeutig. Das Verfahren der konjugierten Gradienten benutzt für U eine aufsteigende Folge von Krylov-Unterräumen: Siehe Numerische Mathematik bzw. Optimierung und auch Algorithmus 6, S. 878. △ Im Folgenden sollen solche quadratischen Optimierungsprobleme nach (4.117) behandelt werden, wobei nach Korollar 1.55 und 1.83 W äquivalent durch ein Gleichungssystem repräsentiert wird, aufgrund dessen: 1 hAx . xi − Re hx . bi 2 unter der Nebenbedingung

Minimiere

f (x) =

(4.118)

B† x = d . Dabei ist B ∈ K(n,m) , d ∈ Km und typischerweise m < n. Man spricht bei (4.118) auch von einem quadratischen Minimierungsproblem mit linearen Gleichungsnebenbedingungen. Auch hier ergibt sich eine äquivalente Formulierung mit Hilfe eines LGS:

598

4 Eigenwerte und Normalformen von Matrizen

Satz 4.148: Optimalitätsbedingung Sei A ∈ K(n,n) , A = A† , A > 0, b ∈ Kn , B ∈ K(n,m) , d ∈ Km . Das LGS B† x = d sei lösbar. Sei x ∈ Kn . Dann sind äquivalent: (i) x ∈ Kn löst (4.118).

(ii) Es gibt ein y ∈ Km , einen Lagrange-Multiplikator, so dass gilt: Ax + By = b , B† x = d .

(4.119)

Die Lösungen x bzw. (x, y) existieren, x ist immer eindeutig, y ist eindeutig, wenn B vollen Spaltenrang hat.

Beweis: Sei U := Kern B† , sei x˜ ∈ Kn eine spezielle Lösung von B† x = d, dann ist die Einschränkungsmenge in (4.118) der affine Unterraum W := x˜ + U , so dass nach Satz 4.146 das Minimierungspoblem (4.118) äquivalent lautet: Minimiere f˜(x) = kx − xˆ kA für x ∈ W .

(4.120)

Dabei ist xˆ := A−1 b. Nach Hauptsatz 1.102I, 1) (S. 375) und Bemerkungen 1.106, 2) ist die eindeutig existierende Minimalstelle x von (4.120) bzw. (4.118) charakterisiert durch

x − xˆ . u A = 0 für u ∈ U

⇔ Ax − b . u = 0 für u ∈ U ⇔ Ax − b ∈ U ⊥ = (Kern B† )⊥ = Bild B ⇔ Es existiert y ∈ Km mit Ax − b = B(−y) . Das Urbild y ist eindeutig, genau dann, wenn B injektiv ist, d. h. vollen Spaltenrang hat.  Bemerkungen 4.149 1) Der Beweis von Satz 4.148 zeigt: Wird die Einschränkung nicht implizit wie in (4.119), sondern explizit durch x ∈ x˜ + U , wobei U ⊂ Kn ein linearer Unterraum ist, aufgenommen, dann gilt die Äquivalenz: (i) x¯ ∈ Kn löst (4.118).

(ii) Ax − b . y = 0 für alle y ∈ U, x ∈ x˜ + U.

4.7 Positiv definite Matrizen und quadratische Optimierung

599

2) Sei A ∈ K(n,n) , A = A† beliebig. Nach Hauptsatz 4.58 gibt es A-invariante Unterräume Ui , i = 1, 2, 3, wobei U1 eine ONB aus Eigenvektoren zu positiven Eigenwerten, U2 eine ONB aus Eigenvektoren zu negativen Eigenwerten hat, U3 = Kern A und die Ui sind paarweise orthogonal zueinander. Sei f (x) := 21 hAx . xi − Re hx . bi. Dann gilt für x = P3 i=1 xi , xi ∈ U i : a) Ax = b ⇒

i) f1 (x1 ) := f (x1 + x2 + x3 ) hat ein Minimum in x1 .

ii) f2 (x2 ) := f (x1 + x2 + x3 ) hat ein Maximum in x2 . b) Ist U3 = {0}, dann folgt die Rückrichtung in a). Man spricht daher von x = (x1 , x2 ) als einem Sattelpunkt. Das kann man folgendermaßen einsehen: Ax1 − b = −A(x2 + x3 ) ∈ U1⊥

und auch Ax1 − e b := Ax1 − (b − Ax2 − Ax3 ) = 0 ,

(4.121)

daher minimiert x1 f auf U1 nach 1) und damit auch f1 , denn es gilt für einen Unterraum U und a ∈ Kn f (a + u) =

1 hAu . ui − Re hu . (b − Aa)i + c 2

und c = 12 hAa . ai−Re ha . bi. Für die Anwendung von 1) muss A > 0 gelten, was aber durch Modifikation der Eigenwerte auf U2 , U3 erreicht werden kann, ohne Ax1 = e b zu verändern. Analog zeigt man ii) unter Beachtung, dass Φ2 := − A|U2 positiv definit ist, d. h. a) gilt. Bei b) folgt also nach 1) unter Beachtung der Gleichung nach (4.121) Ax1 − (b − Ax2 ) ∈ U1⊥ ,

Ax2 − (b − Ax1 ) ∈ U2⊥ ,

also Ax − b ∈ U1⊥ ∩ U2⊥ = {0}.

3) Die hinreichende Bedingung für die eindeutige Lösbarkeit von (4.119) aus Satz 4.148 kann verschärft werden zu: a) A ist positiv definit auf Kern B† , b) Rang(B) = m. Das kann man wie folgt einsehen: Sei L :=

! A B ∈ R(m+n,m+n) . B† 0

„(a),(b) ⇒ ! L ist invertierbar“: D E x = 0, d. h. Ax + By = 0, B† x = 0 und so insbesondere hAx . xi + y . B† x = 0 und x ∈ Kern B† . Sei L y Daraus folgt x = 0 nach a) und nach b) auch y = 0.



600

4 Eigenwerte und Normalformen von Matrizen

!

x ist gestaffelt. Im Allgemeinen ist zwar y nicht eliminierbar, wohl y aber x, so dass ein (nicht eindeutig lösbares) LGS nur für den Lagrange-Multiplikator entsteht.

Das LGS (4.119) in

Satz 4.150: Dualitätssatz Unter den Voraussetzungen von Satz 4.148 sind die dortigen Aussagen auch äquivalent mit: (iii) y ∈ Km ist Lösung von B† A−1 By = −d + B† A−1 b

(4.122)

und x ∈ Kn ist dann die eindeutige Lösung von Ax = b − By . (iv) y ∈ Kn ist Lösung des Maximierungsproblems Maximiere f ∗ (y) := −

E D E 1 D † −1 B A By . y + Re y . B† A−1 b − d 2 E 1D b . A−1 b . − 2

(4.123)

x ∈ Kn ist dann die eindeutige Lösung von

Ax = b − By .

(4.124)

(4.123) heißt auch das zu (4.118) duale Problem.

Beweis: (ii)⇔(iii): Dies folgt sofort durch Auflösung der ersten Gleichung von (4.119) nach x und Einsetzen in die Zweite bzw. bei der Rückrichtung durch Elimination von By in der ersten Gleichung von (4.122). (iii)⇔(iv): Da B† A−1 B ≥ 0, kann nach Satz 4.144 die erste Gleichung von E(4.122) äquiD valent als Minimierungsproblem mit dem Funktional − f ∗ (y) − 12 b . A−1 b geschrieben werden, was mit dem Maximierungsproblem (4.123) äquivalent ist.  Man beachte, dass das duale Problem keine Nebenbedingungen mehr beinhaltet. Die etwas unhandliche Gestalt von f ∗ lässt sich unter Benutzung der primalen Variable x nach (4.124) umschreiben. Dazu sei

4.7 Positiv definite Matrizen und quadratische Optimierung

L : Kn × Km → K definiert durch D E 1 (x, y) 7→ hAx . xi − Re hx . bi + Re y . B† x − d , 2

601

(4.125)

das Lagrange-Funktional.

L entsteht demnach aus f , indem die Gleichungsnebenbedingung mit (dem Multiplikator) y „angekoppelt“ wird. Sind sodann x, y so, dass B† x = d, dann gilt offensichtlich L(x, y) = f (x) . Etwas mehr elementarer Umformungen bedarf es, das Folgende einzusehen: Sind x, y so, dass Ax + By = b, dann gilt L(x, y) = f ∗ (y) .

(4.126)

Da x ∈ Kn , y ∈ Km , die (i) bis (iv) aus Satz 4.148 bzw. Satz 4.150 erfüllen, beide Bedingungen realisieren, gilt also n o min f (x) : x ∈ Kn , B† x = d = f (x)

= L(x, y) = f ∗ (y) = max { f ∗ (y) : y ∈ Km } .

(4.127)

Darüber hinaus gilt: Satz 4.151: Sattelpunkt des Lagrange-Funktionals Unter den Voraussetzungen von Satz 4.148 gilt für die dort und in Satz 4.150 charakterisierten x ∈ Kn , y ∈ Km : max min L(x, y) = L(x, y) = minn maxm L(x, y) .

y∈Km x∈Kn

x∈K y∈K

Beweis: Sei für beliebiges, festes y ∈ Km e f (x) = L(x, y) .

f ein eindeutiges Minimum xˆ = xˆ y und dieses ist charakterisiert Nach Satz 4.144 hat e durch A xˆ = b − By ,

daher nach (4.126)

602

4 Eigenwerte und Normalformen von Matrizen

min L(x, y) = L( xˆ , y) = f ∗ (y)

x∈Kn

und so

max min L(x, y) = f ∗ (y) .

y∈Km x∈Kn

Andererseits ist für festes x ∈ Kn    ∞  maxm L(x, y) =   1  y∈K hAx . xi − Re hx . bi 2

, falls B† x , d , falls B† x = d

und somit

min max L(x, y) = F(x) .

x∈Kn y∈Km

Mit (4.127) folgt die Behauptung.



Mathematische Modellierung 5 Die erzielten Ergebnisse lassen sich direkt auf Beispiel 2 (elektrisches Netzwerk) und Beispiel 3 (Massenkette) anwenden und ergeben äquivalente Formulierungen, die eine direkte physikalisch-technische Interpretation haben (siehe auch Eck, Garcke und Knabner 2011, S. 62 f.). In beiden Fällen entsteht ein LGS vom Typ (4.119) (man beachte, dass die Bezeichnungen x und y bzw. −x und y getauscht sind). Beispiel 2 führt mit (MM.51) auf (4.119), mit d = 0, das somit äquivalent ist zu (4.118), d. h. Minimiere unter

1 hAy . yi − hy . bi 2 t By=0.

(MM.83)

Dabei sind y die Ströme (in den Kanten des Netzwerks). Es wird demzufolge die Dissipation elektrischer Energie bei angelegter Spannung unter der Nebenbedingung der Ladungserhaltung minimiert. Analog führt Beispiel 3 mit (MM.40) auf (4.119) mit b = 0 und d = f , was also äquivalent ist zu Minimiere unter

1 hAy . yi 2 t By= f .

(MM.84)

Hier wird die gespeicherte Energie minimiert unter der Nebenbedingung der vorgegebenen Knotenkräfte. Die knotenbezogenen Variablen x der Potentiale bzw. der Verschiebungen spielen die Rolle von Lagrange-Multiplikatoren in diesen variationellen Formulierungen (MM.83) bzw. (MM.84). Die primale Form mit eliminiertem Lagrange-Multiplikator (4.122) ist schon in (MM.68) bzw. (MM.41) aufgetreten, d. h. Bt A−1 Bx = Bt A−1 b bzw. Bt A−1 Bx = f , wobei jeweils C = A−1 eine Diagonalmatrix mit positiven Diagonalelementen ist. Dabei ist der erste Fall nach (4.115) äquivalent zu Minimiere kBx − bkC . Für den zweiten gilt eine analoge Interpretation nur für f = Bt Cef für ein ef ∈ Rn . In beiden Fällen gilt die allgemeine Äquivalenz zum dualen Problem (4.123) für die Lagrange-Multiplikatoren.

4.7 Positiv definite Matrizen und quadratische Optimierung

603

Wichtig ist, auf den prinzipiellen physikalischen Unterschied zwischen den beiden, in ihren mathematischen Strukturen sehr ähnlichen Beispielen hinzuweisen: Beispiel 2 ist ein stationäres Problem für einen dynamischen, d. h. zeitabhängigen Prozess: Es wird ständig Ladung bewegt, der entstehende Stromfluss ist aber zeitlich konstant. Dazu muss ständig die Energie dissipiert werden, die von außen zugeführt wird. Beispiel 3 beschreibt einen statischen Prozess. Gesucht wird ein Minimum einer Energie, im Lösungszustand findet keine Bewegung statt. ^

4.7.3 Extremalcharakterisierung von Eigenwerten Auch Eigenwerte bei normalen Matrizen (und Singulärwerte allgemein) können als Extrema quadratischer Funktionale charakterisiert werden. Sei A ∈ K(n,n) selbstadjungiert, so dass A nach Hauptsatz 4.58 eine ONB aus Eigenvektoren besitzt: A = UDU † , wobei D = diag(λi ) ∈ R(n,n) , U = (u(1) , . . . , u(n) ) orthogonal bzw. unitär, und u(i) Eigenvektor zu λi ist. Wir betrachten wie schon in Abschnitt 4.5 die Rayleigh-Quotienten (4.82) f (x) := hAx . xi /kxk22 und untersuchen dazu das Maximierungsproblem Maximiere f (x) für x ∈ U, x , 0 ,

(4.128)

wobei U ein linearer Unterraum von Kn ist. Nach Bemerkungen 4.134, 1) ist (4.128) wohldefiniert. Es gilt max f (x) = max hAx . xi , x∈U kxk22 =1

x∈U x,0

(4.129)

da f (x) = Ae x .e x für e x := x/kxk2 , so dass bei (4.128) tatsächlich ein quadratisches Funktional (für eine i. Allg. nicht positiv definite Matrix −A) minimiert wird, aber unter der nichtlinearen (quadratischen) Nebenbedingung kxk22 = 1 . O. B. d. A. seien die Eigenwerte absteigend geordnet: λ1 ≥ λ2 . . . ≥ λn .

(4.130)

Es ergibt sich unmittelbar, dass max f (x) = λ1 ,

x∈Kn , x,0

d. h. der größte Eigenwert maximiert die Rayleigh-Quotienten. Es ist nämlich:

(4.131)

604

für y := U † x, also

4 Eigenwerte und Normalformen von Matrizen D

E hAx . xi = UDU † x . x = hDy . yi

hAx . xi =

n X i=1

λi |yi |2 ≤ λ1 kyk22

und wegen kxk2 = kyk2 damit x ∈ Kn .

für alle

f (x) ≤ λ1

Für x = u(1) wird andererseits der Wert λ1 angenommen.

In Verallgemeinerung gilt: Satz 4.152: Minmax-Theorem Sei (V, h . i) ein n-dimensionaler, euklidischer bzw. unitärer Raum, Φ ∈ HomK (V, V) selbstadjungiert und die Eigenwerte seien nach (4.130) absteigend angeordnet. Dann gilt λj =

min

U Unterraum von V, dim U=n− j+1

max u∈U u,0

f (u) ,

wobei f (u) := hΦu . ui /kuk2 und k . k die von h . i erzeugte Norm bezeichnet.

Beweis: Für j = 1 entspricht dies (4.131), da dann nur der Unterraum U = V mit dim U = n existiert. Wir zeigen vorerst nur eine abgeschwächte Version, bei der max durch sup ersetzt wird (siehe Anhang Definiton A.24). Allgemein sei j ∈ {1, . . . , n}, U ein Unterraum mit dim U = n − j + 1. Wir zeigen: Es gibt ein u ∈ U, u , 0, so dass f (u) ≥ λ j und damit sup f (u) ≥ λ j u∈U u,0

und daraus folgt

(4.132)

4.7 Positiv definite Matrizen und quadratische Optimierung

sup

inf

605

f (u) ≥ λ j .

U u∈U dim U=n− j+1 u,0

u1 , . . . , un sei eine ONB von V, so dass ui Eigenvektor zu λi ist. Sei Un := {0}, Ui := span(ui+1 , . . . , un ) für i = 1, . . . , n − 1 , dann gilt wegen dim Ui = n − i und damit dim Ui⊥ = i U ⊥j ∩ U , {0} , denn sonst hätte die direkte Summe U ⊥j + U die Dimension j + (n − j + 1) > n. Sei nunmehr u ∈ U ∩ U ⊥j , u , 0 und damit in der Eigenvektorbasisdarstellung n X

u=

k=1

αk uk mit αk = hu . uk i = 0 für k = j + 1, . . . , n .

Mit (1.89) erhält man f (u) = hΦu . ui /kuk2 =

j X k=1

λk α2k /k(αk )k k22 ≥ λ j .

e := span(u j , . . . , un ), dann ist dim U e = n − j + 1 und für u ∈ U, ˜ u,0 Sei andererseits U gilt: u=

n X

αk uk , f (u) =

k= j

n X k= j

λk α2k /k(αk )k22 ≤ λ j

und damit zusammen mit (4.132) max f (u) = λ j e u∈U u,0

und so die Behauptung.



Bemerkungen 4.153 1) Tatsächlich gilt wegen (4.129) sup f (u) = max f (u) , u∈U u,0

u∈U u,0

d. h. das Supremum wird immer angenommen. Der Beweis kann erst mit den Kenntnissen aus Kapitel 7 erbracht werden. 2) Betrachtet man V = Kn , aber mit hx . yi := hMx . yi mit einem M ∈ K(n,n) , M > 0, dann charakterisiert Satz 4.152 die Eigenwerte des verallgemeinerten Eigenwertproblems (4.107).

606

4 Eigenwerte und Normalformen von Matrizen

3) Analog gilt min f (u) = λn , u∈V

min f (u) v∈span(ui+1 ,...,un )⊥

= λi für i = n − 1, . . . , 1

und die Minima werden an den Eigenvektoren ui der ONB angenommen. Diese Minimierungsprobleme können auch genutzt werden, die Existenz von reellen Eigenwerten und einer zugehörigen ONB aus Eigenvektoren zu zeigen, was aber Methoden aus Kapitel 7 braucht. In dieser Sichtweise sind die λi Lagrange-Multiplikatoren zur Inkorporation der Nebenbedingung kxk22 = 1 nach (4.129).

4) Sei A ∈ K(m,n) für m, n ∈ N, sei A = VΣU † eine normierte SVD, dann gilt σj =

min

max kAxk2 /kxk2 .

Unterraum von Kn x∈U dim U=n− j+1 x,0

Das kann man folgendermaßen einsehen: Die Überlegungen zu Hauptsatz 4.127 zeigen insbesondere, dass σ2j genau die Eigenwerte der hermiteschen Matrix A† A sind. Anwendung von Satz 4.152 (für das euklidische SKP) und D E f (x) = A† Ax . x / hx . xi = kAxk22 /kxk22

mit abschließendem Wurzelziehen ergibt die Behauptung.

5) Analog zu 4) gilt die modifizierte Form von 3) für Singulärwerte. Dies gibt die Möglichkeit eines Beweises von Hauptsatz 4.127 mit Mitteln der Analysis. △

Was Sie in diesem Abschnitt gelernt haben sollten: Begriffe : • • • • •

Positiv (semi)definite Abbildungen und Matrizen: A ≥ 0, A > 0 Energieskalarprodukt, -norm Duales Problem Lagrange-Funktional Cholesky-Zerlegung

Zusammenhänge : • A > 0 ⇔ alle Eigenwerte positiv (Satz 4.135) • A positiv semidefinit ⇔ A Gramsche Matrix (Satz 4.140) • A ≥ 0 : Ax = b ⇔ x löst quadratisches Minimierungsproblem 1 hAx . xi − Re hx . bi → min 2

Aufgaben

607

(Satz 4.144) • Quadratische Minimierung = Projektion in Energienorm (Satz 4.146) • Quadratische Minimierung bei Gleichungsnebenbedingungen = LGS mit Lagrange-Multiplikator (Satz 4.148) • Minimax-Theorem (Satz 4.152) • A > 0 ⇔ Hauptminoren positiv (Satz 4.142, Aufgabe 4.43)

Aufgaben Aufgabe 4.39 Sei A ∈ K(n,n) selbstadjungiert. Zeigen Sie unter Verwendung von (4.131): Es gibt ein λ ∈ R, so dass A + λ1 positiv definit ist. Aufgabe 4.40 Sei A ∈ K(n,n) selbstadjungiert, A > 0 und orthogonal bzw. unitär. Zeigen Sie, dass dann notwendigerweise A = 1 gilt. Aufgabe 4.41 Unter den Voraussetzungen von Satz 4.152 gilt λj =

max

U Unterraum von V, dim U= j

min f (u) . u∈U u,0

Aufgabe 4.42 Formulieren und beweisen Sie Minimums- und Maximums-Minimumsprobleme zur Beschreibung von Singulärwerten analog zu Bemerkungen 4.153, 3) und Aufgabe 4.41. Aufgabe 4.43 (T) Für A ∈ K(n,n) gelte A = A† und det(Ar ) > 0 für alle 1 ≤ r ≤ n, wobei die Hauptminoren Ar von A wie in Satz 4.142 definiert sind. Zeigen Sie, dass A positiv definit ist, mit vollständiger Induktion und unter Verwendung der Cholesky-Zerlegung. Aufgabe 4.44 (T) Für b ∈ Rm definiere man xb als Lösung des Problems Axb = b und kxb k minimal, wobei A ∈ R(m,n) , m < n, Rang(A) = m. Bestimmen Sie mit Hilfe von LagrangeMultiplikatoren eine explizite Darstellung für die Pseudoinverse A+ von A, für die A+ b = xb für alle b ∈ Rm gilt.

608

4 Eigenwerte und Normalformen von Matrizen

Aufgabe 4.45 (K) Für das Funktional f : R3 → R,

f (x1 , x2 , x3 ) =

5 2 1 2 1 2 x + x + x − x1 x3 − x1 + x2 − 2x3 2 1 2 2 2 3

werde das (primale) Minimierungsproblem Minimiere f (x1 , x2 , x3 ) unter der Nebenbedingung x1 + x2 + x3 = 1 betrachtet. a) Zeigen Sie, dass dieses Problem eine eindeutige Minimalstelle x¯ = ( x¯1 , x¯2 , x¯3 ) besitzt. b) Ermitteln Sie die Minimalstelle x¯ unter Verwendung von Lagrange-Multiplikatoren und bestimmen Sie den Minimalwert. c) Formulieren Sie das zugehörige duale Problem und zeigen Sie, dass dieses denselben Extremalwert besitzt wie das primale Problem. Aufgabe 4.46 Beweisen Sie den allgemeinen Fall für Aufgabe 1.12.

4.8 Ausblick: Das Ausgleichsproblem und die QR-Zerlegung

609

4.8 Ausblick: Das Ausgleichsproblem und die QR-Zerlegung Betrachten wir nochmal das Schmidtsche Orthonormalisierungsverfahren für linear un(n) abhängige a(1) ∈ Kn nach Theorem 1.112, d. h. für ein invertierbares A =   ,..., a (1) (n) (n,n) a ,..., a ∈ K . Das Verfahren erzeugt eine ONB q(1) , . . . , q(n) ∈ Kn und zwar so, dass q( j) =

j X i=1

r˜i, j a(i)

und e ri,i , 0 für i = 1, . . . , n ,

    da span q(1) , . . . , q( j) = span a(1) , . . . , a( j) für alle j = 1, . . . , n. Somit gilt für   Q := q(1) , . . . , q(n) ∈ K(n,n)     r˜ ( j) := r˜i, j ∈ Kn , R˜ = ˜r(1) , . . . , ˜r(n) ∈ K(n,n) : i

q( j) = A˜r( j) , also Q = AR˜ , R˜ ist eine invertierbare obere Dreiecksmatrix, Q ist unitär. Damit hat man mit R := R˜ −1 , das auch eine obere Dreiecksmatrix ist:

A = QR .

(4.133)

Eine solche Darstellung (4.133) mit unitärem Q und oberer Dreiecksmatrix R heißt QR-Zerlegung von A. Es ist dann notwendig für R = (ri, j )   ri, j = a( j) . q(i) für i, j = 1, . . . , n , i ≤ j

wie man auch direkt aus dem Schmidtschen Orthonormalisierungsverfahren sehen kann. Die QR-Zerlegung existiert mithin immer und ist mindestens so wichtig wie die nur eingeschränkt existierende LR-Zerlegung. Die Berechnung über die Schmidtsche Orthonormalisierung ist aber i. Allg. nicht empfehlenswert, da diese zu sehr rundungsfehleranfällig (numerisch instabil) ist. Bessere Alternativen sind Verfahren, die analog zum Gauss– Verfahren sukzessive die Spalten von A unter der Diagonalen bereinigen, dies aber mit orthogonalen Transformationen. In Frage kommen dafür Spiegelungen (Householder– Transformationen) oder Drehungen (Givens–Rotation, vgl. (2.23)) (siehe Numerische Mathematik ). Dafür muss weder die Invertierbarkeit von A noch die quadratische Gestalt vorausgesetzt werden. Auf diese Weise kann auch für eine allgemeine Matrix A ∈ K(m,n) eine QR-Zerlegung in folgendem Sinn gefunden werden:

610

4 Eigenwerte und Normalformen von Matrizen

A = QR , dabei ist Q ∈ K(m,m) orthogonal und R ∈ K(m,n) obere Dreiecksmatrix.   Im Fall m ≥ n haben wir für die QR-Zerlegung A = QR ein Q = q(1) , . . . , q(m) ! R′ , wobei R′ ∈ K(n,n) eine obere Dreicksmatrix ist, so dass auch die und R = 0 reduzierte Form gilt: A = Q′ R ′ ,   wobei Q′ = q(1) , . . . , q(n) ∈ K(m,n) die Gleichung Q† Q = 1

erfüllt. (I. Allg. ist aber nicht Q Q† = 1, dies folgt nur für n = m) Die Spalten von Q sind also orthonormal. Es gilt weiterhin (siehe Bemerkungen 2.57, 2)): kQxk = kxk für x ∈ Kn . Ist andererseits A = QR eine reduzierte QR-Zerlegung, dann kann Q mit m − n Elementen aus Km zu einer ONB von Km ergänzt werden:

und R mit Nullzeilen zu

e ∈ K(m,m) Q := (Q, Q) R :=

! R ∈ K(m,n) , 0

so dass A = QR . Für den Fall, dass A vollen Spaltenrang hat, handelt es sich um eine Voll-Rang-Zerlegung nach Definition 2.82a. In diesem Fall kann man sich von der Existenz einer QR-Zerlegung mit dem Schmidtschen Orthonormalisierungsverfahren wie oben oder auch folgendermaßen überzeugen: Man betrachte die Anwendung des Gauss-Verfahrens auf die Normalgleichungen A† A x = A† b , in einer Variante, die eine Cholesky-Zerlegung (Satz 4.142) erzeugt, d. h. A† A = L L† mit unterer Dreiecksmatrix L. Sei

(4.134)

4.8 Ausblick: Das Ausgleichsproblem und die QR-Zerlegung

R := L† ,

611

Q := AL−† ,

dann ist offensichtlich A = QR .

(4.135)

Es gilt: R ∈ K(n,n) ist obere Dreiecksmatrix. Q ∈ K(m,n) erfüllt Q† Q = 1, da Q† Q = L−1 A† A L−† = L−1 L L† L−† = 1 . Liegt eine QR-Zerlegung eines invertierbaren A ∈ K(n,n) vor, so kann das LGS Ax = b folgendermaßen gelöst werden: Ax = b ⇔ QRx = b ⇔ Rx = Q† b. Dabei ist notwendig R invertierbar wegen R = Q† A, so dass das letzte LGS eindeutig mittels Rückwärtssubstitution gelöst werden kann. Seien A ∈ K(m,n) , m ≥ n, Rang(A) = n, b ∈ Kn und wir betrachten das (eindeutig lösbare) Ausgleichsproblem: Minimiere kAx − bk , wobei k . k die euklidische Norm bezeichnet.

Die allgemeinste Lösung wird durch die Singulärwertzerlegung A = UΣ V † gegeben, da dann x = VΣ + U † b .

(4.136)

Diese ist aber am Aufwändigsten zu berechnen. Die Normalgleichungen (4.134) sind scheinbar am Attraktivsten, da A† A positiv definit ist. In Abschnitt 8.1.2 werden wir aber sehen, dass die Fehlersensitivität von (4.134) gegenüber (4.136) verdoppelt ist, so dass andere Verfahren vom Aufwand einer LR-Zerlegung wünschenswert sind. Sei nun A ∈ K(m,n) beliebig mit einer QR-Zerlegung A = QR. Für das Ausgleichsproblem zu A und b ∈ Kn folgt: kAx − bk2 = kQRx − bk2 = kRx − Q† bk2 . Vorerst sei m ≥ n. Sei Q† b =

!

y′ mit y′ ∈ Kn , y′′ ∈ Km−n . R hat die Gestalt y′′ ! R′ , R= 0

(4.137)

612

4 Eigenwerte und Normalformen von Matrizen

wobei R′ ∈ K(n,n) eine obere Dreiecksmatrix ist. Also kann die Gleichungskette in (4.137) fortgesetzt werden mit = kR′ x − y′ k2 + ky′′ k2 , was also für x ∈ Kn zu minimieren ist. Die Gesamtheit der Lösungen sind also gerade die Lösungen des LGS R ′ x = y′

(4.138)

Dies entspricht (mit i. Allg. verschiedener Matrix R !) der Teilaufgabe 2b) bei der LRZerlegung (S. 274). Ein unvermeidbarer Fehler ergibt ky′′ k. Das LGS ist (exakt) lösbar genau dann, wenn y′′ = 0. Das Ausgleichsproblem ist ein′ deutig lösbar genau dann, wenn ! R invertierbar ist. ′ x Ist n > m, so sei x = ′′ mit x′ ∈ Km , x′′ ∈ Kn−m , y′ := Q† b und es ist x R = (R′ , R′′ ) , wobei R′ ∈ K(m,m) eine obere Dreiecksmatrix ist. Also: kAx − bk2 = kR′ x′ + R′′ x′′ − Q† bk2

 und damit ist die Gesamtheit der Lösungen x = x′t , x′′t t , wobei die x′ die Lösungen von (4.138) sind für y′ = Q† b − R′′ x′′ , für beliebiges x′′ ∈ K n−m . Das LGS ist also (exakt) lösbar, wenn R′ invertierbar mehrdeutig. Der affine Lön ist. Die  Lösungen sind aber immer o x′ ′ ′ t ′′ ′′ sungsraum ist also M := x = x′′ : R x = Q b − R x Für das Bild der Pseudoinversen A+ b muss daraus das normminimale Element ausgewählt werden. Diese Vorgehensweise ist sehr ähnlich zum Vorliegen einer SVD A = UΣV † , wobei sich Q und U entsprechen. Da anstelle von ΣV † aber die obere Dreiecksmatrix R vorliegt, ist noch das LGS (4.138) zu lösen und im nichteindeutigen Fall ist die normminimale Lösung, d. h. A+ b nicht so direkt zu bestimmen wie bei Vorliegen einer SVD. Andererseits ist die Berechnung einer SVD wesentlich aufwändiger als die einer QR-Zerlegung. Alternativ kann man von der Form (4.135) einer QR-Zerlegung ausgehen und setzen: P := QQ† ∈ K(m,m) . P ist dann eine orthogonaleD Projektion (siehe Satz 2.64). E P (i) (i) Genauer ist Px = m x . q q für die Spalten q(1) , . . . , q(m) von Q, so dass P auf i=1 Bild Q projiziert. Da Bild A ⊂ Bild Q gilt, folgt nach Pythagoras: kAx − bk2 = kAx − Pb − (1 − P)bk2 = kAx − Pbk2 + k(1 − P)bk2 und

kAx − Pbk2 = kQ Rx − Q Q† bk2 = kRx − Q† bk2 ,

so dass wieder (4.138) für die Lösung des Ausgleichsproblems gilt.

Kapitel 5

Bilinearformen und Quadriken

5.1 α-Bilinearformen

5.1.1 Der Vektorraum der α-Bilinearformen Es sei V ein Vektorraum über dem Körper K. In Abschnitt 3.5 definierten wir, dass eine Linearform auf V eine lineare Abbildung f :V→K ist und mit f ∈ V ∗ bezeichnet wird. In diesem Kapitel sollen (α-)Bilinearformen und darauf aufbauend, als klassisches Teilgebiet der Geometrie, Quadriken untersucht werden. Bilinearformen sind schon als Skalarprodukte auf R-Vektorraum aufgetreten. Um auch innere Produkte auf C-Vektorräumen zu erfassen, wird die Bedingung der Bilinearität erweitert zu: Definition 5.1 Sei V ein K-Vektorraum, α ein Automorphismus auf K. Eine α-Bilinearform auf V ist eine Abbildung ϕ:V ×V → K ,

(u, w) 7→ ϕ(u, w)

von zwei Argumenten u, w ∈ V, die im ersten Argument linear, im zweiten Argument α-linear ist. Das heißt, für alle c, c′ ∈ K und u, u′ , w, w′ ∈ V gelten die Rechenregeln ϕ(c · u + c′ · u′ , w) = c · ϕ(u, w) + c′ · ϕ(u′ , w) ′





(Linearität im 1. Argument) , ′

ϕ(u, c · w + c · w ) = α(c) · ϕ(u, w) + α(c ) · ϕ(u, w ) (α-Linearität im 2. Argument) . Für α = id (Identität) heißt ϕ Bilinearform.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_5

613

614

5 Bilinearformen und Quadriken

Manchmal wird für α , id auch der Begriff Sesquilinearform verwendet. Skalarprodukte auf R-Vektorräumen (nach Definition 1.89) sind demnach Bilinearformen, innere Produkte auf C-Vektorräumen (nach Definition 3.19) sind α-Bilinearformen mit α(c) = c für c ∈ C. Ohne Beweis bemerken wir, dass α = id der einzige Automorphismus auf R ist, und auf C nur die Automorphismen α = id und α(c) = c die Eigenschaft α|R = id haben. Die inneren Produkte haben als weitere Eigenschaften: • (Hermite-) Symmetrie (siehe (3.17)), • Definitheit (3.18).

Der Wegfall dieser Eigenschaften gibt mehr Flexibilität wie die folgenden Beispiele zeigen. Im Folgenden wird zur mnemotechnischen Erleichterung wieder die Schreibweise aus Abschnitt 4.1 verwendet. Das heißt, die Indizes der Koordinaten der Vektoren werden hochgestellt. Bemerkungen 5.2 Sei V ein K-Vektorraum und α : K → K ein Automorphismus auf K. 1) Es gilt: ϕ(0, u) = ϕ(u, 0) = 0 für alle u ∈ V. 2)

Jede quadratische n × n-Matrix G = (gk,l )k,l ∈ K (n,n) definiert auf V = K n die α-Bilinearform ϕ(u, w) = ut Gt α(w) =

n X

k,l=1

vk · gl,k · α(wl ) .

(5.1)

 Dabei ist α(w) := α(wi ) i für w = (wi )i ∈ K n . Bei einem inneren Produkt auf V = Kn und α(c) = c muss G hermitesch und positiv definit sein (siehe Bemerkungen 4.134, 2)). Für G = 1 und K = R (α = id), erhält man somit das reelle euklidische SKP, für K = C und α(c) = c das komplexe euklidische innere Produkt, für K = C und α = id eine Bilinearform, die aber nicht definit ist, da zum Beispiel bei n = 2 ϕ(a, a) = 0 für

a = (1, i)t .

3) Es sei α = id. Die Matrix Gt erzeugt ebenfalls eine Bilinearform, welche mit ϕt bezeichnet wird. Für diese gilt ϕ(u, w) = ϕt (w, u)

für alle u, w ∈ K n

und folgende Äquivalenz: ϕ = ϕt ⇔ G ist symmetrisch. 4)∗ Es sei V = C([a, b], K) und

k : [a, b] × [a, b] → K eine stetige Funktion von zwei Variablen. Dann ist das Doppelintegral mit Integralkern k

5.1 α-Bilinearformen

615

ϕ(v, w) =

Z

a

bZ

b

v(x)k(x, y)w(y)dxdy

a

eine α-Bilinearform auf V. a) ϕ ist (hermite-)symmetrisch, falls k(x, y) = k(y, x) für x, y ∈ [a, b].

b) Die Definitheit lässt sich nicht so einfach charakterisieren. Ist etwa k(x, y) = 1, dann folgt Z

ϕ(v, v) =

b

v(x)dx

a

!2

,

d. h. ϕ ist nicht definit. Nur bei der eingeschränkten („diagonalen“) Bilinearform ϕ(v, w) :=

Z

b

v(x)k(x)w(x)dx

a

5)

mit k ∈ C([a, b], K) ist für Definitheit folgendes Kriterium hinreichend: k(x) > 0 für x ∈ [a, b] (bzw. äquivalent: k(x) ≥ k > 0 für x ∈ [a, b] und ein k ∈ R+ ).

Auf dem Vektorraum V = K (r,s) der r × s–Matrizen wird durch ϕ(A, B) = sp(At α(B)) =

s X r X

al,k α(bl,k )

k=1 l=1

eine α-Bilinearform definiert. Dabei sind A = (al,k )l,k , B = (bl,k )l,k und α(B) := (α(bl,k ))l,k ∈ V. Für α = id ist die Bilinearform symmetrisch, und für K = K und α(c) = c ist ϕ das aus (3.22) bekannte innere Produkt. 6) Sind f, g ∈ V ∗ Linearformen auf einem Vektorraum V, so heißt ( V ×V → K f ⊗g: (u, w) 7→ f (u)α(g(w)) das Tensorprodukt der Linearformen f und g und ist eine α-Bilinearform. Ein Tensorprodukt zweier Linearformen heißt auch zerfallende α-Bilinearform auf V. f ⊗ g ist symmetrisch für α = id und f = g, aber nur definit, falls zusätzlich Kern f = {0}, was i. Allg. falsch ist. 7) Der Körperautomorphismus α erfüllt für A ∈ K (n,n) α(At ) = α(A)t

und α(det(A)) = det(α(A))

616

5 Bilinearformen und Quadriken

nach der Leibnizschen Formel (Definition 2.105). Für A ∈ K (m,n) , B ∈ K (n,p) gilt nach Definition der Multiplikation α(AB) = α(A)α(B) und daher für invertierbares A α(A−1 ) = α(A)−1 . Denn es ist α(A)α(A−1 ) = α(AA−1 ) = α(1) = 1.



Satz 5.3: Vektorraum der Bilinearformen Sei V ein Vektorraum über dem Körper K, α ein Automorphismus auf K, ϕ, ψ seien α-Bilinearformen. Sei (ϕ + ψ)(u, w) := ϕ(u, w) + ψ(u, w) (c · ϕ)(u, w) := c · ϕ(u, w)

für u, w ∈ V ,

für c ∈ K und u, w ∈ V .

1) Die α-Bilinearformen auf einem K-Vektorraum V bilden mit + und · wieder einen K-Vektorraum. Sei V zusätzlich endlichdimensional. 2) Ist u1 , . . . , un ∈ V eine Basis von V, so entspricht jede α-Bilinearform ϕ auf V durch Übergang zu den Koordinatenvektoren einer α-Bilinearform auf K n von der Gestalt (5.1) für die Matrix G := (gk,l )k,l ∈ K (n,n)

mit gk,l = ϕ(ul , uk ) .

(5.2)

3) Zu jeder Wahl einer n × n-Matrix G = (gk,l )k,l ∈ K (n,n) gibt es bei fixierter Basis {u1 , . . . , un } ∈ V genau eine α-Bilinearform ϕ auf V mit ϕ(ul , uk ) = gk,l .

4) Sei ϕ eine α-Bilinearform auf V, G ∈ K (n,n) , definiert nach (5.2), dann wird durch die Beziehung    n   α(y1 )  n X k X     ϕ  x uk , yl ul  = (x1 , . . . , xn )Gt  ...    k=1 l=1 α(yn )

ein K-Vektorraum-Isomorphismus

{Raum der α-Bilinearformen auf V} → K (n,n) ϕ 7→ G

(5.3)

5.1 α-Bilinearformen

617

definiert. 5) Ist dim V = n, dann gilt dim{Raum der α-Bilinearform auf V} = dim K (n,n) = n2 .

Beweis: Zu 1): Klar. Zu 2): Sind x=

n X

x k uk ,

y=

k=1

n X

y k uk

k=1

die Darstellungen zweier Vektoren x, y ∈ V in der Basis so ist  n  n n X n X k X  X l ϕ(x, y) = ϕ  x uk , y ul  = xk ϕ(uk , ul )α(yl ) . k=1

l=1

(5.4)

k=1 l=1

Zu 3): Bei gegebener Matrix (gk,l ) wird die Bilinearform ϕ definiert durch bilineare Ausdehnung von der Form (5.1):  n  n n X X k X  l ϕ  x uk , y ul  := xk gl,k α(yl ) . k=1

l=1

k,l=1

Man beachte dabei α(1) = 1, so dass ϕ(uk , ul ) = 1gl,k α(1) = gl,k . Zu 4): Die Wohldefinition der Abbildung ist klar, die Surjektivität ist Inhalt von 3), die Injektivität ist aus (5.4) ersichtlich. Um die Linearität der Abbildung zu zeigen, kann auch die Linearität der Umkehrabbildung gezeigt werden. Diese folgt sofort aus den Eigenschaften der Matrixmultiplikation.  Zu 5): Dies folgt direkt aus 4) mit Theorem 2.28. Definition 5.4 Die Matrix G = G(B) aus Satz 5.3 heißt Gramsche Matrix oder auch darstellende Matrix oder Darstellungsmatrix zur Basis B der α-Bilinearform ϕ. D(B) := det(G) heißt die Diskriminante von ϕ bezüglich B. Bemerkungen 5.5 1) Das etwas unhandliche Auftreten von Gt statt G in (5.3) ist dem Bemühen geschuldet in Übereinstimmung mit der Definition der Gramschen Matrix von Definition 1.99 zu bleiben. Man beachte, dass für ein A ∈ K(n,n) und das euklidische innere Produkt h . i auf Kn gilt hAx . yi = (Ax)t y = xt At y

für

x, y ∈ Kn .

618

5 Bilinearformen und Quadriken

2) Sei V endlichdimensional. Seien f, g Linearformen auf V, bezüglich einer Basis u1 , . . . , un ∈ V, gegeben durch Zeilenvektoren (a1 , . . . , an ) und (b1 , . . . , bn ), d. h. also f :

n X ν=1

ν

x uν 7→

n X

ν

aν x ,

g:

ν=1

n X ν=1

ν

x uν 7→

n X

b ν xν .

ν=1

Nach Definition ist   n    n  n   n    n n X  X   X X  X   X    ν µ ν µ µ ν       x uµ  · α g  y uν  =  aµ x  · α  bν y  x uµ , y uν  = f  ( f ⊗ g)  µ=1

ν=1

µ=1

ν=1

=

n X

µ,ν=1

µ=1

ν=1

xµ · aµ α(bν ) · α(yν ) .

Die darstellende Matrix für f ⊗ g ist dementsprechend: G = (aµ α(bν ))ν,µ . In Erweiterung der Definition für K = R mit α = id (Definition 2.40) und für K = C mit α(c) = c (3.26) setzen wir somit für die Spalten a = (ai ), b = (bi ) ∈ K n a ⊗ b := aα(b)t = (aµ α(bν ))µ,ν . Damit ist die darstellende Matrix für eine zerfallende α-Bilinearform (a ⊗ b)t . Wegen Rang(a ⊗ b) ∈ {0, 1} (vergleiche (2.49)) ist zudem klar, dass eine solche α-Bilinearform i. Allg. nicht definit ist für K = K. 3) Zu einem inneren Produkt hx . yi auf einem unitären Vektorraum gehört in einer ONB als darstellende Matrix die Einheitsmatrix. △ Sei dim V = n. Genau wie jeder lineare Homomorphismus Φ : V → V von V besitzt folglich auch jede α-Bilinearform ϕ : V × V → K nach Satz 5.3 eine quadratische n × nMatrix als darstellende Matrix. Fundamental anders ist aber das Transformationsverhalten der darstellenden Matrizen beim Basiswechsel: Eine neue Basis w1 , . . . , wn kann mittels der Übergangsmatrix  1  a1 . . . a1n   . ..  A =  .. .   n  a1 . . . ann

P durch wµ = nν=1 aνµ uν in der alten Basis u1 , . . . , un entwickelt werden. Wir bezeichnen mit G = (gk,l )k,l = (ϕ(ul , uk ))k,l die alte darstellende Matrix. Die neue darstellende Matrix G′ = (g′µ,ν )µ,ν = (ϕ(wν , wµ ))µ,ν berechnet sich wie folgt:

5.1 α-Bilinearformen

  g′µ,ν

µ,ν

619

  = ϕ(wν , wµ )

µ,ν

  n n X    X l k  = ϕ aν ul , aµ uk  l=1

 n n  X X l  k =  aν α(aµ ) · ϕ(ul , uk ) l=1 k=1

Das heißt, es gilt

k=1

µ,ν

  G′ = g′µ,ν

µ,ν

µ,ν

 n n  X X  k l =  α(aµ )gk,l aν  k=1 l=1

  = α(A)tGA

µ,ν

. µ,ν

,

wobei α(A) := (α(akµ ))k,µ . Damit wurde bewiesen: Theorem 5.6: Transformation Bilinearform

Sei V ein n-dimensionaler K-Vektorraum über einem Körper K. Seien B1 und B2 Basen von V mit der Übergangsmatrix A ∈ K (n,n) . Sei ϕ eine α-Bilinearform auf V mit Darstellungsmatrix Gi bezüglich Bi , i = 1, 2. Dann gilt G2 = α(A)t G1 A .

Definition 5.7 Sei V ein n-dimensionaler K-Vektorraum, α ein Automorphismus auf K. Seien C, C ′ ∈ K (n,n) . C heißt (α-)kongruent zu C ′ , wenn ein A ∈ GL(n, K) existiert, so dass α(A)tCA = C ′ .

Bemerkungen 5.8 1) α-Kongruenz ist eine Äquivalenzrelation. Das kann man mit Bemerkungen 5.2, 7) wie folgt einsehen: a) Reflexivität ist klar. b) Symmetrie: α(A)t CA = C ′ ⇔ α(At )−1 C ′ A−1 = C ⇔ α(A−1 )t C ′ A−1 = C .

c) Transitivität: C ′ = α(A)t CA, C ′′ = α(A′ )t C ′ A′ ⇒ C ′′ = α(A′ )t α(A)t CAA′ = α(AA′ )t CAA′ .

2) Für K = K und α(c) = c ist dies die mit Positivdefinitheit verträgliche Transformation aus Bemerkungen 4.134, 8). 3) Wir haben folgendes Transformationsverhalten:

620

5 Bilinearformen und Quadriken

α-Bilinearformen α(A)tGA zweifach kovariant, Endomorphismen A−1GA kontravariant und kovariant.

(5.5)

Insbesondere gilt bei einer Transformation von B zu B′ unter Beachtung von Bemerkungen 5.2, 7): D(B′ ) = α(det(A))D(B) det(A)

(5.6)

und damit D(B) , 0 ⇔ D(B′ ) , 0 . Ist darum D(B) , 0 für eine Basis B, dann gilt dies auch für jede andere Basis.

4) Für K = K, α(c) = c und orthogonales bzw. unitäres A fällt (α-)Kongruenz mit orthogonaler (unitärer) Ähnlichkeit (Definition 4.11) zusammen. Für allgemeines A sind die Begriffe jedoch nicht vergleichbar. △ Bis auf weiteres betrachten wir nun den Fall α = id, d. h. Bilinearformen. Auch Bilinearformen kann man als lineare Abbildungen auffassen, aber – entsprechend dem unterschiedlichen Transformationsverhalten – nicht als Abbildungen V → V, sondern als Abbildungen V → V ∗ : Satz 5.9: Bilinearformen  Hom(V, V ∗ ) Sei V ein Vektorraum über einem Körper K. Es gibt einen kanonischen VektorraumIsomorphismus n o Φ : Raum der Bilinearformen auf V → HomK (V, V ∗ ) ϕ 7→ F : u 7→ ϕ(·, u) . Hierbei soll ϕ(·, u) ∈ V ∗ die Linearform w 7→ ϕ(w, u) bedeuten, also die Bilinearform ϕ aufgefasst als Funktion des ersten Arguments w bei festgehaltenem zweiten Argument u. Insbesondere gilt ϕ(w, u) = F(u)w für alle u, w ∈ V .

(5.7)

Beweis: F : V → V ∗ ist linear, d. h. Φ ist wohldefiniert und Φ ist auch linear, da Φ(ϕ + ψ) = F

mit

F(u) = (ϕ + ψ)(·, u) = ϕ(·, u) + ψ(·, u) = Φ(ϕ)u + Φ(ψ)u

gilt und damit Φ(ϕ + ψ) = Φ(ϕ) + Φ(ψ). Analoges gilt für das skalare Vielfache. Die Umkehrung der Zuordnung ϕ 7→ F ist nach (5.7) notwendigerweise

5.1 α-Bilinearformen

621

HomK (V, V ∗ ) ∋ F 7→ ϕ,

ϕ(w, u) = (F(u))(w) . |{z} ∈V ∗

Das so definierte ϕ ist eine Bilinearform auf V wegen der Linearität von F bzw. von F(u). Damit ist die Umkehrabbildung wohldefiniert, d. h. die Abbildung vom Raum der Bilinearformen in den Vektorraum HomK (V, V ∗ ) ist bijektiv.  Ist dim V = n, dann bedeutet dieser abstrakte Isomorphismus einfach Folgendes: Nach Wahl einer Basis des endlichdimensionalen Vektorraums V wird die Bilinearform ϕ durch eine Matrix G beschrieben. Die zugehörige lineare Abbildung F : V → V ∗ ordnet jedem Vektor u ∈ V mit dem Koordinatenvektor x = ( x1 , . . . , xn )t ∈ K n die Linearform zu, welche als Zeilenvektor (Gt x)t = xt G geschrieben wird, ϕ(·, u) : w 7→ yt Gx . Dabei ist y ∈ K n der Koordinatenvektor von w.

Mathematische Modellierung 6 Die dargestellten abstrakten Konzepte erlangen insbesondere bei unendlichdimensionalen Vektorräumen V ihre Bedeutung. Betrachtet man als einfaches Modell für räumlich eindimensional beschriebene Wärmeleitung in einem isolierten Medium („Wand“) [a, b] ⊂ R die Randwertaufgabe −(k(x)u′ (x))′ = r(x) , x ∈ [a, b] , ′



u (a) = u (b) = 0 ,

(MM.85) (MM.86)

d. h. es ist die Temperatur u : [a, b] → R gesucht bei vorgegebenen r ∈ C([a, b], R) und der positiven Wärmeleitfähigkeit k : [a, b] → R+ . Für k = 1 und andere Randbedingungen ist das Problem in (1.82) aufgetreten. Ist die „Wand“ [a, b] aus zwei Materialien aufgebaut, etwa k(x) = k1 , x ∈ [a, c], k(x) = k2 , k1 , x ∈ (c, b] für ein c ∈ (a, b), dann macht (MM.85) zunächst keinen Sinn. Durch Wechsel auf eine, von einer Bilinearform erzeugten, Linearform kann neben dem klassischen punktweisen Lösungsbegriff von (MM.85), (MM.86), ein schwächerer, variationeller Lösungsbegriff formuliert werden. (MM.85) kann interpretiert werden als  G x −(ku′ )′ − r = 0 für alle x ∈ [a, b] , (MM.87) ∗ wobei G x ∈ C([a, b], R) das Auswertungsfunktional G x ( f ) = f (x) ist. Diese Linearform wird durch eine von einer Integral-Bilinearform erzeugten ersetzt, nämlich (siehe Bemerkungen 5.2, 4)) Z

a

b

(−(ku′ )′ − r)(y)v(y)dy = 0

für Testfunktionen v : [a, b] → R ,

(MM.88)

die noch spezifiziert werden müssen. Die punktweise Forderung aus (MM.85) wird deshalb durch ein Mittel ersetzt (für beliebig fest gewähltes x ∈ [a, b] kann man sich v als immer mehr auf x konzentrierend vorstellen, um in einem Grenzwert (MM.87) zu erhalten, Abbildung 5.1). Partielle Integration führt (MM.88) unter Beachtung von (MM.86) über in ϕ(u, v) :=

Z

a

b

k(y)u′ (y)v′ (y)dy =

Z

b

r(y)v(y)dy .

a

Die Randbedingung (MM.86) geht hier auf natürliche Weise ein. Diese Umformulierung von (MM.88) ist mit einem analog zu (1.84) definierten Raum V (ohne die dort aufgenommenen Randbedingungen) auch für ein unstetiges k, wie z. B. oben angegeben, wohldefiniert. Die schwache Formulierung von (MM.85), (MM.86) ist daher: Gesucht ist u ∈ V, so dass

622

5 Bilinearformen und Quadriken

a

x

b

Abb. 5.1: Sich um x ∈ [a, b] konzentrierende Testfunktionen. ϕ(u, v) = g(v)

für alle v ∈ V

bzw.

ϕ(u, . ) = g in V ∗

wobei F ∈ Hom(V, V ∗ ) definiert ist durch F(u)v := ϕ(u, v) und

g(v) :=

Z

a

bzw.

F(u) = g

in V ∗ ,

b

r(y)v(y)dy,

d. h. g ∈ V ∗ .

^

5.1.2 Orthogonales Komplement Der Rang der darstellenden Matrix G ist unabhängig von der vorher ausgewählten Basis für V, da sich G beim Übergang in eine andere Basis in α(A)t GA mit invertierbarer Matrix A ändert. Definition 5.10 Sei ϕ eine α-Bilinearform auf dem K-Vektorraum V, dim V = n. Unter dem Rang von ϕ, geschrieben Rang(ϕ), versteht man den Rang von G nach (5.2) für eine Basis {u1 , . . . , un } und damit für jede Basis. Beispiele 5.11 1) Der Rang der zerfallenden Bilinearform f ⊗ g ist 1, falls f , 0 und g , 0, da je zwei Zeilen der Matrix (aµ bν )µ,ν linear abhängig sind, und gleich 0, falls f = 0 oder g = 0. 2) Das Skalarprodukt (x . y) auf dem Rn ist eine Bilinearform mit maximalem Rang n. 3) Der Rang einer Bilinearform ϕ ist gleich dim Bild F, wobei F = Φ(ϕ) ∈ Hom(V, V ∗ ) ◦ nach Satz 5.9 (Übung).

5.1 α-Bilinearformen

623

Definition 5.12 Sei ϕ eine feste α-Bilinearform auf dem Vektorraum V und M ⊂ V eine beliebige Teilmenge. Wir nennen M ⊥ := {u ∈ V : ϕ(w, u) = 0 für alle w ∈ M} das orthogonale Komplement von M bezüglich der Bilinearform ϕ. Speziell heißt V ⊥ der Entartungsraum der Bilinearform. Mit dieser Definition wird die Definition 1.97 des orthogonalen Komplements bezüglich des Skalarprodukts auf beliebige Bilinearformen verallgemeinert. Es gilt: M ⊥ ist ein Unterraum von V , aber i. Allg. ist M ⊂ M ⊥⊥ falsch, da aus ϕ(u, w) = 0 i. Allg. nicht, wie im bilinearen symmetrischen Fall, ϕ(w, u) = 0 gefolgert werden kann. Für das nicht symmetrische innere Produkt h . i auf Cn gilt aber z. B. zusätzlich hu . wi = hw . ui ,

demgemäß ϕ(u, w) = 0 ⇔ ϕ(w, u) = 0 .

Dies motiviert folgende Definition: Definition 5.13 Sei V ein K-Vektorraum, ϕ eine α-Bilinearform auf V. 1) ϕ heißt orthosymmetrisch, wenn für alle u, w ∈ V aus ϕ(u, w) = 0 auch ϕ(w, u) = 0 folgt. 2) ϕ heißt nicht entartet (oder auch regulär ), wenn V ⊥ = {0}, d. h. wenn zu jedem 0 , u ∈ V ein w ∈ V existiert mit ϕ(w, u) , 0. Bemerkungen 5.14 1) Im orthosymmetrischen Fall gilt insofern M ⊥ = {u ∈ V : ϕ(u, w) = 0 für alle w ∈ M}

und damit

M ⊂ M ⊥⊥ .

2) Jede α-Bilinearform auf V ergibt durch Einschränkung eine α-Bilinearform auf einem Unterraum U.

624

5 Bilinearformen und Quadriken

Die Bilinearform ϕ eingeschränkt auf U ist damit nicht entartet, genau dann, wenn zu jedem 0 , u ∈ U ein w ∈ U existiert mit ϕ(w, u) , 0, d. h. genau dann, wenn gilt U ∩ U ⊥ = {0} . Eine nicht entartete α-Bilinearform ϕ kann auf einem Unterraum U entartet sein. Erfüllt ϕ z. B. ϕ(u, u) = 0 für alle u ∈ V, dann ist ϕ entartet auf jedem U = Ku und dort ist sogar U ⊂ U ⊥. 3) Speziell haben wir im Fall α = id und M = V

V ⊥ = {u ∈ V : ϕ(w, u) = 0 für alle w ∈ V} = {u ∈ V : ϕ(·, u) = 0} = Kern F .

(5.8)

Dabei ist nach Satz 5.9 die Abbildung F ∈ HomK (V, V ∗ ) zu ϕ definiert durch F(u)w = ϕ(w, u),

also

F(u) ∈ V ∗ .

(5.9) △

Satz 5.15: Charakterisierung Nichtentartung Für eine α-Bilinearform ϕ auf einem endlichdimensionalen Vektorraum V sind äquivalent: (i) ϕ ist nicht entartet. (ii) Zu jedem Vektor 0 , u ∈ V existiert ein w ∈ V mit ϕ(w, u) , 0.

(iii) Es gibt eine Basis B von V, so dass G(B) invertierbar ist bzw. D(B) , 0. (iv) Für jede Basis B von V ist G(B) invertierbar bzw. D(B) , 0.

(v) Zu jedem Vektor 0 , u ∈ V existiert ein w ∈ V mit ϕ(u, w) , 0.

Ist α = id, so kann folgende Äquivalenz noch aufgenommen werden:

(vi) F ist nach (5.9) ein Isomorphismus, d. h. zu jedem f ∈ V ∗ existiert genau ein u ∈ V mit f (w) = ϕ(w, u) für alle w ∈ V.

Beweis: „(i) ⇔ (ii)“ nach Definition 5.13. „(ii) ⇔ (iii)“: Die α-Bilinearform ϕ auf dem endlichdimensionalen Vektorraum V ist genau dann nicht entartet, wenn ihre darstellende Matrix Gt keinen Vektor α(u) , 0 ∈ K n (⇔ u , 0) auf Null abbildet, d. h., wenn Rang(ϕ) = Rang(G) = Rang(Gt ) = n maximal ist. „(iv) ⇔ (v)“ nach (5.6). „(i) ⇔ (v)“, denn Rang(G) = n ⇔ Rang(Gt ) = n. Ist zusätzlich α = id, d. h. ϕ eine Bilinearform, so folgt nach Bemerkungen 5.14, 3),

5.1 α-Bilinearformen

625

Kern F = {0}. Wegen F ∈ HomK (V, V ∗ ) und dim V = dim V ∗ folgt aus der Injektivität von F nach (5.8) auch die Bijektivität.  Bemerkungen 5.16 1) Ist die Gramsche Matrix G = (a j δi j )i, j eine Diagonalmatrix, dann ist Nichtentartung äquivalent mit ai , 0 für alle i = 1, . . . , n. 2) Insbesondere ist für V = K n ϕ(u, w) =

n X

v i wi

i=1

für u = (vi )i , w = (wi )i ∈ K n

nicht entartet. Dennoch ist z. B. für K = F2 und u = (1, 1)t : ϕ(u, u) = 1 + 1 = 0. Für K = C ist ein analoges Beispiel in Bemerkungen 5.2, 2) erwähnt. 3) Satz 5.15, (vi) ist eine Verallgemeinerung des Rieszschen Darstellungssatzes im end△ lichdimensionalen Vektorraum (Theorem 3.48). Satz 5.17: Orthogonales Komplement Es sei ϕ eine orthosymmetrische α-Bilinearform auf dem endlichdimensionalen Vektorraum V und U ⊂ V ein Unterraum. 1) Es gilt: dim U ⊥ ≥ codim U. Ist zusätzlich ϕ nicht entartet auf V, dann ist sogar dim U ⊥ = codim U

und U ⊥⊥ = U .

2) Ist ϕ nicht entartet auf U, dann besitzt V eine orthogonale direkte SummenZerlegung V = U ⊕ U⊥ . Ist ϕ nicht entartet auf V, dann ist ϕ auch nicht entartet auf U ⊥ .

Beweis: Zu 1): Sei {u1 , . . . , um } eine Basis von U und {u1 , . . . , un } eine Basis von V. Dann n P xk uk ∈ U ⊥ für xk ∈ K wegen der Orthosymmetrie genau dann, wenn gilt u = k=1

0 = ϕ(u, uk )

für alle k = 1, . . . , m

 und damit x = (xk )k ∈ K n das homogene LGS Ax = 0 mit A = ϕ(u j , uk ) k, j ∈ K (m,n) erfüllt. Die Koordinatenabbildung erzeugt also eine Isomorphie zwischen U ⊥ und Kern A, insbesondere gilt dim U ⊥ = dim Kern A. Wegen Rang(A) ≤ m (und nach Theorem 2.32) gilt weiter dim Kern A = n − dim Bild A ≥ n − m = dim V − dim U = codim U

626

5 Bilinearformen und Quadriken

und damit folgt die erste Behauptung. Die zweite Behauptung folgt genauso aus Rang(A) = m, d. h. der linearen UnabhängigP keit der Zeilen von A: Sei nun 0 = m k=1 λk ϕ(u j , uk ) für j = 1, . . . , n. Wegen λk = α(µk ) mit µk = α−1 (λk ) ∈ K, gilt   m m m X X   X µk uk ∈ V ⊥ . µk uk  , also 0= ϕ(u j , µk uk ) = ϕ u j , k=1

k=1

k=1

Wegen der Nichtentartung ist µk = 0, k = 1, . . . , m, und somit λk = 0, k = 1, . . . , m. Schließlich folgt aus der Orthosymmetrie U ⊂ U ⊥⊥ und damit bei Anwendung der obigen Dimensionsformel sowohl auf U als auch auf U ⊥ dim U ⊥⊥ = dim V − dim U ⊥ = dim U die Gleichheit dieser Unterräume. Zu 2): Die Nichtentartung auf U bedeutet gerade U ∩ U ⊥ = {0},

d. h. U + U ⊥ = U ⊕ U ⊥

und damit nach Satz 1.86 dim(U + U ⊥ ) = dim U + dim U ⊥ .

(5.10)

Zur Folgerung von U ⊕ U ⊥ = V reicht weiterhin der Nachweis von codim U = dim U ⊥ ,

(5.11)

wozu nach 1) nur noch dim U ⊥ ≤ codim U gezeigt werden muss. Dies bedeutet dim U + dim U ⊥ ≤ dim V , was wegen (5.10) trivial ist. Für die letzte Aussage kann wegen (5.11) wie bei 1) gefolgert werden: U ⊥⊥ = U,

d. h.

und damit die Nichtentartung von ϕ auf U ⊥ .

U ⊥ ∩ U ⊥⊥ = {0} 

Bemerkung 5.18 Unter den Voraussetzungen von Satz 5.17, 2) sei B1 eine Basis von U, B2 eine Basis von U ⊥ , dann ist die darstellende Matrix von ϕ bezüglich B := B1 ∪ B2 blockdiagonal. △

5.1 α-Bilinearformen

627

Definition 5.19 1) Eine Bilinearform auf dem Vektorraum V heißt

symmetrisch, wenn ϕ(u, w) = ϕ(w, u) , antisymmetrisch, wenn ϕ(u, w) = −ϕ(w, u) für alle Vektoren u, w ∈ V.

2) Eine α-Bilinearform heißt

hermitesch, wenn ϕ(u, w) = α(ϕ(w, u)) , antihermitesch, wenn ϕ(u, w) = −α(ϕ(w, u)) für alle Vektoren u, w ∈ V. Bemerkungen 5.20 1) Für K = R und α = id fallen „(anti-)symmetrisch“ und „(anti-)hermitesch“ zusammen. 2) Antisymmetrie ist fast identisch mit der Eigenschaft, alternierend zu sein, d. h. ϕ(u, u) = 0

für alle u ∈ V

zu erfüllen. Dann gilt (Übung): a) ϕ alternierend ⇒ ϕ antisymmetrisch.

b) Ist Char K , 2 (siehe Bemerkungen 3.10, 2)), dann gilt auch: ϕ antisymmetrisch ⇒ ϕ alternierend.

3) Ist die Bilinearform ϕ auf K n durch ihre darstellende Matrix G gegeben, d. h. ϕ(u, w) = ut Gt w, so ist ϕ genau dann symmetrisch, wenn G = Gt , und antisymmetrisch genau dann, wenn G = −Gt . 4) Die Form

ϕ(v, w) =

Z

a

b

Z

b

v(x)k(x, y)w(y) dxdy

a

auf C([a, b], R) ist (anti-)symmetrisch, wenn für ihren Integralkern gilt k(y, x) = (−)k(x, y). 5)

628

5 Bilinearformen und Quadriken

Für zwei Linearformen f, g ∈ V ∗ ist f ∧ g := f ⊗ g − g ⊗ f : (u, w) 7→ f (u)g(w) − f (w)g(u) anti-symmetrisch. 6) Sei K = C. Hat eine hermitesche Form die Darstellungsmatrix G ∈ C(m,n) , so gilt für alle u, w ∈ Cn t

ut Gt w = wt Gt u = wt G u = ut Gw , und damit ist G hermitesch (nach Definition 3.27). Umgekehrt erzeugt jede hermitesche Matrix eine hermitesche Bilinearform. 7) Ist G = (gi, j ) hermitesch, dann sind  Re(G) := Re(gi, j ) i, j symmetrisch,  Im(G) := Im(gi, j ) i, j antisymmetrisch.

Da die (anti-)symmetrischen A ∈ R(n,n) einen reellen Vektorraum der Dimension n(n−1) +n 2 bilden (entsprechend der Anzahl der Einträge unterhalb und einschließlich der bzw. n(n−1) 2 Diagonalen bzw. nur unterhalb der Diagonalen, da bei antisymmetrischen Matrizen Diagonalelemente verschwinden), bilden die hermiteschen Matrizen in C(n,n) einen reellen Vektorraum der Dimension n2 . △ Satz 5.21: Symmetrie-Zerlegung Es sei K ein Körper mit Char K , 2. Dann schreibt sich jede Bilinearform auf einem K-Vektorraum auf genau eine Weise als ϕ = ϕS + ϕΛ mit einer symmetrischen Bilinearform ϕS und einer antisymmetrischen Bilinearform ϕΛ .

Beweis: Existenz: Wir definieren ϕS und ϕΛ durch 1 (ϕ(u, w) + ϕ(w, u)) , d. h. ϕS ist symmetrisch, und 2 1 ϕΛ (u, w) := (ϕ(u, w) − ϕ(w, u)) , d. h. ϕΛ ist antisymmetrisch. 2

ϕS (u, w) :=

Dann haben wir

5.1 α-Bilinearformen

629

ϕ(u, w) = ϕS (u, w) + ϕΛ (u, w) für alle u, w ∈ V. Eindeutigkeit: Ist ϕ = ϕS + ϕΛ eine Zerlegung von ϕ in eine symmetrische und eine antisymmetrische Bilinearform, dann ist 1 2 (ϕ(u, w)

+ ϕ(w, u)) = 12 (ϕS (u, w) + ϕS (w, u) + ϕΛ (u, w) + ϕΛ (w, u)) | {z } | {z } =2ϕS (u,w)

1 2 (ϕ(u, w)

=0

− ϕ(w, u)) = 12 (ϕS (u, w) − ϕS (w, u) + ϕΛ (u, w) − ϕΛ (w, u)) , | {z } | {z } =0

=2ϕΛ (u,w)

und somit ist sowohl ϕS als auch ϕΛ durch ϕ schon eindeutig festgelegt.



Bemerkungen 5.22 1) Für die darstellende Matrix G einer Bilinearform bedeutet die Aussage von Satz 5.21 nichts anderes als die recht triviale Identität Gt =

1 t 1 (G + G) + (Gt − G) . 2 2

2) Satz 5.21 gilt auch für α-Bilinearformen, sofern α2 = id gilt, d. h. α eine Involution ist, und bedeutet dann eine eindeutige Zerlegung in eine hermitesche Bilinearform ϕH und eine antihermitesche Bilinearform ϕΓ . Der Beweis von Satz 5.21 kann mit folgender Modifikation wiederholt werden: 1 (ϕ(u, w) + αϕ(w, u)) 2 1 ϕΓ (u, w) := (ϕ(u, w) − αϕ(w, u)) . 2

ϕH (u, w) :=

△ In Verallgemeinerung von Satz 2.13 und Satz 3.22 können die linearen Abbildungen betrachtet werden, die eine α-Bilinearform invariant lassen. Definition 5.23 Seien V und W zwei K-Vektorräume, jeweils mit einer α-Bilinearform ϕ bzw. e ϕ. Dann heißt Ψ ∈ HomK (V, W) Isometrie von V nach W, wenn e ϕ(Ψ u, Ψ w) = ϕ(u, w) für alle u, w ∈ V .

Ist V = W und e ϕ = ϕ, dann heißt Ψ Isometrie auf V.

630

5 Bilinearformen und Quadriken

Für einen euklidischen bzw. unitären Vektorraum sind also die orthogonalen bzw. unitären Abbildungen genau die Isometrien bezüglich des inneren Produkts als α-Bilinearform (α = id bzw. α(c) = c). Satz 5.24: Gruppe der Isometrien Sei V ein endlichdimensionaler K-Vektorraum mit nicht entarteter α-Bilinearform ϕ. Dann gilt: 1) Die Isometrien auf V bilden eine Gruppe. 2) Sei B := {u1 , . . . , un } eine Basis von V, sei Φ ∈ HomK (V, V) und A die Darstellungsmatrix von Φ, d. h. A = B [Φ]B . Φ ist eine Isometrie, genau dann, wenn G(B) = α(A)t G(B)A mit der Gramschen Matrix G(B).

Beweis: Zu 1): Die Komposition von Isometrien ist eine Isometrie, so dass es reicht, für eine Isometrie Φ zu zeigen: Φ−1 existiert (und ist dann Isometrie). Aus Φu = 0 folgt 0 = ϕ(Φw, Φu) = ϕ(w, u)

für alle w ∈ V

und wegen der Nichtentartung u = 0. Demnach ist Φ injektiv und damit bijektiv. Zu 2): Da Φ genau dann Isometrie ist, wenn ϕ(Φu j , Φuk ) = ϕ(u j , uk )

für alle j, k = 1, . . . , n ,

und da rechts das (k, j)-te Element der darstellenden Matrix in der Basis B, links das gleiche Element in der darstellenden Matrix in der Basis Φ[B], sodass die Übergangsmatrix gerade A ist, steht, folgt die Behauptung aus Theorem 5.6. Bei der Rückrichtung beachte man, dass die Matrixidentiät die Invertierbarkeit von A bzw. Φ impliziert.  Daher können wir verallgemeinernd definieren: Definition 5.25 Sei V ein K-Vektorraum mit nicht entarteter α-Bilinearform ϕ. 1) Sei α = id und ϕ symmetrisch, Char K , 2. O(V; ϕ) := {Φ ∈ HomK (V, V) : Φ ist Isometrie auf V} heißt orthogonale Gruppe und SO(V; ϕ) := {Φ ∈ O(V; ϕ) : det Φ = 1} .

5.1 α-Bilinearformen

631

heißt spezielle orthogonale Gruppe zu ϕ. 2) Sei α2 = id , α und ϕ(u, w) = α ϕ(w, u) Dann heißt



für alle u, w ∈ V .

U(V; ϕ) := {Φ ∈ HomK (V, V) : Φ ist Isometrie auf V}

unitäre Gruppe und SU(V; ϕ) := {Φ ∈ U(V; ϕ) : det Φ = 1}

spezielle unitäre Gruppe zu ϕ.

Bemerkung 5.26 Durch Übergang zur Gramschen Matrix ergeben sich entsprechende Gruppen von Matrizen nach Satz 5.24, 2): Sei C ∈ GL(K, n). Dann heißen O(n, K; C) := {A ∈ K (n,n) : At CA = C} ,

SO(n, K; C) := {A ∈ O(n, K; C) : det(A) = 1} , U(n, K; C) := {A ∈ K (n,n) : α(A)t CA = C} ,

SU(n, K; C) := {A ∈ U(n, K; C) : det(A) = 1}

orthogonale Gruppe, spezielle orthogonale Gruppe, unitäre bzw. spezielle unitäre Gruppe zu C. Ist C die Darstellungsmatrix zu ϕ, so sind die Elemente von O(n, K; C) bzw. U(n, K; C) gerade die Darstellungsmatrizen der Elemente von O(V; ϕ) bzw. U(V; ϕ) bezüglich der gleichen festen Basis. Insbesondere findet sich die Definition von O(n, R) in Beispiele 3.2, 7) und die Gruppe O(n, C) der unitären Matrizen im Sinne von Definition 3.26 wieder als O(n, R) = O(n, R; 1) O(n, C) = U(n, C; 1) und α(c) = c . Ist h . i = h . iC ein durch C ∈ K(n,n) , C > 0 erzeugtes, folglich allgemeines inneres Produkt auf Kn , dann sind die bezüglich h . iC orthogonalen bzw. unitären Matrizen gerade O(n, R; C) für K = R

bzw.

U(n, C; C) mit α(c) = c für K = C .



632

5 Bilinearformen und Quadriken

Was Sie in diesem Abschnitt gelernt haben sollten: Begriffe : • • • • • • •

α-Bilinearform, Bilinearform Darstellungsmatrix einer Bilinearform G(B) Orthogonales Komplement Orthosymmetrische α-Bilinearform Nicht entartete α-Bilinearform Symmetrische/hermitesche (antisymmetrische/antihermitesche) Bilinearform Isometrie auf Raum mit Bilinearform

• • • •

Zweifach kovariantes Transformationsverhalten bei α-Bilinearformen (Theorem 5.6) Isomorphie Raum der Bilinearformen und HomK (V, V ∗ ) (Satz 5.9) ϕ orthosymmetrisch, nicht entartet auf U : V = U ⊕ U ⊥ (Satz 5.17) Symmetriezerlegung (Satz 5.21)

Zusammenhänge :

Beispiele : • Zerfallende Bilinearform

Aufgaben Aufgabe 5.1 (K) Es sei V der R-Vektorraum der reellen Polynome vom Grad ≤ 2 und ϕ die Bilinearform Z 1 f (x)g(x) dx ϕ( f, g) := −1

auf V. Bestimmen Sie die darstellende Matrix von ϕ in Bezug auf die Basis 1, x, x2 (vgl. (1.81)). Aufgabe 5.2 (K) Es sei V der R-Vektorraum der reellen Polynome vom Grad ≤ 1. Bestimmen Sie in Bezug auf die Basis 1, x die darstellende Matrix der Bilinearform: R1R1 a) ϕ( f, g) := 0 0 (x + y) f (x)g(y) dxdy, R1R1 b) ψ( f, g) := 0 0 (x − y) f (x)g(y) dxdy. c) Bestimmen Sie eine Basis von V, bezüglich der ϕ eine darstellende Matrix in Diagonalform hat.

Aufgaben

633

Aufgabe 5.3 (K) Auf V = C([a, b], K) sei die Abbildung ϕ:V×V →K,

ϕ(v, w) :=

Z

b

v(x)k(x)w(x) dx

a

definiert, wobei k ∈ C([a, b], R). Zeigen Sie:

a) ϕ ist eine hermitesche α−Bilinearform. b) Falls k(x) > 0 für alle x ∈ [a, b] gilt, dann ist ϕ positiv definit.

Aufgabe 5.4 (T) Es sei ϕ eine Bilinearform auf dem endlichdimensionalen K-Vektorraum V. Zeigen Sie die Äquivalenz der beiden folgenden Aussagen: (i) Rang(ϕ) ≤ k.

(ii) Es gibt f1 , g1 , . . . , fk , gk ∈ V ∗ mit ϕ = f1 ⊗ g1 + . . . + fk ⊗ gk . Aufgabe 5.5 (K) Es bezeichne e1 , e2 , e3 ∈ R3 die Standardbasis und a1 := (1, 1, 0) ,

a2 := (0, 1, 1) ,

a3 := (1, 0, 1) .

a) Es bezeichne ϕ die Bilinearform auf dem R3 mit ϕ(ei , e j ) = δi, j . Bestimmen Sie die darstellende Matrix von ϕ in der Basis a1 , a2 , a3 . b) Es bezeichne ψ die Bilinearform auf dem R3 mit ψ(ai , a j ) = δi, j . Bestimmen Sie die darstellende Matrix von ψ in der Standardbasis. Aufgabe 5.6 (T) Man zeige, dass jede nicht entartete orthosymmetrische Bilinearform entweder symmetrisch oder antisymmetrisch ist. Aufgabe 5.7 (T) Beweisen Sie Bemerkungen 5.20, 2). Aufgabe 5.8 (T) Zeigen Sie Beispiele 5.11, 3).

634

5 Bilinearformen und Quadriken

5.2 Symmetrische Bilinearformen und hermitesche Formen Die wichtigsten symmetrischen Bilinearformen sind: P • Das euklidische Skalarprodukt ϕ(u, w) = nν=1 vν wν auf dem Zahlenraum Rn mit der darstellenden Matrix   ϕ(eµ , eν ) = 1n . ν,µ

• Die Minkowski1 -Form auf dem R4 : Für u = (vi )i , w = (wi )i ∈ R4 ist ϕ(u, w) = v1 w1 + v2 w2 + v3 w3 − c2 v4 w4 mit einer Konstanten c > 0. Die darstellende Matrix ist    1   1    . 1   −c2

Die Minkowski-Form stammt aus Einsteins spezieller Relativitätstheorie. Hierbei ist die Zeit die vierte Dimension des vierdimensionalen Raum-Zeit-Kontinuums.

Definition 5.27 Jede α-Bilinearform ϕ definiert eine Funktion qϕ von einem Argument u ∈ V qϕ : V → K ,

u 7→ ϕ(u, u) .

Diese Funktion qϕ heißt die quadratische Form zur Bilinearform ϕ. Für obige Beispiele gilt: • Das euklidische Skalarprodukt auf Kn hat die quadratische Form qϕ (u) =

n X ν=1

|vν |2 = kuk22 .

• Die Minkowski-Form hat die quadratische Form qϕ (u) = (v1 )2 + (v2 )2 + (v3 )2 − c2 (v4 )2 . Bemerkungen 5.28 1) Sei ϕ eine Bilinearform. Nach Satz 5.21 gilt: 1

Hermann Minkowski ∗22. Juni 1864 in Aleksotas †12. Januar 1909 in Göttingen

5.2 Symmetrische Bilinearformen und hermitesche Formen

635

ϕ(u, u) = ϕS (u, u) + ϕΛ (u, u) = ϕS (u, u) mit einem symmetrischen Anteil ϕS und einem antisymmetrischen Anteil ϕΛ . Damit folgt (5.12)

qϕ = qϕS

und die Bilinearform kann bei Betrachtung der zugehörigen quadratischen Form o. B. d. A. als symmetrisch angesehen werden. 2) Eine quadratische Form q : V → K hat die Eigenschaft: q(λu) = λα(λ)q(u) für λ ∈ K, u ∈ V, d. h. q(λu) = λ2 q(u)

bzw.

q(λu) = |λ|2 q(u)

(5.13)

für Bilinearformen bzw. für hermitesche Formen.



Einer der Gründe für das Interesse an symmetrischen Bilinearformen liegt darin, dass sie helfen, mit Mitteln der linearen Algebra die nichtlinearen quadratischen Formen qϕ zu verstehen. Der Zusammenhang zwischen einer symmetrischen Bilinearform ϕ und ihrer quadratischen Form qϕ ist sehr eng: Theorem 5.29: Polarisationsformel 1) Es sei ϕ eine symmetrische Bilinearform auf dem K-Vektorraum V über einem Körper K mit Char K , 2. Dann gilt ϕ(u, w) =

1 (qϕ (u + w) − qϕ (u) − qϕ (w)) 2

für alle u, w ∈ V .

Insbesondere ist die Bilinearform ϕ durch ihre quadratische Form qϕ eindeutig bestimmt. 2) Sei ϕ eine hermitesche Form auf einem C-Vektorraum V. Dann gilt Re(ϕ(u, w)) =

1 (qϕ (u + w) − qϕ (u) − qϕ (w)) 2

für alle u, w ∈ V

und qϕ (u) ∈ R für alle u ∈ V . Insbesondere ist ϕ durch ihre quadratische Form qϕ eindeutig bestimmt, da weiter gilt: Im(ϕ(u, w)) = Re(ϕ(u, iw)) .

Beweis: Zu 1): Wir verwenden dieselbe Rechnung, die wir in Satz 2.13 benutzt haben, um einzusehen, dass die Längentreue der orthogonalen Abbildungen deren Winkeltreue

636

5 Bilinearformen und Quadriken

impliziert. qϕ (u + w) = ϕ(u + w, u + w) = ϕ(u, u) + ϕ(u, w) + ϕ(w, u) + ϕ(w, w) = 2 · ϕ(u, w) + qϕ (u) + qϕ (w) , wobei hier 2 := 1 + 1 , 0 und 21 := 2−1 . Zu 2): Wir benutzen dieselbe Rechnung wie für (3.23): qϕ (u + w) = ϕ(u + w, u + w) = ϕ(u, u) + ϕ(u, w) + ϕ(w, u) + ϕ(w, w) = ϕ(u, u) + ϕ(u, w) + ϕ(u, w) + ϕ(w, w) = ϕ(u, u) + 2 Re(ϕ(u, w)) + ϕ(w, w) . Für die nächste Behauptung beachte man qϕ (u) = ϕ(u, u) = ϕ(u, u) . Auch die letzte Behauptung lässt sich wie in (3.20) beweisen.



Bemerkung 5.30 Ist K ein Körper mit Char K , 2 und q : V → K eine Abbildung, die (5.13) erfüllt und für die ϕ(u, w) :=

1 (q(u + w) − q(u) − q(w)) 2

bilinear (und notwendigerweise symmetrisch) ist, so gilt q = qϕ .



Hauptsatz 5.31: Diagonalisierung symmetrischer Bilinearformen, Char K , 2 Es sei ϕ eine symmetrische Bilinearform auf einem endlichdimensionalen K-Vektorraum V, wobei Char K , 2, oder eine hermitesche Form über C. Dann gibt es eine Basis u1 , . . . , un ∈ V mit ϕ(uµ , uν ) = 0 für µ , ν. In dieser Basis hat ϕ daher die darstellende Matrix    qϕ (u1 )    q (u ) ϕ 2   ..   . .   qϕ (un ) Für eine hermitesche Form über C ist diese Matrix reell.

Beweis: Nach Theorem 5.6 und Definition 5.7 ist somit danach gefragt, ob die symmetrische bzw. hermitesche Darstellungsmatrix von ϕ zu einer Diagonalmatrix α-kongruent ist. Hierfür ist orthogonale (für allgemeines K formuliert) bzw. unitäre Ähnlichkeit ausreichend. Insofern folgt die Aussage aus Hauptsatz 4.51 mit Bemerkungen 4.52, 3) und den Überlegungen von Hauptsatz 4.58. Dies braucht die algebraische Abgeschlossenheit

5.2 Symmetrische Bilinearformen und hermitesche Formen

637

von K. Daher wird für den allgemeinen Fall ein Beweis analog zu Hauptsatz 4.51 wiederholt. Induktion nach dim(V) = n: Für dim(V) = 1 (Induktionsanfang) ist nichts zu zeigen. Sei nunmehr n ≥ 2 und die Behauptung werde als gültig angenommen für alle K-Vektorräume W mit dim(W) < dim(V). Wenn ϕ(u, w) = 0 ist für alle Vektoren u, w ∈ V, dann hat ϕ die Nullmatrix als darstellende Matrix, d. h. die Behauptung gilt trivialerweise. Andernfalls gibt es wegen der Polarisationsformel (Theorem 5.29) aber einen Vektor u1 ∈ V mit qϕ (u1 ) = ϕ(u1 , u1 ) , 0. Auf dem eindimensionalen Unterraum Ku1 ⊂ V ist die Bilinearform ϕ nicht entartet. Nach Satz 5.17 gibt es eine orthogonale direkte Summenzerlegung V = Ku1 ⊕ u⊥1 mit dim(u⊥1 ) = n − 1. Nach Induktionsannahme gibt es demnach eine Basis u2 , . . . , un ∈ u⊥1 mit ϕ(uk , ul ) = 0 für 2 ≤ k < l ≤ n. Da nach Konstruktion ϕ(u1 , ul ) = 0 für l = 2, . . . , n, hat die Basis u1 , u2 , . . . , un die gewünschte Diagonalisierungseigenschaft. Für eine hermitesche Form über C folgt die Zusatzbehauptung aus Theorem 5.29, 2). Bemerkungen 5.32 1) In Analogie zu Definition 1.109 nennt man eine Basis u1 , . . . , un ∈ V mit ϕ(uµ , uν ) = λµ δµ,ν

für µ, ν = 1, . . . , n

eine Orthogonalbasis bezüglich ϕ und bei λµ = 1 für µ = 1, . . . , n eine Orthonormalbasis . Sie kann nach dem Beweis von Hauptsatz 5.31 in endlich vielen Schritten ermittelt werden und entspricht konkret einer sukzessiven Variablentransformation durch quadratische Ergänzung. 2) Der Beweis von Hauptsatz 5.31 entspricht nämlich folgender Rechnung für eine symmetrische (Darstellungs-) Matrix A ∈ K (n,n) :

O. B. d. A. sei a1,1 , 0, ansonsten werde mit einem ℓ ∈ {2, . . . , n} begonnen, so dass aℓ,ℓ , 0, d.h. die Indizes 1 und ℓ werden getauscht, xt Ax = a1,1 x21 + 2

n X i=2

a1i x1 xi +

n X

i, j=2

und mit quadratischer Ergänzung mit a′1,i := a1,i /a1,1 :

ai, j xi x j =: T 1 + T 2

638

5 Bilinearformen und Quadriken

  n X   2 ′  a1,i x1 xi  T 1 = a1,1  x1 + 2 i=2

    2 n n n X X X     ′2 2 ′ ′ ′    a1,i xi − 2 a1,i a1, j xi x j  a1,i xi  − = a1,1  x1 +  

und damit mit der neuen Variable y1 := x1 + T 1 = a1,i y21 + T 1,2 ,

i=2

i=2

T 1,2 := −

Pn

i=2

a′1,i xi :

n a2 X 1,i i=2

i, j=2 i< j

a1,1

x2i − 2

n X

a1,i a1, j xi x j

i, j=2 i< j

1 . a1,1

Also xt Ax = a1,1 y21 +

n X

a′′i,i x2i +

i=2

n X

2 a′′i, j xi x j ,

i, j=2

wobei a′′i,i := ai,i − a21,i /a1,1 , a′′i, j := ai, j − a1,i a1, j a11,1 , i = j = 2, . . . , n, j > i, so dass der Vorgang für die weiteren Indizes wiederholt werden kann. Dieses Verfahren läuft entweder in n − 1 Schritten durch, indem immer wieder im k-ten Schritt ein Index ℓ ∈ {k, . . . , n} e(k) ∈ gefunden wird, so dass aℓ,ℓ , 0, oder es verbleibt eine modifizierte Restmatrix A K n−k+1,n−k+1 , so dass für die transformierte Matrix gilt: ! D(k−1) 0 (k) A = (5.15a) e(k) 0 A   e(k) mit einer Diagonalmatrix D(k−1) und A

i,i

e(k) , 0. = 0 für alle i = k, . . . , n, aber A

Dann gibt es ein c1 ∈ K n−k+1 , c1 , 0, und ct1 A(k) c1 , 0 (siehe Bemerkungen 2.62, 3)). Dieses wird ergänzt zu einer Basis von K n−k+1 , B = {c1 , . . . , cn−k+1 }, so dass also die Variablentransformation ! ! y x1 y := 1 = −1 , y2 C x2   wobei C = (c1 , . . . , cn−k+1 ) und x = xx12 , x1 ∈ K k−1 , die bis zu diesem Punkt erhaltene transformierte Variable bezeichnet, folgende Form erreicht

(k) e e A

!

 (k−1)  0   D  (k) b  (k)  A =  e  0 e A

, 0. Dies ist also eine Verallgemeinerung der obigen Vertauschung, bei der 1,1 eℓ ,

c1 = cℓ = e1 , c j = e j , sonst, wenn die Indizes 1 und ℓ (bezogen auf die „Restindexmenge“ {k, . . . , n}) getauscht werden sollen. Weiter unten wird geklärt, wie B bzw. C algorithmisch bestimmt werden kann. Damit kann also in der oben beschriebenen Weise mit quadratischer Ergänzung fortgefahren werden.

5.2 Symmetrische Bilinearformen und hermitesche Formen

639

3) Tatsächlich handelt es sich bei der obigen Vorgehensweise in 2) um eine Modifizierung des Gauss-Verfahrens, die manchmal auch symmetrisches Gauss-Verfahren genannt wird: Sei A(1) := A. Wir entwickeln das Verfahren analog zur LR-Zerlegung in Abschnitt 2.4.3 (ohne Pivotsuche) und 2.5.2 (mit Pivotsuche) und benutzen die dortige Notation. Der die erste Zeile betreffende Eliminationsschritt zur Bereinigung der ersten Spalte unterhalb der Diagonalen wird beschrieben durch die Frobenius-Matrix L(1) . Die gleichen Umformungen auf die erste Zeile angewandt eliminieren wegen der Symmetrie von A(1) die dortigen Einträge rechts von der Diagonalen, lassen aber alle anderen Matrixelemente unverändert, so dass A(2) := L(1) A(1) L(1)

t

sich ergibt, mit der Gestalt A(2) =

α1 0 e(2) 0 A

!

und hervorgegangen durch die Variablentransformation y = L(1) x, siehe Theorem 4.3. Nach (vorläufiger) Voraussetzung ist (A(2) )2,2 , 0 bzw. allgemein im k-ten Schritt (A(k) )k,k , 0, und die Symmetrie hat sich auf A(k) übertragen, so dass entsprechend fortgefahren werden kann: Ist L(k) die Frobenius-Matrix zur Bereinigung der k-ten Spalte unter der −1 Diagonalen, so führt die Variablentransformation mit L(k) auch zu einer Bereinigung der k-ten Zeile rechts von der Diagonalen. Algorithmisch sind nur die Spaltenumformungen durchzuführen und die Zeilenelemente Null zu setzen. Insgesamt ergibt sich mit C (k) = L(k)t ! D(k) 0 (5.15b) A(k+1) := C (k)t A(k)C (k) = e(k+1) 0 A −1

Im Spezialfall, dass A nichtsingulär ist und eine LR-Zerlegung existiert (siehe (2.156)), lässt sich der obige Zusammenhang direkter sehen. Die LR-Zerlegung A = LR kann geschrieben werden als e, A = LDR

(siehe (4.110)), wobei sowohl obere und untere Dreiecksmatrix normiert sind, d.h. die Diagonalelemente von R bilden die Diagonalmatrix D. Wegen der Symmetrie ist damit A = LDLt bzw.  t D = L−t AL−t .

  Analog zu Abschnitt 2.5.2 muss noch der Fall A(k) = 0 behandelt werden. Ist eines k,k   (k) der nachfolgenden Diagonalelemente A , 0, ℓ = k + 1, . . . , n, kann analog zur ℓ,ℓ

640

5 Bilinearformen und Quadriken

Zeilenvertauschung verfahren werden. Diese Zeilenvertauschung, beschrieben durch die Permutationsmatrix Pτk wird auch als entsprechende Spaltenvertauschung durchgeführt, d.h. A(k) durch Pτk A(k) Pτk ersetzt, und dadurch ein Diagonalelement vertauscht. Es gilt also weiterhin (5.15b), aber mit C (k) = Pτk L(k)t . Ist keines der Diagonalelemente ungleich 0, muss erst wie oben nach (5.15a) folgend vere(1) := C t A(1) C und dann fahren werden, also mit der Variablentransformation y = Cx, A (1) (A )i,i , 0 für ein i ∈ {1, . . . , n}. Liegt vor dem k-ten Schritt die Form (5.15a) vor, kann e(k) entsprechend verfahren werden, d.h. es wird eine Variablentransformation mittels mit A C gesucht, so dass b(k) := C t A(k)C A



 b(k) , 0 für ein i ∈ {k, . . . , n} erfüllt. Die nötige Transformationsmatrix C kann im kA i,i ten folgendermaßen erhalten werden: Da für mindestens ein Paar (i, j) ∈ {k, . . . , n}  Schritt  A(k) , 0 ist und es sich um die Darstellungsmatrix der Bilinearform in der aktuellen i, j Basis u1 , . . . , un handelt, ist nach Theorem 5.29, 1)   1 0 , A(k) = ϕ(u j , ui ) = qϕ (ui + u j ) , i, j 2

so dass sich als neue Basis

B′ = {u1 , . . . , ui + u j , . . . , u j , . . . , un } mit ui + u j an der i-ten Position ergibt, also für die Darstellungsmatrix C:

und für

      C =     

1 0 .. . .. . 0

··· ··· ··· .. .. . 1 . .. .. . 1 . . .. .. .. . . . .. ··· ··· ··· 1 i

b(k) := C t A(k)C A

         

j

  b(k) , 0, so dass wie oben fortgefahren werden kann. Es gilt also weiterhin gilt dann A i,i (5.15b), aber mit C (k) = CL(k) . t

5.2 Symmetrische Bilinearformen und hermitesche Formen

641

4) Die Diagonalisierung der Bilinearform in Hauptsatz 5.31 hängt zusammen mit der Hauptachsentransformation aus Abschnitt 4: Diagonalisierung von α-Bilinearformen für symmetrisches G, α = id At GA diagonal A invertierbar Char K , 2 t für hermitesches G A GA diagonal, reell A invertierbar K = C Hauptachsentransformation A−1GA diagonal, reell für symmetrisches G At GA diagonal, reell A orthogonal K = R t für hermitesches G A GA diagonal, reell A unitär K=C Über K = K folgt demnach die Diagonalisierbarkeit aus der Hauptachsentransformation. Da über die Transformationsmatrix in Hauptsatz 5.31 nichts ausgesagt wird, ist die Diagonalisierbarkeit eine viel schwächere Aussage als die Hauptachsentransformation. Für V = Kn und symmetrisches bzw. hermitesches ϕ gibt es sodann eine Basis, die nicht nur eine Orthogonalbasis bezüglich ϕ, sondern auch bezüglich des euklidischen inneren Produkts (3.15) ist. Für sie ist aber eine orthonormale Eigenvektorbasis zu ermitteln, was i. Allg. nicht in endlich vielen Schritten möglich ist. △ Präzisierungen von Hauptsatz 5.31, denen wir uns jetzt zuwenden, hängen vom Grundkörper K ab. Satz 5.33: Diagonalisierung symmetrischer Bilinearformen, K = K Zu jeder reellen symmetrischen oder komplexen hermiteschen n × n-Matrix G gibt es eine invertierbare Matrix A so, dass A†GA eine Diagonalmatrix ist, welche auf der Diagonale nur Einträge ±1 und 0 enthält:    1 p    −1m  . A†GA =    0

Beweis: Wegen Hauptsatz 5.31 oder schon nach Hauptsatz 4.58 können wir o. B. d. A. annehmen, dass die Matrix G schon in Diagonalform   g1  . .  . 

gn

    

vorliegt. Durch gleichzeitige Multiplikation von rechts und links mit Permutationsmatrizen zu Transpositionen, d. h. reellen Elementarmatrizen nach (2.73) mit E = E t = E −1

642

5 Bilinearformen und Quadriken

kann man die Diagonaleinträge noch vertauschen. Danach können wir g1 > 0 , . . . , g p > 0 ,

g p+1 < 0 , . . . , g p+m < 0 ,

g p+m+1 = . . . = gn = 0

annehmen. Dann definieren wir eine reelle invertierbare Diagonalmatrix A mit Diagonaleinträgen √ √ ... , a p,p = 1/ g p , a1,1 = 1/ g1 , √ √ a p+1,p+1 = 1/ −g p+1 , . . . , a p+m,p+m = 1/ −g p+m , a p+m+1,p+m+1 = 1 ,

an,n = 1

...

und finden   1 p  −1m At GA =  

0

    .



Bemerkung 5.34 Soll die transformierte Matrix nur die Gestalt  λ1  . .  .  λp   −λ p+1   ..  .   −λ p+m  0   ..  . 

0

                

mit λi > 0 für i = 1, . . . , p + m haben, so ist dies auch mit A ∈ O(n, K) möglich.



Die Zahl p + m der Diagonaleinträge ungleich 0 ist der Rang von G. Die Summe p + m ist also unabhängig von der gewählten Diagonalisierung von G stets gleich. Dies gilt aber auch für die Zahlen p und m selbst: Theorem 5.35: Sylvesterscher Trägheitssatz Es gelten die Voraussetzungen von Hauptsatz 5.31 und es sei K = R oder K = C, α(x) = x. Dann ist die Anzahl p der positiven Diagonaleinträge in Hauptsatz 5.31 bzw. die Anzahl m der negativen Diagonaleinträge in Hauptsatz 5.31 die maximale Dimension eines Unterraums, auf dem qϕ positiv bzw. negativ ist, d. h.

5.2 Symmetrische Bilinearformen und hermitesche Formen

643

p = max{dim(U) : U Unterraum von V und qϕ (u) > 0 für u ∈ U, u , 0} , (5.14)

m = max{dim(U) : U Unterraum von V und qϕ (u) < 0 für u ∈ U, u , 0} . (5.15) Insbesondere sind p und m unabhängig von der gewählten Diagonalisierung.

Beweis: Es reicht die Aussage für p zu zeigen, da p und m bei ϕ˜ := −ϕ ihre Rollen tauschen. Sei u1 , . . . , un eine Basis, wie durch Hauptsatz 5.31 garantiert und o. B. d. A. qϕ (ui ) > 0 für i = 1, . . . , p, qϕ (ui ) ≤ 0 für i = p + 1, . . . , n (siehe Beweis von Satz 5.33 und Pp Bemerkung 5.34). Für u = i=1 xi ui ∈ U := span(u1 , . . . , u p ), u , 0 gilt t t

qϕ (u) = ϕ(u.u) = G x α(x) =

p X

qϕ (ui )xi α(xi ) =

i=1

p X i=1

qϕ (ui )|xi |2 > 0 .

Damit gilt r ≥ p, wenn r die rechte Seite in (5.14) bezeichnet. Um noch r ≤ p zu verifizieren, muss für jeden Unterraum U mit qϕ (u) > 0 für u ∈ U, u , 0 dim U ≤ p gezeigt werden. Sei U ein solcher Unterraum, aber dim U > p. Die Basis von U werde zu einer Basis von V ergänzt. Eine Projektion von U nach U werde wie folgt definiert: P Pp Ist u := ni=1 xi ui ∈ U, dann sei Pu := i=1 xi ui ∈ U. Da dim U > dim U, kann P nicht injektiv sein. Somit gibt es ein uˆ ∈ U, uˆ , 0, so dass Puˆ = 0, also x1 , . . . , x p = 0 und so qϕ (u) ˆ =

n X

i=p+1

qϕ (ui )|xi |2 ≤ 0

im Widerspruch zur Wahl von U.



Definition 5.36 Das Paar (p, m) heißt die Signatur der symmetrischen reellen Bilinearform (bzw. der zugehörigen symmetrischen Matrix G) oder der hermiteschen Form (bzw. der zugehörigen hermiteschen komplexen Matrix G). Die Signatur wird mit Sign(G) bezeichnet. Die Differenz p − m heißt Trägheitsindex. Bemerkungen 5.37 1) Die Sätze 5.33 und 5.35 zusammen können auch so formuliert werden: Seien G und H zwei symmetrische bzw. hermitesche Matrizen, dann gilt folgende Äquivalenz: Es existiert eine invertierbare K − wertige Matrix A mit H = A†GA

⇐⇒

G und H haben die gleiche Signatur.

644

5 Bilinearformen und Quadriken

2) Insbesondere ist auch die Anzahl der Einträge gleich +1 (gleich −1) in Satz 5.33 unabhängig von der gewählten Diagonalisierung. 3) Analog kann man zeigen: n − m = max{dim U : U Unterraum von V und qϕ (u) ≥ 0 für u ∈ U} , n − p = max{dim U : U Unterraum von V und qϕ (u) ≤ 0 für u ∈ U} .



Die in Definition 4.133 formulierten Begriffe für Matrizen bzw. lineare Abbildungen lassen sich für endlichdimensionale K-Vektorräume V wegen Isomorphie (Satz 5.3, 4)) auch direkt für die erzeugten α-Bilinearformen formulieren. Definition 5.38 Eine symmetrische Bilinearform oder eine hermitesche Form ϕ auf dem K-Vektorraum V heißt

positiv definit positiv semi-definit negativ definit negativ semi-definit indefinit

falls ϕ(u, u) > 0 für alle 0 , u ∈ V , falls ϕ(u, u) ≥ 0 für alle u ∈ V , falls ϕ(u, u) < 0 für alle 0 , u ∈ V , falls ϕ(u, u) ≤ 0 für alle u ∈ V , falls ϕ weder positiv noch negativ semi-definit.

Die Form ϕ ist folglich genau dann positiv definit, wenn die Form −ϕ negativ definit ist. Ist dim(V) = n endlich und hat ϕ die Signatur (p, m), so ist ϕ

Beispiele 5.39

positiv definit ⇔ positiv semi-definit ⇔ negativ definit ⇔ negativ semi-definit ⇔ indefinit ⇔

p=n, m=0, m=n, p=0, p > 0 und m > 0 .

1) Die positiv (und damit auch die negativ) definiten Formen auf einem endlichdimensionalen K-Vektorraum sind in Abschnitt 4.7 untersucht und charakterisiert worden. 2) Die Minkowski-Form auf R4 hat die Signatur (3, 1) und ist deswegen indefinit.



Aufgaben

645

Was Sie in diesem Abschnitt gelernt haben sollten: Begriffe : • Quadratische Form zu einer symmetrischen Bilinearform • Signatur einer symmetrischen reellen Matrix (bzw. zugehöriger Bilinearform) • Positiv/Negativ (semi-)definite Form

Zusammenhänge :

• Polarisationsformel (Theorem 5.29) • Diagonalisierung einer symmetrischen Bilinearform (Hauptsatz 5.31, 5.33) • Sylvesterscher Trägheitssatz (Theorem 5.35)

Beispiele :

• Euklidisches Skalarprodukt • Minkowski-Form

Aufgaben Aufgabe 5.9 (T) a) Finden Sie auf R2 die symmetrischen Bilinearformen zu den quadratischen Formen q1 , . . . , q4 mit q1 (x, y) = x2 ,

q2 (x, y) = x2 − y2 ,

q3 (x, y) = 2xy ,

q4 (x, y) = (x + y)2 .

b) Zeigen Sie: Die quadratische Form q(x, y) = ax2 + 2bxy + cy2 gehört genau dann zu einer nicht entarteten symmetrischen Bilinearform, wenn b2 , ac . Aufgabe 5.10 (K) Bezüglich der Standardbasis des R3 sei eine Bilinearform b durch die Darstellungsmatrix    0 0 1   0 1 0    100

gegeben. Man gebe eine Basis von R3 an, bezüglich der b Diagonalform hat.

646

5 Bilinearformen und Quadriken

Aufgabe 5.11 (K) Für A, B ∈ R(n,n) setze man (vergleiche (4.6)) ϕn (A, B) := sp(AB) .

(5.16)

a) Man zeige, dass ϕn eine symmetrische Bilinearform auf R(n,n) ist und berechne die Darstellungsmatrix (ϕ2 (ek , ei ))i,k=1,...,4 für die Basis ! ! ! ! 10 01 00 00 e1 = , e2 = , e3 = , e4 = 00 00 10 01 von R(2,2) . b) Man gebe eine Basis f1 , f2 , f3 , f4 von R(2,2) an mit ϕ2 ( fi , fk ) = 0

für

1≤i 0 Nullen auf der Diagonale transformiert. Die r Einträge a1 , ..., ar , 0 kann man benutzen, um ähnlich wie gerade, die ersten r Einträge des Vektors b zu eliminieren, so dass danach b = (b′t , b′′t )t mit b′ = 0, b′′ ∈ K n−r . Dazu wählt man für den zweiten Transformationsschritt ti = −bi /ai , i = 1, . . . , r. Die Quadrikengleichung sieht danach so aus: r X

ak (xk )2 +

k=1

n X

2bk xk + c = 0 .

k=r+1

Sind auch die verbliebenen bk alle gleich 0, dann ist Pr

k=1 ak (x

k 2

) +c=0.

Die transformierte Form von A′ ist in diesem Fall ! e e′ = At 0 A und damit 0 c ( für c = 0 e′ = r . Rang A r + 1 für c , 0

Andernfalls können wir im Unterraum x1 = . . . = xr = 0 eine lineare Transformation durchführen, die die Linearform x 7→ bt · x auf die Linearform x 7→ 12 etr+1 · x transformiert. Dazu wird ein Isomorphismus C ′ auf K n−r durch Abbildung von b′′ auf 21 e1 und beliebige Definition auf einer aus b′′ fortgesetzten Basis von K n−r definiert. Dann ist durch ! 1r 0 C := ∈ K (n,n) (5.23) 0 C ′t

5.3 Quadriken

653

die gewünschte Transformation (wieder in x statt in y geschrieben) x = Cy definiert. e wird dadurch wegen der erreichten Diagonalgestalt nicht verändert. Die Die Matrix A Quadrikengleichung wird r X

ak (xk )2 + xr+1 + c = 0 .

k=1

Wenn wir schließlich noch xr+1 durch xr+1 + c ersetzen, d. h. mittels einer Translation, so nimmt die Gleichung folgende Form an: Pr

k=1

ak (xk )2 + xr+1 = 0 .

Die transformierte Form von A′ ist also

e′ = A

! e er+1 A . etr+1 c

e eine Diagonalmatrix mit Diagonaleinträgen ungleich Null auf den ersDabei ist A ten r Positionen. Damit: e′ = r + 2 . Rang A

Wir fassen die obigen Überlegungen zu folgendem Satz zusammen: Theorem 5.44: Affine Normalform Die Gleichung einer Quadrik kann durch eine affine Transformation entweder auf eine Form ohne linearen Anteil 1)

r X

ak (xk )2 + c = 0

k=1

oder auf die Form 2)

r X

ak (xk )2 + xr+1 = 0

k=1

gebracht werden. Dabei sind ak , 0 für alle k = 1, . . . , r, d. h. r = Rang(A) für die Koeffizientenmatrix A. Die Fälle treten nur abhängig von Rang(A′ ) auf:

654

5 Bilinearformen und Quadriken

Rang(A′ ) = r : Fall (1) , Rang(A′ ) = r + 1 : Fall (2) , Rang(A′ ) = r + 2 : Fall (2) .

c=0, c,0,

Hat A vollen Rang, kann demnach nur der Fall (1) auftreten. Wie die Diagonaleinträge ak , 0 weiter transformiert werden können, hängt vom Grundkörper ab. Über C können sie alle auf 0 oder 1 normalisiert werden. Der geometrisch interessante Fall ist aber K = R. In dem Fall können wir die Diagonaleinträge ungleich 0 auf ±1 normalisieren. In Abbildung 5.2 sind einige Quadriken dargestellt und in Tabelle 5.1 sind die Normalformen reeller Quadriken im Rn für n ≤ 3 zusammengestellt, die man auf diese Weise bekommt. Zur Orientierung dient dabei primär die Signatur Sign(A) der Koeffizientenmatrix A. Allerdings kann man jede Gleichung mit −1 durchmultiplizieren, das ändert die Signatur, aber nicht die Quadrik. Zwei Gleichungen, die sich so unterscheiden, werden nicht zweimal angegeben. Außerdem wird der Fall Rang(A) = 0 ausgeschlossen, da es sich sonst nicht um die Gleichung einer Quadrik handelt. In einer Dimension gibt es drei, in zwei Dimensionen neun, und in drei Dimensionen 17 Fälle. Alle diese Normalformen kann man alleine durch den Rang und Index der Koeffizientenmatrix und der erweiterten Matrix unterscheiden. Allerdings sind ein Großteil aller Fälle Entartungsfälle: Definition 5.45 Eine Quadrik Q heißt nicht entartet, wenn Q , ∅ und die erweiterte Koeffizientenmatrix invertierbar ist. Die nicht entarteten Quadriken sind in Tabelle 5.1 durch fettgedruckten Rang(A′ ) hervorgehoben und in Tabelle 5.2 zusammengefasst. Bemerkungen 5.46 In Tabelle 5.1 lassen sich zwei noch nicht verifizierte Fakten beobachten, die in Bemerkung 5.51 bewiesen werden: 1) Die Konstante ist ±1 ⇔ Bei A′ kommt ein positiver (negativer) Eigenwert gegenüber A hinzu. 2) Im Fall Rang(A′ ) = Rang(A) + 2 kommt immer ein positiver und ein negativer Eigenwert hinzu. △ Definition 5.47 Eine Quadrik Q in der affinen Ebene K 2 mit den Ausnahmen Q = ∅ und Q = paralleles Geradenpaar heißt Kegelschnitt .

n 1 1 (1, 0) 2 2 1 2 2 (2, 0) 3 3 2 (1, 1) 3 2 1 (1, 0) 3 2 2 1 3 3 (3, 0) 4 4 3 (2, 1) 4 4 3 2 (2, 0) 4 3 3 2 (1, 1) 4 3 2 1 (1, 0) 3 2 2 1

Sign(A′ )

Rang(A′ )

655 Sign(A)

Rang(A)

5.3 Quadriken

(2, 0) (1, 1) (1, 0) (3, 0) (2, 1) (2, 0) (2, 1) (1, 1) (2, 1) (2, 0) (1, 1) (1, 0) (4, 0) (3, 1) (3, 0) (3,1) (2,2) (2, 1) (3,1) (3, 0) (2, 1) (2, 0) (2, 2) (2, 1) (1, 1) (2, 1) (2, 0) (1, 1) (1, 0)

Gleichung x2 + 1 = 0 x2 − 1 = 0 x2 = 0 x2 + y2 + 1 = 0 x2 + y2 − 1 = 0 x2 + y2 = 0 x2 − y2 + 1 = 0 x2 − y2 = 0 x2 + y = 0 x2 + 1 = 0 x2 − 1 = 0 x2 = 0 x2 + y2 + z2 + 1 = 0 x2 + y2 + z2 − 1 = 0 x2 + y2 + z2 = 0 x2 + y2 − z2 + 1 = 0 x2 + y2 − z2 − 1 = 0 x2 + y2 − z2 = 0 x2 + y2 + z = 0 x2 + y2 + 1 = 0 x2 + y2 − 1 = 0 x2 + y2 = 0 x2 − y2 + z = 0 x2 − y2 + 1 = 0 x2 − y2 = 0 x2 + y = 0 x2 + 1 = 0 x2 − 1 = 0 x2 = 0

Quadrik ∅ zwei Punkte ein Punkt ∅ Kreis Punkt Hyperbel schneidendes Geradenpaar Parabel ∅ paralleles Geradenpaar Gerade ∅ Sphäre Punkt zweischaliges Hyperboloid einschaliges Hyperboloid Doppelkegel (elliptisches) Paraboloid ∅ Kreiszylinder (elliptischer Zylinder) Gerade Sattelfläche (hyperbolisches Paraboloid) hyperbolischer Zylinder schneidendes Ebenenpaar parabolischer Zylinder ∅ paralleles Ebenenpaar Ebene

Tabelle 5.1: Quadriken im An , n ≤ 3 in den Koordinaten x, y, z, nicht entartete Fälle im Fettdruck.

Kegelschnitte (im Reellen) haben schon die alten Griechen gekannt und ausgiebig untersucht. Sie haben sie definiert als den Durchschnitt eines Doppelkegels mit einer Ebene, siehe auch Abbildung 5.3. Beispiele 5.48 (Geometrie) 1) Nach den vorausgegangenen Überlegungen reicht es einen Doppelkegel in der Standardform von Tabelle 5.1 zu betrachten, d. h. n o K = x = (x, y, z)t ∈ A3 : x2 + y2 − z2 = 0 .

Wir geben in Tabelle 5.3 exemplarisch Schnitte mit Ebenen E an, die die verschiedenen Quadriken des A2 ergeben: Für die gewählte Normalform des Kegels ist die Spitze x = 0,

656

5 Bilinearformen und Quadriken n Quadrik 1 zwei Punkte 2 Kreis Hyperbel Parabel 3 Sphäre zweischaliges Hyperboloid einschaliges Hyperboloid (elliptisches) Paraboloid Sattelfläche

Tabelle 5.2: Nicht entartete Quadriken im Ak , 1 ≤ k ≤ 3.

4

4

2

2

0

0

−2

−2

−4 4

−4 4 2

2

4 2

0

4 2

0

0 −2

0 −2

−2 −4

−2 −4

−4

8

4

6

2

4

0

2

−2

0 2

−4

−4 2 1

2 1

0

1

2 1

0

0 −1

−1 −2

−2

0 −1

−1 −2

−2

Abb. 5.2: Quadriken im A3 : wie in Tab. 5.2, ohne Sphäre (von links oben nach rechts unten).

und die Mantellinien sind die Geraden g(t) = g x,y (t) = tw mit w = (x, y, 1) für (x, y)t ∈ A2 , x2 + y2 = 1. a) Es ergibt sich allgemein eine Ellipse als Schnitt, wenn die Ebene nicht durch die Spitze läuft und nicht parallel zu einer Mantellinie ist. Ist sie orthogonal zu einer

5.3 Quadriken

657

Ebene E n o x ∈ A3 : z = c , 0 n o x ∈ A3 : z = 0 n o x ∈ A3 : x = 1 n o x ∈ A3 : x = 0 n o x ∈ A3 : −y + z = 1 n o x ∈ A3 : −y + z = 0

Gleichung x2 + y2 = c2 x2 + y2 = 0 y2 − z2 + 1 = 0 y2 − z2 = 0 x2 − 2y − 1 = 0 x2 = 0

Quadrik Kreis (in (x, y)) Punkt (in (x, y)) Hyperbel (in (y, z)) schneidendes Geradenpaar (in (y, z)) Parabel (in (x, y)) Gerade (in (x, y))

Tabelle 5.3: Schnitte des Doppelkegels K mit Ebenen E in den Koordinaten x = (x, y, z).

Kegelachse, ergibt sich ein Kreis. Geht die Ebene durch die Spitze, entartet die Ellipse zum Punkt. b) Es ergibt sich eine Hyperbel , wenn die Ebene nicht durch die Spitze läuft und zu genau zwei Mantellinien parallel ist. Geht die Ebene durch die Spitze, entartet die Hyperbel zu einem sich schneidenden Geradenpaar. c) Es ergibt sich eine Parabel , wenn die Ebene nicht durch die Spitze läuft und zu einer Mantellinie parallel ist. Geht die Ebene durch die Spitze, entartet die Parabel zu einer Gerade. 2) Den Durchschnitt einer Quadrik xt Ax + 2bt x + c = 0 mit einer Geraden berechnet man, indem man die Parametrisierung der Geraden x = u + sw ,

s∈K

in die Quadrikengleichung einsetzt und damit die folgende quadratische Gleichung in s erhält: 0 = (u + sw)t A(u + sw) + 2bt (u + sw) + c = wt Aw · s2 + 2ut Aw · s + 2bt w · s + ut Au + 2bt u + c . Diese wird im Fall wt Aw = 0 zu einer linearen Gleichung reduziert und kann eine, keine oder unendlich viele Lösungen haben. Andernfalls handelt es sich um eine quadratische Gleichung in s. Wenn diese keine reellen Lösungen hat, dann schneidet die Gerade die Quadrik nicht. Hat sie dagegen zwei reelle Lösungen, dann schneidet die Gerade die Quadrik in zwei Punkten. Wenn die beiden reellen Lösungen zusammenfallen, dann berührt ◦ die Gerade die Quadrik in einem Punkt und heißt Tangente . Bemerkung 5.49 Auch die Graphen von quadratischen Formen auf K n bilden Quadriken und zwar in K n+1 . In der Situation von Definition 5.41 kann man neben Q = {x ∈ K n : q(x) = xt Ax + 2bt x + c = 0} auch

658

5 Bilinearformen und Quadriken

Abb. 5.3: Kegelschnitte. ( ! ) x n+1 G := ∈K : q(x) − 2y = 0 y betrachten und hat wieder eine Quadrik mit Koeffizientenmatrix ! t e = At 0 ∈ K (n+1,n+1) , e A b = (bt , −1) , 0 0 und damit die erweiterte Koeffizientenmatrix    A 0 b  e′ = 0t 0 −1 , A   t b −1 c

so dass also gilt:

e = Rang A < n + 1 Rang A

e′ = Rang A e+ 2 . Rang A

Die Umformung entspricht demgemäß der Umformung der Quadrik G unter Beibehaltung des linearen Anteils mit y. Die Form von G hängt von den Eigenwerten von A ab. G ist ein mehrdimensionales Analogon eines nach oben geöffneten elliptischen Paraboloids, wenn

5.3 Quadriken

659

alle Eigenwerte positiv, eines hyperbolischen Paraboloids, wenn die Eigenwerte in positive und negative zerfallen, oder eines parabolischen Zylinders, wenn etwa einige Eigenwerte positiv, einige Null sind. Die Minimierungsprobleme in Abschnitt 4.7.2 bei positiv definiter Matrix finden folglich auf einem nach oben geöffneten Paraboloiden statt, in den Bemerkungen 4.149, 2) und beim MaxMin-Problem von Satz 4.151 liegt ein hyperbolisches Paraboloid zugrunde. △

5.3.2 Die euklidische Normalform Anstelle beliebiger affiner Transformationen werden hier nur Bewegungen benutzt, um eine Quadrik in eine Normalform zu transformieren. Die so entstehende Normalform einer Quadrik heißt deren metrische oder euklidische Normalform. Betrachten wir eine Quadrik mit erweiterter Koeffizientenmatrix ! A b A′ = t b c und gehen wir die Transformationen in Abschnitt 5.3.1, Ableitung von Theorem 5.44 nochmal durch: 1) Als Erstes wurde die Koeffizientenmatrix A mit Satz 5.33 durch eine lineare Transformation in Diagonalform überführt. Wir können aber auch Hauptsatz 4.58 (Hauptachsentransformation) verwenden und dasselbe mit einer orthogonalen Transformation erreichen, mit dem folgenden Unterschied: Durch lineare Transformationen bekommt man eine Diagonalmatrix mit den Einträgen ±1 und 0. Nach einer orthogonalen Transformation stehen auf der Diagonale die Eigenwerte von A. Die Anzahlen der positiven, negativen, oder NullEinträge ist dieselbe, wie in der affinen Normalform, den Wert der Einträge ak , 0 können wir jetzt aber nicht mehr auf ±1 normieren. 2) Durch eine Translation können wir, ganz genau so wie in 5.3.1 die Gleichung der Quadrik in eine Form r X k=1

ak (xk )2 +

n X

2bk xk + c = 0

k=r+1

transformieren. 3) Durch eine orthogonale Transformation kann man jetzt die Linearform 2bt x nicht mehr auf etr+1 x transformieren, sondern nur noch auf x 7→ b · etr+1 x = b · xr+1

mit

b = k2bk2 .

′′ 2b′′ Denn in der obigen Begründung muss k2bk =: b˜ (kbk2 = kb′′ k2 ) auf e1 abgebildet werden, 2 ′′ und nach Fortsetzung von b˜ zu einer ONB von Rn−r die weiteren Basisvektoren (etwa)

660

5 Bilinearformen und Quadriken

auf die weiteren Einheitsvektoren, um so mittels (5.23) eine orthogonale Transformation x = Cy zu definieren. 4) Wenn b , 0 ist, kann man die Gleichung durch b teilen und damit diese Konstante auf 1 normieren. Durch eine abschließende Translation xr+1 7→ xr+1 − c/b kann noch bxr+1 + c in bxr+1 transformiert werden. Theorem 5.50: Metrische Normalform Die Gleichung einer Quadrik Q ⊂ Rn kann durch eine Bewegung entweder auf eine Form ohne linearen Anteil r X ak (xk )2 + c = 0 k=1

oder auf die Form

r X

ak (xk )2 + bxr+1 = 0

k=1

gebracht werden. Die möglichen Fälle hängen wie in Theorem 5.44 von der Beziehung zwischen dem Rang der Koeffizientenmatrix A und dem Rang der erweiterten Koeffizientenmatrix A′ ab. Bemerkung 5.51 Hier lassen sich die in Bemerkungen 5.46 genannten Aussagen verifizieren, die dann auch für die affine Normalform gelten, unter Berücksichtigung von ai > 0 7→ 1, ai < 0 7→ −1, c 7→ sign(c). Zu Bemerkungen 5.46, 1): Nach eigenwerterhaltender Transformation hat A′ die Gestalt ! diag(ai ) 0 , t 0 c′ also die Eigenwerte ai und c′ . Zu Bemerkungen 5.46, 2): Im Fall Rang(A′ ) = Rang(A) + 2 = r + 2 hat die transformierte erweiterte Koeffizientenmatrix die Gestalt   0 a1   . ..   .. .     ar 0   ′ e 0 1 . A :=     ..  . 0   0 0  0 ... 0 1 0... 0 c

e′ Entwicklung nach der letzten Zeile bzw. dann nach der letzten Spalte zeigt, dass die Eigenwerte von A die von A sowie die Nullstellen λ1 , λ2 des Polynoms (c − λ)λ + 1 = 0

5.3 Quadriken

661

sind. Für diese gilt λ1 < 0, λ2 > 0.

△ In Tabelle 5.4 sind die euklidischen Normalformen der nicht entarteten Quadriken in Dimension zwei und drei angegeben. Dabei wird eine positive reelle Zahl als Quadrat a2 , a ∈ R, eine negative Zahl als −a2 , a ∈ R geschrieben. Die Konstante kann, falls vorhanden, durch Multiplikation mit einem Faktor ungleich 0 auf 1 normiert werden. Die Achn Sign(A) Sign(A′ ) 2 (2,0) (2,1) (1,1) (2,1) (1,0) (2,1) 3 (3,0) (3,1) (2,1) (3,1) (2,1) (2,2) (2,0) (3,1) (1,1) (2,2)

Gleichung Quadrik x2 /a2 + y2 /b2 = 1 Ellipse x2 /a2 − y2 /b2 = 1 Hyperbel y = px2 Parabel x2 /a2 + y2 /b2 + z2 /c2 = 1 Ellipsoid x2 /a2 + y2 /b2 − z2 /c2 = −1 zweischaliges Hyperboloid x2 /a2 + y2 /b2 − z2 /c2 = 1 einschaliges Hyperboloid z = x2 /a2 + y2 /b2 Paraboloid z = x2 /a2 − y2 /b2 Sattelfläche

Tabelle 5.4: Euklidische Normalformen der nicht entarteten Quadriken für n = 2, 3. sen eines Koordinatensystems, in dem die Quadrik Q eine der angegebenen Normalformen annimmt, heißen die Hauptachsen der Quadrik. Daher kommt auch der Name Hauptachsentransformation. Ihre Richtungen sind die Richtungen der Eigenvektoren der symmetrischen Matrix A. Manchmal wird die Länge, welche die Quadrik auf einer dieser Achsen ausschneidet, mit Hauptachse(nlänge) bezeichnet. Ist λ der Eigenwert zum Eigenvektor in Richtung einer dieser Achsen, und ist die Konstante in der Gleichung auf 1 normiert, so ist diese Strecke a = √1|λ| .

Beispiel 5.52 (Geometrie) Eine Bewegung bildet eine Ellipse mit den Hauptachsenlängen a und b immer auf eine Ellipse mit denselben Hauptachsenlängen a und b ab und führt auch die Richtungen der Hauptachsen ineinander über. Bei einer affinen Transformation ist das nicht so. So ist etwa das Bild des Kreises x2 + y 2 = 1 unter der affinen Transformation ξ = a · x, η = b · y , die Ellipse ξ2 η2 + =1. a2 b2 Das heißt: Jede Ellipse ist das affine Bild eines Kreises. Diesen Zusammenhang kann man ausnutzen, um Aussagen für Ellipsen zu beweisen, wie beispielsweise „Eine Gerade schneidet eine Ellipse in zwei Punkten, in einem Punkt (und berührt sie dann), oder

662

5 Bilinearformen und Quadriken

überhaupt nicht.“ oder „Durch einen Punkt p außerhalb einer Ellipse gibt es zwei Tangenten an diese Ellipse.“ ◦

Was Sie in diesem Abschnitt gelernt haben sollten: Begriffe : • • • •

Quadrik Quadrik in erweiterten Koordinaten affine Normalform euklidische Normalform

Zusammenhänge : • Klassifikation affine Normalform (Theorem 5.44) • Klassifikation euklidische Normalform (Theorem 5.50)

Beispiele :

• Kegelschnitt • Hyperboloid, Paraboloid, Sattelfläche

Aufgaben Aufgabe 5.13 (K) Sei q : A3 → R gegeben durch q(x1 , x2 , x3 ) = x21 + 2x1 x2 + 2x1 x3 + x22 + 2x2 x3 + x23 + 2x1 + 4x2 + 2x3 + 2 und die Quadrik Q sei definiert durch Q = {x ∈ A3 : q(x) = 0}.

a) Transformieren Sie Q in affine Normalform, d. h. bestimmen Sie eine affine Transformation F(x) = Cx + t mit C ∈ GL(3, R) und t ∈ A3 , sodass die Gleichung q(F(x)) = 0 affine Normalform hat. b) Um welche Quadrik handelt es sich bei Q?

Aufgabe 5.14 (K) Sei q : A3 → R gegeben durch

√ √ q(x1 , x2 , x3 ) = x21 + 2x1 x2 + x22 + 2 2x1 + 6 2x2 + 3x3

und die Quadrik Q sei definiert durch Q = {x ∈ A3 : q(x) = 0}.

a) Transformieren Sie Q in euklidische Normalform, d. h. bestimmen Sie eine Bewegung F(x) = Cx+ t mit C ∈ O(3, R) und t ∈ R3 , sodass die Gleichung q(F(x)) = 0 euklidische Normalform hat. b) Um welche Quadrik handelt es sich bei Q?

Aufgaben

663

Aufgabe 5.15 (K) Sei ) ( 5 3 1 1 5 2 x + y2 + z2 − xz − x − z = 0 . Q = (x, y, z) ∈ A3 : 16 16 8 2 2 a) Man zeige, dass Q ein Ellipsoid ist und bestimme dessen Mittelpunkt und Hauptachsen. b) Man gebe eine affin-lineare Abbildung f : A3 → A3 an, so dass f eine Bijektion der Einheitssphäre S 2 = {(x, y, z) ∈ R3 : x2 + y2 + z2 = 1} auf Q induziert. Aufgabe 5.16 (K) Man zeige, dass durch die Gleichung 5x2 − 2xy + 5y2 + 10x − 2y − 6 = 0 eine Ellipse im R2 definiert ist. Ferner bestimme man ihren Mittelpunkt, ihre Hauptachsen, die Hauptachsenlängen und skizziere die Ellipse. Aufgabe 5.17 (T) Sei K ein Körper mit Char(K) , 2, A ∈ K (n,n) symmetrisch, b ∈ K n , c ∈ K und die Abbildung q : K n → K sei definiert durch q(x) := xt Ax + 2bt x + c. Durch Q = {x ∈ K n : q(x) = 0} sei eine Quadrik gegeben, die nicht ganz in einer Hyperebene des K n enthalten ist. Man zeige, dass Q genau dann eine Mittelpunktsquadrik ist, wenn Ax = −b lösbar ist. Aufgabe 5.18 (K) Im euklidischen A3 seien zwei Geraden g1 und g2 gegeben:        1   0   0        g1 = R  1  , g2 =  0  + R  1  .       0 1 1 E sei die Ebene durch 0, die senkrecht zu g2 ist.

a) Berechnen Sie für einen Punkt (p1 , p2 , p3 )t ∈ A3 seinen Abstand von g2 . b) Zeigen Sie, dass Q = {(p1 , p2 , p3 )t ∈ A3 : p21 + 2p1 p2 − 2p2 p3 − p23 + 2p2 − 2p3 + 1 = 0} die Menge der Punkte des A3 ist, die von g1 und g2 denselben Abstand haben. Wie lautet die affine Normalform und die geometrische Bezeichnung der Quadrik Q? Begründen Sie Ihre Antwort. c) Der Schnitt der Quadrik Q mit der Ebene E ist ein Kegelschnitt. Um was für einen Kegelschnitt handelt es sich bei Q ∩ E?

664

5 Bilinearformen und Quadriken

5.4 Alternierende Bilinearformen Weiterhin sei, wenn nicht anders erwähnt, V ein Vektorraum über einem Körper K mit Char K , 2. In Definition 5.19 vereinbarten wir bereits, eine Bilinearform ϕ antisymmetrisch zu nennen, wenn ϕ(u, w) = −ϕ(w, u). Eine darstellende Matrix G für die antisymmetrische Form ϕ hat die Eigenschaft Gt = −G . Andererseits heißt eine Bilinearform alternierend, wenn ϕ(u, u) = 0

für alle u ∈ V

gilt. Die Begriffe „antisymmetrisch“ und alternierend sind nach Bemerkungen 5.20, 2) identisch. Daher verwenden wir auch „alternierend“ für antisymmetrische Matrizen. Bemerkungen 5.53 1) Sei V = K 2 . Zwei Vektoren ! v1 u= 2 , v

! w1 w= 2 ∈V w

kann man zu einer 2 × 2-Matrix v 1 w1 v 2 w2

!

zusammensetzen. Deren Determinante [u, w] := det

! v 1 w1 = v 1 w2 − v 2 w1 v 2 w2

ist eine alternierende Bilinearform auf K 2 mit darstellender Matrix ! 0 −1 G= 1 0 bezüglich der kanonischen Basis. G ist die Drehung um π/2, mit −G die einzige schiefsymmetrische Drehung. Allgemein hat jede alternierende Bilinearform diese Darstellungsmatrix auf E := span(u, u), sofern ϕ(u, u) = 1. E heißt auch hyperbolische Ebene . Auf E gilt " ! !# a c ϕ(au + bu, cu + du) = ad − bc = , . b d

5.4 Alternierende Bilinearformen

665

2) Sei V = K n , n ≥ 2. Zwei Vektoren

 1  1  v   w   .    u =  ..  , w =  ...  ∈ V    n  v wn

kann man zu einer n × 2–Matrix

 1  v  .  ..  n v

 w1   ..  .   wn

zusammensetzen. Fixiert man zwei verschiedene Zeilen dieser Matrix, etwa die Zeilen i, j mit i , j, dann ist die zugehörige 2 × 2-Unter-Determinante deti, j (u, w) := vi w j − v j wi eine alternierende Bilinearform auf V. Für u, w ∈ R2 ist det(u, w) nach (2.146) geometrisch der Absolutbetrag der Fläche des von u und w in R2 aufgespannten Parallelogramms. Auch zwei Vektoren u, w ∈ Rn spannen ein Parallelogramm auf. deti, j (u, w) ist – bis auf das Vorzeichen – die Fläche der Projektion dieses Parallelogramms in die i, j-Ebene. Während (nicht entartete) symmetrische Bilinearformen die Zuordnung des von den Vektoren eingeschlossenen Winkels abstrahieren, tun dies (nicht entartete) alternierende Bilinearformen mit der Fläche des aufgespannten Parallelogramms. △ ✡✄ ✡✄ ✡ ✄ ✡ ✄ ✡ ✄ x3 ✄ ✻u✡ ✄✗ ✄ ✒ ✄ w✄ x2 ✄ ✡ ✣ ✄ ✡ ✄ ✡ ✄ ✡ ✘✘✘ ✘ ✚✚ ✄ ✡✚ ✿ ❃✘✘ x ✘ ✘ ✚ ✄✡ ✲1 Fläche = | det1,2 (u, w)|.

Abb. 5.4: Beispiel alternierende Bilinearform.

666

5 Bilinearformen und Quadriken

Hauptsatz 5.54: Normalform alternierender Matrizen, Char K , 2 Es sei V ein endlichdimensionaler Vektorraum über dem Körper K mit Char K , 2. Sei ϕ eine alternierende Bilinearform auf V. Dann gibt es eine Basis, in der ϕ durch eine Blockdiagonalmatrix   0 −1  1 0  ..  .   0 −1   1 0   0  ..  . 

0

              

(5.24)

! 0 −1 und Nullen auf1 0 gebaut ist. V zerfällt dann in V ⊥ und in hyperbolische Ebenen. dargestellt wird, welche aus alternierenden 2 × 2-Kästchen

Beweis: (Induktion nach n = dim(V)) Nach Bemerkungen 5.20, 2) erfüllt eine alternierende Form ϕ(u, u) = 0 und für n = 1 ist daher ϕ = 0. Sei nun n ≥ 2. Wenn ϕ die Nullform ist, d. h. wenn ϕ(u, w) = 0 für alle u, w ∈ V, dann hat sie die Nullmatrix als darstellende Matrix und es ist wieder nichts zu zeigen. Andernfalls gibt es Vektoren u, w ∈ V mit ϕ(u, w) , 0. Diese Vektoren u, w sind dann linear unabhängig, denn wegen ϕ(u, u) = 0 gilt au + bw = 0



aϕ(u, w) = ϕ(au + bw, w) = 0



a=0



b=0.

Also spannen u und w einen zweidimensionalen Untervektorraum U ⊂ W auf. Wir setzen u1 :=

1 u, ϕ(u, w)

u2 := w

und haben dann ϕ(u1 , u2 ) = 1 ,

ϕ(u2 , u1 ) = −1 ,

d. h. in der Basis u1 , u2 von U hat ϕ|U die darstellende Matrix ! 0 −1 . 1 0 Insbesondere ist ϕ|U nicht entartet. Nach Satz 5.17, 2) ist dann V = U ⊕U ⊥ mit dim(U ⊥ ) = n − 2. Wenden wir die Induktionsannahme auf U ⊥ an, so ergibt sich die Behauptung. 

5.4 Alternierende Bilinearformen

667

Korollar 5.55 1) Der Rang einer schiefsymmetrischen n × n-Matrix ist stets gerade.

2) Die Determinante einer schiefsymmetrischen n × n-Matrix ist stets ein Quadrat in K.

3) Sei G ∈ K (n,n) schiefsymmetrisch und invertierbar, d. h. insbesondere gilt n = 2m für ein m ∈ N. Dann gibt es ein invertierbares A ∈ K (n,n) , so dass ! 0 −1m t =: J . (5.25) A GA = 1m 0 Die zugehörige alternierende Form ϕ auf K 2m schreibt sich demzufolge ϕ(x, y) =

m X i=1

xi ym+i − xm+i yi .

(5.26)

Insbesondere ist J −1 = −J = J t .

Beweis: Zu 1): Zu einer schiefsymmetrischen Matrix G gibt es immer eine invertierbare Matrix A, so dass At GA die Normalform aus Hauptsatz 5.54 hat. Deswegen ist der Rang von G gleich dem Rang dieser Normalform, d. h. gleich zweimal der Anzahl der alternierenden Zweierkästchen. Zu 2): Die Determinante eines alternierenden Zweierkästchens in der Normalform ist gleich 1. Nach der Determinanten-Multiplikationsformel ist deswegen die Determinante der Normalform gleich 0 oder gleich 1. Daraus folgt det(G) =

1 det(A)2

oder

det(G) = 0 .

Zu 3): Die Form ergibt sich aus (5.24) durch entsprechende simultane Zeilen- und SpaltenVertauschungen, d. h. Ähnlichkeitstransformationen mit Permutationsmatrizen P = Pt = P−1 .  In Abschnitt 2.7 haben wir schon eine alternierende Bilinearform auf R3 , das Vektorprodukt oder Kreuzprodukt (siehe Definition 2.128) betrachtet. Analog zu O(V, ϕ), Definition 5.25 definiert man: Definition 5.56 Sei V ein K-Vektorraum über dem Körper K und ϕ eine nicht entartete alternierende Bilinearform auf V. Sp(V; ϕ) := {Φ ∈ HomK (V, V) : Φ ist Isometrie (bezüglich ϕ) auf V}

668

5 Bilinearformen und Quadriken

heißt die symplektische Gruppe zu ϕ. A ∈ K (n,n) heißt symplektisch, wenn es Darstellungsmatrix eines Φ ∈ Sp(V; ϕ) ist, wobei ϕ nach (5.26) gewählt ist. Die Gruppeneigenschaften wurden in Satz 5.24, 1) bewiesen. Symplektische Matrizen sind in Sinn von Bemerkungen 5.53, 2) flächenerhaltend . Die symplektischen Matrizen A ∈ K (n,n) sind nach Korollar 5.55, 3) charakterisiert durch J = At JA .

(5.27)

 Daher ist 1 = det(J) = det(At )1 det(A) = det(A) 2 und damit det(A) ∈ {−1, 1} .

Genauer gilt für A ∈ C(n,n) : det(A) = 1 (ohne Beweis). Aus (5.27) folgt J = −J −1 = A−1 JA−t , demnach AJAt = J und damit erfüllt auch At (5.27), d. h. mit A ist auch At symplektisch. Aus (5.27) folgt weiter J −1 At J = A−1 , d. h. A−1 und At sind ähnlich zueinander. Mathematische Modellierung 7 In Beispiel 3(6), S. 426, wird zur Beschreibung des dynamischen Verhaltens einer Massenkette ein lineares Differentialgleichungssystem vom Typ M x¨ + Ax = 0

(MM.89)

mit M = diag(mi ) für mi ∈ R, mi > 0 (in Beispiel 3(6) die Punktmassen) entwickelt (siehe (MM.74)). Dabei ist x : [t0 , t1 ] → Rn eine vektorwertige Funktion, d. h. x(t) = (xi (t))i . Die Matrix A nach (MM.2) ist symmetrisch und positiv definit. Dies wird für den Fall gleicher Federkonstanten, d. h. der Matrix nach (MM.11) in Beispiel 3(8), S. 435, gezeigt, da nach (MM.82) alle Eigenwerte positiv sind. Alternativ kann man A auch als Gramsche Matrix interpretieren (siehe Definition 1.99). Mit dem Einwirken einer äußeren Kraft verallgemeinert sich (MM.89) zu M x¨ (t) + Ax(t) = b(t)

(MM.90)

mit einer gegebenen Funktion b : [t0 , t1 ] → Rn . Anstelle der Anfangswerte wie in (MM.72) kann man auch Randwerte , d. h. x0 , x1 ∈ Rn , vorgeben und fordern: x(t0 ) = x0 ,

x(t1 ) = x1 .

(MM.91)

Unter allen verbindenden Bahnen wird somit die gesucht, die (MM.90) erfüllt. Analog zu Satz 4.144 besteht auch hier wieder eine Beziehung zu einer Minimierungsaufgabe, hier aber im Raum der Bahnen n o V := x ∈ C 1 ([t0 , t1 ], Rn ) : x(t0 ) = x0 , x(t1 ) = x1 . Dazu sei das Lagrange-Funktional L : Rn × Rn × [t0 , t1 ] → R durch

5.4 Alternierende Bilinearformen

669

L(x, y, t) :=

1 1 hMy . yi − hAx . xi + hb(t) . xi 2 2

definiert (man vergleiche (4.112)), wobei h . i das Euklidische Skalarprodukt auf Rn bezeichnet. Mit Kentnissen der mehrdimensionalen Analysis und analog zum Beweis von Hauptsatz 1.102 lässt sich zeigen: Ist x ein Minimum des folgenden Variationsproblems : Minimiere Z t1 f (x) := L(x(s), x˙ (s), s)ds auf V. (MM.92) t0

Dann erfüllt x auch (MM.90) und (MM.91). Dabei kann der erste Summand, d. h. Z 1 t1 hM x˙ (s) . x˙ (s)i ds , 2 t0 als kinetische Energie und der zweite Summand, d. h. Z t1 1 − hAx(s) . x(s)i − hb(s) . x(s)i ds , t0 2 als (negative) verallgemeinerte potentielle Energie interpretiert werden. Mit Hilfe der partiellen Ableitungen lässt sich (MM.90) auch schreiben als d ∂ ∂ L(x(t), x˙ (t), t) − L(x(t), x˙ (t), t) = 0 . ∂x dt ∂y

(MM.93)

Gleichung (MM.93) heißt auch die Euler-Lagrange-Gleichung zu (MM.92). Für das angesprochene Beispiel und Verallgemeinerungen davon beschreibt nunmehr x die kartesischen Koordinaten von endlich vielen Punktmassen. Man nennt (MM.90), (MM.91) bzw.(MM.92) auch die Lagrangesche Formulierung der Mechanik. Statt in x(.) und x˙(.) kann man L auch neben der Position x(.) in der Variable M x˙(.), d. h. dem Impuls, formulieren, also mit e L(x, e y, t) := L(x, M −1e y, t) .

Dabei wird M als selbstadjungiert und positiv definit angenommen. Wir definieren die Hamilton-Funktion in den Variablen Position und Impuls

Für My = e y ist daher Wegen

D E e e H(x, y, t) = M −1e y .e y −e L(x, e y, t) . E 1 1 D −1 e e H(x, y, t) = M e y .e y + hAx . xi − hb(t) . xi =: H(x, e y, t) . 2 2

sind mit

∂ H(x, e y, t) = Ax − b(t) , ∂x q(t) := x(t) ,

folgende Aussagen äquivalent: (i) x löst (MM.90). (ii) (q, p)t löst

∂ H(x, e y, t) = M −1e y ∂e y p(t) := M x˙ (t)

(MM.94)

670

5 Bilinearformen und Quadriken q˙ (t) = M −1 p˙ (t) p˙ (t) = −Aq(t) + b(t) .

(iii) (q, p)t löst ∂ H(q(t), p(t), t) q˙ (t) = ∂e y ∂ p˙ (t) = − ∂x H(q(t), p(t), t) .

(MM.95)

H stellt als Summe aus kinetischer und verallgemeinerter potentieller Energie die Gesamtenergie dar. Diese Formulierung erlaubt auch über (MM.94) hinaus die Benutzung verallgemeinerter Koordinaten q := q(x) ,

p := p(q, y)

für Position und Impuls. Man spricht dann von der Hamiltonschen Formulierung, die z. B. geeignet ist weitere Zwangsbedingungen an die Bahn mit aufzunehmen. Für geeignete! Transformationen bleiben die q(t) ∈ R2n durch das DifferentialHamiltonschen Gleichungen (MM.95) erhalten, die sich für u(t) = p(t) gleichungssystem 1. Ordnung u′ (t) = J t

∂H (u(t), t) ∂u

ausdrücken lassen mit J nach (5.25).

Was Sie in diesem Abschnitt gelernt haben sollten: Begriffe : • alternierende Bilinearform • symplektische Gruppe Sp(V; ϕ)

Zusammenhänge :

• Normalform alternierender Matrizen (Hauptsatz 5.54)

^

Aufgaben

671

Aufgaben Aufgabe 5.19 (K) Es sei A eine reelle (n × n)-Matrix mit zugehörigem charakteristischen Polynom pA (x) = det(A − x1n ). Zeigen Sie: Ist A antisymmetrisch, so ist für eine Nullstelle λ aus C von pA (x) auch −λ Nullstelle von pA (x). Aufgabe 5.20 (T) Es sei V ein endlichdimensionaler R-Vektorraum. Zeigen Sie: a) Für eine alternierende Bilinearform ϕ auf V sind äquivalent: (i) Rang(ϕ) ≤ 2k,

(ii) es gibt Linearformen f1 , g1 , ..., fk , gk ∈ V ∗ mit ϕ = f1 ∧ g1 + ... + fk ∧ gk .

b) Für zwei Linearformen f, g ∈ V ∗ sind äquivalent: (i) f ∧ g = 0,

(ii) f und g sind linear abhängig. Aufgabe 5.21 (T) Zeigen Sie: Durch ϕ( f, g) :=

Z

1

f (x)g′ (x) dx

0

wird eine nicht entartete alternierende Bilinearform auf dem R-Vektorraum der über dem Intervall [0, 1] stetig differenzierbaren Funktionen f mit f (0) = f (1) = 0 definiert. Aufgabe 5.22 (T) Es sei Λ der R-Vektorraum der alternierenden Bilinearformen auf R4 . Zeigen Sie: a) Ist f 1 , ..., f 4 ∈ (R4 )∗ die Dualbasis zur kanonischen Basis des R4 , so bilden die alternierenden Bilinearformen f1 ∧ f2 ,

f1 ∧ f3 ,

f1 ∧ f4 ,

f2 ∧ f3 ,

f2 ∧ f4 ,

f3 ∧ f4

eine Basis von Λ. b) Durch p( f i ∧ f j , f k ∧ f l ) :=

(

0 falls {i, j} ∩ {k, l} , ∅ sign(σ) falls σ ∈ Π4 definiert durch 1, 2, 3, 4 7→ i, j, k, l

wird auf Λ eine nicht entartete symmetrische Bilinearform definiert. Geben Sie die darstellende Matrix von p in der Basis aus a) an. c) Für ϕ ∈ Λ ist p(ϕ, ϕ) = 0 genau dann, wenn ϕ = f ∧ g mit f, g ∈ (R4 )∗ .

Kapitel 6

Polyeder und lineare Optimierung

Lineare Optimierung ist ein mathematisches Gebiet, das Mitte der 1940er Jahre aus Problemen der Wirtschaftswissenschaften entstanden ist. Je nachdem, ob man die innermathematischen Aspekte, oder die Frage der Anwendungen in den Mittelpunkt stellt, kann man dieses Gebiet der reinen oder der angewandten Mathematik zuordnen: Zum einen handelt es sich um Polyedertheorie, die die zulässige Menge des Optimierungsproblems und das Verhalten eines linearen Funktionals, des Zielfunktionals, darauf beschreibt. Zum anderen handelt es sich um die effiziente und stabile algorithmische Lösung solcher linearer Optimierungsprobleme mit dem Simplex-Verfahren, zuerst veröffentlicht von G. Dantzig1 im Jahr 1947, und seiner neueren Konkurrenz, dem Innere-Punkte-Verfahren und der Ellipsoid-Methode. Der Schwerpunkt liegt hier auf dem ersten Aspekt. Eine ausführliche Behandlung der Algorithmik erfolgt im mathematischen Teilgebiet der Optimierung. Zur Orientierung wird im Folgenden ein typisches lineares Optimierungsproblem diskutiert. Seien m, n ∈ N, m < n und A ∈ R(m,n) mit vollem Rang: Rang(A) = m, b ∈ Rm . Dann hat das unterbestimmte LGS Ax = b unendlich viele Lösungen (siehe Lemma 1.7). Oft ist man nur an Lösungen mit nicht negativen Komponenten interessiert (z. B. Massen, . . . ), aber auch das Problem Ax = b x≥0

(6.1)

hat – bei Lösbarkeit – weiter unendlich viele Lösungen. Hier wurde auf Rn folgende Halbordnung benutzt:

1

George Bernard Dantzig ∗8. November 1914 in Portland †13. Mai 2005 in Stanford

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_6

673

674

6 Polyeder und lineare Optimierung

Definition 6.1 Es seien a = (ai )i , und b = (bi )i Vektoren im Rn . Dann sagt man a≥0, falls diese Relation komponentenweise erfüllt ist, d. h. ai ≥ 0 für alle i = 1, . . . , n a ≥ b genau dann, wenn a − b ≥ 0 . Weiter sei a> b, falls für alle i = 1, . . . , n .

ai > bi Weiterhin sei a≤b

aa

definiert. Bemerkungen 6.2 1) a < b ist also im Gegensatz zu n = 1 nicht a≤b

und

a,b.

2) ≤ ist eine Halbordnung auf Rn , im Sinn von Definition A.20. Die Ordnung ist aber nicht vollständig, d. h. es ist nicht a ≤ b oder

b≤a

für alle a, b ∈ Rn .

3) ≤ und + sind verträglich in dem Sinn: a ≤ b ⇒ a + c ≤ b + c für alle a, b, c ∈ Rn . ≤ und λ· sind verträglich in dem Sinn: a ≤ b, λ ≥ 0 ⇒ λa ≤ λb a ≤ b, λ ≤ 0 ⇒ λb ≤ λa

)

für alle a, b ∈ Rn , λ ∈ R .

4) Sind a, b ∈ Rn , a ≥ 0, b ≥ 0, dann ist auch at b ≥ 0 und bei a > 0, b > 0 auch at b > 0. △

6 Polyeder und lineare Optimierung

675

Es kann versucht werden, aus der Lösungsmenge von (6.1) ein (möglichst eindeutiges) Element auszuwählen durch Wahl eines c ∈ Rn und durch die Aufgabe Minimiere f (x) := ct x über alle x ∈ Uad .

(6.2)

Dabei ist die zulässige Menge (ad=admissible) durch (6.1) definiert, f heißt das Zielfunktional. (6.2) heißt eine lineare Optimierungsaufgabe oder auch lineares Programm (LP). Zur ersten Orientierung betrachte man das einfache Beispiel n = 2, m = 1, d. h. Minimiere f (x1 , x2 ) := c1 x1 + c2 x2 unter den Nebenbedingungen g(x1 , x2 ) := a1 x1 + a2 x2 = b x1 ≥ 0

x2 ≥ 0 .

Falls Uad = ∅, wird das Problem sinnlos, im anderen Fall können die Situationen aus Abbildung 6.1 auftreten. Uad ist also eine Strecke oder ein Strahl für n = 2, m = 1, für

x2

x2

g(x) = b

g(x) = b

x1

x1

Abb. 6.1: Einfaches Optimierungsproblem auf einer Geraden. n = 3, m = 1 entsprechend ein Dreieck (eventuell unbeschränkt mit mindestens einer „Ecke“ im Unendlichen). Also: Uad kann beschränkt (Abbildung 6.1 links) oder unbeschränkt (Abbildung 6.1 rechts) sein, wobei der erste der typischere Fall ist. Uad ist konvex (siehe Definition 6.3) und wird für n = 2 von Punkten, genannt Ecken , (und für n = 3 von Geradenstücken) berandet. Die Höhenlinien f (x) = α sind Geraden, sie schneiden also den Rand von Uad in einem Punkt (vgl. Abbildung 6.2), falls sie nicht Uad ganz enthalten, so dass das Minimum von f auf einem beschränkten Uad in einer Ecke von Uad angenommen wird und dann die Minimalstelle eindeutig ist. Falls Uad zu einer Höhenlinie von f gehört, sind alle Punkte

676

6 Polyeder und lineare Optimierung

minimal, aber auch die Ecken. Ist Uad unbeschränkt und es gibt x ∈ Uad mit beliebig kleinem Zielfunktional, so ist das Optimierungsproblem also nicht lösbar: inf f (x) = −∞ .

x∈Uad

Neben der Formulierung (6.2) eines LPs gibt es weitere dazu äquivalente:

x2 f (x) = α1 f (x) = α2

g(x) = b f (x) = α3 x1

Abb. 6.2: Niveaulinien von f . Statt f (x) = ct x zu minimieren kann auch − f (x) = (−ct )x maximiert werden. Eine Gleichungsnebenbedingung Ax = b kann auch als Ungleichungsnebenbedingung Ax ≤b −Ax ≤ − b ausgedrückt werden, was dann auch die Vorzeichenbedingung x≥0

6 Polyeder und lineare Optimierung

677

mit einschließt. Insofern ist das folgende eine (scheinbar) allgemeinere Formulierung eines LP: Seien m, n ∈ N, A ∈ R(m,n) , b, c ∈ Rn . Minimiere f (x) = ct x unter x ∈ Uad , wobei Uad := {x ∈ Rn : Ax ≤ b} .

(6.3)

Hier kann auch m > n sein und die typische Gestalt von Uad zeigt Abbildung 6.3.

Uad

Abb. 6.3: Skizze einer zulässigen Menge. In diesem allgemeinen Fall wird also Uad auch für n = 2 von Geradenstücken, den Kanten berandet und die Ecken sind die Schnittpunkte von Kanten. Die Gerade f (x) = α schneidet eine Kante in einem Punkt, falls sie nicht diese enthält. Andererseits kann (6.3) durch Einführung von Schlupfvariablen wieder in der Form (6.2) geschrieben werden (aber als höherdimensionales Problem). Dazu wird x = x′ ∈ Rn ersetzt durch ! x′ ∈ Rn+m . x′′ Das Zielfunktional wird beibehalten: f

! x′ = ct x ′ x′′

(6.4)

und Uad umgeformt zu Uad =

(

! x′ ∈ Rn+m : Ax′ + x′′ = b, x′′

) x ≥0 . ′′

In (6.4) stehen neben gebundenen (d. h. vorzeichenbehafteten) Variablen x′′ auch freie Variablen x′ (d. h. ohne Vorzeichenbedingung). Diese können bei Verdopplung ihrer Anzahl vermieden werden, da sich jedes x ∈ Rn (nicht eindeutig) schreiben lässt als

678

6 Polyeder und lineare Optimierung

x = x+ − x− ,

wobei

x+ ≥ 0 , x− ≥ 0 .

(Für die Eindeutigkeit müsste man die nichtlinearen Bedingungen x+i x−i = 0 für i = 1, . . . , n mit hinzunehmen). Es lässt sich also Folgendes vermuten: Ist Uad beschränkt, so ist (6.2) lösbar und eine Minimalstelle ist eine Ecke. Da es anscheinend nur endlich viele Ecken gibt, könnte man diese bestimmen und den Wert von f dort vergleichen. Wegen der enormen Anzahl von Ecken für große n und m ist dies nicht allgemein machbar. Die Grundstruktur des klassischen Verfahrens, des SimplexVerfahrens , ist: Phase I des Simplex-Verfahrens Bestimme eine Ecke von Uad . Phase II des Simplex-Verfahrens Bestimme eine von der Ecke ausgehende „Kante“ des Randes von Uad , entlang der f absteigt, d. h. den Wert verringert. Gehe entlang der Kante bis zu einer Ecke mit niedrigerem Funktionalwert. Wiederhole diesen Schritt bis eine Ecke erreicht wird, so dass entlang keiner Kante abgestiegen werden kann. Zur Absicherung dieses Verfahrens sind folgende Punkte zu klären: • • • •

Algorithmische Umsetzung von Phase I Algebraische Charakterisierung von Ecken und „Kanten “ Nachweis, dass bei Termination des Verfahrens ein Minimum erreicht ist effiziente und stabile Umsetzung der obigen Schritte mittels Linearer Algebra.

6.1 Elementare konvexe Geometrie

679

6.1 Elementare konvexe Geometrie Sei A ein affiner Raum zu einem R-Vektorraum V. Die von zwei Punkten a , b ∈ A aufgespannte Gerade ab ist etwas anderes als die Strecke ab zwischen diesen Punkten. Diese Strecke ist ab = a + t · (b − a) = (1 − t)a + tb,

0≤t≤1.

So wie affine Unterräume B nach Satz 1.119 invariant unter der Bildung von Geraden durch a, b ∈ A sind, so sind konvexe Mengen K ⊂ A invariant unter der Bildung von Strecken ab für a, b ∈ K: Definition 6.3 Sei A ein affiner Raum zu einem R-Vektorraum V. K ⊂ A heißt konvex , wenn für jede Affinkombination c := ta + (1 − t)b

mit 0 ≤ t ≤ 1 ,

für Punkte a, b ∈ K gilt: c∈K. Bemerkungen 6.4 1) Jeder affine Unterraum ist konvex. 2) Jeder Durchschnitt konvexer Mengen ist wieder konvex. Jede Strecke ab ist konvex. 3) Jede Kugel mit Zentrum a und Radius r in einem normierten R-Vektorraum (V, k . k) K := {x ∈ V : kx − ak < r} ist konvex. Gehören nämlich x1 und x2 zu K , und ist x = sx1 + tx2 , 0 ≤ s, t ∈ R, s + t = 1, so ist nach der Dreiecksungleichung kx − ak = ksx1 + tx2 − (s + t)ak ≤ skx1 − ak + tkx2 − ak < (s + t)r = r .

△ Definition 6.5 Sei A ein affiner Raum zu einem R-Vektorraum V, y1 , . . . , yl ∈ A. Eine Affinkombination

680

6 Polyeder und lineare Optimierung

t1 y1 + . . . + tl yl ∈ A,

t1 + . . . + tl = 1

mit ti ∈ R ,

heißt Konvexkombination , wenn ti ≥ 0

für i = 1, . . . , l .

Notwendigerweise ist dann auch ti ≤ 1. Das Analogon zu Satz 1.119 für Konvexkombinationen statt Affinkombinationen ist Satz 6.6: Konvexe Menge Sei A ein affiner Raum zu einem R-Vektorraum V. Für eine Menge K ⊂ A sind äquivalent: (i) K ist konvex; (ii) mit endlich vielen Punkten y1 , . . . , yl ∈ K gehört auch jede Konvexkombination dieser Punkte zu K.

Beweis: „(i) ⇒ (ii)“: Wir beweisen die Aussage durch Induktion nach l, indem wir die Konvexkombination y := t1 y1 + . . . + tl yl ,

ti ≥ 0, t1 + . . . + tl = 1 ,

für tl , 1 schreiben als Konvexkombination y = (1 − tl )y + tl yl

mit

y :=

tl−1 t1 y1 + . . . + yl−1 . 1 − tl 1 − tl

Wegen t1 tl−1 t1 + . . . + tl−1 1 − tl +...+ = = =1 1 − tl 1 − tl 1 − tl 1 − tl ist y eine Affinkombination, wegen ti ≥ 0 und 1 − tl > 0 auch eine Konvexkombination, also nach Induktionsvoraussetzung y ∈ K, und damit auch y ∈ K. „(ii) ⇒ (i)“: Ist offensichtlich, denn die Punkte einer Strecke ab sind Konvexkombinationen der beiden Endpunkte a und b.  Die folgende Definition ist das Analogon für Konvexkombinationen zu dem, was der aufgespannte affine Unterraum für Affinkombinationen ist. Definition 6.7 Sei A ein affiner Raum zu einem R-Vektorraum V. Es sei M ⊂ A eine (endliche oder unendliche) Menge. Die Menge aller endlichen Konvexkombinationen

6.1 Elementare konvexe Geometrie

681

{x = s1 x1 + . . . + sl xl : x1 , . . . , xl ∈ M, s1 , . . . , sl ∈ R, s1 ≥ 0, . . . , sl ≥ 0, s1 + . . . + sl = 1, l ∈ N}

heißt die konvexe Hülle conv(M) der Menge M.

Satz 6.8 Sei A ein affiner Raum zum R-Vektorraum V, sei M ⊂ A.

1) Die konvexe Hülle conv(M) ist konvex und enthält die Menge M. 2) Die Menge conv(M) ist die kleinste konvexe Menge, die M enthält, im folgenden Sinn: Ist N ⊂ A konvex mit M ⊂ N, so ist conv(M) ⊂ N.

Beweis: Zu 1): Es seien x=

k X

ri xi ,

y=

i=1

l X

si yi ,

i=1

ri , si ≥ 0,

X

ri =

X

si = 1 ,

Konvexkombinationen von Punkten xi , yi ∈ M. Zu zeigen ist, dass dann auch rx + sy mit r, s ≥ 0, r + s = 1 zu conv(M) gehört. Aber wegen X X rx + sy = rri xi + ssi yi

mit

rri ≥ 0, ssi ≥ 0,

X

rri +

X

ssi = r

X

ri + s

X

si = r + s = 1

ist dieser Punkt eine Konvexkombination der endlich vielen Punkte xi , yi ∈ M. Wegen x = 1 · x ist M auch in conv(M) enthalten. Zu 2): Ist N konvex mit x1 , . . . , xk ∈ M ⊂ N, so gehört nach Satz 6.6 jede Konvexkombination der Punkte x1 , . . . , xk auch zu N.  Lemma 6.9: Konvexe Menge und Hyperebene Sei A ein affiner Raum zum R-Vektorraum V. Die konvexe Menge M ⊂ A sei enthalten in der Vereinigung E1 ∪ . . . ∪ Ek endlich vieler affiner Hyperebenen Ei . Dann ist M schon enthalten in einer einzigen dieser affinen Hyperebenen. e := E ∩ M für alle i = 1, . . . , k. O. B. d. A. kann E ei , ∅, weiterhin M , ∅. Beweis: Sei E S i e i Es ist also ki=1 E i = M. Dann gilt die Behauptung oder es gibt ein j ∈ {1, . . . , k} und ein ej , so dass a∈E

682

6 Polyeder und lineare Optimierung

a<

k [ i=1 i, j

ei . E

Sonst wäre nämlich für jedes j = 1, . . . , k ej ⊂ E

k [ i=1 i, j

ei und damit E

k [ i=1 i, j

ei = M E

und damit k [ k \ j=1 i=1 i, j

ei = M . E

Da die linke Menge leer ist, ist dies ein Widerspruch. ej und damit jedes E ei bei der Definition von M weggelassen Damit kann ein beliebiges E werden im Widerspruch zu M , ∅. Weiter gilt: Entweder ist k [ i=1 i, j

ei ⊂ E ej , E

S ei , so dass b < E ej . Dieser Fall d. h. die Behauptung ist erfüllt, oder es gibt ein b ∈ ki=1,i, j E führt folgendermaßen zum Widerspruch: Weil M konvex vorausgesetzt ist, gehört die Strecke ab ganz zu M ⊂ E1 ∪ . . . ∪ Ek . Der Durchschnitt der Gerade L durch a und b mit jeder der Hyperebenen Ei ist leer oder ein affiner Unterraum der Dimension 0 oder 1. Wenn er Dimension 0 hat, ist er ein Punkt. Weil die Strecke ab unendlich viele Punkte enthält, muss es ein i ∈ {1, . . . , k} geben mit S dim(L ∩ Ei ) = 1, d. h. L ⊂ Ei . Wegen a < ii=1,i, j Ei kann nur i = j gelten. Aber wegen b < E j ist auch dieser Fall ausgeschlossen, also ein Widerspruch erreicht.  Wieder gilt auch hier, dass unter affin-linearen Abbildungen • konvexe Mengen, • Konvexkombinationen • die konvexe Hülle

erhalten bleiben.

Aufgaben

683

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • • •

lineare Optimierungsaufgaben (LP) Schlupfvariable konvexe Menge Konvexkombination konvexe Hülle conv(M)

Aufgaben Aufgabe 6.1 (G) Im Rn seien e0 := 0 und ei , i = 1, . . . , n, die Koordinatenvektoren. Zeigen Sie: x = (xi )i=1,...,n liegt genau dann in der konvexen Hülle conv(e0 , e1 , . . . , en ), wenn xi ≥ 0

für i = 1, . . . , n und

x1 + . . . + xn ≤ 1 .

Aufgabe 6.2 (G) Es seien p, q, r wie in Aufgabe 1.37. Zeigen Sie: Das Dreieck △ zu den Eckpunkten p, q, r, d. h. die konvexe Hülle conv(p, q, r) (siehe Beispiel 1.127) ist die Menge der Punkte x ∈ A2 , für welche α(x) dasselbe Vorzeichen wie α(r) , β(x) dasselbe Vorzeichen wie β(p) , γ(x) dasselbe Vorzeichen wie γ(q) hat.

684

6 Polyeder und lineare Optimierung

6.2 Polyeder Bis jetzt haben wir immer Gleichungen (lineare, quadratische) betrachtet, Systeme solcher Gleichungen und gelegentlich auch ihre geometrische Interpretation. Ihre Lösungsmengen sind lineare oder affine Unterräume, oder Quadriken. Jetzt wenden wir uns Ungleichungen zu, etwa als typische Beschreibung von zulässigen Punkten bei Optimierungsproblemen. Da die Überlegungen weiter zur affinen Geometrie gehören, ist ein affiner Raum A zu einem R-Vektorraum V zugrundezulegen. Wir beschränken uns auf den Fall A = V und unterscheiden in der Notation nicht weiter zwischen Punkten und Vektoren, d. h. es wird wieder durchgängig Fettdruck benutzt. Definition 6.10 Sei V ein R-Vektorraum. Es seien h : V → R eine Linearform, nicht identisch 0, und c ∈ R. Dann heißt H := {x ∈ V : h(x) ≥ c} ein Halbraum in V. Die affine Hyperebene ∂H := {x ∈ V : h(x) = c} heißt Rand des Halbraums. Es reicht, diesen Typ von Ungleichungen zur Darstellung eines Halbraumes zu betrachten, da h(x) ≤ c



(−h)(x) ≥ −c .

Klar ist Lemma 6.11 Sei V ein R-Vektorraum. Ein Halbraum H ⊂ V ist konvex.

Beweis: Sind a, b ∈ H, so gilt für jeden Punkt x ∈ ab x = sa + tb,

s, t ≥ 0, s + t = 1 ,

h(x) = sh(a) + th(b) ≥ sc + tc = (s + t)c = c . Definition 6.12 Sei V ein R-Vektorraum. Ein Polyeder P ⊂ V ist ein Durchschnitt H1 ∩ . . . ∩ Hk endlich vieler Halbräume, oder, was dasselbe ist, die Lösungsmenge



6.2 Polyeder

685

{x ∈ V : h1 (x) ≥ c1 , . . . , hk (x) ≥ ck }

(6.5)

eines Systems von endlich vielen linearen Ungleichungen, wobei hi ∈ V ∗ mit hi , 0, i = 1, . . . , k . Weil der Durchschnitt konvexer Mengen wieder konvex ist, folgt aus Lemma 6.11 Satz 6.13 Jedes Polyeder ist konvex.

Bemerkungen 6.14 1) Der ganze Raum V ist kein Polyeder. Das kann man wie folgt einsehen: Sei h ∈ V ∗ , h , 0, dann ist dim Bild h = 1 und damit ist h surjektiv, also gibt es zu c ∈ R ein a ∈ V mit h(a) < c und somit a < H := {x ∈ V : h(x) ≥ c}.

Nur wenn h = 0 zugelassen wird, kann man V = {x ∈ V : h(x) ≥ 0} schreiben. In diesem Sinn soll V als Polyeder zugelassen sein. Ein Polyeder kann leer sein. 2) Sei H eine Hyperebene H = {x ∈ V : h(x) = c} , h ∈ V ∗ , h , 0, c ∈ R, dann ist H auch ein Polyeder, da H = {x ∈ V : h(x) ≥ c, −h(x) ≥ c} . 3) Der Durchschnitt von Polyedern ist ein Polyeder. 4) Für V = Rn wird also ein Polyeder durch ein lineares Ungleichungssystem aus k Ungleichungen für die n Variablen beschrieben, in Erweiterung eines LGS. Insbesondere entspricht ein LGS Ax = b dem Polyeder Ax ≥ b

−Ax ≥ −b . Es ist also keine echte Verallgemeinerung, wenn wir in unserer Definition der Polyeder auch lineare Gleichungen, statt nur linearer Ungleichungen zulassen. 5) Seien V, W R-Vektorräume, T : V → W eine Affinität, T = Φ + a, wobei Φ : V → W ein Isomorphismus ist. Sei P := {x ∈ V : hi (x) ≥ ci für i = 1, . . . , k} ein Polyeder, dann ist T (P) ein Polyeder, nämlich n o T (P) := y ∈ W : e hi (y) ≥ e ci für i = 1, . . . , k (6.6) mit e hi := hi ◦ Φ−1 und e ci := ci + hi (Φ−1 (a)) . △

686

6 Polyeder und lineare Optimierung

Beispiel 6.15 Es sei P = {x : hi (x) ≥ ci , i = 1, . . . , k} ein Polyeder und L = {x : x = a + tu, t ∈ R} eine Gerade. Der Durchschnitt L ∩ P besteht dann aus allen Punkten a + tu, für welche hi (a + tu) = hi (a) + thi (u) ≥ ci ist für i = 1, . . . , k. Sei i ∈ {1, . . . , k}. Im Fall hi (u) = 0 gibt es zwei Möglichkeiten. Falls hi (a) ≥ ci ist, dann ist die Bedingung, also hi (x) ≥ ci , für alle x ∈ L erfüllt, und wir können diese Bedingung für L ∩ P weglassen. Gilt dies für alle i ∈ {1, . . . , k}, ist die Gerade im Polyeder enthalten. Falls hi (a) < ci ist, dann ist die Bedingung hi (x) ≥ ci für kein x ∈ L erfüllt und es ist L ∩ P = ∅. Für den verbliebenen Fall, dass weder L ⊂ P noch L ∩ P = ∅ gilt, können wir annehmen, dass hi (u) , 0 für i = 1, . . . , k. Wir ändern die Reihenfolge der hi so, dass hi (u) > 0 ist für i = 1, . . . , l und hi (u) < 0 für i = l + 1, . . . , k. Die Bedingungen dafür, dass x = a + tu zu L ∩ P gehört, sind dann t≥

ci − hi (a) , i = 1, . . . , l, hi (u)

Sei nun l

a := max i=1

ci − hi (a) , hi (u)

t≤

ci − hi (a) , i = l + 1, . . . , k . hi (u)

(6.7)

ci − hi (a) . i=l+1 hi (u) k

b := min

Dann wird L ∩ P also parametrisiert durch die Werte t ∈ [a, b]. Hier kann natürlich l = 0 sein, dann wird es das Intervall (−∞, b], oder l = k, dann erhalten wir das Intervall [a, ∞). Wenn schließlich b < a ist, dann ist L ∩ P = ∅. ◦ Definition 6.16 Die Dimension eines Polyeders P wird definiert als dim P := dim spana (P) . Nach Satz 1.121, 2) ist dim P also die Dimension des kleinsten affinen Unterraumes, in dem P enthalten ist. Sei V ein n-dimensionaler R-Vektorraum. Weil jedes Polyeder P ⊂ V immer im affinen Unterraum A = V enthalten ist, ist seine Dimension höchstens n. Aber sie kann auch echt kleiner sein: Bemerkungen 6.17 1) Jeder Punkt p ∈ V definiert ein 0-dimensionales Polyeder P = {p}.

2) Es seien a , b ∈ V zwei verschiedene Punkte in einem endlichdimensionalen euklidischen Raum. Die Strecke ab = {a + t(b − a) : t ∈ R , 0 ≤ t ≤ 1} ,

ist ein eindimensionales Polyeder.

6.2 Polyeder

687

Es ist klar, dass spana (ab) = ab identisch mit der Geraden L durch a und b ist. Diese Gerade ist ein eindimensionaler affiner Unterraum. ab ist ein Polyeder: Da a , b, gibt es wegen V  V ∗ (siehe Beispiele 3.47, 3)) eine Linearform h mit h(a) , h(b). Wenn wir hier h eventuell durch −h ersetzen, können wir sogar h(a) < h(b) annehmen. Für jeden Punkt x = a + t(b − a) ∈ L gilt h(x) = (1 − t)h(a) + th(b) und damit

x ∈ ab ⇒ h(a) ≤ h(x) ≤ h(b) .

Die Strecke wird also durch zwei lineare Ungleichungen und n − 1 Gleichungen (Korollar 1.83) definiert. 3) Sei P ⊂ V ein Polyeder, p0 , . . . , pm ∈ P affin unabhängig, dann gilt dim P ≥ m , da e := spana (p0 , . . . , pm ) ⊂ spana (P) A

e = m. nach Satz 1.121, 3) und nach Bemerkung 1.126 dim A

4) Die m + 1 Punkte p0 , . . . , pm ∈ V seien affin unabhängig, sei A := spana ( p0 , . . . , pm ) . Je m dieser Punkte spannen in V einen affinen Unterraum Ai der Dimension m − 1 auf. Sie sind nämlich auch affin unabhängig. Also ist nach Bemerkung 2.140  Ai := spana p0 , . . . , pi−1 , pi+1 , . . . , pm = {x ∈ A : hi (x) = ci } ⊂ {x ∈ V : hi (x) = ci }

wobei hi eine Linearform, hi , 0. Weil nicht alle m+1 Punkte in dem (m−1)-dimensionalen Unterraum Ai liegen, ist hi ( pi ) , ci . Nachdem wir eventuell das Vorzeichen von hi und ci ändern, können wir hi ( pi ) > ci annehmen. Alle m + 1 Punkte liegen dann im Halbraum Hi : hi (x) ≥ ci . Die Punkte p0 , . . . , pm liegen also in dem Polyeder

P :=

m \ {p ∈ V : hi ( p) ≥ ci } .

(6.8)

i=0

Aus (6.8) folgt auch

conv({p0 , . . . , pm }) ⊂ P .

(6.9)

In Theorem 6.20 werden wir die Gleichheit beider Mengen sehen. Bezeichnet man Fi := P ∩ {p ∈ V : hi ( p) = ci },

i = 0, . . . , m

als die Randflächen von P, so gilt also nach Konstruktion p0 , . . . , pi−1 , pi+1 , . . . , pm ∈ Fi ,

i = 0, . . . , m .

688

6 Polyeder und lineare Optimierung

5) Sei das Polyeder P gegeben durch (6.5) in dem affinen Raum A= a+U enthalten, wobei U ein R-Vektorraum mit dim U = l sei, also hat U eine Basis u1 , . . . , ul und x ∈ P ist also charakterisiert durch x = a + u,

u∈U

und

bzw. für u =

Pl

j=1

hi (u) ≥ ci − hi (a) =: c′i

für i = 1, . . . , k

α ju j l X

hi (u j )α j ≥ c′i

für i = 1, . . . , k

⇔ (ai . α) ≥ c′i

für i = 1, . . . , k

j=1

(6.10)

 für ai := hi (u1 ), . . . , hi (ul ) t ∈ Rl . In der auf diese Weise gegebenen Parametrisierung kann also P als Polyeder in Rl aufgefasst werden. Wird A dimensional minimal gewählt, so dass dim P = dim A, heißt das, dass ein Polyeder von der Dimension l als Teilmenge des affinen Raums Al aufgefasst werden kann. △ Definition 6.18 Sei V ein R-Vektorraum. Die konvexe Hülle von m + 1 affin unabhängigen Punkten p0 , . . . , pm in V heißt ein Simplex der Dimension m, der von p0 , . . . , pm erzeugt wird. Man beachte, dass die Polyedereigenschaft noch nachgewiesen werden muss (Theorem 6.20). Bemerkungen 6.19 1) Die Bezeichnung in Definition 6.18 ist gerechtfertigt, da nach Satz 1.119 und 1.121 gilt spana ( p0 , . . . , pm ) = spana (conv( p0 , . . . , pm )) und damit die Dimension als Polyeder tatsächlich m ist. 2) Das von 2 affin unabhängigen Punkten a, b aufgespannte Simplex ist die Strecke ab im eindimensionalen affinen Raum, bei affin unabhängigen a, b, c handelt es sich um ein Dreieck mit den Ecken a, b, c im zweidimensionalen affinen Raum (vgl. Beispiel 1.127), bei affin unabhängigen a, b, c, d schließlich um ein Tetraeder mit diesen Ecken. 3) Sei das Simplex S von den affin unabhängigen p0 , . . . , pm ∈ V erzeugt, dann also

6.2 Polyeder

689

S = conv{p0 , . . . , pm } ⊂ spana p0 , . . . , pm und u=

m X i=0

ti pi ∈ S mit

m X i=0

ti = 1 ⇔ ti ≥ 0



für alle i = 0, . . . , m .

Die baryzentrische Koordinaten von u ∈ S bezüglich p0 , . . . , pm sind also durch ti ≥ 0,

i = 0, . . . , m

charakterisiert. 1 Pm u := m+1 i=0 pi heißt der Schwerpunkt von S und entspricht für m = 2, d. h. für ein Dreieck, dem Schwerpunkt eines Dreiecks. Die Ecken in baryzentrischen Koordinaten sind

i = 0, . . . , m ,

ei+1 ∈ Rm+1 , die Seiten pi p j entsprechen

sei+1 + (1 − s)e j+1 ,

s ∈ [0, 1] ,

die Seitenmitten also 1 (ei+1 + e j+1 ) 2 usw. 4) Durch die Abbildung V → {t ∈ Rm+1 : u 7→ (ti )i=0,...,m ,

m X

ti = 1} =: Bm

i=0

wobei

u=

m X

ti pi

i=0

wird eine Affinität zwischen affinen Räumen definiert. Insbesondere ist das Bild des Simplex conv( p0 , . . . , pm ) das Simplex S ′ = conv(e1 , . . . , em+1 ). Wählt man a = em+1 als Bezugspunkt, wird S ′ zu a + S ref wobei S ref = conv(0, e1 − em+1 , . . . , em − em+1 ). In einer m-dimensionalen Darstellung wird S ref zu conv(0, e1 , . . . , em ) ⊂ Rm ,

690

6 Polyeder und lineare Optimierung

dem Referenzsimplex der Dimension m.



1

1

1

1

1

Abb. 6.4: Referenzsimplex für m = 2, m = 3.

Theorem 6.20: Polyederdarstellung Simplex Der von den m + 1 affin unabhängigen Punkte p0 , . . . , pm erzeugte Simplex S = conv( p0 , . . . , pm ) der Dimension m stimmt mit dem Polyeder P nach (6.8) überein.

Beweis: Sei vorerst dim V = n endlich für den zugrundeliegenden Vektorraum und m = n. Um die Gleichheit S = P zu zeigen, müssen wir wegen (6.9) nur noch P ⊂ S zeigen. Wir benutzen Satz 1.124: Jeder Punkt p ∈ P ∈ V ist eine (durch p) eindeutig bestimmte Affinkombination p = t0 p0 + . . . + tm pm ,

t0 + . . . + tm = 1 ,

da die p0 , . . . , pm eine Menge von n + 1 affin unabhängigen Vektoren im n-dimensionalen Raum V sind. Es ist jetzt also nur noch zu zeigen, dass alle ti ≥ 0 sind, um die Aussage zu beweisen. Wir berechnen (mit den ci wie in (6.8) definiert) X X hi ( p) = t j hi ( p j ) = t j ci + ti hi ( pi ) = (1 − ti )ci + ti hi ( pi ) = ci + ti (hi ( pi ) − ci ) . j

j,i

Wenn p in P liegt, also insbesondere zum Halbraum hi (x) ≥ ci gehört, muss das Ergebnis ≥ ci sein. Wegen hi ( pi ) > ci folgt daraus ti ≥ 0. Weil dies für i = 0, . . . , m gilt, ist die Affinkombination p der Punkte p0 , . . . , pm sogar eine Konvexkombination. Das heißt: p ∈ S. Wenn das Polyeder P ⊂ V eine Dimension d < dim V hat, kann nach (6.10) P aufgefasst werden als Polyeder im affinen Raum Rd , S transformiert sich durch die affin-lineare Transformation x= a+

l X i=1

αi ui 7→ (αi )i=1,...,l

6.2 Polyeder

691

von (6.10) entsprechend. Also gilt P ⊂ S nach den Vorüberlegungen.



Wir können also, wenn wir wollen, für Polyeder P ⊂ Rn häufig dim(P) = n annehmen.

Die folgende Aussage ist anschaulich völlig klar, aber wir brauchen die bisher aufgebaute Maschinerie, um sie exakt zu beweisen. Satz 6.21: Polyeder mit voller Dimension Sei V ein n-dimensionaler R-Vektorraum. Für das Polyeder P = {x : h1 (x) ≥ c1 , . . . , hk (x) ≥ ck } ⊂ V

(6.11)

sind äquivalent: (i) dim(P) = n ; (ii) es gibt Punkte x ∈ P, für die alle Ungleichungen h1 (x) > c1 , . . . , hk (x) > ck , strikt sind, (iii) es gibt Punkte x(i) ∈ P, i = 1, . . . , k, für die die Ungleichung hi (x) > ci strikt ist.

Beweis: „(i) ⇒ (ii)“: Gilt (ii) nicht, dann ist P in der Vereinigung der Hyperebenen E1 , . . . , Ek mit den Gleichungen h1 (x) = c1 , . . . , hk (x) = ck enthalten ist. Weil P konvex ist (Satz 6.13), folgt mit Lemma 6.9, dass P in einer der Hyperebenen E1 , . . . , Ek liegt und damit dim(P) ≤ n − 1 im Widerspruch zu (i). „(ii) ⇒ (i)“: Wenn Eigenschaft (i) nicht erfüllt ist, gibt es eine Hyperebene E, d. h. E := {x : h(x) = c} und h , 0, mit P ⊂ E. Es gibt also einen Vektor a ∈ V mit h(a) , 0, o. B. d. A. hi (a) < 0 für i = 1, . . . , l für ein l ∈ {1, . . . , k}, hi (a) ≥ 0 sonst. Nun sei x¯ ∈ P wie in (ii) gewählt. Wir betrachten die Gerade L:

x¯ + Ra

durch x¯ mit Richtungsvektor a. Wegen h( x¯ + ta) = c + th(a) , c

für t , 0

schneidet E diese Gerade nur im Punkt x¯ . Andererseits gilt für i = 1, . . . , k: hi ( x¯ + ta) = hi ( x¯ ) + thi (a) ≥ ci



thi (a) ≥ ci − hi ( x¯ )

x) i (¯ für alle 0 ≤ t ∈ R, falls hi (a) ≥ 0, d. h. für i = l + 1, . . . , k und für 0 ≤ t ≤ ri := cih−hi (a) , falls hi (a) < 0, d. h. für i = 1, . . . , l. Sei also r := min{ri : i = 1, . . . , l}, dann gehört die ganze Strecke zwischen x¯ und x¯ +ra auf L zu P. Dies ist ein Widerspruch zu P∩ L ⊂ E ∩ L = { x¯ }.

692

6 Polyeder und lineare Optimierung

„(ii) ⇒ (iii)“: Ist klar. „(iii) ⇒ (ii)“: Wenn es keinen Punkt x ∈ P mit hi (x) > ci für alle i = 1, . . . , k gäbe, dann gäbe es zu jedem x ∈ P ein i mit hi (x) = ci und P wäre in der Vereinigung der affinen Hyperebenen {x : hi (x) = ci } enthalten. Weil P konvex ist, folgt mit Lemma 6.9, dass P schon in einer einzigen Hyperebene {x : hi (x) = ci } enthalten wäre. Dann könnte der Punkt x(i) nicht existieren.  Definition 6.22 Sei V ein R-Vektorraum. Es sei P ⊂ V ein Polyeder in der Darstellung von (6.11). Die Menge der Punkte x ∈ P mit der Eigenschaft hi (x) > ci

für i = 1, . . . , k ,

heißt das Innere int(P) des Polyeders P. Die Menge ∂P := P \ int(P) = {x ∈ P : hi (x) = ci für mindestens ein i} heißt der Rand des Polyeders. Nach Satz 6.21 gilt also für endlichdimensionale V: int(P) , ∅ ⇔ dim P = dim V . Die algebraisch definierten Begriffe stimmen im normierten Vektorraum mit denen der Analysis überein: Satz 6.23: Polyeder abgeschlossen, Inneres offen Sei (V, k . k) ein endlichdimensionaler normierter Vektorraum. P sei ein Polyeder in Darstellung (6.11). Dann gilt 1) P ist abgeschlossen in V. 2) int(P) ist offen, d. h. es gibt zu jedem p ∈ int(P) eine Vollkugel K := {x ∈ V : kx − pk ≤ r} mit Mittelpunkt p und einem Radius r > 0, die ganz in int(P) enthalten ist. 3) Sei P , V, dann ist int(P) der innere Kern von P, d. h. die größte in P enthaltene offene Menge.

6.2 Polyeder

693

Beweis: Zu 1), 2): Es ist P=

k \ i=1

 h−1 i [ci , ∞) ,

int(P) =

k \ i=1

h−1 i (ci , ∞)



und die hi ∈ V sind stetig (siehe Bemerkung 6.25). Da das stetige Urbild offener (abgeschlossener) Mengen offen (abgeschlossen) ist (siehe Satz C.9) ist also P(int(P)) ein endlicher Schnitt abgeschlossener (offener) Mengen und damit abgeschlossen (offen) und offene Mengen haben die angegebene Charakterisierung (siehe Definition C.2). e ⊂ P der innere Kern, d. h. int(P) ⊂ P e und P e ist offen. Sei p ∈ P. e Nach Zu 3): Sei P Voraussetzung gibt es ein r > 0 derart, dass alle Punkte x = p + y mit kyk ≤ r zu P gehören. Zu zeigen ist p ∈ int(P), d. h. wir müssen ausschließen, dass es ein i gibt mit hi ( p) = ci . Sei hi eine solche Linearform, die nicht identisch verschwindet. Daher existiert ein ai ∈ V, so dass (o. B. d. A.) hi (ai ) > 0. Wir betrachten die Punkte x = p + tai , t ∈ R. Für |t| ≤ r/kai k gehören sie zur Kugel vom Radius r mit Mittelpunkt p, und damit zu P. Andererseits folgt aus hi ( p) = ci , dass für t < 0 ∗

hi (x) = hi ( p) + thi (ai ) < ci . Das ist ein Widerspruch zu x ∈ P, für solche t.



Jeder Punkt x des Randes ∂P gehört zu einer affinen Hyperebene hi (x) = ci , und damit zu dem Polyeder Pi := P ∩ {x : hi (x) = ci } mit dim Pi ≤ dim P − 1. Tatsächlich besteht der Rand aus endlich vielen Polyedern der Dimension dim P − 1 (siehe Satz 6.33). Definition 6.24 Sei V ein R-Vektorraum, hi ∈ V ∗ : hi , 0, ci ∈ R, i = 1, . . . , m. P := {x ∈ V : hi (x) ≥ ci , i = 1, . . . , k , hi (x) = ci , i = k + 1, . . . , m} ein Polyeder. Für x ∈ P heißen die Gleichungsnebenbedingungen immer aktiv , eine Ungleichungsnebenbedingung i heißt aktiv, wenn hi (x) = ci gilt. Die Menge der aktiven Indizes wird zusammengefasst zu A(x), und entsprechend für die inaktiven Indizes I(x) := {1, . . . , n} \ A(x) gesetzt. Damit gilt z. B. x ∈ int(P) ⇔ I(x) = {1, . . . , n} .

Bemerkung 6.25 Die Stetigkeit linearer Abbildungen wird allgemein im Abschnitt 7.1.2 untersucht. Insbesondere wird dort gezeigt, dass für einen endlichdimensionalen Vektorraum V die Stetigkeit von h ∈ V ∗ nicht von der gewählten Norm abhängt (Hauptsatz 7.10). Wir können V also auch mit einer von einem Skalarprodukt h· . ·i erzeugten Norm k · k versehen. Für diese gilt mit Theorem 3.48

694

6 Polyeder und lineare Optimierung

|h(x) − h(y)| = |h(x − y)| = | hx − y . ai | ≤ kak · kx − yk für alle x, y ∈ V und für ein a ∈ V, woraus die Stetigkeit folgt.



Definition 6.26 Sei V ein R-Vektorraum. Es seien hi1 , . . . , hil beliebige unter den Linearformen h1 , . . . , hk , welche das Polyeder P nach (6.11) definieren. Das Polyeder S := P ∩ {x : hi1 (x) = ci1 , . . . , hil (x) = cil } heißt eine Seite von P, falls S nicht leer ist. Eine nulldimensionale Seite heißt Ecke, eine ein-dimensionale Seite heißt eine Kante. Bemerkungen 6.27 1) Sei dim P = n, so ist nach Satz 6.21 das Polyeder P keine Seite von sich selbst. Ist dim P < n, so ist dies möglich, etwa bei einer Hyperebene. 2) Sei S eine Seite des Polyeders P, dann ist S ein in P enthaltenes Polyeder. 3) Sei S eine Seite des Polyeders P, dann gilt S ⊂ ∂P

und

∂P =

[

S .

S ⊂P S Seite

4) Die (m−1)-dimensionalen Seiten des von p0 , . . . , pm aufgespannten Simplex S sind die m + 1 Simplizes, welche von je m der Punkte p0 , . . . , pm aufgespannt werden. Durch Induktion folgt (Übung): Die d-dimensionalen Seiten des Simplex sind genau die Simplizes, die von d + 1 dieser Punkte aufgespannt werden. Die Anzahl der d-dimensionalen Seiten ist damit ! m+1 , d = 0, . . . , m . d+1  Für das Tetraeder in A3 , d. h. m = 3 gilt z. B.: 4 = 43 2-dimensionale Seiten (Dreiecke),   6 = 42 Kanten, 4 = 41 Ecken. 5) Das Bild einer k-dimensionalen Seite unter einer Affinität ist eine k-dimensionale Seite des Bildpolyeders. In (6.6) übertragen sich auch „hi (x) = ci “ zu „h˜ i (y) = c˜ i “ nach (6.11).



6.2 Polyeder

695

Satz 6.28: Seiten-Seite Sei V ein R-Vektorraum. Es sei P ein Polyeder und S eine Seite von P. Jede Seite S ′ von S ist dann auch eine Seite von P.

Beweis: Das Polyeder sei definiert durch die Ungleichungen hi (x) ≥ ci , i = 1, . . . , k, und die Seite S durch einige der Gleichungen hi (x) = ci . O. B. d. A. können wir annehmen S = P ∩ {x ∈ V : hi (x) = ci , i = 1, . . . , l} . Im affinen Unterraum A := {x : h1 (x) = c1 , . . . , hl (x) = cl } ist die Seite S definiert durch die Ungleichungen hi (x) ≥ ci , i = l + 1, . . . , k. Die Seite S ′ ist dann definiert durch einige der Gleichungen hi (x) = ci , i = l + 1, . . . , k. O. B. d. A. können wir annehmen, dass es die Gleichungen hi (x) = ci , i = l + 1, . . . , m, sind. Dann ist also S ′ = S ∩ {x ∈ A : hl+1 (x) = cl+1 , . . . , hm (x) = cm } = P ∩ {x ∈ V : h1 (x) = c1 , . . . , hl (x) = cl } ∩ {x ∈ V : hl+1 (x) = cl+1 , . . . , hm (x) = cm } = P ∩ {x ∈ V : h1 (x) = c1 , . . . , hm (x) = cm }

eine Seite von P.



Satz 6.29: Irrelevante Bedingung Sei V ein R-Vektorraum. Es sei P ⊂ V, P , V, ein n-dimensionales Polyeder. Es sei definiert durch P = {x : hi (x) ≥ ci , i = 1, . . . , k}. Hat die Seite S := P ∩ {x : hi (x) = ci } eine Dimension < n − 1, so kann man bei der Definition von P die Bedingung hi (x) ≥ ci weglassen, ohne das Polyeder zu verändern.

Beweis: O. B. d. A. sei i = 1. Q sei das Polyeder definiert durch h j (x) ≥ c j , j > 1. Dann gilt P ⊂ Q. Wenn P = Q ist, sind wir fertig. Andernfalls gibt es einen Punkt q ∈ Q mit q < P. Sei A := spana ({q} ∪ S ) . Aus dim(S ) < n − 1 folgt dim(A) < n. Weil P die Dimension n hat, gibt es einen Punkt p ∈ P mit p < A. Die von p und q aufgespannte Gerade trifft A dann nur in q, da sie sonst ganz in A enthalten wäre. Wir betrachten die Strecke q p. Aus q < P folgt h1 (q) < c1 , während h1 ( p) ≥ c1 gilt. Da h1 stetig ist (siehe Bemerkung 6.25), folgt aus dem Zwischenwertsatz der Analysis, dass es eine Konvexkombination r := tq + (1 − t) p gibt mit h1 (r) = c1 . Weil hier nicht r = q gelten kann, gehört r nicht zu A, und damit nicht zu S . Der Punkt r ist also ein Punkt aus P mit h1 (r) = c1 , der nicht zu S gehört. Widerspruch! 

696

6 Polyeder und lineare Optimierung

Theorem 6.30: Seiten-Dimension Sei V ein R-Vektorraum, dim V = n. Es sei P = {x : h1 (x) ≥ c1 , . . . , hk (x) ≥ ck } ⊂ V ein Polyeder und S eine seiner Seiten. Die Dimension des Polyeders S ist dann d =n−r, wobei r die Maximalzahl linear unabhängiger Linearformen unter den Formen hi , i = 1, . . . , k ist, 1) welche das Polyeder P definieren und 2) für alle x ∈ S eine aktive Nebenbedingung sind.

Beweis: Es seien h j1 , . . . , h jm alle Linearformen mit hi (x) = ci für alle x ∈ S . Für alle anderen hi , i = 1, . . . , k, i , j1 , . . . , jm ist dann zwar hi (x) ≥ ci für x ∈ S , aber es gibt auch Punkte x ∈ S mit hi (x) > ci . Sei A der affine Raum A := {x ∈ V : h jk (x) = c jk , k = 1, . . . , m} und d := dim A, dann ist S ein Polyeder in A mit dim S = d. Dies folgt aus Satz 6.21, da es Punkte x(i) ∈ S mit hi (x(i) ) > ci für alle i , j1 , . . . , jm gibt. Wählt man in V eine Basis u1 , . . . , un ∈ V fest, so lässt sich für h ∈ V ∗ „h(x) = c, x ∈ V“ äquivalent als „at y = c′ , y ∈ Rn “ für ein a ∈ Rn schreiben (siehe Bemerkungen 6.17, 5)). Damit ist A e deren Zeilendie Lösungsmenge des inhomogenen LGS mit der Koeffizientenmatrix A, vektoren durch die Darstellungen der Linearformen h j1 , . . . , h jm gegeben sind. Der Rang r dieser Matrix ist die Maximalzahl von linear unabhängigen unter den Linearformen und e Aus der Dimensionsformel (siehe Theorem 1.82) finden wir d = n − r.  d = dim Kern A. Bemerkung 6.31 Sei P = {x ∈ V : h1 (x) ≥ c1 , . . . , hk (x) ≥ ck } ein Polyeder in einem endlichdimensionalen R-Vektorraum V mit dim P = n, und keine der Linearformen soll weggelassen werden können. Dann ist für jedes i ∈ {1, . . . , k} Si := P ∩ {x ∈ V : hi (x) = ci } eine Seite von P mit dim Si = n − 1. Dies folgt aus Satz 6.29.



Beispiel 6.32 Wir betrachten die Pyramide P ⊂ R3 der Höhe 1 über einem Einheitsquadrat, mit den Ecken p1 = (1, 1, 0)t, p2 = (2, 1, 0)t , p3 = (1, 2, 0)t, p4 = (2, 2, 0)t, p5 = (1.5, 1.5, 1)t . Ihre fünf Seitenflächen haben die Gleichungen

6.2 Polyeder

697

x3 x3 x3 x3 x3

= = = = =

0, ① 2x1 − 2, ② 2x2 − 2, ③ 4 − 2x1 , ④ 4 − 2x2 . ⑤

Um Theorem 6.30 zu verifizieren, wollen wir die Ecken der Pyramide identifizieren als Durchschnitte von je drei Seitenebenen zu linear unabhängigen Linearformen: Es gibt 5 = 10 solche Durchschnitte von drei Seitenebenen. Wir sehen also, dass die vier Ecken 3 in der Ebene ① sich eindeutig als Schnitt von drei Seiten ergeben, während die Spitze (1.5, 1.5, 1) durch vier verschiedene Schnitte dargestellt 4 werden kann, da sich dort nicht nur drei, sondern vier Seiten schneiden, so dass es 3 = 4 solche Darstellungsmöglichkeiten gibt. Solche Ecken werden später (siehe Definition 6.58) als entartet bezeichnet. Weitere zwei dieser Durchschnitte sind leer und führen daher zu keiner Ecke. ◦

(1.5, 1.5, 1)

⑤ ② (1, 2, 0)

(2, 2, 0) ④ ③

(1, 1, 0)

(2, 1, 0)



Tripel von Seitenflächen x3 = 0 2x1 − x3 = 2 x3 = 0 2x1 − x3 = 2 x3 = 0 2x1 − x3 = 2 x3 = 0 2x2 − x3 = 2 x3 = 0 2x2 − x3 = 2 x3 = 0 2x1 + x3 = 4 2x1 − x3 = 2 2x2 − x3 = 2 2x1 − x3 = 2 2x2 − x3 = 2 2x1 − x3 = 2 2x1 + x3 = 4 2x2 − x3 = 2 2x1 + x3 = 4

2x2 − x3 2x1 + x3 2x2 + x3 2x1 + x3 2x2 + x3 2x2 + x3 2x1 + x3 2x2 + x3 2x2 + x3 2x2 + x3

=2 =4 =4 =4 =4 =4 =4 =4 =4 =4

lin. unabh.? Durchschnitt ja (1, 1, 0) nein ∅ ja (1, 2, 0) ja (2, 1, 0) nein ∅ ja (2, 2, 0) ja (1.5, 1.5, 1) ja (1.5, 1.5, 1) ja (1.5, 1.5, 1) ja (1.5, 1.5, 1)

Abb. 6.5: Pyramide P und die Schnitte der Seitenflächen.

698

6 Polyeder und lineare Optimierung

Satz 6.33: Seiten-Anzahl Sei V ein n-dimensionaler R-Vektorraum. Es sei P ⊂ V ein n-dimensionales Polyeder. 1) Wenn P , V ist, so besitzt P Seiten der Dimension n − 1.

2) Falls d ≤ n − 2, ist jede d-dimensionale Seite von P auch Seite einer (d + 1)dimensionalen Seite.

Beweis: Wir nehmen o. B. d. A. an, dass V = Rn (durch Übergang zu einer Parametrisierung) und P = {x ∈ Rn : h1 (x) ≥ c1 , . . . , hk (x) ≥ ck } , wobei keine der Linearformen weggelassen werden kann. Zu 1): Wegen P , Rn muss es Ungleichungen hi (x) ≥ ci geben mit hi , 0, die nicht weggelassen werden können. Für jede von diesen ist P ∩ {x : hi (x) = ci } nach Bemerkung 6.31 eine Seite der Dimension n − 1. Zu 2): Sei S := P ∩ {x : hi1 (x) = ci1 , . . . , hil (x) = cil } eine Seite der Dimension d. Unter den Linearformen hi1 , . . . , hil gibt es dann r := n − d linear unabhängige, und nicht mehr. Wir wählen davon r − 1 linear unabhängige aus, etwa h j1 , . . . , h jr−1 . Dann ist S ′ := P ∩ {x : h j1 (x) = c j1 , . . . , h jr−1 (x) = c jr−1 } eine Seite von P der Dimension n − (r − 1) = d + 1. Nach Konstruktion gilt S ⊂ S ′ und S wird aus S ′ durch lineare Gleichungen ausgeschnitten. Damit ist S Seite von S ′ . 

6.2 Polyeder

699

Theorem 6.34: Ecken-Kriterien Sei V ein R-Vektorraum, dim V = n. Es sei P ⊂ V das Polyeder {x ∈ Rn : h1 (x) ≥ c1 , . . . , hk (x) ≥ ck }. Für einen Punkt p ∈ P sind äquivalent: (i) p ist eine Ecke von P;

(ii) unter den Linearformen h1 , . . . , hk gibt es n linear unabhängige, etwa hi1 , . . . , hin , mit {p} = {x ∈ V : hi1 (x) = ci1 , . . . , hin (x) = cin };

(iii) Es gibt eine Linearform h und ein c ∈ R derart, dass der Halbraum h(x) ≤ c das Polyeder P nur im Punkt p schneidet und h( p) = c gilt; (iv) Sind a, b ∈ P verschiedene Punkte derart, dass p = ta + (1 − t)b, 0 ≤ t ≤ 1, auf der Strecke ab liegt, so gilt schon p = a oder p = b.

Beweis: „(i) ⇔ (ii)“: Eine Ecke ist eine 0-dimensionale Seite. Die behauptete Äquivalenz ist genau Theorem 6.30 für die Dimension d = 0. „(ii) ⇒ (iii)“: Nach Voraussetzung gibt es Linearformen hi1 , . . . , hin unter den h1 , . . . , hk so, dass P ∩ {x : hi1 (x) = ci1 , . . . , hin (x) = cin } = {p} . Für alle anderen Punkte x ∈ P, x , p ist mindestens einer der Werte hiν (x) > ciν , ν = 1, . . . , n. Wir setzen nun h := hi1 + . . . + hin ,

c := ci1 + . . . + cin .

Dann ist h( p) = c und für alle anderen Punkte x ∈ P gilt h(x) > c. Der Halbraum h(x) ≤ c schneidet P nur im Punkt p. „(iii) ⇒ (iv)“: Es seien a, b ∈ P verschieden mit p ∈ ab, p , a und p , b. Nach (iii) ist dann also h(a) > c und h(b) > c. Daraus folgt h( p) = th(a) + (1 − t)h(b) > c , ein Widerspruch. „(iv) ⇒ (i)“: Weil p zu P gehört, gilt hi ( p) ≥ ci für i = 1, . . . , k. Es seien hi1 , . . . , hil diejenigen dieser Linearformen, für welche die Gleichheit hi ( p) = ci gilt. Für alle anderen ist dann also hi ( p) > ci . Der affine Raum, definiert durch hi1 (x) = ci1 , . . . , hil (x) = cil , enthält p. Es ist zu zeigen, das er die Dimension 0 hat. Andernfalls enthält er eine Gerade L durch p. Wegen hi ( p) > ci für i , i1 , . . . , il gibt es auf dieser Geraden eine Strecke p + y, p − y, die p enthält, mit hi (x) > ci für diese i und alle x auf dieser Strecke. Insbesondere gehört diese Strecke dann zu P, im Auch die Extremfälle l = 0 (keine ak-

700

6 Polyeder und lineare Optimierung

tiven Bedingungen) und l = k (nur aktive Bedingungen) können zu einem Widerspruch geführt werden.  Punkte einer Menge P, die die Eigenschaft (iv) erfüllen, heißen auch Extremalpunkte . Die Ecken sind also genau die Extremalpunkte eines Polyeders. Korollar 6.35 Jedes Polyeder hat nur endlich viele Ecken.

Beweis: Das Polyeder ist durch endlich viele Ungleichungen h i (x)  ≥ ci , i = 1, . . . , k, k definiert. Unter den Linearformen h1 , . . . , hk gibt es höchstens n Mengen von n linear unabhängigen Linearformen, die genau eine Ecke des Polyeders definieren.  k Ein Wort zur Warnung: Wenn k groß ist, dann ist auch n groß. Die Aufzählung aller Ecken eines Polyeders kann dann zu einem mit vertretbarem Aufwand nicht zu bewältigenden Problem werden. Satz 6.36: Polyeder mit Ecken Sei V ein n-dimensionaler R-Vektorraum. Für ein nicht leeres Polyeder P ⊂ V sind äquivalent: (i) Unter den Ungleichungen hi (x) ≥ ci , welche P beschreiben, gibt es n wofür die Linearformen hi linear unabhängig sind; (ii) P besitzt Seiten beliebiger Dimension kleiner als dim(P), insbesondere immer auch Ecken.

Beweis: „(i) ⇒ (ii)“: O. B. d. A.wurden bereits alle irrelevanten Bedingungen mithilfe des Satzes 6.29 entfernt. Als Vorbereitung zeigen wir: Ist dim P ≥ 1, besitzt P eine Seite S mit dim(S ) = dim(P) − 1. Es gibt also Punkte p, q ∈ P mit p , q. Wir betrachten die Gerade L, die von p und q aufgespannt wird. Unter den hi wählen wir nun n linear unabhängige, etwa h1 , . . . , hn . Das homogene LGS hi (x) = 0, i = 1, . . . , n, hat dann nur die Null-Lösung. Insbesondere gibt es dann ein h j mit h j (q − p) , 0. Es gibt also genau ein t ∈ R, so dass h j ( p + t(q − p)) = h j ( p) + th j (q − p) = c j . Also gibt es einen Punkt r ∈ L und eine Linearform h j mit {x : h j (x) = c j } ∩ L = {r}. Insbesondere liegt die Strecke pq nicht ganz in der Hyperebene H = {x : h j (x) = c j }. Dann liegt auch P nicht ganz in H, und S := P ∩ H ist eine Seite von P mit dim(S ) < dim(P). Wenn dim(S ) < dim(P) − 1 wäre, hätten wir h j bei der Definition von P nach Satz 6.29 weglassen können. Dies haben wir aber oben bereits ausgeschlossen.

6.2 Polyeder

701

Die Behauptung ergibt sich durch Induktion nach dim(P). Nach der Vorbereitung gilt die Behauptung für dim(P) = 1. Es gelte die Behauptung für alle Polyeder S mit dim(S ) < dim(P) = k. Nach der Vorbereitung hat P eine Seite S mit dim(S ) = dim(P) − 1. Nach Voraussetzung hat S Seiten Sl zu jeder Dimension l < k − 1. Nach Satz 6.28 sind die S l auch Seiten von P.  Die Richtung (ii) ⇒ (i) folgt sofort aus Theorem 6.34. Bemerkung 6.37 Polyeder können also auch rekursiv aufgebaut werden: Ist P , V dim P = n, so gilt nach Satz 6.33 [ ∂P = S . (6.12) S Seite von P dim S =n−1

Eine Seite S = {x ∈ P : h(x) = c} liegt in der Hyperebene H := {x ∈ V : h(x) = c} (als minimaler umfassender affiner Raum). Entweder liegt der Fall S = H vor, oder auf ∂S kann (6.12) mit n − 1 statt n angewendet werden. Nach Satz 6.36 kann bei n linear unabhängigen Linearformen hi so jeder Rand der entstehenden Seiten dargestellt werden, bis Dimension 0 erreicht ist. Gibt es nur k < n linear unabhängige Linearformen, ist eine der Seiten der Dimension n − k ein (n − k)-dimensionaler affiner Raum mit leerem Rand.△

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • • • •

Halbraum Polyeder, Dimension eines Polyeders dim(P) Simplex der Dimension m Schwerpunkt eines Simplex Inneres von P (int(P)), Rand von P (∂P) Seite, Kante, Ecke eins Polyeders

Zusammenhänge: • Das Simplex der Dimension m als Schnitt von m + 1 affinen Halbräumen (Theorem 6.20) • dim P = dim V ⇔ int(P) , ∅ (Satz 6.21) • Dimensionsformel Seite S eines Polyeders P (Theorem 6.30) • Charakterisierung einer Ecke (Theorem 6.34)

702

6 Polyeder und lineare Optimierung

Aufgaben Aufgabe 6.3 (G) Bestimmen Sie die Ecken des Polyeders (Hyperwürfel) W:

−1 ≤ xν ≤ 1 (1 ≤ ν ≤ n)

im Rn . Wie viele Ecken sind es? Aufgabe 6.4 (G) a) Bestimmen Sie die Seitenflächen der Simplizes S , S ′ ⊂ R3 mit den Ecken S : (1, 1, 1)t , (1, −1, −1)t , S ′ : (1, 1, −1)t , (1, −1, 1)t ,

(−1, 1, −1)t , (−1, −1, 1)t , (−1, 1, 1)t , (−1, −1, −1)t .

b) Bestimmen Sie die Ecken des Polyeders S ∩ S ′ ⊂ R3 . Aufgabe 6.5 (G) Bestimmen Sie die Ecken des Polyeders im R3 definiert durch x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 und a) x1 + x2 ≤ 1 , b) x1 + x2 ≥ 1 ,

x1 + x3 ≤ 1 , x1 + x3 ≥ 1 ,

x2 + x3 ≤ 1 , x2 + x3 ≥ 1 .

Aufgabe 6.6 (K) Bringen Sie durch Einführen von Schlupfvariablen die folgenden Systeme von Ungleichungen auf Gleichungsform vom Typ ! ! x x =b, ≥0 (A, 1m ) y y a) x1 + 2x2 ≥ 3 , x1 − 2x2 ≥ −4 , x1 + 7x2 ≤ 6 , b) x1 + x2 ≥ 2 , x1 − x2 ≤ 4 , x1 + x2 ≤ 7 .

Zeigen Sie, dass in a) eine Bedingung weggelassen werden kann, ohne das Polyeder zu verändern. Aufgabe 6.7 (T) Sei S das Simplex, das von den m + 1 Punkten p0 , . . . , pm erzeugt wird. Zeigen Sie induktiv, dass die d-dimensionalen Seiten des Simplex S genau die Simplizes sind, die von d + 1 dieser Punkte aufgespannt werden.

6.3 Beschränkte Polyeder

703

6.3 Beschränkte Polyeder Es gibt drei wesentlich verschiedene Typen von Polyedern: Ein Polyeder P kann • leer sein, seine definierenden Ungleichungen sind unverträglich, das lineare Ungleichungssystem ist unlösbar; • beschränkt sein; das ist der für die lineare Optimierung relevanteste Fall; • unbeschränkt sein, hier kann das LP entweder lösbar oder nicht lösbar sein (siehe Hauptsatz 6.48). Beispiel: In der Ebene R2 ist das Polyeder • P1 : x1 ≥ 0, x2 ≥ 0, −(x1 + x2 ) ≥ 1 leer; • P2 : x1 ≥ 0, x2 ≥ 0, −(x1 + x2 ) ≥ −1 nicht leer und beschränkt: Es ist das Dreieck mit den Ecken (0, 0), (1, 0), (0, 1); • P3 : x1 ≥ 0, x2 ≥ 0, −x2 ≥ −1 nicht leer, aber unbeschränkt. Dieses Polyeder enthält nämlich alle Punkte (x1 , 1/2) mit x1 ≥ 0.

Allgemein braucht der Begriff „beschränkt“ einen normierten Vektorraum (V, k · k) und ist in Definition C.10 definiert. Ist V endlichdimensional, dann sind alle Normen äquivalent (siehe Hauptsatz 7.10) und der Begriff ist unabhängig von der gewählten Norm. Für V = Rn können wir folglich immer z. B. kxk∞ := maxi=1,...,n kxi k wählen. Ein beschränktes Polyeder heißt auch Polytop . Definition 6.38 Sei V ein R-Vektorraum. Ein Strahl durch einen Punkt p ∈ V ist eine Menge {p+ ta : 0 ≤ t ∈ R} für einen Richtungsvektor a , 0. Ein Strahl ist also eine halbe Gerade, an deren einem Ende der Punkt p sitzt. Satz 6.39: Unbeschränkte Polyeder Sei (V, k . k) ein normierter R-Vektorraum. Es sei P das Polyeder {x : hi (x) ≥ ci , i = 1, . . . , k} und P , ∅. Dann sind äquivalent: (i) P ist unbeschränkt;

(ii) Es gibt einen Punkt p ∈ P und einen Strahl durch p mit Richtung a, der ganz in P verläuft; (iii) Es gibt einen Vektor 0 , a ∈ V mit hi (a) ≥ 0 für i = 1, . . . , k;

(iv) Durch jeden Punkt p ∈ P gibt es einen Strahl, der ganz in P verläuft.

Beweis: „(i) ⇒ (ii)“: Wir zeigen als Erstes: Es gilt Aussage (ii) oder ∂P ist unbeschränkt. Es gelte sodann Aussage (ii) nicht. Sei r > 0 beliebig. Nach Voraussetzung gibt es Punkte

704

6 Polyeder und lineare Optimierung

q ∈ P mit kqk > r. Zu dem Punkt q gibt es eine Richtung a(, 0) (gilt sogar für jede Richtung), so dass die Gerade L : q + Ra geschnitten mit P nicht einen Strahl umfassen kann, also gilt: L ∩ P kann parametrisiert werden durch ein beschränktes Intervall t ∈ [t0 , t1 ], t0 ≤ 0 ≤ t1 , d. h. L ∩ P = p0 p1 , wobei p0 = q + t0 a und p1 = q + t1 a und p0 , p1 zum Rand ∂P gehören. Wegen kqk > r muss kp0 k > r oder kp1 k > r gelten, da sonst wegen der Konvexität der (Norm-)Kugeln auch kxk ≤ r für alle x ∈ p0 p1 gelten würde, insbesondere daher kqk ≤ r. Daraus folgt, dass der Rand ∂P unbeschränkt ist. Demzufolge ist, falls Aussage (ii) nicht gilt, mindestens eine der (endlich vielen) Seiten von P unbeschränkt. Wir wählen eine dieser Seiten aus und interpretieren Sie als ein unbeschränktes Polyeder geringerer Dimension. Wenn wir dieses Vorgehen iterieren, steigen wir so lange Dimensionen herab, bis wir im (trivialen) eindimensionalen Fall einer unbeschränkten Kante die Aussage (ii) folgern können. „(ii) ⇒ (iii)“: Es sei p ∈ P und 0 , a ∈ V derart, dass der Strahl p + ta, t ≥ 0, ganz zu P gehört. Für i = 1, . . . , k bedeutet dies: hi ( p + ta) = hi ( p) + thi (a) ≥ ci

für alle t ≥ 0 .

Dann kann nicht hi (a) < 0 sein. „(iii) ⇒ (iv)“: Sei p ∈ P und a ∈ V mit hi (a) ≥ 0 für alle i. Für alle t ≥ 0 folgt daraus hi ( p + ta) = hi ( p) + thi (a) ≥ hi ( p) ≥ ci . Der ganze Strahl p + ta, t ≥ 0, gehört somit zu P. „(iv) ⇒ (i)“: Ist offensichtlich: Wenn es unendlich lange Strahlen in P gibt, dann kann P selbst nicht beschränkt sein.  Satz 6.40: Beschränkte Polyeder Sei (V, k . k) ein normierter R-Vektorraum.

1) Jedes beschränkte n-dimensionale Polyeder hat mindestens n + 1 Seiten der Dimension n − 1. 2) Jedes beschränkte Polyeder hat Ecken.

Beweis: Zu 1): Es sei P = {x : hi (x) ≥ ci }, i = 1, . . . , k, wobei keine der Bedingungen irrelevant ist. Nach Theorem 6.30 ist dann jede Menge P ∩ {x : hi (x) = ci } eine (n − 1)dimensionale Seite von P. Im Fall k ≥ n+1 ist daher die Behauptung bewiesen. Wir zeigen, dass der Fall k ≤ n nicht auftreten kann, d. h. P dann unbeschränkt ist. Die Lösungsmenge des LGS h1 (x) = 0, . . . , hk−1 (x) = 0 ist dann ein Untervektorraum der Dimension ≥ 1. Er enthält einen Vektor a , 0, für den wir o. B. d. A. hk (a) ≥ 0 annehmen können. Dann ist die Bedingung (iii) aus Satz 6.39 erfüllt und damit P unbeschränkt.

6.3 Beschränkte Polyeder

705

Zu 2): Weil nach 1) jedes beschränkte Polyeder P beschränkte Seiten der Dimension dim(P) − 1 besitzt, folgt die Behauptung durch Rekursion nach dim(P).  Beispiel 6.41 Im letzten Abschnitt haben wir die verschiedenen Möglichkeiten für den Durchschnitt einer Geraden L : a + Ru mit einem Polyeder P diskutiert. Sei L ∩ P , ∅. Wenn P beschränkt ist, kann dieser Durchschnitt nicht die ganze Gerade sein, auch kein Strahl auf L. Deswegen wird L ∩ P durch die Parameter t in einem beschränkten abgeschlossenen Intervall [a, b] ⊂ R definiert. Für pa := a + au und pb := a + bu ist hi ( pa ) ≥ ci , hi ( pb ) ≥ ci , i = 1, . . . , k . Es gibt Indizes 1 ≤ i, j ≤ k mit hi ( pa ) = ci , h j ( pb ) = c j .

(6.13)

Die Punkte pa und pb gehören folglich zum Rand ∂P.



Theorem 6.42: beschränktes Polyeder = conv(Ecken) Sei (V, k . k) ein normierter R-Vektorraum. Jedes beschränkte Polyeder ist die konvexe Hülle seiner (endlich vielen) Ecken.

Beweis: Nach Satz 6.13 ist jedes Polyeder konvex. Es enthält seine Ecken und damit die konvexe Hülle dieser Ecken. Wir müssen noch die Umkehrung zeigen: Jedes beschränkte Polyeder P ist in der konvexen Hülle seiner Ecken enthalten. Dies geschieht durch vollständige Induktion nach der Dimension von P. Ein null-dimensionales Polyeder ist ein Punkt, daher ist nichts zu zeigen. Für den Induktionsschluss sei nun P ein Polyeder der Dimension n > 0. Jeder Punkt x ∈ ∂P des Randes liegt nach Theorem 6.30 in einem beschränkten Polyeder P′ ⊂ P kleinerer Dimension. Nach Induktionsannahme ist x in der konvexen Hülle der Ecken von P′ enthalten. Und nach Satz 6.28 sind die Ecken von P′ auch Ecken von P. Damit ist die Behauptung für x ∈ ∂P bewiesen. Sei nun x ∈ int(P). Wir wählen eine Gerade L in V durch x, etwa L : x + Ru mit einem Vektor 0 , u ∈ V. Nach (6.7) bzw. (6.13) (hier ist x ∈ L ∩ P und damit ist L ∩ P nicht leer) gibt es Parameter a < 0 < b ∈ R , deren zugehörige Punkte pa und pb auf L zum Rand ∂P gehören. Deswegen sind beide Punkte eine Konvexkombination von Ecken und so ist gleichermaßen x ∈ pa pb . 

706

6 Polyeder und lineare Optimierung

Definition 6.43 Sei V ein R-Vektorraum. Es sei M ⊂ V eine Menge und q ∈ V ein Punkt. Der Kegel über M mit Spitze q ist die Vereinigung aller von q ausgehenden Strahlen durch Punkte von M. In Zeichen: [ coneq (M) := {q + s( p − q) : p ∈ M, 0 ≤ s ∈ R} . Die Definition wird in Abbildung 6.6 illustriert. Bemerkungen 6.44 1) Es ist coneq (M) = q + cone0 (M − q) , so dass man sich nur auf q = 0 beschränken kann. Dabei ist M − q = {x − q : x ∈ M}.

2)

  k   X     cone0 (conv(M)) =  p∈V : p= ti pi , pi ∈ M, ti ≥ 0 .     i=1

Das kann man folgendermaßen einsehen: Die Beziehung „⊂“ ist klar, da eine Linearkombination mit nicht negativen Koeffizienten mit einem nicht negativen Faktor multipliziert wird. Für „⊃“ sei p=

k X

ti pi ,

i=1

also entweder t :=

Wegen

Pk

i=1 si

Pk

i=1 ti

pi ∈ M, ti ≥ 0 ,

= 0 und damit p = 0 oder X 1 p= si pi =: p˜ , t i=1 k

wobei si :=

ti ≥ 0. t

= 1 ist also p˜ ∈ conv(M) und damit p ∈ cone0 (conv(M)) .

3) Ist M := {a(1) , . . . , a(n) } ⊂ Rm und A := (a(1) , . . . , a(n) ) ∈ R(m,n) , so folgt aus 2) cone0 (conv({a(1) , . . . , a(n) }) = {p ∈ Rm : p = Ax für x ∈ Rn , x ≥ 0} . 4) coneq (M1 ∪ M2 ) = coneq (M1 ) ∪ coneq (M2 ) für q ∈ V, M1 , M2 ⊂ V.

5) coneq (coneq (M)) = coneq (M) für q ∈ V, M ⊂ V.



6.3 Beschränkte Polyeder

707

Satz 6.45: cone conv = conv cone Sei V ein R-Vektorraum. Es sei M ⊂ V eine Menge und q ∈ V ein Punkt. Der Kegel über der konvexen Hülle von M mit Spitze q ist dann dasselbe wie die konvexe Hülle des Kegels über M mit Spitze q, d. h. coneq (conv(M)) = conv(coneq (M)) . Insbesondere ist ein Kegel über einer konvexen Menge auch konvex.

Beweis: „cone conv ⊂ conv cone“: Ein Punkt x gehört zum Kegel über conv(M), wenn er von der Form x = q + s( p − q) mit 0 ≤ s ∈ R und p=

k X i=1

ti pi ∈ conv(M)

0 ≤ ti ∈ R,

X

ti = 1,

pi ∈ M

ist. Wir haben deshalb X X X X  x= q+s ti pi − q = q + s ti ( pi − q) = ti (q + s( pi − q)) = ti xi .

Damit ist x eine Konvexkombination von Punkten xi = q + s( pi − q),

0 ≤ s ∈ R,

pi ∈ M ,

aus coneq (M) und gehört zur konvexen Hülle conv(coneq (M)). „conv cone ⊂ cone conv“: Jeder Punkt x in der konvexen Hülle des Kegels coneq (M) ist eine Konvexkombination endlich vieler Punkte

M

q

p

Abb. 6.6: Der Kegel über M mit Spitze q.

708

6 Polyeder und lineare Optimierung

xi = q + si ( pi − q),

0 ≤ si ∈ R,

pi ∈ M, i = 1, . . . , k ,

P aus diesem Kegel. Es gibt mithin 0 < ti ∈ R mit ti = 1 (welche hier O. B. d. A.alle ungleich 0 gewählt werden, da sie ansonsten nicht in die Konvexkombination eingehen) so, dass X X X X x= ti xi = ti (q + si ( pi − q)) = (1 − ti si )q + ti si pi .

P Falls hier ti si = 0 ist, sind aufgrund der Voraussetzung ti > 0 an die Konvexkombinationparameter schon alle si = 0, also sind alle xi schon identisch gleich q, der Spitze des Kegels P und die Aussage x ∈ conv coneq (M) gilt trivialerweise. Andernfalls ist s := ti si > 0 und wir können schreiben: X ti si p . x = (1 − s)q + s s i Hier gilt

ti si ≥ 0, s

X ti si s

=1.

P Deswegen gehört (ti si /s) pi zur konvexen Hülle conv(M) und x zum Kegel über dieser konvexen Hülle mit Spitze q.  Definition 6.46 Sei V ein R-Vektorraum. Es sei P ein Polyeder und p ∈ P eine seiner Ecken. Weiter seien K1 , . . . , Kl ⊂ P die von p ausgehenden Kanten des Polyeders P, d. h. p ∈ Ki . Wenn eine Kante Ki durch p eine Strecke ist mit pi ∈ Ki und p , pi , so nennen wir S i := {p+ s( pi − p) : 0 ≤ s ∈ R} den durch Ki definierten, von p ausgehenden, Strahl. Wenn Ki keine Strecke ist, ist diese Kante selbst ein von p ausgehender Strahl S i . Alle diese Strahlen S i , i = 1, . . . , l, nennen wir die von p ausgehenden durch Kanten von P definierten Strahlen.

Satz 6.47: Polyeder ⊂ conv (ausgehende Strahlen) Sei (V, k . k) ein normierter R-Vektorraum. Es sei P ⊂ V ein Polyeder, P habe mindestens eine Ecke, p ∈ P sei eine seiner Ecken. Es seien S˜ i = {x ∈ P : hi (x) = ci }, i = 1, . . . , n, die n − 1-dimensionalen Seiten des Polyeders durch den Punkt p, wobei die hi linear unabhängig sind für i = 1, . . . , n. Weiter seien S 1 , . . . , S k die von p ausgehenden Strahlen. Dann gilt: S 1) Das Polyeder P liegt in der konvexen Hülle von S˜ i . S 2) Das Polyeder P liegt in der konvexen Hülle von S i .

6.3 Beschränkte Polyeder

709

Beweis: Zu 1): Sei n = dim P. O. B. d. A. nehmen wir dim P = dim V an. Es ist p ∈ P eine Ecke, also gegeben durch hi (x) = ci , i = 1, . . . , n. Durch Sei Q das durch Q := {x ∈ V : hi (x) ≥ ci , i = 1, . . . , n} definierte Polyeder mit Dimension n, dann gilt offensichtlich P⊂Q. Wir zeigen  k  [   ˜ Q = conv  S i  =: S i=1

und damit

(6.14)

P⊂S , was der Aussage 1) entspricht. „S ⊂ Q“: Se :=

k [ i=1

Sei ⊂ P ⊂ Q

und damit auch S = conv Se ⊂ Q (nach Satz 6.8, 2)). „Q ⊂ S “: Sei j ∈ {1, . . . , n}. Das lineare Gleichungssystem

hi (x) = 0, i ∈ {1, . . . , n} \ { j} hat einen mindestens eindimensionalen Lösungsraum und damit eine Lösung q j , 0. O. B. d. A. kann h j (q j ) > 0 angenommen werden. Für die Punkte p j := p + αq j , α > 0 gilt sodann hi ( p j ) = ci für i , j,

h j( pj) > c j .

Damit gehört p j zu einem von p ausgehenden Strahl, im Sinn von Definition 6.46, wenn eventuell α verkleinert wird, denn p j und damit der Strahl durch p und p j gehören nicht nur zu Q, sondern auch zu P, da durch Verkleinerung von α die übrigen P definierenden Ungleichungen, für die hk ( p) > ck gilt, auch von p j erfüllt werden. Die Menge M := {p0 , p1 , . . . , pn } mit p0 := p ist affin unabhängig, denn sonst ließe sich ein p j als Affinkombination der anderen schreiben: pj =

n X

i=0,i, j

ti pi ,

n X

i=0,i, j

ti = 1 .

710

6 Polyeder und lineare Optimierung

Ist j , 0, so folgt

n X

h j( pj) =

ti h j ( pi ) = c j

i=0,i, j

im Widerspruch zur Konstruktion. Ist j = 0, dann folgt n X

ti qi = 0, wobei

i=1

n X

ti = 1 .

i=1

Einsetzen in h j liefert den Widerspruch t j = 0 für alle j. Somit bildet M eine affine Basis von V und q ∈ Q lässt sich darstellen durch q = p+

n X i=1

ti ( pi − p) mit ti ∈ R .

Abschließend für Q ⊂ S ist noch ti ≥ 0 für alle i = 1, . . . , n zu zeigen. Es ist für alle i = 1, . . . , n hi (q) = hi ( p) + α

n X j=1

t j hi (q j ) = ci + αti hi (qi ) ≥ ci

und wegen hi (qi ) > 0 muss ti ≥ 0 gelten, also ist Aussage 1) gezeigt.

Zum Beweis von Aussage 2) wenden wir Aussage 1) rekursiv an, wie im Beispiel eines dreidimensionalen Polyeders beispielhaft erläutert: Sei P ein Polyeder und p eine seiner Ecken. Dann ist P nach 1) in der konvexen Hülle seiner (zweidimensionalen) Seiten enthalten. Nun betrachten wir jede dieser Seiten wiederum als Polyeder P′ in ihrem jeweiligen zweidimensionalen umgebenden affinen Raum. Klar ist, dass p wieder eine Ecke dieses niederdimensionalen Polyeders P′ ist. Wir wenden wiederum Aussage 1) an, sodass P′ in der konvexen Hülle seiner (nunmehr eindimensionalen) Seiten liegt. Insgesamt liegt P also in der konvexen Hülle seiner eindimensionalen Seiten (seiner Kanten). 

Aufgaben

711

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • •

Beschränkte bzw. unbeschränkte Polyeder Strahl durch p mit Richtung a Kegel über M mit Spitze q Von einer Ecke ausgehender Strahl

Zusammenhänge: • Ein beschränktes n-dimensionales Polyeder hat mindestens n + 1 Seiten der Dimension n − 1 und insbesondere Ecken (Satz 6.40) • Ein beschränktes Polyeder ist die konvexe Hülle seiner Ecken (Theorem 6.42) • cone(conv) = conv(cone) (Satz 6.45)

Aufgaben Aufgabe 6.8 (K) Welches der beiden Polyeder aus Aufgabe 6.5 ist beschränkt, welches unbeschränkt? (Beweis!) Aufgabe 6.9 (T) Sei V ein R-Vektorraum, M1 , M2 ⊂ V und q ∈ V.

a) Man zeige: coneq (M1 ∪ M2 ) = coneq (M1 ) ∪ coneq (M2 ). b) Gilt auch coneq (M1 ∩ M2 ) = coneq (M1 ) ∩ coneq (M2 )? Geben Sie einen Beweis oder ein Gegenbeispiel an.

Aufgabe 6.10 (T) Sei V ein R-Vektorraum, M ⊂ V. Zeigen Sie, dass cone0 (M) genau dann konvex ist, falls x, y ∈ cone0 (M) ⇒ x + y ∈ cone0 (M) gilt.

712

6 Polyeder und lineare Optimierung

6.4 Das Optimierungsproblem Das Problem der linearen Optimierung nach (6.3) (oder (6.2)) lautet: Gegeben ist ein Polyeder P ⊂ Rn und ein lineares Funktional f : Rn → R. Gesucht ist ein Punkt p ∈ P, in dem f ( p) den Minimalwert unter allen Werten f (x), x ∈ P, annimmt.

Sei f (x) = ct x, dann ist f konstant auf U1 := a + c⊥ für beliebiges a ∈ V und auf U2 := a + Rc gilt f (a + rc) = ct a + rkck22 ,

d. h. f ist auf U2 (nach oben und unten) unbeschränkt. Auf einer Strecke bc in U2 werden die Extrema in c und b angenommen (oder der Funktionswert von f auf der Strecke bc ist konstant, falls diese senkrecht auf c steht). Für ein Polyeder gilt also: Ist P ⊂ U1 für ein a ∈ V, d. h. f ist konstant auf P, gilt trivialerweise inf f (x) = inf f (x) . x∈P

x∈∂P

(6.15)

Ist P ∩ U2 , ∅ für ein a ∈ V, so ist nach Beispiel 6.15 P ∩ U2 eine Strecke, ein Strahl oder eine Gerade. Im ersten Fall nimmt f das Minimum auf P ∩ U2 in einem Randpunkt an, im zweiten Fall ebenfalls oder f ist auf P ∩ U2 unbeschränkt, was im dritten Fall immer zutrifft. Insbesondere gilt also: Ist inf x∈∂P f (x) > −∞, so gilt (6.15). Hauptsatz 6.48: Minimum auf Rand Sei (V, k . k) ein normierter R-Vektorraum. Es seien ∅ , P ⊂ V ein Polyeder mit mindestens einer Ecke und f : V → R linear. Sei E ⊂ P die Menge der Ecken und K ⊂ P die Vereinigung der Kanten. 1) Ist P beschränkt, dann gibt es eine Ecke p ∈ P, in der f das Minimum aller seiner Werte auf P annimmt, d. h. für alle x ∈ P ist f ( p) ≤ f (x).

2) Ist P unbeschränkt und

inf f (x) > −∞

x∈K

liegt die gleiche Situation wie bei einem beschränkten Polyeder vor, d. h. min f (x) = min f (x) = min f (x) = f ( p) x∈P

x∈E

x∈K

für ein p ∈ P.

3) Der verbleibende Fall P unbeschränkt,

inf f (x) = −∞

x∈K

6.4 Das Optimierungsproblem

713

ist dadurch gekennzeichnet, dass es eine Kante gibt, entlang der f beliebig kleine Werte annimmt. Insgesamt gilt somit inf f (x) = inf f (x) = −∞ . x∈P

x∈K

Beweis: Fall 1): Sei P beschränkt und m := inf p∈E f ( p). Da die Anzahl der Ecken endlich ist nach Korollar 6.35, gilt m > −∞ und es gibt eine Ecke p von P, so dass m = f ( p) , d. h. in p wird das Minimum auf E angenommen. Da P beschränkt ist, so ist nach TheoP P rem 6.42 jeder Punkt x ∈ P eine Konvexkombination si pi , si ≥ 0, si = 1, von Ecken pi des Polyeders P. Also: X f (x) = si f ( pi ) ≥ m . (6.16)

Fall 2: Sei P unbeschränkt, m := inf p∈E f ( p) und k := inf x∈K f (x) > −∞. Es gilt a priori schon k ≤ m. Dann gilt für die endlich vielen Kanten K1 , . . . , Kl von P (es gilt K = Sl i=1 Ki ): k = min inf f (x) =: min ki . i=1,...,l x∈Ki

i=1,...,l

Da k > −∞, so sind auch die ki > −∞ für alle i = 1, . . . , l und weiter: Ist Ki eine beschränkte Kante, etwa Ki = pa pb für Ecken pa , pb ∈ P, dann gilt für y ∈ Ki , y = (1 − s) pa + spb f (y) = (1 − s) f ( pa ) + s f ( pb ) ≥ m, also ki ≥ m . Ist Ki unbeschränkt mit Ecke p ∈ P, d. h. y ∈ Ki genau dann, wenn y = p + t(q − p), t ≥ 0 für ein q ∈ Ki , dann ist  f (y) = f ( p) + t f (q) − f ( p) ≥ ki

und damit notwendigerweise f (q) ≥ f ( p) und

f (y) ≥ f ( p) ≥ m, also ki ≥ m, und insgesamt k = m. Es fehlt noch für unbeschränkte Polyeder der Nachweis von inf f (x) = min f (x) = k x∈P

x∈Ki

für eine Kante Ki . Nach der Vorüberlegung (6.15) gilt: Die definierenden Ungleichungen hi (x) ≥ ci enthalten o. B. d. A. maximal k ≤ n linear unabhängige, deren Funktionale o. B. d. A. h1 , . . . , hk seien. (Da eine unbeschränkte Kante zu ∂P gehört, ist nach Satz 6.36 k ≥ 2). Nach Satz Satz 6.36 enthält ∂P mindestens eine (k − 1)-dimensionale Seite, seien S 1 , . . . , S l diese Seiten. Dann gilt für ein j ∈ {1, . . . , l}

714

6 Polyeder und lineare Optimierung

inf f (x) = inf f (x) .

x∈∂S

x∈S j

Diese Argumentation kann für S i fortgesetzt werden bis schließlich inf f (x) = inf f (x) = k

x∈∂S

x∈Ki

für eine Kante Ki .



Bemerkung 6.49 Die Existenz einer Ecke ist notwendig, wie das folgende Beispiel zeigt: V = R2 , P = {(x1 , x2 ) ∈ R2 : x2 ≥ 0}, f (x) = −x2 . Folglich inf x∈P f (x) = −∞, inf x∈K f (x) = 0. △ Definition 6.50 Sei (V, k . k) ein normierter R-Vektorraum. Die Ecke p eines Polyeders P heißt optimal für die Linearform f , wenn f ( p) ≤ f (x) für alle x ∈ P. Hauptsatz 6.48 sagt aus, dass jedes beschränkte Polyeder zu jeder Linearform f eine (oder mehrere) optimale Ecke(n) hat. Der folgende Satz zeigt, wie man optimale Ecken erkennt, ausgehend von den Ungleichungen, welche das Polyeder definieren. Satz 6.51: Optimale Ecke Sei V ein R-Vektorraum. Das n-dimensionale Polyeder P sei durch die Ungleichungen hi (x) ≥ ci , i = 1, . . . , k, definiert. Für die Ecke p ∈ P gelte hi j ( p) = ci j , j = 1, . . . , n, wobei die Linearformen hi1 , . . . , hin wie im Eckenkriterium Theorem 6.34 (ii) linear unabhängig sind. Dann ist f = a1 hi1 + . . . + an hin eine (eindeutig bestimmte) Linearkombination dieser Linearformen. Gilt hier ai ≥ 0 für alle i = 1, . . . , n, so ist p optimal für f . P P P Beweis: Aus f = a j hi j folgt f ( p) = a j hi j ( p) = a j ci j . Für alle x ∈ P ist hi (x) ≥ ci . Damit erhalten wir für alle x ∈ P unter der Voraussetzung ai ≥ 0 für i = 1, . . . , n X X f (x) = a j hi j (x) ≥ a j ci j = f ( p) . 

6.4 Das Optimierungsproblem

715

Die folgende Bemerkung ist entscheidend für das Auffinden optimaler Ecken: Theorem 6.52: Kantenabstieg Sei V ein normierter R-Vektorraum. Es sei P ⊂ V ein Polyeder mit mindestens einer Ecke und p ∈ P eine seiner Ecken. Wenn p nicht optimal für f ist, dann gibt es eine von p ausgehende Kante K, auf welcher f echt absteigt. Das heißt, für alle q ∈ K, q , p ist f (q) < f ( p).

Beweis: Weil p nicht optimal für f ist, gibt es ein x ∈ P mit f (x) < f ( p). Nach Satz 6.47 gehört x ∈ P zur konvexen Hülle der von p ausgehenden Strahlen, die eine Kante mit p enthalten, d. h. sei pi eine weitere Ecke der Kante i von S i : p + si ( pi − p),

0 ≤ si ∈ R .

Enthält S i keine weitere Ecke, so wird pi , p und pi ∈ S i beliebig gewählt. P Dann wird für geeignete ti ≥ 0 mit ti = 1: X X f (x) = ti f ( p + si ( pi − p)) = f ( p) + ti si ( f ( pi ) − f ( p)) .

Falls hier f ( pi ) ≥ f ( p) für alle Punkte pi gelten würde, so wäre wegen si , ti ≥ 0 f (x) ≥ f ( p) im Widerspruch zur Wahl von x. Es gibt also ein i mit f ( pi ) < f ( p). Für alle q = p+ s( pi − p), s > 0, auf dem Strahl S i ist dann f (q) = (1 − s) f ( p) + s f ( pi ) < (1 − s) f ( p) + s f ( p) = f ( p) .



Damit wurden – für die allgemeine Form eines Polyeders – alle Vermutungen gerechtfertigt, von denen in der Grundform (der Phase II) des Simplex-Verfahrens ausgegangen wurde: • Es reicht eine Beschränkung auf Ecken und verbindende Kanten eines Polyeders, da das Minimum – sofern es existiert – in einer Ecke angenommen wird (Hauptsatz 6.48) oder entlang einer Kante beliebig abgestiegen werden kann. • Terminiert das Verfahren, da kein weiterer Abstieg entlang einer Kante möglich ist, ist ein Minimum erreicht (Theorem 6.52). • Existiert kein Minimum, macht sich dies durch eine Kante bemerkbar, entlang der das Funktional beliebig absteigt. Da P nur endlich viele Ecken hat, terminiert das Verfahren erfolgreich, wenn sichergestellt wird, dass jede Ecke wirklich zugunsten einer Ecke mit kleinerem Funktionalwert verlassen wird und das unabhängig vom Auswahlkriterium für die „Abstiegsecke“. Dies ist nicht der Fall, wenn die Ecke nicht verlassen und nur zu einer anderen Darstellung übergegangen wird. Die Vermeidung eines solchen Verhaltens ist ein großes theoreti-

716

6 Polyeder und lineare Optimierung

sches Problem, das aber in der konkreten Anwendung beherrschbar ist. Aber selbst wenn dieser Fall ausgeschlossen werden kann, ist die Anzahl der Ecken so groß (siehe Text nach Korollar 6.35), dass dies im schlechtesten Fall zu einem Aufwand (in Elementaroperationen) wie O(exp(n)) (!) führen kann im Gegensatz zum Lösen eines LGS mit dem GaussVerfahren mit einem Aufwand von O(n3 ). Tatsächlich verhalten sich aber entsprechende Versionen des Simplex-Verfahrens „im Mittel“ / „in der Praxis “ ähnlich polynomial . Ab jetzt beschränken wir uns in der Formulierung auf den Fall V = Rn . Satz 6.53 Es sei ∅ , P ⊂ Rn ein Polyeder. Dann sind äquivalent: (i) P besitzt eine Ecke.

(ii) Es gibt eine Affinität T : Rn → Rn , welche P auf ein Polyeder der Form Ax ≤ b, x ≥ 0, abbildet und x = 0 als Ecke hat.

Beweis: „(i) ⇒ (ii)“: Es sei p ∈ P eine Ecke. Dann gibt es n linear unabhängige Linearformen in den P definierenden Ungleichungen, etwa h1 , . . . , hn mit {p} = P ∩ {x ∈ Rn : hi (x) = ci , i = 1, . . . , n}. Die Abbildung T : Rn → Rn ,

x 7→ (hi (x) − ci )i=1,...,n

ist eine Affinität. Unter T wird P in die Menge {x ∈ Rn : x ≥ 0} abgebildet und T (P) ⊂ Rn ist ein Polyeder nach Bemerkungen 6.14, 5). Die Ungleichungen, welche zusammen mit x ≥ 0 dieses Polyeder definieren, schreiben wir (nach Vorzeichen-Umkehr) in der Form (ai . x) ≤ bi , i = 1, . . . , m, oder zusammengefasst Ax ≤ b. „(ii) ⇒ (i)“: Sei S = T −1 , d. h. S ist eine Affinität. Damit ist P = S ({x ∈ Rn : Ax ≤ b, x ≥ 0}) ein Polyeder nach Bemerkungen 6.14, 5) und die Ecke x = 0 wird auf die Ecke d := S (0) abgebildet nach Bemerkungen 6.27, 5). In der Situation von Satz 6.53 ist äquivalent: (i) x = 0 ist Ecke, (ii) b ≥ 0, denn: „(i) ⇒ (ii)“: b ≥ A0 = 0 „(ii) ⇒ (i)“: A0 = 0 ≤ b, d. h. 0 ∈ P und 0 ist Ecke, da die n linear unabhängigen Bedingungen xi = 0 erfüllt sind.



6.4 Das Optimierungsproblem

717

Satz 6.54: Optimale Ecke Sei f : Rn → R linear, A ∈ R(m,n) für m < n, b ∈ Rm . Nimmt die Funktion f auf dem Polyeder P := {x ∈ Rn : Ax ≤ b, x ≥ 0} ,

(6.17)

ihr Minimum an, so tut sie es auch in einer Ecke p = (pν ) ∈ P, in der mindestens n − m Koordinaten pν = 0 sind.

Beweis: Jede Ecke p ∈ P ist durch n linear unabhängige Gleichungen n X

aµ,ν xν = bµ (µ = 1, . . . , m),

xν = 0 (ν = 1, . . . , n)

ν=1

definiert. Weil davon höchstens m Gleichungen die Form müssen mindestens n − m von der Form xν = 0 sein.

P

ν

aµ,ν xν = bµ haben können, 

Wie schon in der Einleitung von Kapitel 6 dargestellt, erhält man schließlich aus (6.17) durch Einführung von Schlupfvariablen das Optimierungsproblem in der Normalform  f (x) = min! (Kostenfunktional)       x   = b (Restriktionen)  (A, 1m ) y   !    x    (Vorzeichenbedingungen)  y ≥0

(6.18)

Hier ist A eine reelle m × n-Matrix, weiter x ∈ Rn und y ∈ Rm . Ersetzt man in dieser Notation die Matrix (A, 1m ) durch die neue m × (m + n)-Matrix A′ und das Tupel (xt , yt )t der Vektoren durch den neuen Vektor x′ ∈ Rm+n , so nehmen diese Bedingungen die komprimierte Form A′ x′ = b,

x′ ≥ 0

an. Dies ist der Spezialfall A′ = (A, 1m ) der allgemeineren, „komprimierten Form“ Az = b,

z ∈ Rl , z ≥ 0 ,

(6.19)

wobei A eine m × l-Matrix ist. Die Matrix A kann keinen größeren Rang als die Anzahl l ihrer Spalten haben. Sei nun r := Rang(A) ≤ l. Falls Rang(A, b) > r ist, dann ist das LGS unlösbar (weil b nicht im Spaltenraum von A liegt), das betrachtete Polyeder ist also leer. Wir können also Rang(A, b) = r annehmen. Falls m > r ist, enthält (A, b) Zeilen, welche von den anderen linear abhängig sind. Solche Zeilen können wir sukzessive weglassen, ohne die Lösungsmenge des LGS zu verändern, d. h. wir können o. B. d. A. r = m

718

6 Polyeder und lineare Optimierung

annehmen. Gilt jetzt m = l, so hat das LGS nur eine einzige Lösung, ein uninteressanter Fall. Wir können deswegen für ein Problem in komprimierter Form immer Rang(A) = m, und m < l annehmen. Da die Gleichungen mit −1 multipliziert werden können, kann bei der Form (6.19) o. B. d. A. b ≥ 0 angenommen werden. Sind o. B. d. A. die m Spalten l − m + 1, . . . , n linear unabhängig, zerfällt Az = b in AB y′ + AN x′ = b  mit invertierbaren AB ∈ R(m,m) , z = x′t , y′t t , so dass mit A′ := A−1 B AN ,

b′ := A−1 B b

die Gestalt (6.18) erreicht wird, allerdings im Allgemeinen ohne b′ ≥ 0. Die verschiedenen Formen der Bedingungen sind noch einmal in Abbildung 6.7 zusammengefasst.

1) ohne Schlupf

Ax ≤ b,

x≥0

2) mit Schlupf

(A, 1m )

! x = b, y

3) komprimiert

Az = b,

z≥0

! x ≥0 y

A : m × n, b ≥ 0 ⇔ x = 0 ist Ecke A : m × n, x ∈ Rn , y ∈ Rm , b ≥ 0 ⇔ x = 0 ist Ecke

A : m × l, l > m, Rang(A) = m, o. B. d. A. b ≥ 0

Abb. 6.7: Verschiedene Normalformen eines Polyeders.

Aufgaben

719

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Optimale Ecke • Normalform eines LP • Komprimierte Normalform eines LP

Zusammenhänge:

• Infimum einer Linearform auf Polyeder P = Infimum auf Kanten (= Infimum auf Ecken, wenn P beschränkt) (Hauptsatz 6.48) • Nichtoptimale Ecke ⇒ Abstieg auf Kante (Theorem 6.52) • Existenz von Ecken (Satz 6.53)

Aufgaben Aufgabe 6.11 (K) Gegeben sei ein Polyeder P ⊂ R3 durch x1 ≥ 0 ,

x2 ≥ 0 ,

x3 ≥ 0 ,

x1 ≤ 1 + x2 + x3 .

a) Bestimmen Sie alle Ecken von P. b) Nimmt die Funktion f (x) = x1 − x2 − 2x3 auf P ein Maximum oder Minimum an? Bestimmen Sie gegebenenfalls einen Punkt p ∈ P, wo dies der Fall ist. Aufgabe 6.12 (K) Lösen Sie die vorhergehende Aufgabe für das Polyeder x1 ≥ 0 ,

x2 ≥ 0 ,

x3 ≥ 0 ,

x3 ≥ x1 + 2x2 − 1

und f (x) := 2x3 − x1 . Aufgabe 6.13 (K) Drei Zementhersteller Z1 , Z2 und Z3 beliefern zwei Großbaustellen G1 , G2 . Die tägliche Zementproduktion und der Bedarf in Tonnen sind Z1 Z2 Z3 G1 G2 20 30 50 40 60 Die Transportkosten in Euro betragen pro Tonne von Zi nach G j Z1 Z2 Z3 G1 70 20 40 G2 10 100 60 Formulieren Sie das Problem, die täglichen Transportkosten zu minimieren in der Standardform f (x) = min ,

Ax = b ,

x≥0.

720

6 Polyeder und lineare Optimierung

6.5 Ecken und Basislösungen Wir betrachten nun ein Optimierungsproblem (LP), dessen Bedingungen in der komprimierten Normalform gegeben sind. Zu minimieren ist darum f (x) = cx

(LP)

x ∈ P := {x ∈ Rn : Ax = b , x ≥ 0} ,

(6.20)

unter der Restriktion

wobei die m×n-Matrix A den Rang m hat unter Annahme von n > m (dies ist für Probleme in komprimierter Form immer möglich, wie am Ende des letzten Abschnitts bewiesen). Zur Vereinfachung der Notation wird in diesem und dem nächsten Abschnitt c im Zielfunktional als Zeile c ∈ R(1,n) und nicht als Spalte aufgefasst. Wir können o. B. d. A. davon ausgehen, dass b≥0. Wir haben demzufolge ein inhomogenes LGS, das zwar immer lösbar, aber nicht immer eindeutig lösbar ist. Definition 6.55 Es werde ein Polyeder P von der Form (6.20) betrachtet. Eine Basis (im Sinn dieses Kapitels) ist eine Menge von m Spaltenvektoren a( j) der Matrix A, die eine Basis für den Spaltenraum dieser Matrix bilden, mit Anzahl m = Rang(A). Die Menge der m zugehörigen Spalten-Indizes nennen wir BasisMenge B und die Menge der anderen Spalten-Indizes j < B die Nicht-Basis-Menge N. Die Koordinaten x j , j ∈ B, heißen Basiskoordinaten bzw. B-Koordinaten, die Koordinaten x j , j ∈ N, Nicht-Basis-Koordinaten bzw. N-Koordinaten. Insbesondere ist B ∪ N = {1, . . . , n} ,

B∩N = ∅.

Die Zerlegung B ∪ N der Indexmenge erzeugt (implizit) eine Umordnung der Indizes zu B = {1, . . . , m} und N = {m + 1, . . . , n}, und damit der Spalten von A und der Einträge von x und so gehört zu ihr eine Zerlegung A = (AB , AN ) der Matrix A mit invertierbarem AB und eine Zerlegung des Koordinatenvektors ! x x= B . xN

6.5 Ecken und Basislösungen

721

Es gilt immer Ax = (AB , AN )

! xB = A B x B + AN xN . xN

Eine Basislösung zur Basismenge B ist eine Lösung x = (x j ) mit x j = 0 für j ∈ N. Sie ist durch B eindeutig bestimmt als (xB , 0), wobei xB Lösung des LGS AB xB = b

bzw.

xB = A−1 B b

ist. Die Basislösung x = (x j ), x j = 0 für j ∈ N, heißt zulässig, wenn x zu P gehört, d. h. x j ≥ 0 für j ∈ B. Zur Vereinfachung der Notation wird im Folgenden bei Basislösungen und ähnlichen Vektorpartitionierungen auch (x, y) im Sinne von (xt , yt )t benutzt. Der algebraische Begriff „zulässige Basislösungen“ entspricht genau dem geometrischen Begriff „Ecke des Polyeders P“. Die konkrete Beschreibung von Ecken in Form von Basislösungen ist wichtig, weil es beim Simplex-Algorithmus genau auf das Auffinden von Ecken ankommt. Theorem 6.56: Ecke = zulässige Basislösung Für Punkte p ∈ Rn sind äquivalent:

(i) p ist eine Ecke von P nach (6.20).

(ii) p ist eine zulässige Basislösung.

Beweis: „(i) ⇒ (ii)“: Es sei p ∈ P eine Ecke. Nach Theorem 6.34 (ii) ist p Lösung eines inhomogenen LGS A′ x = b,

xν = 0 ,

wo A′ aus Zeilen von A besteht und die gesamte Koeffizientenmatrix den Rang n hat. Wegen n ≥ m gehören dazu mindestens n − m Gleichungen der Form xν = 0. Sei k ≥ n − m die Anzahl aller dieser Gleichungen. Nach Umordnung der Koordinaten (und entsprechender Vertauschung der Spalten von A) können wir annehmen, dass dies die Koordinaten xn−k+1 , . . . , xn sind. Wir können das LGS schreiben als ! ! b (g a(ν) )ν≤n−k (g a(ν) )ν>n−k x= , 0 0 1k

wobei e auf die Verkürzung der Spalten auf n − k Einträge hinweist.Weil die gesamte Koeffizientenmatrix den Rang n hat, sind die Spalten g a(ν) , ν ≤ n − k, linear unabhängig. Betrachten wir statt der verkürzten Spalten g a(ν) die Spalten a(ν) von A, so können wegen Rang(A) = m, wenn nötig, d. h. wenn n − k < m, die Spalten a(ν) , ν = 1, . . . , n − k zu

722

6 Polyeder und lineare Optimierung

m linear unabhängigen Spalten ergänzt werden, die wieder o. B. d. A. auf den Positionen 1, . . . , n − k, . . . , m stehen. Da erst recht pν = 0 für ν = m + 1, . . . , n und p ≥ 0 ist also p zulässige Basislösung mit B = {1, . . . , m}. „(ii) ⇒ (i)“: Sei p ∈ Rn eine zulässige Basislösung, damit Lösung eines LGS ! ! A B AN b x= 0 1n−m 0 für eine Zerlegung A = (AB, AN ), AB ∈ R(m,m) und Rang AB = m. Weiter ist p ∈ P. Wegen Rang(AB ) = m hat die Koeffizientenmatrix n linear unabhängige Zeilen. Deswegen ist p eine Ecke von P.  Nach dem obigen Beweis gehört somit zu jeder zulässigen Basislösung eine Ecke, zu einer Ecke können aber mehrere zulässige Basislösungen gehören: Sind in einer Ecke nicht nur aus (Ax)µ = bµ , xν ≥ 0 ,

µ = 1, . . . , m , ν = 1, . . . , n

m Gleichungen in Form von Ax = b und n − m Gleichungen in Form von xi j = 0 für j = 1, . . . , k = n − m erfüllt, sondern weitere Gleichungen vom 2. Typ, d. h. xi j = 0 für j = 1, . . . , k > n − m , dann gibt es durch die n aus {1, . . . , m} ∪ {1, . . . , n} ausgewählten Indizes nun n − k < m festgelegte Spalten von A, die beliebig mit m − n + k damit linear unabhängigen Spalten ergänzt werden. Alle diese zulässigen Basislösungen entsprechen der gleichen Ecke, indem sie m − n + k Indizes, in denen die Lösungskomponenten verschwinden, beliebig zu den festgelegten n − k Indizes in B zuordnen.

Beispiel 6.57 Wir betrachten nochmals die Pyramide P ⊂ R3 aus Abschnitt 6.2, Abbildung 6.5. Aus der Zeichnung ist klar: Durch jede der vier Ecken der Grundfläche gehen genau drei definierende Ebenen, aber durch die Spitze gehen vier. Nach Einführung der Schlupf-Variablen x4 , . . . , x7 ≥ 0 schreiben sich die Restriktionen neben x3 ≥ 0 (①) als:   −2  −2   2 2

    x1    11   .   −2    ..   −2  1 1    =   1 1   ..   4  . 4 1 1   x7

Gleichung ② ③ ④ ⑤

Die Bedingungen x1 ≥ 0, x2 ≥ 0 können ohne Veränderung des Polyeders mit aufgenommen werden, so dass komprimierte Normalform vorliegt. Wir haben ein LGS mit m = 4 und n = 7. Die Ecke p1 = (1, 1, 0) z. B. gehört zur Basislösung

6.5 Ecken und Basislösungen

723

x = (1, 1, 0, 0, 0, 2, 2) mit N = {3, 4, 5}, B = {1, 2, 6, 7} . In der Ecke p5 = (1.5, 1.5, 1) sind alle vier Gleichungen Ax = b erfüllt, hier treffen sich vier Kanten und vier Seitenflächen. Für die Schlupf-Variablen bedeutet dies x4 = x5 = x6 = x7 = 0 und x = (1.5, 1.5, 1, 0, 0, 0, 0) . Der Lösungsraum der Gleichungen ②,③,④,⑤ ist die Menge {x ∈ R7 : x4 = . . . = x7 = 0}. Für die Ermittlung einer zugehörigen Basislösung kann man daher je eine der Koordinaten x4 , . . . , x7 auswählen. Man erhält diese Ecke auf vier verschiedene Weisen als zulässige Basislösung. Die sieben Koordinaten sind natürlich immer die gleichen, aber ihre Aufteilung auf B-Koordinaten und N-Koordinaten unterscheidet sich. ◦ Definition 6.58 Es sei P ein n-dimensionales Polyeder. Eine Ecke p von P heißt einfach oder nicht entartet, wenn sich in p genau n Seitenflächen S von P der Dimension n − 1 treffen. Ist P z. B. durch Ungleichungen hi (x) ≥ ci , i = 1, . . . , k, gegeben, von denen man keine weglassen kann, so heißt dies, dass in p genau n Gleichungen hi ( p) = ci gelten und nicht mehr. Ist P ⊂ Rn durch m(< n) Gleichungen Ax = b und durch x ≥ 0 gegeben, so heißt dies, dass genau n − m Gleichungen pν = 0 gelten und nicht mehr. Ist die Ecke p ∈ P nicht einfach, so heißt sie nicht-einfach bzw. entartet. Beispiel (6.57 (Fortsetzung)) Bei der soeben wieder erwähnten Pyramide P sind die vier Ecken auf der Grundebene x3 = 0 einfach, die Spitze (1.5, 1.5, 1) ist eine nicht-einfache Ecke. ◦ Das Simplex-Verfahren (in Phase II ) beginnt mit der Bestimmung einer zulässigen Basislösung, d. h. mit Phase I. Phase I des Simplex-Verfahrens: Auffinden einer zulässigen Basislösung Die Strategie besteht darin, ein Hilfsproblem in Form eines linearen Optimierungsproblems (LPaux ) zu definieren, für das sich sofort eine zulässige Basislösung angeben lässt und das die Eigenschaft hat: Aus der optimalen Lösung von (LPaux ) lässt sich entweder eine zulässige Basislösung von (LP) ablesen oder schließen, dass diese nicht existieren. Wenn die Phase II, d. h. die Lösung von (LP) bei vorhandener zulässiger Basislösung, sich durchführen lässt wie im Folgenden zu zeigen ist, gilt dies auch für Phase I. Ausgehend von einem Polyeder P der Form (6.20) lautet das Hilfsproblem in seinem Einschränkungspolyeder Paux : x ∈ Rn , y ∈ Rm , x≥0, y≥0, Ax + y = b .

(6.21)

724

6 Polyeder und lineare Optimierung

Ist x ∈ Rn zulässige Basislösung von P, dann offensichtlich (x, 0) auch von Paux . Ist umgekehrt (x, 0) zulässige Basislösung von Paux , so ist x auch zulässige Basislösung von P. e und Nicht-Basismenge N e. Das kann man folgendermaßen einsehen: Zu (x, 0) gehören die Basismenge B e genau n Indizes. Im Fall B e ⊂ {1, . . . , n} sind wir fertig. Andernfalls seien etwa 1, . . . , l ≤ Dann enthält N k Indizes zu Basis-Variablen y1 , . . . , yl . Zur Basis gehören dann m − l linear unabhängige Spalten der Matrix A. Weil diese Matrix den Rang m hat, können wir diese m − l Spalten ergänzen zu einer Basis, die aus Spalten dieser m × n-Matrix besteht. Dafür lassen wir die Variablen y1 , . . . , yl aus der Basis weg. Wir e ⊂ {1, . . . , n} mit der zulässigen Basislösung (x, 0). haben eine neue Basis B

Eine solche zulässige Basislösung von Paux existiert also genau dann, wenn das lineare Optimierungsproblem (LPaux ) f˜(x, y) :=

m X

yi = 1t y

i=1

(6.22)

(x, y) ∈ Paux eine Lösung mit y = 0 hat. Andernfalls kann es keine zulässige Basislösung (x, 0) (von (6.21)) und damit auch keine zulässige Basislösung von (LP) geben. (LPaux ) hat die zulässige Basislösung (0, b)

(6.23)

wegen b ≥ 0 und hat eine Lösung, da inf

(x.y)∈Paux

f˜(x, y) ≥ 0 .

Dadurch wurde gezeigt: Theorem 6.59: Phase I des Simplex-Verfahrens Eine zulässige Basislösung für ein lineares Optimierungsproblem mit zulässiger Menge Ax = b, x ≥ 0 , wobei A ∈ R(m,n) , x ∈ Rn , b ∈ Rm , n ≥ m und Rang(A) = m liegt genau dann vor, wenn das lineare Optimierungsproblem (6.22) das Minimum z = 0 hat. Für (6.22) ist eine zulässige Basislösung durch (6.23) gegeben. Für eine Umsetzung der Phase II in Aufgaben der linearen Algebra beachte man: Zu jeder Basis B gehört eine Auflösung des LGS

6.5 Ecken und Basislösungen

725

Ax = (AB, AN )

!

xB = A B xB + AN xN = b xN

vermöge xB = (AB )−1 (b − AN xN ) . Dadurch zusammen mit den Vorzeichenbedingungen xB ≥ 0,

xN ≥ 0

bekommt man eine explizite Parametrisierung des Polyeders P. Damit ist auch das Kostenfunktional f (x) =

n X

cν xν

ν=1

nur ein affines Funktional von xN , nämlich: Sei f (x) = cx = cB xB + cN xN mit einem Zeilenvektor c = (cB , cN ). Hier setzen wir xB ein: −1 −1 −1 f (x) = cB A−1 B b − c B A B AN xN + cN xN = c B A B b + (cN − c B A B AN )xN .

Zu xN = 0 gehört die Ecke p = ( pB , 0) mit pB = A−1 B b. Deswegen ist

cB A−1 B b = f ( p) . Wir kürzen ab: e cN := cN − cB A−1 B AN .

Dann haben wir das Kostenfunktional in die Form

f (x) = f ( p) + e c N xN

gebracht. Den variablen Anteil e cN xN nennt man die reduzierten Kosten.

(6.24)

726

6 Polyeder und lineare Optimierung

Satz 6.60: Optimalitätskriterium reduzierte Kosten Wenn für e cN in der Formel für die reduzierten Kosten gilt dann ist die Ecke p für f optimal.

e cN ≥ 0 ,

Beweis: Für alle x ∈ P ist xN ≥ 0. Daraus folgt e cN xN ≥ 0 und f (x) ≥ f ( p) für alle x ∈ P. 

Alle relevanten Größen kann man sehr übersichtlich in einem sogenannten Tableau zusammenfassen, das speziell für die (frühere) Handrechnung kleinerer Probleme nützlich ist. Das ist eine Matrix, welche die Koeffizientenmatrix A als Teilmatrix enthält, aber zusätzlich noch eine weitere Zeile und eine weitere Spalte. Wie oben zerlegen wir A = (AB , AN ) und c = (cB , cN ) und beginnen mit dem Tableau ! A B AN b . c B cN 0 Wir passen dieses Tableau an die Basis B an, indem wir die Spalten von AB als neue Basis für den Spaltenraum von A wählen. Für das Tableau bedeutet dies eine Multiplikation von links wie folgt: ! ! ! 1B A−1 AN A−1 b A B AN b A−1 B B B 0 = 0 1 c B cN 0 c B cN 0 Bei Handrechnung erreicht man diese Form durch das Gauss-Jordan-Verfahren (was eventuell Zeilenvertauschungen zur Folge hat). Durch Einbeziehung der letzten Zeile bringen wir den Vektor cB unter 1B auf Null. Das ist dasselbe, wie eine Multiplikation des Tableaus von links: ! ! ! −1 A−1 A−1 1B 0 1B A−1 B AN B b B AN A B b = 1 B −1 −cB 1 cB cN 0 0 cN − cB A−1 B AN −c B A B b Wegen A−1 B b = pB enthält unser resultierendes Tableau ! 1B A−1 pB B AN 0 e cN − f ( p)

noch die reduzierten Kosten und – bis auf das Vorzeichen – den Wert f ( p). Die obige (Handrechen-)Prozedur entspricht der Berechnung von A−1 B durch Berechnung einer LR-Zerlegung und simultane Lösung von (|N| + 1) vielen LGS durch Vorwärts/Rückwärtssubstitution. Zeitgemäße Programme verzichten auf die Aufstellung des Tableaus und bestimmen nur die relevanten Größen durch Lösen von LGS (auf verschiedene Art).

Aufgaben

727

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • • • •

Basis, Basis-Menge, Basis-Koordinaten (Zulässige) Basislösung (Nicht-)entartete Ecke Reduzierte Kosten

Zusammenhänge: • Ecke entspricht zulässiger Basislösung (Theorem 6.56) • Phase I des Simplex-Verfahrens durch Lösen eines linearen Optimierungsproblems (Theorem 6.59) • Optimalität und reduzierte Kosten (Satz 6.60)

Aufgaben Aufgabe 6.14 (K, Dantzig 1966, p. 105) Gegeben sei das System         2 3 −2 −7   x1   1              1 1 1 3   ...  =  6          4 1 −1 1 5  x4       x≥0

Bestimmen Sie die Basislösungen für die Basismengen B = {1, 2, 3} bzw. {1, 2, 4} ,

{1, 3, 4} ,

{2, 3, 4} .

Welche dieser Basislösungen sind zulässig? Aufgabe 6.15 (K) Gegeben sei das System      1 1  1  1 −1  x !  1  1      −1 −1  x2 ≤  1  .     −1 1 1

Bestimmen Sie rechnerisch alle zulässigen Basislösungen und verifizieren Sie Ihr Ergebnis anhand einer Skizze der zulässigen Menge. Aufgabe 6.16 (K) Man zeige, dass (1, 1)t eine entartete Ecke des Polyeders P ⊂ R2 ist, das durch die Ungleichungen gegeben ist: x1 + x2 ≤ 2 ,

x1 − x2 ≤ 0 ,

x1 − 2x2 ≤ −1

728

6 Polyeder und lineare Optimierung

6.6 Das Simplex-Verfahren Das Optimierungsproblem sei in der Form   cx = min    Ax = b    x ≥ 0

(6.25)

vorgelegt. Wie immer sei A eine m × n-Matrix, n ≥ m, mit Rang(A) = m. Eine Ecke p sei gegeben, und zwar in Form einer zulässigen Basislösung p = ( pB , 0). Dazu gehört eine Zerlegung A = (AB , AN ) der Matrix A mit einer invertierbaren m × m-Teilmatrix AB von A. Wie am Ende von Abschnitt 6.5 gehen wir von A über zu der Matrix −1 A−1 B A = (1 B , A B AN ) .

(6.26)

Das ändert nichts an den Restriktionen, wenn wir gleichzeitig von b zur neuen rechten Seite A−1 B b =: pB übergehen. Der Iterationsschritt, der einen zulässigen Punkt (eine Ecke) mit kleinerem Funktionalwert f liefern soll, startet also bei Umbenennung von A−1 B AN zu AN mit der Matrix A = (1B , AN ) und dem Tableau ! 1B AN pB . (6.27) 0 e cN − f ( p) Es gilt demnach

b = pB ≥ 0 . Nach dem Optimalitätstest Satz 6.60 gilt: Ist e cN ≥ 0, so ist p = ( pB , 0) optimal und das Verfahren beendet. Andernfalls besitzt e cN einen Koeffizienten e c s < 0, s ∈ N. Für den Vektor xN := (0, . . . , x s , . . . , 0),

xj = 0

für j ∈ N, j , s

(6.28)

haben wir e cN x N = e c s x s < 0,

falls x s > 0 .

Wenn wir x s > 0 wählen, wird f (x) < f ( p), so dass auf diese Weise ein Abstieg möglich ist. Es ist x = (xB , xN ) für xN nach (6.28) so zu wählen, dass • x zulässig ist, • auf einer Kante verläuft bis zur nächsten Ecke (falls die Kante eine weitere hat).

Wählt man notwendigerweise

xB := b − AN xN = b − x s a(s) , wobei a(s) die s-te Spalte von AN darstellt, so ist

6.6 Das Simplex-Verfahren

729

Ax = b immer erfüllt und x≥0 ist zu überprüfen. xN ≥ 0 für alle x s > 0 , so dass man x s maximal wählen sollte unter der Bedingung xB = b − x s a(s) ≥ 0 .

(6.29)

Geometrisch bedeutet dies, dass die Ecke (b, 0) verlassen wird und man sich auf einer Kante bis zu einer Ecke (b − x s a(s) , x s e s ) bewegt. Die Punkte ! ! b −a(s) q = q(t) := +t 0 es bilden nämlich für t ≥ 0 einen Strahl der immer Aq = b erfüllt und es gilt: q(0) = (b, 0) ist eine Ecke, d. h. es sind n linear unabhängige Gleichungsbedingungen erfüllt, nämlich die m Bedingungen Aq = b , n − m Bedingungen aus q = 0 .

  Für t > 0, solange noch alle Komponenten von b − ta(s) positiv sind, fällt eine dieser Bedingungen weg,  d. h. man bewegt sich auf einer Kante. Verschwindet erstmals eine Komponente von b − ta(s) für t = x s , d. h. dass sie für t > x s negativ ist, wird eine neue Ecke erreicht: Durch die hinzugekommene Gleichung xr = 0 sind wieder n Gleichungsbedingungen erfüllt und die Linearform xr kann nicht linear abhängig von den n − 1 Linearformen n X ν=1

aµ,ν xν (µ = 1, . . . , m),

x j ( j ∈ N, j , s)

sein, denn dann wäre xr = 0 auch für t , x s . Genauer ergibt sich: 1. Fall: a(s) ≤ 0 . (6.30) Dann ist die Vorzeichenbedingung wegen b ≥ 0 erfüllt für alle x s > 0. Das Funktional f nimmt für x s → ∞ beliebig kleine Werte an, d. h. das Optimierungsproblem ist nicht lösbar. Insbesondere ist somit (6.30) ein hinreichendes Kriterium für diese Situation. (s) 2. Fall: Es gibt Koeffizienten a(s) i > 0 von a . Dann gehört x solange zu P, wie die Vorzeichenbedingungen

730

6 Polyeder und lineare Optimierung

x s a(s) i ≤ bi

bzw.

xs ≤

bi a(s) i

für diese i gelten. Wenn bi = 0 für einen dieser Koeffizienten ist, so kann entlang dieses Strahls nicht abgestiegen werden, da sofort das Polyeder verlassen wird. Gilt dies für jede Wahl des Index s in (6.28), so gibt es keinen solchen von pB = b ausgehenden Strahl, entlang diesem in P abgestiegen werden kann. Der Vektor b = pB hat solche verschwindenden Komponenten genau dann, wenn die Ecke p entartet ist. Dieser Fall wird in Bemerkung 6.62 behandelt. Andernfalls sei        bi  (s) x s := min  : ai > 0 >0.   (s)  i=1  a m

(6.31)

i

Sei nun r eines der i ∈ B mit

xs =

br a(s) r

.

s ∈ {µ ∈ N : e cµ < 0} kann wiederum so gewählt werden, dass für t = x s nach (6.31) minimal wird. Wir setzen nun

f (x) − f ( p) = e c N xN = e cs xs

B′ := B \ {r} ∪ {s},

N ′ := N \ {s} ∪ {r}

(6.32)

und erhalten eine Darstellung der neuen Ecke q(x s ) als zulässige Basislösung zur Menge B′ . Der Übergang von der zulässigen Basislösung p zur zulässigen Basislösung q geschieht, indem man zwischen B und N einen Index r ∈ B gegen einen Index s ∈ N austauscht. Daher spricht man auch von Austauschschritt . Man tauscht die Gleichung x s = 0, welche zusammen mit den anderen Gleichungen die Ecke p beschreibt, aus gegen die Gleichung xr = 0, welche zusammen mit den anderen Gleichungen die Ecke q beschreibt. Das ist nur eine Umgruppierung der Indizes. Unser Tableau ändert sich dabei in ! AB′ AN ′ pB , e c B′ e cN ′ − f ( p) wobei

AB′ = (e1 , . . . , er−1 , a(s) , er+1 , . . . , em ) , AN ′ = (. . . , a(ν) , . . . , a(s−1) , er , a(s+1) , . . . , a(ν) , . . .) und e cB′ = (0, . . . , 0,e c s, 0, . . . , 0),

e cN ′ = (. . . ,e cν , . . . ,e c s−1 , 0,e c s+1 , . . . ,e cν , . . .) .

6.6 Das Simplex-Verfahren

731

Wie am Ende von Abschnitt 6.5 müssen wir das Tableau durch Zeilenumformungen so behandeln, dass AB′ in die Einheitsmatrix 1B′ übergeht. Die entstehende eigentliche Koeffizientenmatrix nennen wir A′ = (1B′ , A′N ′ ) . Gleichzeitig wird die rechte Seite pB abgeändert in qB′ . Schließlich kümmern wir uns auch um die letzte Zeile des Tableaus mit den reduzierten Kosten. Hier stört der Eintrag ces in der r-ten Spalte von e cB′ . Wir beseitigen ihn, indem wir e c s -mal die r-te Zeile des Tableaus von der letzten abziehen. Wir bezeichnen mit e c′N ′ xN ′ die neuen reduzierten Kosten und erhalten das neue Tableau ! 1B′ A′N ′ q B′ . (6.33) 0 e c′N ′ − f ( p) − e c s qr Und es fügt sich alles so, dass qr = t =

br a(s) r

,

− f (q) = − f ( p) − e cN xN = − f ( p) − ces

br a(s) r

.

In der rechten unteren Ecke des Tableaus haben wir folglich den Wert − f (q). Damit ist wieder die Ausgangssituation des Iterationsschritts, aber mit verbessertem Funktionalwert, erreicht. Es wurde also bewiesen: Hauptsatz 6.61: Austauschschritt Der Austauschschritt des Simplex-Verfahrens ((6.27)–(6.33)) entdeckt entweder eine Kante, entlang der der Funktionalwert beliebig klein wird oder die Optimalität der vorliegenden Ecke p oder er findet (im Fall der Nichtentartung von p) eine Kante des Polyeders ausgehend von p, die mit einer Ecke q mit kleinerem Funktionalwert begrenzt ist. Dies geschieht durch einen Wechsel von Basis- und NichtbasisKoordinaten. Das ganze ist (mittels Tableaus) schwerer zu beschreiben, als durchzuführen. Bei der Beschreibung muss man die Indizes (B, N) zu (B′ , N ′ ) umgruppieren. Dies wird analog zum Gauss-Verfahren mit Zeilenpivotisierung (siehe Abschnitt 2.5.2) dadurch durchgeführt, dass die Spaltenvertauschungen in einem Vektor notiert werden, mit dessen Hilfe dann auf die richtige Spalte zugegriffen werden kann. Die ganzen Zeilenumformungen nennt man dann Pivotoperation zum Pivotelement a(s) r . Bemerkung 6.62 Abstieg im Austauschschritt ist möglich, wenn die Komponenten von b = pB positiv sind. Dies ist genau dann nicht erfüllt, wenn die Ecke p nicht einfach ist. Es gibt zwei Möglichkeiten, damit umzugehen: 1) Nichtbehandlung, da das Problem durch Datenstörung beseitigt wird: Wegen der unvermeidlichen Rechenungenauigkeit kommt es praktisch nie vor, dass sich mehr als n Hyperebenen des Rn in einem Punkt schneiden. Die nicht-einfache Ecke z. B. der Standard-

732

6 Polyeder und lineare Optimierung

pyramide wird approximativ in einfache Ecken aufgelöst, z. B. so wie in Abbildung 6.8 gezeichnet.

Abb. 6.8: Die Spitze der Pyramide wird durch Datenstörungen zu einer Kante mit einfachen Ecken.

2) Es gibt eine Modifizierung, das sogenannte lexikographische Simplex-Verfahren (siehe z. B. Jarre und Stoer 2004). Dann ist auch theoretisch garantiert, dass der Algorithmus △ nicht in einer nicht-einfachen Ecke terminiert (siehe Optimierung ). Bemerkung 6.63 Wenn man sich das Simplex-Verfahren genauer ansieht, stellt man fest, dass viel Schreibarbeit überflüssig ist. Alle Spalten zu Basisvariablen sind Einheitsvektoren und bleiben es auch nach der Umformung, bis auf die Spalte er , die man umformt und dann gegen die Spalte a(s) der Nicht-Basis-Variablen austauscht. Die ganzen B-Spalten bräuchte man eigentlich nicht hinschreiben. Wenn man sie weglässt, nennt man das das kondensierte Simplex-Verfahren. Zur Sicherheit muss man allerdings die B-Indizes und die N-Indizes ins Tableau aufnehmen. Man schreibt die Tableaus in der Form   N     cN  . △  − f ( p) e  B b AN Auf die Tableaus kann man ganz verzichten, wenn man berücksichtigt, dass zur Vorbereitung des Austauschschritts mittels (6.26) und (6.27) nur das Lösen folgender LGS nötig ist: AB pB = b , AtB cˆ t = ctB (zur Bestimmung von e cN = cN − cB A−1 cs < 0 B AN ) und für die s ∈ N mit e AB a(s) = a(s) ,

(6.34) (6.35)

(6.36)

6.6 Das Simplex-Verfahren

733

wobei a(s) die s-te Spalte von AN ist. Insgesamt ist hierfür nur eine LR-Zerlegung von AB (über das Gauss-Verfahren) nötig: PAB = LR mit einer Permutationsmatrix P, woraus (siehe (2.138)) (6.34) und (6.36) direkt durch Vorwärts- und Rückwärtssubstitution gelöst werden kann und auch (6.35) unter Beachtung von AtB Pt = Rt Lt . Zusätzlich wird AB ab dem zweiten Schritt nur in einer Spalte modifiziert durch den Austausch, d. h. (ohne explizite Multiplikation mit AB im vorigen Schritt) AB′ = AB + (a(s) − aˆ (r) ) ⊗ er , wobei aˆ (r) die r-te Spalte von AB bezeichnet, die also mit der s-ten Spalte von AN ausgetauscht wird (und entsprechend) AN ′ = AN + ( aˆ (r) − a(s) ) ⊗ e s . Wenn (einmal) A−1 B bestimmt ist (etwa durch eine LR-Zerlegung von A B vorliegt), kann (AB′ )−1 durch die Rang-1-Update Formel nach (2.70) bestimmt werden oder direkter durch folgende Überlegung: −1 ′ Es gilt offensichtlich A−1 B A B = 1, bei A B A B wird nur die r-te Spalte ausgetauscht und −1 (s) (s) zwar im Produkt durch AB a = a .   (s) A−1 B A B′ = e1 , . . . , er−1 , a , er+1 , . . . , em =: E . −1 berechnet werden und damit Da a(s) r > 0 , kann nach Bemerkungen 2.86 F := E −1 −1 −1 A−1 B′ = E A B = FA B

   und für d := − a1(s) a(s) + 1+ i r

i

1 a(s) r



(6.37)

er

  d1  1    . .   .     1    . d F =  i   1    . .   .    dm 1 r-te Spalte

(6.38)

734

6 Polyeder und lineare Optimierung

Die zusätzlich notwendige Multiplikation mit F braucht daher nur O(n) Elementaroperationen. Wir fassen nochmal das Simplex-Verfahren für ein Optimierungsproblem in der komprimierten Normalform (6.25) mit b ≥ 0 als Algorithmus zusammen: Die Eingabeargumente seien hierbei A ∈ R(m,n) die Restriktionsmatrix mit n ≥ m, Rang A = m und c ∈ R(1,n) der Vektor des Zielfunktionals, x ∈ R(n,1) eine zulässige Basislösung und basis ∈ R(1,m) der Basisindexvektor, d. h. er enthält diejenigen i ∈ {1, . . . , n}, für die die Menge n o a(i) i = basis(j) für genau ein j ∈ {1, . . . , m}, a(i) ist Spalte von A

eine Basis des Rm bildet. Die rechte Seite b wird nicht benötigt, da x bereits A*x = b erfüllt. Der Ausgabeparameter opt ∈ R(m,1) des Algorithmus gibt eine optimale Ecke des Problems zurück oder aber NaN, falls das Problem unbeschränkt ist. Algorithmus 4 (Simplex-Verfahren) function opt = simplex(A, c, x, basis ) ecke = x; [m, n] = size (A); AB = A(:, basis ); [L, R, P] = gausszerlegungpivot (AB); mult = eye(m); while true b = ecke (basis ); h = zeros (m,1); N = 1 : n; N(basis ) = 0; N = N(N > 0); AN = A(:, N); cB = c(basis ); cB = cB*mult ; cN = c(N); cHat = vorwrueckwsubs (R’, L’, eye(size (R’)), cB ’); % cHat = cB*ABInv ; cHat = cHat ’*P; cTilde = (cN - cHat *AN); % reduzierte Kosten if min(cTilde) >= 0 % x ist optimal opt = ecke; break else s = N(cTilde < 0); % eins aus s beliebig waehlbar s = s(1); % waehle das erste Element aQ = A(:, s); % s-te Spalte von A aS = vorwrueckwsubs (L, R, P, aQ); % aS = ABInv *aQ; aS = mult *aS; % LP nicht loesbar , da if max(aS) 0) = b(aS > 0)./aS(aS > 0); h(aS 0. Demnach gilt für t < 0 : f (x + tz) < f (x), d. h. x ist kein (lokales) Minimum. Damit ist die Kontraposition von (i)⇒(ii) bewiesen.  Bemerkungen 6.65 1) Die charakterisierenden Bedingungen (4.119) und (6.41) können vereinheitlicht ∇ f (x) + By = 0

Bt x = d

(6.42)

geschrieben werden unter Beachtung von Bemerkungen 4.145, 2 a) und der elementaren Analysis-Tatsache ∇ f (x) = c für (6.39).

2) Man kann das Funktional in (6.39) durch ein differenzierbares f : Rn → R ersetzen. Dann bleibt von Satz 6.64 die Implikation (i)⇒(ii) in der Form (6.42) (sogar für ein lokales Minimum) gültig, i. Allg. aber nicht (ii)⇒(i). △

Was wir uns schon vorher klargemacht haben, wurde noch einmal bestätigt: In der speziellen Situation (6.39), (6.40) kann ein Minimum nur vorliegen, wenn f konstant auf Uad ist (siehe Abbildung 6.9). Betrachten wir dagegen Ungleichungsnebenbedingungen At x ≥ b , wobei A ∈ R(n,k) , b ∈ Rk .

Wird dann (bei n = 2) das Minimum auf einer Kante angenommen, etwa der, die durch t die erste Zeile a(1) x = b1 gegeben ist, so gilt: Ist x keine Ecke, dann erwarten wir c = λ1 a(1) , wobei aber λ1 ≥ 0 gelten sollte, da die Abstiegsrichtung −c heraus aus dem Polyeder zeigen sollte bzw. c = At λ , wobei λ1 ≥ 0, λ2 = . . . = λk = 0. Ist dagegen x, eine Ecke, etwa durch die erste und zweite Zeile von A definiert (siehe Abbildung 6.9), so legt die Anschauung nahe: c = λ1 a(1) + λ2 a(2) , λ1 ≥ 0, λ2 ≥ 0, d. h. c liegt in dem Kegel zu M = {a(1) , a(2) } mit Spitze 0. Diese Beziehung soll im Folgenden allgemein entwickelt werden. Als Vorbereitung wird eine Variante des Lemma von Farkas bewiesen.

6.7 Optimalitätsbedingungen und Dualität

739

Vorher haben wir Bild A = (Kern A† )⊥ benutzt, expliziter geschrieben folglich die Charakterisierung bei A ∈ K(m,n) : x = Aα für ein α ∈ Kn ⇔

Für alle p ∈ Km : A† p = 0 ⇒ h p . xi = 0 . Das Lemma von Farkas beinhaltet eine analoge Charakterisierung für K = R und x = Aα

für ein α ∈ Rn , α ≥ 0 ,

(6.43)

nämlich durch Für alle p ∈ Rm : At p ≥ 0 ⇒ pt x ≥ 0 . Durch (6.43) wird nach Bemerkungen 6.44, 3) gerade cone0 conv{a(1) , . . . , a(n) } beschrieben, im Folgenden auch der konvexe Kegel über den Spalten von A mit Spitze 0 genannt. Theorem 6.66: Lemma von Farkas2 Seien a(1) , . . . , a(n) ∈ Rm , A = (a(1) , . . . , a(n) ) ∈ R(m,n) . Dann gilt: K := cone0 conv{a(1) , . . . , a(n) } = {x ∈ Rm : At p ≥ 0 ⇒ pt x ≥ 0 für alle p ∈ Rm } .

Beweis: Sei x ∈ K := cone0 (conv{a(1) , . . . , a(n) }), d. h. x = Aα und α ≥ 0. Sei p ∈ Rm , so dass At p ≥ 0, dann folgt sofort pt x = (At p)t α ≥ 0, daher: K ⊂ K ′ := {x ∈ Rm : At p ≥ 0 ⇒ pt x ≥ 0 für alle p ∈ Rm } . Zum Nachweis von K ′ ⊂ K wird angenommen, dass ein x ∈ K ′ \ K existiert. K ist ein konvexer Kegel nach Satz 6.45 und abgeschlossen nach Satz 6.23. Nach Hauptsatz 7.50 existiert somit eindeutig die orthogonale Projektion u := pK (x) und ist charakterisiert nach Bemerkungen 7.51, 3) durch (x − u)t u = 0

(x − u)t u ≤ 0

für alle u ∈ K .

Sei p := u − x , 0, dann folgt also aus der Wahl u = a(i) , i = 1, . . . , n: At p ≥ 0 . 2

Gyula Farkas ∗28. März 1847 in Sárosd †27. Dezember 1930 in Pestszentlörinc

740

6 Polyeder und lineare Optimierung

Somit muss wegen x ∈ K ′ auch pt x ≥ 0 gelten. Es ist aber pt x = pt (−p + u) = −kpk22 < 0 und damit ein Widerspruch erreicht.



Bemerkungen 6.67 Gegeben sei A ∈ R(m,n) , b ∈ Rn .

1) Eine alternative Formulierung für das Lemma von Farkas ist: Von den beiden folgenden linearen Ungleichungssystemen (i) Gesucht ist x ∈ Rn , so dass Ax = b, x ≥ 0.

(ii) Gesucht ist y ∈ Rm , so dass At y ≥ 0, yt b < 0.

ist genau eines lösbar.

Es ist (i) äquivalent zu b ∈ K und nach Theorem 6.66 (ii) zu b < K .

2) Eine Variante von Theorem 6.66 ist Ax ≤ b, x ≥ 0 ist lösbar in Rn genau dann, wenn: Jedes p ∈ Rm , für das p ≥ 0, At p ≥ 0, erfüllt pt b ≥ 0 . Das kann man wie folgt einsehen: Einführung von Schlupfvariablen schreibt die erste Aussage äquivalent um zu

Uad

n=2 c

f = const

a(1)t x = b1 (1)

−a

c = λ1 a(1)

Uad

x x a(2)t x = b2

c = λ1 a(1) + λ2 a(2)

−a(2)

a(3)t x = b3 −a(3) c = λ3 a(3)

Abb. 6.9: Optimallösungen und Lagrange-Multiplikatoren.

6.7 Optimalitätsbedingungen und Dualität x ∈ Rn , y ∈ Rm

741

mit

Ax + y = b , x ≥ 0 , y ≥ 0 ,

was nach Theorem 6.66 äquivalent ist zu: Für alle p ∈ Rm gilt: Aus zweite Aussage.

! At p ≥ 0 folgt pt b ≥ 0. Dies ist die 1

3) Eine weitere Variante ist: Ax ≤ b ist lösbar in Rn

genau dann, wenn jedes p ∈ R , für das p ≥ 0, At p = 0, erfüllt pt b ≥ 0 . m

Dies kann durch die Umformulierung A(x+ − x− ) ≤ b, x+ ≥ 0, x− ≥ 0

für die erste Aussage auf 2) zurückgeführt werden.

4) Auch 2) oder 3) können als Alternativsätze für lineare Ungleichungssysteme formuliert werden. 5) Theorem 6.66 kann auch mittels des Trennungssatzes in Bemerkungen 7.52 gezeigt werden. △ Wir können jetzt das (lineare) Optimierungsproblem mit linearen Gleichungs- und Ungleichungsbedingungen betrachten. Abweichend von den restlichen Abschnitten schreiben wir diese als Uad := {x ∈ Rn : Bt x = d, C t x ≥ e}, wobei

B ∈ R(n,m1 ) , C ∈ R(n,m2 ) , d ∈ Rm1 , e ∈ Rm2 .

(6.44)

Die Notationsänderung gegenüber den vorigen Abschnitten ist ein Kompromiss mit der Notation in Abschnitt 4.7.3.

742

6 Polyeder und lineare Optimierung

Hauptsatz 6.68: Karush-Kuhn-Tucker3-Bedingungen Sei x ∈ Rn . Dann sind äquivalent:

(i) x löst das Optimierungsproblem (6.39), (6.44).

(ii) Es gibt y ∈ Rm1 , z ∈ Rm2 , Lagrange-Multiplikatoren, so dass gilt: c + By + C z = 0 Bt x = d, C t x ≥ e , z ≤ 0, (C t x − e)t z = 0 .

(6.45)

Gilt (i) oder (ii), so ist f (x) = −dt y − et z . Bemerkung 6.69 Die letzten drei Bedingungen in (6.45) bilden eine Komplementaritätsbedingung . Mit dem Begriff der aktiven bzw. inaktiven Bedingung nach Definition 6.24 lässt sich die letzte Bedingung äquivalent ersetzen durch zi = 0

für i ∈ I(x) .



Beweis (von Hauptsatz 6.68): Beim Beweis kann die Gleichungsbedingung weggelassen werden, da diese in eine Ungleichungsbedingung umgeschrieben werden kann und das volle Ergebnis dann aus der reduzierten Aussage folgt. Zur Vereinfachung wird m = m2 gesetzt. „(i) ⇒ (ii)“: Wir zeigen dies durch Kontraposition: Angenommen (ii) gilt nicht, dann gilt für alle z ∈ Rm mit −z ≥ 0, zi = 0 für i ∈ I(x) (unter Beachtung von Bemerkung 6.69): X c , C(−z) = (−zi ) c(i) , i∈A(x)

  wobei C = c(1) , . . . , c(m) die Spaltendarstellung von C sei. Damit gilt   c < cone0 conv{c(i) : i ∈ A(x)} .

Theorem 6.66 kann nun genutzt werden, um zu zeigen, dass eine Abstiegsrichtung p ∈ Rn existiert, so dass x + t p ∈ Uad 3

für kleine t > 0

William Karush ∗1. März 1917 in Chicago †22. Februar 1997 Harold W. Kuhn ∗29. Juli 1925 in Santa Monica Albert W. Tucker ∗28. November 1905 in Oshawa †25. Januar 1995 in Highstown, New Jersey

6.7 Optimalitätsbedingungen und Dualität

743

gilt, x also kein (lokales) Minimum ist. Nach Theorem 6.66 (siehe auch Bemerkungen 6.67, 1)) gibt es ein p ∈ Rn , so dass et p ≥ 0 C

und

pt c < 0 .

e aus den Spalten i von C mit i ∈ A(x). Die letzte Bedingung bedeutet, dass Dabei besteht C p eine Abstiegsrichtung für f ist: f (x + t p) = f (x) + tct p < f (x)

für t > 0 .

Die erste Bedingung sorgt dafür, dass ein t0 > 0 existiert, so dass x + t0 p ⊂ Uad . Es gilt nämlich für i ∈ A(x): (C t (x + t p))i = (e)i + t(C t p)i ≥ (e)i

für alle t ≥ 0

und für i ∈ I(x) (C t (x + t p))i = (C t x)i + t(C t p)i . Wegen (C t x)i > (e)i , kann t klein, aber positiv gewählt werden, so dass die rechte Seite größer oder gleich (e)i ist. „(ii) ⇒ (i)“: ct x = −xt (By + C z) = −dt y − et z und damit gilt die Zusatzbehauptung. Sei x ∈ Uad beliebig, dann gilt f (x) = −xt (By + C z) = −dt y − (C t x)t z ≥ −dt y − et z = f (x) wegen C t x ≥ e und −z ≥ 0, demzufolge ist x (globales) Minimum von f auf Uad .



Bemerkungen 6.70 1) Ersetzt man das Funktional in (6.39) durch ein differenzierbares f : Rn → R, so bleibt bei Ersatz von c durch ∇ f (x) die Implikation (i)⇒(ii) (sogar für ein lokales Minimum) gültig. Es ist nur zu berücksichtigen, dass dann ein p mit pt ∇ f (x) < 0 eine Abstiegsrichtung für f ist, da für ϕ : R → R, t 7→ f (x + t p) gilt ϕ′ (0) = pt ∇ f (x) < 0, und somit: Es gibt ein E > 0, so dass ϕ(t) < ϕ(0) für t ∈ (0, E].

Eine Bezeichnung für die notwendige Optimalitätsbedingung in (ii) ist KKT-Bedingung als Kurzform für Karush-Kuhn-Tucker-Bedingung . 2) Bei Anwendung von 1) auf

744

6 Polyeder und lineare Optimierung

f (x) =

1 t x Ax − bt x 2

für ein A ∈ R(n,n) , A > 0 wird die (notwendige) Optimalitätsbedingung zu Ax + By + C z = b Bt x = d, C t x ≥ e z ≤ 0, (C t x − e)t z = 0 .

(6.46)

Nach Bemerkungen 4.145, 2 a) ist nämlich ∇ f (x) = Ax − b .

3) Ist f : Rn → R differenzierbar und konvex in dem Sinn, dass für alle x, y ∈ Rn gilt f (x) + ∇ f (x)t (y − x) ≤ f (y) ,

(6.47)

dann sind die Bedingungen (6.45) (mit ∇ f (x) statt c) auch hinreichend für ein (globales) Minimum. Dazu reicht es nämlich zu zeigen ∇ f (x)t (x − x) ≥ 0

für alle x ∈ Uad ,

was bei (6.45) äquivalent ist zu −(By + C z)h ≥ 0

für h := x − x .

Der erste Summand ist −(Bt h)t y = 0 wegen Bt x = Bt x = d, für den zweiten Summand gilt X = −(C t h)t z = − (C t h)i zi

(6.48)

i∈A(x)

nach Bemerkung 6.69. Für i ∈ A(x) ist (C t h)i = (C t x)i − ei ≥ 0 und damit ist auch die Summe in (6.48) nicht negativ.

Ist f strikt konvex in dem Sinn, dass in (6.47) für x , y die strikte Ungleichung gilt, so fallen lokale und globale Minima von f auf Uad zusammen und sind eindeutig. Ein lokales Minimum erfüllt die KKT-Bedingungen und ist nach den obigen Überlegungen das eindeutige globale Minimum.

4) In der Situation von 2) ist die Bedingung (6.46) auch hinreichend für ein (globales) Minimum, lokale und globale Minima sind identisch und eindeutig. Nach 3) ist nun zu zeigen, dass das quadratische Funktional strikt konvex ist: f (y) = f (x) + ht (Ax − b) +

1 t h Ah > f (x) + ∇ f (x)t h für h := y − x , 0 . 2

5) Die Frage nach der Existenz lokaler oder globaler Minima ist von den obigen Überlegungen nicht berührt. Da Uad abgeschlossen ist nach Satz 6.23, reicht nach Satz C.11, 2) und C.12, 2) zu wissen, dass Uad beschränkt ist. Ist dies nicht der Fall, sind Wachs-

6.7 Optimalitätsbedingungen und Dualität

745

tumsbedingungen an f notwendig, um sicherzustellen, dass ein Minimum nur auf einer beschränkten Teilmenge angenommen werden kann (siehe Optimierung ). △ Analog zu Satz 4.150 kann man einer linearen Optimierungsaufgabe eine lineare Maximierungsaufgabe als duales Problem zuordnen. Wir betrachten dazu die Standardform aus den Abschnitten 6.5 ff., d. h. auf

Minimiere f (x) := ct x := {x ∈ Rn : Bt x = d, x ≥ 0} ,

p Uad

(6.49)

wobei B ∈ R(n,m) , c ∈ Rn , d ∈ Rm , und nennen dies das primale Problem . Diesem wird als duales Problem das lineare Optimierungsproblem Maximiere g(λ) := dt λ d auf Uad := {y ∈ Rm : Bλ ≤ c}

zugeordnet.

p d Offensichtlich ist die schwache Dualität , d. h. falls Uad , ∅ und Uad ,∅

S := sup g(λ) ≤ I := infp f (x) , d λ∈Uad

x∈Uad

p d denn für λ ∈ Uad und x ∈ Uad gilt

0 ≥ (Bλ − c)t x = (Bt x)t λ − ct x = dt λ − ct x . Setzt man S := −∞

I := +∞

gilt (6.50) allgemein. Darüber hinaus gilt:

d falls Uad =∅, p

falls Uad = ∅ ,

(6.50)

746

6 Polyeder und lineare Optimierung

Theorem 6.71: Dualitätssatz p d Es gelte Uad , ∅ oder Uad , ∅, dann gilt:

inf f (x) = sup g(λ) .

p x∈Uad

d λ∈Uad

Insbesondere gilt: p

d , 1) Ist I = infp f (x) ∈ R oder S = sup g(λ) ∈ R, dann gibt es x ∈ Uad , λ ∈ Uad x∈Uad

d λ∈Uad

so dass f (x) = minp f (x), g(λ) = maxg(λ) und λ = −y, x = −µ, wobei y den d λ∈Uad

x∈Uad

(Gleichungs-)Lagrange-Multiplikator zum primalen Problem und µ den Lagrange-Multiplikator zum dualen Problem darstellen, jeweils nach (6.45). 2) p Uad = ∅ ⇔ S = +∞

d Uad = ∅ ⇔ I = −∞ .

Beweis: Sei I ∈ R, dann existiert nach Hauptsatz 6.48 eine Lösung x ∈ Rn des primalen Problems und zu diesem nach Hauptsatz 6.68 Lagrange-Multiplikatoren y ∈ Rm , z ∈ Rm , so dass c + By + z = 0 Bt x = d, z ≤ 0,

t

x≥0

xz=0.

Durch Elimination von z geht dies äquivalent über in c + By ≥ 0 B x = d, x ≥ 0 t

xt (c + By) = 0 .

Das System (6.45) für das duale Problem (als Minimierungsproblem geschrieben) für eine Lösung λ und einen Lagrange-Multiplikator µ lautet −d − Bt µ = 0 µ ≤ 0, Dies ist erfüllt, setzt man

−Bλ ≥ −c

(c − Bλ)t µ = 0 .

6.7 Optimalitätsbedingungen und Dualität

747

λ := −y,

µ := −x ,

so dass nach Hauptsatz 6.68 λ eine Lösung des dualen Problems ist, also f (x) = −dt y = dt λ = g(λ) und damit I=S . d Insbesondere kann bei Uad = ∅ weder I ∈ R gelten, da dies die Existenz einer Lösung p des dualen Problems zur Folge hätte, noch I = +∞, da dann auch Uad = ∅ wäre. Es gilt d = ∅. demzufolge I = S = −∞. Ist I = −∞, dann nach (6.50) auch S = −∞ und Uad Ist S ∈ R, kann infolgedessen nicht I = −∞ gelten, d. h. das primale Problem hat eine Lösung (und auch das duale) und wie oben gezeigt gilt I = S und die Aussage über die Lagrange-Multiplikatoren. p Insbesondere kann bei Uad = ∅ weder S ∈ R gelten noch S = −∞, also I = S = +∞. p Ist S = +∞, dann muss nach (6.50) auch I = +∞ sein, sodann Uad = ∅. 

Bemerkungen 6.72 1) Da ein beliebiger Polyeder durch Dimensionserhöhung in die Standardform von (6.49) gebracht werden kann, gilt ein Dualitätssatz auch allgemein: Für das primale Problem Minimiere f (x) := ct1 x1 + ct2 x2

! x1 , x1 ≥ 0} , auf := {x ∈ R : B x = d, C x ≤ e, x = x2 ! ! B C wobei B = 1 , C = 1 , Bi ∈ R(ni ,m1 ) , Ci ∈ R(ni ,m2 ) , xi , ci ∈ Rni , i = 1, 2 B2 C2 p Uad

n

t

t

und das duale Problem Maximiere g(λ) := dt λ1 − et λ2

d auf Uad := {λ ∈ Rm : B1 λ1 − C1 λ2 ≤ c1 , B2 λ1 − C2 λ2 = c2 , λ2 ≥ 0} , wobei m := m1 + m2

gelten Aussagen analog zu Theorem 6.71. Ungleichungs- und Gleichungsbedingungen entsprechen sich also dabei, entsprechend Variablen mit Vorzeichen und freie Variable. cN ≥ 0 2) Die reduzierten Kosten e cN (nach (6.24)), die die Optimalität einer Ecke bei e anzeigen bzw. den Austauschschritt steuern (siehe (6.28) ff.) stehen in Relation zu den Lagrange-Multiplikatoren nach (6.45):

748

6 Polyeder und lineare Optimierung

Sei Uad in komprimierter Normalform gegeben, dann gelten bei Nichtdegeneriertheit der Ecke −zN = e cN für die reduzierten Kosten (in Abschnitt 6.5 ist c eine Zeile, hier eine Spalte). Uad = {x ∈ Rn :

Ax = b , x ≥ 0}

mit A = (AB AN ) ∈ R(m,n) , AB ∈ R(m,m) sei invertierbar. Sei x =

d. h. xN = 0 und

! xB eine zulässige Basislösung dazu, xN

xB ≥ 0 .

A B xB = b ,

Die KKT-Bedingungen haben nach (6.45) die Form ! At c + tB y + z = 0 AN

z≤0

xt z = 0 .

Mit z =

! zB liegt der Ansatz z B = 0 nahe (zwingend bei Nichtentartung der Ecke) und es ist zwingend zN AtB y + cB = 0 ,

wobei c =

cB cN

!

und somit −zN = cN + AtN y = cN − AtN A−t ˜N . B cB = c

Erfüllt sein der Optimalitätsbedingung c˜ N ≥ 0 und der KKT-Bedingungen, die sich auf zN ≤ 0 reduzieren, sind also das Gleiche.

3) Schreibt man das duale Problem aus 1) um durch Multiplikation der Nebenbedingungen mit (−1) und analog im Zielfunktional, bei Vertauschung in der Partitionierung in primaler Normalform, und bildet dann das duale Problem, so erhält man das primale Ausgangsproblem, kurz: „Das Dualproblem zum Dualproblem ist das Primalproblem“. 4) Die Lösung eines primalen Problems (etwa mit dem Simplex-Verfahren) liefert über die Lagrange-Multiplikatoren auch eine Lösung des dualen Problems bzw. durch Lösung des dualen Problems (mit dem Simplex-Verfahren) (siehe 2)) erhält man analog eine Lösung des primalen Problems. Dieser Zugang liefert das duale Simplex-Verfahren. Dies kann wegen der Vertauschung von Nebenbedingungs- und Variablenanzahl von der Komplexität von Vorteil sein. 5) Verändert man in einem primalen LP die Nebenbedingungen bei Beibehaltung des Zielfunktionals, so ist eine primale zulässige Basislösung i. Allg. nicht mehr zulässig, während eine duale zulässige Basislösung zulässig bleibt und i. Allg. eine „gute Startnäherung“ für das duale Simplex-Verfahren für das neue Problem darstellt. Solche Situationen treten bei Schnittebenenverfahren oder Branch-and-Cut-Verfahren auf (siehe Wolsey 1998).

Aufgaben

749

6) Die obigen Überlegungen beachten nicht die Dünnbesetztheit der Matrizen der Nebenbedingungen, was für Anwendungsprobleme typisch ist. Angepasste LR-Zerlegungen und Update-Strategien gehören zur Numerik von Optimierungsproblemen (siehe z. B. Chvatal 1983). Anwendungsprobleme haben insbesondere oft eine große Variablenanzahl (typische Größenordnung: 105 ). Das revidierte Simplex-Verfahren ist hierfür eine effizientere Weiterentwicklung. △

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe: • Lagrange-Multiplikator • duales Problem • Komplementaritätsbedingung

Zusammenhänge:

• Lemma von Farkas (Theorem 6.66) • Karush-Kuhn-Tucker-Bedingungen (Hauptsatz 6.68) • Dualitätssatz (Theorem 6.71)

Aufgaben Aufgabe 6.20 (T) Zeigen Sie anhand eines Gegenbeispiels, dass die Implikation „(ii)⇒(i)“ in Satz 6.64 i. Allg. nicht für ein beliebiges differenzierbares Funktional f gilt d. h. (6.42) impliziert nicht, dass ein lokales Extremum vorliegt (vgl. auch Bemerkungen 6.65,2). Aufgabe 6.21 (T) Sei A ein affiner Raum zu dem R-Vektorraum V. f : A → R heißt konvex , wenn f (αx + (1 − α)y) ≤ α f (x) + (1α) f (y) für alle α ∈ [0, 1] ,

x, y ∈ A .

Zeigen Sie: Ist A = Rn und f differenzierbar, so ist f konvex im Sinn von (6.47). Aufgabe 6.22 (T) Formulieren und beweisen Sie Alternativsätze nach Bemerkungen 6.67, 4). Aufgabe 6.23 (T) Verifizieren Sie Bemerkungen 6.67, 5). Aufgabe 6.24 (T) Entwickeln Sie die in Bemerkungen 6.72, 1) angekündigte Aussage und beweisen Sie diese durch Rückführung auf die Standardform von Theorem 6.71. Dabei kann x2 durch x2 = x12 − x22 , xi2 ≥ 0 ausgedrückt werden.

Kapitel 7

Lineare Algebra und Analysis

7.1 Normierte Vektorräume

7.1.1 Analysis auf normierten Vektorräumen In Definition 1.91 wurde mit dem Begriff der Norm eine abstrakte Längenmessung auf einem R-Vektorraum eingeführt. Dies geht genauso auf einem K-Vektorraum, K ∈ {R, C}. Definition 7.1 Sei V ein K-Vektorraum. Eine Norm auf V ist eine Abbildung von V nach R mit den Eigenschaften 1) 2) 3)

kuk ≥ 0, kuk = 0 ⇔ u = 0 für u ∈ V (Definitheit) kγ uk = |γ| kuk für γ ∈ K, u ∈ V (Homogenität) ku + wk ≤ kuk + kwk für u, w ∈ V (Dreiecksungleichung)

Normen können, müssen aber nicht, durch innere Produkte h . i erzeugt werden p kuk := hu . ui

(siehe Satz 1.92 für K = R), wobei dann die Cauchy-Schwarz-Ungleichung | hu . wi | ≤ kuk kwk

für u, w ∈ V

gilt (siehe (1.59)). Zu den in den Bemerkungen 1.93 schon genannten Beispielen fügen wir hinzu:

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_7

751

752

7 Lineare Algebra und Analysis

Bemerkungen 7.2 1) (Kn , k . k p ), p ∈ R, p ≥ 1, wobei kxk p :=

P n

i=1

|xi | p

1/p

für x = (xi ) ∈ Kn ,

(7.1)

ist ein normierter K-Vektorraum. Für p = 2 handelt es sich um die euklidische Länge und k . k2 wird vom euklidischen inneren Produkt hx . yi =

n X i=1

xi yi , x, y ∈ Kn

erzeugt. Bei den Normeigenschaften ist nur die Dreiecksungleichung nicht offensichtlich, die hier auch Minkowskische Ungleichung heißt. Sie wird für p > 1 aus der Hölder1 schen Ungleichung n X xi yi ≤ kxk p kykq |hx . yi| = i=1

für x, y ∈ Kn

(7.2)

gefolgert, dabei ist

1 q := 1 − p

!−1

=

p , p−1

und q := ∞ für p = 1 bzw.

für p > 1 q := 1 für p = ∞

die zu p konjugierte Potenz, also gilt 1p + q1 = 1, setzt man 1/∞ := 0. Ein Beweis findet sich z. B. in Amann und Escher 1998, S. 343. Für p = 2 ist also (7.2) wieder die Cauchy-Schwarz-Ungleichung. Die Dreiecksungleichung kx + yk p ≤ kxk p + kyk p kann auf diese Weise gefolgert werden: Für p = 1 ist sie offensichtlich, für p > 1 sei o. B. d. A. kx + yk p > 0. Wegen  |xi + yi | p ≤ |xi | + |yi | |xi + yi | p−1 =: (ai + bi ) ci folgt mit (7.2)

kx +

yk pp

 n  p−1   X  p p  = ha . ci + hb . ci ≤ kak p kckq + kbk p kckq = kxk p + kyk p  |xi + yi |    = kxk p + kyk p kx + yk p−1 p

i=1

d. h. die Behauptung.

2) Ein analoges Beispiel mit unendlich vielen Komponenten ergibt sich durch 1

Otto Ludwig Hölder ∗22. Dezember 1859 in Stuttgart †29. August 1937 in Leipzig

7.1 Normierte Vektorräume

753

(l p (K), k . k p ), p ∈ R, p ≥ 1. Dabei ist l p (K) der Folgenraum

l p (K) := {(xn )n : (xn )n ist Folge in K und

∞ X n=1

|xn | p konvergiert} .

Auf l p (K) ist also die folgende Abbildung nach R wohldefiniert: ∞ 1/p X  p k(xn )n k p :=  |xn | 

(7.3)

n=1

für die Definitheit und Homogenität offensichtlich sind, so dass nur noch die Dreiecksungleichung zu zeigen ist, die analog zu 1) aus der Hölderschen Ungleichung für h(xn )n . (yn )n i := d. h. für

1 p

+

1 q

∞ X

xn y n ,

(7.4)

n=1

= 1 bei p, q ≥ 1. aus |h(xn )n . (yn )n i| ≤ k(xn )n k p k(yn )n kq

(7.5)

folgt. Ein Beweis dafür folgt sofort aus (7.2), angewendet auf die Partialsummen. Für p = 2 ist (7.4) ein inneres Produkt auf l2 (K) (wegen (7.5) wohldefiniert) und (7.5) wird wieder zur Cauchy-Schwarz-Ungleichung. Also: (l2 (K), h . i) ist ein euklidischer bzw. unitärer Raum mit k . k2 als erzeugter Norm. Die l p (K) sind also auch als Menge unterschiedlich. Es gilt p1 < p2 ⇒ l p1 (K) $ l p2 (K) . Die l p (K) sind unendlichdimensional. 3) Das kontinuierliche Analogon zu 1) oder 2) könnte dann, z. B. auf einem abgeschlossenen Intervall [a, b], a < b, sein:  C([a, b], K), k . k p .

Dabei ist C([a, b], K) (siehe (3.10)) der Raum der stetigen Funktionen f : [a, b] → K und

754

7 Lineare Algebra und Analysis

k f k p :=

R

b a

| f (t)| p dt

1/p

.

k . k p ist eine Norm auf (C[a, b], K), wobei die Dreiecksungleichung wieder aus der Hölderschen Ungleichung h f . gi ≤ k f k p kgkq , für p, q ≥ 1 mit 1p + q1 = 1 folgt. Ein Beweis dafür findet sich z. B. in Amann und Escher 1998, S. 343. Z b h f . gi := f (t)g(t)dt a

ist dabei das für K = R schon in Bemerkung 1.90 und für K = C in (3.21) eingeführte innere Produkt. Also: C([a, b], K), h . i) ist ein euklidischer bzw. unitärer Raum und k . k2 ist die erzeugte Norm. 4) Ist k . k eine Norm auf Rn , dann ist kx + iyk := kxk + kyk eine Norm auf Cn . Dabei kann  |a| + |b| =

ab

1 durch jede Norm auf R2 ersetzt werden. △

Sei nun (V, k . k) ein beliebiger (insbesondere auch unendlichdimensionaler) K-Vektorraum.

− Ein (abstrakter) Vektor u in V kann also ein Zahlentupel, eine Folge oder eine Funktion sein.−

Mit der durch k . k definierten Abstandsfunktion

d(u, w) := ku − wk , die eine Metrik (siehe Anhang Definition C.1) auf V darstellt, kann genau so Analysis betrieben werden, wie es in der Analysis für V = Kn , k . k = k . k2 entwickelt wird. Auf der Basis von d definiert man also in V: -

abgeschlossene Kugel offene Kugel abgeschlossene Menge offene Menge beschränkte Menge Konvergenz von Folgen (un )n in V Cauchy-Folge in V Stetigkeit von Abbildungen Φ : V → W, wobei V, W normierte K-Vektorräume mit Normen k . kV , k . kW sind.

Viele aus der Analysis bekannten Aussagen gelten auch hier (siehe Anhang C). Sei Φ ∈ Hom(Kn , Km ) dargestellt durch A = (ai, j ) ∈ K(m,n) .

7.1 Normierte Vektorräume

755



2

Dann folgt durch Anwendung der Cauchy-Schwarz-Ungleichung auf a(i) . x , wobei a(i) die i-te Zeile von A bezeichnet, und Aufsummation der Quadrate:

kAxk2 ≤ Ckxk2 für alle x ∈ Kn , wobei  n 1/2  X  2 C :=  |ai, j |  ,

(7.6)

i, j=1

also insbesondere

kAx − Ayk2 ≤ Ckx − yk2 . Auf Kn ist also jede lineare Abbildung stetig (bezüglich k . k2 ), sogar Lipschitz2 -stetig: Definition 7.3 Seien (V, k . kV ), (W, k . kW ) normierte K-Vektorräume. Sei Φ : V → W eine Abbildung (i. Allg. nichtlinear). Φ heißt Lipschitz-stetig (mit Lipschitz-Konstante L > 0), wenn gilt kΦ(u1 ) − Φ(u2 )kW ≤ Lku1 − u2 kV

für u1 , u2 ∈ V .

Bei Lipschitz-stetigen Abbildungen ist die „ε-δ-Beziehung“ folglich nicht lokal und nur qualitativ, sondern überall durch δ := ε/L gegeben, i. Allg. ist also Lipschitz-Stetigkeit eine viel schärfere Forderung als Stetigkeit. Das gilt nicht für lineare Abbildungen. Theorem 7.4: stetig ↔ beschränkt für lineare Operatoren Seien (V, k . kV ) und (W, k . kW ) normierte K-Vektorräume, Φ ∈ Hom(V, W). Dann sind äquivalent: (i) Φ ist beschränkt, d. h. es existiert ein L > 0, so dass kΦukW ≤ LkukV

für u ∈ V .

(ii) Φ ist Lipschitz-stetig mit Lipschitz-Konstante L > 0. 2

Rudolf Otto Sigismund Lipschitz ∗14. Mai 1832 in Königsberg †7. Oktober 1903 in Bonn

756

7 Lineare Algebra und Analysis

(iii) Φ ist stetig in u0 für ein u0 ∈ V. (iv) Φ ist stetig in u = 0.

Beweis: Auf die Normindizierung wird verzichtet. (i) ⇒ (ii) ⇒ (iii) sind klar, (iii) ⇒ (iv) gilt, da zu ε > 0 ein δ > 0 existiert, so dass kΦu − Φ0k = kΦ(u + u0 ) − Φu0 k ≤ ε gilt, wenn ku − 0k = ku + u0 − u0 k ≤ δ, so dass nur (iv) ⇒ (i) zu zeigen bleibt. Sei Φ stetig in u = 0. Dann gibt es zu ε = 1 ein a := δ(1) > 0, so dass kΦu − Φ0k ≤ 1 für ku − 0k ≤ a .

  a

a a Sei u ∈ V, u , 0, dann

kΦuk = kΦ kuk u k ≤ 1 , so dass für alle u

= a und daher kuk kuk u ∈ V gilt kΦuk ≤

1 kuk . a



Bemerkungen 7.5 1) Sei Φ, Ψ : V → W linear, wobei V, W normierte K-Vektorräume seien. Sind Φ, Ψ beschränkt, dann sind auch Φ + Ψ und λΦ für λ ∈ K beschränkt.

2) Sei (V, k . k) ein n-dimensionaler normierter K-Vektorraum, B := [u1 , . . . , un ] eine festgewählte Basis von V, ΨB die Koordinatenabbildung, d. h. das durch ΨB (ui ) = ei , i = 1, . . . , n

eindeutig festgelegte ΨB ∈ Hom(V, Kn ). Dann ist ΨB−1 ∈ Hom(Kn , V) stetig, wenn Kn mit der euklidischen Norm versehen wird. Das kann man folgendermaßen einsehen: Sei u=

n X i=1

a = (ai )i ∈ Kn ,

ai ui ∈ V,

also ΨB (u) = a und kuk = k

n X i=1

ai ui k ≤

n X i=1

|ai | kui k ≤ Lkak2

(7.7)

nach der Cauchy-Schwarz-Ungleichung auf Rn , wobei  n 1/2 X  2  L :=  kui k  . i=1



7.1 Normierte Vektorräume

757

Eine weitere wichtige (nichtlineare) stetige Abbildung auf (V, k . k) wird durch die Norm selbst definiert. Aus der Dreiecksungleichung folgt die umgekehrte Dreiecksungleichung | kuk − kwk | ≤ ku − wk

für u, w ∈ V

(Beweis als Übung), also: Satz 7.6: Norm Lipschitz-stetig Sei (V, k . k) ein normierter K-Vektorraum. Die Abbildung f : (V, k . k) → (R, | . |), u 7→ kuk ist Lipschitz-stetig mit Lipschitz-Konstante 1.

Bemerkung 7.7 Verwandt mit Satz 7.6 ist im Fall eines euklidischen bzw. unitären Raums (V, h . i) auch die Abbildung h . i : V × V → K, (u, w) 7→ hu . wi stetig (aber nicht Lipschitz-stetig). Dabei ist auf V × V eine Norm durch k(u, w)k := (kuk2 + kwk2 )1/2 definiert. Diese Aussage ergibt sich aus der Cauchy-Schwarz-Ungleichung: |hu1 . w1 i − hu2 . w2 i| ≤ k(u1 , w2 )k k(u1 − u2 , w1 − w2 )k



Argumentationen über Satz 7.6 sind sehr nützlich. Aus der Stetigkeit der Norm zusammen mit der Charakterisierung von Stetigkeit in Satz C.9 ergibt sich z. B. sofort die Offenheit der offenen Kugel K := {u : ku − ak < ε} über K = f −1 ((−1, ε)) , wobei f (u) := ku − ak eine stetige Abbildung von V nach R ist. Etwas Vorsicht ist mit dem Begriff der Kompaktheit geboten. Hier verallgemeinert sich das Heine-Borel34 -Kriterium (siehe Anhang C, Definition C.10 ff.), aber nur für den endlichdimensionalen Fall.

3 4

Heinrich Eduard Heine ∗18. März 1821 in Berlin †21. Oktober 1881 in Halle (Saale) Félix Édouard Justin Émile Borel ∗7. Januar 1871 in Saint-Affrique †3. Februar 1956 in Paris

758

7 Lineare Algebra und Analysis

7.1.2 Normen und Dimension Ist es notwendig verschiedene Normen auf einem Raum zu betrachten? Lineare Skalierungen einer Norm, wie etwa kuk′ := αkuk

für u ∈ V

für festes α > 0 und einen normierten K-Vektorraum, ändern nur die Längenwerte, nicht aber Konvergenz-, Stetigkeits-, etc. -aussagen. Das Gleiche gilt für nichtlineare Skalierungen, wenn diese durch lineare abschätzbar sind. Definition 7.8 Sei V ein K-Vektorraum, k . k, k . k′ seien Normen auf V. k . k heißt stärker als k . k′ , wenn ein β > 0 existiert, so dass kuk′ ≤ βkuk

für alle u ∈ V .

Ist k . k stärker als k . k′ und k . k′ stärker als k . k, d. h. gibt es α, β > 0, so dass αkuk ≤ kuk′ ≤ βkuk

für alle u ∈ V ,

dann heißen k . k und k . k′ äquivalent. Bemerkungen 7.9 1) Ist also k . k stärker als k . k′ auf einem Vektorraum V, so folgt für eine beliebige Folge (un )n in V: Gilt un → u für n → ∞ bezüglich k . k



dann gilt auch un → u für n → ∞ bezüglich k . k

(also kun − uk → 0 für n → ∞),

(also kun − uk′ → 0 für n → ∞)

Man betrachte dazu kun − uk′ ≤ βkun − uk.

Dasselbe gilt für Cauchy-Folgen oder beschränkte Folgen. Eine äquivalente Formulierung ist: Φ : (V, k . k) → (V, k . k′ ), u 7→ u

(die Einbettung von (V, k . k) nach (V, k . k′ ))

ist stetig (vergleiche Theorem 7.4). 2) Bei äquivalenten Normen sind also die konvergenten Folgen identisch, und damit auch die offenen, abgeschlossenen, kompakten, . . . Mengen und die stetigen Abbildungen. Man sagt auch: Die von den Normen erzeugten Topologien sind gleich. 3) Die Äquivalenz von Normen ist eine Äquivalenzrelation auf der „Kategorie“ der normierten K-Vektorräume, d. h.

7.1 Normierte Vektorräume

759

- (V, k . k) ist äquivalent zu (V, k . k).

- Ist (V, k . k) zu (V, k . k′ ) äquivalent, dann auch (V, k . k′ ) zu (V, k . k).

- Ist (V, k . k) zu (V, k . k′ ) äquivalent, (V, k . k′ ) zu (V, k . k′′) äquivalent, dann auch (V, k . k) zu (V, k . k′′ ). △ Im Sinne der Äquivalenz von Normen gibt es auf einem endlichdimensionalen Vektorraum im Wesentlichen nur eine Norm: Hauptsatz 7.10: alle Normen äquivalent auf endlichdimensionalem Raum Sei V ein endlichdimensionaler K-Vektorraum, k . k und k . k′ seien Normen auf V. Dann sind k . k und k . k′ äquivalent.

Beweis: Wegen Bemerkungen 7.9, 3) reicht es, eine feste Norm k . k′ auf V anzugeben und die Äquivalenz einer beliebigen Norm k . k dazu zu zeigen. Sei {u1 , . . . , un } eine fest gewählte Basis von V. Dann definiert P 1/2

P

′ kuk′ :=

ni=1 ai ui

:= ni=1 |ai |2 = kak2

eine Norm auf V (Übung). Sei k . k eine beliebige Norm auf V. Dann folgt aus (7.7), dass k . k′ stärker ist als k . k. Es fehlt somit noch die Umkehrrichtung, also die Existenz einer Konstanten α > 0, so dass αkuk′ ≤ kuk

für alle u ∈ V

(7.8)

bzw. äquivalent die Stetigkeit der Koordinatenabbildung aus Bemerkungen 7.5, 2). Betrachte dazu die Abbildung f von Kn nach R, definiert durch a = (ai )i 7→

n X i=1

n



X ai ui →

ai ui

. i=1

Nach Bemerkungen 7.5, 2) und Satz 7.6 ist f die Komposition zweier stetiger Abbildungen und damit stetig. Sei K := {x ∈ Kn : kxk2 = 1} , wobei k . k2 die euklidische Norm auf Kn bezeichnet. K ist abgeschlossen und beschränkt, also kompakt (siehe Satz C.11, 2)). Daher nimmt f auf K sein Infimum m an (siehe Satz C.12, 2)), etwa an der Stelle b x ∈ K, also gilt für alle x ∈ K: f (x) ≥ f (b x) = m .

P Es ist m > 0, da sonst ni=1 b xi ui = 0 und damit auch b x = 0 im Widerspruch zu b x ∈ K. P Für beliebige u ∈ V, u , 0, u = ni=1 xi ui folgt also: Für

760

7 Lineare Algebra und Analysis

X X xi 1 u = ui y u = i i kuk′ kuk′ i=1 i=1 n

w :=

n

ist kwk′ = 1, also kyk2 = 1 und damit y ∈ K und somit n

X

1

= f (y) ≥ m ,

y u kuk = i i kuk′ i=1

so dass α := m gewählt werden kann.



Bemerkungen 7.11 1) Mit (7.8) ist also gezeigt: Die Koordinatenabbildung ΨB : (V, k . k) → (Kn , k . k2 ) ist stetig (nicht nur ihre Umkehrabbildung, wie schon in (7.7) gezeigt). 2) Auf Kn reicht es also, Konvergenz bezüglich einer spezifischen Norm zu betrachten, z. B. kxk∞ := max{|xi | : i = 1, . . . , n} der Maximumsnorm (oder auch einer der p-Normen). Da aber für x ∈ Kn , x = (xi )i offensichtlich gilt kxk∞ ≤ ε ⇔ |xi | ≤ ε

für i = 1, . . . , n ,

folgt: Sei (xk )k eine Folge in Kn , k = 1, 2, . . . , xk = (xi,k )i . Dann sind äquivalent: (i) (xk )k ist konvergent gegen x [ist Cauchy-Folge] bezüglich einer Norm k . k für k → ∞.

(ii) (xk )k ist konvergent gegen x [ist Cauchy-Folge] bezüglich k . k∞ für k → ∞.

(iii) Die Komponentenfolgen (xi,k )k sind konvergent gegen xi [sind CauchyFolgen] für k → ∞ und alle i = 1, . . . , n.

Auf Grund dessen können wir die Definitionen von (1.50), (3.10) bzw. (3.11) verallgemeinern zu  C [a, b], Kn :={ f : [a, b] → Kn : f ist stetig}  C q (a, b), Kn :={ f : [a, b] → Kn : f ist stetig auf [a, b] , q-mal stetig differenzierbar auf (a, b)} für q ∈ N .

(7.9)

Dabei kann Stetigkeit als Stetigkeit der Komponentenfunktion fi von f = ( fi )i verstanden werden und analog Differenzierbarkeit (siehe auch Definition 7.75 ff.).

7.1 Normierte Vektorräume

761

3) Seien (V, k . kV ), (W, k . kW ) beliebige normierte K-Vektorräume, Φ ∈ Hom(V, W). Weiter sei V endlichdimensional. Dann ist Φ stetig. Das kann man folgendermaßen einsehen: Da nach Satz 2.3 dim Bild Φ ≤ dim V < ∞ kann auch W als endlichdimensional angenommen werden. Wegen der Stetigkeit der Koordinatenabbildungen und ihrer Umkehrabbildungen reicht es, die Stetigkeit der durch die Darstellungsmatrix definierten Abbildung, d. h. von A : (Kn , k . k2 ) → (Km , k . k2 )

zu betrachten, (n := dim V, m := dim W), da Φ = ΞB−12 ◦ A ◦ ΨB1 ,

wenn B1 eine fest gewählte Basis von V und B2 von W ist.

Für A = (ai, j ) ∈ K(m,n) gilt (siehe (7.6)) kAxk2 ≤ Lkxk2 , wobei 1/2  n n  X X  |ai, j | . L :=  i=1 j=1

A ist also beschränkt mit Lipschitz-Konstante L und nach Theorem 7.4 stetig. 4) Mögliche Äquivalenzkonstanten für k . k1 , k . k2 und k . k∞ auf Kn ergeben sich aus: kxk∞ ≤ kxk1 ≤ nkxk∞ kxk∞ ≤ kxk2 ≤ n1/2 kxk∞ . △

Bemerkungen 7.12 Seien V1 , V2 (oder auch V1 , . . . , Vn ) (nicht notwendig endlichdimensionale) K-Vektorräume. 1) Dann ist auch V1 × V2 (bzw. V1 × . . . × Vn ) nach Beispiele 3.15, 5) mit einer KVektorraumstruktur versehen. Seien k . ki Normen auf Vi , dann wird für (u1 , . . . , un ) ∈ V1 × . . . × Vn durch

k(u1 , . . . , un )k =

(ku1 k1 , . . . , kun kn )t



eine Norm auf V1 × . . . × Vn definiert. Dabei ist k . k∗ eine beliebige Norm auf Kn und die Normen sind für alle Wahlen von k . k∗ äquivalent. Die Normeigenschaften rechnet man sofort nach, die Äquivalenz folgt aus Hauptsatz 7.10.

Eine mögliche Wahl ist also

762

7 Lineare Algebra und Analysis n

k(u1 , . . . , un )k := max kui ki .

(7.10)

i=1

2) Die Charakterisierung von Stetigkeit (bei 0) durch Beschränktheit aus Theorem 7.4 lässt sich von linearen Abbildungen auf nichtlineare übertragen. Dabei seien V1 × . . . × Vn , W normierte K-Vektorräume, Φ : V1 × . . . × Vn → W sei multilinear, d. h. bei Festhalten von n − 1 Variablen (außer ui ) entsteht eine lineare Abbildung von Vi nach W. V1 × . . . × Vn sei mittels (7.10) normiert. Dann sind äquivalent: (i) Φ ist beschränkt, d. h. es gibt ein L > 0 so dass kΦ (u1 , . . . , un ) k ≤ L

n Y i=1

kui ki

(7.11)

(ii) Φ ist stetig auf V1 × . . . × Vn

(iii) Φ ist stetig in (0, . . . , 0)

Der Beweis verläuft analog zu dem von Theorem 7.4. Wir beschränken uns auf n = 2. (i) ⇒ (ii): kΦ(u1 , u2 ) − Φ(w1 , w2 )k = kΦ(u1 , u2 ) − Φ(w1 , u2 ) + Φ(w1 , u2 ) − Φ(w1 , w2 )k ≤ L(ku1 − w1 k1 ku2 k2 + kw1 k1 ku2 − w2 k2 )

und daraus folgt die Behauptung (ii) ⇒ (iii): ist klar (iii) ⇒ (i): Die Behauptung ist für beliebige L > 0 richtig, sofern ui = 0 für ein i gilt, da dann Φ(u1 , u2 ) = 0. Zu ǫ = 1 existiert δ > 0, so dass kΦ(u1 , u2 )k ≤ 1 für max(ku1 k1 , ku2 k2 ) ≤ δ. Also ist für beliebige ui ∈ Vi , ui , 0

!



δ δ u1 , u2

≤ 1

Φ ku1 k1 ku2 k2 und damit

kΦ(u1 , u2 )k ≤

1 ku1 k1 , ku2 k2 . δ2

3) Neben linearen sind uns auch schon einige nichtlineare Abbildungen begegnet: Linear (und damit stetig) sind z. B. x 7→ Ax ∈ Km für x ∈ Kn , und festes A ∈ K(m,n) ,

A 7→ Ax ∈ Km für A ∈ K(m,n) und festes x ∈ Kn .

7.1 Normierte Vektorräume

763

Nichtlinear sind dagegen (1) (A, x) 7→ Ax als Abbildung von K(m,n) × Kn nach Km .

(2) (a, b) 7→ a × b als Abbildung von R3 × R3 nach R3 .

(3) (A, B) 7→ AB als Abbildung von K(m,p) × K(p,n) nach K(m,n) . (4) A 7→ det A als Abbildung von K(n,n) nach K.

Dann sind aber die ersten drei Abbildungen bilinear (siehe Hauptsatz 2.130, 2)) und alle stetig. Die Stetigkeit kann im bilinearen Fall über (7.11) bewiesen werden. Im Fall (2) folgt etwa aus Satz 2.131, 3): ka × bk = sin α kak kbk ≤ kak kbk ,

d. h. die Beschränktheit. Ein anderer Zugang besteht darin, auszunutzen, dass für alle Kn bzw. K(m,n) alle Normen jeweils äquivalent sind und daher nur Folgenstetigkeit in den Komponenten der Urbilder und Bilder betrachtet werden muss. Im Fall (4) gilt nach Definition 2.105 X det A = sign(σ) a1,σ(1) . . . an,σ(n) . σ∈Σn

Für eine konvergente Matrizenfolge An → A konvervieren also alle Komponentenfolgen, damit auch die einzelnen Summanden und damit schließlich die Summe, d. h. det An → det A für n → ∞.

Betrachtet man statt (4)     (4)’ a(1) , . . . , a(n) 7→ det a(1) , . . . , a(n)

d. h. det als Abbildung von Kn × . . . × Kn (n-mal) nach K, so ist diese multilinear nach Theorem 2.106, Theorem 2.111, 3). Die Äquivalenzaussagen aus 2) sichert also ein L > 0, so dass | det(A)| ≤ L

n Y

a(i)

i=1

für eine fest gewählte Norm k . k auf Kn . Eine implizit gegebene nichtlineare Abbildung ist: 4) A 7→ A−1

als Abbildung von GL(n, K) in sich. Diese ist stetig. Dies kann über die explizite Darstellung Satz 2.118 und unter Berücksichtigung der Stetigkeit der Zuordnung der Determinante zu einer Matrix eingesehen werden.

Schließlich stellt sich die Frage nach der stetigen Abhängigkeit der Eigenwerte von der Matrix, z. B. der Abbildung A 7→ (λ1 , . . . , λn )t als Abbildung von der Menge der selbstadjungierten Matrizen in K(n,n) nach Rn , wobei die Eigenwerte λi z. B. absteigend angeordnet sind:

764

7 Lineare Algebra und Analysis

λ1 ≥ λ2 ≥ . . . ≥ λn . △ Auf unendlichdimensionalen Räumen werden verschiedene Normen wesentlich: Bemerkungen 7.13 1) k . k∞ ist stärker als k . k2 auf C([a, b], K), aber nicht umgekehrt. Dabei ist k f k∞ := max{| f (t) : t ∈ [a, b]} die Maximumsnorm auf C([a, b], K) (siehe (1.68)). Es gilt nämlich: k f k2 =

Z

a

b

| f (t)|2 dt

!1/2



Z

b a

k f k2∞ dt

!1/2

= (b − a)1/2 k f k∞ .

Um zu sehen, dass die umgekehrte Abschätzung nicht möglich ist, betrachte man für [a, b] = [0, 1] die Funktionenfolge ( n(1 − n2 t) für 0 ≤ t ≤ n12 , fn (t) = 0 für n12 < t ≤ 1 da für diese

k fn k22 =

Z

1/n2

0

k fn k∞ = n, aber

1/n2 1 1 n2 (1 − n2 t)2 dt = − (1 − n2 t)3 0 = . 3 3

Aus gleichmäßiger Konvergenz einer Folge (stetiger) Funktionen (d. h. bezüglich k . k∞ ) folgt also Konvergenz im quadratischen Mittel (d. h. bezüglich k . k2 ), aber i. Allg. nicht umgekehrt. 2) Auf unendlichdimensionalen Räumen ist nicht jede lineare Abbildung stetig. Man betrachte als Beispiel V := C([a, b], K),

k . kV := k . k∞  W := { f ∈ C (a, b), K : f (a) = 0}, k . kW = k . k∞ 1

(siehe (3.10)) und die linearen Abbildungen

7.1 Normierte Vektorräume

765

S : V → W, f 7→ g mit g(t) :=

Z

a ′

t

f (s)ds,

D : W → V, g 7→ f mit f (t) := g (t),

d. h. die Stammfunktion.

d. h. die Ableitung,

dann S −1 = D und D−1 = S , und S ist stetig, da ( Z t ) kS f k∞ = max f (s)ds : t ∈ [a, b] a (Z t ) ≤ max k f k∞ ds : t ∈ [a, b] = (b − a) k f k∞ . a

Aber D ist nicht stetig, wie für [a, b] = [0, 2π] die Beispielfolge fn (t) := sin(nt) zeigt, für sie gilt k fn k∞ = 1, kD fn k∞ = k fn′ k∞ = n . Die Aussagen bleiben gleich, wenn V und W mit k . k2 versehen werden. △ Definition 7.14 Seien (V, k . kV ), (W, k . kW ) normierte K-Vektorräume. L[V, W] := {Φ ∈ Hom(V, W) : Φ ist beschränkt } bezeichnet den K-Vektorraum der linearen, beschränkten Abbildungen von V nach W. Ist speziell W = K, so setzt man auch V ′ := L[V, K] für den Raum der beschränkten und linearen Funktionale. Die Vektorraumeigenschaft ergibt sich daraus, dass L[V, W] nach Bemerkungen 7.5, 1) ein linearer Unterraum von Hom(V, W) ist. Ist V endlichdimensional, ist also L [V, W] = Hom(V, W) , i. Allg. aber nur L [V, W] ⊂ Hom(V, W) . Nur für endlichdimensionales V gilt somit

766

7 Lineare Algebra und Analysis

V ′ = V ∗, wenn V ∗ den (algebraischen) Dualraum von V bezeichnet, i. Allg. ist V′ $ V∗ . Eine wesentliche Eigenschaft des normierten R-Vektorraums (R, | . |) ist seine Vollständigkeit und dies ist der Grund, weshalb wir ihn (Q, | . |) vorziehen: Definition 7.15 Sei (V, k . k) ein normierter K-Vektorraum. (V, k . k) heißt vollständig bzw. ein Banach5 -Raum, wenn für jede Cauchy-Folge (un )n in V ein u ∈ V existiert, so dass un gegen u konvergiert für n → ∞. Ist k . k von einem inneren Produkt h . i erzeugt, so heißt (V, h . i) ein HilbertRaum. Die Vollständigkeit eines (Funktionen-)Raums ist unverzichtbar, um auf ihm Analysis wie auf K (oder Kn ) zu machen. Satz 7.16: endlichdimensional → vollständig Sei (V, k . k) ein normierter K-Vektorraum.

1) Ist V endlichdimensional, dann ist V vollständig. 2) Ist W ein vollständiger Unterraum von V, so ist W abgeschlossen in V. 3) Ist W ein endlichdimensionaler Unterraum, so ist W abgeschlossen.

Beweis: Zu 1): (Skizze) Vollständigkeit wird durch stetige Isomorphismen Φ übertragen, deren Umkehrabbildungen Φ−1 auch stetig sind (Stetigkeit von Φ−1 : Zur Übertragung der Cauchy-Folge, Stetigkeit von Φ: Zur Übertragung der Konvergenz). Da die Koordinatenabbildung einen stetigen Isomorphismus mit stetiger Umkehrabbildung darstellt (nach Bemerkungen 7.11, 1)), reicht die Vollständigkeit von (Kn , k . k2 ), die über Bemerkungen 7.11, 2) aus der Vollständigkeit von K folgt (siehe auch Analysis ). Zu 2): Sei (un )n eine Folge in W, so dass un → u für n → ∞ . Da (un )n auch eine Cauchy-Folge in W ist, konvergiert (un )n in W, also u ∈ W. Zu 3): folgt sofort aus 1) und 2).  5

Stefan Banach ∗30. März 1892 in Krakau †31. August 1945 in Lemberg

7.1 Normierte Vektorräume

767

Bemerkungen 7.17 1) (C([a, b], K), k . k∞) ist vollständig (siehe Analysis ).

2) (C([a, b], K), k . k p) ist nicht vollständig für 1 ≤ p < ∞. Es gibt also Cauchy-Folgen stetiger Funktionen bezüglich k . k p (für p = 2 also bezüglich des quadratischen Mittels), die nicht bezüglich k . k p gegen eine stetige Funktion konvergieren. (C([a, b], K), k . k p) ist also zu „klein“. Eine angemessene, da vollständige Erweiterung ist L p ([a, b], K) := { f : [a, b] → K : | f | p ist integrierbar } .

Dafür muss aber der Integrationsbegriff richtig gefasst werden (Lebesgue6 -Integration statt Riemann-Integration: Siehe Analysis ). 3) Sei (V, k . k) ein normierter Raum, U ein abgeschlossener Unterraum. Dann wird auf V/U durch ku + Uk := inf{kwk : w ∈ u + U} eine Norm definiert. Dreiecksungleichung und Homogenität folgen direkt und allgemein. Für die Definitheit wird die Abgeschlossenheit gebraucht: Bei 0 = ku + Uk = inf{kwk : w ∈ u + U} existiert eine Folge (wn )n , wn ∈ u + U , so dass kwn k → 0 für n → ∞, wn = u + un also un → −u für n → ∞ und damit u ∈ U , d. h. u + U = U .

△ Auch für gewisse lineare Operatoren auf unendlichdimensionalen Vektorräumen lässt sich Spektralanalyse betreiben. Definition 7.18 Sei (V, k . k) ein Banach-Raum über K und Φ ∈ L[V, V].

1) ̺(Φ) := {λ ∈ C : Φ − λ id ist bijektiv und (Φ − λ id)−1 ist beschränkt} heißt die Resolventenmenge von Φ. 2) σ(Φ) := C\̺(A) heißt das Spektrum von Φ.

Bemerkungen 7.19 1) Alle komplexen Eigenwerte von Φ gehören zu σ(Φ). 2) Ist V endlichdimensional, so fällt die Definition mit Definition 4.16 für K = C zusammen, d. h. die Elemente von σ(Φ) sind die komplexen Eigenwerte von Φ. Wegen der Endlichdimensionalität ist Φ beschränkt und analog unter Beachtung von Hauptsatz 2.31 σ(Φ) = {λ ∈ C : Φ − λ id ist nicht injektiv} .

6

Henri Léon Lebesgue ∗28. Juni 1875 in Beauvais †26. Juli 1941 in Paris

768

7 Lineare Algebra und Analysis

3) Das folgende Beispiel zeigt, dass bei unendlichdimensionalem V die Menge σ(Φ) nicht nur aus Eigenwerten bestehen muss. Sei Φ : l2 (K) → l2 (K) definiert durch Φ((xi )i ) = (yi )i mit y1 = 0, yk := xk−1 für k ≥ 2, dann ist Φ linear und beschränkt und für λ = 0 gilt: λ ∈ σ(Φ), da Φ nicht surjektiv ist, aber λ ist kein Eigenwert.

△ *Satz 7.20: Zusammensetzung des Spektrums Unter den Voraussetzungen von Definition 7.18 gilt σ(Φ) = σ p (Φ) ∪ σ s (Φ) ∪ σr (Φ) , wobei: σ p (Φ) := {λ ∈ C : Φ − λ id ist nicht injektiv}, das Punktsprektrum von Φ, bestehend aus den komplexen Eigenwerten. σ s (Φ) := {λ ∈ C : Φ − λ id ist injektiv, aber nicht surjektiv, und Bild(Φ − λ id) ist dicht in V}, das stetige Spektrum . σr (Φ) := {λ ∈ C : Φ − λ id ist injektiv, aber Bild(Φ − λ id) ist nicht dicht in V}, das Residualspektrum .

Beweis: Es reicht zu zeigen, dass ̺(Φ) = {λ ∈ C : Φ − λ id ist bijektiv} , d. h. es ist „⊃“ zu zeigen. Dies folgt aus dem Satz von der inversen Abbildung (siehe z. B.  Alt 2006, S. 221). Bemerkungen 7.21 1) Im Beispiel von Bemerkungen 7.19, 2) ist σ(Φ) = σr (Φ) = {0}.

2) Hinsichtlich einer möglichen Spektraldarstellung kommen für unendlichdimensionale Banach-Räume noch kompakte Operatoren der Situation im Endlichdimensionalen am nächsten: Φ ∈ L[V, V] heißt kompakt, wenn cl(Φ(B1(0))) kompakt in V ist. Ist Φ ∈ Hom(V, V) und Bild Φ endlichdimensional, dann ist Φ kompakt.

Nach Theorem 7.4 ist Φ beschränkt, d. h. cl(Φ(B1 (0))) ist beschränkt und abgeschlossen in Bild Φ, nach Satz C.11, 2) also kompakt.

Insbesondere ist also für endlichdimensionales V jedes Φ ∈ Hom(V, V) kompakt. Andererseits lässt sich jedes kompakte Φ durch Φn mit dim Bild Φn < ∞ beliebig gut in der erzeugten Norm auf L[V, V] approximieren (siehe Alt 2006, S. 316) 3)

a) Für kompakte Φ ∈ L[V, V] gilt: σ(Φ)\{0} besteht aus abzählbar vielen Eigenwerten, die sich höchstens bei 0 häufen.

7.1 Normierte Vektorräume

769

b) Jedes λ ∈ σ(Φ)\{0} hat einen Fitting-Index kλ (siehe (4.71)), der Hauptraum ist endlichdimensional. Es gilt die Φ-invariante Zerlegung V = Kern((Φ − λ id)kλ ) ⊕ Bild(Φ − λ id)kλ (siehe z. B. Alt 2006, S. 377).

4) Ist Φ kompakt und normal, kann für jedes λ ∈ N := σ(Φ)\0 ein Eigenvektor uλ ∈ V gewählt werden, so dass B := {vλ : λ ∈ N}

orthogonal ist (eine Orthonormalbasis bildet im Sinn von Satz 7.61) und V = Kern Φ ⊕ cl(span(B)) ist eine orthogonale Zerlegung, für die gilt: X Φu = λ hu . uλ i uλ λ∈N

(siehe z. B. Alt 2006, S. 391). △

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • • • • • •

Höldersche Ungleichung in (Kn , k . k p ), (l p (K), k . k p ) und (C([a, b], K), k . k p) Lipschitz-Stetigkeit einer Abbildung Beschränktheit einer Abbildung Äquivalenz von Normen L[V, W], V ′ für normierte K-Vektorräume V, W Banach-Raum, Hilbert-Raum

Zusammenhänge • stetig = beschänkt bei linearen Operatoren (Theorem 7.4) • Auf endlichdimensionalen Räumen sind alle Normen äquivalent (Hauptsatz 7.10)

Beispiele • • • • •

(Kn , k . k p ), 1 ≤ p ≤ ∞ (l p (K), k . k p ), 1 ≤ p < ∞  C [a, b], K , k . k p ), 1 ≤ p ≤ ∞ k . k2 ist nicht stärker als k . k∞ auf C([a, b], K). Die Zuordnung der Ableitung ist unstetig bezüglich k . k∞ .

770

7 Lineare Algebra und Analysis

Aufgaben Aufgabe 7.1 (T) Gegeben sei ein normierter K-Vektorraum (V, k . k). Zeigen Sie: | kuk − kwk | ≤ ku − wk für u, w ∈ V. Aufgabe 7.2 (T) a) Man zeige die Höldersche Ungleichung hx . yi ≤ kxk p kykq auf dem euklidischen Raum (Kn , h . i) für den Spezialfall p = 1, q = ∞. b) Zeigen Sie die Dreiecksungleichung für die in Bemerkungen 7.17, 3) definierte Norm auf V/U. Aufgabe 7.3 (T) Sei V ein n-dimensionaler K-Vektorraum. Zeigen Sie: Für eine fest gewählte Basis {u1 , . . . , un } ist k . k′ eine Norm auf V, wobei n n X 1/2

X

′ kuk′ :=

ai ui

:= |ai |2 = kak2 . i=1

i=1

Aufgabe 7.4 (T) Im Folgenraum l2 (R) mit der vom inneren Produkt h . i induzierten Norm  P 2 1/2 betrachte man die lineare Abbildung k(xn )n k2 := ∞ n=1 xn T : l2 (R) → l2 (R), A := (an )n 7→ B := (bn )n

   0 mit bn =   an−1

für n = 1 , sonst .

a) Zeigen Sie, dass für alle A, B ∈ l2 (R) gilt: hT A . T Bi = hA . Bi . b) Zeigen Sie, dass T injektiv ist. c) Geben Sie eine Abbildung T˜ an mit T˜ ◦ T = id. Ist T bijektiv? Aufgabe 7.5 (T) Sei 1 ≤ p ≤ q < ∞. Zeigen Sie (l p (K), k . k p ) ⊂ (lq (K), k . kq ), indem Sie die Abschätzung k(xn )n kq ≤ k(xn )n k p für alle (xn )n ∈ l p (K) beweisen.

7.2 Normierte Algebren

771

7.2 Normierte Algebren

7.2.1 Erzeugte und verträgliche Normen Seien (V, k . kV ), (W, k . kW ) normierte K-Vektorräume. Dann ist auch L[V, W] ein KVektorraum und damit i. Allg. auch normierbar. Es ist nützlich, wenn eine auf L[V, W] eingeführte Norm verträglich ist in folgendem Sinn: Definition 7.22 Seien (V, k . kV ) und (W, k . kW ) normierte K-Vektorräume. Eine Norm k . k auf L[V, W] heißt verträglich mit k . kV und k . kW , wenn für alle Φ ∈ L[V, W] gilt kΦukW ≤ kΦk kukV

für alle u ∈ V .

Speziell für V = Kn , W = Km , d. h. dem Abbildungsraum K(m,n) wird durch jede Tupelnorm auch eine Norm auf K(m,n) definiert (da K(m,n) auch als Kmn auffassbar ist), also etwa durch  n 1/2  X  kAkF :=  |ai, j |2  i, j=1

für A ∈ K(m,n) , die Frobenius-Norm. Die Abschätzung vor (7.6) zeigt die Verträglichkeit von k . kF mit k . k2 auf Kn bzw. m K . Bei einer verträglichen Norm ist kΦk eine mögliche (Lipschitz-)Konstante in der Beschränktheitsabschätzung von Φ, aber nicht immer die kleinstmögliche: Zum Beispiel für Φ = A = 1 ∈ K(n,n) ist wegen kΦxk2 = kxk2 L = 1 die kleinste Konstante, aber es gilt kAkF = n1/2 . Die minimale Lipschitz-Konstante definiert ebenfalls eine Norm auf L[V, W], also die minimale Norm auf L[V, W], die mit den Normen von V und W verträglich ist. Theorem 7.23: Erzeugte Norm Seien (V, k . kV ) und (W, k . kW ) normierte K-Vektorräume. 1) Sei Φ ∈ L[V, W]. Dann gilt:

772

7 Lineare Algebra und Analysis

L : = inf{α > 0 : kΦukW ≤ αkukV ) ( kΦukW : u ∈ V, u , 0 = sup kukV

für alle u ∈ V}

(7.12)

= sup{kΦukW : u ∈ V, kukV = 1}

= sup{kΦukW : u ∈ V, kukV ≤ 1} Insbesondere gilt also kΦukW ≤ LkukV

für alle u ∈ V ,

d. h. das inf in (7.12) kann durch min ersetzt werden. 2) Durch kΦk := L nach (7.12) wird eine Norm auf L[V, W] definiert, die von k . kV , k . kW erzeugte Norm. Insbesondere ist also für Φ ∈ L[V, W] : kΦukW ≤ kΦk kukV

für u ∈ V ,

(7.13)

d. h. eine erzeugte Norm ist verträglich.

Beweis: Zu 1): Die behauptete Identität wird mit L = A = B = C abgekürzt. Sei α > 0 aus der Menge M ⊂ R, worüber in (7.12) das Infimum genommen wird, dann kΦukW ≤ α für u ∈ V, u , 0 kukV



A := sup



A≤L.

n kΦukW kukV

: u ∈ V, u , 0} ≤ α

Wegen kΦukW ≤ AkukV für alle u ∈ V ist aber auch L ≤ A, also A = L . Wegen

u

kΦukW

=

Φ kukV kukV W

gilt ebenso A = B , da die Mengen gleich sind, über die das Supremum gebildet wird. Weiter gilt offensichtlich L=A=B≤C. Sei andererseits u ∈ V, kukV ≤ 1, o. B. d. A. u , 0, dann kΦukW ≤

kΦukW ≤ A , also C ≤ A. kukV

Zu 2): Definitheit und Homogenität folgen sofort z. B. aus der Darstellung als Term A. Die Dreiecksungleichung folgt aus

7.2 Normierte Algebren

773

k(Φ + Ψ )ukW = kΦu + Ψ ukW ≤ kΦk kukV + kΨ k kukV = (kΦk + kΨ k)kukV

für alle u ∈ V

und damit kΦ + Ψ k ≤ kΦk + kΨ k.  Bemerkungen 7.24 1) Das „sup“ in den verschiedenen Darstellungsformen von kΦk wird i. Allg. nicht angenommen, aber es gilt: Sei (V, k . kV ) endlichdimensional, dann gilt für Φ ∈ L[V, W] und einen Vektorraum (W, k . kW ): ) ( kΦukW : u ∈ V, u , 0 kΦk = max kukV = max{kΦukW : u ∈ V, kukV = 1}

= max{kΦukW : u ∈ V, kukV ≤ 1} . Wie schon erwähnt, sind die Mengen im 1. und 2. Fall gleich, so dass nur die Annahme des sup im 2. und 3. Fall geklärt werden muss. Mit u 7→ kΦukW

wird eine stetige Abbildung von V nach R betrachtet, und zwar auf einer in V beschränkten und abgeschlossenen, nach Satz C.11, 2) also kompakten Menge, so dass dort das Supremum angenommen wird (siehe Satz C.12, 2)).

Diese Situation liegt unabhängig von der Dimension von V vor, wenn es ein α > 0 und ein u ∈ V, u , 0 gibt, so dass kΦukW ≤ αkukV für alle u ∈ V und kΦukW = αkukV .

2) Seien (V, k . kV ), (W, k . kW ) normierte Räume und Φ bzw. Ψ lineare Isomorphismen auf V bzw. W. Dann: a) kuk′V := kΦukV bzw. kwk′W := kΨ wkW sind Normen auf V bzw. W.

b) Ist k . k eine Norm auf L[V, W], dann ist auch

kχk := kΨ χΦ−1 k für χ ∈ L[V, W] eine Norm auf L[V, W]. c) Ist k . k die von k . kV und k . kW erzeugte Norm auf L[V, W], dann ist die durch k . k′V und k . k′W (nach a)) erzeugte Norm gegeben durch kχk′ := kΨ χΦ−1 k für χ ∈ L[V, W] .

774

7 Lineare Algebra und Analysis

Bei a) und b) lassen sich die Normeigenschaften sofort verifizieren, bei c) beachte man kχvk′W = kΨ χvkW = kΨ χΦ−1 (Φu)kW ≤ kΨ χΦ−1 k kuk′V ,

also gilt kχk′ ≤ kΨ χΦ−1 k. Ist andererseits α > 0, so dass kΨ χukW ≤ αkΦukV für alle u ∈ V bzw.kΨ χΦ−1 wkW ≤ αkwkV für alle w ∈ V dann auch kΨ χΦ−1 k ≤ α und so kΨ χΦ−1 k ≤ kχk′ .

 3) Sei Φ : C([a, b], K), k . k∞ → (K, | . |) definiert durch f 7→

Zb

f (x)dx.

a

Dann gilt: Z b |Φ( f )| = f (x)dx ≤ (b − a)k f k∞ a

und damit kΦk ≤ b − a . Da aber für e f , definiert durch e f (x) = 1, gilt |Φ( e f )| = (b − a)1 = (b − a)k e f k∞ ,

folgt kΦk = b − a und die Suprema werden hier angenommen (durch e f ).



Im Fall V = W ist mit Φ, Ψ ∈ Hom(V, V) bzw. L[V, V] auch Φ ◦ Ψ ∈ Hom(V, V) bzw. L[V, V] und diese innere Verknüpfung erfüllt mit + alle Eigenschaften eines Körpers mit Ausnahme der Kommutativität von ◦ und der Existenz von Inversen (das neutrale Element bezüglich ◦ ist id). Insbesondere handelt es sich um eine K -Algebra (siehe Definition 3.17). Ist diese im Fall K = K mit einer Norm versehen, so ist eine Verträglichkeit dieser Norm mit der (inneren) Multiplikation wünschenswert. Definition 7.25 Sei (V, k . k) ein normierter K-Vektorraum mit zusätzlicher innerer Multiplikation, so dass (V, +, λ·, ·) eine K-Algebra ist. Ist die Norm bezüglich · submultiplikativ, d. h. ku · wk ≤ kuk kwk

für alle u, w ∈ V ,

dann heißt (V, +, λ·, ·, k . k) normierte Algebra. Ist diese bezüglich k . k vollständig, spricht man von einer Banach-Algebra.

7.2 Normierte Algebren

775

Satz 7.26: Erzeugte Norm submultiplikativ Seien (U, k . k), (V, k . k), (W, k . k) normierte K-Vektorräume, k . k sei die auf L[U, W], L[V, W] bzw. L[U, V] erzeugte Norm. Dann gilt kΦ ◦ Ψ k ≤ kΦk kΨ k

für Ψ ∈ L[U, V], Φ ∈ L[V, W] ,

d. h. eine erzeugte Norm ist submultiplikativ, insbesondere ist (L[V, V], +, λ·, ◦) eine normierte Algebra.

Beweis: kΦ ◦ Ψ uk = kΦ(Ψ u)k ≤ kΦk kΨ uk ≤ kΦk kΨ k kuk

für alle u ∈ V

und damit kΦ ◦ Ψ k ≤ kΦk kΨ k .



Bemerkungen 7.27 1) In einer normierten Algebra gilt für Potenzen un = u · . . . · u (n-fach): kun k ≤ kukn , so dass sofort folgt (un )n ist eine Nullfolge, falls kuk < 1 . 2) Ist k . k eine erzeugte Norm auf L[V, V], dann gilt für die Identität id: k id k = 1 . 3) Für n > 1 ist also die Frobenius-Norm nicht erzeugt, aber sie ist submultiplikativ. (Übung) 4) Sei k . k M eine submultiplikative Norm auf K(n,n) , dann gibt es eine damit verträgliche Norm k . kV auf K n .

Sei kxkV := kXkM , wobei X := (x, . . . , x) ∈ K(n,n) . Da Φ : x 7→ X linear und injektiv ist, sind die Normeigenschaften klar. Die Verträglichkeit der Normen folgt wegen AΦ(x) = A(x, . . . , x) = (Ax, . . . , Ax) = Φ(Ax), denn kAxkV = kΦ(Ax)kM = kAΦ(x)kM ≤ kAkM kΦ(x)kM = kAkM kxkV



776

7 Lineare Algebra und Analysis

Bemerkungen 7.28 Für die Dualräume V ′ folgt insbesondere: Sei V = (Kn , k . k p ), 1 ≤ p ≤ ∞ . Es gilt V ′ = V ∗  V, wobei nach Theorem 3.48 ein (anti)linearer Isomorphismus durch J : V → V ′ durch a 7→ (x 7→ hx . ai) gegeben ist. Für die auf V ′ erzeugte Norm gilt kϕk = kakq für a := J −1 (ϕ) , wobei q zu p konjugiert ist. Das kann man folgendermaßen einsehen: Sei 1 < p < ∞. Es gilt nach der Hölderschen Ungleichung |ϕ(x)| = | hx . ai | ≤ kxk p kakq

und damit kϕk ≤ kakq .

Um die Gleichheit zu zeigen, muss ein x ∈ Kn mit | hx . ai | = kxk p

für a ∈ Kn mit kakq = 1 angegeben werden. Der Ansatz xi = ai |ai |α−1 (bzw. xi = 0 für ai = 0) führt zu hx . ai =

n X i=1

xi ai =

n X i=1

|ai |α+1 ,

was die Wahl α = q − 1 nahelegt, also hx . ai = kakqq = 1 und p

kxk p =

n X i=1

q

(|ai | |ai |q−2 ) p = kakq = 1

wegen (q − 1)p = q. Für p = 1 und q = ∞ oder umgekehrt kann die obige Argumentation modifiziert oder direkt Theorem 7.30 1), 2) angewendet werden.

△ Speziell für V = Kn und W = Km berechnen wir einige auf Hom(V, W) erzeugte Normen. Dabei identifizieren wir Φ ∈ Hom(V, W) mit der Darstellungsmatrix A ∈ K(m,n) , jeweils für die Einheitsbasis, d. h. Φx = Ax. Dafür setze man: Definition 7.29 Sei A ∈ K(n,n) . ρ(A) = max{|λ| : λ ∈ C ist Eigenwert von A} heißt Spektralradius von A.

7.2 Normierte Algebren

777

Theorem 7.30: Erzeugte Matrixnormen Sei V = (Kn , k . k p ), W = (Km , k . k p ) für p ≥ 1 oder p = ∞. Sei A ∈ K(m,n) : Dann ist die auf K(m,n) erzeugte Norm gegeben durch 1) für p = ∞:

    n      X , |a | : i = 1, . . . , m kAk = kAk∞ := max   i, j       j=1

die Zeilensummennorm , 2) für p = 1:

 m      X  kAk = kAk1 := max  |ai, j| : j = 1, . . . , n ,     i=1

die Spaltensummennorm, 3) für p = 2:

kAk = kAk2 := ρ(A† A)1/2 , die Spektralnorm. Es ist also kAk2 = σ1 , wenn σ1 > 0 der größte Singulärwert von A in einer normierten SVD ist. 4) Ist A ∈ K(n,n) normal, gilt kAk2 = ρ(A) .

Beweis: Zu 1):         n n X     X        : i = 1, . . . , m kAxk∞ = max  a x ≤ max |a | kxk : i = 1, . . . , m    i, j j i, j ∞          j=1    j=1 ≤ kAk∞ kxk∞

und sei k ∈ {1, . . . , m}, so dass n X j=1

|ak, j| = kAk∞ .

Sei x j ∈ K, so dass |x j | = 1 und ak, j x j = |ak, j |, dann gilt für x = (x j ) ∈ Kn :

778

7 Lineare Algebra und Analysis

kxk∞ = 1

n n X X ak, j x j = |ak, j | = kAk∞ .

und

j=1

Also:

kAxk∞ = kAk∞ = kAk∞ kxk∞ ,

j=1

und damit kAk = kAk∞ .

Zu 2): analog zu 1) Zu 3): kAk = sup

(

) kAxk2 : x ∈ Kn , x , 0 kxk2

Sei A = UΣV † eine normierte SVD von A, d. h. U ∈ K(m,m) , V ∈ K(n,n) orthogonal bzw. unitär, Σ ∈ K(m,n) eine verallgemeinerte Diagonalmatrix mit den positiven Singulärwerten σ1 ≥ . . . ≥ σr > 0, dann kAxk2 = kUΣ V † xk2 = kΣyk2 ≤ σ1 kyk2

für y := V † x

kxk2 = kV † xk2 = kyk2 ,

also kAk ≤ σ1 = ρ(A† A)1/2 und die Schranke wird für y = e1 angenommen. Zu 4): Es gibt eine ONB u1 , . . . , un ∈ Kn aus Eigenvektoren zu den Eigenwerten λ1 , . . . , λn ∈ P K , der betragsgrößte werde mit λmax bezeichnet. Ist also x = ni=1 αi ui ∈ V, dann 1/2  n  X kxk2 =  |αi |2  = kαk2 mit α = (αi )i ∈ Kn und i=1

Ax =

n X i=1

Daraus ergibt sich

  n X 2 2 1/2 αi λi ui , so dass kAxk2 =  |αi | |λi |  ≤ |λmax | kαk2 . i=1

kAk2 ≤ ρ(A) und die Gleichheit durch Wahl x = uk bei |λmax | = |λk |: kAxk2 = |λk | = |λk | kxk2 . Bemerkungen 7.31 1) Es folgt für A ∈ K(m,n) : ρ(A† A) ≤ kAk2F ,

da links das Quadrat einer erzeugten und rechts einer verträglichen Norm steht.

2) kAk∞ = kA† k1 für A ∈ K(m,n) .



7.2 Normierte Algebren

779

3) kAk2 = kA† k2 ,

da A† A und A A† die gleichen von 0 verschiedenen Eigenwerte haben. † *4) kAk2 = kA† Ak1/2 2 mittels Theorem 7.30, 3) und 4), da A A normal ist. 7 In Erweiterung von kAk2 = σ1 können die Ky-Fan -Normen von A ∈ K(m,n) definiert werden durch

kAkKF,p :=

p X

für 1 ≤ p ≤ l := min(m, n) ,

σi

i=1

wobei A = UΣV † eine normierte SVD von A ist und σ1 ≥ . . . ≥ σl ≥ 0 die nicht negativen Singulärwerte von A sind (Normeigenschaften ohne Beweis). Es ist also kAkKF,1 = kAk2 , Für p ≥ k, wenn k die Anzahl der positiven Singulärwerte bezeichnet, gilt  1 kAkKF,p = sp (A† A) 2 .

(7.14)

1 e = diag(e e † und Σ Wegen A† A = VΣΣV † gilt (A† A) 2 = V ΣV σi ) ∈ R(m,m) , e σi = σ2i für i = 1, . . . , k und σi = 0 sonst. e Somit gilt nach Satz 4.30 1

e = sp(A† A) 2 = sp(Σ)

k X

σi .

i=1

*5) Die Frobenius-Norm erfüllt nach (4.7) 

kAkF = sp(A† A)

 21

1  k X  2 =  σ2i  , i=1

wobei die σi die positiven Singulärwerte einer normierten SVD sind. Daraus folgt nochmals 1). In Verallgemeinerung davon lassen sich die Schatten8 -p-Normen definieren durch kAkS ,p

 k 1 X  p p  :=  σi 

(7.15)

i=1

für p ≥ 1 (Normeigenschaften ohne Beweis). Es gilt also kAkS ,1 = kAkKF,n . Alle Normen aus 4) und 5) sind invariant gegenüber der Multiplikation mit orthogonalen bzw. unitären Matrizen, 7 8

Ky Fan ∗19. September 1914 in Hangchow †22. März 2010 in Santa Barbara Robert Schatten ∗28. Januar 1911 in Lemberg †26. August 1977 in New York City

780

7 Lineare Algebra und Analysis

da die Singulärwerte einer normierten SVD diese Eigenschaft besitzen.

6) Die von k . k p erzeugten Matrixnormen sind, wie schon für p = 1, 2, ∞ bekannt, im Allgemeinen verschieden. Ist aber A = D = diag(λi ) ∈ K(n,n) eine Diagonalmatrix, so gilt immer kDk p = max{|λi | : i = 1, . . . , n} . 7) Für A = u ⊗ u im Fall k . k = k . k2 gilt kAk2 = kuk2 kuk2 .

(7.16)

Das kann man folgendermaßen einsehen: kAxk = kuu† xk = k hu . xi uk = | hu . xi | kuk ≤ kxk kuk kuk ⇒ kAk2 ≤ kuk2 kuk2 .

Bei x = u gilt Gleichheit. Alternative Berechnung der erzeugten Norm über die Eigenwerte von A† A: A† A = uu† uu† = kuk2 uu† A† Au = kuk2 kuk2 u A† Aw = 0 für w ∈ u⊥ .

Somit ist die Wurzel aus dem betragsmäßig größten Eigenwert gerade kuk kuk.

8) Sei A ∈ K(n,n) , A sei invertierbar, dann gilt

kA−1 k2 = 1/σn , wobei σn der kleinste Singulärwert einer normierten SVD ist, bzw. für normale A: kA−1 k2 = 1/|λn | , wobei λn der betragsmäßig kleinste Eigenwert von A ist. Ist A = UΣV † eine normierte SVD von A, so wird aus A−1 = VΣ −1 U † nach entsprechender Umordnung der Diagonalwerte eine normierte SVD von A−1 mit 1/σn als größtem Singulärwert, so dass Theorem 7.30, 3) das Ergebnis liefert. Analog ergibt sich die zweite Aussage aus Theorem 7.30, 4).

9) Ist A ∈ K(n,n) normal, so gilt für die Spektralnorm kAk k = kAkk für alle k ∈ N .

7.2 Normierte Algebren

781

Mit A ist auch Ak normal und somit nach Theorem 7.30, 4): kAk k = ρ(Ak ) = ρ(A)k = kAkk .

10) Für eine orthogonale bzw. unitäre Matrix A gilt kAk2 = ρ(A) = 1 . Damit ist O(n, K) und auch SO(n, K) in GL(n, K) oder K(n,n) beschränkt. Da sie auch abgeschlossen sind, sind also O(n, K) und SO(n, K) kompakte Mengen in GL(n, K) oder K(n,n) . Für die Abgeschlossenheit beachte man, dass (nach Bemerkungen 7.12, 3) aus A† A = limn→∞ A†n An = 1 bzw. det An = 1 auch A† A = 1 bzw. det A = 1 folgt.



7.2.2 Matrixpotenzen Der Spektralradius ρ(A) und kAk hängen also eng zusammen für A ∈ K(n,n) . Falls A normal ist, gibt es eine Norm auf Kn (nämlich k . k = k . k2 ), so dass ρ(A) eine erzeugte Norm ist. Im Allgemeinen gilt das nicht, ρ(A) ist aber das Infimum aller erzeugten Normen auf K(n,n) angewendet auf A. Theorem 7.32: Spektralradius und erzeugte Norm Sei A ∈ K(n,n) .

1) Ist k . k eine Norm auf C(n,n) , die verträglich mit einer Norm auf Cn ist, dann gilt ρ(A) ≤ kAk . 2) Zu ǫ > 0 und A ∈ K(n,n) gibt es eine erzeugte Norm k . k, so dass kAk ≤ ρ(A) + ǫ .

Beweis: Zu 1): Sei λ ∈ C ein Eigenwert von A, x ∈ Cn ein Eigenvektor dazu. Dann gilt |λ| kxk = kAxk ≤ kAk kxk und damit |λ| ≤ kAk . Zu 2): Ein A ∈ R(n,n) kann im Folgenden als A ∈ C(n,n) aufgefasst werden, so dass o. B. d. A. K = C. Sei J = C −1 AC eine Jordan-Normalform nach Hauptsatz 4.112, d. h. J = D+N ,

782

7 Lineare Algebra und Analysis

wobei D eine Diagonalmatrix mit den Eigenwerten als Diagonaleinträgen und N eine aus Jordan-Blöcken zum Eigenwert 0 zusammengesetzte Matrix ist, die also höchstens auf e := diag(ε−i )i und der oberen Nebendiagonale den Eintrag 1 hat und sonst immer 0. Sei D n ′ e ∞ betrachtet (siehe Bemerkungen 7.24, 2a)), so dass auf C werde die Norm kxk := kDxk die davon erzeugte Norm (nach Bemerkungen 7.24, 2c)) e D e−1 k∞ kBk′ := kDB

für B ∈ C(n,n)

kBk′′ := kC −1 BCk′

für B ∈ C(n,n)

mit der Zeilensummennorm k . k∞ ist. Nach Bemerkungen 7.24, 2c) ist

eine erzeugte Norm. In dieser Norm gilt (siehe Bemerkungen 7.31, 6)) ˜ D˜ −1 k∞ ≤ ρ(A) + ε , kAk′′ = kJk′ ≤ kDk′ + kNk′ = ρ(A) + kDN da im letzten Term durch die Ähnlichkeitstransformation der (i, j)-te Eintrag mit ǫ j−i multipliziert wird, d.h. aus den Einsern von N wird ǫ.  Bemerkungen 7.33 1) Für jede Norm k . k auf K(n,n) gilt:

 1/k ρ(A) = lim kAk k . k→∞

Es reicht, eine spezielle Norm k . k∼ zu finden, so dass limk→∞ (kAk k∼ )1/k existiert und gleich ρ(A) ist. Dies gilt dann wie folgt auch für jede andere Norm k . k: Die Normen k . k und k . k∼ sind äquivalent, d. h. es gibt α, β > 0 α kBk∼ ≤ kBk ≤ β kBk∼ für B ∈ K(n,n)

und damit k 1/k α1/k kAk k1/k ≤ β1/k kAk k1/k ∼ ≤ kA k ∼ ,

woraus wegen limk→∞ γ1/k = 1 für γ ∈ R, γ > 0 die Behauptung folgt. Die Norm kann submultiplikativ gewählt werden, also gilt nach 2)

Sei ǫ > 0, Aǫ :=

1 ρ(A)+ǫ

1 ρ(A) ≤

Ak

k

für k ∈ N .

A. Wegen ρ(Aǫ ) < 1 folgt nach Hauptsatz 7.34 1 Ak → 0 (ρ(A) + ǫ)k

für k → ∞ ,

insbesondere gibt es ein kǫ ∈ N, so dass für k ≥ kǫ gilt

k

A ≤ (ρ(A) + ǫ)k also

7.2 Normierte Algebren

783

1 ρ(A) ≤

Ak

k ≤ ρ(A) + ǫ

für k ≥ kǫ .

2) Ist k . k submultiplikativ auf K(n,n) , dann gilt sogar

 1/k ρ(A) ≤ kAk k für k ∈ N .

Nach Bemerkungen 7.27, 4) gibt es eine Norm auf Kn , die verträglich ist mit k . k auf K(n,n) , also gilt nach  1/k Theorem 7.32, 1) angewendet auf Ak ρ(A) ≤ kAk k .



Wir hatten schon gesehen, dass das Konvergenzverhalten von Ak wichtig ist für diskrete (oder diskretisierte) dynamische Systeme. In Kapitel 8 folgt eine weitere Anwendung. Eine wichtige Charakterisierung lautet: Hauptsatz 7.34: Konvergenz der Matrixpotenz gegen 0 Sei A ∈ K(n,n) . Es sind äquivalent: (i) limk→∞ Ak = 0

(ii) ρ(A) < 1 .

Beweis: Sei k . k die erzeugte Norm auf K(n,n) nach Theorem 7.32, 2). Die Konvergenz kann o. B. d. A. darin betrachtet werden. „(i) ⇒ (ii)“: Aus (i) folgt nach Theorem 7.32, 1) ρ(A)k = ρ(Ak ) ≤ kAk k < 1 für k groß genug, also ρ(A) < 1. „(ii) ⇒ (i)“: Gilt umgekehrt (ii), d. h. ρ(A) + ε < 1 für ein ε > 0, also nach Theorem 7.32, 2) kAk k ≤ kAkk ≤ (ρ(A) + ε)k so dass limk→∞ kAk k = 0 folgt.  Bemerkungen 7.35 Die Beschränktheit von Lösungen von Differenzengleichungen wird charakterisiert durch: Sei A ∈ K(n,n) . Dann sind äquivalent: (i) Ak ist beschränkt für k ∈ N

(ii) ρ(A) ≤ 1 und Eigenwerte λ mit |λ| = 1 sind halbeinfach.

784

7 Lineare Algebra und Analysis

Das kann man folgendermaßen einsehen: Wegen der Äquivalenz der Normen darf eine beliebige herangezogen werden. Sei J = C −1 AC eine Jordan-Normalform, dann werde die Norm durch kBk := kC −1 BCk∞

definiert. Nach Bemerkungen 7.24, 2c) handelt es sich dabei um eine erzeugte Norm und kAk k := kC −1 AkCk∞ = kJ k k∞ . J k ist eine Blockdiagonalmatrix mit Blöcken Ji,k j nach (4.75) (o. B. d. A. sei K = C).

„(i) ⇒ (ii)“: Durch Kontraposition: Ist ρ(A) > 1, d. h. |λi | > 1 für ein i, so folgt nach (4.75) kJ k k∞ ≥ kJi,k j k∞ ≥ |λi |k → ∞ für k → ∞ .

Ist ρ(A) = 1, aber ein λi mit |λi | = 1 nicht halbeinfach, so folgt analog nach (4.75) kJ k k∞ ≥ |λi |k + k |λi |k−1 = 1 + k → ∞ für k → ∞ .

„(ii) ⇒ (i)“: Ist ρ(A) < 1, so folgt die Aussage insbesondere aus Hauptsatz 7.34. Im allgemeinen Fall hat J o. B. d. A. die Gestalt ! D 0 J= , 0 J˜ e < 1. Es ist wobei D = diag(λ1 , . . . , λs ) und |λi | = 1, i = 1, . . . , s und ρ( J) ! Dk 0 Jk = , 0 Jek

kDk k∞ = 1 und die nichtverschwindenden Einträge von Jek haben nach (4.75) die Gestalt |λ| < 1 und l ≤ s für einen festen Wert s. Mit der Abschätzung ! k k−l |λ| ≤ ckl |λ|k−l → 0 für k → ∞ l

 k λk−l , wobei l

(man beachte xl exp(−x) → 0 für x → ∞) ergibt sich k Jek k∞ → 0 für k → ∞ und damit ist also J k beschränkt.



Bemerkungen 7.36 1) Für die Konvergenz von Lösungen von Differenzengleichungen ist die folgende Aussage wichtig:

7.2 Normierte Algebren

785

Sei A ∈ K(n,n) , dann sind äquivalent: (i) Ak konvergiert für k → ∞.

(ii) ρ(A) ≤ 1 und Eigenwerte λ mit |λ| = 1 sind halbeinfach und erfüllen λ = 1.

Für den Grenzwert gilt: P ordnet jedem x ∈ Kn den Grenzwert der Iteration nach (4.12) mit x(0) = x zu. P = P2 = PA = AP , d. h. P ist eine mit A vertauschbare Projektion. Es handelt sich um die Projektion auf Kern(1 − A) längs Bild(1 − A). Insbesondere gilt im Konvergenzfall Kern(1 − A) ⊕ Bild(1 − A) = Kn . Der Beweis ist eine Fortsetzung des Beweises von Bemerkungen 7.35. (i) ⇒ (ii): Gäbe es einen Eigenwert λ mit |λ| = 1, λ , 1, so würde für einen zugehörigen JordanBlock Ji, j gelten: Ji,k j hat die Diagonalelemente λk , die also nicht konvergieren für k → ∞, also auch nicht Ji,k j und damit auch nicht die Jordansche Normalform J k (in der Zeilensummennorm), also auch nicht Ak in der wie in Bemerkungen 7.35 definierten Norm. (ii) ⇒ (i): Wie im entsprechenden Teil von Bemerkungen 7.35 folgt wegen D = 1 ! 1 0 Jk → für k → ∞ 0 0 und damit die Behauptung. Sei x(k) die nach (4.12) zu x(0) = x definierte Folge, dann gilt x(k) = Ak x → Px für k → ∞ .

Die Zusatzbehauptung folgt sofort aus P = lim A2k = lim Ak lim Ak = P2 k→∞

k→∞

bzw.

k→∞

P = lim Ak−1 A = PA = lim AAk−1 = AP . k→∞

k→∞

Aus P = AP bzw. (1 − A)P = 0 folgt Bild P ⊂ Kern(1 − A) und aus P = PA bzw. P(1 − A) = 0 folgt Bild(1 − A) ⊂ Kern P. Ist andererseits x ∈ Kern(1 − A), dann ist x(k) = x für alle k ∈ N, also x = Px und damit Kern(1 − A) = Bild P. Da wegen Kn = Bild P ⊕ Kern P gilt n = dim Bild P + dim Kern P

und wegen der Dimensionsformel Theorem 2.32 auch n = dim Kern(1 − A) + dim Bild(1 − A)

gilt auch die Gleichheit Kern P = Bild(1 − A).

2) Sei V ein normierter K-Vektorraum, sei uk eine Folge in V und u = lim uk . Zu (uk ) sei k→∞

1X ui , k i=1 k

sk :=

786

7 Lineare Algebra und Analysis

dann gilt auch lim sn = u n→∞

Der Beweis aus der Analysis (V = R) überträgt sich wörtlich, siehe z.B. Amann und Escher 1998.

Aus der Existenz von lim sk folgt i. Allg. nicht die Existenz von lim uk . Existiert lim sk , k→∞

so heißt (vk )k (Cesaro-)9 summierbar.

k→∞

k→∞

3) Sei A ∈ K(n,n) , dann wird äquivalent:   (i) Ak

k=0,...

ist summierbar

(ii) Ak ist beschränkt für k ∈ N In Fortführung der Beweise von Bemerkungen 7.35 und oben 1) reicht es, Matrizen in Jordanscher Normalform und hier jeweils nur einem Jordan-Block

zu betrachten. Sei S k :=

1 k

k−1 P i=0

    λ 1   . .  . .  . .    ∈ K J =   . .   . 1    λ

J i , wobei J i durch (4.75) gegeben ist. Sei Ak unbeschränkt für k ∈ N, dann

ist nach Bemerkungen 7.35 entweder |λ| > 1 für einen Eigenwert λ oder |λ| = 1, aber λ nicht halbeinfach. Im ersten Fall lauten die jeweils gleichen Diagonaleinträge von S k ! k−1 1 1 − λk 1X i , λ =: fk (λ) = k i=0 k 1−λ

d.h. fk (λ) ist unbeschränkt für k → ∞ und daher kann (S k )k nicht konvergieren. Im zweiten Fall ist die Vielfachheit s > 1 und die gleichen Einträge auf der oberen Nebendiagonalen sind ! k−1 k−1 1 X i i−1 1 X i−1 λ = iλ =: gk (λ) . k i=1 1 k i=1

Für λ = 1 ist also gk (1) = Einträge gleich 1 k

1 k

k−1 P i=1

i=

k−1 2

→ ∞ für k → ∞, für λ , 1 gilt gk (λ) = fk′ (λ) und damit sind die

   ! k  −kλk−1 (1 − λ) + 1 − λk    = −λk−1 + 1 1 − λ /(1 − λ) ,   k 1−λ (1 − λ)2

d.h. neben einer Nullfolge liegt eine oszillierende Folge vor, so dass für S k keine Konvergenz vorliegt. Sei andererseits Ak beschränkt, d.h. nach Bemerkungen 7.35 ist für jeden Eigenwert λ entweder |λ| < 1 oder λ = 1 und halbeinfach. Im ersten Fall ist nach Hauptsatz 7.34 J k → 0 für k → ∞ und damit auch nach 2) S k → 0 für k → ∞, im zweiten Fall ist s = 1 und die Diagonalelemente von S k sind fk (1) = 1 → 1 für k → ∞ . 9

Ernesto Cesaro, *12. März 1859 in Neapel †12. September 1906 in Torre Annunziata

7.2 Normierte Algebren

787

4) Im Fall der Konvergenz sei 1X i A , n→∞ k i=0 k−1

P := lim S k := lim k→∞

dann gilt P = P2 = PA = AP und P ist die Projektion auf Kern(1 − A) längs von Bild(1 − A). Die Aussage wird auch der Ergodensatz genannt. Das kann man folgendermaßen einsehen:  k   1 1  X i−1 k  AS k + 1 S k+1 = A + 1 = A  k+1 k + 1 k + 1 i=1

und wegen S k → P für k → ∞ folgt daraus P = AP, d.h. insbesondere Bild P ⊂ Kern(1 − A). Sei andererseits u ∈ Kern(1 − A), d.h. u = Au und damit Ai u = u für alle i ∈ N, d.h. S k u = u für alle k ∈ N

und somit Pu = u also Kern(1 − A) = Bild P und P2 = P. Sei u ∈ Bild A, u = Aw für w ∈ Kn , und damit S k u = AS k w für alle k ∈ N

und damit im Grenzwert PAw = Pu = APw

also PA = AP und damit P = PA, d.h. insbesondere Bild(1 − A) ⊂ Kern P. Der Beweis kann nun wörtlich wie bei 1) abgeschlossen werden.

In Jordanscher Normalform ist der Grenzwert der Jordan-Block-Folge für Eigenwerte λ mit |λ| < 1 gleich der Nullmatrix (wie schon bei Hauptsatz 7.34) mit λ = 1 und λ ist halbeinfach die 1 × 1-Matrix 1 (wie schon bei 1)) und zusätzlich für λ mit |λ| = 1, λ halbeinfach, die 1 × 1-Matrix 0, d.h. die oszillierenden Komponenten werden im Mittel durch 0 ersetzt. △ Nach diesen Vorbereitungen können nicht nur Polynome von Matrizen, sondern auch Potenzreihen definiert werden (siehe Analysis ). Satz 7.37: Matrix-Potenzreihe P n Sei f (z) = ∞ n=0 an z mit an ∈ K eine Potenzreihe mit Konvergenzradius R > 0. (n,n) Sei A ∈ K mit ρ(A) < R. Dann existiert

788

7 Lineare Algebra und Analysis

f (A) :=

∞ X

an An := lim

n→∞

n=0

n X

a i Ai .

i=0

Beweis: Sei ε > 0, so dass ρ(A) + ε < R. Sei k . k die erzeugte Norm auf K(n,n) , nach Theorem 7.32, 2). Damit gilt für m > n



m m m m X X

X

X i

ai A

≤ |ai | kAi k ≤ |ai | kAki ≤ |ai |(ρ(A) + ε)i → 0 für m, n → ∞ ,

i=n

i=n i=n i=n

da f in z = ρ(A) + ε absolut konvergiert. Damit ist die Partialsummenfolge zu f (A) eine Cauchy-Folge, die wegen der Vollständigkeit von Kn konvergiert.  Bemerkungen 7.38 Die Doppelbenutzung von n als Dimension des Tupelraums und als symbolischer Laufindex der Reihen sollte (hoffentlich) nicht zu Verwechslungen führen.

Bei angemessener Vorsicht übertragen sich viele aus der reellen Analysis bekannte Eigenschaften von Reihen: Seien Ak ∈ K(m,n) , k ∈ N0 , P 1) Falls ∞ n=0 An konvergiert, dann ist (Ak )k eine Nullfolge, d. h. limh→∞ Ak = 0. Ak =

k X l=0

Al −

k−1 X

(7.17)

Al

l=0

und beide Partialsummenfolgen haben den gleichen Grenzwert.

2)



∞ ∞

X

X

An

≤ kAn k

n=0 n=0

und die Konvergenz der reellen Reihe rechts hat die Konvergenz von (Übung).

n=0

P

An zur Folge 

k l=0 Al i, j P konvergiert ∞ n=0 An .

3) Sei (Ak )i, j ≥ 0 für alle i = 1, . . . , m, j = 1, . . . , n, k ∈ N0 , sei S k :=

für eine A ∈ K(m,n) und alle i = 1, . . . , m, j = 1, . . . , n, dann

P∞

≤ (A)i, j

Die Partialsummenfolge S k ist komponentenweise monoton wachsend und auch beschränkt, daher ist sie komponentenweise (und so in jeder Norm) konvergent.

4) Als Entwicklungspunkt der Potenzreihe kann statt z0 = 0 auch z0 ∈ K gewählt werden mit den Ersetzungen ρ(A − z0 1) statt ρ(A) und (A − z0 1)n statt An .

5) Sei A ∈ K(n,n) diagonalisierbar über K, d. h. A = CDC −1 mit C ∈ GL(n, K) und P n D = diag(λi ), dann gilt für eine Potenzreihe f (z) = ∞ n=0 an z mit Konvergenzradius R > 0, sofern ρ(A) < R f (A) = C f (D)C −1 = C diag( f (λi ))C −1 ,

(7.17a)

7.2 Normierte Algebren

789

denn ∞ X

an (CDC −1 )n =

n=0

da B 7→ CBC

−1

∞ X

an CDn C −1 = C f (D)C −1 ,

n=0

stetig ist und ρ(A) = ρ(D) und f (D) =

P∞

n=0

an diag(λni ) = diag( f (λi )).

Diese Darstellung ist bis auf die Reihenfolge der Eigenwerte eindeutig, da weiter gilt (nach Bemerkungen 4.43, 2)): Seien Ei := Kern(A − λi 1), i = 1, . . . , k, die Eigenräume für die paarweise verschiedenen Eigenwerte, dann gilt f (A) =

k X

f (λi )Pi ,

(7.17b)

i=1

wobei Pi : Kn → Ei die (Darstellungsmatrizen der Normalform) Projektionen zur ZerleLk gung V = i=1 E i seien. △

Theorem 7.39: Neumannsche Reihe Seien A, B ∈ K(n,n) .

1) Sei ρ(A) < 1, dann ist 1 − A invertierbar und (1 − A)−1 =

∞ X

Ak

(Neumann10 sche Reihe).

k=0

2) Ist kAk < 1 für eine submultiplikative Norm auf K(n,n) , dann ist 1− A invertierbar und k(1 − A)−1 k ≤

1 . 1 − kAk

3) Ist A invertierbar und ρ(A−1 B) < 1, dann ist A + B invertierbar und (A + B)−1 = A−1 − A−1 BA−1 +

∞ X

(−1)n (A−1 B)n A−1 .

n=2

4) Ist k . k eine submultiplikative Norm, für die kA−1 Bk < 1 gilt, so folgt

[ bzw. kA−1 k kBk < 1]

790

7 Lineare Algebra und Analysis

k(A + B)−1 k ≤ kA−1 k(1 − kA−1 Bk)−1

h i ≤ kA−1 k(1 − kA−1 k kBk)−1 .

Beweis: Zu 1): Nach Satz 7.37 (für an = 1, d. h. R = 1) gilt: S :=

∞ X

Ak = lim S k existiert, wobei S k =

k=0

k→∞

k X

Ai .

i=0

Dann folgt mit Hauptsatz 7.34 S k (1 − A) = 1 − Ak+1 ↓k→∞ ↓k→∞ S (1 − A) = 1 und analog (1 − A)S = 1 und damit S −1 = 1 − A. Zu 2): Da nach Voraussetzung gilt ∞ X k=0

k Ak k =

1 0. Seien A, B ∈ K(n,n) mit einem Spektralradius jeweils kleiner R. Dann konvergiert in K(n,n) die Reihe

11

Maurice René Fréchet ∗2. September 1878 in Maligny †4. Juni 1973 in Paris

792

7 Lineare Algebra und Analysis

C :=

∞ X n X

das Cauchy-Produkt ,

ak Ak bn−k Bn−k

n=0 k=0

und es ist ∞ X i=0

a i Ai

∞ X

b jB j = C .

j=0

Theorem 7.42: exp(Matrix) Sei A ∈ K(n,n) , dann ist exp(A) =

∞ X 1 n A n! n=0

wohldefiniert und es gilt 1) exp(0) = 1. 2) Seien A, B ∈ K(n,n) , so dass AB = BA, dann gilt exp(A + B) = exp(A) exp(B) . 3) exp(A) ist invertierbar und exp(A)−1 = exp(−A) .

Beweis: Die Wohldefinition folgt aus Satz 7.37 und R = ∞ für die reelle Exponentialreihe.

1) ist offensichtlich und 3) eine Folge von 2). Zu 2): Wegen der Kommutativität gilt mit dem gleichen Beweis wie in R die binomische Formel (siehe Definition B.7) ! n X n n−k k A B (A + B)n = k k=0

und daher mit Satz 7.41:

7.2 Normierte Algebren

793

exp(A + B) = = =

!

∞ n ∞ X X 1 1 X n n−k k (A + B)n = A B n! n! k=0 k n=0 n=0

n ∞ X n ∞ X X n! 1 1 1 X An−k Bk = An−k Bk n! k=0 k!(n − k)! (n − k)! k! n=0 k=0 n=0 ∞ ∞ X 1 iX 1 j A B = exp(A) exp(B) . i! j=0 j! i=0

 Satz 7.43 Sei A ∈ K(n,n) .

1) ρ(t) := exp(At) ist stetig auf R.

2) ρ ist differenzierbar und ρ′ (t) = exp(At)A = A exp(At).

Beweis: Zu 1): Seien t0 , ∆t ∈ R. Wegen ρ(t0 + ∆t) − ρ(t0 ) = exp(At0 ) exp(A∆t) − exp(At0 ) = exp(At0 )(exp(A∆t) − 1) nach Theorem 7.42, 2) ist nur die Stetigkeit für t0 = 0 zu prüfen: exp(A∆t) = 1 +

∞ X 1 (∆t)n An =: 1 + B(∆t) n! n=1

und kB(∆t)k ≤

∞ X 1 (∆t)n kAkn = exp(kAk∆t) − 1 → 0 n! n=1

für ∆t → 0 .

Zu 2): Analog zu 1) ist wegen 1 1 (ρ(t0 + ∆t) − ρ(t0 )) = exp(At0 ) (exp(A∆t) − 1) ∆t ∆t nur Differenzierbarkeit bei t0 = 0 zu prüfen und: ∞ X 1 1 1 (exp(A∆t) − 1) = B(∆t) = A + ∆t (∆t)n−2 An =: A + ∆tC(∆t) ∆t ∆t n! n=2

und kC(∆t)k ≤

∞ X 1 (∆t)n−2 kAkn ≤ kAk2 exp(kAk∆t) , n! n=2

794

7 Lineare Algebra und Analysis

und somit folgt für ∆t → 0 ρ′ (0) = A bzw. ρ′ (t0 ) = exp(At0 )A = A exp(At0 ) .  Beispiel 7.44 (Anfangswertaufgabe für gewöhnliche Differentialgleichungen) 1) Sei A ∈ K(n,n) , y0 ∈ Kn und y(t) := exp(A t)y0 ,

t∈R

(7.18)

eine Abbildung von R nach Kn . Dann ist y differenzierbar und es gilt y˙ (t) = A exp(A t)y0 ,

t∈R

(als Komposition einer differenzierbaren und einer linearen Abbildung), also ist (7.18) eine Lösung des homogenen linearen Systems gewöhnlicher Differentialgleichungen mit konstanten Koeffizienten y˙ (t) = Ay(t) ,

t∈R.

(7.19)

Sei ein Anfangswert y0 ∈ Kn gegeben. Aufgrund des Satzes von Picard-Lindelöf1213 (siehe Analysis ) oder auch durch die direkte Verifikation (siehe Bemerkungen 8.66, 7)) ist die Lösung der Anfangswertaufgabe y˙ (t) = Ay(t), y(t0 ) = y0

t ∈ [t0 , T ]

(7.20)

eindeutig (und existiert). Folglich ist y(t) = exp(A(t − t0 ))y0 die eindeutige Lösung von (7.20). 2) Betrachte die Anfangswertaufgabe für das inhomogene lineare System gewöhnlicher Differentialgleichungen zu A ∈ K(m,n) , y0 ∈ Kn , f : [t0 , T ] → Kn (z. B.) stetig: Gesucht ist y : [t0 , T ] → Kn , so dass y˙ (t) = Ay(t) + f (t), t ∈ [t0 , T ] y(t0 ) = y0 . Die (eindeutige) Lösung wird durch die Variation der Konstanten-Formel gegeben: Sei Y(t) := exp(A(t − t0 )), dann: 12 13

Charles Émile Picard ∗24. Juli 1856 in Paris †11. Dezember 1941 in Paris Ernst Leonard Lindelöf ∗7. März 1870 in Helsingfors †4. Juni 1946 in Helsinki

7.2 Normierte Algebren

y(t) = Y(t)y0 +

795

Z

t0

t

exp(A(t − s)) f (s)ds = Y(t)y0 +

Z

t

Y(t)Y(s)−1 f (s)ds .

t0

Für t0 = 0 lässt sich dies auch schreiben als: y(t) = Y(t)y0 +

Rt t0

Y(t − s) f (s)ds .

Dabei ist das Integral komponentenweise definiert. 3) Man betrachte lineare Systeme gewöhnlicher Differentialgleichungen mit variablen Koeffizienten: Sei A : [t0 , T ] → K(n,n) (z. B.) stetig, f : [t0 , T ] → Kn (z. B.) stetig, y0 ∈ Kn , dann lautet die (inhomogene) Anfangswertaufgabe: Gesucht y : [t0 , T ] → Kn , so dass y˙ (t) = A(t)y(t) + f (t), t ∈ [t0 , T ]

y(t0 ) = y0 .

Hier lässt sich eine „explizite“ Lösung nicht allgemein angeben, aber viele „strukturelle“ Eigenschaften der Lösungen sind gleich und werden in Abschnitt 8.6 untersucht. Man kann auch weitere und höhere Ableitungen betrachten, d. h. z. B. für m ∈ N y(m) (t) =

m−1 X

A(i) (t)y(i) (t) + f (t)

(7.21)

i=0

mit matrix-wertigen Funktionen A(i) und y(i) zur Bezeichnung der i-ten (komponentenweisen) Ableitung. Durch die Einführung von y˙ , . . . , y(m−1) als weiteren Unbekannten kann (7.21) auf ein System 1. Ordnung (aber im Knm ) zurückgeführt werden. Für eine allgemeine Theorie sind also (lineare) Gleichungen höherer Ordnung „nicht nötig“. Es ist aber praktisch, mindestens den oft auftretenden skalaren Fall direkt zu behandeln: Gesucht ist y : [t0 , T ] → K, so dass y(m) (t) =

m−1 X

a(i) (t)y(i) (t) + f (t) .

i=0

Dies lässt sich als ein System 1. Ordnung schreiben für    y(t)   y˙ (t)    m y(t) =  ..  = (yi )i ∈ K .   .  (m−1)  y (t)

Wegen y˙ i = yi+1 für i = 1, . . . , m − 1 und

(7.22)

796

7 Lineare Algebra und Analysis

y˙ m =

m−1 X

a(i) yi+1 + f

i=0

ist (7.22) äquivalent zu     0    ..  .  y˙ (t) =     0    (0) a (t)

         1 0 ··· 0  0         .    .. ..   .  . .   .   y(t) +   =: A(t)y(t) + f (t) .        0  0 1           (m−1)     f (t) ··· ··· ··· a (t)

(7.23)

Die Matrix(funktion) A(t) heißt die Begleitmatrix von (7.22). Sie ist schon in (4.5) eingeführt worden und tritt auch in (4.34) bei der Umschreibung einer Differenzengleichung m-ter Ordnung in ein Differenzensystem 1. Ordnung auf. 4) Schon für konstante Koeffizienten kommt es darauf an, exp(At) wirklich zu „berechnen“. (Siehe auch Bemerkungen 7.38, 4): diese sind direkt anwendbar, einige Überlegungen werden aber noch einmal durchgeführt.) Hierbei gilt: a) exp(diag(λi )) = diag(exp(λi )) für λi ∈ K bzw. allgemein: Sei A eine Blockdiagonalmatrix, bestehend aus den Blöcken Bi , i = 1, . . . , k, dann  exp(B1 )  .. exp(A) =  . 

exp(Bk )

    . 

(7.24)

Wegen An = diag(Bn1 , . . . , Bnk ) und einer analogen Darstellung für die Partialsummen folgt auch die behauptete Grenzwertbeziehung, da Matrixkonvergenz komponentenweise aufgefasst werden kann.

b) Ist A′ = C −1 A C eine Ähnlichkeitstransformation von A, dann exp(A′ ) = C −1 exp(A)C .

7.2 Normierte Algebren

797

Es ist nämlich C −1 An C = (C −1 A C)n

für alle n ∈ N, so dass für die jeweiligen Partialsummen gilt:  n  n X X 1 i  1 ′i −1   (A ) = C  A  C i! i!  i=0 i=0 und damit das gleiche für die Grenzwerte, da

B 7→ C −1 B C eine stetige Abbildung auf K(n,n) ist.

Ist also im Fall „diagonalisierbar in K“ C = (u1 , . . . , un ), wobei ui Eigenvektor zu den Eigenwerten λi ∈ K ist und damit A′ = diag(λi ), so folgt exp(A(t − t0 )) = C diag(exp(λi (t − t0 )))C −1 und somit ist mit der Lösung

y(t) = exp(A(t − t0 ))y0 =

n X i=1

αi exp(λi (t − t0 ))ui ,

(7.25)

wobei α := C −1 y0 , die Darstellung (4.86) wiederentdeckt worden. Ist A ∈ R(n,n) zwar diagonalisierbar in C, aber nicht in R, so gibt es eine reelle Blockdiagonalform als Spezialfall von Theorem 4.55 oder Theorem 4.118 (siehe Aufgabe 4.14), d. h. es gibt eine invertierbare Matrix C ∈ R(n,n) (aus Real- und Imaginärteilen von Eigenvektoren als Spalten), so dass A = CDC −1 und D eine Blockdiagonalmatrix ist, entweder mit (1,1) Diagonalblöcken, die genau den reellen Eigenwerten entsprechen, oder mit (2,2) Blöcken B der Form (4.29), die genau den konjugiert komplexen Eigenwerten entsprechen. Zur Berechnung von exp(D(t − t0 )) reicht nach a) die Bestimmung von exp(Bt¯), wobei t¯ := t − t0 . Dies ergibt für B =



µ ν −ν µ



∈ R(2,2)

exp(Bt¯) = exp(µt¯)

! cos(νt¯) sin(νt¯) . − sin(νt¯) cos(νt¯)

(7.26)

798

7 Lineare Algebra und Analysis

Es ist ! ! ! µ ν µ0 0 ν + = 0µ −ν 0 −ν µ

und die beiden Summanden sind multiplikativ kommutativ. Nach Theorem 7.42, 2) und 1) gilt also   exp(Bt¯) = exp(µt¯) exp −ν0 t¯ ν0t¯ . Sei A :=



0 ν −ν 0

 , dann kann man sofort mittels vollständiger Induktion zeigen: A2m = (−1)m ν2m 1,

A2m+1 = (−1)m ν2m A

für m ∈ N ,

und damit S 2m :=

!k ! 2m X 1 0 νt¯ am bm = −bm am k! −νt¯ 0 k=0

mit am =

m X l=0

Also: S 2m →



a b −b a



(−1)l

(νt¯)2l , (2l)!

bm =

m−1 X

(−1)l

l=0

(νt¯)2l+1 . (2l + 1)!

mit a = cos(νt¯), b = sin(νt¯) und damit gilt (7.26).

Hiermit ergibt sich die Lösungsdarstellung für die Anfangswertaufgabe P y(t) = exp(At¯)y0 =  ki=1 αi exp(λi t¯)ui + Pl  (7.27)  + i=1 exp(µi t¯) βi cos(νi t¯)ui − sin(νi t¯)wi + γi cos(νi t¯)wi + sin(νi t¯)ui

mit C = (u1 , . . . , uk , u1 , w1 , . . . , ul , wl ) und (α1 , . . . , αk , β1 , γ1 , . . . , βl , γl ) = C −1 y0 .

Die exponentiell wachsenden oder fallenden Lösungskomponenten aus (7.25) werden also von Schwingungen überlagert. Im allgemeinen Fall mit paarweise verschiedenen Eigenwerten λ1 , . . . , λk ∈ K kann analog zu Beispiel 4.117 C als eine Basis aus Hauptvektoren gewählt werden und die Ähnlichkeitstransformation ergibt J = D+N , wobei D eine Diagonalmatrix mit den Diagonaleinträgen λi gemäß ihrer algebraischen Vielfachheit und N eine Blockdiagonalmatrix aus Jordan-Blöcken Ni, j zum Eigenwert 0 ist. Da D und N nach Theorem 4.114 kommutieren, folgt aus Theorem 7.42, 2) mit t¯ := t − t0 exp(J t¯) = exp(Dt¯) exp(N t¯) . Nach a) ist

(7.28)

7.2 Normierte Algebren

799

exp(N t¯) = diag(exp(Ni, j t¯) , so dass also eine Blockdiagonalmatrix entsteht, für die die Blöcke exp(Ni, j t¯) mit einem festen exp(λi t¯) zu multiplizieren sind. Sei Ni, j zu einer Kette der Länge si, j gehörig, die also von einem Hauptvektor der Stufe si, j ausgeht, d. h. Ni, j habe Dimension si, j , dann   1 t¯ . . .  .. ..  . . exp(Ni, j t¯) =   ..  . 

t¯si, j −1 (si. j −1)!

.. .

t¯ 1

Da Ni,l j = 0 für l ≥ si, j reduziert sich die Exponentialfunktion zu exp(Ni, j t) =

sX i, j −1 l=0

      .  

(7.29)

1 l l tN l! i, j

und für l < si, j ist bei Ni,l j nur die l-te obere Nebendiagonale besetzt, und zwar mit 1 (nach Beispiel 4.80).

Daraus lassen sich die Darstellungen (4.89) bzw. (4.87) wiedergewinnen. Ist schließlich A ∈ R(n,n) , hat aber komplexe Eigenwerte, kann auf Theorem 4.114 zurückgegriffen werden und exp(λt¯) ist analog zu (7.26) zu ersetzen. 5) Man betrachte eine skalare Gleichung m-ter Ordnung nach (7.22) mit konstanten Koeffizienten. Die Begleitmatrix wurde schon in 3) entwickelt. Die Eigenwerte der Begleitmatrix sind nach Bemerkungen 4.27 gerade die Nullstellen der charakteristischen Gleichung λm −

m−1 X

a(i) λi = 0 .

i=0

Genau dann wenn in K m paarweise verschiedene Nullstellen existieren, kann dann also direkt ein Lösungsansatz mit der Basislösung exp(λ(t − t0 )) gemacht werden. ◦ Bemerkung 7.45 Es gilt für A ∈ K(n,n) det(exp(A)) = exp(sp(A)) . Insbesondere: det(exp(A) = 1 genau dann, wenn sp(A) = 0.

800

7 Lineare Algebra und Analysis

Für eine Diagonalmatrix D = diag(λi ) folgt die Behauptung wegen  n  n Y X  det(exp(D)) = det(diag(eλi )) = eλi = exp  λi  = exp(sp(D)) . i=1

i=1

Sei A = C JC

−1

eine Darstellung in Jordan-Normalform und J = D+N

die Jordan-Zerlegung. Dann gilt nach (7.29)   ∗ 1   . exp(J) = exp(D)  . .    0 1

und damit

  ∗ 1   . det(exp(J)) = det(exp(D)) det  . .  = exp(sp(D)) = exp(sp(J)) .   0 1

Da nach Satz 4.30 det und sp invariant unter Ähnlichkeitstransformationen sind, gilt die Aussage also allgemein.

Bei einer Anfangsaufgabe (7.20) wird also bei sp(A) = 0 das Volumen erhalten (genauer siehe (8.109)ff). △ Beispiel 7.46 (Geometrie) In Beispiele 4.70 sind die räumlichen Drehungen D(ϕ, a) untersucht worden. Sei im Folgenden die Drehachse a ∈ R3 , kak2 = 1, fest gewählt. Durch G(a) := {D(ϕ, a) : ϕ ∈ [0, 2π)} , d. h. die Drehgruppe in R3 zur festen Drehachse a wird eine Untergruppe von SO(3, R) definiert. Ein J ∈ R(3,3) heißt Erzeugende von G(a), wenn gilt D(ϕ, a) = exp(ϕJ)

für ϕ ∈ [0, 2π) .

Dann gilt: 1) D(ϕ, a) ist nach ϕ differenzierbar und d D(ϕ, a)|ϕ=0 = J , dϕ d. h. J beschreibt die Drehung um einen „infinitesimalen“ Winkel. Aus Satz 7.43, 2) folgt d d D(ϕ, a) = exp(ϕJ) = J exp(ϕJ) dϕ dϕ

und damit die Behauptung.

7.2 Normierte Algebren

801

2) Sei J Erzeugende einer Drehgruppe, so ist J schiefsymmetrisch, d. h. insbesondere sp(J) = 0. 1 (D(ϕ, a) − 1) und daher ϕ 1 1 J t = lim (D(ϕ, a)t − 1) = lim (D(−ϕ, a) − 1) = −J , ϕ→0 ϕ ϕ→0 ϕ J = lim

ϕ→0

da A 7→ At als lineare Abbildung stetig ist.

3) Für die Drehungen um die z-Achse ist   0 −1  Jz =  1 0  0 0

 0   0   0

eine Erzeugende und analog für die Drehungen um die x- und y-Achse      0 0 0   0 0 1      J x =  0 0 −1  , Jy =  0 0 0  .     01 0 −1 0 0

J x , Jy , Jz sind linear unabhängig und bilden eine Basis des Unterraums der schiefsymmetrischen Matrizen von R(3,3) . exp(ϕJz ) =

exp

0

−ϕ ϕ 0



exp(0)

!

nach Beispiel 7.44, 4a) (7.24) und so nach (7.26)    cos(ϕ) − sin(ϕ) 0  exp(ϕJz ) =  sin(ϕ) cos(ϕ) 0  . 0 0 1

4) Sei S ∈ SO(3, R), dann lässt sich S schreiben als S = exp(ϕJ),

wobei

J=

3 X i=1

(a × ei ) ⊗ ei .

Wie im Beweis von Beispiele 4.70, 2) (Notation wie dort) ist mit 2) S = AD(ϕ, e3 )A−1 = A exp(ϕJz )A−1 = exp(ϕAJz A−1 ) .

Die Berechnung von AJz A−1 entspricht der von AD(ϕ, e3 )A−1 , wenn in D(ϕ, e3 ) der Eigenwert 1 durch 0 ersetzt und ϕ = π2 gesetzt wird. Damit ergibt sich aus (4.50) die Behauptung.



Beispiel 3(9) – Massenkette In (MM.74) wird zur Beschreibung des dynamischen Verhaltens eine Anfangswertaufgabe für eine gewöhnliche Differentialgleichung 2. Ordnung formuliert. In Verallgemeinerung davon soll im Folgenden die Anfangswertaufgabe

802

7 Lineare Algebra und Analysis Gesucht ist x : [t0 , ∞) → Rm , so dass M x¨ + Ax = 0 auf [t0 , ∞) und x(t0 ) = x0 , x˙ 0 (t0 ) = x′0

(MM.96)

für vorgegebene x0 , x′0 ∈ Rm betrachtet werden. Dabei entspricht M konkret einer Diagonalmatrix M = diag(mi ) mit Einzelmassen mi > 0 als Diagonalelementen, A ist (bei beidseitiger Einspannung) eine Matrix vom Typ (MM.11) bzw. (bei einseitiger Einspannung) vom Typ (MM.12). Man spricht auch von der diskreten Wellengleichung (siehe Abschnitt 8.6.4) Wegen (1.87) bzw. (MM.52) bzw. (MM.82) ist es also sinnvoll vorerst allgemein vorauszusetzen: M ist positiv definit, A positiv semidefinit (MM.96) lässt sich analog zu (7.23) als ein System 1. Ordnung schreiben für ! x(t) y(t) := ∈ R2m , x˙ (t) nämlich y˙ (t) = By(t), t ≥ t0 , y(t0 ) = y0 :=

x0 x′0

!

(MM.97)

mit B :=

! 0 1 ∈ R(2m,2m) . −1 −M A 0

(MM.98)

Dabei ist nach Bemerkungen 4.137, 3) M −1 A diagonalisierbar und hat nicht negative Eigenwerte. Über die Konsequenz für B gibt der folgende Satz Auskunft: Satz 7.47 Sei A ∈ C(n,n) und B :=

! 0 1 ∈ C(2n,2n) . A 0

1) Dann gilt für die charakteristischen Polynome: PB (λ) = PA (λ2 ) für λ ∈ C, d. h. hat√ A die paarweise verschiedenen Eigenwerte λ1 , . . . , λk ∈ C, so hat B die 2. Einheitswurzeln √ ± λ1 , . . . , ± λk ∈ C als Eigenwerte.

2) Ist A diagonalisierbar und invertierbar, so auch B. Ist Wi der Eigenraum von A zu λi und ( ! ! ) e i := ui , 0 : ui ∈ Wi , dann Ui+ ⊕ Ui− = W ei , W 0 ui √ wobei Ui± die Eigenräume von B zu ± λi sind.

Beweis: Zu 1) pB (λ) = det

! −λ1 1 = det(λ2 1 − A) = pA (λ2 ) A −λ1

7.2 Normierte Algebren

803

nach Aufgabe 2.36. Zu 2) Sei C = (u1 , . . . , un ), wobei die ui eine Eigenvektorbasis zu den Eigenwerten λ1 , . . . , λn ∈ C von A bilden, also C −1 AC = diag(λi ) , dann gilt mit E :=

C 0 0 C

!

F :=E −1 BE =

B

0 1 D 0

!

bzw. BE =EF, also

(MM.99)

! ! ! ! ui 0 u 0 ,B = i für i = 1, . . . , n , = λi 0 ui ui 0

!! ! ui 0 sind zweidimensionale B-invariante Unterräume. B|Ui hat die Darstellungs, 0 ui matrix in der angegebenen Basis ! 0 1 λi 0 d. h. Ui := span

√ und damit die Eigenwerte ± λi . Da λi , 0, hat B|Ui zwei verschiedene Eigenwerte, ist also diagonalisierbar und damit B. B ist invertierbar, da alle Eigenwerte von Null verschieden sind. Es ist n X

dim Ui+ + dim Ui− = 2n .

B2

! ! ! ui u 0 = λi i = λi B 0 ui 0

(MM.100)

i=1

Es folgt wegen

und wegen der analogen Aussage für (0, uti )t

Dabei ist Vi der Eigenraum von B2 zu λi und n X i=1

Sei x±i ∈ Ui± , dann gilt auch

e i ⊂ Vi . W

ei = 2 dim W

n X

dim Wi = 2n.

(MM.101)

i=1

B2 x±i = λi x±i , e i = Vi = U + ⊕ U + gelten. also Ui+ ⊕ Ui− ⊂ Vi . Wegen (MM.100) und (MM.101) muss die Gleichheit W 1 2



Bemerkung 7.48 Wird auch der Eigenwert λ = 0 zugelassen, so muss die Aussage in 2) folgendermaßen modifiziert werden: B hat λ = 0 als doppelten Eigenwert und B|Ui hat eine Kettenbasis der Länge 2. Damit folgt für λi = 0: e i = Ui W



804

7 Lineare Algebra und Analysis

Damit lässt sich also die Lösung von (MM.96) angeben. Sei A positiv definit. Seien λ1 , . . . , λm die Eigenwerte von M −1 A, d. h. −M −1 A ist diagonalisierbar und hat die negativen Eigenwerte −λ j . B nach (MM.98) ist also nach Satz 7.47 diagonalisierbar und hat die p zwei imaginären Eigenwerte ± λ j i, j = 1, . . . , m. Nach (7.27) gilt also mit t := t − t0 : y(t) =

m X

β+i cos

i=1

(x+1 , x−1 , . . . , p

p

 p  λi t x+i + β−i cos λi t x+i ,

wobei C := eine Eigenvektorbasis zerlegt in Real- und Imaginäranteil von B zu den Eigenwerten ± λ j i darstellt und x+m ,

x−m )

 β+1 , β−1 , . . . , β+m , β−m t = C −1 y0 .

Man beachte dabei, dass nach Satz 7.47 die Basis von Ui+ ⊕ Ui− trotz C-Vektorraum reell gewählt werden kann, so dass in (7.27) die Anteile mit wi und γi wegfallen. Nach Satz 7.47, 2) gibt es also Koeffizienten δ±i , so dass x(t) =

n  X  p  p  δ+i cos λi t + δ−i sin λi t ui ,

(MM.102)

i=1

wobei ui , i = 1, . . . , m eine Eigenvektorbasis von M −1 A zu den Eigenwerten λi ist. Wie zu erwarten, besteht die Lösung also aus einer Überlagerung ungedämpfter Schwingungen. Ist speziell M = m1 = 1 (durch Skalierung) und A durch (MM.11) gegeben, so sind λi und ui nach (MM.81) explizit bekannt. Sei A nur positiv semidefinit. Für jeden Eigenvektor ui von A zu λ = 0 kommen also in (MM.102) noch die Summanden  δ+i + tδ−i ui dazu.

^

Beispiel 2(6) – Elektrisches Netzwerk Hier soll die allgemeine Lösung für den Einschwingvorgang des elektrischen Schwingkreises (Abbildung 2.10, (MM.66)) entwickelt werden. Nach (7.23), Bemerkungen 4.27 ist nach den Nullstellen von p(λ) = λ2 + 2aλ + b mit a =

R , 2L

b=

1 , LC

d. h. nach λ1,2 = −a ±



a2 − b

zu unterscheiden: Sei t := t − t0 . Fall 1: b < a2 : Beide Nullstellen sind reell und negativ, d. h. die allgemeine Lösung ist für α, β ∈ R: y(t) = α exp(λ1 t) + β exp(λ2 t) .

Fall 2: b > a2 : Beide Nullstellen sind komplex: √ λ1,2 = −a ± iω, ω := b − a2 : y(t) = exp(−at)(α cos(ωt) + β sin(ωt)) . Fall 3: b = a2 hat die doppelte Nullstelle λ = −a: y(t) = exp(−at)(α + βt) .

7.2 Normierte Algebren

805

Kriechfall ungedämpfte Schwingung gedämpfte Schwingung aperiodischer Grenzfall

Abb. 7.1: Der elektrische Schwingkreis: Kriechfall, ungedämpfte Schwingung, gedämpfte Schwingung, aperiodischer Grenzfall.

2

Da b S a2 genau dann, wenn R4LC T 1, ist Fall 1 der Fall dominierender Dämpfung, in dem die Lösung sich dem stationären Zustand y = 0 exponentiell annähert (Kriechfall ). In Fall 2 liegt eine Schwingung vor, die für a = 0 (R = 0) ungedämpft und für a > 0 gedämpft ist und sich der Ruhelage nähert. Dazwischen, im (Grenz-)Fall 3, haben wir den Übergang aus einer Schwingung in den Kriechfall (aperiodischer ^ Grenzfall ).

806

7 Lineare Algebra und Analysis

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • • • • • •

verträgliche Operatornorm erzeugte Operatornorm (Theorem 7.23) submultiplikative Norm (Algebrennorm ) Spektralradius f (A) für Potenzreihen f und Matrix A Neumannsche Reihe (Theorem 7.39)

Zusammenhänge Spektralradius und erzeugte Norm (Theorem 7.32) Ak → 0 ⇔ ρ(A) < 1 (Hauptsatz 7.34) ρ(A) < Konvergenzradius von Potenzreihe f ⇒ f (A) existiert (Satz 7.37) exp(At) ist für alle A ∈ K(n,n) , t ∈ R, definiert und erfüllt Y ′ = AY (Theorem 7.42, Satz 7.43) • GL(Kn ) ist offen in K(n,n) und A 7→ A−1 ist differenzierbar auf GL(Kn ) (Theorem 7.39) • • • •

Beispiele • Zeilensummennorm (Theorem 7.30) • Spaltensummennorm (Theorem 7.30) • Spektralnorm (Theorem 7.30)

Aufgaben Aufgabe 7.6 (T) Sei V ein n-dimensionaler K-Vektorraum. Zeigen Sie, dass für n > 1 die Frobenius-Norm eine submultiplikative Norm auf L[V, V] ist, aber keine erzeugte Norm. Aufgabe 7.7 (T) Die Gesamtnorm k · kG einer Matrix A ∈ K(n,n) sei definiert durch kAkG := n max |ai j | . 1≤i, j≤n

Zeigen Sie, dass die Gesamtnorm k · kG zur Maximumsnorm k · k∞ und zur 1-Norm k · k1 verträglich ist. Aufgabe 7.8 (T) Sei k · k eine submultiplikative Norm auf K(n,n) und A ∈ K(n,n) . Zeigen Sie, dass die folgenden Aussagen äquivalent sind: (i) ρ(A) = kAk .

(ii) Es gilt kAk k = kAkk für alle k = 1, 2, . . .

Aufgaben

807

Aufgabe 7.9 Sei k . k eine Norm auf K(n,n) , die nicht notwendigerweise erzeugt ist. Zeigen Sie, dass es eine Konstante C > 0 gibt, so dass gilt: kABk ≤ CkAk kBk für alle A, B ∈ K(n,n) . Aufgabe 7.10 (K) Zeigen Sie, dass für A=

! ! 20 01 und B = 03 00

gilt: AB , BA und

exp(A + B) , exp(A) exp(B) .

Aufgabe 7.11 (K) Betrachtet wird die Matrix ! a+1 1 A= −1 a − 1

mit a , 0 .

a) Zeigen Sie mit dem Satz von Cayley-Hamilton und vollständiger Induktion, dass gilt: Ak = ak−1 (kA − a(k − 1)1) ,

k≥1.

b) Lösen Sie die Anfangswertaufgabe y˙ (t) = Ay(t) ,

t∈R,

! 1 . −1

y(t0 ) =

Aufgabe 7.12 Seien A, B ∈ K(n,n) und es gelte A = exp(B). Zeigen Sie: A ist unitär



B ist schief-hermitesch .

Aufgabe 7.13 (T) Leiten Sie mittels (7.29) eine Lösungsdarstellung her für die Anfangswertaufgabe (7.20) bei allgemeinem A ∈ K(n,n) mit Eigenwerten in K. Aufgabe 7.14 (T) Leiten Sie mittels (7.26) und (7.29) eine reelle Lösungsdarstellung her für die Anfangswertaufgabe (7.20) für allgmeines A ∈ R(n,n) . Aufgabe 7.15 (T) a) Zeigen Sie, dass für x ∈ Kn gilt: kxk2 ≤ kxk1 ≤ b) Zeigen Sie, dass die Normen

√ nkxk2 .

kuk∞ := max |u(x)| und kuk1 := x∈[0,1]

Z

0

1

|u(x)| dx

im Raum V = C([0, 1], K) der stetigen Funktionen auf dem Intervall [0, 1] nicht äquivalent sind.

808

7 Lineare Algebra und Analysis

7.3 Hilbert-Räume

7.3.1 Der Rieszsche Darstellungssatz und der adjungierte Operator Manche Ergebnisse der vorherigen Kapitel setzen die Endlichdimensionalität des Vektorraums voraus, wie etwa bei der orthogonalen Projektion. Hier werden wir untersuchen, inwieweit im speziellen Fall einer von einem inneren Produkt erzeugten Norm und der Vollständigkeit des Raums, d. h. eines Hilbert-Raums, auf die Endlichdimensionalität verzichtet werden kann. Euklidischem bzw. unitäre Räume erfüllen nach (1.62) die Parallelogrammgleichung. Tatsächlich charakterisiert diese das Vorliegen eines inneren Produkts: Satz 7.49: inneres Produkt = Parallelogrammgleichung Sei (V, k . k) ein normierter K-Vektorraum. Bei Gültigkeit der Parallelogrammgleichung   kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 für alle x, y ∈ V gibt es ein inneres Produkt h . i, das k . k erzeugt.

Beweis: K = R: Sei hx . yi :=

 1 kx + yk2 − kx − yk2 , 4

(7.30)

wie durch die Polarisationsformel (3.23) nahegelegt. Definitheit und Symmetrie folgen direkt. Um die Linearität in der ersten Komponente zu zeigen, gehe man aus von  1 kx + zk2 − kx − zk2 + ky + zk2 − ky − zk2 4  (1.62) 1  kx + y + 2zk2 + kx − yk2 − kx + y − 2zk2 − kx − yk2 = 8

2

2 ! 1

1 1

(x + y) + z



(x + y) − z

= 2 2 2 * + 1 (x + y) . z . =2 (7.31) 2

hx . zi + hy . zi =

Für y = 0 folgt daraus + 1 hx . zi = 2 x . z 2 *

und daraus für x + y statt x

7.3 Hilbert-Räume

809

+ 1 (x + y) . z , hx + y . zi = 2 2 *

also mit (7.31) die Verträglichkeit mit der Addition. Damit gilt auch hnx . yi = n hx . yi und somit (7.32) auch für q ∈ Q; denn sei q = m2

n

m

n m,

für n ∈ N

(7.32)

n, m ∈ N, dann

 x . y = hn m x . yi = n m hx . yi

und h−x . yi = − hx . yi, da hx . yi + h−x . yi = 0 nach (7.31). Da k . k nach Satz 7.6 eine stetige Abbildung ist und damit auch h . i nach (7.30), folgt wegen der Dichtheit von Q in R: hλx . yi = λ hx . yi

für alle x, y ∈ V, λ ∈ R .

K = C: Insbesondere ist V auch ein normierter R-Vektorraum (VR , k . k), so dass also ein Skalarprodukt ( . ) auf (VR , k . k) existiert, das die Norm induziert. Es bleibt zu zeigen, dass auch auf dem C-Vektorraum V ein inneres Produkt existiert, das ebenfalls die Norm induziert. (3.20) legt die Definition hx . yi :=

1 ((x . y) + i (x . iy)) 2

(7.33)

nahe. h . i ist Hermite-symmetrisch, weil 2hy . xi = (y . x) − i (ix . y) = (x . y) − i (ix . y) = (x . y) + i (x . iy) = 2 hx . yi , da gilt (ix . y) = − (x . iy) ,

(7.34)

denn (ix . y) =

 1  1 kix + yk2 − kix − yk2 = kx − iyk2 − kx + iyk2 = − (x . iy) . 4 4

Weiter ist h . i mit + und der Multiplikation mit reellen Skalaren in der ersten Komponente verträglich, da dies auf ( . ) zutrifft. Es fehlt also nun die Verträglichkeit mit der Multiplikation mit i, d. h. hix . yi = i hx . yi , was mit (7.34) gilt wegen hix . yi =

 1 (ix . y) + i (ix . iy) , 2

i hx . yi =

 1 − (x . iy) + i (x . y) . 2

810

7 Lineare Algebra und Analysis

Schließlich gilt: hx . xi =

 1  1 (x . x) − i (ix . x) = (x . x) + (x . x) = kxk2 . 2 2



Hauptsatz 7.50: Orthogonale Projektion Sei (V, h . i) ein K-Hilbert-Raum, k . k die erzeugte Norm, K ⊂ V abgeschlossen und konvex. Dann existiert zu jedem x ∈ V eindeutig ein u ∈ K, so dass für das Fehlerfunktional ϕ(u) := kx − uk gilt: ϕ(u) = min{ϕ(u) : u ∈ K} . PK (x) := u heißt die orthogonale Projektion von x auf K. Für alle u ∈ K gilt: u = PK (x) ⇔ Re hx − u . u − ui ≤ 0 für alle u ∈ K .

(7.35)

Eine solche Bedingung nennt man Variationsungleichung .

Beweis: d(x, K) := inf{ϕ(u) : u ∈ K} ≥ 0 ist wohldefiniert, also existiert eine Folge un in K, so dass kx − un k → d(x, K) für n → ∞. Ein solches (un ) heißt Minimalfolge . Aufgrund der Parallelogrammgleichung (1.62) ist kum − un k2 = k(x − un ) − (x − um )k2

= 2(kx − un k2 + kx − um k2 ) − k(x − un ) + (x − um )k2 1 = 2(kx − un k2 + kx − um k2 ) − 4kx − (un + um )k2 . 2

Da wegen der Konvexität von K 12 (un + um ) ∈ K gilt, folgt   kum − un k2 ≤ 2 kx − un k2 + kx − um k2 − 2d(x, K)2 → 0 für n, m → ∞, so dass (un )n eine Cauchy-Folge in K ist. Wegen der Vollständigkeit existiert u := lim un n→∞

und wegen der Abgeschlossenheit von K ist u ∈ K. Aus der Stetigkeit der Norm folgt

7.3 Hilbert-Räume

811

kx − un k → kx − uk für n → ∞ ,

also

kx − uk = d(x, K) ,

und damit ist u eine Lösung der Minimierungsaufgabe. Ist u eine weitere Lösung, so folgt wie oben aus der Parallelogrammgleichung   ku − uk2 ≤ 2 kx − uk2 + kx − uk2 − 2d(x, K)2 = 0 .

Somit ist PK (x) := u wohldefiniert. Sei u ∈ K, dann (1 − ε)PK (x) + εu ∈ K für 0 ≤ ε ≤ 1, also kx − PK (x)k2 ≤ kx − (1 − ε)PK (x) − εuk2

= kx − PK (x)k2 − 2 ε Re hx − PK (x) . u − PK (x)i + ε2 r

für ein r ≥ 0. Also für ε → 0 Re hx − PK (x) . u − PK (x)i ≤ 0 . Gilt andererseits diese Bedingung für ein PK (x), dann gilt für beliebiges u ∈ K kx − uk2 = kx − PK (x) + PK (x) − uk2

= kx − PK (x)||2 + 2 Re hx − PK (x) . PK (x) − ui + kPK (x) − uk2

≥ kx − PK (x)k2 ,

folglich ist PK (x) die orthogonale Projektion.



Bemerkungen 7.51 1) Ein affiner Unterraum ist offensichtlich konvex. Nach Satz 7.16 ist er abgeschlossen, wenn er vollständig ist, d. h. insbesondere wenn er endlichdimensional ist. Sei K ein affiner Unterraum, K = w + U mit einem Unterraum U, dann ist die Charakterisierung (vgl. Hauptsatz 1.102I (S. 375), Bemerkungen 1.106, 2)) hx − PK (x) . ui = 0

für alle u ∈ U ,

(7.36)

PK : V → V ist dann affin-linear.

Dies folgt aus (7.35) durch Wahl von u := u˜ + PK (x) ∈ K für beliebiges u˜ ∈ U , so dass auch Re hx − PK (x) . u˜ i = 0 folgt für u˜ ∈ U und mit Lemma 3.23, 2) (für K = C) auch (7.36). Die Affin-Linearität von PK folgt sofort aus hαx + (1 − α)y − αPK (x) − (1 − α)PK (y) . ui = 0

und

αPK (x) + (1 − α)PK (y) ∈ K

für x, y ∈ V, α ∈ [0, 1].

Bei der Bezeichnung für PK (x) haben wir uns also von diesem Spezialfall und den hier, aber nicht allgemein, gültigen Fehlerothogonalitäten leiten lassen. Alternativ kann man auch vom Element bester Approximation in K sprechen (bezüglich k·kV ). 2) Ist also U ein abgeschlossener Unterraum in einem auch unendlichdimensionalen KHilbert-Raum V, dann ist PU wohldefiniert und es gilt

812

7 Lineare Algebra und Analysis

V = U ⊕ U⊥ . PU⊥ ist wohldefiniert und PU⊥ (u) = u − PU (u) , (U ⊥ )⊥ = U . Man vergleiche den Beweis von Satz 1.105. Die dortigen Beweise lassen sich übertragen, auch ist U ⊥ immer abgeschlossen.

Hauptsatz 7.50 erweitert also Hauptsatz 1.102 auf unendlichdimensionale, aber abgeschlossene und konvexe Projektionsmengen in Hilbert-Räumen. 3) Die Charakterisierung von PK (x) durch (7.35) gilt allgemein für jede konvexe Teilmenge U eines euklidischen bzw. unitären K-Vektorraums. Sei K ein Kegel über M mit Spitze a, K = conea (M), wobei M ⊂ V konvex ist. Dann ist die Charakterisierung von PK (x) äquivalent mit Re hx − u . u˜ i = 0

Re hx − u . u˜ i ≤ 0

wobei u = u˜ + a

(7.37)

für alle u˜ ∈ cone0 (M − a) .

Das kann man folgendermaßen einsehen: Nach Satz 6.45 ist K konvex. Weiter gilt ˜ , wobei M ˜ := M − a , K = a + cone0 ( M)

das ebenfalls konvex ist. Für u = a ∈ K folgt Re hx − u . u˜ i ≥ 0. Für u = a + 2u˜ ∈ K ist Re hx − u . u˜ i ≤ 0, ˜ u := u + u˜ ∈ K . d. h. die erste Behauptung. Für die zweite Ungleichung wähle man zu u˜ ∈ cone0 ( M) Die Rückrichtung ist offensichtlich.

4) Für beliebige Normen existiert die orthogonale Projektion i. Allg. nicht. → und → − 5) Geometrisch bedeutet die Charakterisierung, dass der Winkel zwischen − ux uv für π beliebige u ∈ K im Fall u = PK (x) stumpf (≥ π/2) sein muss, mit = 2 im Fall eines affin-linearen K (vgl. Abbildung 7.2).

K

K

u

u

u

α ≥

u

π 2

.

π 2

x

x

Abb. 7.2: Orthogonale Projektion auf allgemeines, konvexes K und affin-lineares K.

7.3 Hilbert-Räume

813

6) Ist k . k nicht von einem inneren Produkt erzeugt, wie z. B. k . k∞ auf R2 , dann hat z. B. (3, 0) für K = {(x, y) : k(x, y)k∞ ≤ 1} von allen (1, y) ∈ K mit |y| ≤ 1, den gleichen Abstand 2 (siehe Abbildung 7.3).

K

1

-1

1

2

3

-1

Abb. 7.3: Orthogonalprojektion von (3, 0) bezüglich k . k∞ auf K. △ *Bemerkungen 7.52 Die orthogonale Projektion hängt eng mit Trennungssätzen zusammen. Sei V ein K-Hilbert-Raum. 1) Sei K ⊂ V konvex und abgeschlossen, x < K. Dann gibt es ein a ∈ V, so dass Re hu . ai < Re hx . ai

für alle u ∈ K .

Sei u := PK (x), dann folgt aus Hauptsatz 7.50 Re hx − u . ui ≤ Re hx − u . ui < Re hx − u . ui + kx − uk2 = Re hx − u . xi ,

sodass also a = x − u gewählt werden kann.

2) Seien K, L konvex und abgeschlossen, L sei kompakt, K ∩ L = ∅. Dann gibt es ein a ∈ V, so dass Re hu1 . ai < Re hu2 . ai

für u1 ∈ K, u2 ∈ L .

Mit K und L ist auch K − L := {u1 − u2 : u1 ∈ K, u2 ∈ L}

konvex und nach Voraussetzung 0 < K − L. K − L ist abgeschlossen, d. h. konvergiert eine Folge aus K − L: kn − ln → a für n → ∞, kn ∈ K, ln ∈ L, so hat ln eine in L konvergente Teilfolge: lni → l für i → ∞ und daher kni → a + l =: k ∈ K , also a = k − l ∈ K − L. Nach 1) existiert folglich a ∈ V , so dass Re hu1 − u2 . ai < Re h0 . ai = 0 für u1 ∈ K, u2 ∈ L .



814

7 Lineare Algebra und Analysis

Die Stetigkeit von PK wird später untersucht. Theorem 7.53: Rieszscher Darstellungssatz, endgültige Fassung Sei (V, h . i) ein K-Hilbert-Raum. Sei ϕ ∈ V ′ (= L[V, K]). Dann gibt es ein eindeutiges a ∈ V, so dass ϕ(x) = hx . ai

für alle x ∈ V .

Die Zuordnung J : V → V ′ , a → h . . ai ist ein antilinearer Isomorphismus von V nach V ′ mit (7.38)

kJ(a)k = kak. Die Norm in V ′ ist dabei die erzeugte Norm. J ist also eine Isometrie. Antilinear bedeutet: J(λx + y) = λ J(x) + J(y) für λ ∈ K,

x, y ∈ V .

Beweis: (nach Alt 2006, S. 163) Wegen |J(a)(x)| ≤ kak kxk für a, x ∈ V ist J(a) ∈ V ′ (die Linearität ist klar) und kJ(a)k ≤ kak . Weiter ist |J(a)a| = kak2 = kak kak und damit auch kJ(a)k = kak

für alle a ∈ V .

Wegen der Eigenschaften des inneren Produkts in der zweiten Komponente ist J antilinear (insbesondere linear für K = R). Da J eine Isometrie ist, ist es insbesondere injektiv: J(a) = J(a) ⇔ 0 = J(a) − J(a) = J(a − a) ⇔ ka − ak = kJ(a − a)k = 0 . Es fehlt also noch der Nachweis der Surjektivität von J. Sei ϕ ∈ V ′ \ {0} und P die orthogonale Projektion von V auf Kern ϕ nach Hauptsatz 7.50. Diese ist wohldefiniert, da der Kern ϕ abgeschlossen ist. Zur geometrischen Interpretation der folgenden Beweisstruktur siehe Bemerkungen 7.54. Sei u ∈ V, so dass ϕ(u) , 0, und dann e :=

1 u, also ϕ(e) = 1 . ϕ(u)

7.3 Hilbert-Räume

815

Für e aϕ := e − Pe ist ϕ(e aϕ ) = 1, insbesondere also e aϕ , 0. Aufgrund der Fehlerorthogonalität ist E D y .e aϕ = 0 für alle y ∈ Kern ϕ , also für x ∈ V

x = x − ϕ(x)e aϕ + ϕ(x)e aϕ und damit wegen x − ϕ(x)aϕ ∈ Kern ϕ E D E D aϕ k2 . x .e aϕ = ϕ(x)e aϕ . e aϕ = ϕ(x)ke

Folglich ist

a := e aϕ /ke aϕ k2

das gesuchte Darstellungselement für ϕ.



Bemerkungen 7.54

1) Die geometrische Motivation für die Beweiskonstruktion ist die folgende: Ist V = Rn (und dann schon bekannt, dass ϕ(x) = hx . ai) geht es nur darum, a ∈ Rn zu „identifizieren“. U := {x : ϕ(x) = 0} = a⊥ ist also eine Hyperebene mit dim U := n − 1, auf der a senkrecht steht. Wegen dim U ⊥ = dim(a⊥⊥ ) = dim span{a} = 1 reicht es demzufolge, einen auf U senkrecht stehenden Vektor a zu bestimmen und diesen eventuell in der Länge anzupassen. Aufgrund der Fehlerorthogonalität ist als e a jedes Pe − e für e < U möglich. Der Beweis zeigt, dass diese Argumentation auch im unendlichdimensionalen Hilbert-Raum-Fall möglich ist (ohne U ⊥⊥ = U zur Verfügung zu haben). 2) Der Begriff der Isometrie wird allgemein in Definition 5.23 eingeführt und bedeutet auf Hilbert-Räumen die Erhaltung des inneren Produkts, die die Normerhaltung nach (7.38) sofort nach sich zieht. Andererseits folgt nach der Polarisationsformel (allgemein Theorem 5.29 oder schon (3.23)) auch aus der Normerhaltung die Erhaltung des inneren Produkts. 3) Sei Φ ∈ HomK (V, W) für K-Vektorräume V, W. Eine lineare oder antilineare Isometrie Φ ist stetig. Der erste Fall ist klar und sogar kΦk = 1. Im zweiten Fall beachte man, dass auch hier aus Beschränktheit Stetigkeit folgt: kΦx − Φyk = kΦ(x − y)k ≤ Kkx − yk .

4) Eine Anwendung von Riesz ist die folgende Aussage über näherungsweise Integration (Quadraturformeln) : Seien a ≤ x1 < . . . < xn ≤ b reelle Zahlen, mi ∈ R, i = 1, . . . , n (Quadraturgewichte) beliebig. Dann gibt es eindeutig ein q ∈ V := Rn−1 [a, b], so dass I(p) =

Z

a

b

q(x)p(x)dx =

n X i=1

mi p(xi ) =: In (p)

816

7 Lineare Algebra und Analysis

für alle p ∈ V gilt.

Das kann man folgendermaßen einsehen: Sei ϕi (p) := p(xi ), i = 1, . . . , n, dann ist wegen |ϕi (p)| ≤ kpk∞ ϕi ∈ V ′ ,

erst einmal für k . k = k . k∞ , dann wegen der Endlichdimensionalität von V auch für k . k = k . k2 . Also In ∈ V ′ und damit gibt es eindeutig ein q ∈ V, so dass hp . qi = In (p)

für p ∈ V

für das L2 -Skalarprodukt h . i .

△ Damit kann allgemein (aber nur) für Φ ∈ L[V, W] der adjungierte Operator definiert werden (vgl. Definition 2.60). Definition 7.55 Seien V, W K-Hilbert-Räume mit inneren Produkten h . i (in der Schreibweise nicht unterschieden). Sei Φ ∈ L[V, W]. Der Adjungierte Φ† ∈ L[W, V] wird definiert durch die Eigenschaft D E hΦu . wi = u . Φ† w für alle u ∈ V, w ∈ V . Satz 7.56: Adjungierte Seien V, W K-Hilbert-Räume, Φ ∈ L[V, W]. Dann existiert Φ† ∈ L[W, V] eindeutig und es gilt für die erzeugte Norm kΦk = kΦ† k . Die Zuordnung: † : L[V, W] → L[W, V], Φ 7→ Φ† ist antilinear und eine Isometrie.

Beweis: Sei Φ ∈ L[V, W]. Für ein beliebiges, festes w ∈ W definiere man Ψw : V → K durch u 7→ hΦu . wi , dann ist Ψw ∈ V ∗ und wegen | hΦu . wi | ≤ kΦk kuk kwk

auch

Ψw ∈ V ′ , kΨw k ≤ kΦk kwk.

e : W → V ′ , w 7→ Ψw wird also eine antilineare Abbildung von W nach V ′ definiert Durch Φ und e = kΨw k ≤ kΦk kwk . kΦwk

7.3 Hilbert-Räume

817

Es gilt damit: e Φ(w)(u) = hΦu . wi .

e Man setze also Φ† (w) := J −1 (Φ(w)) , wobei J der Isomorphismus von V nach V ′ aus dem Rieszschen Darstellungssatz ist, somit D E u . Φ† (w) = hΦu . wi ,

wie gewünscht und Φ† : W → V ist linear als Komposition zweier antilinearer Abbildungen. Es ist: e kΦ† (w)k = kΦ(w)k ≤ kΦk kwk

und damit ist Φ† auch beschränkt,

Φ† ∈ L[W, V]

kΦ† k ≤ kΦk .

und

(7.39)

Der Adjungierte ist auch eindeutig, denn sind Ψ1 und Ψ2 Adjungierte zu Φ, dann

also d. h.

für alle u ∈ V, w ∈ W

hu . Ψ1 wi = hu . Ψ2 wi

hu . Ψ1 w − Ψ2 wi = 0 Ψ1 w − Ψ2 w = 0

für alle u ∈ V, w ∈ W , für alle w ∈ W .

Damit gilt insbesondere: Φ†† = Φ

und aus (7.39) folgt ebenso

kΦk = kΦ†† k ≤ kΦ† k

und damit die Isometrie der Zuordnung †. Die Antilinearität folgt sofort aus der Eindeu tigkeit (siehe Bemerkungen 7.57, 1)). Bemerkungen 7.57 1) Es gelten die Rechenregeln für Φ, Ψ ∈ L[V, W]: • Φ†† = Φ.

• (Φ + Ψ )† = Φ† + Ψ † , (λΦ)† = λΦ†

für λ ∈ C.

• (Φ ◦ Ψ )† = Ψ † ◦ Φ† für Ψ ∈ L[U, V], Φ ∈ L[V, W]

2) Seien V, W normierte K-Vektorräume.

818

7 Lineare Algebra und Analysis

Analog zu Definition 3.52 kann auch für Φ ∈ L[V, W] der duale Operator Φ′ : L[W ′ , V ′ ] definiert werden durch ϕ 7→ ϕ ◦ Φ . Φ′ ergibt sich aus der (algebraischen) dualen Abbildung Φ∗ ∈ Hom(W ∗ , V ∗ ) durch Φ′ = Φ∗ |W ′ .

Es ist nur Φ′ (ϕ) ∈ V ′ und die Beschränktheit von Φ′ zu prüfen, die sofort aus Satz 7.26 folgen in der Form kΦ′ (ϕ)k = kϕ ◦ Φk ≤ kϕk kΦk

||Φ′ || ≤ ||Φ||

und hieraus

für die erzeugten Normen folgt.

Tatsächlich gilt sogar kΦ′ k = kΦk . Dazu nutzt man aus, dass für u ∈ V, kuk = 1 ein ψ ∈ W ′ existiert, so dass kψk = 1 und ψ(Φu) = kΦuk , nämlich gegeben durch ψ(w) := hw . Φ(u/kΦuk)i (siehe Theorem 7.53), und daher kΦ′ k ≥ kΦ′ (ψ)k = kψ ◦ Φk ≥ |(ψ ◦ Φ)u| = |ψ(Φu)| = kΦuk

und damit noch

kΦk ≤ kΦ′ k .

3) Der Zusammenhang zwischen dem Adjungierten Φ† und dem dualen Operator Φ′ ergibt sich durch Φ† = JV−1 ◦ Φ′ ◦ JW e im Bemit den Rieszschen Darstellungsoperatoren JV bzw. JW . Die Hilfskonstruktion Φ weis von Satz 7.56 ist also e = Φ′ ◦ JW . Φ



Beispiel 7.58 Sei V = H01 [a, b] ein Raum von reellwertigen stetigen Funktionen auf [a, b], die in einem verallgemeinerten Sinn differenzierbar seien, so dass v′ ∈ L2 (a, b) für v ∈ H01 [a, b]

 und für die v(a) = v(b) = 0. Also ist für W = L2 [a, b], R =: L2 [a, b] Φ:V→W,

v 7→ v′

1

ein linearer Operator, der dann auch beschränkt ist für kvkV := (kvk2L2 + kv′ k2L2 ) 2 . Nach dem Rieszschen Darstellungssatz (Theorem 7.53) ist (L2 [a, b])′ mit L2 [a, b] durch 2

wϕ ∈ L [a, b] 7→ ϕ(w) :=

Z

a

b

w(x)wϕ (x)dx, ϕ ∈ (L2 [a, b])′

7.3 Hilbert-Räume

819

identifizierbar. Auch k . kV wird durch ein inneres Produkt erzeugt und aus der Vollständigkeit von L2 [a, b] folgt die von V, also gilt eine analoge Identifikation. Für den dualen Operator gilt Φ′ : W ′ → V ′ und für ψ := Φ′ (ϕ): ψ(v) = ϕ(v′ ) für v ∈ V. Ist wϕ ∈ W das darstellende Element zu ϕ, dann ψ(v) = 

 also für wϕ ∈ C 1 (a, b), R :

Z

ψ(v) = −

b

v′ (x)wϕ (x)dx a

Z

b

v(x)w′ϕ (x)dx

a

und in diesem (formalen) Sinn Φ′ (ϕ) = −w′ϕ . Ersetzt man (a, b) durch eine offene Menge Ω ⊂ RN , dann entsprechen sich Φ : v 7→ ∇v wobei ∇v = (∂ x1 v, . . . , ∂ xN v)t , der Gradient von v und

wobei div w :=

PN

i=1

Φ′ : ϕ 7→ − div wϕ , ∂ xi wi , die Divergenz von w.

Definition 3.29 überträgt sich zu Definition 7.59 Sei V ein K-Hilbert-Raum, Φ ∈ L[V, V].

1) Φ heißt unitär , wenn Φ invertierbar ist und Φ−1 = Φ† . 2) Φ heißt selbstadjungiert (bzw. für K = R: symmetrisch , für K = C hermitesch ), wenn Φ = Φ† . 3) Φ heißt normal , wenn Φ Φ† = Φ† Φ .



820

7 Lineare Algebra und Analysis

Bemerkung 7.60 Wie aus Bemerkungen 7.13, 2) ersichtlich, ist für unendlichdimensionale Räume für Φ ∈ L[V, W] bei Existenz von Φ−1 ∈ Hom(W, V) nicht zwingend Φ−1 ∈ L[W, V]. Bei unitären Φ wird die Beschränktheit von Φ−1 durch Φ−1 = Φ† erzwungen. Allerdings folgt es hier auch automatisch wegen der Vollständigkeit von V = W ( Dies ist eine Aussage der Funktionalanalysis : Satz von der inversen Abbildung, siehe z. B. Alt 2006, S. 221). Im Beispiel aus Bemerkungen 7.13, 2) muss also immer einer der beteiligten Räume nicht vollständig sein. △ Satz 7.61: Unitäre Operatoren Seien V, W K-Hilbert-Räume, L[V, W], L[W, V] jeweils mit der erzeugten Norm versehen, Φ ∈ L[V, W]. Dann gilt: 1) kΦk2 = kΦ Φ† k = kΦ† Φk.

2) Die Zuordnung Φ 7→ Φ† von L[V, W] nach L[W, V] ist stetig.

3) Ist Φ unitär, dann kΦk = 1.

Beweis: Zu 1): Es ist

und also

kΦ† Φk ≤ kΦ† k kΦk ≤ kΦk2 D E kΦuk2 = hΦu . Φui = u . Φ† Φu ≤ kuk kΦ† Φk kuk, kΦk2 ≤ kΦ† Φk

und somit

kΦ† Φk = kΦk2 = kΦ† k2 = kΦ Φ† k .

Zu 2): Klar, da Φ 7→ Φ† sogar eine Isometrie ist. E D zu 3): Klar wegen kΦuk2 = hΦu . Φui = u . Φ† Φu = kuk2

für u ∈ V .



Bemerkung 7.62 Es gilt für Φ ∈ L[V, V] : Φ ist normal ⇔ kΦuk = kΦ† uk für alle u ∈ V (Übung).



Satz 7.63 Sei V ein K-Hilbert-Raum, Φ ∈ L[V, V] selbstadjungiert. Dann: kΦk = sup {| hΦu . ui | : u ∈ V, kuk ≤ 1} .

(7.40)

7.3 Hilbert-Räume

821

Beweis: Sei M := sup {| hΦu . ui | : u ∈ V, kuk ≤ 1}, dann ist wegen | hΦu . ui | ≤ kΦk kuk2

auch

M ≤ kΦk .

Zum Nachweis von M = kΦk muss noch kΦuk ≤ M für alle u ∈ V, kuk = 1 gezeigt werden. O. B. d. A. kann also Φu , 0 angenommen werden. 1 Φu, also kwk = 1, dann ist wegen hΦu . ui ≤ Mkuk2 für beliebige u ∈ V Setze w := kΦuk 4M = M(2kuk2 + 2kwk2 ) = M(ku + wk2 + ku − wk2 )

nach (1.62)

≥ | hΦ(u + w) . u + wi | + | hΦ(u − w) . u − wi | ≥ | hΦ(u + w) . u + wi − hΦ(u − w) . u − wi |

= 2| hΦu . wi + hΦw . ui | = 2| hΦu . wi + hw . Φui | + * + * 1 1 = 2 Φu . Φu + Φu . Φu kΦuk kΦuk 4 kΦuk2 = 4kΦuk . = kΦuk  Bemerkungen 7.64 1) Ist V endlichdimensional, kann in (7.40) sup durch max ersetzt werden, da ein stetiges Funktional auf einer kompakten Menge betrachtet wird. Demzufolge gibt es ein u0 ∈ V mit ku0 k ≤ 1, so dass kΦk = | hΦu0 . u0 i | .

(7.41)

2) In der Situation von (7.41) gilt Φu0 = hΦu0 . u0 i u0 = ±kΦku0 , d. h. u0 ist Eigenvektor zum betragsgrößten Eigenwert ±kΦk.

Das kann folgendermaßen eingesehen werden: Da hΦu0 . u0 i = hu0 . Φu0 i = hΦu0 . u0 i ist somit hΦu0 . u0 i ∈ R (richtig für jedes u0 ∈ V wegen der Selbstadjungiertheit). Deshalb gilt hΦu0 . u0 i = kΦk

oder = −kΦk .

Dann folgt die Behauptung aus: hΦu0 − hΦu0 . u0 i u0 . Φu0 − hΦu0 . u0 i u0 i = kΦu0 k2 − 2 hΦu0 . u0 i2 + hΦu0 . u0 i2 ku0 k2

≤ kΦu0 k2 − hΦu0 . u0 i2 ≤ kΦu0 k2 − kΦk2 ≤ 0

Für endlichdimensionale V folgt die Aussage auch aus Satz 4.15. △

822

7 Lineare Algebra und Analysis

Satz 7.65: Norm von Projektionen Sei V ein euklidischer bzw. unitärer Raum, P ∈ Hom(V, V) eine Projektion, d. h. P2 = P. Dann sind äquivalent: (i) Es gilt P ∈ L[V, V] mit kPk ≤ 1 in der erzeugten Norm bzw. für alle u ∈ V .

hPu . Pui ≤ hu . ui (ii) P ist orthogonale Projektion auf Bild P.

Bei der Gültigkeit von (i) bzw. (ii) ist für P , 0 sogar kPk = 1.

Beweis: „(i) ⇒ (ii)“: Für x ∈ V ist zu zeigen: x − Px ∈ (Bild P)⊥

bzw.

Angenommen, es gäbe ein

u ∈ Kern P

(mit kuk = 1),

Kern P ⊂ (Bild P)⊥ . so dass u < (Bild P)⊥ ,

d. h. es gäbe ein w = Pw ∈ Bild P, so dass hu . wi , 0

bzw. o. B. d. A.

= 1.

Dann: hu − 2w . u − 2wi = hu . ui − 2 hu . wi − 2 hw . ui + 4 hw . wi = 1 − 4 + 4 hw . wi < 4 hw . wi = hP(u − 2w) . P(u − 2w)i

im Widerspruch zu kPk ≤ 1. „(ii) ⇒ (i)“: Nach Satz 2.64 ist P selbstadjungiert, also D E kPuk2 = hPu . Pui = u . P2 u = hu . Pui ≤ kuk kPuk , folglich

kPuk ≤ kuk

für alle u ∈ V .

Für den Zusatz beachte man für eine Projektion kPk = kP2 k ≤ kPk kPk . 

7.3 Hilbert-Räume

823

Theorem 7.66: Bessel14 sche Ungleichung Seien V ein K-Hilbert-Raum, u1 , . . . , un ∈ V orthonormal und u ∈ V. Sei Un := span(u1 , . . . , un ), P die orthogonale Projektion V auf Un . Dann: n X

1)

i=1

2)

| hu . ui i |2 ≤ kuk2 .

1/2  n   2 X 2 | hu . ui i |  inf ku − uk : u ∈ span(u1 , . . . , un ) = kuk − 



i=1

 1/2 = kuk2 − kPuk2 .

Beweis: Zu 1): Ist eine direkte Folge von 2). Zu 2): Der linke Ausdruck quadriert ist



2 n n n X X X

2 ku − Puk =

u − hu . ui i ui

= kuk2 − 2 | hu . ui i |2 + | hu . ui i |2 .

i=1 i=1 i=1 Unter Beachtung von Bemerkungen 1.110, 1): Pu = P thagoras (Satz 1.96) kPuk2 = ni=1 | hu . ui i |2 .

Pn

i=1

hu . ui i ui und damit nach Py

7.3.2 Schauder-Basen Schon in Abschnitt 1.4 wurde erwähnt, dass auch in einem unendlichdimensionalen Vektorraum die Existenz einer Basis gezeigt werden kann. Zumindest in Banach-Räumen wird der Begriff aber unhandlich, da gilt (ohne Beweis): Sei (V, k . k) ein Banach-Raum mit einer abzählbaren Basis. Dann ist V endlichdimensional. Insbesondere in einem Hilbert-Raum kann somit eine solche (algebraische) Basis, hier auch Hamel-Basis genannt, nur überabzählbar sein. Um wieder zu einer handhabbaren, abzählbaren Menge zu gelangen, reduziert man die Anforderung von „Darstellbarkeit“ durch eine endliche Linearkombination auf „Approximierbarkeit“ durch endliche Linearkombinationen in folgendem Sinn:

14

Friedrich Wilhelm Bessel ∗22. Juli 1784 in Minden (Westfalen) †17. März 1846 in Königsberg (Preußen)

824

7 Lineare Algebra und Analysis

Definition 7.67 Sei (V, k . k) ein normierter K-Vektorraum. Eine Folge u1 , u2 , . . . in V heißt Schauder15 -Basis von V, wenn gilt: Zu jedem u ∈ V gibt es eindeutige αi ∈ K, i ∈ N so dass u=

∞ X

αn un

n=1

(im üblichen Sinn der Konvergenz der Partialsummenfolge, d. h. von sn :=

n X i=1

αi ui → u

für n → ∞) .

Die αi heißen Koeffizienten von u bezüglich B. Bemerkungen 7.68 Sei B := {ui : i ∈ N} eine Schauder-Basis. 1) B ist linear unabhängig.

P Sei Nj=1 αi j ui j = 0 für beliebige ui j ∈ B, dann können die αi j mit αk := 0 für k , i j zu einer Folge (αi )i in K ergänzt werden, für die gilt ∞ X

αn un = 0 ,

n=1

d. h. wegen der Eindeutigkeit der Koeffizienten αn = 0

2) Sei u =

P∞

n=1

für alle n ∈ N .

αn un die eindeutige Darstellung, dann folgt für ϕ ∈ V ′ : ∞  ∞ X  X  ϕ(u) = ϕ  αn un  = αn ϕ(un ) n=1

n=1

d. h. ϕ ist durch ϕ(un ), n ∈ N, eindeutig definiert. Die Funktionale ϕk : V → K, u 7→ αk , k ∈ N

sind wohldefiniert und linear. Ohne Beweis halten wir fest, dass die ϕk sogar beschränkt sind, d. h. ϕk ∈ V ′ . Es ist also ϕi (u j ) = δi j für i, j ∈ N. Insgesamt ergibt sich

15

Juliusz Paweł Schauder ∗21. September 1899 in Lemberg †September 1943 in Lemberg

7.3 Hilbert-Räume

ϕ=

∞ X

825

αn ϕn ⇔ ϕ(um ) =

n=1

∞ X

αn ϕn (um )

n=1

⇔ ϕ(um ) = αm

für alle m ∈ N

für alle m ∈ N (vergleiche Satz 3.50).

ϕ ∈ V ′ lässt sich folglich auf eindeutige Weise durch B′ = {ϕn : n ∈ N} darstellen. B′ ist also eine Schauder-Basis von V ′ , die zu B duale Basis.

3) Anscheinend ist die Forderung nach Eindeutigkeit der Darstellung, anders als im endlichdimensionalen Fall, stärker als die lineare Unabhängigkeit von B. △

So wie die ONB unter den Basen besonders übersichtlich sind, so sind sie es auch unter den Schauder-Basen: Definition 7.69 Sei (V, h . i) ein euklidischer bzw. unitärer Raum. Sei B := {ui : i ∈ N} ⊂ V. 1) B heißt Orthonormalsystem, wenn gilt E D ui . u j = δi j für i, j ∈ N .

2) B heißt (Schauder-)Orthonormalbasis (SONB), wenn gilt: (i) B ist Orthonormalsystem. (ii) B ist Schauder-Basis.

Bemerkungen 7.70 Sei B := {ui : i ∈ N} eine SONB. 1) Für die Koeffizienten von u ∈ V bezüglich B gilt: αn = hu . un i , n ∈ N , Ist nämlich u = kung 7.7)

P∞

n=1

die Fourier-Koeffizienten .

αn un , dann folgt für m ∈ N wegen der Stetigkeit des inneren Produkts (nach Bemerhu . um i =

*X ∞ n=1

+ X ∞ ∞ X αn u n . u m = αn hun . um i = αn δnm = αm . n=1

n=1

Man vergleiche Bemerkungen 1.110, 1) (r = n) für den endlichdimensionalen Fall. 2) Für ein Orthonormalsystem muss also die Eindeutigkeit der Darstellung nicht gefordert werden, da sie automatisch folgt. 3) Sei Un := span(u1 , . . . , un ), d. h. Un ist eine aufsteigende Folge von n-dimensionalen Unterräumen, für die für u ∈ V gilt:

826

7 Lineare Algebra und Analysis

u(n) := PUn u =

n X i=1

(7.42)

hu . ui i ui

ist die orthogonale Projektion auf Un und nach 1) ist u(n) auch die n-te Partialsummenfolge von u in der Schauder-Basisdarstellung, d. h. u(n) → u

für n → ∞ .

4) Sei V = l2 (K), dann ist eine Schauder-Basis definiert durch (vi ) j = δi, j für i, j ∈ N . △ Der folgende Satz liefert eine Charakterisierung der Schauder-Basis-Eigenschaft, auch Vollständigkeit genannt, eines Orthonormalsystems. Theorem 7.71: Charakterisierung SONB Sei (V, h . i) ein K-Hilbert-Raum, B := {ui : i ∈ N} ein Orthonormalsystem in V. Dann sind folgende Aussagen äquivalent: (i) span B ist dicht in V.

(ii) B ist eine Schauder-Basis von V. P 16 (iii) hu . wi = ∞ n=1 hu . un i hw . un i für alle u, w ∈ V, die Parseval -Identität. P 2 (iv) kuk2 = ∞ n=1 | hu . un i | für u ∈ V, die Vollständigkeitsrelation.

(v) Die Abbildung J : V → l2 (K), u 7→ (hu . un i)n , die jedem Vektorraumelement die Folge der Fourier-Koeffizienten zuordnet, ist wohldefiniert und isometrisch.

Beweis: „(i) ⇒ (ii)“: Sei u ∈ V. Nach Voraussetzung gibt es eine Folge natürlicher Zahlen mn → ∞ für n → ∞, o. B. d. A. monoton wachsend, und für diese αn,k ∈ K, k = 1, . . . , mn ,

so dass

w

(n)

:=

mn X k=1

αn,k uk → u für n → ∞ .

Sei u(m) die m-te Partialsumme nach (7.42), ε > 0 beliebig, so folgt für n, m ∈ N, m ≥ mn ku(m) − uk = inf{ku − uk : u ∈ Um } ≤ kw(n) − uk ≤ ε , falls n groß ist, und damit ku(m) − uk → 0 für m → ∞. „(ii) ⇒ (i)“: Folgt sofort aus der Definition mittels (7.42). 16

Marc-Antoine Parseval des Chênes ∗27. April 1755 in Rosières-aux-Salines †16. August 1836 in Paris

7.3 Hilbert-Räume

827

„(ii) ⇒ (iii)“: Unter Beachtung von Bemerkungen 7.70, 1) und der Stetigkeit des inneren Produkts folgt für u, w ∈ V: hu . wi = =

*X ∞

hu . un i un .

n=1 ∞ X ∞ X n=1 k=1

∞ X k=1

hw . uk i uk

+

hu . un i hw . uk i hun . uk i =

∞ X

hu . un i hw . un i .

n=1

„(iii) ⇒ (iv)“: Folgt sofort für u = w. „(iv) ⇒ (ii)“: Mit der Notation von Bemerkungen 7.70, 3) und Theorem 7.66, 2) gilt ku − PUn uk2 = kuk2 −

n X i=1

| hu . ui i |2 → 0

für n → ∞ .

(v) ist eine Umformung von (iv).



Da die Orthonormalität einer Folge linear unabhängiger Vektoren u1 , . . . , un , . . . bei Beibehaltung der erzeugten n-dimensionalen Unterräume Un durch das Schmidtsche Orthonormalisierungsverfahren (siehe Theorem 1.112) hergestellt werden kann, ergibt sich folgende Existenzcharakterisierung: Satz 7.72: Existenz SONB Sei (V, h . i) ein K-Hilbert-Raum. Dann sind äquivalent: (i) V hat eine SONB.

(ii) Es gibt eine linear unabhängige Menge B′ := {wi : i ∈ N}, so dass span B′ dicht liegt in V.

Bemerkungen 7.73 1) Zu Aussage (ii) ist weiterhin äquivalent (ohne Beweis): Es gibt eine abzählbare Teilmenge von V, die dicht in V liegt. Solche normierten Räume heißen separabel . Also haben separable Hilbert-Räume eine SONB. 2) Für separable Hilbert-Räume (V, h . i) gilt demnach: Es gibt einen isometrischen Isomorphismus J : V → l2 (K), u 7→ (hu . ui i)i , wobei B = {ui : i ∈ N} eine SONB von V ist.

828

7 Lineare Algebra und Analysis

Für einen separablen Hilbert-Raum V kann also ein Problem äquivalent betrachtet werden als a) Problem in V: im Zustandsraum. b) Problem in l2 (K): im Frequenzraum . Dabei gelten folgende Bezeichnungen: (i) hu . ui i heißt i-ter Fourier-Koeffizient. P (ii) Pn u := ni=1 hu . ui i ui heißt n-te Fourier-Summe. P (iii) ∞ i=1 hu . ui i ui heißt Fourier-Reihe. △ Die Begrifflichkeiten aus der letzten Bemerkung werden klarer durch das folgende, wichtige Beispiel einer SONB, das schon in Mathematische Modellierung 4, S. 126 angeklungen ist. Man betrachte dazu V := L2 ([a, b], K) , wobei o. B. d. A. a = −π, b = π gewählt seien. V repräsentiert also „allgemeine“ periodische Funktionen der Periode b − a (2π), wie sie durch direkte Fortsetzung einer Funktion auf [a, b] zu einer Funktion auf R entstehen. Inwieweit ist es möglich, ein beliebiges f ∈ V durch Linearkombinationen aus Grund- und Oberschwingungen darzustellen (Fourier-Analyse )? Eine erste Antwort gibt folgender Satz: Satz 7.74: SONB aus sin, cos Funktionen Sei V := L2 ([−π, π], K). Dann bilden 1) für K = C: fk (x) :=

1 exp(ikx) (2π)1/2

für k ∈ Z ,

2) für K = R  1    1/2 sin(kx)   π 1 gk (x) :=   (2π)1/2    1  1/2 cos(kx) π

für k = 1, 2, . . . für k = 0 für k = −1, −2, . . .

eine SONB in V (bezüglich des L2 -inneren Produkts).

Beweis: Sei B := { fk : k ∈ Z} bzw. B := {gk : k ∈ Z}. Es ist zu zeigen: 1) B ist orthonormal und 2) B ist vollständig. Zu 1): K = C:

7.3 Hilbert-Räume

829

 Rπ Zπ 1   =1 1  2π −π 1dx  Rπ d  h fk . fl i = eikx e−ilx dx =    1 2π ei(k−l)x dx = 0 2πi(k−l) −π dx

−π

für k = l für k , l .

K = R: Entweder rechnet man die Integralbeziehungen direkt nach (mit partieller Integration) oder man nutzt, dass    21/2 Im fk (x) für k = 1, 2, . . .     gk (x) =  f0 (x) für k = 0     21/2 Re fk (x) für k = −1, −2, . . .

(Übung). P Zu 2): Sei Pn f := |k|≤n h f . fk i fk für K = C und analog für K = R. Zu zeigen ist also Pn f → f

für n → ∞ in k . k2 .

Nach der Besselschen Ungleichung (Theorem 7.66) gilt X | h f . fk i |2 ≤ k f k22 (< ∞) |k|≤n

und damit auch X k∈Z

P

| h f . fk i |2 ≤ k f k22 ,

wobei k∈Z |ak | eine absolut konvergente Reihe mit Indexbereich Z (statt N) bezeichnet. Man beachte, dass bei absolut konvergenten Reihen in R Permutationen des Indexbereichs ohne Einfluss auf Konvergenz und Grenzwert sind, so dass die obige Reihe wohldefiniert ist. Damit ist (Pn f )n eine Cauchy-Folge in L2 ([−π, π], K), denn kPm f − Pn f k2 ≤

m X

|k|=n+1

| h f . fk i |2 ≤

X

|k|>n

| h f . fk i |2 → 0

für m ≥ n, n, m → ∞ .

Also Pn f → e f für n → ∞ für ein e f ∈ L2 ([−π, π], K) ,

so dass nur noch der Nachweis von f = e f fehlt. Diesen können wir nicht vollständig führen. Eine Skizze ist: Die unendlich differenzierbaren Funktionen (mit kompaktem Träger) liegen dicht in L2 ([−π, π], K), so dass bei der obigen Überlegung f als so glatt vorausgesetzt werden kann. Für solche f konvergiert die Fourier-Reihe punktweise gegen f und Pn f hat (wegen der L2 -Konvergenz) auch eine Teilfolge, die punktweise gegen e f konvergiert, folglich ist f = e f. 

830

7 Lineare Algebra und Analysis

Was Sie in diesem Abschnitt gelernt haben sollten Begriffe • • • • • • •

Adjungierter Operator Φ† Dualer Operator Φ′ Unitärer, selbstadjungierter oder normaler Operator Besselsche Ungleichung Schauder-Basis, Schauder-Orthonormalbasis Parseval-Identität, Vollständigkeitsrelation Fourier-Analyse

Zusammenhänge • Orthogonale Projektion auf konvexe, abgeschlossene Menge existiert eindeutig im Hilbert-Raum und ist durch eine Variationsungleichung charakterisiert (Hauptsatz 7.50) • Rieszscher Darstellungssatz (Theorem 7.53) • Für Projektionen P gilt: kPk ≤ 1 für die erzeugte Norm ⇔ P orthogonal • Besselsche Ungleichung gilt für jedes Orthonormalsystem (Theorem 7.66) • Schauder-Basis ⇔ Parseval ⇔ Vollständigkeitsrelation (Theorem 7.71)

Aufgaben

831

Aufgaben Aufgabe 7.16 (T) Es sei (V, h . i) ein euklidischer oder unitärer Vektorraum. Zeigen Sie: a) Für konvergente Folgen (vn )n und (wn )n gilt   lim vn . lim wn = lim hvn . wn i . n→∞

b) Für konvergente Reihen

P∞

n→∞

n→∞

n=1 vn

gilt

*X ∞

+

vn . w =

n=1

∞ X n=1

hvn . wi .

Aufgabe 7.17 (T) Sei (V, h . i) ein K-Hilbert-Raum, k . k die erzeugte Norm. Zeigen Sie: kxk = sup | hy . xi | . kyk=1

Aufgabe 7.18 (T) Sei V ein C-Hilbert-Raum und Φ ∈ L[V, V]. Man zeige: Φ selbstadjungiert ⇔ hΦx . xi ∈ R für alle x ∈ V . Aufgabe 7.19 (K) Verifizieren Sie, dass  1  √ sin(kx)   π    √1 gk (x) :=   2π     √1 cos(kx) π

für k = 1, 2, . . . für k = 0 für k = −1, −2, . . .

mit k ∈ Z ein Orthonormalsystem in L2 ([−π, π], R) ist. Aufgabe 7.20 (T) Sei (X, k · k) ein normierter C-Vektorraum und B = {ui : i ∈ N} eine Schauder-Basis von X. Zeigen Sie, dass X separabel ist. PN Hinweis: Zeigen Sie, dass M := { n=1 αn un : N ∈ N, α1 , α2 , . . . ∈ Q + iQ} abzählbar und dicht in X ist. Aufgabe 7.21 (T) Zeigen Sie, dass B = {(ein )n : i ∈ N} mit i

(ein )n = (0, . . . , 0, 1, 0, . . .) eine Schauder-Orthonormalbasis des Hilbert-Raums (l2 (K), h . i) ist.

832

7 Lineare Algebra und Analysis

7.4 Ausblick: Lineare Modelle, nichtlineare Modelle, Linearisierung Lineare Algebra ist die Theorie linearer Strukturen: Was darunter zu verstehen ist, ist hoffentlich in den letzten 7 Kapiteln entwickelt worden. So standen lineare (und affine) Räume im Mittelpunkt sowie (affin-)lineare Abbildungen und insbesondere Funktionale. Aber auch Nichtlinearität spielte ein Rolle: Als wesentliches Untersuchungsinstrument haben sich die Eigenwerte einer Matrix herausgestellt, die nichtlinear von dieser abhängen. Mit quadratischen Funktionalen (und Polyedern) wurden auch nichtlineare Objekte direkt untersucht. Quadratische Funktionale erzeugten in Abschnitt 5.3 Quadriken und erlaubten deren Untersuchung durch ihre Darstellung mittels Matrizen. In Abschnitt 4.7.2 stellte sich die Minimierung quadratischer Funktionalen ohne Einschränkungen oder mit Gleichungsnebenbedingungen als äquivalent zum Lösen von LGS heraus. Erst bei Ungleichungsnebenbedingungen traten in Abschnitt 6.7 mit Komplementaritätsbedingungen echt nichtlineare Probleme auf. In der Polyedertheorie wurden die (für das Lösen linearer Optimierungsprobleme wichtigen) Randpunkte über LGS beschrieben. Aber auch bei allgemeinen nichtlinearen Problemen, wie dem Lösen eines Systems nichtlinearer Gleichungen, etwa f (x1 , . . . , xn ) = 0 ,

(7.43)

wobei f = ( fi )i , fi : Rn → R, i = 1, . . . , n oder der Minimierung eines nichtlinearen Funktionals Minimiere f (x) unter Bt x = d, Ct x ≥ e

(7.44)

wobei f : Rn → R und wie in (6.44) B ∈ R(n,m1 ) , C ∈ R(n,m2 ) , d ∈ Rm1 , e ∈ Rm2 können wesentliche Aussagen mittels linearen Ersatzaufgaben gemacht werden. Für quadratische Funktionale (bzw. orthogonale Projektionen) f (x) =

1 hAx . xi − hx . bi + c 2

(siehe z. B. Satz 4.144, Bemerkungen 4.145) ist dies lange bekannt. Darüber hinaus hilft als wesentliches Konzept der für die Analysis zentrale Begriff der Differenzierbarkeit, der die lokale Approximierbarkeit einer Abbildung durch eine affin-lineare Abbildung mit gewisser Güte beinhaltet. Definition 7.75 Sei f : Ω → Rm , Ω ⊂ Rn offen. f heisst in x0 ∈ Ω differenzierbar , wenn ein D f (x0 ) ∈ L[Rn , Rm ] existiert, dass f (x) = f (x0 ) + D f (x0 )(x − x0 ) + o(x − x0 ) .

7.4 Ausblick: Lineare Modelle, nichtlineare Modelle, Linearisierung

833

Der Begriff könnte so wörtlich auch für unendlich dimensionale Vektorräume gefasst werden. Die benutzte Notation o(hk ) (sprich: klein o von hk ) ist dabei in normierten Räumen (V, k kV ), (W, k kW ) für g : V → W definiert durch: g(h) = o(hk )

genau dann, wenn kg(hn )kW /khn kkV → 0 für jede Folge (hn )n in V, hn , 0, so dass hn → 0 für n → ∞ .

Die dann eindeutige (Frechet-)Ableitung D f (x0 ) lässt sich also (bei gleicher Notation) über ein D f (x0 ) ∈ R(m,n) darstellen und notwendigerweise existieren die partiellen Ableitungen ∂ xi f j und   D f (x0 ) = ∂ x j fi (x0 ) , die Jacobi-Matrix . i, j

f ∈ C 1 (Ω, Rm ) bezeichne die Funktionen, für die alle ∂ xi f auf Ω stetig existieren. (siehe Lehrbuch über mehrdimensionale Differentialrechnung, z. B. Amann und Escher 1999) Dies bedeutet für n = 1  ′   f1 (x0 )   .  D f (x0 ) =  ..   ′  fm (x0 )

gemäß dem bei Differentialgleichungen benutzten Ableitungsbegriff (siehe (4.83)) und für m = 1

mit

 D f (x0 ) = ∂ x1 f (x0 ), . . . , ∂ xn f (x0 ) D f (x0 )t =: ∇ f (x0 ) , der Gradient von f bei x0

und D f (x0 )h = h∇ f (x0 ) . hi im euklidischen SKP h . i.

Gegebenenfalls lässt sich die lokale Approximation verbessern: Sei f ∈ C 2 (Ω, Rm ) in dem Sinn, dass alle partiellen Ableitungen von f bis zur 2. Ordnung in Ω existieren und stetig sind. Dann gibt es eine bilineare Abbildung D2 f (x0 ) : Rn ×Rn → Rm , so dass f (x) = f (x0 ) + D f (x0 )h + D2 f (x0 )(h, h) + o(h2 ) .

(7.45)

Ist m = 1 kann auch D2 f (x0 ) (nach Satz 5.9) mit einer gleichbezeichneten Matrix dargestellt werden. D f 2 (x0 ) heisst dann Hesse-Matrix , hat die Darstellung D f 2 (x0 ) = (∂ xi ,x j f )i, j=1...,n und ist damit symmetrisch. Für ein nichtlineares, differenzierbares Funktional ist ±∇ f (x0 ) die (lokale) Richtung des stärksten Anstiegs (Abstiegs), so dass für ein Minimum von (7.44) das Komplementa-

834

7 Lineare Algebra und Analysis

ritätssystem ∇ f (x) + By + C z Bt x Ct x z (C t x − e)t z

= = ≥ ≤ =

0 d e 0 0

(7.46)

(siehe Hauptsatz 6.68, Bemerkungen 6.70, 1)) notwendig wird. Dies kann z. B. iterativ durch eine Folge von Gleichungssystemen angenähert werden, bzw. reduziert sich ohne Ungleichungsbedingung auf ein solches bzw. ohne Nebenbedingung auf die bekannte Stationaritätsbedingung ∇ f (x) = 0 .

(7.47)

Diese Bedingungen sind aber im Allgemeinen nur notwendig (siehe Bemerkungen 6.70, 3), 4)) und sind für quadratisches f linear (siehe Bemerkungen 4.145, 2)). Als eine Grundaufgabe ergibt sich also ein System von n nichtlinearen Gleichungen für n Unbekannte, wie in (7.43). Eine Lösung davon kann oft iterativ durch das Lösen approximativer LGS angenähert werden. Ist x(0) „nahe“ an einer Lösung x von (7.43), so konvergiert unter bestimmten Bedingungen (siehe z. B. Deuflhard 2006) das NewtonVerfahren , bei dem eine neue Näherung x(k+1) = x(k) + δ(k) dadurch bestimmt wird, dass die Gleichung bei x(k) linearisiert und die Nullstelle dieser affin-linearen Funktion bestimmt wird: f (x(k) ) + D f (x(k) ) δ(k) = 0 . Eine Implementierung eines einfachen Newton-Verfahrens findet sich in Algorithmus 5. Algorithmus 5 (Newton-Verfahren) function x = newton(f, Df, x0 , tol , maxit ) x = x0; for k = 1 : maxit [L, R, P] = gausszerlegungpivot (Df(x)); d = vorwrueckwsubs (L, R, P, f(x)); x = x - d; if norm (f(x)) < tol break end end end

Die Eingabeargumente f und Df sollten dabei der Klasse function_handle angehören, z. B.

Aufgaben

835

f = @(x)[sin(x(1))*cos(x(2)); x(1)^2+x(2)^2-3] , Df = @(x)[cos(x(1))*cos(x(2)), -sin(x(1))*sin(x(2)); 2*x(1), 2*x(2)] .

Weiter sei x0 ein Startwert nahe der vermuteten Lösung, tol eine kleine positive Schranke und maxit die Anzahl der maximal erlaubten Iterationen. Oft wird auch das Problem selbst verändert, d. h. an einer festen, „hoffentlich guten“ Näherung der Lösung xˆ linearisiert und das so entstehende lineare Problem gelöst, d. h. f ( xˆ ) + D f ( xˆ ) δ = 0 ,

x := xˆ + δ .

Aber auch qualitative Aussagen übertragen sich aus der linearisierten Situation, wenn die Bedingung noch eine „kleine Störung verträgt“. So ist das Vorliegen eines lokalen Minimums bei (7.44) ohne Nebenbedingungen im quadratischen Fall charakterisiert durch 0 = ∇ f (x)(= Ax − b) ,

D2 f (x)(= A) ist positiv definit

(7.48)

Auch für f ∈ C 2 (Ω, Rm ) ist (7.48) hinreichend für ein lokales Minimum bei x und analog Negativdefinitheit für ein lokales Maximum und Indefinitheit dafür, dass kein lokales Extremum vorliegt. Erlaubt die Bedingung im linearisierten Fall aber keine Störung, so ist sie i. Allg. nicht aussagekräftig für den nichtlinearen Fall. Dies sei illustriert an der Frage nach der asymptotischen Stabilität der Nulllösung (nach Definition 8.84) von y˙ (t) = g(y(t)) , y(t0 ) = y0

t ∈ [t0 , T ]

(7.49)

wobei g ∈ C 1 (Rn , Rn ). g(0) = 0, d. h. (7.49) ist die nichtlineare Version von (8.90). Anstatt Theorem 8.87 gilt hier für die Eigenwerte λ1 , . . . , λn von Dg(0): Ist Re(λi ) < 0 für alle i = 1, . . . , n, dann ist die Nulllösung asymptotisch stabil. Ist Re(λ j ) > 0 für ein j ∈ {1, . . . , n}, dann ist die Nulllösung nicht asymptotisch stabil. Ist Re(λi ) ≤ 0 für alle i = 1, . . . , n, Re(λ j ) = 0 für ein j ∈ {1, . . . , n}, kann keine allgemeine Aussage zur asymptotischen Stabilität gemacht werden.

Aufgaben Aufgabe 7.22 Sei Ω ⊂ R2 offen, f ∈ C 2 (Ω, R), sei ∇ f (x0 ) = 0, δ := ∂ x1 ,x1 f (x0 ) ∂ x2 ,x2 f (x0 ) − ∂ x1 ,x2 f (x0 ) Zeigen Sie:

2

und

a) Ist δ > 0, a > 0, so liegt in x0 ein lokales Minimum vor. b) Ist δ > 0, a < 0, so liegt in x0 ein lokales Maximum vor. c) Ist δ < 0, so liegt in x0 kein lokales Extremum vor.

a := ∂ x1 ,x1 f (x0 ) .

Kapitel 8

Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

8.1.1 Lineare Gleichungssysteme Man betrachte folgendes kleine LGS 1 1 1 1 − 10−16

!

! ! x1 20 = . x2 20 − 10−15

Die eindeutige Lösung wird von der Mathematik-Software MATLAB Version 7.11 (MATLAB-Befehl A\b) als ! ! e x1 20 = e x2 0

angegeben. Tatsächlich ist sie aber

! ! x1 10 = . 10 x2

MATLAB erkennt zumindest, dass ein Problem vorliegt: „Matrix is close to singular or badly scaled. Results may be inaccurate.“ Bisher sind wir immer davon ausgegangen, dass Rechenoperationen im zugrunde gelegten Zahlkörper R exakt durchgeführt werden. Tatsächlich geht aber jedes Rechnen, egal ob mit der Hand oder auf einem Computer mit Runden einher, da es nur möglich ist, endlich viele Stellen einer Zahl zu berücksichtigen. Diese Rundungsfehler können im Sinne einer a posteriori Fehleranalyse auch als Fehler in den Eingangsdaten der rechten Seite und der Matrix interpretiert werden, die dann mit einer exakten reellen Arithmetik verarbeitet werden. Hinzu kommt, dass für (fast) jedes „reale“ Problem b oder A nur gestört vorliegen. Die Störungen von b sind als „Datenfehler“, die von A als „Modellfehler“ interpretierbar.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9_8

837

838

8 Einige Anwendungen der Linearen Algebra

Sei k . k eine feste Norm auf Kn und k . k eine dazu verträgliche Norm auf K(n,n) , die submultiplikativ ist. Sei also A ∈ K(n,n) invertierbar und b ∈ Kn . Man betrachte das LGS Ax = b. Auch wenn man von exakten Daten A, b ausgeht, wird wegen rundungsbehafteter Rechnung jedes numerische Verfahren nur eine approximative Lösung liefern in dem Sinn, dass das Residuum r := Ax − b nicht verschwindet, sondern nur klein ist. Auch hier liegt somit die exakte Lösung eines LGS mit gestörter rechter Seite b + r vor. Die Auswirkungen von Störungen δb und δA auf die Lösung x zu untersuchen, bedeutet die Stetigkeit der Abbildung F : GL(n, K) × Kn → Kn ,

(A, b) 7→ A−1 b

zu untersuchen (und zu quantifizieren). Man beachte, dass für festes A (keine Modellfehler) F linear ist, sonst aber nichtlinear (vergleiche Bemerkungen 7.40, 1)). Es seien δA ∈ K(n,n) , δb, δx ∈ Kn die absoluten Fehlergrößen, d. h. (A + δA)(x + δx) = b + δb

bzw. (A + δA)δx = δb − (δA)x .

Ist A + δA invertierbar, dann gilt kδxk ≤ k(A + δA)−1 k kδb − (δA)xk ≤ k(A + δA)−1 k(kδbk + k(δA)xk) ≤ k(A + δA)−1 k(kδbk + kδAk kxk) . Falls etwa für eine submultiplikative Matrixnorm kA−1 k kδAk < 1 gilt, so folgt aus Theorem 7.39, 4): kδxk ≤ kA−1 k(1 − kA−1 k kδAk)−1 (kδbk + kδAk kxk) .

(8.1)

Diese Abschätzung zeigt demnach, dass der Verstärkungsfaktor für absolute Fehler nahe bei kA−1 k liegt. Für eine entsprechende Aussage für relative Fehler setzt man: Definition 8.1 Sei k . k eine Norm auf K(n,n) , sei A ∈ K(n,n) invertierbar. Dann heißt κ(A) := kAk kA−1 k die Konditionszahl von A (bezüglich k . k).

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

839

Damit können wir folgenden Satz formulieren: Theorem 8.2: Relative Fehlerverstärkung Sei A ∈ K(n,n) invertierbar, k . k sei eine submultiplikative Norm auf K(n,n) , verträglich mit einer Norm k . k auf Kn , und die Matrixstörung erfülle: kA−1 k kδAk < 1. Es sei b , 0, d. h. x , 0. Dann gilt für den relativen Fehler für verträgliche Normen kδAk kδxk ≤ κ(A) 1 − κ(A) kxk kAk

!−1

! kδbk kδAk . + kbk kAk

Beweis: Die Abschätzung folgt aus (8.1) unter Verwendung von (kAk kxk)−1 ≤ kAxk−1 = kbk−1 .



Bemerkungen 8.3 1) Für alle invertierbaren A und alle α ∈ K mit α , 0 gilt κ(αA) = κ(A) . Ist die Matrixnorm erzeugt, gilt zusätzlich: κ(A) ≥ 1 für alle invertierbaren A . 2) Im Allgemeinen ist die Konditionszahl schwer zu berechnen, da A−1 „unbekannt“ ist. Für die euklidische Norm k . k2 und die diesbezügliche Konditionszahl κ2 folgt sofort aus Theorem 7.30, 3) κ2 (A) =

σ1 , σr

wobei σ1 den größten und σr den kleinsten positiven Singulärwert in einer normierten SVD von A bezeichnet. Ist A normal, gilt insbesondere κ2 (A) =

|λmax | , |λmin |

wobei λmax und λmin den betragsgrößten bzw. -kleinsten Eigenwert von A bezeichnen. 3) Zur Interpretation von Theorem 8.2: Da die relativen Eingangsfehler mindestens so groß wie die Maschinengenauigkeit τ sind, ist es – falls die normweise Sichtweise angemessen ist – hoffnungslos, ein Gleichungssystem mit κ(A) > 1/τ lösen zu wollen. Beim Eingangsbeispiel ist

840

8 Einige Anwendungen der Linearen Algebra

κ(A) = 1017 , die Maschinengenauigkeit τ ist aber bei einfach genauer Arithmetik (in MATLAB single) τ = 10−6 , bei doppelt genauer Arithmetik (in MATLAB double) τ = 10−14 . Unabhängig vom Verfahren ist es folglich bei diesem Beispiel in üblicher Rechnerarchitektur unmöglich, eine signifikante Stelle zu errechnen, wie sich am Fehler kδxk ∼1 ke xk auch zeigt. Man beachte, dass das Residuum zu e x ! 0 r= , 10−15 d. h. denkbar klein ist.



Durch Transformation von Ax = b kann versucht werden, die Kondition von A zu senken. Vorkonditionierung eines Gleichungssystems bedeutet bei großer Konditionszahl κ(A): Gesucht ist ein nichtsinguläres B ∈ K(n,n) , so dass 1) κ(BA) < κ(A), 2) BA und Bb sind „leicht“ zu berechnen und die Lösung von BAx = Bb ist nicht aufwändiger als die Lösung von Ax = b. Optimal für 1) ist B = A−1 , aber nicht für 2)! Der einfachste Ansatz für B ist eine Diagonalmatrix D = diag(di ) mit di , 0 für alle i, d. h. Multiplikation der i-ten Zeile des Gleichungssystems mit di , 0. Hier gilt, gleiche Zeilennormen (Zeilenäquilibrierung ) sind optimal: Satz 8.4: Zeilenäquilibrierung optimal A ∈ K(n,n) sei invertierbar und erfülle n X j=1

|ai, j | = 1

für alle 1 ≤ i ≤ n .

Dann gilt für jede Diagonalmatrix D = diag(di ), di , 0 für alle i: κ(DA) ≥ κ(A) , wobei κ bezüglich der von k . k∞ erzeugten Norm auf K(n,n) gebildet werde.

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

841

Beweis: Nach Theorem 7.30, 1) ist die von k . k∞ erzeugte Norm die Zeilensummennorm. Es ist also: kDAk = max |di | i=1,...,n

n X

|ai, j | = max |di | kAk |{z} i=1,...,n =1 | {z } j=1

=1

und bei A−1 = (e ai, j )i j

k(DA)−1 k = kA−1 D−1 k = max

i=1,...,n

n X j=1

|e ai, j |/|d j|

  n X    ≥  max |e ai, j| / max |di | = kA−1 k/ max |di | . i=1,...,n i=1,...,n i=1,...,n j=1

Zusammen folgt

κ(DA) = kDAk k(DA)−1 k ≥ κ(A) .



In Theorem 7.39 haben wir gesehen, dass die Menge der invertierbaren Matrizen, d. h. GL(n, K), in K(n,n) offen ist. Der Radius der in GL(n, K) um A ∈ GL(n, K) enthaltenen Kugel ist nach Theorem 7.39, 4) mindestens r :=

1 . kA−1 k

Wir zeigen, dass dies (für die Spektralnorm) auch der maximal mögliche Radius ist bzw. als relative Abweichung ausgedrückt: Satz 8.5: Abstand zur nächsten singulären Matrix Sei A ∈ K(n,n) invertierbar. k . k = k . k2 sei die Spektralnorm. Dann gilt: Ist für δA ∈ K(n,n) die relative Störung kδAk2 /kAk2 < 1/κ(A), dann ist A + δA invertierbar und es 1 ist gibt eine Störung δA mit kδAk/kAk2 = 1/κ(A), so dass A + δA singulär ist. κ(A) damit der relative Abstand zum nähesten singulären (d. h. nicht eindeutig lösbaren) LGS.

Beweis: Schon aus Theorem 7.39, 4) ist bekannt, dass aus kδAk2 <

1 kA−1 k 2

folgt:

A + δA ist invertierbar ,

(8.2)

und damit der erste Teil der Aussage. Für den zweiten Teil muss ein δA ∈ K(n,n) mit kδAk2 = 1/kA−1 k2 angegeben werden, so dass A+δA nicht invertierbar ist. Es gibt ein x ∈ Kn mit kxk2 = 1 und kA−1 k2 = kA−1 xk2 =:

842

8 Einige Anwendungen der Linearen Algebra

α > 0. Man setze y := α1 A−1 x, d. h. kyk2 = 1

und

1 δA := − x ⊗ y , α

dann ist nach Bemerkungen 7.31, 7) kδAk2 =

1 kxk2 kyk2 = −1 . α kA k2

Außerdem ist A + δA nicht invertierbar, da y ∈ Kern(A + δA), denn: (A + δA)y = Ay −

1 1 1 x ⊗ yy = x − x = 0 . α α α



Bemerkungen 8.6 1) Die minimale Störung zum Verlust der Invertierbarkeit kann sogar durch eine Matrix vom Rang 1 erzielt werden. 2) Manchmal ist die normweise Konditionsanalyse irreführend, da sie nur den „worst case“ berücksichtigt. Betrachte zum Beispiel ! 10 A := für 0 < ε < 1, so dass 0ε κ2 (A) = kAk2 · kA−1 k2 = 1 · ε−1 = ε−1 .

Dennoch ist ein LGS Ax = b bzw.

Axδ = bδ

stabil, d. h. ohne relative komponentenweise Fehlerverstärkung zu lösen, da xi + xδi bi + bδi = , xi bi

i = 1, 2 .

Eine komponentenweise Konditionsanalyse wird im mathematischen Teilgebiet der Nu△ merischen Mathematik behandelt. Ist die Konditionszahl einer Matrix zu groß in Relation zu den Datenfehlern (insbesondere den unvermeidlichen, die beim numerischen Rechnen auftreten), ist es sinnlos, das gestörte LGS Axδ = b + δb lösen zu wollen, auch wenn A invertierbar ist. Man wird i. Allg. keine sinnvolle Näherung an die Lösung von Ax = b

(8.3)

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

843

erhalten (mit b , 0). Eine Strategie für solche schlecht konditionierten Probleme besteht darin, das Problem „wenig“ zu verändern durch Übergang zu einer invertierbaren Matrix Aε , die besser als A konditioniert ist und dann als LGS (8.4)

Aε xε = b + δb zu lösen. Dabei misst ε > 0 die Abweichung von A, d. h. kA − Aε k → 0 für ε → 0 .

Anwendung von Theorem 8.2 (mit (8.4) als „Originalproblem“ und (8.3) als gestörtem Problem) liefert kx − xε k kA − Aε k ≤ κ(Aε ) 1 − κ(Aε ) kxε k kAε k

!−1

! kδbk kA − Aε k . + kb + δbk kAε k

(8.5)

Da zusätzlich zu (8.5) zu erwarten ist, dass κ(Aε ) → κ(A)

für ε → 0 ,

wobei κ(A) „groß“ ist, ist in (8.5) weder ein zu großes ε (dann kA − Aε k groß) noch ein zu kleines ε (dann κ(Aε ) groß) wünschenswert, es wird also ein die Fehlerschranke in (8.5) minimierendes, „optimales“ ε > 0 geben. Die schlechte Kondition einer Matrix (bezüglich k . k2 ) ist nach Bemerkungen 8.3 durch sehr kleine positive Singulärwerte in einer normierten SVD verursacht. Es bietet sich folglich an, gemäß einer Schranke ε > 0 die Singulärwerte 0 < σ < ε wegzulassen, d. h. die SVD abzuschneiden. Es gilt allgemein: Satz 8.7: Abgeschnittene SVD Sei A ∈ K(m,n) , mit m ≥ n und Rang(A) = r. Sei A = U Σ V † eine normierte SVD mit den positiven Singulärwerten σ1 ≥ . . . ≥ σr > 0. Dann ist A=

r X i=1

σi ui ⊗ ui ,

(8.6)

d. h. eine Summe von Rang-1-Matrizen und die Matrix von Rang k < r mit kleinstem Abstand bezüglich k . k2 zu A ist Ak :=

k X i=1

σi ui ⊗ ui ,

wobei

kA − Ak k2 = σk+1 .

844

8 Einige Anwendungen der Linearen Algebra

Es gilt Ak = UΣk V † ,

mit Σk = diag(σ1 , . . . , σk , 0, . . . , 0) .

Beweis: Die Darstellung (8.6) wurde schon in (4.101) gezeigt. Es gilt nach Definition und Theorem 7.30, 3): r



X σi ui ⊗ ui

= kU diag(0, . . . , 0, σk+1 , . . . , σr )V † k = σk+1 kA − Ak k2 =

i=k+1

und Rang(Ak ) = k (da die positiven Singulärwerte σ1 , . . . , σk sind). Es muss daher nur noch gezeigt werden, dass für jedes B ∈ K(m,n) mit Rang(B) = k gilt: kA − Bk2 ≥ σk+1 . Sei also B eine solche Matrix, für die gilt: Kern B ⊂ Kn

und

dim Kern B = n − k .

Sei V (k+1) := span(u1 , . . . , uk+1 ) ⊂ Kn , d. h. dim V (k+1) = k + 1. Daher gilt: Kern B ∩ V (k+1) , ∅ . Sei x aus diesem Schnitt und kxk2 = 1, dann kA − Bk22 ≥ k(A − B)xk22 = kAxk22 = kU Σ V † xk22 = kΣ V † xk22 . Man bezeichne mit (u1 , . . . , uk+1 ) die Matrix aus K(n,k+1) , deren Spalten aus den gewählten P Basisvektoren von V (k+1) bestehen. Da insbesondere x ∈ V (k+1) , gilt x = k+1 i=1 αi ui = (u1 , . . . , uk+1 )α mit einem Vektor α, der kαk2 = 1 erfüllt (siehe (1.89)). Somit ist V † x = diag(1, . . . , 1, 0, . . . , 0)α, wobei die Diagonalmatrix in K(n,k+1) liegt und k + 1 Einsen auf der Diagonalen hat. Dann folgt kA − Bk22 ≥ kΣ V † xk22 = k(σ1 α1 , . . . , σk+1 αk+1 , 0 . . . , 0)t k22 ≥ σ2k+1 kαk22 = σ2k+1 .



Sei nunmehr für (8.4) Aε := Ak , wobei k so gewählt wird, dass σk ≥ ε, σk+1 < ε, also kA − Aε k2 = σk+1 < ε , σ1 σ1 κ2 (Aε ) = ≤ , σk ε kAε k2 = σ1 . Bei Anwendung von (8.5) gilt zwar

(8.7)

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

845

κ2 (Aε )kA − Aε k2 /kAε k2 = σk+1 /σk < 1 , aber nicht die Konvergenz gegen 0 für ε → 0. Bemerkungen 8.8

1) Die Modifikation eines schlecht gestellten LGS wie in (8.7) nennt man Regularisierung . 2) Die abgeschnittene SVD kann nicht nur zur Regularisierung, sondern auch zur Datenkompression genutzt werden, da analog zur reduzierten Form (4.100) der SVD bei k beibehaltenen Singulärwerten Ak|(Kern Ak )⊥ nur mittels jeweils k Spalten von U und V dargestellt werden kann (siehe Abbildung 8.1). △

k = 10

k = 30

k = 50

k = 2112 (exakt)

Abb. 8.1: Bilddatenkompression durch abgeschnittene SVD. Es kann auch die Situation auftreten, dass zwar das Problem gut konditioniert ist, das verwendete Verfahren aber schlecht konditioniert. Man betrachte das LGS ! ! ! 0, 5 0, 005 1 x1 = . 1 1 1 x2

846

8 Einige Anwendungen der Linearen Algebra

Die Konditionszahl der Matrix ist κ2 (A) ≈ 2, 6 , d. h. das LGS sollte gut konditioniert auf Rundungsfehler reagieren. Die auf drei Stellen gerundete exakte Lösung lautet ! ! x 0, 503 . Rd3 1 = x2 0, 497 Das Gauss-Verfahren ohne Pivotsuche (d. h. mit Pivotelement a1,1 = 0, 005) liefert bei zweistelliger (Gleitpunkt-)Rechnung ! ! e x1 0, 5 = , e x2 0

daher

kδxk2 ≈ 0, 70 . kxk2 Das Gauss-Verfahren mit Spaltenpivotsuche (Pivotelement a2,1 = 1) liefert ! ! e x1 0, 5 = , 0, 5 e x2

was der zweistelligen Rundung der exakten Lösung entspricht. Weitere Informationen zu diesem Thema findet man z. B. in Golub und Van Loan 1996, Deuflhard und Hohmann 1991 oder Higham 1996.

8.1.2 Ausgleichsprobleme Wir wenden uns den Ausgleichsproblemen (mit vollem Spaltenrang) zu, wie sie bei überbestimmten LGS entstehen. Ohne Beweis halten wir fest: Für Ausgleichsprobleme kAx − bk2 → min für A ∈ K(m,n) ist der Verstärkungsfaktor für den relativen Fehler statt Theorem 8.2 (Demmel 1997, S. 117): κLS :=

2 κ2 (A) + tan Θ (κ2 (A))2 . cos Θ

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

847

Dabei ist die Definition der Kondition (bezüglich k . k2 ) für nichtquadratische (oder nicht invertierbare) Matrizen erweitert durch κ2 (A) := σ1 /σr , wenn σ1 ≥ . . . σr > 0 die positiven Singulärwerte in einer normierten SVD sind. Es ist Θ ∈ [0, π/2] definiert durch sin Θ := kAx − bk2 /kbk2 für die Lösung x des ungestörten Ausgleichsproblems (für das also kAx − bk2 ≤ kbk2 gilt). Es gibt folgende Fälle: • Θ klein, d. h. kAx − bk2 klein: κLS ∼ κ2 (A) analog zum gestörten LGS. • 0 ≪ Θ ≪ π/2, d. h. 0 ≪ kAx − bk2 ≪ kbk2 und dann für große κ2 (A): ϕκLS ∼ (κ2 (A))2 . Im Vergleich zum LGS quadriert sich die Konditionszahl. • Θ = π2 , d. h. kAx − bk2 = kbk2 , somit x = 0. Dann ist wegen tan Θ = ∞ κLS unbeschränkt. Löst man das Ausgleichsproblem über die Normalgleichungen A† Ax = A† b , dann liegt immer der Verstärkungsfaktor κ2 (A† A) = σ21 /σ2r = (κ2 (A))2 vor. Daher sollte man Verfahren bevorzugen, die wie die QR-Zerlegung (siehe Abschnitt 4.8) direkt das Ausgleichsproblem angehen. Jedes LGS kann auch als Ausgleichsproblem geschrieben werden, was aber die Kondition wie gesehen nicht verbessert, durch die Formulierung über die Normalgleichungen hingegen verschlechtert. Schlecht gestellte (unendlichdimensionale) und auch schlecht konditionierte (endlichdimensionale) Probleme können auch dadurch regularisiert werden, dass eine a priori Normschranke an die Lösung vorgegeben wird, d. h. das Ausgleichsproblem wird modifiziert zu: Ausgleichsproblem unter Normschranken : Seien A ∈ K(m,n) , b ∈ Kn , c > 0 gegeben.

848

8 Einige Anwendungen der Linearen Algebra

Minimiere f (x) := kAx − bk22 unter der Nebenbedingung kxk2 ≤ c . Dabei können hier und im Folgenden auch analog zu Bemerkungen 4.145, 7) k . k2 durch Energienormen k . kC und k . kE ausgetauscht werden. In Analogie zum LagrangeMultiplikator in (4.125) kann man sich die Nebenbedingung auch „angekoppelt“ denken, um zu große kxk2 zu bestrafen und kommt als weitere Regularisierungsmethode zum Ausgleichsproblem mit Tikhonov1 -Regularisierung : Seien A ∈ K(m,n) , b ∈ Km , α > 0. Minimiere f (x) := kAx − bk22 + αkxk22 auf Kn .

(8.8)

Es besteht ein enger Zusammenhang zum Abschneiden kleiner Singulärwerte: Die Minimierungsaufgabe (8.8) ist das Ausgleichsproblem zu folgendem überbestimmten LGS: bα ∈ K(m+n,n) , b Seien A b ∈ Km+n definiert durch bα := A

A

α1/2 1n

!

! b b , d. h. man betrachte , b := 0 bα x = b A b.

bα vollen Spaltenrang, so dass (8.8) eindeutig lösbar ist und die Für beliebiges A hat A Lösung x durch die Pseudoinverse gegeben wird: ! + b b . x = Aα 0 Sei

A = UΣV † eine normierte SVD mit positiven Singulärwerten σ1 ≥ . . . ≥ σr > 0, r = Rang(A), dann gilt x=

r X i=1

X 1 1 ui ⊗ ui b = q(α, σi ) hb . ui i ui , σi σi i=1 r

q(α, σi )

wobei q(α, σ) :=

σ2 , σ2 + α

da dieser Vektor die zugehörigen Normalgleichungen 1

Andrey Nikolayevich Tikhonov ∗30. Oktober 1906 in Gschatsk †8. November 1993 in Moskau

(8.9)

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

849

(A† A + α1)z = A† b löst:

(A† A + α1)x =

r X i=1

=

r X i=1

Also:

X σi 1 hb . ui i (A† A + α1)ui = hb . ui i (σ2i + α)ui σi σ2i + α i=1 r

q(α, σi )

σi hb . ui i ui = VΣ † U † b = A† b .

Theorem 8.9: Tikhonov-Regularisierung Seien A ∈ K(m,n) , b ∈ Km , α > 0. Dann existiert die Lösung des Tikhonovregularisierten Ausgleichsproblems, x = xα , eindeutig und wird durch die gedämpfte Pseudoinverse + xα = A+(α) b := VΣ(α) U† b

gegeben, wobei Σ(α) ∈ K(m,n) die Diagonalmatrix mit den Diagonaleinträgen σi α = σi + , q(α, σi ) σi

i = 1, . . . , r

ist. Wegen 0 ≤ q(α, σ) ≤ 1 sowie q(α, σ) → 0 q(α, σ) → 1

für σ → 0 und α > 0 , für σ → ∞ und α > 0 ,

werden in A+(α) im Vergleich zu A+ die durch kleine Singluärwerte erzeugten Verstärkungsfaktoren verkleinert, es werden aber alle inversen Singulärwerte verändert. Im Gegensatz dazu werden bei der abgeschnittenen SVD für alle σ < ε die Einträge 1/σ in A+ durch 0 ersetzt und für σ ≥ ε die Einträge 1/σ nicht verändert. Dies entspricht (8.9), aber mit ε statt α und    1 für σ ≥ ε q(ε, σ) =   0 für σ < ε .

Andererseits ist für die Durchführung der Tikhonov-Regularisierung die Kenntnis einer SVD nicht nötig. Zusätzliche Informationen finden sich z. B. in Demmel 1997.

850

8 Einige Anwendungen der Linearen Algebra

8.1.3 Eigenwerte Auch wenn man von einer exakten Matrix A ausgeht, wird wegen rundungsfehlerbehafteter Rechnung jedes Verfahren nur approximative Eigenwerte und -vektoren λ, u liefern, in dem Sinn, dass das Residuum r := Au − λu nicht verschwindet, sondern nur krk klein ist. Auch dieser Fall kann als eine exakte Eigenwertberechnung zu einer gestörten Matrix interpretiert werden. Satz 8.10: Defekt = Datenstörung Sei A ∈ K(n,n) , u, r ∈ Kn , kuk2 = 1, λ ∈ C, so dass Au = λu + r . Dann gibt es eine Rang-1-Matrix δA ∈ K(n,n) , so dass

1) kδAk2 = krk2 und 2) (A + δA)u = λu.

Beweis: Sei δA := −r ⊗ u , dann gilt 1) nach (7.16) und (A + δA)u = λu + r − kuk22 r = λu .



Im Fall eines gut konditionierten Eigenwertproblems (aber nur hier) kann man also von einem kleinen Residuum auf einen kleinen Eigenwert(vektor)fehler schließen. Da, wie schon mehrfach erwähnt, in realen Problemen die definierenden Matrizen i. Allg. immer fehlerbehaftet vorliegen, stellt sich auch bei der Eigenwert- bzw. Eigenvektorberechnung die Frage nach deren Stabilität . Wird eine Matrix nur um kleine Einträge gestört, bedeutet dies auch eine geringe Störung der Eigenwerte bzw. Eigenvektoren? Wir werden hier nur in die erste Fragestellung einführen, die zweite ist technisch zu komplex. Prinzipiell ist die Antwort positiv, denn es gilt: Satz 8.11: Stetige Abhängigkeit der Eigenwerte Sei A = (ai, j ) ∈ K(n,n) . Dann hängen die Eigenwerte von A in C stetig von den ai, j ∈ K ab.

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

851

Beweisskizze: Da der Beweis zur Analysis bzw. zur Funktionentheorie gehört, soll er hier nur kurz skizziert werden. Die Eigenwerte sind nach Satz 4.23 die Nullstellen des charakteristischen Polynoms. Schreibt man dieses in der Standardform der Monombasis, so sind aufgrund der Leibnizschen Formel (siehe Definition 2.105) die Koeffizienten Polynome der Einträge von A. Daher hängen diese Koeffizienten stetig von den Einträgen von A ab. Um zu zeigen, dass die Nullstellen eines Polynoms stetig von den Koeffizienten abhängen, bedarf es Methoden der Funktionentheorie.  Abbildung 8.2 lässt erwarten, dass sich (insbesondere bei reellen Eigenwerten) Unterschiede zwischen einfachen und mehrfachen Eigenwerten ergeben. Genauer kann je nach Nichtdiagonalisierbarkeit oder nach Diagonalisierbarkeit bzw. einfachen und mehrfachen Eigenwerten ein sehr unterschiedliches Stetigkeitsverhalten vorliegen. Den ersteren Fall betrachtet:

mehrfache Nullstelle einfache Nullstelle

Abb. 8.2: Störung einer Funktion: Einfluss auf Nullstelle.

Satz 8.12: Beliebig schlechte stetige Abhängigkeit Sei A ∈ K(n,n) , λ ∈ K Eigenwert von A. Im nichtdiagonalisierbaren Fall ist λ i. Allg. nicht Lipschitz-stetig abhängig von den Einträgen von A und die stetige Abhängigkeit kann für große n ∈ N beliebig schlecht sein.

Beweis: Dazu betrachte man den Jordan-Block zu µ ∈ C

und als Störung

  µ   A =    0

1 .. .

..

.

..

.

 0     (n,n)  ∈ K   1   µ

852

8 Einige Anwendungen der Linearen Algebra

δA = (−1)n εen ⊗ e1 , d. h. ein ±ε-Eintrag in der Position (n, 1). Entwicklung nach der ersten Spalte (nach Satz 2.116) zeigt für Aε := A + δA χAε (λ) = det(Aε − λ1n ) = (µ − λ)n − ε und damit hat Aε die Eigenwerte λε, j = µ − ω j ε1/n , j = 1, . . . , n , wobei ω := e2πi/n , d. h. die ω j die komplexen n-ten Einheitswurzeln darstellen (siehe Satz B.32). Folglich gilt |µ − λε, j | = ε1/n . Diese Abhängigkeit ist nicht Lipschitz-stetig in ε und für große n beliebig schlecht (in dem Sinn: Hölder-stetig mit Hölder-Konstante α = 1/n → 0 für n → ∞).  Besser ist die Situation im diagonalisierbaren Fall:

Satz 8.13: Lipschitz-stetige Abhängigkeit bei diagonalisierbaren Matrizen Sei A ∈ K(n,n) in C diagonalisierbar, d. h. A = BDB−1, wobei D = diag(λi ) eine Diagonalmatrix ist. Sei µ ∈ C ein Eigenwert der gestörten Matrix A + δA, so dass µ , λi für alle i = 1, . . . , n. Dann hat A einen Eigenwert λk , so dass |µ − λk | ≤ κ p (B)kδAk p , wobei k . k p die gemäß Theorem 7.23 erzeugte Matrixnorm zur Norm k . k p aus (7.1), 1 ≤ p ≤ ∞, bezeichnet.

Beweis: Sei u Eigenvektor zu µ von A + δA, d. h. (A + δA)u = µu und w := B−1 u , dann gilt

und

c := B−1 δAB , δA

c = µw (D + δA)w c ≤ kB−1 k kδAk kBk = κ(B)kδAk kδAk

(8.10)

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen

853

(für eine beliebige submultiplikative Norm). (8.10) lässt sich umformen zu c w = (µ1n − D)−1 δAw

und damit

c kwk ≤ k(µ1n − D)−1 k kδAk c kwk kwk ≤ k(µ1n − D)−1 δAk

(für verträgliche und submultiplikative Normen), wegen w , 0 also c ≥1. k(µ1n − D)−1 k kδAk

Ist speziell k . k = k . k p , so gilt nach Bemerkungen 7.31, 6) k(µ1n − D)−1 k p = 1/ min{|µ − λi | : i = 1, . . . , n} und damit für ein k ∈ {1, . . . , n}: c |µ − λk | = k(µ1n − D)−1 k−1 p ≤ kδAk p ≤ κ(B)kδAk p .



Bemerkung 8.14 Über Satz 8.13 hinaus kann gezeigt werden, dass jeder Eigenwert von A der algebraischen Vielfachheit k in der Nähe genau einen Eigenwert von A + δA der gleichen Vielfachheit hat, falls kδAk p klein genug ist. Dies kann mit dem Satz von △ Gerschgorin2 (siehe Aufgabe 8.6) gezeigt werden. Für normale Matrizen folgt sofort, dass deren Eigenwerte immer stabil sind: Satz 8.15: Stabilität der Eigenwerte bei normalen Matrizen Sei A ∈ K(n,n) normal mit Eigenwerten λ1 , . . . , λn ∈ C. Sei µ ∈ C Eigenwert der gestörten Matrix A + δA, so dass µ , λi für alle i = 1, . . . , n gilt. Dann hat A einen Eigenwert λk , so dass |µ − λk | ≤ kδAk2 .

Beweis: Die Eigenwertbasis, deren Spalten B bilden, kann orthonormal gewählt werden, damit kBk2 = kB−1 k2 = 1 ,

d. h.

κ2 (B) = 1 .



Hängt in Satz 8.13 die Konditionszahl vom Verhalten der gesamten Eigenvektor-Basis ab, lässt sich dies bei einfachen Eigenwerten lokalisieren:

2

Semjon Aronowitsch Gerschgorin ∗24. August 1901 in Pruschany †30. Mai 1933

854

8 Einige Anwendungen der Linearen Algebra

Satz 8.16: Stabilität eines einfachen Eigenwerts Sei A ∈ K(n,n) in C diagonalisierbar und λ ∈ C ein einfacher Eigenwert von A. Sei u ∈ Kn ein Eigenvektor von A zu λ und w ∈ Kn ein Eigenvektor von At zu λ, d. h. wt A = λwt . Sei ε > 0 und δA eine Störung von A, so dass kδAk2 /kAk2 = ε. Dann gibt es ein ε0 > 0, so dass für 0 < ε ≤ ε0 gilt: A + δA hat einen Eigenwert λ + δλ, so dass die Abschätzung |δλ| ≤ kwk2 kuk2 ε + O(ε2 ) kAk2 gilt.

Beweisskizze: Wenn kδAk klein genug ist, hat A + δA auch einen einfachen Eigenwert λ + δλ zum Eigenvektor u + δu (siehe Bemerkung 8.14). Es kann gezeigt werden, dass dann auch kδuk2 ≤ Cε für eine Konstante C > 0. Demnach mit Satz 8.13 Au = λu (A + δA)(u + δu) = (λ + δλ)(u + δu) und weiter δAu + Aδu = δλu + λδu + O(ε2 ) .

(8.11)

Eventuell globale Abhängigkeiten sind somit nur im quadratischen Term enthalten. Nach den Überlegungen ab Bemerkungen 4.35 können u und ein linker Eigenvektor w so gewählt werden, dass wt u = 1 . Aus (8.11) folgt: wt δAu + wt Aδu = δλ + λwt δu + O(ε2 ) und mit wt A = λwt heben sich die jeweils zweiten Terme weg und so δλ =wt δAu + O(ε2 ) , d. h.

|δλ|≤kwk2 kuk2 kδAk2 + O(ε2 )

und damit die Behauptung. Weitere Ergebnisse werden z. B. in Watkins 2007 oder Saad 2011 dargestellt.

Aufgaben Aufgabe 8.1 (K) Bestimmen Sie für 0 < ε < 1 die Konditionszahl der Matrix



Aufgaben

855

! 10 A= 0ε bezüglich k . k∞ und k . k2 . Aufgabe 8.2 (T) Betrachtet wird das LGS Ax = b mit A ∈ GL(n, K), b ∈ Kn . Sei k . k eine erzeugte Norm auf Kn und κ(A) die Konditionszahl von A bezüglich k . k. Zu x ∈ Kn betrachte man das Residuum r(x) = Ax − b. Man zeige die folgenden a posteriori Abschätzungen für den absoluten und relativen Fehler: kr(x)k ≤ kx − A−1 bk ≤ kA−1 k kr(x)k , kAk kr(x)k 1 kr(x)k kx − A−1 bk ≤ ≤ κ(A) . κ(A) kbk kA−1 bk kbk Aufgabe 8.3 (K) Man betrachte das LGS Ax = b mit ! ! 40 40 80 A= und b = . 39 40 79 Geben Sie Schranken für die relativen Fehler S A :=

kδAk∞ , kAk∞

Sb =

kδbk∞ |bk∞

an, damit für die Lösung x˜ = x + δx des gestörten Problems (A + δA) x˜ = δb + b der relative Fehler kδxk∞ /kxk∞ kleiner gleich 10−2 ausfällt. Aufgabe 8.4 (T) Sei A ∈ K(n,n) , A = A† , A > 0. Dann wissen wir laut Satz 4.142, dass A eine Cholesky-Zerlegung A = LL† besitzt. Zeigen Sie: p κ2 (L) = κ2 (L† ) = κ2 (A) ≤ κ2 (A).

Aufgabe 8.5 (T) Für α > 0 sei xα die Lösung des Tikhonov-regularisierten Problems (8.8). Zeigen Sie α→0

kAxα − bk2 −→ 0 ⇔ b ∈ Bild(A) . Aufgabe 8.6 (T) Satz von Gerschgorin: Sei A ∈ K(n,n) , λ ∈ C ein Eigenwert von A, dann gibt es ein j ∈ {1, . . . , n}, so dass n X a =: r . λ − a j, j ≤ j,i j i=1,i, j

Die Eigenwerte liegen daher in der Vereinigung der Gerschgorin-Kreise Br j (a j, j ) (⊂ C).

856

8 Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

8.2.1 Das Page-Rank-Verfahren von Google Die Beliebtheit der Internet-Suchmaschine Google liegt unter anderem darin begründet, dass Google anscheinend in der Lage ist, auch bei wenigen Suchbegriffen, d. h. bei einer großen Anzahl von Internetseiten, die diese Suchbegriffe enthalten, die „relevanten“ Seiten an den ersten Positionen zu platzieren. Dem liegt ein Bewertungsmodell für Internetseiten zugrunde, das in seiner ersten Form auf ein Eigenwertproblem bzw. in seiner endgültigen Form auf ein lineares Gleichungssystem führt, und das im Jahr 1998 von den Mitbegründern von Google, Sergey Brin3 und Larry Page4 , entwickelt worden ist, wobei der Ansatz tatsächlich historisch wesentlich älter ist. Das patentierte Verfahren in seiner algorithmischen Umsetzung ist als PageRank-Algorithmus bekannt und soll hier als Beispiel für iterative Lösungsverfahren von LGS besprochen werden. Man kann sich die vernetzten Seiten des Internets vorstellen als einen gerichteten Graphen (siehe Definition 8.36), wobei die Menge der Seiten die Knoten des Graphen darstellen und genau dann eine Kante von x auf y verweist, wenn die Seite x einen Hyperlink (im Folgenden kurz: Link) auf die Seite y besitzt. Dieser Graph kann durch eine Adjazenzmatrix (siehe Definition 8.39) beschrieben werden, d. h. : e = (e Seien 1, . . . , n die (erfassten) Seiten des Internets. Sei B bi, j )i, j ∈ R(n,n) definiert durch    1, wenn ein Link von Seite i auf Seite j verweist, e bi, j =   0, sonst .

Im Folgenden soll ein Bewertungsschema von Webseiten entwickelt werden, das ausschließlich die durch diese Links definierte Vernetzungsstruktur des Internets ausnutzt, um einer Seite eine relative „Relevanz“ zuzuordnen; es geht also dabei nicht um eine Bewertung des Inhalts der betreffenden Seiten. Als erstes Maß von Bedeutung könnte man die Anzahl der auf eine betreffende Seite verweisenden Links heranziehen, d. h. also zur Seite e Ein solches Kriterium kann aber durch Linkfarms, j die Summe der j-ten Spalte von B. d. h. Seiten, deren Aufgabe allein darin besteht, auf andere Seiten zu verlinken, manipuliert werden. Ein Ausweg aus dieser Situation ist die Begrenzung der Einflussnahme einer Seite auf eine „Stimme“, d. h. durch eine Gewichtung der Einträge der i-ten Zeile durch die jeweilige Zeilensumme, so dass auf diese Weise jede Seite nur insgesamt als Summe die Bewertung 1 verteilen kann. Sei daher bi :=

n X j=1

3 4

e bi, j , i = 1, . . . , n ,

Sergey Michailowitsch Brin ∗21. August 1973 in Moskau Lawrence Edward Page ∗26. März 1973 in Ann Arbor

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

857

die Summe der von i ausgehenden Links. Eine besondere Behandlung brauchen hängende Knoten i, von denen keine Links ausgehen, d. h. für die bi = 0 gilt. Dort wird die „Stimme“ auf alle Seiten im Graphen verteilt. Die gewichtete Adjazenzmatrix B = (bi, j )i, j wird also definiert durch    bi, j /bi , falls bi , 0 , e bi, j =   1/n, falls bi = 0 .

Die Matrix lässt sich also auch schreiben als B = D+ B + 1n d ⊗ 1, wobei    1, i ist hängend D = diag(bi ), di :=   0, sonst.

Auch dieses Bewertungsschema könnte durch die Erstellung vieler, auf eine spezielle Seite verweisende Seiten, manipuliert werden. Einen Ausweg bietet folgende implizite Definition der „Wichtigkeit“ einer Seite xi für die Seite i dadurch, dass diese Wichtigkeit durch die auf sie verweisenden skalierten Links noch einmal skaliert mit der Wichtigkeit der Seiten, von denen sie ausgehen, definiert wird, d. h. somit: Definition 8.17 Das Gewicht einer Internetseite i ist definiert als xi ≥ 0, wobei x = (xi )i ∈ Rn folgende Gleichungen löst: xi =

n X

b j,i x j , i = 1, . . . , n,

bzw.

j=1

(Bt − 1)x = 0 .

(8.12)

Es gilt n X

bi, j = 1

für alle i = 1, . . . , n

j=1

und damit B1 = 1

und auch

kBt k1 = kBk∞ = 1 ,

d. h. λ = 1 ist Eigenwert von B (mit Eigenvektor 1) und somit hat auch Bt den Eigenwert 1. Es handelt sich dabei um einen betragsmaximalen Eigenwert, da nach Theorem 7.32, 2) gilt: ρ(Bt ) ≤ kBt k1 = 1 .

858

8 Einige Anwendungen der Linearen Algebra

Da insbesondere B nicht negativ ist, hat (8.12) nach dem Satz von Perron5 und Frobenius (Hauptsatz 8.51) eine nicht negative Lösung x (d. h. xi ≥ 0 für alle i = 1, . . . , n), wie gewünscht. Ist zusätzlich B irreduzibel, so ist sogar x > 0 (d. h. xi > 0 für alle i = 1, . . . , n) und 1 ist ein einfacher Eigenwert. Dabei ist B irreduzibel genau dann, wenn der Adjazenzgraph zusammenhängend ist (Definition 8.41, Satz 8.43), d. h. sich eine beliebige Seite zu einer anderen beliebigen Seite durch Links verbinden lässt, was so nicht zu erwarten ist. Insgesamt hat das Modell einige unerwünschte Eigenschaften: Man betrachte die Netzstruktur 3, . . . , n, wobei Knoten 3 viele eingehende Kanten hat. Die Situation sei so, dass eine Lösung xi > 0, i = 3, . . . , n existiert. Es ist zu erwarten, dass x3 „groß“ ist. Ergänzt man nun dieses Netz um die Knoten 1, 2 in folgender Weise (Abbildung 8.3), so hat Bt

1

2

3

Abb. 8.3: Erweiterte Netzwerkstruktur. folgende Gestalt:   0  1  t B =  0  .  ..  0

 1 1 0 · · · · · · 0   0 0 0 · · · · · · 0   00   .. .. ∗  . . 00

und damit sind die ersten zwei Gleichungen in (8.12) entkoppelt und lauten x2 + x3 = x1 , x1 = x2 , woraus notwendigerweise x3 = 0

und

x1 = x2

folgt, d. h. eine „kleine“ Änderung der Netzstrukturen ergibt eine „große“ Änderung der Gewichte. Der Adjazenzgraph ist hier nicht zusammenhängend: Die Knoten 1, 2 können 5

Oskar Perron ∗7. Mai 1880 in Frankenthal (Pfalz) † 22. Februar 1975 München

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

859

nicht verlassen werden. Hätte man B bei hängenden Knoten mit dem Wert 0 statt 1/n definiert, würde bei dessen Auftreten gelten: I. Allg. ist λ = 1 kein Eigenwert von Bt , d. h. (8.12) hat die eindeutige Lösung x=0, die nicht aussagekräftig ist. Dies tritt im folgenden Beispiel auf (siehe Abbildung 8.4). Also 1

2

3

Abb. 8.4: Netzwerkstruktur ohne herausweisende Links.

   0 0 0    B =  0 0 0  ,   110 t

d. h.

   −1 0 0    B − 1 =  0 −1 0    1 1 −1 t

und damit ist Bt − 1 invertierbar. Die von Page und Brin vorgeschlagene Modifikation beinhaltet eine Dämpfung in folgender Art: Definition 8.18 Sei 0 < ω < 1. Das Gewicht mit Dämpfung ω einer Internetseite i ist definiert als xi ≥ 0, wobei x = (xi )i ∈ Rn folgende Gleichungen löst: xi = ω

n X j=1

B j,i x j + (1 − ω) ,

i = 1, . . . , n

bzw. (1 − ωBt )x = (1 − ω)1 .

(8.13)

Hier kann für alles folgende bei B bei hängenden Knoten auch der Wert 0 statt 1/n gewählt werden. Hat sodann (8.13) eine nicht negative Lösung, so gilt für diese notwendigerweise xi ≥ 1 − ω

für i = 1, . . . , n ,

(8.14)

860

8 Einige Anwendungen der Linearen Algebra

d. h. jede Seite bekommt a priori einen Bonus bei der Bewertung, man kann die Vorgehensweise auch mit dem Modell des Zufallssurfers erklären: Ein Websurfer startet auf einer beliebig gewählten Seite und verfolgt einen beliebig ausgewählten Link auf dieser Seite. Das Gewicht xi ohne Dämpfung ist dann ein Maß, wie oft ein solcher Surfer auf die Seite i gelangt. Bei Hinzunahme des Dämpfungsparameters verfährt der Surfer mit der Wahrscheinlichkeit ω nach der oben genannten Strategie und mit der Wahrscheinlichkeit 1 − ω wählt er eine Seite beliebig aus. Im Extremfall ω = 0 wählt er demnach immer beliebig Seiten aus, was damit konsistent ist, dass (8.13) dann die eindeutige Lösung xi = 1 für alle i hat. Das LGS (8.13) ist ohne weitere Voraussetzungen eindeutig lösbar, da ρ(ωBt ) ≤ kωBt k1 = ω < 1

(8.15)

und damit nach Theorem 7.39, 1) 1 − ωBt invertierbar ist. Nach Hauptsatz 8.54 (mit s = 1) ist 1 − ωBt sogar eine invertierbare M-Matrix. Insbesondere ist daher wegen (1 − ω)1 > 0 die Lösung von (8.13) nicht negativ und damit gilt (8.14). Für die Konditionszahl von 1 − ωBt gilt wegen k(1 − ωBt )−1 k1 ≤

1 1 ≤ 1 − kωBt k1 1 − ω

nach (8.15) und Theorem 7.39 und k1 − ωBt k1 ≤ 1 + ω ,

(8.16)

denn für die i-te Spaltensumme gilt: Im Fall bi , 0: |1 − ωbi,i | +

n X j=1 j,i

|ωbi, j | = 1 − ωbi,i + ω

n X

|1 − ωbi,i | +

n X

bi, j = 1 + ω

i=1 j,i

n X j=1

bi, j − 2ωbi,i ≤ 1 + ω .

Im Fall bi = 0:

j=1 j,i

|ωbi, j | = 1 .

Da im Allgemeinen bk , 0 für k ∈ {1, . . . , n} und auch bi,i = 0 gilt, ist (8.16) nicht zu verbessern. Infolgedessen gilt κ1 (1 − ωBt ) ≤

1+ω . 1−ω

Der Dämpfungsfaktor ω sollte deswegen nicht zu dicht an 1 gewählt werden. Gebräuchlich ist bei Google anscheinend ω = 0.85.

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

861

8.2.2 Linear-stationäre Iterationsverfahren für lineare Gleichungssysteme Sei A ∈ K(n,n) invertierbar. Man betrachte für b ∈ Kn das eindeutig lösbare LGS Ax = b . Carl Friedrich Gauss lobte folgendes Verfahren: Löse die i-te Gleichung nach xi auf, d. h.     n X 1   xi = ai, j x j  für i ∈ {1, . . . , n} . bi − ai,i   j=1

(8.17)

j,i

Dafür muss ai,i , 0 sein für alle i = 1, . . . , n, was durch eine Umordnung der Zeilen und Spalten erreicht werden kann. Aus (8.17) ist leicht xi auszurechnen, wenn die x j , j , i, bekannt sind, was aber nicht der Fall ist. Man kann aber mit einer Schätzung x(0) , der Startiterierten, beginnen, dann mittels (8.17) x(1) bestimmen und nun dieses Iterationsverfahren (zur Erzeugung einer Folge von Vektoren x(0) , x(1) , . . .) fortsetzen, d. h.     n X 1  (k)  (k+1)   (8.18) ai, j x j  für i ∈ {1, . . . , n}, k ∈ N0 xi := bi − ai,i   j=1 j,i

und erhält das Jacobi6 - oder Gesamtschritt-Verfahren. Hier ist es offensichtlich ohne Belang, in welcher Reihenfolge die n Berechnungen in (8.18) gemacht werden. Legt man sich auf die Reihenfolge 1, 2, 3, . . . fest, dann liegen im i-ten Teilschritt die neuen Nähe(k+1) rungen x1(k+1) , . . . , xi−1 vor, die, da ja wohl „besser“ als die alten, gleich in (8.18) benutzt werden sollten, d. h.   i−1 n X X  1  (k+1) (k+1) (k)  bi − xi := − ai, j x j ai, j x j  für i = 1, 2, . . . , n, k ∈ N0 . (8.19) ai,i j=1 j=i+1

Dies ist das Gauss-Seidel7 - oder Einzelschritt-Verfahren. Konvergieren diese Verfahren und wenn ja, mit welcher „Geschwindigkeit“? Zu ihrer Analyse schreiben wir A = L + D + R mit der strikten unteren Dreiecksmatrix L, der Diagonalmatrix D und der strikten oberen Dreiecksmatrix R (nicht zu verwechseln mit einer LR-Zerlegung A = LR):

6 7

Carl Gustav Jacob Jacobi ∗10. Dezember 1804 in Potsdam †18. Februar 1851 in Berlin Philipp Ludwig von Seidel ∗24. Oktober 1821 in Zweibrücken †13. August 1896 in München

862

8 Einige Anwendungen der Linearen Algebra

  0   a L =  2,1  ..  . an,1

... ... .. . .. .. . . . . . an,n−1

  0 a1,2  . .  .. . . R =  .  .  . 0 ...

 0  ..  .   ..  , .   0

. . . a1,n .. .. . . .. . an−1,n ... 0

     .   

    D =   

a1,1 0 .. . 0

0 ... 0 . .. .. . . .. .. .. . . 0 . . . 0 an,n

     ,   

(8.20)

Das Jacobi-Verfahren entspricht dann der Umformung des LGS in die Fixpunktform: Dx = −(L + R)x + b

bzw.

x = D−1 (−(L + R)x + b)

und das Verfahren ist dann das (Banachsche) Fixpunktverfahren (vergleiche Analysis ) x(k+1) = D−1 (−(L + R)x(k) + b) . Analog entspricht das Gauss-Seidel-Verfahren der Fixpunktform (D + L)x = −Rx + b

bzw.

x = (D + L)−1 (−Rx + b)

und das Verfahren lautet x(k+1) = (D + L)−1 (−Rx(k) + b) .

(8.21)

Man beachte, dass die Vorwärtssubstitution für das in (8.21) zu lösende LGS zur Berechnung von x(k+1) schon in (8.19) „eingebaut“ ist und gegenüber (8.18) keinen Mehraufwand darstellt. Als allgemeinen Rahmen betrachten wir die folgende Klasse von affin-linearen Iterationsfunktionen Φ(x) := Mx + N b

(8.22)

mit noch zu spezifizierenden M, N ∈ K(n,n) . Die affin-lineare Abbildung Φ ist stetig auf Kn . Allgemein sind dabei folgende Begriffe von Bedeutung: Definition 8.19 Sei (V, k . k) ein normierter Raum. Man betrachte ein Problem (P) in V mit der Lösungsmenge M.   Sei u(n) eine durch ein Iterationsverfahren erzeugte Folge (bei Vorgabe von u(0) ). n

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

863

1) Das Verfahren heißt (global) konvergent für (P), wenn u(n) → u für n → ∞ für ein u ∈ M bei beliebiger Wahl von u(0) . 2) Das Verfahren heißt konsistent mit (P), wenn gilt: Ist u(n) → u für n → ∞, dann folgt u ∈ M . Bei einem durch (8.22) gegebenen Fixpunktiterationsverfahren x(k+1) = Φ(x(k) ) = Mx(k) + N b

(8.23)

folgt aus der Konvergenz von x(k) gegen x : x ist Fixpunkt , d. h. x = Mx + N b .

(8.24)

Bei der Form (8.22) ist Φ Lipschitz-stetig bezüglich einer gegebenen Norm k . k auf Rn mit Lipschitz-Konstante kMk, wobei k . k eine Norm auf K(n,n) ist, die mit der Vektornorm verträglich ist (siehe Definition 7.22). Genauer erfüllt der Fehler e(k) := x(k) − x , wobei x ein Fixpunkt ist, d. h. (8.24) erfüllt e(k+1) = Me(k) ,

(8.25)

wie sich aus Subtraktion von (8.23) und (8.24) sofort ergibt. Die Rekursion (8.25) ist äquivalent mit e(k) = M k e(0) .

(8.26)

Die gewünschte Aussage ist also e(k) → 0

für k → ∞ .

Die Gültigkeit dieser Aussage wird im Allgemeinen von der Wahl des Startvektors x(0) abhängen. Ist die Fixpunktgleichung eindeutig lösbar und das Verfahren global konvergent, wird mit e(0) = x(0) − x der ganze Kn ausgeschöpft, daher ist e(k) → 0

für k → ∞ und für beliebiges e(0) ∈ Kn .

(8.27)

Dies ist äquivalent mit Mk → 0

für k → ∞ .

(8.28)

Das kann man folgendermaßen einsehen: Gilt (8.28), dann auch in jeder Norm auf K(n,n) (nach Hauptsatz 7.10), so dass bezüglich einer beliebig auf Kn gewählten Norm k . k und der erzeugten Norm k . k auf K(n,n) gilt (nach (7.13)) ke(k) k ≤ kM k k ke(0) k → 0 für k → ∞ .

864

8 Einige Anwendungen der Linearen Algebra

Gilt andererseits (8.27) für beliebige e(0) , so etwa für die Wahl e(0) = e1 , . . . , en , d. h. die Spaltenfolgen von M k konvergieren (komponentenweise), konvergiert M k (komponentenweise) gegen 0 (siehe Bemerkungen 7.11, 2)).

Hinsichtlich der qualitativen Frage nach Konvergenz gibt es also keinen Unterschied zwischen den Normen (wie immer im Endlichdimensionalen), wohl aber im Konvergenzverhalten: Sei k . k submultiplikativ und gelte kMk < 1 , so dass dann bei verträglicher Vektornorm folgt: ke(n) k ≤ kM n k ke(0) k ≤ kMkn ke(0) k . Gilt wie hier allgemein für eine Iterationsfolge und den diesbezüglichen Fehler ke(n) k ≤ ρn ke(0) k

(8.29)

für ein 0 < ρ < 1, dann heißt die Folge linear konvergent , mit Kontraktionszahl ρ. Das Ziel ist die Lösung von Ax = b (dies ist also Problem (P) in Definition 8.19), also sei die Fixpunktiteration konsistent mit Ax = b, dann ist ein Fixpunkt die eindeutige Lösung von Ax = b, somit insbesondere ein eindeutiger Fixpunkt. Es gebe einen solchen Fixpunkt für jedes b ∈ Kn . So muss gelten x = Mx + N b d. h.



x = A−1 b für beliebige

b ∈ Kn ,

A−1 b = MA−1 b + N b ⇒ A−1 = MA−1 + N ⇒ 1 = M + NA .

(8.30)

(8.30) ist folglich eine notwendige und bei Invertierbarkeit von N auch hinreichende Bedingung für Konsistenz. Bei Gültigkeit von (8.30) lässt sich die Fixpunktiteration (8.23) auch schreiben als x(k+1) = x(k) − N(Ax(k) − b) ,

(8.31)

da Mx(k) + N b = (1 − NA)x(k) + N b. Ist N invertierbar, ist wie gesagt die durch (8.31) definierte Iteration konsistent. Dann ist mit W := N −1 eine wiederum äquivalente Form gegeben durch   W(x(k+1) − x(k) ) = − Ax(k) − b .

(8.32)

Die Korrektur x(k+1) − x(k) für x(k) ergibt sich nunmehr aus dem Defekt (oder Residuum )

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

865

d(k) := Ax(k) − b durch (8.31) oder (8.32), d. h. eventuell durch Lösen eines Gleichungssystems. Um konkurrenzfähig zu den direkten Verfahren (mit O(n3 ) Operationen (bei vollbesetzten Matrizen)) zu sein, sollte die Auflösung in (8.32) (bei vollbesetzter Matrix) nur O(n) oder O(n2 ) Operationen benötigen (O(n2 ) Operationen werden schon bei der Berechnung von d(k) benötigt). Andererseits sollte das Verfahren konvergieren, und zwar möglichst schnell. Iterationsverfahren in der Form (8.23), (8.31) oder (8.32) heißen linear-stationär , da sich die affin-lineare Abbildungsvorschrift nicht ändert. Theorem 8.20: Globale Konvergenz bei eindeutiger Lösbarkeit Seien M, N ∈ K(n,n) , b ∈ Kn . Die Fixpunktgleichung (8.24) sei lösbar. 1) Dann sind äquivalent:

(ia) Die Fixpunktgleichung (8.24) ist eindeutig lösbar, (ib) die Fixpunktiteration (8.23) ist global konvergent; und (ii) ρ(M) < 1 . 2) Wenn bezüglich einer mit einer Vektornorm k . k verträglichen, submultiplikativen Norm k . k auf K(n,n) gilt kMk < 1 ,

(8.33)

so gelten die Aussagen 1) und die Konvergenz ist monoton im folgenden Sinn: ke(n+1) k ≤ kMk ke(n) k

(8.34)

und insbesondere linear konvergent mit Kontraktionszahl kMk.

3) Gilt (8.30) und sind A und N invertierbar, dann ist der Fixpunkt x die Lösung von Ax = b.

Beweis: Zu 1): „⇒“ folgt aus der Vorüberlegung im Anschluss an (8.26) und Hauptsatz 7.34. Bei „⇐“ folgt die globale Konvergenz entsprechend. Da dann jede Fixpunktfolge gegen jeden Fixpunkt konvergiert, ist dieser eindeutig. Zu 2): Theorem 7.32, 1) und (8.29). Zu 3): Nach den Vorüberlegungen.  Bemerkungen 8.21 1) Ist der Fixpunkt nicht eindeutig, d. h. die Menge der Fixpunkte ist ein affiner Unterrraum positiver Dimension, dann kann auch bei globaler Konvergenz, d. h. bei beliebigem

866

8 Einige Anwendungen der Linearen Algebra

x(0) ∈ Kn , sein, dass sich der Startvektor „seinen“ Grenzwert „aussucht“, d. h. mit x(0) − x nicht ganz Kn erfasst wird und somit nicht nach (8.28) notwendig ρ(M) < 1 gelten muss. In Abschnitt 8.6 wird ein solcher Fall betrachtet. 2) Bei linearer Konvergenz mit Kontraktionszahl ρ ist also eine Fehlerverkleinerung pro Iterationsschritt um den Faktor ρ garantiert. Nach (8.29) wird der Eingangsfehler (normmäßig) um den Faktor ε > 0 verkleinert, wenn bzw. k ≥

ρk ≤ ε

log(ε) . log(ρ)

Um nun l signifikante Stellen in einer Dezimaldarstellung zu gewinnen, braucht man daher i. Allg. k≥

−l log10 (ρ)

Iterationsschritte. 3) Die obige Aussage ist zum Teil Spezialfall des Banachschen Fixpunktsatzes : Sei (V, k . k) ein Banach-Raum, Φ : V → V Lipschitz-stetig mit Lipschitz-Konstante L < 1 (also eine Kontraktion ). Dann konvergiert die Fixpunktiteration x(k+1) = Φ(x(k) ) linear mit Kontraktionszahl L gegen den eindeutigen Fixpunkt x von Φ. Der Identität (8.25) entspricht hier die Normabschätzung kx(k+1) − xk = kΦ(x(k) ) − Φxk ≤ Lkx(k) − xk .



In der Form (8.31) gilt für die Iterationsmatrix M M = 1 − NA bzw. bei (8.32) mit nichtsingulärem W M = 1 − W −1 A . Zur Verbesserung der Konvergenz, d. h. zur Verkleinerung von ρ(M) (oder kMk) sollte demnach N ∼ A−1

bzw. W ∼ A

sein, was im Widerspruch zur leichteren Auflösbarkeit von (8.32) steht. Ein Verfahren, bei dem die Lösung von (8.32) ohne Aufwand gegeben ist, entsteht durch die Wahl

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

867

W := 1 , d. h. M = 1−A, das sogenannte Richardson8 -Verfahren. Eine Wahl, für die auch die leichte Auflösbarkeit von (8.32) sichergestellt ist, lautet in Bezug auf die Zerlegung (8.20): W := D , wobei das zugehörgie konsistente Verfahren gerade das Jacobi-Verfahren ist, da in der Form (8.23) dann N = D−1 , M = 1 − NA = 1 − D−1 A = −D−1 (L + R) gilt. Das Gauss-Seidel-Verfahren ergibt sich als die konsistente Iteration mit W =D+L. W ist invertierbar, weil D invertierbar ist, und in der Form (8.23) lautet die Iteration: N = W −1 = (D + L)−1 , M = 1 − NA = 1 − (D + L)−1 A = −(D + L)−1 R . Hinreichende Bedingungen für Konvergenz ergeben sich aus: Satz 8.22: Konvergenz Jacobi-Verfahren Das Jacobi-Verfahren konvergiert global und monoton bezüglich k . k∞ , wenn das starke Zeilensummenkriterium n X j=1 j,i

|ai, j | < |ai,i |

für alle i = 1, . . . , n ,

(8.35)

erfüllt ist (A heißt dann auch stark diagonal-dominant ) bzw. global und monoton bezüglich k . k1 , wenn das starke Spaltensummenkriterium gilt: n X i=1 i, j

8

|ai, j | < |a j, j|

für alle j = 1, . . . , n .

(8.36)

Lewis Fry Richardson ∗11. Oktober 1881 in Newcastle upon Tyne †30. September 1953 in Kilmun

868

8 Einige Anwendungen der Linearen Algebra

Beweis: Wegen M = −D−1 (L + R) ist (8.35) äquivalent mit kMk∞ < 1, wenn k . k∞ die von k . k∞ erzeugte Zeilensummennorm bezeichnet. Analog ist (8.36) äquivalent mit kMk1 < 1 (Spaltensummennorm).  Bemerkung 8.23 Wenn man auf das Problem (8.13) zur Bestimmung der Webseitengewichte mit Dämpfungsfaktor ω das Richardson-Verfahren anwendet, so entsteht der sogenannte PageRank-Algorithmus x(k+1) = ωBt x(k) + (1 − ω)1 . Wegen (8.15) und Theorem 8.20 oder auch Satz 8.22 ist dieses Verfahren global konvergent und bezüglich k . k1 auch monoton konvergent. Die Kontraktionszahl kann mit ω abgeschätzt werden. Da nur wenig signifikante Stellen gebraucht werden, um die Anordnung der xi sicher zu bestimmen, ist dies akzeptabel. △

Iterationsverfahren, die, wie die obigen Beispiele, in einem Iterationsschritt nur Matrix × Vektor-Operationen haben, sind besonders günstig für dünnbesetzte LGS, bei denen die Systemmatrix „viele“ Nulleinträge besitzt. Das trifft auf das Beispiel aus Abschnitt 8.2.1 zu, aber auch auf die durchlaufenden Beispiele 2 und 3. Die durch die Nichtnulleinträge definierte Indexmenge nennt man auch das Besetzungsmuster der Matrix. Beim Eliminationsverfahren können aus Nulleinträgen eventuell Nichtnulleinträge werden (fill-in), was in der Numerischen Mathematik genauer behandelt wird. Durch die explizite Berechnung der inversen Matrix für Beispiel 3 (siehe (MM.53)) zeigt sich, dass diese im Gegensatz zu A vollbesetzt ist. Solche LGS entstehen typischerweise bei der Diskretisierung von Randwertaufgaben für (partielle) Differentialgleichungen. Beispiel 3(10) – Massenkette Das aus Beispiel 3(2), (MM.11) bekannte Modell mit   2 −1  ..  .  −1  .  .. A :=     

   ..  .   .. ..  ∈ R(n−1,n−1) . .   .. ..  . . −1   −1 2

(MM.103)

erhält man auch, wenn man die Lösung der einfachen Randwertaufgabe, nämlich: Finde eine Funktion u : [a, b] → R, so dass −u′′ (x) = f (x)

für x ∈ [a, b]

u(a) = u(b) = 0

für eine gegebene Funktion f ; mit einem Finite-Differenzen-Ansatz approximiert. Dies bedeutet, dass u angenähert wird durch ein uh ∈ S 1 (∆) (siehe (1.30)), wobei die Zerlegung ∆ durch xi = a + ih, i = 0, . . . , n für h := (b − a)/n gegeben ist. Dann sind uh (x0 ) = uh (a) = 0, uh (xn ) = uh (b) = 0

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

869

durch die Randbedingungen gegeben und die Approximation von −u′′ (xi ) durch 1 (−uh (xi−1 ) + 2uh (xi ) − uh (xi+1 )) . h2 Dies führt auf 1 Auh = ( f (xi ))i . h2 Im Gegensatz zu vollbesetzten Matrizen weist A unabhängig von der Dimension nur maximal k = 3 von Null verschiedene Einträge auf (siehe Bemerkungen 1.51, 5)), die noch dazu in einem Band um die Diagonale mit Bandbreite 1 angeordnet sind. Die Forderungen von Satz 8.22 erweisen sich folglich für dieses Beispiel als zu restriktiv. Dennoch liegt auch hier Konvergenz vor. Solche LGS werden daher i. Allg. groß sein, um das eigentlich interessierende kontinuierliche Modell hinreichend anzunähern. Hier macht sich dann für die obigen Beispielverfahren negativ bemerkbar, dass zwar für die Iterationsmatrix M = M(n) gilt ρ(M(n)) < 1 ,

(MM.104)

aber ρ(M(n)) → 1 für n → ∞ . Es nimmt somit nicht nur der Aufwand für eine Iteration zu, sondern auch die Anzahl der Iterationen. In dieser Hinsicht vorteilhafte Verfahren werden in der Numerischen Mathematik besprochen. Für Matrix A nach (MM.103) gilt: Die Eigenwerte von A sind nach (MM.82): ! k µk := 2 1 − cos π , k = 1, . . . , n − 1 (MM.105) n zu den Eigenvektoren x(k) i := sin

ikπ , n

i = 1, . . . , n − 1 ,

und daraus folgen als Eigenwerte der Iterationsmatrix M J des Jacobi-Verfahrens k λk = cos π, n

k = 1, . . . , n − 1 ,

da wegen 1 MJ = − A + 1 2 beide Matrizen die gleichen Eigenvektoren haben und die Eigenwerte sich mittels 1 λk = − µk + 1, 2

k = 1, . . . , n − 1

transformieren. Man erhält dann bezüglich k . k2 : Jacobi-Verfahren:

ρ(M J ) = cos

π n

≈1−

π2 . 2n2

Es kann weiter gezeigt werden (z.B. Bunse und Bunse-Gerstner 1985, S. 135): 2  2  Gauss-Seidel-Verfahren: ρ(MGS ) = ρ(M J )2 = cos πn ≈ 1 − πn .

Man sieht hier deutlich das Verhalten von (MM.104) für n → ∞. Das bedeutet zweierlei: Da man allgemein bei einer Kontraktionszahl ρ ca. k = log (ε) / log (ρ) Iterationsschritte braucht (Bemerkungen 8.21,

870

8 Einige Anwendungen der Linearen Algebra

3)), um ein relatives Fehlerniveau von ε > 0 zu erreichen, d. h. kx(k) − xk ≤ εkx(0) − xk , braucht das Gauss-Seidel-Verfahren (für dieses Beispiel) nur ca. die Hälfte der Iterationsschritte des Jacobi-Verfahrens. Andererseits hat sich das asymptotische Verhalten der Kontraktionszahl nicht verbessert. Das hier vorliegende Beispiel löst man übrigens mit keinem der iterativen Verfahren, sondern mit einer an seine tridiagonale Besetzungsstruktur angepassten Gauss-Elimination. Iterationsverfahren werden dann überlegen, wenn das Besetzungsmuster der Matrix „unregelmäßig“ wird. ^

Weitere Informationen finden sich z. B. in Hackbusch 1991, Bunse und BunseGerstner 1985 oder Golub und Van Loan 1996.

8.2.3 Gradientenverfahren Sei A ∈ K(n,n) selbstadjungiert und positiv definit (A = A† , A > 0). Satz 4.144 ergibt einen alternativen Zugang zu Lösungsverfahren, indem man versucht, das Minimierungsproblem Minimiere f : Kn → R, 1 f (x) := hAx . xi − Re hx . bi 2

(8.37)

zu lösen. Im Prinzip sind solche Zugänge auch auf allgemeine invertierbare Matrizen anwendbar, da das LGS Ax = b dann noch äquivalent ist zum Ausgleichsproblem Minimiere

f (x) := kAx − bk22

bzw. äquivalent dazu zum LGS A† Ax = A† b mit der selbstadjungierten, positiv definiten Matrix A† A. Allgemein folgt aus Satz 4.140 (und Definition 4.133) für selbstadjungiertes A ∈ K(n,n) : Sei hx . yiA := hAx . yi für x, y ∈ Kn (mit dem euklidischen inneren Produkt h . i). Dann sind äquivalent: (i) A ist positiv definit: A > 0.

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

871

(ii) h . iA ist ein inneres Produkt auf Kn . h . iA wird auch als Energieskalarprodukt (bezüglich A) bezeichnet aufgrund seiner konkreten Interpretation in Anwendungen der Mechanik. Die von h . iA erzeugte Norm wird mit k . kA bezeichnet und auch die A-Norm oder Energienorm bezüglich A genannt, d. h. kxkA := hAx . xi1/2 .

(8.38)

Bei A = A† und A > 0 ist also h . iA ein inneres Produkt, aber auch h . iA−1 und h . iA† A . Mit x = A−1 b als Lösung des LGS lässt sich (8.37) dann umschreiben zu 1 1 f (y) = f (x) + ky − xkA = f (x) + kAy − bk2A−1 . 2 2

(8.39)

(8.37) ist also äquivalent zur Minimierung des Abstands zur Lösung in der A-Norm bzw. zur Minimierung des Defekts in der A−1 -Norm. Ein allgemeines Iterationsverfahren zur Lösung von (8.37) hat die Struktur: Bestimme eine Suchrichtung d(k) . Minimiere

α 7→ g(α) := f x(k) + αd(k)

exakt oder approximativ, dies ergibt αk . Setze

x(k+1) := x(k) + αk d(k) .



Der Fehler der k-ten Iterierten werde mit e(k) bezeichnet: e(k) := x(k) − x . Ist f durch (8.37) gegeben, dann gilt für   g(α) := f x(k) + αd(k) : E D E 1D g(α) = A(x(k) + αd(k) ) . x(k) + αd(k) − Re x(k) + αd(k) . b 2 D E D E 1 D (k) (k) E 2 1 D (k) (k) E Ax . x − Re x(k) . b + Re Ax(k) − b . d(k) α + Ad . d α . = 2 2

Hierbei wurde die Selbstadjungiertheit von A ausgenutzt (man vergleiche Hauptsatz 1.102 und Bemerkungen 1.104, 1)). Aus diesem Grund liegt g in der folgenden Form vor:

a :=

1D 2

Ax(k) . x(k)

E

g(α) = a + bα + cα2 mit E D E − Re x(k) . b , b := Re Ax(k) − b . d(k) , D

Damit ist die Minimalstelle αk von g charakterisiert durch

c :=

1 D (k) (k) E Ad . d . 2

872

8 Einige Anwendungen der Linearen Algebra ′

g (αk ) = 0

bzw.

Als Abkürzung wurde hier

D E Re g(k) . d(k) b E ∈R. αk = − = − D 2c Ad(k) . d(k)

(8.40)

g(k) := Ax(k) − b für das Residuum verwendet (g wie Gradient: siehe Bemerkungen 8.25). Es gilt Ae(k) = g(k) ,

e(k+1) = e(k) + αk d(k) ,

g(k+1) = g(k) + αk Ad(k)

(8.41)

und damit durch Einsetzen D E Re g(k+1) . d(k) = 0 .

Aus (8.39) folgt

(8.42)

ke(k) k2A = kg(k) k2A−1 und somit mit (8.41) D E D E D E ke(k+1) k2A = A−1 g(k+1) . g(k) + αk Ad(k) = g(k+1) . e(k) + αk g(k+1) . d(k) , d. h. mit (8.42)

D E ke(k+1) k2A = Re g(k+1) . e(k) .

Die bisherigen Überlegungen waren gültig für allgemeine Suchrichtungen d(k) . Da −g(k) die Richtung des lokal steilsten Abstiegs von f ist (siehe Bemerkungen 8.25, 2)), liegt das Gradientenverfahren nahe, bei dem d(k) := −g(k) gesetzt wird. Dann ist D

αk =

g(k) . g(k)

E

Ag(k) . g(k)

.

Weiter folgt aus den obigen Identitäten E D E D ke(k+1) k2 = Re g(k) + αk Ad(k) . e(k) = ke(k) k2A − αk Re Ag(k) . e(k) D E    g(k) . g(k)  (k) 2  = ke kA 1 − αk −1 (k) (k)  A g .g und damit nach Definition von αk :

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

  D E (k) (k) 2   g . g   kx(k+1) − xk2A = kx(k) − xk2A 1 − (k) (k) −1 (k) (k)  .  Ag . g A g .g 

873

(8.43)

Mit Satz 7.63 folgt sofort:

Satz 8.24: Konvergenz Gradientenverfahren Seien A ∈ K(n,n) , A = A† , A > 0, b ∈ Kn . Sei x := A−1 b. Für das Gradientenverfahren gilt kx(k) − xkA ≤ 1 −

1 κ

!k/2

kx(0) − xkA ,

wobei κ := κ2 (A) die Konditionszahl von A bezüglich k . k2 bezeichnet. Das Gradientenverfahren ist also in der A-Norm linear und global konvergent mit Kontraktionszahl (1 − 1/κ)1/2.

Beweis: Satz 7.63 liefert mit der Abschätzung aus (8.43) ! 1 (k+1) 2 kx(k) − xk2A kx − xkA ≤ 1 − kAk2 kA−1 k2 und damit die Behauptung.



Bemerkungen 8.25 1) Die Kontraktionszahl in Satz 8.24 lässt sich verbessern: Mit der Ungleichung von Kantorowitsch9 D E !2 hAx . xi A−1 x . x 1 1/2 1 −1/2 ≤ κ + κ 2 2 hx . xi2 (für eine Beweisskizze siehe z. B. Saad 2003, S. 138f), wobei κ2 := κ(A) die spektrale Konditionszahl ist, folgt wegen 1−

4 a1/2 + a

 = −1/2 2

(a − 1)2 (a + 1)2

(k)

κ−1

x − x

A ≤ κ+1 9

!k

für a > 0 :

(0)

x − x

A .

(8.44)

Leonid Witaljewitsch Kantorowitsch ∗19. Januar 1912 in Sankt Petersburg †7. April 1986 in Moskau

874

8 Einige Anwendungen der Linearen Algebra

2) Unter Verwendung von mehrdimensionaler Analysis (siehe Bemerkungen 4.145, 2)) gilt für die Ableitung ∇ f (x) von f bei x: ∇ f (x)t h = Re hAx − b . hi

für h ∈ Kn

und damit wird in der Linearisierung f (x + h) = f (x) + ∇ f (x)t h

+

Fehler höherer Ordnung

f lokal am kleinsten, wenn in die Richtung h := −(Ax − b) gegangen wird. g′ (α) lässt sich demzufolge auch kürzer über die Kettenregel als  t g′ (α) = ∇ f x(k) + αd(k) d(k)  E D  = Re A x(k) + αd(k) − b . d(k) bestimmen, woraus (8.40) folgt. Entsprechend ergibt sich (8.42). 3) Für das Beispiel 3(10) folgt aus (MM.105) κ2 (A) =

1 − cos n−1 1 + cos πn n π = , 1 − cos πn 1 − cos πn

so dass sich die Kontraktionszahl nach (8.44) ergibt zu  π 2 π κ−1 = cos , =1− = 1 − 1 − cos κ+1 κ+1 n n

so dass wir (jetzt in der A-Norm) die gleiche (schlechte) Konvergenzgeschwindigkeit wie beim Jacobi-Verfahren erhalten. 4) Wegen λmax kxk22 ≥ hAx . xi ≥ λmin kxk22 , wobei λmin , λmax der kleinste bzw. größte Eigenwert von A ist, erhält man aus der Konvergenzabschätzung (nach 1)) für die A-Norm auch: !k !1/2 λmax κ−1 kx(k) − xk2 ≤ kx(0) − xk2 . λmin κ+1

D E 5) Das Problem liegt darin, dass zwar wegen (8.42) für K = R g(k+1) . g(k) = 0 gilt, D E nicht aber im Allgemeinen g(k+2) . g(k) = 0; vielmehr sind diese Suchrichtungen oftmals fast parallel (s. Abbildung 8.5). Insbesondere für große κ können die Suchrichtungen g(k) und g(k+1) bezüglich des Skalarprodukts h· . ·iA fast parallel sein, minimiert werden soll aber eben bezüglich k . kA der Abstand zur Lösung. Das Problem ist umso ausgeprägter, je „ellipsenförmiger“ die Höhenlinien von f sind, d. h. je größer κ2 (A) ist.

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

875

.

m = 2:

x (0) f = const .. (Hohenlinien)

Abb. 8.5: Zick-Zack-Verhalten des Gradientenverfahrens.

6) Ein Verfahren, das auch für Matrizen vom Typ (MM.103) verbesserte Konvergenzeigenschaften hat, ist das Konjugierte-Gradienten-Verfahren (CG-Verfahren, siehe Algorithmus 6), bei dem Suchrichtungen konstruiert werden, die zueinander konjugiert, d. h. bezüglich h . iA orthogonal sind. Die genaue Analyse dieses Verfahrens gehört zur Numerischen Mathematik. – Zur Vereinfachung wird K = R angenommen. – Zur Herleitung werde vorerst angenommen, dass die Suchrichtungen d(0) , . . . , d(n−1) a priori gegeben seien, im CG-Verfahren werden sie dann durch eine Rekursion wie in (8.41) bestimmt. Wegen D E d(i) . d( j) = 0 für i, j = 0, . . . , n − 1, i , j A

ist dann (siehe (1.88) für h . iA )

x − x(0) = D

da x − x(0) . d(k)

E

A

n−1 X

γk d(k) ,

k=0

D E − g(0) . d(k) γk = D E , d(k) . d(k) A

D E = − g(0) . d(k) . Andererseits gilt x(k) = x(0) +

k−1 X

αi d(i) ,

also (vgl. (8.41))

i=0

g(k) = g(0) + D

k−1 X

αi Ad(i)

und damit

i=0

E E D g(k) . d(k) = g(0) . d(k)

wegen der Konjugiertheit der d(i) und somit D E g(k) . d(k) γk = − D E = αk d(k) . d(k) A

und damit ist x(n) = x = A−1 b, d. h. wir haben (bei exakter Rechnung) ein nach höchstens n Schritten exaktes Lösungsverfahren.

876

8 Einige Anwendungen der Linearen Algebra

7) Aber auch die x(k) für k < n können als Näherungen von x interpretiert werden, was für größere n wichtig ist. ek := span(d(0) , . . . , d(k−1) ), Sei K

ek bzw. äquivalent dazu dann minimiert x(k) (8.37) bzw. (8.89) auf x(0) + K D

E g(k) . d(i) = 0

für i = 0, . . . , k − 1 .

Die Aussagen sind äquivalent wegen Bemerkungen 4.149, 1). Die zweite Aussage gilt für k = 1 (bzw. i = k − 1), da x(k) das Minimum von f auf x(k−1) + span(d(k−1) ) ist (siehe (8.42)). Im Induktionsschluss k − 1 → k beachte man wegen (8.41) D E D E d(i) . g(k) − g(k−1) = αk−1 d(k−1) . d(i) = 0 .

8) Nun müssen konjugierte d(i) so definiert werden, dass sie während der Iteration leicht bestimmt werden können und nur wenig „gebraucht“ (gespeichert) werden. Es gilt     x ∈ x(0) + Z A; g(0) = Kk A; g(0) , (0)

wobei k = grad µgA . (0)

Sei nämlich µgA (λ) = λk + g(0)

1 λ µA

Pk−1 i=0

ai λi , dann Ak g(0) +

Pk−1 i=0

ai Ai g(0) = 0 und damit wegen a0 , 0 (sonst wäre

ein annihilierendes Polynom kleineren Grades) und mit ak := 1   k   1 X i−1 (0)  ai A g  = b . A  x0 + a0 i=1

Die d(i) sollten also so konstruiert sein, dass

  ek = Kk A; g(0) . K

Der folgende Ansatz führt (überraschenderweise) zum Ziel: d(0) := −g(0)

d(k+1) := −g(k+1) + βk d(k) mit freiem Parameter βk . Dieser kann aber nur genutzt werden, eine der Konjugiertheitsbedingungen zu erfüllen, nämlich D E d(k+1) . d(k) = 0 A

was äquivalent ist mit

D E D E − g(k+1) . d(k) + βk d(k) . d(k) = 0 A D E A (k) (k+1) g .d bzw. βk = D EA . (k) d . d(k) A

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

877

Hier empfiehlt es sich g(k+1) über (8.41) zu bestimmen, da Ad(k) auch in den SKP für αk und βk gebraucht wird. 9) Obwohl also die Konjugiertheit der so definierten d(k) , die also nur für den jeweils nächsten Schritt zur Bestimmung von d(k+1) gebraucht werden, noch nicht gesichert ist, gilt wie gewünscht: Sei k so, dass x(k) , x, 1 ≤ k ≤ n, dann gilt     ek = Kk A; g(0) = span g(0) , . . . , g(k−1) K

und damit insbesondere

D

E g(k) . g(i) = 0

für i = 1, . . . , k − 1

ek =k . dim K

Die Zusatzaussagen folgen sofort aus den Hauptaussagen mit 7) (Bemerkungen 4.149, 1)) und 8) (k < (0) grad µgA ), die Hauptaussage durch vollständige Induktion: k = 1 ist trivial und bei k − 1 → k beachte man nach (8.41)     ek ⊂ span g(0) , . . . , Ak g(0) g(k) ∈ A K und deshalb

    span g(0) , . . . , g(k) = span g(0) , . . . , Ak g(0) ,

da „⊂“ gilt und die Dimension des linken Raums maximal gleich k + 1 ist wegen der Zusatzbehauptung für k und g(i) , 0 für alle i = 0, . . . , k. Nach Induktionsvoraussetzung und Definition von d(k) folgt     span d(0) , . . . , d(k) = span g(0) , . . . , g(k) .

10) Eine effiziente Umschreibung der Parameter ist D E D E g(k+1) . g(k+1) g(k) . g(k) E , βk = (k) (k) , αk = D g .g d(k) . d(k) A

denn

D E D E D E − g(k) . d(k) = − g(k) . − g(k) + βk−1 d(k−1) = g(k) . g(k) D E D E D E D E g(k+1) . g(k+1) = g(k+1) . g(k) + αk Ad(k) = αk g(k+1) . d(k) A = βk g(k) . g(k)

11) Die definierten Richtungen sind tatsächlich konjugiert: Ist g(k−1) , 0, dann ist d(k−1) , 0 und d(0) , . . . , d(k−1) sind konjugiert. Der Fall k = 1 ist klar und für den Indutionsschluss k → k + 1 beachte man: Es gilt d(k) , 0, denn (k) (0) andererseits folgte wegen g(k) + d(k) = βk−1 d(k−1) ∈ Kk (A; g(0) ) auch D g ∈ KEk (A; g ) was mit 9), d.h. g(k) ∈ Kk (A; g(0) )⊥ den Widerspruch zu g(k) = 0 erzeugt. Es ist noch d(k) . Ad(i) = 0 für i = 0, . . . k − 2 zu zeigen (i = k − 1 gilt wegen der Definition von βk ) D E D E D E D E d(i) . Ad(k) = − Ad(i) . g(k) + βk−1 d(i) . Ad(k−1) = − Ad(i) . g(k) = 0 ,

878

da Ad(i) 7).

8 Einige Anwendungen der Linearen Algebra 

     D E ∈ A Kk−1 (A; g(0) ) ⊂ Kk A; g(0) = span d(0) , . . . , d(k−1) und g(k) . d(i) = 0, i = 0, . . . , k − 1 nach



Folgende Routine realisiert das CG-Verfahren für eine wie in diesem Abschnitt angenommene Matrix A, einer rechten Seite b, einem Startvektor x und einer (hinreichend kleinen) Toleranz tol (vgl. Knabner und Angermann 2000, S. 216, Tabelle 5.2): Algorithmus 6 (CG-Verfahren) function x = cgverfahren(A, b, x, tol ,k_max ) d = b - A * x; g = -d; k=0; gg=norm (g)xx2; while sqrt (gg) > tol && k |λ2 | ≥ · · · ≥ |λn |

und u1 , . . . , un ∈ Kn

mit kui k2 = 1

(8.45)

eine auf Länge 1 skalierte Eigenvektorbasis von Kn . Die Potenzmethode lautet in ihrer Grundform e x(0) ∈ Kn gegeben, e x(k+1) := Ae x(k) .

Also

e x(k) := Ake x(0) .

Sei α1 , 0 und

x(0) =

n X

αi ui .

(8.46)

i=1

Dann: (k)

Wegen

e x

=

λk1

  !k n X   λ i α1 u1 + αi ui  =: λk1 (α1 u1 + ek ) . λ1 i=2 |λ2 | |λi | ≤ 1 ,

für |λ1 | < 1 ,

so dass die Skalierung x(k) := e x(k) /ke x(k) k2 zweckmäßig erscheint. Wegen x(k) =

Ak x(0) , kAk x(0) k2

wie sich sofort durch vollständige Induktion ergibt, und der Skalierungsinvarianz in (8.48) gelten die obigen Überlegungen weiterhin für den folgenden Algorithmus 7, welcher für eine quadratische Matrix A und einen Spaltenvektor x nach n Iterationen eine Näherung an den betragsgrößten Eigenwert lam und zugehörigen Eigenvektor x liefert: Algorithmus 7 (Potenzmethode) function [lam , x] = potenzmethode(A, x, n) x = x/norm (x, 2); for k = 1 : n y = A*x; lam = x’*y; x = y/norm (y, 2); end end

Daher: Satz 8.26: Konvergenz der Potenzmethode Unter den Voraussetzungen (8.45) und (8.46) konvergiert die Potenzmethode nach Algorithmus 7, im Sinne k !! λ2 (k) . λ = λ1 1 + O λ1

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte

881

Bemerkungen 8.27 1) Die Bedingung (8.46) ist nicht einschränkend, da durch Rundungsfehler immer ein solcher Anteil an der Iterierten entsteht. 2) Ist der betragskleinste Eigenwert von A ungleich Null und eindeutig, so ist der betragsgrößte Eigenwert von A−1 eindeutig und einfach, so dass darauf die Potenzmethode anwendbar ist: Wähle Startvektor x(0) mit kx(0) k2 = 1. Für k = 0, 1, . . . : Löse

Ae x(k+1) = x(k) λ(k) := D

x(k+1) :=

1 x(k)

.e x(k+1)

e x(k+1)

ke x(k+1) k2

.

E

Diese inverse Potenzmethode liefert eine Näherung für λn und einen zugehörigen Eigenvektor. 3) Ist bei Diagonalisierbarkeit über K für den einfachen Eigenwert λl eine Näherung µ bekannt, so dass |µ − λl | < |µ − λi |

für alle i , l,

d. h. hat A−µ1 den einfachen, betragskleinsten Eigenwert λl −µ, so kann darauf die inverse Potenzmethode angewendet werden. 4) Sollen die Gewichte von Internetseiten (ohne Dämpfung) nach Definition 8.17 bestimmt werden und ist λ = 1 einfacher Eigenwert von Bt , so kann dies ebenfalls mittels der Potenzmethode geschehen. △ Weitere Informationen, insbesondere zu zeitgemäßen Krylov-Unterraum-Verfahren findet man z. B. in Golub und Van Loan 1996, Saad 2011 oder Watkins 2007.

882

8 Einige Anwendungen der Linearen Algebra

Aufgaben Aufgabe 8.7 (K) Für die Matrizen    1 −2 2    B1 = −1 1 −1 ,   −2 −2 1

  2 −1 −1 1   B2 = 2 2 −2 2 1 1 2 

sollen die Gleichungssysteme Bi x = b (i = 1, 2) iterativ gelöst werden. Man überprüfe für das Jacobi- und das Gauss-Seidel-Verfahren die Konvergenz für B1 bzw. B2 . Aufgabe 8.8 (K) Man betrachte das System Ax = b mit A ∈ R(n,n) und b ∈ Rn , A nach (MM.11) .

Die Eigenwerte der Systemmatrix M ∈ R(n,n) des Iterationsverfahrens x(k+1) = Mx(k) + N b,

k = 0, 1, 2, . . . ,

 jπ  wobei M und N gemäß dem Jacobi-Verfahren gewählt seien, lauten cos n+1 , j = 1, . . . , n nach Beispiel 3(10). Für welche Werte des Parameters ω ∈ R konvergiert das gedämpfte Jacobi-Verfahren x(k+1/2) = Mx(k) + N b,

x(k+1) = x(k) − ω(x(k) − x(k+1/2) ) ?

Aufgabe 8.9 (T) Sei A ∈ R(n,n) mit At = A und A > 0 gegeben.

a) Zeigen Sie, dass für zwei Vektoren x, y ∈ Rn mit xt y = 0 stets hx . yiA κ2 (A) − 1 ≤ kxkA kykA κ2 (A) + 1

gilt, wobei κ2 (A) die Konditionszahl von A bezüglich k . k2 bezeichne. b) Zeigen Sie anhand eines Beispiels für n = 2, dass die Abschätzung aus a) scharf ist. Aufgabe 8.10 (T) Gegeben sei die folgende Netzstruktur, für deren Knoten Gewichte bestimmt werden sollen: 1

3

5

2

4

6

Aufgaben

883

a) Stellen Sie die gewichtete Adjazenzmatrix B zu diesem Netzwerk auf und berechnen Sie durch Lösen von (Bt −1)x = 0 Gewichte x = (x1 , . . . , x6 )t für die einzelnen Seiten, wobei die Normierung kxk1 = n = 6 gelten soll. b) Das Netzwerk wird nun modifiziert, indem die Verbindungen zwischen den Knoten 1 und 4 entfernt werden. Welches Problem tritt nun bei der Ermittlung der Gewichte auf und warum? c) Berechnen Sie für das modifizierte Netzwerk die Gewichte mit einer Dämpfung von ω = 0.85, indem Sie die Lösung x von (1 − ωBt )x = (1 − ω)1 bestimmen.

Hinweis: Für das Lösen von Gleichungssystemen können Sie ein Software-Werkzeug (z. B. MATLAB) verwenden. Aufgabe 8.11 Beim Page-Rank-Verfahren werde zusätzlich angenommen, dass von jedem Knoten des Netzwerkes mindestens eine Kante ausgeht. Zeigen Sie: a) Das Gleichungssystem (8.13) ist äquivalent zur Eigenvektorgleichung x = Mx ,

kxk1 = n ,

x>0,

(8.50)

wobei M = (ωBt + (1 − ω)S ) und S = (1/n)i, j=1,...,n . P b) Sei V = {x ∈ Rn : ni=1 xi = 0}. Dann gilt Mu ∈ V für alle u ∈ V und kMuk1 ≤ ckuk1

für alle u ∈ V

mit c = max1≤ j≤n |1 − 2 min1≤i≤n Mi, j | < 1. c) Sei x0 ≥ 0 ein beliebiger Vektor mit kx0 k1 = n und sei x die (eindeutige) Lösung von (8.13) bzw. (8.50). Zeigen Sie, dass dann limk→∞ M k x0 = x gilt. Die Potenzmethode konvergiert also gegen die Lösung der Eigenvektorgleichung und damit gegen die Lösung von (8.13). Aufgabe 8.12 (K) Schreiben Sie eine MATLAB-Funktion x = pagerank(B,omega), die mit Hilfe der Potenzmethode einen Gewichtsvektor x = (x1 , . . . , xn )t für die Gewichte der Seiten x1 , . . . , xn einer Netzstruktur nach dem Page-Rank-Algorithmus berechnet (siehe Aufgabe 8.11c). Eingabeparameter sind die gewichtete Adjazenzmatrix B ∈ R(n,n) einer Netzstruktur und der Wichtungsfaktor 0 < ω < 1. Das Programm soll so viele Iterationen durchführen, bis kMxk − xk k1 < 10−10 für die k-te Iterierte xk = M k x0 gilt. Überprüfen Sie Ihr Programm anhand des Beispiels aus Aufgabe 8.10c). Aufgabe 8.13 (T) Man arbeite Bemerkungen 8.27 2) und 3) aus.

884

8 Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression Datenerfassung und -speicherung geschieht heute in den verschiedensten Anwendungsbereichen in digitaler Form, die moderne Medien- und Computertechnik ist somit auf die Verarbeitung und Komprimierung erheblicher digitaler Datenmengen angewiesen. Dies erfordert typischerweise Speicherkapazität, aber oftmals auch die Möglichkeit zur Verarbeitung der Daten in Echtzeit. Zur Nutzung der enormen Datenmengen sind Analyse- und Kompressionsverfahren essentiell, etwa explizit zur Archivierung von Dateien, oder auch implizit bei Verwendung von Standarddateiformaten zur Audio-, Bild- oder Videokodierung. Auch hier spielen die Methoden der Linearen Algebra eine grundlegende Rolle. Wir greifen zunächst die Ergebnisse von Abschnitt 4.1 zum Basiswechsel nochmals auf. Sei U ein n-dimensionaler K-Vektorraum über einen Körper K. Gegeben seien: u1 , . . . , un ∈ U : die „alte“ Basis. w1 , . . . , wn ∈ U : die „neue“ Basis. Dann gibt es eindeutige aij ∈ K, so dass wi =

n X

j

für alle j = 1, . . . , n ,

ai u j

j=1

d. h. für die Matrix A = (aij )i, j ∈ K (n,n) gilt für u=

n X

x i ui =

i=1

n X

y i wi

i=1

und x := (xi )i , y := (yi ) ∈ K n : Ay = x . Wir werden sehen, dass die Wahl einer speziellen Basis w1 , . . . , wn Vorteile liefern kann. Der Schritt A−1

x 7→ y wird dann als Analyse (bezüglich der Basis w1 , . . . , wn bezeichnet), der Schritt   n  X  A  y 7→ x 7→ xi ui  i=1

wird als Synthese bezeichnet. In dieser Form durchgeführt, handelt es sich um äquivalente Darstellungen in n Parametern mit gleichem „Informationsgehalt“, der aber je nach Basiswahl mehr oder weniger offensichtlich sein kann. Wenn n (sehr) groß ist, ist eine Approximation in einem

8.3 Datenanalyse, -synthese und -kompression

885

k-dimensionalen Raum mit k ≪ n, anzustreben, um das „Signal“ u besser zu speichern, bearbeiten und transportieren zu können. Dies kann am Einfachsten durch „Abschneiden“, d. h. durch Projektion auf Uk := span{w1 , . . . , wk } , geschehen. Der dann noch enthaltene „Informationsgehalt“ bzw. die Größe des Fehlers wird stark von der Wahl der Basis w1 , . . . , wn abhängen. Diesen Schritt, d. h. A−1

P

A

x 7→ y 7→ yˆ = (y1 , . . . , yk ) (7→ xˆ =

n X

x i ui ) ,

i=1

wobei xˆ = (x1 , . . . , xn )t , bezeichnet man als Kompression. Man beachte, dass für allgemeine Transformationen der Analyse-Schritt (Lösen eines LGS mit A) aufwändiger ist als der Synthese-Schritt (Multiplikation mit A). Dies ist nicht der Fall, wenn die Spalten von A orthogonal sind wie in den beiden folgenden Beispielen. Seien nun Basen u1 , . . . , un , w1 , . . . , wn gewählt, und sei  t   t e := A−1 = e A a1 , . . . , e atn ∈ K (n,n) mit den Zeilen e ai ∈ K (1,n) , i = 1, . . . , n , dann n X e u= ai · x wi . (8.51) i=1

Die neue Basis sei so, dass die Spalten von A orthogonal sind in dem Sinne ati a j = δi, j kai k22

für i, j = 1, . . . , n ,

dann ist

d. h. und aus (8.51) ergibt sich damit

e = A−1 = diag(1/kai k22 )At , A e ai = ati /kai k22 , u=

n X i=1

i = 1, . . . , n

1 t a x wi . kai k22 i

(8.52)

Sei U = K n und u1 , . . . , un die Einheitsbasis, d. h. die Spalten von A entsprechen genau wi : A = (w1 , . . . , wn ) , dann wird aus (8.51) u=

n X i=1

e ai · u wi

und

 t t (w1 , . . . , wn )−1 = e a1 , . . . , e atn ,

886

8 Einige Anwendungen der Linearen Algebra

und wenn w1 , . . . , wn eine ONB ist für K = K, d. h. A−1 = A† und damit e ai = ati = wi t , i = 1, . . . , n, dann ergibt sich u=

n X i=1

hu . wi i wi ,

d. h. die aus Kapitel 1.5 bekannte (Fourier-)Darstellung bezüglich einer ONB.

8.3.1 Wavelets Betrachte V = S 0 (∆) auf einer Zerlegung ∆ : a = x0 < x1 < . . . < xn = b, den ndimensionalen Raum der Treppenfunktionen oder Histogramme. In (1.34) wurde dafür die Basis     1, x ∈ [xi−1 , xi ) fi (x) =  , für i = 1, . . . , n − 1,   0, x sonst (8.53)    1, x ∈ [xn−1 , xn ] fn (x) =   0, x sonst . eingeführt. Diese Basis ist bezüglich des L2 -inneren Produkts auf V orthogonal, da für die Träger der Basisfunktionen gilt: supp fi ∩ supp f j ist höchstens einelementig für i , j ,

(8.54)

wobei supp f := cl{x ∈ D : f (x) , 0} für eine Abbildung f : D → R, D ⊂ Kn . Funktionen in V sind deswegen leicht bezüglich f1 , . . . , fn darstellbar, aber diese Basis ist nicht für eine Kompression geeignet. Dies ist anders bezüglich der Wavelet-Basis (aufgebaut auf das Haar-Wavelet 10 ): Wir beginnen mit dem Beispiel n = 4. Die Basis ist dann gegeben durch Abbildung 8.6. Die Skalierung ist dabei so gewählt, dass in der L2 -Norm auf [a, b]: kgi k2 = (b − a), i = 1, . . . , 4 . 10

Alfréd Haar ∗11. Oktober 1885 in Budapest †16. März 1933 in Szeged

8.3 Datenanalyse, -synthese und -kompression

887

g1 :

1

a

g2 :

b

)

1

a

b −1

g3 :

)

1

22

a )

1

−2 2 g4 :

b

)

1

22

) a

b

1

−2 2

Abb. 8.6: Wavelet-Basis g1 , . . . , g4 .

Man sieht folgende Eigenschaften: gi ∈ V für i = 1, . . . , 4 und {g1 , . . . , g4 } ist orthogonal bezüglich des L2 -inneren Produkts, aber i. Allg. nicht normiert und damit ist {g1 , . . . , g4 } linear unabhängig, d. h. eine Basis von V. Dabei ist g2 das Haar-Wavelet. Es gilt aber nicht die Lokalität nach (8.54). Vielmehr gibt g1 eine „Hintergrundinformation“ an, auf die g2 und dann g3 und g4 weitere Detailinformation aufsetzen. Allgemein sei ∆k eine Zerlegung von [a, b] in n Teilintervalle, wobei n = 2k für ein k ∈ N und ∆k aus ∆k−1 durch Einführung von weiteren 2k−1 Teilungspunkten in die Teilintervalle hervorgeht. Halbiert man insbesondere fortwährend und betrachtet o. B. d. A. [a, b] = [0, 1], so erhält man

888

8 Einige Anwendungen der Linearen Algebra

∆k = { jhk | j = 0, . . . , 2k } mit hk := 2−k . Sei Vk := S 0 (∆k )

(8.55)

der zugehörige Raum der Treppenfunktionen. Nun betrachte man k = 0, 1, . . . , p. Auf diese Weise ist eine ganze Skala von Funktionenräumen definiert worden: V0 ⊂ V1 ⊂ . . . V p . Die Basisfunktionen für Vk aus (8.53) lassen sich mit Hilfe der charakteristischen Funktion von [0, 1], in diesem Zusammenhang auch Skalierungsfunktion oder Vater-Wavelet genannt,    1, 0 ≤ x < 1 (8.56) χ(x) = χ[0,1] (x) =   0, sonst wie folgt darstellen: In der Doppelindizierung k = 0, . . . , p und j = 0, . . . , 2k − 1 sei e fk, j (x) = χ(2k x − j) ,

dann entsprechen f1 , . . . , fn für n = 2k und ∆k wie in (8.55) e fk,0 , . . . , e fk,n−1 (mit irrelevanter e Abweichung fn (1) = 1, fk,n−1 (1) = 0). Durch die Normierung fk, j (x) = 2k/2 χ(2k x − j)

wird erreicht, dass in der L2 -Norm auf [0, 1] k fk, j k2 = 1 . Äquivalent ist die Darstellung fk,0 (x) = 2k/2 χ(2k x) fk, j (x + jhk ) := fk,0 (x)

)

k = 0, . . . , p , j = 0, . . . , 2k − 1 .

(8.57)

Ausgehend von χ werden die Basisfunktionen dementsprechend durch Stauchung (x 7→ 2k x) und durch Translation nach rechts (x 7→ x + jhk ) gebildet. Alternativ lässt sich eine Basis auch hierarchisch aufbauen, d. h. liegt eine Basis von Vk vor, so kann diese durch Wahl eines direkten Komplements Wk , d. h. Vk+1 = Vk ⊗ Wk , und einer Basis von Wk zu einer Basis von Vk+1 ergänzen. Auf diese Weise wird erreicht, die „niederfrequenten“ Funktionen Vk stärker von den „höherfrequenten“ Funktionen Wk zu trennen. Zum Beispiel ist

8.3 Datenanalyse, -synthese und -kompression

889

V0 = span( f0,0 )

( f0,0 = χ)

(8.58)

ergänzbar mit W0 := span(g0,0 ) , wobei analog zu (8.57) gk,0 (x) := 2k/2 ψ(2k x) gk, j (x + jhk ) := gk,0 (x)

)

k = 0, . . . , p j = 0, . . . , 2k − 1

(8.59)

und V1 mit W1 := span(g1,0 , g1,1 ) . Dabei ist    1, 0 ≤ x ≤ 1/2     ψ(x) :=  −1, 1/2 < x ≤ 1      0, sonst,

(8.60)

das Haar-Wavelet (Wavelet = Ondelette = kleine Welle) und man erhält für V2 = V0 ⊕ W0 ⊕ W1 die oben angegebene Basis {g1 , . . . , g4 }. Damit allgemein Wk := span(gk, j : j = 0, . . . , 2k−1 ) ⊂ Vk+1 gilt, muss ψ ∈ S 0 (∆) mit ∆ = { j/2 : j ∈ Z} gewählt werden. Allgemein gilt: Satz 8.28: Wavelet-Basis von S 0 (∆) Die Räume Vk , k = 0, . . . , p, (nach (8.55)) werden mit dem inneren Produkt h f . gi :=

Z

1

f (x)g(x)dx 0

betrachtet. Es seien fk, j und gk, j , k = 0, . . . , p, j = 0, . . . , 2k −1 wie in (8.57) und (8.59) definiert. Dann gilt: 1) Mk := { fk, j : j = 0, . . . , 2k − 1} ist eine ONB von Vk .

2) Sei Nk := {gk, j : j = 0, . . . , 2k − 1}, dann ist Wk := span(Nk ) = Vk⊥ bezüglich Vk+1 und Nk ist eine ONB von Wk .

Beweis: Es gilt supp( fk, j ) = supp(gk, j) = [ jhk , ( j + 1)hk ] und damit berühren sich diese Intervalle für j , j′ in höchstens einem Punkt, so dass das Integral der Produktfunktionen

890

8 Einige Anwendungen der Linearen Algebra

verschwindet, damit D

E D E E D fk, j . fk, j′ = gk, j . gk, j′ = fk, j . gk, j′ = 0

für j , j′ , j, j′ ∈ {0, . . . , 2k − 1}. Weiter gilt D

D

E Z fk, j . fk, j = E

gk, j . gk, j =

D

E

fk, j . gk, j =

Z

Z

( j+1)2−k j2−k ( j+1)2−k j2−k ( j+1)2−k j2−k

2k (χ(2k x − j))2 dx = 2

2 (ψ(2 x − j)) dx = k

k

Z

1

χ2 (x)dx = 1

0

Z

1

ψ2 (x)dx = 1

0

2 χ(2 x − j)ψ(2 x − j)dx = k

k

k

Z

1

χ(x)ψ(x)dx = 0 .

0

Folglich gilt 1), Nk ist eine ONB von Wk und Wk ⊂ Vk⊥ . Da dim Vk+1 = 2k+1 = dim Vk + 2k und dim Wk = 2k folgt schließlich Wk = Vk⊥ .



Neben der Standardbasis Mk+1 hat folglich Vk+1 auch die Zweiskalenbasis Mk ∪ Nk , d. h. Vk+1 = span(Mk ∪ Nk ) , die eine Zerlegung von f ∈ Vk+1 bezüglich des „feinen“ Gitters ∆k+1 darstellt in einen Trend fk ∈ Vk und eine Fluktuation gk ∈ Wk bezüglich des „groben“ Gitters ∆k . Da rekursiv ∆k als das „feine“ und ∆k−1 als das „grobe“ Gitter betrachtet werden kann, kann die Zerlegung fortgesetzt werden, wodurch für V p mit M0 ∪ N0 ∪ . . . ∪ N p−1 eine Multiskalenbasis erhältlich ist, die Haar-Basis in S 0 (∆ p ).  In der Haar-Basis kann ein f ∈ L2 [0, 1], R i. Allg. effizienter als in der Standardbasis von V p , d. h. mit weniger Basisfunktionen, approximiert werden. Zum Beispiel für f = χ[a,b] setze a p := sup{x ∈ ∆ p : x ≤ a}, b p := inf{x ∈ ∆ p : x ≥ b} , dann erfüllt f p := χ[a p ,b p ] in der L2 -Norm auf [0, 1]: k f − f p k22 ≤ |a − a p | + |b − b p | ≤ 2 · 2−p .

8.3 Datenanalyse, -synthese und -kompression

891

Zur Darstellung von f p werden die Basisfunktionen gebraucht, die nicht orthogonal sind zu f p , d. h. in der Standardbasis alle f p, j , j = l, . . . , m mit l2−p = a p , m2−p = b p , im Extremfall also alle Basisfunktionen. In der Haar-Basis sind es dagegen nur f0,0 und höchstens zwei weitere Elemente von N0 ∪ . . . ∪ N p−1 (unabhängig von |b − a|), wie der obige Transformationsprozess zeigt. Für k = 2 (n = 4) wurde oben eine Wavelet-Basis angegeben. Die Darstellungsmatrix der Transformation ist dann   0   1 1 21/2  1 1 −21/2 0   A =   1 −1 0 21/2  1 −1 0 −21/2

und

At A = diag(kai k22 ) = diag(4, 4, 4, 4) und damit

A−1

 1  1 1  1 1 =  1/2 1/2 4  2 −2 0 0

 1 1   −1 −1   . 0 0  21/2 −21/2

Man beachte, dass die durch die erste Zeile von A−1 gegebene Skalarmultiplikation, d. h. die der Bildung des Koeffizienten zur ersten Waveletbasisfunktion entspricht, gerade das arithmetische Mittel der Werte darstellt. Sei allgemein Ak ∈ K (n,n) , n = 2k die Darstellungsmatrix der Transformation für k, dann ergibt sie sich für k + 1 und damit die Wavelet-Basis durch Ak+1 = (b1 , c1 , b2 , . . . , bn , c2 , . . . , cn ) ∈ K(2n,2n) , mit ! ! 0 21/2 ai t t b1 = (1, . . . , 1) , c1 = (1, . . . , 1, −1, . . . , −1) , bi = , ci = 1/2 , i = 2, . . . , n , | {z } | {z } 0 2 ai 2k =n

2k

wobei a1 , . . . , an die Spalten von Ak darstellen. Auch hier gilt wieder   −2 −2 t A−1 k = diag ka1 k2 , . . . , kan k2 Ak und

kai k22 = n,

i = 1, . . . , n .

Es ist zu erwarten, dass für großes n das Weglassen von Basisfunktionen mit kleinem Träger wenig Einfluss auf den „Informationsgehalt“ hat und sich daher eine solche Kompression anbietet. Auch der Basiswechsel kann hierarchisch vollzogen werden und damit braucht A p bzw. A−1 p gar nicht aufgebaut zu werden. Es gilt:

892

8 Einige Anwendungen der Linearen Algebra

21/2 fk, j = fk+1,2 j + fk+1,2 j+1 , 2

1/2

(8.61) (8.62)

gk, j = fk+1,2 j − fk+1,2 j+1 ,

folglich ! 1 fk, j = 1/2 gk, j 2

1 1 1 −1

!

fk+1,2 j fk+1,2 j+1

!

.

Sei A−1 loc

1

=

21/2

! 1 1 , 1 −1

dann ist Aloc = A−1 loc und damit auch fk+1,2 j fk+1,2 j+1

!

= Aloc

! fk, j . gk, j

(8.63)

Somit transformiert sich f ∈ Vk+1 , n := 2k aus f =

2n−1 X

ξk+1, j fk+1, j

j=0

in die Zweiskalenbasis f =

n−1 X

ξk, j fk, j + ηk, j gk, j

j=0

durch ! ! ξk+1,2 j ξk, j = Aloc ξk+1,2 j+1 ηk, j

(8.64)

für k = p − 1, . . . , 0, j = 0, . . . , 2k − 1 und durch sukzessive Anwendung dieser Transformation auf den „Trendanteil“. So kann die (Haar-)Wavelettransformation (d. h. die Koeffizienten bezüglich der Haar-Basis) aufgebaut werden durch sukzessive Berechnung der ηk, j mittels (8.64). Dies P p−1 benötigt k=0 2 2k ≈ 2 p+1 = 2 dim V p Elementaroperationen (Addition + Multiplikation) im Gegensatz zur Größenordnung (dim V p )2 bei einem nicht-rekursiven Aufbau. Wir haben hiermit eine schnelle Wavelet-Transformation. Die inverse Transformation (d. h. die Anwendung von A) ergibt sich direkt aus (8.63).

8.3 Datenanalyse, -synthese und -kompression

893

Theorem 8.29: Schnelle Wavelet-Transformation Im Raum der Treppenfunktion V p := S 0 (∆ p ) nach (8.55) kann der Übergang von der Standardbasis (8.57) zur hierarchischen Basis (8.58), (8.59), die auf das Haar-Wavelet (8.60) und die Skalierungsfunktion (8.56) aufbaut, durch rekursive Rückführung auf die Berechnung der Trendanteile Vl auf immer gröberen Gittern ∆l , l < p mittels (8.64) erfolgen. Diese schnelle Wavelet-Transformation benötigt O(dim V p ) Elementaroperationen.

8.3.2 Diskrete Fourier-Transformation In Theorem 7.66 ff. wurde die Fourier-Analyse einer Funktion f ∈ L2 ([0, 2π], K) als Darstellung einer 2π-periodischen Funktion auf R (dort das um −π verschobene  Intervall  ∈ l2 (K), [−π, π]) angedeutet, d. h. der Übergang zur Darstellung im Frequenzraum f (n) n∈Z wobei Z 2π 1 f (k) := f (x)e−ikx dx, k ∈ Z (2π)1/2 0   und die Rekonstruktion von f aus f (n) durch n

f (t) =

X

f (n)

n∈Z

1 eint , t ∈ [0, 2π] (2π)1/2

(Konvergenz in L2 ([0, 2π], K)). Im Allgemeinen kann ein „Signal“ f nur zu diskreten „Zeitpunkten“ t j gemessen werden. Statt einer 2π-periodischen Funktion f (∈ L2 ([0, 2π], K)) wird daher eine diskrete Messung (Sampling) ( f0 , . . . , fN−1 )t ∈ CN betrachtet, d. h. fi entspricht/approximiert f (t j ), t j :=

2π j N ,

j = 0, . . . , N − 1 .

Man beachte dann wegen der Periodizität fN = f0 , fN+1 = f1 , . . . Sei N gerade: N = 2n. Der SONB nach Satz 7.74

fk (x) =

1 exp(ikx), k ∈ Z (2π)1/2

(8.65)

894

8 Einige Anwendungen der Linearen Algebra

entsprechen in der Diskretisierung (·(2π)1/2) f k ∈ CN , fk, j = exp(ikt j ),

j = 0, . . . , N − 1, k = 1 − n, . . . , n .

Die Fourier-Koeffizienten werden in der Diskretisierung, d. h. durch Integration von e f ∈ S 0 (∆), ∆ := {t j : j = 0, . . . , N}, e f [t j , t j+1 ) = f (t j ) =: f j für j = 0, . . . , N − 1

(wobei die Stetigkeit von f vorausgesetzt werden muss) zu e f (k) =

N−1 N−1 1 2π X −ikt j (2π)1/2 X −ikt j (2π)1/2 ˆ f e = f je =: f (n) j 1/2 N N (2π) N j=0 j=0

für k ∈ Z. Also gilt näherungsweise durch Abschneiden der Fourier-Reihe f (tl ) ∼

n X

k=1−n

e f (k)

n 1 X ˆ 1 iktl f (k)eiktl e = N k=1−n (2π)1/2

für l = 0, . . . , N − 1 .

(8.66)

Diese als Approximation der kontinuierlichen Fourier-Koeffizienten und -Reihen erhaltene Beziehung gilt diskret tatsächlich exakt: Definition 8.30 Für ein allgemeines f = ( f j ) j=0,...,N−1 ∈ CN , N = 2n, t j nach (8.65) bezeichnet man fˆ = fˆ(k)k=1−n,...,n ∈ CN mit fˆ(k) :=

N−1 X

f j e−ikt j ,

k = 1 − n, . . . , n

j=0

(8.67)

als die diskrete Fourier-Transformation (DFT) von f und fˆ(k) heißt diskreter Fourier-Koeffizient. fl =

n 1 X ˆ f (k)eiktl , N k=1−n

l = 0, . . . , N − 1

(8.68)

heißt die inverse diskrete Fourier-Transformation (IDFT). Ohne Rückgriff auf die Fourier-Entwicklung einer Funktion f kann man V = CN mit f = ( f0 , . . . , fN−1 )t ∈ V mit dem inneren Produkt h f . gi :=

1 N

PN−1 j=0

f jg j

(8.69)

8.3 Datenanalyse, -synthese und -kompression

895

versehen, was (bis auf den Faktor (2π)1/2) die oben beschriebene Diskretisierung des L2 inneren Produkt ist und stellt fest für die Vektoren: f k ∈ CN mit fk, j := eikt j

j, k = 0, . . . , N − 1 .

(8.70)

Satz 8.31 Die f 0 , . . . , f N−1 nach (8.70) bilden eine ONB von CN bezüglich h . i nach (8.69).

Beweis:

Folglich für k , l



N−1 N−1 1 X ikt j −ilt j 1 X  i(k−l) 2π  j N . e e = e fk . fl = N j=0 N j=0



N−1 1 X j fk . fl = q N j=0

=



für q = ei(k−l) N , 1

1 1 − qN 1 1 − ei(k−l)2π = =0 N 1−q N 1−q

und für k = l

N−1 1 X fk . fk = 1=1. N j=0



Bemerkungen 8.32 1) Es kann auch eine „unendliche“ Folge f k ∈ CN

für k ∈ Z

nach (8.70) definiert werden, d. h. fk, j := eikt j , j = 0, . . . , N − 1, k ∈ Z , für die dann gilt f k+lN = f k da

für l ∈ Z, k = 0, . . . , N − 1 ,

(8.71)

896

8 Einige Anwendungen der Linearen Algebra 2π



ei(k+lN) N j = eik N j . Die höheren Frequenzen werden somit auf dem zugrunde liegenden Gitter t j , j = 0, . . . , N− 1 nicht mehr wahrgenommen. 2) Für N = 2n, n ∈ N kann dann f 0 , . . . , f N−1 umgeschrieben werden zu (l = −1 für f n+1 , . . . , f N−1 ) f 0 , . . . , f n , f 1−n , . . . , f −1 und entsprechend die Entwicklungskoeffizienten zu dieser ONB von

zu



f . f 0 , . . . , f . f N−1







f . f 1−n , . . . , f . f −1 , f . f 0 , . . . , f . f n .

3) Daher sind die N1 fˆ(k), k = 1 − n, . . . , n, fˆ(k) nach (8.67), die (diskreten) FourierKoeffizienten von f bezüglich f k , k = n + 1, . . . , N − 1, 0, . . . , n nach (8.70) und (8.68) ist die Basisdarstellung von f mittels der f k . Die DFT stellt den Analyse-Schritt und die IDFT den Synthese-Schritt dar, die also in diesem Sinn invers sind. △ Satz 8.33: Synthese-Schritt Sei N = 2n, n ∈ N. Die diskrete Fourier-Transformation von f ∈ CN , fˆ ∈ CN ergibt sich aus der Darstellung von f in der ONB nach (8.70), angeordnet als (8.72)

f 1−n , . . . , f 0 , . . . , f n über

f=

Pn

1 k=1−n N

fˆ(k) f i .

Bemerkungen 8.34 1) Allgemein stellt p(t) : =

Pk

k=k

αk eikt =

Pk

k=k

αk (eit )k

(8.73)

ein trigonometrisches Polynom dar, d. h. ein Polynom in der Variable eit (man denke sich die Summanden für negative Indizes analog zu Bemerkungen 8.32, 2) zu positiven Indizes transformiert). Wenn für N = 2n gilt

8.3 Datenanalyse, -synthese und -kompression

897

f j = f (t j ),

j = 0, . . . , N − 1 ,

für ein f ∈ C([0, 2π], K), dann kann die DFT bzw. die ONB-Entwicklung als trigonometrische Interpolation f (tl ) =

n 1 X ˆ f (k)eiktl , N k=1−n

l = 0, . . . , N − 1

interpretiert werden. Setzt man ρlN := ei2πl/N ,

l = 0, . . . , N − 1 ,

für die N-ten Einheitswurzeln (siehe Satz B.32), dann stellt die DFT die explizite Lösung der komplexen Interpolationsaufgabe Gesucht al ∈ C, l = 0, . . . , N − 1, so dass p ∈ CN−1 [z], p(z) = f (tl ) = dar.



1−n ρlN

N−1 X

αl zl ,

l=0

  p ρlN

2) Nimmt man in (8.73) weniger Summanden, etwa pn (t) =

n X

αk eikt

k=−n

für n < N/2, so wird man mit den orthogonalen Vektoren f −n , . . . , f n ein beliebiges f ∈ Cn nicht darstellen können (d. h. die trigonometrische Interpolationsaufgabe ist nicht lösbar). Durch Wahl der αk als die diskreten Fourier-Koeffizienten erhält man aber gerade die Orthogonalprojektion von f auf span( f −n , . . . , f n ). △ Sei wieder N = 2n, n ∈ N. Sei −2πi/N . ω := ωN := ρ−1 N =e

(8.74)

ω ∈ C ist eine N -te Einheitswurzel (siehe Satz B.32). Alle N N-ten Einheitswurzeln ergeben sich als ω0 , ω, . . . , ωN−1 . In dieser Notation ist  0   ω    .  . f k =  ..  k(N−1)  ω

898

8 Einige Anwendungen der Linearen Algebra

Die diskrete Fourier-Transformation lässt sich dann schreiben als fˆ = F f , wobei F = F N ∈ C(N,N) definiert ist als die symmetrische Matrix Fk, j := ωk j ,

k, j = 0, . . . , N − 1 .

(8.75)

F heißt auch Fourier-Matrix . Da nach Satz 8.31 im euklidischen inneren Produkt gilt

f k . f l = Nδk,l ,

sind die Spalten von F orthogonal, deswegen F † F = N 1 und damit F −1 =

1 † F . N

Damit ergibt sich die inverse diskrete Fourier-Transformation f = F −1 fˆ wegen der Symmetrie von F durch f =

1 ˆ Ff , N

so dass beide Transformationen eine schnelle Auswertung der Matrixmultiplikation mit F brauchen. Eine solche Schnelle Fourier-Transformation (Fast Fourier Transform: FFT) wurde von J. Cooley11 und J. W. Tukey12 1965 entwickelt, siehe Cooley und Tukey 1965. Vorformen gehen aber schon auf C. F. Gauss (1805) und C. Runge13 (1903) zurück. Sei zur Verdeutlichung die Fourier -Matrix mit F N bezeichnet, wenn N die Dimension ist (d. h. F N ∈ C(N,N) ). Beim Ansatz von Cooley und Tukey wird für gerades N, N = 2m, die Operation F2m y im Wesentlichen auf zwei Operationen Fme y zurückgeführt, was dann rekursiv ausgenutzt werden kann. Genauer: Sei N = 2m für m ∈ N und y := F2m f für f ∈ CN . Dann gilt für k = 0, . . . , m − 1 mit ρkn nach (B.18):

11 12 13

James Cooley ∗1926 John Wilder Tukey ∗16. Juni 1915 in New Bedford †26. Juli 2000 in New Brunswick Carl David Tolmé Runge ∗30. August 1856 in Bremen †3. Januar 1927 in Göttingen

8.3 Datenanalyse, -synthese und -kompression

y2k =

2m−1 X

f j ω22mjk =

j=0

=

m−1  X j=0

2m−1 X

899

jk f j ρ−2 2m =

j=0

2m−1 X

f j ρ−m jk =

j=0

 f j + f j+m ρ−m jk =

m−1 X

m−1 X

−( j+m)k f j ρ−m jk + f j+m ρm

j=0

Fk, j ( f j + f j+m )

j=0

mit Fm = (Fk, j )k, j ∈ C(m,m) und analog y2k+1 =

2m−1 X j=0

=

m−1  X j=0

− j(2k+1) f j ρ2m =

2m−1 X

f j ρ−2mj ρ−m jk =

j=0

 − j − jk f j − f j+m ρ2m ρm =

m−1 X

− j−m − jk f j ρ−2mj ρ−m jk + f j+m ρ2m ρm

j=0

m−1 X j=0

−j

Fk, j ρ2m ( f j − f j+m ) ,

jeweils mittels Satz B.32, demgemäß    y0   y   2   .   ..  ! !   F 0 1 1 Py :=  y2m−2  = m f 0 Fm D2m −D2m  y1     ..   .    y2m−1

(8.76)

 −j  mit D2m := diag ρ2m = diag(ω j ) j=0,...,m−1 . Dadurch wird y = F2m f auf 2m Addij=0,...,m−1 tionen, 2m Multiplikationen, eine Umsortierung von Py zu y und 2 Anwendungen von Fm zurückgeführt, infolge dessen: Hauptsatz 8.35: Schnelle Fourier-Transformation (FFT) Sei N = 2k , k ∈ N, dann kann für f ∈ CN die Multiplikation mit der FourierMatrix F N dadurch ausgeführt werden, dass rekursiv (8.76) angewendet wird. Der Aufwand in Elementaroperationen ist A(N) ≤ 3N log2 N .

Beweis: Nach den obigen Überlegungen gilt N A(N) ≤ 2N + 2A 2

!

900

8 Einige Anwendungen der Linearen Algebra

und auch A(2) ≤ 6. Mithin gilt bei einem Induktionsbeweis für N = 2k über k der Induktionsanfang k = 1 und der Induktionsschluss folgt wegen     A 2k+1 ≤ 2 2k+1 + 2 3 2k log2 2k = 3 2k+1(1 + k) = 3 2k+1 log2 2k+1 .



Die Schnelle Fourier-Transformation ist nach dem rekursiven Cooley-Tukey-Algorithmus in Algorithmus 8 realisiert, siehe Cooley und Tukey 1965. f muss hierbei die Länge N = 2n mit n ∈ N besitzen, genauer ist fftCT eine Abbildung von C(N,1) nach C(N,1) : Algorithmus 8 (Schnelle Fourier-Transformation (FFT)) function y = fftCT (f) N = length(f); if N == 2 % trivialer Fall y = [f(1) + f(2); f(1) - f(2)]; else % halbiere f und berechne (rekursiv) FFT omega = exp (-2*pi*1i/N); % Basisfunktionen D = diag (omega .^((0 : N/2 - 1) ’)); E = eye(N/2); f = [E, E; D, -D]*f; % nach (8.76) Py = [fftCT (f(1:N/2)); fftCT (f(N/2+1: end))]; % nach (8.76) y = Py(kron (N/2 + 1 : N, [0, 1]) + kron (1 : N/2, [1, 0])); end

Aufgaben

901

Aufgaben Aufgabe 8.14 (K) Verifizieren Sie die Identitäten (8.61) und (8.62). Aufgabe 8.15 (K) Auf dem Raum V2 = S 0 (∆2 ) der Treppenfunktionen über dem Intervall [0, 1] soll der Basiswechsel von der Basis M2 = { f2,0 , f2,1 , f2,2 , f2,3 } in die Zweiskalenbasis M1 ∪ N1 = { f1,0 , f1,1 , g1,0 , g1,1 } untersucht werden, wobei die Funktionen fk, j und gk, j wie in (8.57) bzw. (8.59) definiert seien. a) Skizzieren Sie die Basisfunktionen der Zweiskalenbasis M1 ∪ N1 . b) Bestimmen Sie die Übergangsmatrix A des Basisübergangs und zeigen Sie, dass A−1 = At gilt. P c) Stellen Sie die Funktion χ[0,1] (x) = 3k=0 12 f2,k (x) in der Zweiskalenbasis M1 ∪ N1 dar (i) durch Multiplikation mit A−1 , (ii) unter Verwendung der schnellen Wavelet-Transformation (8.64)

und vergleichen Sie die Anzahl der jeweils benötigten Rechenoperationen. Aufgabe 8.16 (T) Es sei N = 2 p , p ∈ N und C ∈ C(N,N) eine zirkulante Matrix, d. h.   c0 c  N−1  C =  ...   c2  c1

c1 . . . c0 c1 .. .. . . . . . cN−1 c2 . . .

 cN−2 cN−1   . . . cN−2   ..  . .. . .   c0 c1  cN−1 c0

Sei weiter F N die N-dimensionale Fourier-Matrix  0  ω ω0 . . . ω0  ω0 ω1 . . . ωN−1    2 2(N−1)   0  F N = ω ω . . . ω  ∈ C(N,N) ..  .. ..  .. .  . .  . 0 N−1 (N−1)2  ω ω ... ω

mit den Einheitswurzeln ω = e−i2π/N . Man beweise, dass dann gilt: CF N† = F N† D mit D = diag(λi )i=0,...,N−1 , wobei λi die Eigenwerte von C sind. Daraus schließe man, dass die Eigenwerte einer zirkulanten Matrix durch eine Fourier-Transformation ihrer ersten (konjugiert komplexen) Spalte berechnet werden können.

902

8 Einige Anwendungen der Linearen Algebra

8.4 Lineare Algebra und Graphentheorie Zwischen Linearer Algebra und Graphentheorie besteht insofern ein enger Zusammenhang, als dass gewisse Eigenschaften von Matrizen graphentheoretisch formuliert und behandelt werden können und andererseits auch graphentheoretische Fragen als Matrixprobleme gefasst werden können. Dabei besteht ein (gerichteter) Graph aus einer endlichen Menge von Knoten, die durch (gerichtete) Kanten verbunden sein können, genauer:

Definition 8.36 Ein (endlicher) gerichteter Graph auf V ist ein Tupel (V, E), wobei V eine (endliche) Menge, die Menge der Knoten (vertices), und E ⊂ V × V die Menge der Kanten (edges) ist. Für eine Kante e = (v1 , v2 ) heißt v2 benachbart zu v1 und v1 der Vorgänger von v2 bzw. v2 der Nachfolger zu v1 , v1 heißt Ausgangsknoten von e bzw. v2 Zielknoten von e. Bemerkung 8.37 1) (v1 , v2 ) ∈ E zieht nicht notwendig (v2 , v1 ) ∈ E nach sich. (v, v) ∈ E für gewisse v ∈ V, so genannte Schleifen, sind erlaubt. Treten keine Schleifen auf, heißt der gerichtete Graph schleifenfrei. 2) Neben gerichteten Graphen gibt es u. a. auch ungerichtete Graphen , bei denen die Kantenmenge durch E ⊂ {{v1 , v2 } : v1 , v2 ∈ V, v1 , v2 } repräsentiert wird, demzufolge nicht zwischen den Kanten (v1 , v2 ) und (v2 , v1 ) unterschieden wird. Ein ungerichteter Graph kann als spezieller gerichteter Graph aufgefasst werden, für den nämlich gilt: (v1 , v2 ) ∈ E ⇒ (v2 , v1 ) ∈ E

für alle

v1 , v2 ∈ V ,

um dann (v1 , v2 ) und (v2 , v1 ) zu identifizieren.



Die konkrete Wahl der Knotendarstellung ist für die folgenden Aussagen irrelevant, d. h. zwei gerichtete Graphen (V, E) und (V ′ , E ′ ) werden als gleich angesehen, wenn eine bijektive Abbildung ϕ : V → V′ existiert, so dass (v′1 , v′2 ) ∈ E ′ ⇔ Es gibt v1 , v2 ∈ V mit (v1 , v2 ) ∈ E, v′i = ϕ(vi ), i = 1, 2 .

(8.77)

O. B. d. A. kann somit bei einem endlichen gerichteten Graph, wie sie im Folgenden nur betrachtet werden sollen, V = {1, . . . , n}

8.4 Lineare Algebra und Graphentheorie

903

gesetzt werden. Damit sind noch Umnummerierungen möglich. Diese sind zwar für die folgenden Aussagen nicht essentiell, verändern aber mit Graphen assoziierte Matrizen (s. u.), so dass wir definieren: Definition 8.38 Seien (V, E), (V ′ , E ′ ) gerichtete Graphen. V und V ′ seien jeweils mit einer totalen Ordnung versehen, die unterschiedslos mit ≤ bezeichnet wird. (V, E) und (V ′ , E ′ ) heißen isomorph , wenn es eine bijektive Abbildung ϕ : V → V ′ gibt, die ordnungserhaltend ist (d. h. v1 ≤ v2 ⇒ ϕ(v1 ) ≤ ϕ(v2 )) und so (8.77) gilt. Wir setzen daher voraus, dass die Knotenmenge immer mit einer Ordnung versehen ist und identifizieren sie bei einem endlichen Graphen im Sinn dieser Ordnung mit {1, . . . , n} für ein n ∈ N. Im Folgenden ist Eindeutigkeit eines Graphen immer bis auf Isomorphie zu verstehen. Einem gerichteten Graphen kann auf zwei Arten eine beschriebene Matrix zugeordnet werden: Definition 8.39 Sei (V, E) ein endlicher gerichteter Graph, die Knoten seien gemäß ihrer Ordnung nummeriert: v1 ≤ . . . ≤ vn für ein n ∈ N. A = (ai, j ) ∈ R(n,n) , definiert durch    1 , falls (vi , v j ) ∈ E ai, j =   0 , sonst ,

heißt dann die Adjazenzmatrix oder Nachbarschaftsmatrix zu (V, E). Sei andererseits A ∈ R(n,n) eine beliebige Matrix. Durch    1 , falls ai, j , 0 b ai, j :=   0 , sonst

b = (b wird A eine Adjazenzmatrix A ai, j) ∈ R(n,n) zugeordnet und damit ein Adjazenzgraph . Die Adjazenzmatrix bzw. jedes A = (ai, j ) ∈ R(n,n) mit ai, j ∈ {0, 1} legt also den zugehörigen gerichteten Graphen auf V eindeutig fest. Eine Umnummerierung, d. h. Permutation der Knoten entspricht einer simultanen Permutation der Zeilen und Spalten der Adjazenzmatrix. Da nach (2.133) die Permutation von Zeilen mit einer Permutation σ der Multiplikation von links mit P und nach (2.134) der Permutation von Spalten die Multiplikation von rechts mit P−1 = Pt entspricht, wobei P die Permutationsmatrix zu σ−1 ist, bedeutet

904

8 Einige Anwendungen der Linearen Algebra

dies also für die Adjazenzmatrix den Übergang von A zu PAPt .

(8.78)

Der Adjazenzgraph A ist dadurch genau dann als ungerichteter Graph interpretierbar, wenn A symmetrisch ist. Definition 8.40 Es gelten die Voraussetzungen von Definition 8.39 und auch die Kantenmenge E wird durchnummeriert mit k1 , . . . , km für ein m ∈ N. B = (bi, j ) ∈ R(m,n) , definiert durch    1 , falls v j Zielknoten von ki ist     bi, j :=  −1 , falls v j Ausgangsknoten von ki ist     0 , sonst , heißt Inzidenzmatrix oder Knoten-Kanten-Matrix zu (V, E).

Die Inzidenzmatrix bzw. jedes B ∈ R(m,n) , für das bi, j ∈ {0, 1, −1} und bi, j = 1 für genau ein j ∈ {1, . . . , n}, bi, j = −1 für genau ein j ∈ {1, . . . , n} gilt, legt den zugehörigen gerichteten Graphen auf V eindeutig fest. Die Inzidenzmatrix zu einem Graphen ist schon in Abschnitt 1.6 aufgetreten und benutzt worden. Definition 8.41 Sei (V, E) ein endlicher gerichteter Graph, v1 , v2 ∈ V, v1 , v2 . Der Knoten v1 heißt mit dem Knoten v2 durch einen Pfad verbindbar, wenn Knoten vi1 , . . . , vil−1 existieren, so dass mit vi0 := v1 , vil := v2 alle (vi j , vi j+1 ), j = 0, . . . , l − 1 Kanten, d. h. in E sind. l ∈ N heißt die Länge des Pfads (vi0 , vi1 ), . . . , (vil−1 , vil ) von v1 nach v2 . (V, E) heißt zusammenhängend, wenn sich jedes v1 ∈ V mit jedem v2 ∈ V durch einen Pfad verbinden lässt. Die Relation v1 ∼ v2 := v1 ist durch einen Pfad verbindbar mit v2 ist zwar transitiv, aber i. Allg. nicht symmetrisch, es sei denn (V, E) ist nicht gerichtet. Ergänzen wir die Definition, so dass immer v ∼ v gilt, so liegt für ungerichtete Graphen eine Äquivalenzrelation vor, so dass V sodann in Äquivalenzklassen zerfällt (siehe Satz A.22). Ein ungerichteter Graph ist damit zusammenhängend, genau dann, wenn nur eine Äquivalenzklasse existiert. Die Äquivalenzklassen heißen auch Zusammenhangskomponenten . Allgemein gilt:

8.4 Lineare Algebra und Graphentheorie

905

Lemma 8.42: nicht zusammenhängender Graph Sei (V, E) ein endlicher gerichteter Graph. (V, E) ist nicht zusammenhängend genau dann, wenn gilt: Es existiert N ⊂ V, N , ∅, N , V, so dass für jedes v1 ∈ N kein Pfad zu einem v2 ∈ V \ N existiert.

Beweis: „⇒ “: Nach Voraussetzung gibt es v1 , v2 ∈ V, v1 , v2 , so dass v1 nicht durch einen Pfad mit v2 verbindbar ist. Sei vorerst N := {v ∈ V : v1 ist mit v durch einen Pfad verbindbar}. Ist v ∈ N und gibt es einen Pfad von v zu einem v ∈ V \ N dann wird v aus N entfernt. Schließlich wird v1 zu N hinzugefügt. Deshalb gilt v2 < N und N , ∅. V ist demnach disjunkt in N und V \ N zerlegt, so dass kein Pfad von einem v ∈ N zu einen v ∈ V \ N existiert.  Die entsprechenden Matrizenbegriffe sind schon in Definition 2.71 eingeführt worden:

Satz 8.43: (ir-)reduzible Matrix Sei A ∈ R(n,n) , A , 0.

1) A ist irreduzibel, genau dann, wenn der zugehörige Adjazenzgraph zusammenhängend ist. 2) A ist reduzibel genau dann, wenn eine Permutationsmatrix P ∈ R(n,n) existiert, so dass ! A1,1 0 , (8.79) PAPt = A2,1 A2,2

wobei A1,1 ∈ Rk,k für ein k ∈ {1, . . . , n − 1} und die anderen Teilmatrizen in der Partitionierung entsprechend dimensioniert sind.

Beweis: Zu 1): Ist klar. Zu 2): Nach Lemma 8.42 ist der Adjazenzgraph von A genau dann nicht zusammenhängend, wenn {1, . . . , n} in N und M zerfällt, so dass v ∈ N nicht zu v ∈ M durch einen Pfad verbindbar ist. Durch Umnummerierung sei N = {v1 , . . . , vk }, M = {vk+1 , . . . , vn }. Also ist äquivalent zur Reduzibilität: ai, j = 0 für i ∈ {1, . . . , k}, j ∈ {k + 1, . . . , n} .

(8.80)

Wäre nämlich aµ,ν , 0 für ein µ ∈ {1, . . . , k}, ν ∈ {k + 1, . . . , n}, dann wäre vµ zu vν mit einem Pfad (der Länge 1) verbindbar, gilt andererseits (8.80), gibt es keinen Pfad von

906

8 Einige Anwendungen der Linearen Algebra

einem v ∈ N zu einem v ∈ M. Demzufolge hat A nach simultaner Permutation von Zeilen und Spalten die Form (8.79).  Bemerkungen 8.44 1) Allgemein gilt: A ist (ir)reduzibel ⇔ PAPt ist (ir)reduzibel für eine beliebige Permutationsmatrix P. 2) Im reduziblen Fall kann das LGS Ax = b durch simultane Zeilen- und Spaltenpermutation in die gestaffelte Form A1,1 x1 = b1 A2,2 x2 = b2 − A2,1 x1

t  t  gebracht werden. Dabei sind x = xt1 , xt2 , b = bt1 , bt2 zu (8.79) kompatible Partitionierungen. Es können daher zwei kleinere LGS gelöst werden, die nur einseitig gekoppelt sind (x2 hängt von x1 ab, aber nicht x1 von x2 ). b ist (ir)reduzibel. 3) A ist (ir)reduzibel ⇔ A b = (b Dabei ist A ai, j ) und    beliebig, , 0     b ai, j :=  0     beliebig

, für i , j, ai, j , 0 , für i , j, ai, j = 0 , für i = j .

4) Mit A ∈ R(n,n) ist auch At irreduzibel.

Um i mit j durch nichtverschwindende Einträge von At zu verbinden, verbinde man j mit i durch nichtverschwindende Einträge von A und kehre den Pfad dann um.

△ Sei A ∈ R(n,n) und (V, E) der zugehörige Adjazenzgraph. Einen Pfad der Länge 1 von Knoten i zu Knoten j gibt es genau dann, wenn ai, j , 0. Einen Pfad der Länge 2 von Knoten i zu Knoten j gibt es, wenn ein Knoten k existiert, so dass

also wenn

ai,k , 0 und ak, j , 0 , n X (A2 )i j = ai,l al, j , 0 .

(8.81) (8.82)

l=1

Gilt andererseits (8.81) und ist zusätzlich ai, j ≥ 0 für alle i, j = 1, . . . , n, dann folgt aus (8.81) auch (8.82). Allgemein gilt aus diesem Grund:

8.4 Lineare Algebra und Graphentheorie

907

Lemma 8.45 Sei A ∈ R(n,n) , q ∈ N.

1) Ist (Aq )i, j , 0, dann gibt es einen Pfad der Länge q vom Knoten i zum Knoten j des zugehörigen Adjazenzgraphen. 2) Ist ai, j ≥ 0 für alle i, j ∈ {1, . . . , n}, dann gilt auch die Umkehrung von Aussage 1).

Beweis: Durch vollständige Induktion über q. Für q = 1 ist die Behauptung klar. Es gelte die Behauptung für q. Wegen 

Aq+1



i, j

= (Aq A)i, j =

n X l=1

a(q) i,l al, j ,

  wobei Aq = a(q) i, j ,

  folgt die Behauptung für q , 1 aus den obigen Überlegungen: Bei 1) etwa ist Aq+1 , 0 i, j

(q)

und damit ai,l , 0, al, j , 0 für ein l ∈ {1, . . . , n}. Nach Induktionsvoraussetzung gibt es dann einen verbindenden Pfad vom Knoten i zum Knoten l der Länge q und vom Knoten l zum Knoten j der Länge 1, zusammen folgt die Behauptung. Bei 2) beachte man, dass (q) auch ai, j ≥ 0 für alle i, j ∈ {1, . . . , n}. 

Aus Lemma 8.45 folgt unmittelbar eine hinreichende bzw. bei ai, j ≥ 0 für alle i, j ∈ {1, . . . , n} äquivalente Bedingung für Irreduzibilität. Ist ai,i > 0 für alle i = 1, . . . , n, gilt verschärft: Theorem 8.46: Positive Potenz und Irreduzibilität Sei A ∈ Rn,n , ai, j ≥ 0 für i, j ∈ {1, . . . , n}, ai,i > 0 für i = 1, . . . , n . Dann sind äquivalent: (i) Es existiert ein q ∈ N, so dass (Aq )i, j > 0 für alle i, j ∈ {1, . . . , n} . (ii) A ist irreduzibel.

Beweis: (i) ⇒ (ii): Folgt aus Lemma 8.45, 1). (ii) ⇒ (i): Sei Aq = (a(q) i, j ). Nach Voraussetzung gilt für l ∈ N0 :   P (l) (l) Al+1 = nk=1 a(l) a i,k k, j > 0, falls ai, j > 0 und damit ai, j a j, j > 0 . i, j

908

8 Einige Anwendungen der Linearen Algebra

Gibt es demnach einen Pfad der Länge l, den Knoten i im Adjazenzgraph mit Knoten j zu verbinden, so gibt es auch einen solchen Pfad der Länge l + 1, d. h. es gibt einen solchen Pfad der Länge l für jedes l ≥ l. Nach Definition gibt es zu den beliebigen Knoten i, j einen Pfad der Länge q ((i, j)) ∈ N, der i mit j verbindet. Sei q := max q ((i, j)) . i, j=1,...,n

Dann gibt es nach obigen Überlegungen zu beliebigen Knoten i, j Pfade der Länge q, die i mit j verbinden, mit Lemma 8.45, 2) folgt die Behauptung.  Lemma 8.45 aus der Sicht von Graphen formuliert lautet: Satz 8.47: Pfadlänge in Graphen Sei (V, E) ein endlicher gerichteter Graph, sei A ∈ R(n,n) die zugehörige Adjazenzmatrix, q ∈ N. Seien i, j ∈ {1, . . . , n}. Dann gibt (Aq )i, j die Anzahl der Pfade der Länge q an, die den Knoten i mit dem Knoten j verbinden.   Ist (V, E) ungerichtet, d. h. A symmetrisch, dann gibt A2 den Grad des Knotens i,i i an, d. h. die Anzahl der Kanten, die i als Ausgangsknoten haben.

Beweis: Der erste Teil ist analog zum Beweis von Lemma 8.45, beim zweiten Teil beachte man 

A2



i,i

=

n X l=1

ai,l al,i =

n X l=1

a2i,l =

n X

ai,l

l=1

wegen ai,l ∈ {0, 1}.



Aufgaben Aufgabe 8.17 (K) Bestimmen Sie für den Graphen aus Aufgabe 8.10 die Adjazenzmatrix und die Inzidenzmatrix. Aufgabe 8.18 (T) Zeigen Sie die Irreduzibilität der Matrix    2 −1  −1 2 −1      (n,n) .. .. .. A =  .  ∈ R . . .      −1 2 −1   −1 2

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

909

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse In den Teilen des Beispiels 4 (Input-Output-Analyse, Kapitel 1.1 , 1.3 und 2.3) ist die Nützlichkeit von monotonen und invers-monotonen Matrizen klar geworden. Hier sollen einige Grundergebnisse ihrer Theorie entwickelt werden, um diese dann u. a. auf die InputOutput-Analyse anzuwenden. Wir ergänzen Definition 6.1: Definition 8.48 Sei x ∈ Rn , x = (xi ), y ∈ Rn . |x| ∈ Rn wird definiert durch (|x|)i := |xi | für i = 1, . . . , n . Seien A = (ai, j ), B = (bi, j ) ∈ R(m,n) . Analog zu Definition 6.1 definiert man A D 0 genau dann, wenn ai, j ≥ 0 für alle i = 1, . . . , m, j = 1, . . . , n,

sowie A ⊲ 0, A D B, B E A, A ⊲ B, B ⊳ A und (auch für A ∈ K(n,n) ) |A| . Um eine Unterscheidung zu A ≥ 0 für eine (symmetrische), positiv semidefinite Matrix,

A > 0 für eine (symmetrische), positiv definite Matrix (nach Definition 4.133) sicherzustellen wurde eine unterschiedliche Bezeichnung gewählt. Bemerkungen 8.49 Sei x ∈ Rn , x ≥ 0. A ∈ R(m,n) , A D 0. Einige offensichtliche Abschätzungen sind: 1) x ≤ |x|.

2) Ax ≥ 0.

3) Ist x , 0, A ⊲ 0, dann Ax > 0. 4) Ist x > 0, A , 0, dann Ax , 0, aber nicht i. Allg. Ax > 0. 5) Sind x ∈ Kn , A ∈ K(m,n) beliebig, dann |Ax| ≤ |A||x|.

6) Sind x, y ∈ Rn , x, y ≥ 0, dann:

(x . y) ≥ 0, ist x , 0, y > 0, dann (x . y) > 0. 7) Sei A ∈ K(n,n) , B ∈ R(n,n) und |A| E B. Dann gilt ρ(A) ≤ ρ(B).

Aus |ai, j | ≤ bi, j für alle i, j = 1, . . . , n folgt durch vollständige Induktion für k ∈ N |(Ak )i, j | ≤ |(Bk )i, j | für alle i, j = 1, . . . , n

und daher z. B. in der Zeilensummennorm

910

8 Einige Anwendungen der Linearen Algebra kAk k ≤ kBk k ,

also nach Bemerkungen 7.33, 1) ρ(A) = lim kAk k1/k ≤ lim kBk k1/k = ρ(B) . k→∞

k→∞



In Beispiel 4(3) wurde schon im Wesentlichen gezeigt (dort nur für m = n und ohne den offensichtlichen Teil (iii)): Lemma 8.50 Sei A ∈ R(m,n) .

1) Dann sind äquivalent: (i) A D 0. (ii) x ≥ 0 ⇒ Ax ≥ 0 für alle x ∈ Rn .

(iii) x ≥ y ⇒ Ax ≥ Ay für alle x, y ∈ Rn . Solche Matrizen heißen nicht negativ oder monoton. 2) Sei m = n. Dann sind äquivalent: (i) A ist invertierbar und A−1 ≥ 0.

(ii) Ax ≥ 0 ⇒ x ≥ 0 für alle x ∈ Rn .

(iii) Ax ≥ Ay ⇒ x ≥ y für alle x, y ∈ Rn . Solche Matrizen heißen invers-monoton. Ist also ein LGS Ax = b durch eine invers-monotone Matrix A gegeben, so führt eine Anordnung der Daten b(1) ≥ b(2) zu einer Anordnung der Lösungen x(1) ≥ x(2) .

(8.83)

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

911

Insbesondere erzeugt eine Oberlösung von (8.83), d. h. ein x ∈ Rn mit Ax ≥ b, die Abschätzung für die Lösung x von (8.83): x≤x und analog eine Unterlösung , d. h. ein x ∈ Rn mit Ax ≤ b die Abschätzung x≤ x, zusammen dementsprechend die Einschließung x≤x≤x. Wir beginnen mit dem Hauptsatz über monotone Matrizen, dessen Beweis bei alleinigem Interesse an den nachfolgenden Anwendungen übersprungen werden kann. Hauptsatz 8.51: Satz von Perron und Frobenius Sei A ∈ R(n,n) , A D 0. Dann gilt: 1) ρ(A) ist ein Eigenwert von A. 2) Ist zusätzlich A ⊲ 0, so gibt es zu ρ(A) einen Eigenvektor u, so dass u > 0. 3) Zu ρ(A) gibt es einen Eigenvektor u, so dass u ≥ 0.

4) Ist A zusätzlich irreduzibel, dann gilt:

a) Kern(A − ρ(A)1) = span(u) für ein u ∈ Rn mit u > 0.

b) Auch die algebraische Vielfachheit von ρ(A) ist 1.

c) ρ(A) ist der einzige Eigenwert mit einem nicht negativen Eigenvektor.

Beweis (nach Helmut Wielandt14 ): – in Anlehnung an Huppert und Willems 2006, S. 339 f. – Zu 1): Ist ρ(A) = 0, so ist 0 Eigenwert von A. Sei sodann ρ(A) > 0. O. B. d. A. kann ρ(A) = 1 gesetzt werden durch Übergang zur Matrix e := ρ(A)−1 A. Zu zeigen ist deswegen: 1 ist ein Eigenwert von A. Es ist für 0 ≤ t < 1: A ρ(tA) = t < 1

und damit nach Theorem 7.39 14

Helmut Wielandt ∗19. Dezember 1910 in Niedereggenen †14. Februar 2001 in Schliersee

912

8 Einige Anwendungen der Linearen Algebra

(1 − tA)−1 =

∞ X k=0

t k Ak ≥

m X

t k Ak

(8.84)

k=0

für alle m ∈ N. Angenommen 1 ist kein Eigenwert von A. Dann existiert auch (1 − A)−1 und da die Abbildung A 7→ A−1 stetig ist auf der offenen Menge der invertierbaren Matrizen (siehe Theorem 7.39, 3)), so folgt für t → 1 aus (8.84) (1 − A)−1 ≥

m X

Ak

für alle

k=0

m∈N.

Insbesondere gilt also limk→∞ Ak = 0 nach Bemerkungen 7.38, 2), 3) und nach Hauptsatz 7.34 folgt damit der Widerspruch ρ(A) < 1. Zu 2): Im Fall ρ(A) = 0 ist λ = 0 der einzige Eigenwert von A, so dass nach Satz 4.78, 2) An = 0 folgt im Widerspruch zu A > 0. Folglich ist ρ(A) > 0 und damit können wir uns wieder auf ρ(A) = 1 beschränken. Nach 1) gibt es ein u ∈ Rn , u , 0, so dass Au = u . Wir behaupten, dass u := |u| ≥ 0 auch Eigenvektor von A zu λ = 1 ist, für den dann wegen A ⊲ 0 notwendigerweise gilt u = Au > 0 . – Hier und im Folgenden wird immer wieder von den Bemerkungen 8.49 Gebrauch gemacht. – Angenommen, u ist kein Eigenvektor von A zu λ = 1. Wegen u = |Au| ≤ |A||u| = Au bedeutet das für w := (A − 1)u ≥ 0 die Annahme w , 0. Dann ist (A − 1)Au = Aw und Aw > 0 und damit gibt es ein ε > 0, so dass Aw ≥ εAu . Sei z := Au > 0, dann: (A − 1)z = (A − 1)Au ≥ εz bzw. Insofern erfüllt die Matrix B := (1 + ε)−1 A > 0

Az ≥ (1 + ε)z .

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

913

Pm−1

mit Bz ≥ z auch Bm z ≥ z für alle m ∈ N wegen Bm − 1 = ( i=0 Bi )(B − 1). Andererseits folgt aus Hauptsatz 7.34 wegen ρ(B) = (1 + ε)−1 < 1: lim Bm = 0

m→∞

und damit der Widerspruch 0 = limm→∞ Bm z ≥ z > 0. Zu 3): Durch eine kleine Störung in A durch 1 Ak := A + 1, k ∈ N k kann auf Teil 2) zurückgegriffen werden. Dabei ist 1 ∈ R(n,n) die Matrix, die an allen Positionen den Eintrag 1 hat. Es existieren somit Eigenvektoren u(k) ∈ Rn , u(k) > 0 von Ak zu ρk := ρ(Ak ). Wegen A1 > A2 > . . . > A gilt nach Bemerkungen 8.49, 7) ρ1 ≥ ρ2 ≥ . . . ≥ ρ := ρ(A) . Damit existiert µ := limk→∞ ρk und (8.85)

µ≥ρ.

Durch Übergang zu den normierten Eigenvektoren u(k) /ku(k) k1 (siehe Bemerkungen 7.2, 1)) liegen alle Eigenvektoren in der kompakten Menge M := {x ∈ Rn : x ≥ 0,

n X

xi = 1} .

i=1

Nach Satz C.11 existiert deswegen eine konvergente Teilfolge von (u(k) )k – wieder mit (u(k) )k bezeichnet – und lim u(k) =: u ∈ M, d. h. u ≥ 0, u , 0 .

k→∞

Daraus folgt µu = lim ρk u(k) = lim Ak u(k) = lim Au(k) + lim (Ak − A)u(k) = Au + 0 , k→∞

k→∞

k→∞

k→∞

da limk→∞ Ak = A und (u(k) ) ∈ M beschränkt ist. Also ist u Eigenvektor zum Eigenwert µ, für den nach (8.85) µ = ρ(A) gilt.

914

8 Einige Anwendungen der Linearen Algebra

Zu 4 a): Nach 3) existiert ein u ∈ Rn , u ≥ 0, u , 0, so dass Au = ρ(A)u. u hat m Komponenten mit ui > 0, 1 ≤ m ≤ n. Zu zeigen ist, dass m = n, um u > 0 sicherzustellen. Diese m Komponenten werden durch eine Permutation auf den ersten m Positionen platziert und P−1 ∈ R(n,n) sei die zugehörige Permutationsmatrix, dann u = Pw

und w = (w1 , . . . , wm , 0, . . . , 0)t ,

wi > 0 für i = 1, . . . , m .

Damit gilt für B := P−1 AP: Bw = ρ(A)w . B sei partioniert in der Form B=

B1,1 B1,2 B2,1 B2,2

!

mit B1,1 ∈ R(m,m) und B2,2 ∈ R(n−m,n−m) usw., wobei dabei eventuell B1,2 , B2,1, B2,2 nicht vorhanden sind. Wir nehmen an, dass dies nicht so ist, d. h. m < n gilt, dann folgt für w = (w1 , . . . , wm ) ∈ Rm , d. h. w > 0, ! ! ! ! B1,1 B1,2 w B1,1 w w ρ(A) = = , also: 0 = B2,1 w 0 B2,1 B2,2 0 B2,1 w und damit wegen B2,1 ≥ 0, w > 0 : B2,1 = 0. Damit ist die Matrix B reduzibel und nach Satz 8.43 auch A im Widerspruch zur Annahme. Hiermit ist u > 0. Es bleibt zu zeigen, dass sich jeder Eigenvektor w von A zum Eigenwert ρ(A) als Vielfaches von u schreiben lässt. Wählt man λ ∈ R als das Maximum der w j /u j , dann gilt u := λu − w ≥ 0 und (λu − w)i = 0

für ein

i ∈ {1, . . . , n} .

Wenn u , 0 ist, dann ist u wieder nicht negativer Eigenvektor von A zu ρ(A), für den in der ersten Hälfte dieses Teilbeweises u > 0 gezeigt wurde. Das ist im Widerspruch zur Konstruktion von u, so dass mit u = 0 die Behauptung folgt. Zu 4 b): Nach Satz 4.94 und Bemerkungen 4.89, 3) ist zu zeigen: Kern((A − ρ(A)1)2 ) ⊂ Kern(A − ρ(A)1) . Sei (A − ρ(A)1)2 w = 0, dann ist nach 4 a) (A − ρ(A)1)w = λu für ein λ ∈ R und einen Eigenvektor u > 0 von A zu ρ(A). Es ist vor diesem Hintergrund λ = 0 zu zeigen. Wegen ρ(A) = ρ(At ) und At ≥ 0 gibt es nach 3) ein u ∈ Rn , u ≥ 0, u , 0, so dass At u = ρ(A)u .

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

915

Damit folgt   λ (u . u) = ((A − ρ(A)1)w . u) = w . (At − ρ(A)1)u = 0

und dann wegen (u . u) > 0 die Behauptung λ = 0. Zu 4 c): Sei Aw = λw und w ≥ 0, w , 0. Zu zeigen ist λ = ρ(A). Da mit A auch At irreduzibel ist, gibt es nach 4 a) ein u ∈ Rn , so dass At u = ρ(A)u und u > 0. Es ist demzufolge (w . u) > 0 und   λ (w . u) = (Aw . u) = w . At u = ρ(A) (w . u)

und damit die Behauptung.



Als Folgerung ergibt sich folgende Abschätzung für den Spektralradius: Korollar 8.52: Spektralradiuseinschließung Sei A ∈ R(n,n) , A D 0 und irreduzibel.

1) Sei x ∈ Rn , x > 0. y := Ax, tk := (Ax)k /xk . Dann gilt: Ist ti = t für alle i = 1, . . . , n, dann ρ(A) = t .

Gibt es j, k ∈ {1, . . . , n}, so dass t j < tk , dann min tl < ρ(A) < max tl .

l∈{1,...,n}

2) Ist

Pn

ν=1 ai,ν

l∈{1,...,n}

= a für alle i = 1, . . . , n, dann ρ(A) = a .

Gibt es j, k ∈ {1, . . . , n}, so dass n X ν=1

a j,ν <

n X

ak,ν ,

ν=1

dann ist min

l∈{1,...,n}

n X ν=1

al,ν < ρ(A) < max

l∈{1,...,n}

n X

al,ν .

ν=1

3) Es gebe x ∈ Rn , x > 0, so dass Ax ≤ x und Ax − x , 0. Dann gilt: ρ(A) < 1 .

916

8 Einige Anwendungen der Linearen Algebra

Beweis: Zu 1): Sei tk := yk /xk für k = 1, . . . , n. Da auch At ≥ 0 und irreduzibel, gibt es nach Hauptsatz 8.51, 4) ein u ∈ Rn , u > 0, so dass At u = ρ(A)u. Daraus folgt   ((xi ti )i − ρ(A)x . u) = (Ax − ρ(A)x . u) = x . (At − ρ(A)1)u = 0 , n X (ti − ρ(A)) xi ui = 0 d. h. : i=1

und xi ui > 0 für alle i = 1, . . . , n. Damit sind nur die Fälle möglich: 1. ti − ρ(A) = 0 für alle i, . . . , n. 2. Es gibt j, k ∈ {1, . . . , n}, so dass t j − ρ(A) < 0 < tk − ρ(A) . Zu 2): Man wähle in 1) x = 1 = (1, . . . , 1)t . Zu 3): Nach Voraussetzung ist (Ax)i /xi ≤ 1 und für mindestens ein j ∈ {1, . . . , n} gilt echte Ungleichheit. Danach trifft der zweite Fall in 1) zu und damit ρ(A) < max (Ax)l /xl ≤ 1 .



l∈{1,...,n}

Eine Charakterisierung von Irreduzibilität bei nicht negativen Matrizen befindet sich in Theorem 8.46. In Beispiel 4 haben wir gesehen, dass die Frage nach Zulässigkeit bzw. Profitabilität beim offenen Input-Output-Modell äquivalent ist mit der Eigenschaft, die wir gleich „nichtsinguläre M-Matrix“ nennen werden. Diese soll im Folgenden charakterisiert werden. Allgemeiner betrachten wir dazu Matrizen B = (bi, j ) ∈ R(n,n) mit bi, j ≤ 0 für i, j = 1, . . . , n, i , j .

(8.86)

Solche Matrizen können äquivalent in der Form geschrieben werden (Übung):

B = s1 − A ,

wobei s > 0 und A D 0 .

(8.87)

Definition 8.53 Sei B ∈ Rn,n und habe die Form (8.87). Ist B invers-monoton, so heißt B invertierbare M-Matrix. Dann gilt:

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

917

Hauptsatz 8.54: Charakterisierung invertierbare M-Matrix Betrachtet werden Matrizen der Form (8.87). Dann sind folgende Eigenschaften äquivalent: (i) B ist invertierbare M-Matrix. (ii) ρ(A) < s. (iii) Es existiert ein x ∈ Rn , x > 0, so dass y := Bx ≥ 0 und y , 0 gilt, und weiter: Ist yi0 = 0 für i0 ∈ {1, . . . , n}, dann gibt es i1 , . . . , ir ∈ {1, . . . , n}, so dass bi j−1 ,i j , 0 für j = 1, . . . , r und yir , 0 , d. h. im zugehörigen Adjazenzgraphen ist der Knoten i0 im Fall yi0 = 0 mit einem Knoten ir verbindbar, für den yir , 0 gilt. (iv) Es existiert x ∈ Rn , x > 0, so dass Bx > 0 .

Beweis: Wir zeigen (ii) ⇒ (i) ⇒ (iv) ⇒ (iii) ⇒ (ii).

e := s−1 B = 1 − s−1 A, dann kann äquivalent für e (ii) ⇒ (i): Sei B B die Inversmonotonie gezeigt werden. Wegen ρ(s−1 A) < 1 folgt aus Theorem 7.39: e e−1 = B ist invertierbar und B

∞ X k=0

(s−1 A)k ≥ 0 ,

da (s−1 A)k ≥ 0 für alle k ∈ N gilt. (i) ⇒ (iv): Sei b ∈ Rn mit b > 0 vorgegeben. Dann existiert ein x ∈ Rn , x ≥ 0 , so dass Bx = b . Es ist x , 0, da sonst auch b = 0 gelten müsste. Wenn xi , 0 für alle i = 1, . . . , n, ist der Beweis beendet. Sei j ∈ {1, . . . , n} so, dass x j = 0.  Mit B = b(1) , . . . , b(n) ist dann n X i=1 i, j

xi b(i) = b und damit

n X

xi b(i) + εb( j) = b + εb( j) =: c .

i=1 i, j

Wenn ε > 0 klein genug gewählt wird, gilt weiterhin c > 0 und damit liegt für die rechte Seite c eine Lösung mit positiver j-ter Komponente vor. Mit weiteren Nullkomponenten von x wird entsprechend verfahren, bis eine positive Lösung für eine positive rechte Seite vorliegt.

918

8 Einige Anwendungen der Linearen Algebra

(iv) ⇒ (iii): Klar. b = (b (iii) ⇒ (ii): Insbesondere ist Ax ≤ sx und y = (s1 − A)x. Sei A ai, j ) ∈ R(n,n) definiert durch    ai, j , wenn ai, j , 0     b ai, j =  ε , wenn ai, j = 0 und yi , 0     0 , sonst.

b irreduzibel. Seien nämlich k, l ∈ {1, . . . , n} beliebig. Ist yk , 0, Dabei ist ε > 0. Dann ist A dann ist b ak,l , 0, d. h. die Knoten im Adjazenzgraphen sind durch einen einkantigen Weg verbindbar. Ist yk = 0, dann ist nach Voraussetzung der Knoten k im Adjazenzraphen mit einem Knoten ir verbindbar, für den yir , 0 gilt, so dass dieser wieder mit einem einkantigen Weg zum Knoten l verbindbar ist. Wenn ε > 0 klein genug gewählt wird, gilt weiterhin b , sx . b ≤ sx, Ax Ax

b Nach Folgerung 8.52, 3) ergibt sich für s−1 A:

b < 1 , also ρ(s−1 A)

b ≥ A und Bemerkungen 8.49 und wegen A

b 0. 2) s j ≥ 0 für alle j = 1, . . . , n, sk > 0 für ein k ∈ {1, . . . , n} und wenn s j0 = 0, dann gibt es einen Pfad im Adjazenzgraph von Bt bzw. At zu jr , so dass z jr > 0.

Beweis: Zu 1): Man wähle x = 1 = (1, . . . , 1)t in Hauptsatz 8.54, (iii).

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

Zu 2): Es gilt: B ist M-Matrix ⇔ Bt ist M-Matrix und Bedingung 2) geht durch Transponieren in Bedingung 1) über.

919



Bemerkungen 8.56 1) Ist B = (bi, j ) nach (8.86), dann ist zi

> (≥)

0 äquivalent zu

>

|bi,i | (≥)

n X j=1 j,i

|bi, j | ,

so dass man bei der Bedingung (8.88) auch von Diagonaldominanz spricht. Gilt für alle i ∈ {1, . . . , n} zi > 0, so spricht man von strikter Diagonaldominanz.

2) Es gibt noch viele weitere Charakterisierungen der Eigenschaft, invertierbare M-Matrix zu sein. In Berman und Plemmons 1994 sind insgesamt 50 (!) angegeben. Ohne Beweis seien zwei weitere erwähnt: (v) Alle Hauptminoren von B sind positiv. In der ökonomischen Literatur ist diese Bedingung nach Hawkins15 und Simon16 benannt. (vi) B besitzt eine LR-Zerlegung B = LR , wobei L eine untere und R eine obere Dreiecksmatrix ist, jeweils mit positiven Diagonalelementen. Bei M-Matrizen ist daher das Gauss-Verfahren ohne (Zeilen-)Vertauschung durchführbar.

3) Bedingung Hauptsatz 8.54, (ii) bedeutet, dass alle reellen Eigenwerte von B positiv sind. Damit kann der Begriff invertierbare M-Matrix als eine Erweiterung der Positivdefinitheit bei Matrizen der Form (8.87) angesehen werden: Sei B ∈ R(n,n) von der Form (8.87) und symmetrisch, dann gilt: B ist invertierbare M-Matrix ⇔ B ist positiv definit. Dies folgt sofort aus Satz 4.135. Solche Matrizen heißen auch Stieltjes17 -Matrizen.

4) Notwendig für eine invertierbare M-Matrix ist sodann bi,i > 0 für alle

i = 1, . . . , n ,

denn aus Hauptsatz 8.54 (iv) folgt

15 16 17

David Ramon Hawkins ∗23. Juni 1927 in Milwaukee †19. September 2012 in Sedona in Arizona Herbert Alexander Simon ∗15. Juni 1916 in Milwaukee †9. Februar 2001 in Pittsburgh Thomas Jean Stieltjes ∗29. Dezember 1856 in Zwolle †31. Dezember 1894 in Toulouse

920

8 Einige Anwendungen der Linearen Algebra bi,i xi > −

n X j=1 j,i

bi, j x j ≥ 0

und daraus wegen xi > 0: bi,i > 0.

5) Neben direkten Verfahren stehen zur Lösung von Bx = f auch iterative Verfahren zur Verfügung,  falls  B M-Matrix ist: 1 Wegen ρ s A < 1 ist nach Theorem 8.20 das folgende Iterationsverfahren konvergent: Sei x(0) ∈ Rn beliebig gewählt, x(n+1) :=

1 (n) 1 Ax + f . s s

(8.89)

Dieses Richardson-ähnliche Verfahren ist stark verwandt mit der Jacobi-Iteration nach (8.18). Man kann (8.89) auch als ein zeitdiskretes dynamisches System interpretieren, bei dem sich der Output, um eine Zeitperiode versetzt, aus den laufenden Inputs und der Endnachfrage bestimmt und die Lösung des statischen offenen Input-Output-Modells ist der sich als Grenzwert für n → ∞ (d. h. große Zeiten) einstellende Gleichgewichtsfall (siehe Abschnitt 8.2.2). △ Beispiel 3(11) – Massenkette Betrachtet man die Massenkette bei beidseitiger oder einseitiger Einspannung (und allgemeinen Federkonstanten ci > 0), so hat die Matrix die Form (8.87), die Zeilensummen sind 0 bis auf die beiden (bzw. eine) Randzeile, wo sie positiv sind. Da die Matrix irreduzibel ist, ist sie nach Korollar 8.55 eine invertierbare M-Matrix. Dies war (für konstante Federkonstanten) schon in (MM.53) bzw. (MM.54) durch das explizite Berechnen der Inversen verifiziert worden. Mit Bemerkungen 8.56, 3) ergibt sich ein erneuter Nachweis der Positivdefinitheit. ^ Beispiel 4(4) – Input-Output-Analyse Für das offene Input-Output-Modell nach (MM.7) bzw. (MM.27) folgt mithin Satz 8.57 Sei A ∈ R(n,n) , A ≥ 0. Es sind äquivalent: (i) Das offene Input-Output-Modell (1 − A)x = f ist zulässig.

(ii) Das offene Input-Outptut-Modell ist profitabel.

(iii) Es gibt ein x ∈ Rn , x > 0, so dass y := (1 − A)x ≥ 0, y , 0 und: Ist yi0 = 0, so existiert im Adjazenzgraph von A ein Pfad zu ir , so dass yir , 0. (iv) Es gibt ein x ∈ Rn , x > 0 und (1 − A)x > 0 . HinreichendPfür (i) (bzw. (ii)) sind die folgenden Bedingungen: P Seien zi := nj=1 ai, j die Zeilensummen und s j := ni=1 ai, j die Spaltensummen von A:

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

921

1) zi ≤ 1 für alle i = 1, . . . , n, zk < 1 für ein k ∈ {1, . . . , n} und wenn zi0 = 1, dann gibt es einen Pfad im Adjazenzgraph von A zu ir , so dass zir < 1. 2) s j ≤ 1 für alle j = 1, . . . , n, sk < 1 für ein k ∈ {1, . . . , n} und wenn s j0 = 1, dann gibt es einen Pfad im Adjazenzgraph von At zu ir , so dass sir < 1. Bemerkungen 8.58 1) Insbesondere sind folglich hinreichend: a) zi < 1 für alle i = 1, . . . , n. b) s j < 1 für alle j = 1, . . . , n. 2) Einige Bedingungen haben eine direkte Interpretation innerhalb des Modells. Die von 1)b) wurde schon in Beispiel 4(1) (siehe (MM.10)) entwickelt. △ Wenn sich die Endnachfrage im Input-Output-Modell erhöht, stellt die Invers-Monotonie gerade sicher, dass sich auch der Output erhöht. Dies bedeutet aber nicht, dass bei maximaler (z. B. alleiniger) Steigerung der Nachfrage im Sektor i auch der Output in Sektor i am stärksten wächst. Dazu ist nötig, dass der „Verstärkungsfaktor“ (B−1 )k,i für den Einfluss eines Inputs im Sektor i für k = i am größten ist. Dazu gilt:

Lemma 8.59 Sei B ∈ R(n,n) eine nichtsinguläre M-Matrix mit nicht negativen Zeilensummen, d. h. B1 ≥ 0. Dann gilt: (B−1 )i,i ≥ (B−1 )k,i

für alle

i, k = 1, . . . , n .

Gilt B1 > 0, dann ist (B−1 )i,i > (B−1 )k,i

für alle i, k = 1, . . . , n, i , k .

Beweis: Der Beweis greift auf die Darstellung von B−1 durch Satz 2.118 (Cramersche Regel) zurück,  siehe Berman und Plemmons 1994, S. 254 f. Daraus folgt sofort: Korollar 8.60 Sei A ∈ R(n,n) , A ≥ 0 und 1 − A eine nichtsinguläre M-Matrix. Sind alle Zeilensummen von A nicht größer als 1, d. h. A1 ≤ 1, dann wächst bei einem Zuwachs der Endnachfrage in Sektor i der Output im Sektor i nicht weniger als in anderen Sektoren. Gilt sogar A1 < 1, dann ist das Wachstum im Sektor i sogar stärker als in anderen Sektoren.

Beweis: Übung.



Für die Zuwächse in den Schattenpreisen gibt es analoge Aussagen, wobei Zeilensummen durch Spaltensummen zu ersetzen sind. Die dabei auftretende Bedingung (MM.10) ist schon in Beispiel 4(1) als naheliegend diskutiert worden. Wir wenden uns nun dem geschlossenen Input-Output-Modell (MM.28) zu. Für die Existenz eines

922

8 Einige Anwendungen der Linearen Algebra

Gleichgewichts-Outputvektors x ∈ Rn ist daher notwendig, dass B singulär ist, während beim offenen Modell die Nichtsingularität notwendig ist. Wegen der Gleichheit der Strukturbedingungen (MM.10) ist ein Zusammenhang zu vermuten, der es wünschenswert erscheinen lässt, den Begriff der M-Matrix auch auf singuläre Matrizen zu erweitern. Wir betrachten folglich weiter Matrizen der Form (8.87) und setzen:

Definition 8.61 Sei B ∈ R(n,n) von der Form (8.87). B heißt M-Matrix, wenn gilt ρ(A) ≤ s . In Anbetracht von Hauptsatz 8.54 sind demzufolge die M-Matrizen mit ρ(A) < s genau die invertierbaren, die mit s = ρ(A) genau die singulären, die hier neu betrachtet werden. Der Zusammenhang zum geschlossenen Input-Output-Modell ergibt sich durch: Satz 8.62 Sei B ∈ R(n,n) von der Form B = 1 − A und A D 0. Das zugehörige geschlossene Input-Modell sei zulässig nach Definition 1.53. Dann ist B eine M-Matrix.

Beweis: Nach Voraussetzung existiert ein x > 0, so dass Bx ≥ 0. Daher gilt für Bε := (1 + ε)−1 (ε1 + B) = (1 − (1 + ε)−1 A). Bε x = (1 + ε)−1 (εx + Bx) > 0 und damit ist die Bedingung (iv) in Hauptsatz 8.54 erfüllt, also gilt: (1 + ε)−1 ρ(A) = ρ((1 + ε)−1 A) < 1 und damit ρ(A) ≤ 1 .



(Singuläre) M-Matrizen zu charakterisieren ist recht aufwändig, auch ist die Aussage in Satz 8.62 i. Allg. nicht umkehrbar. Übersichtlicher wird die Situation, wenn die Input-Output-Matrix A irreduzibel ist.

Satz 8.63 Sei B ∈ R(n,n) von der Form B = 1 − A und A D 0. B sei singulär und irreduzibel. Dann sind äquivalent: (i) Das geschlossene Input-Output-Modell zu B ist zulässig. (ii) Es gibt einen Output-Gleichgewichtsvektor, der eindeutig ist bis auf positive skalare Vielfache. (iii) B ist M-Matrix.

Aufgaben

923

Beweis: (i)⇒ (iii): Satz 8.62. (iii)⇒ (ii): Folgt aus ρ(A) = 1 und Hauptsatz 8.51, 4). (ii)⇒ (i): Klar.



Insbesondere liegt eine M-Matrix vor, wenn (siehe (MM.29)) alle Spaltensummen von A gleich 1 sind, was man als Ausgleich zwischen laufendem Input und Output interpretieren kann: Satz 8.64 Sei B ∈ R(n,n) von der Form B = 1 − A und A = (ai, j ) D 0. Wenn gilt, dann ist B eine singuläre M-Matrix.

Pn

i=1

ai, j = 1 für alle j = 1, . . . , n

Beweis: Nach Voraussetzung gilt: At 1 = 1 , d. h. es gilt ρ(A) ≥ 1. Andererseits ist wegen Theorem 7.30, 2) und A ≥ 0 kAk1 = 1 und damit nach Theorem 7.32, 1) ρ(A) ≤ kAk1 = 1 , folglich ρ(A) = 1.



Unter der Voraussetzung von Satz 8.64 ist A eine stochastische Matrix nach Definition 8.102, so dass damit die Verbindung zu Abschnitt 8.6.5 hergestellt ist. ^

Aufgaben Aufgabe 8.19 (T) Zeigen Sie, dass Matrizen B = (bi, j ) ∈ R(n,n) mit (8.86) äquivalent in der Form (8.87) geschrieben werden können. Aufgabe 8.20 (T) Zeigen Sie Korollar 8.60. Aufgabe 8.21 (T) Sei B ∈ R(n,n) symmetrisch.

a) Dann gilt im euklidischen Skalarprodukt  n  n X X X    b j,k |x j |2 − (Bx . x) = b j,k |xi − x j |2  j=1

k=1

j 0.

924

8 Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und diskrete dynamische Systeme

8.6.1 Die Lösungsraumstruktur bei linearen Problemen Im Kapitel 4 waren wir in der Lage, mit der dort entwickelten Eigenwerttheorie explizit Lösungen für Systeme von linearen Differenzen- bzw. Differentialgleichungen (1. Ordnung) anzugeben (siehe (4.12) und Beispiele 4.56, 4.117, 4.120 bzw. (4.83), (4.84) und Beispiel 7.44). Die Probleme seien noch einmal genannt: Sei n ∈ N, A ∈ K(n,n) , x0 ∈ Kn bzw. y0 ∈ Kn , t0 , T ∈ R, t0 < T gegeben: A Lineare Differenzengleichung 1. Ordnung (mit konstanten Koeffizienten) Gesucht ist x ∈ (Kn )N0 , so dass x(k+1) = Ax(k) für k ∈ N0 , x(0) = x0 .

(8.90)

B Lineare Differentialgleichung 1. Ordnung (mit konstanten Koeffizienten) Gesucht ist y ∈ C ([t0 , T ], Kn ), so dass y˙ (t) = Ay(t) für t ∈ [t0 , T ] , y(t0 ) = y0 .

(8.91)

Naheliegende Verallgemeinerungen von A und B sind für eine Matrizenfolge Ak ∈ K(n,n) , k ∈ N, bzw. für eine matrixwertige Funktion   etwa A ∈ C [t0 , T ], K(n,n) ,

A : [t0 , T ] → K(n,n) ,

C Lineare Differenzengleichung 1. Ordnung (mit variablen Koeffizienten) Gesucht ist x ∈ (Kn )N0 , so dass x(k+1) = Ak+1 x(k) für k ∈ N0 , x(0) = x0

(8.92)

bzw. D Lineare Differentialgleichung 1. Ordnung (mit variablen Koeffizienten) Gesucht ist y ∈ C([t0 , T ], Kn ), so dass y˙ (t) = A(t)y(t) für t ∈ [t0 , T ] ,

y(t0 ) = y0 .

(8.93)

Für C ist analog zu A weiterhin offensichtlich, dass eine Lösung eindeutig existiert, auch wenn die sich ergebende Lösungsdarstellung

8.6 Kontinuierliche und diskrete dynamische Systeme

925

x(k) = Ak . . . A1 x(0) nicht wirklich nützlich ist. Bei B sind Existenz und Eindeutigkeit einer Lösung unklar. Dennoch ist auch D ein eher „einfaches“ Problem, da es weiterhin linear ist. Darunter soll allgemein Folgendes verstanden werden: Definition 8.65 Betrachtet werde ein Problem (P), wobei zu einem Datum z0 ∈ D eine Lösung z gesucht wird. D sei ein K-Vektorraum, die Menge aller Lösungen zu z0 ∈ D werde mit L bezeichnet. Einer Lösung z sei ein Datum z0 eindeutig zugeordnet. (P) heißt linear, wenn L ein K-Vektorraum ist und die Abbildung von L nach D, die z auf z0 abbildet, linear ist. Dies bedeutet also, dass jede Linearkombination von Lösungen wieder eine Lösung ist, und zwar zur Linearkombination der Daten. Daher spricht man auch vom Superpositionsprinzip . Ein Spezialfall davon sind Theorem 1.8 und Bemerkungen 2.6, 5). Insbesondere bedeutet die Linearität, dass zur trivialen Lösung 0 ∈ L der triviale Datensatz 0 ∈ D gehört. Die Existenz oder Eindeutigkeit einer Lösung wird nicht gefordert. Weitere lineare Probleme sind die inhomogenen Varianten von A bis D : Dazu seien (weitere) Daten bk ∈ Kn für k ∈ N0 bzw. f ∈ C ([t0 , T ], Kn ) gegeben: A

i

Inhomogene lineare Differenzengleichung 1. Ordnung (mit konst. Koeff.) x(k+1) = Ax(k) + bk für k ∈ N0 , x(0) = x0 .

B

i

Inhomogene Differentialgleichung 1. Ordnung (mit konst. Koeff.) y˙ (t) = Ay(t) + f (t) für t ∈ [t0 , T ] , y(t0 ) = y0 .

C

i

x(0) = x0 .

i

(8.95)

Inhomogene lineare Differenzengleichung 1. Ordnung x(k+1) = Ak+1 x(k) + bk für k ∈ N0 ,

D

(8.94)

(8.96)

Inhomogene Differentialgleichung 1. Ordnung y˙ (t) = A(t)y(t) + f (t) für t ∈ [t0 , T ] , y(t0 ) = y0 .

(8.97)

926

8 Einige Anwendungen der Linearen Algebra

Das Superpositionsprinzip bedeutet, dass eine Lösung gemäß der „Datenanteile“ zerlegt werden kann: So ist z. B. eine Lösung von D i dadurch erhältlich, dass man wegen ! ! ! y0 y 0 = 0 + f 0 f eine Lösung von D mit einer Lösung von y˙ (t) = A(t)y(t) + f (t) , y(t0 ) = 0

(8.98)

kombiniert. Für konstante Koeffizienten ist dies in Beispiel 7.44, 2) geschehen. Werden Anteile der Daten konstant gehalten, z. B. bei D i f bei variablen Daten y0 , so sind die jeweiligen Abbildungen zwischen variablen Daten und Lösungen noch affin-linear. Dem Datum y0 = 0 entspricht dann nicht die Nulllösung, sondern y nach (8.98). Lineare Probleme müssen nicht „Anfangswertprobleme“ sein. Ein Beispiel für eine „Randwertaufgabe“ ist (1.82). Über den Lösungsraum eines linearen Problems kann man strukturell etwas aussagen, wenn man weiß, dass zu jedem Datum eine Lösung eindeutig existiert. Für A i und auch C i ist dies offensichtlich, D i wird durch den allgemeinen Satz zur eindeutigen Existenz von Lösungen von Anfangswertaufgaben für gewöhnliche Differentialgleichungen, dem Satz von Picard-Lindelöf, erfasst (siehe Analysis ). Da diese Überlegung zur Analysis gehört, wird sie hier nicht weiter ausgeführt, sondern vielmehr die eindeutige Existenz von Lösungen von D i vorausgesetzt. Bemerkungen 8.66 1) Der Lösungsbegriff für D i ist abhängig von der Glattheitsvoraussetzung an A und f . Für A ∈ C([t0 , T ], K(n,n) ) und f ∈ C([t0 , T ], Kn ) (was im Folgenden im Zweifelsfall vorausgesetzt werden soll) ist dann notwendig y ∈ C 1 ([t0 , T ], Kn ) , so dass (8.97) (komponentenweise) im Sinne der eindimensionalen Analysis zu verstehen ist. Hier sind Abschwächungen möglich. 2) Solange A (und f ) auf (a, b) ( mit der nötigen Glattheit) definiert sind, können t0 , T ∈ (a, b) beliebig gewählt werden, ohne dass Existenz und Eindeutigkeit von Lösungen dadurch verändert werden, d. h. die „Zeit“ t kann auch rückwärts durchlaufen werden. Sei etwa T < t0 , dann setze man t˜ := t0 + T − t für t ∈ [T, t0 ] .

8.6 Kontinuierliche und diskrete dynamische Systeme

927

Dadurch tauschen t0 und T ihre Plätze, d. h. aus einer „Endwertaufgabe“ wird eine Anfangswertaufgabe und   y˜ t˜ := y t0 + T − t˜ erfüllt (8.97) für

A˜ ˜f

  t˜ := −A t0 + T − t˜ ,   t˜ := − f t0 + T − t˜ .

(8.99)

Genauso kann der Anfangszeitpunkt durch t˜ := t − t0 + t0′ verschoben werden und so (sofern a ≤ 0 ≤ b) o. B. d. A. auch t0 = 0 gesetzt werden. Zur Verifikation sind elementare Kenntnisse der eindimensionalen Analysis nötig, die im Folgenden stillschweigend vorausgesetzt werden.

3) Analog kann bei C i der „Anfangsindex“ k0 auch beliebig in Z gewählt werden. Um (8.96) auch „rückwärts“, d. h. für k0 , k0 −1, . . . zu durchlaufen, muss vorausgesetzt werden, dass die Ak invertierbar sind. 4) Bei A bzw. B verändert daher die Verschiebung des Anfangspunktes nicht das sonstige Problem. Man nennt ein solches Problem, das den Anfangspunkt nicht „wahrnimmt“, auch autonom . 5) Wegen der Linearität der Abbildung Lösung7→Datum reduziert sich die Eindeutigkeit allgemein in der Situation von Definition 8.65 auf: Sei z ∈ L die Lösung zu z0 = 0 ∈ D , dann ist z = 0 ∈ L .

6) Zu (8.93) werde ein adjungiertes Problem definiert als das „Endwertproblem“: Gesucht ist z ∈ C ([t0 , T ], Kn ) , so dass ˙z(t) = −A† (t)z(t) z(T ) = z0 .

(8.100)

Dann gilt für eine Lösung y von (8.93) und eine Lösung z von (8.100): h(t) := hy(t) . z(t)i ist konstant auf [t0 , T ] . Es gilt nämlich D E d h(t) = h˙y(t) . z(t)i + hy(t) . ˙z(t)i = hA(t)y(t) . z(t)i − y(t) . A† (t)z(t) = 0 . dt

Ist demnach A(t) schiefhermitesch bzw. -symmetrisch, dann ist e(t) := ky(t)k2 konstant.

Ist y eine Lösung von (8.93), kann (für z0 = y(T )) z = y gewählt werden.

928

8 Einige Anwendungen der Linearen Algebra

7) Bei B ist die Existenz einer Lösung durch (7.18) gesichert. Für die Eindeutigkeit ist nach 5) zu prüfen: Ist y eine Lösung von y˙ (t) = Ay(t),

y(t0 ) = 0 ,

dann ist y = 0 (d. h. y(t) = 0 für alle t ∈ [t0 , T ]). Dies gilt.

Der Beweis kann (auch für D i oder allgemein) mit dem Gronwall-Lemma (siehe z. B. Amann und Escher 1999, S. 131) angegangen werden. Hier ist auch ein algebraischer Beweis möglich: Statt y = 0 zu zeigen, reicht auch y(T ) = 0, da jedes t > t0 als Endzeit gewählt werden kann. Sei z0 ∈ Kn eine beliebige Endwertvorgabe für das adjungierte Problem. Wegen 2) existiert dazu (wie zu jedem Problem B ) eine Lösung z. Nach 6) gilt

hy(T ) . z0 i = hy(T ) . z(T )i = y0 . z(0) = 0 (8.101) für alle z0 ∈ Kn , also y(T ) = 0.

Genauer entspricht (8.101) Theorem 2.70.



Ab jetzt betrachten wir ein lineares Problem nach Definition 8.65, bei dem für jedes Datum z0 ∈ D eine eindeutige Lösung z ∈ L existiert. Damit gibt es auch die Umkehrabbildung Φ : D → L, z0 7→ z , die ebenfalls linear und auch bijektiv ist, folglich ein Isomorphismus. Insbesondere gilt sodann dim L = dim D nach Theorem 2.28 bzw. :  (i)  (k) (i) Seien z(1) 0 , . . . , z0 ∈ D und z := Φ z0 , i = 1, . . . , k. Dann: (k) z(1) 0 , . . . , z0 sind linear unabhängig/spannen D auf/sind Basis von D genau dann, wenn z(1) , . . . z(k) sind linear unabhängig/spannen L auf/sind Basis von L .

(8.102)

Für (einen Spezialfall von) A findet sich konkret diese Aussage in Lemma 1.42 und Satz 1.68, wo genau die Linearität des Problems und die hier offensichtliche eindeutige Lösbarkeit ausgenutzt wird.

Definition 8.67 Sei (P) ein lineares Problem, so dass für jedes Datum z0 ∈ D genau eine Lösung (n) z ∈ L existiert. Sei dim D = n und z(1) 0 , . . . , z0 eine Basis von D, dann heißen die

8.6 Kontinuierliche und diskrete dynamische Systeme

929

zugehörigen z(1) , . . . , z(n) ein Fundamentalsystem oder auch Fundamentallösung von (P). Mit einer Fundamentallösung ist offensichtlich der Lösungsraum prinzipiell bekannt: Ist z0 ∈ D und z0 =

n X

αi z(i) 0 ,

i=1

dann ist z=

n X

αi z(i)

i=1

die Lösung zu z0 . Ist speziell D = Kn wie in C und D , kann z(i) 0 = ei gewählt werden. Bei A bzw. B ergeben sich explizit die Fundamentalsysteme für i = 1, . . . , n: 

x(k)

(i)

:= Ak ei

für k ∈ N0 , bzw.

y(i) (t) := exp (A(t − t0 )) ei

für t ∈ [t0 , T ]

und die dafür entwickelten Konkretisierungen. Sei  (n)  , . . . , x(k) ∈ K(n,n) , bzw.   Y(t) := y(1) (t), . . . , y(n) (t) ∈ K(n,n) X (k) :=



x(k)

(1)

die aus einer Fundamentallösung für C bzw. D gebildeten Folgen bzw. Funktionen. Diese erfüllen bei C X (0) ist invertierbar , X (k+1) = Ak+1 X (k) für k ∈ N0 ,

(8.103)

Y(t0 ) ist invertierbar , ˙ = A(t)Y(t) für t ∈ [t0 , T ] , Y(t)

(8.104)

bei D

wobei die Ableitung komponentenweise zu verstehen ist. Es gilt:

930

8 Einige Anwendungen der Linearen Algebra

Theorem 8.68: Fundamentallösung 1) Seien die Ak invertierbar für k ∈ N. Sei X (k) ∈ (K(n,n) )N eine Lösung von (8.103). Dann gilt für k, l ∈ N0 : X (k) ist invertierbar genau dann, wenn

X (l) ist invertierbar, und bei Gültigkeit liegt eine Fundamentallösung von C vor. 2) Sei Y ∈ C([t0 , T ], Kn ) eine Lösung von (8.104). Dann gilt für t, s ∈ [t0 , T ] Y(t) ist invertierbar genau dann, wenn

Y(s) ist invertierbar, und bei Gültigkeit liegt eine Fundamentallösung von D vor. e(k) )k bzw. Y und Y e Fundamentallösungen für C bzw. D . 3) Seien (X (k) )k und (X Dann gibt es jeweils ein C ∈ GL(n, K), so dass bzw.

e(k)C für alle k ∈ N0 X (k) := X

e Y(t) := Y(t)C für t ∈ [t0 , T ] .

Beweis: Zu 2): Sei t, s ∈ [t0 , T ], t ≤ s. Ist Y(t) invertierbar, so sind y(1) , . . . , y(n) auf [t, T ] linear unabhängig und, da auch Y(s) als Anfangsvorgabe für t ∈ [s, T ] angesehen werden kann, ist auch Y(s) invertierbar. Diese Überlegung gilt auch für t > s, da nach Bemerkungen 8.66, 2) die Differentialgleichung auch „rückwärts in der Zeit“ betrachtet werden kann. Die Überlegung bei 1) ist identisch, die Zusatzvoraussetzung sorgt dafür, die Rekursion auch für abnehmende Indizes betrachten zu können. Zu 3): Es reicht einen der Fälle, etwa D , zu betrachten, der andere ist analog: e 0 ) invertierbar sind, erfüllt Da Y(t0 ), Y(t e−1 (t0 )Y(t0 ) ∈ GL(n, K) C := Y e 0 )C . Y(t0 ) = Y(t

e eine Fundamentallösung darstellt (die Spalten sind Linearkombinationen von Da auch YC Lösungen) zu den Daten Y(t0 ), muss wegen der Eindeutigkeit von Lösungen auch

8.6 Kontinuierliche und diskrete dynamische Systeme

gelten.

931

e Y(t) = Y(t)C für t ∈ [t0 , T ]



Betrachtet man demnach zu einem Fundamentalsystem X zu C bzw. Y zu D w(n) := det X (n) , bzw. w(t) := det Y(t) ,

(8.105)

dann gilt w(n) , 0 für alle n ∈ N , bzw.

w(t) , 0 für alle t ∈ [t0 , T ] .

(8.106) (8.107)

Dabei heißt w(n) die Casorati18 -Determinante oder Casoratische und w(t) die Wronski19 -Determinante oder Wronskische. w(n) bzw. w(t) beschreibt demzufolge das (vorzeichenbehaftete) Volumen des von den Spalten des Fundamentalsystems aufgespannten Parallelotops im Kn . Konkret gilt für B : Nach Theorem 8.68, 3) hat jede Fundamentallösung die Gestalt Y(t) = exp(At)C

(8.108)

w(t) = det(C) exp(sp(A)t) .

(8.109)

und nach Bemerkung 7.45

Damit ist w Lösung der skalaren linearen Differentialgleichung w(t) ˙ = sp(A)w(t) , w(0) = det(C) . Daraus bzw. direkt aus (8.109) folgt: Satz 8.69: Volumenerhaltung bei sp(A) = 0 Ist sp(A) = 0, dann bleibt bei B das Volumen des von der Fundamentallösung aufgespannten Parallelotops konstant. Die Aussagen gelten auch bei D : 19 19

Felice Casorati ∗17. Dezember 1835 in Pavia †11. September 1890 in Pavia Josef Hoëné-Wronski ∗23. August 1776 in Wolsztyn †9. August 1853 in Paris

932

8 Einige Anwendungen der Linearen Algebra

Satz 8.69a Sei Y ein Fundamentalsystem zu D , und w die zugehörige Wronskische. Dann gilt w(t) ˙ = sp(A(t))w(t) und damit für K = R w(t) = w(t0 ) exp

Z

t t0

! sp(A(s))ds

für alle t ∈ [t0 , T ] .

Beweis: Sei τ ∈ [t0 , T ]. Analog zu (8.108) gilt nach Satz 8.68, 3) e e =1 Y(t) = Y(t)C und Y(τ)

für ein C ∈ GL(n, K) (nämlich C = Y(τ)−1 ) und damit

e e w(t) = det(Y(t)C) = det(C) det(Y(t))

e = (y1 (t), . . . , yn (t)) und wegen der Multilinearität der Determinantenfunktion, bei Y(t) e (det Y(t))˙ =

n X

det(y1 (t), . . . , y˙ j (t), . . . , yn (t)) =

j=1

n X

det(y1 (t), . . . , (Ay j )(t), . . . , yn (t))

j=1

Daraus folgt für t = τ e (det(Y(τ)))˙ =

n X j=1

e det(e1 , . . . , a( j) (τ), . . . , en ) = sp(A(τ)) = sp(A(τ)) det(Y(τ))

Dabei ist A(t) = (a(1) (t), . . . , a(n) (t)) die Spaltendarstellung der Matrix. Also folgt e e w(τ) ˙ = det(C) det(Y(τ))˙ = sp(A(τ)) det(Y(τ)) det(C) = sp(A(τ))w(τ)

Da τ beliebig war, gilt also die Differentialgleichung. Für die weitere Behauptung reicht wegen der Eindeutigkeit der Lösung der Anfangswertaufgabe der Nachweis durch Differentiation, dass w eine Lösung der gefundenen GDG ist.  Bemerkung 8.69b Für eine skalare lineare DGL m-ter Ordnung ist nach ihrer Umschreibung nach (7.23) in ein System 1. Ordnung Satz 8.69a anwendbar. Hier ist dann sp(A(t)) = a(m−1) (t) .



Betrachten wir genauer D i oder C i , so kann nicht nur y ∈ C([t0 , T ], Kn ) bzw. x ∈ (Kn )N0 als Lösung angesehen werden, sondern auch y(t) für t ∈ (t0 , T ] oder x(k) für k > 0 (da auch y 7→ y(r) bzw. x(k) 7→ (x(k) )i linear sind). Auch können y(s) (s ≥ t0 ) bzw. x(k)

8.6 Kontinuierliche und diskrete dynamische Systeme

933

(k ≥ 0) als Anfangswerte angesehen werden. Wegen der Eindeutigkeit ergeben sich auf [s, T ] bzw. für Indizes ab k die gleichen Lösungen. Es gibt also auch die (Zustands-)Übergangsoperatoren für D ( n K → Kn U(t, s) : y(s) 7→ y(t) für t, s ∈ (t0 , T ], t ≥ s, wobei y die Lösung von bei s, bzw. (Zustands-)Übergangsoperatoren für ( n K → U(l, k) : x(k) 7→

i

(8.110)

D i auf [s, T ] mit Anfangsvorgabe C i Kn x(l)

(8.111)

für k, l ∈ N0 , l ≥ k, wobei (x(i) )i die Lösung von C i mit Anfangsvorgabe bei i = k sei. Diese Operatoren sind affin-linear bzw. im homogenen Fall ( D : f = 0 bzw. C : (bi )i = 0) linear. Zur Vereinfachung seien im Folgenden die Daten bei D i auf ganz R (in der nötigen Glattheit für eindeutige Existenz) definiert. Es gilt dementsprechend U(t, t) = id

bzw.

U(k, k) = id

und wegen der eindeutigen Lösbarkeit für r, t, s ∈ R, r ≥ t ≥ s bzw. m, l, k ∈ N, m ≥ l ≥ k U(r, t) ◦ U(t, s) = U(r, s) , U(m, l) ◦ U(l, k) = U(m, k) .

(8.112)

Da D i auch rückwärts in t betrachtet werden kann und auch C i , wenn die Ak als invertierbar vorausgesetzt werden können (siehe Bemerkungen 8.66, 2), 3)), sind auch U(t, s) für t < s bzw. U(l, k) für l, k ∈ Z, l < k wohldefiniert und es gilt für t, s ∈ R bzw. l, k ∈ Z: U(t, s) bzw. U(l, k) sind invertierbar, und U(t, s)−1 = U(s, t) , U(l, k)−1 = U(k, l) .

(8.113)

934

8 Einige Anwendungen der Linearen Algebra

Bemerkungen 8.70 1) Sei U = U(t, s) der Übergangsoperator zum Problem D , dann ist V(s, t) = U † (s, t) der Übergangsoperator zum adjungierten Problem (8.100). Das kann man folgendermaßen einsehen. Seien x0 , y0 ∈ Kn , t, s ∈ [t0 , T ], t ≥ s beliebig und y die Lösung zu (8.93) zum Anfangswert x0 bei s, sei z die Lösung von (8.100) zum Endwert y0 bei t. Nach Bemerkungen 8.66, 6) gilt D E y(t) . z(t) = hy(s) . z(s)i , d. h. D E D E U(t, s)x0 . y0 = x0 . V(s, t)y0 , woraus die Behauptung für diesen Fall folgt. Für t < s kann analog argumentiert werden.

△ Betrachten wir den autonomen und homogenen Fall A oder B , so verändert die Indexbzw. Zeitverschiebung nicht die definierte Gleichung (siehe Bemerkungen 8.66, 4)), somit gilt: U(t, s) = U(t − s, 0) =: U(t − s) , U(m, k) = U(m − k, 0) =: U(m − k) .

(8.114)

Die Abbildungen U:

(

N0 → Hom(Kn , Kn ) m 7→ U(m) bei A

U:

(

R → Hom(Kn , Kn ) t 7→ U(t) bei B

bzw.

haben folgende Eigenschaften: Satz 8.71

1) Bei A gilt U(0) = id , U(m + k) = U(m)U(k) = U(k)U(m) . Ist A ∈ K(n,n) invertierbar, kann N0 durch Z in der Definition von U ersetzt werden und es gilt U(m)−1 = U(−m) für m ∈ Z .

8.6 Kontinuierliche und diskrete dynamische Systeme

935

2) Bei B gilt U(0) = id , U(t + s) = U(t)U(s) = U(s)U(t) , U(t)−1 = U(−t) .

Beweis: Zu 2): U(t)U(s) = U(t, 0)U(s, 0) = U(t + s, s)U(s, 0) = U(t + s, 0) = U(t + s) nach (8.114), (8.112) und U(−t)U(t) = U(−t, 0)U(t, 0) = U(0, t)U(t, 0) = U(0, 0) = id . Der Beweis von 1) ist analog.



Bemerkung 8.72 U bei B ist daher ein Gruppen-Homomorphismus von (R, +, 0) nach (Hom(Kn , Kn ), ◦, id), und damit ist der Unterraum Bild U eine kommutative Gruppe bezüglich ◦. Bei A gilt unter der Voraussetzung, dass A invertierbar ist, das Analoge mit (Z, +, 0) statt (R, +, 0). Ohne diese Voraussetzung ist Bild U nur eine Halbgruppe. △ Mit Hilfe der Übergangsoperatoren für C und D lassen sich auch Lösungen für die inhomogenen Probleme C i und D i angeben. Diese setzen sich wegen des Superpositionsprinzip zusammen aus den Lösungen zu der Anfangsvorgabe bei homogener rechter Seite (x0 , 0) bzw. (y0 , 0) und aus Lösungen zu homogenen Anfangsvorgaben und beliebiger rechter Seite (0, (bk )k ) bzw. (0, f ). Hauptsatz 8.73: Variation der Konstanten Eine Lösung für die inhomogenen Probleme lautet für C i : x(k) := U(k, 0)x0 + x(0) := x0 ,

Pk

i=1

U(k, i)bi−1 für k ≥ 1 ,

(8.115)

für D i : y(t) := U(t, t0 )y0 +

Z

t0

t

U(t, s) f (s)ds für t ∈ [t0 , T ] .

(8.116)

936

8 Einige Anwendungen der Linearen Algebra

Dabei sind U(k, i) bzw. U(t, s) die Übergangsoperatoren für C nach (8.110) bzw. für D nach (8.111). – Das Integral ist komponentenweise zu verstehen. –

Beweis: Zu C i : Es ist zu verifizieren, dass P k    i=1 U(k, i)bi−1 (k) z :=   0

für k ≥ 1 für k = 0

eine Lösung von C i zur rechten Seite (bk )k darstellt. z(k+1) =

k+1 X

U(k + 1, i)bi−1 =

i=1

k X

Ak+1 U(k, i)bi−1 + U(k + 1, k + 1)bk

i=1

= Ak+1 z(k) + bk

für k ∈ N0 .

Zu D i : Analog ist hier z(t) =

Z

t

U(t, s) f (s)ds

(8.117)

t0

zu betrachten. Es ist z(t0 ) = 0 und ˙z(t) berechnet sich nach der Leibnizschen Regel (siehe Analysis ) als Z t Z t d (U(t, s) f (s))ds + 1 · U(t, t) f (t) = A(t)(U(t, s) f (s))ds + f (t) ˙z(t) = t0 t0 dt = A(t)z(t) + f (t)

für t ∈ [t0 , T ] .



Eine andere Bezeichnung für Lösungsansätze obigen Typs ist Prinzip von Duhamel20 . Bemerkungen 8.74 1) Konkretisiert für A i bzw. B i lauten die Lösungsdarstellungen: x(k) = Ak x0 +

k X i=1

Ak−i bi−1 für k ≥ 1 bzw.

y(k) = exp(A(t − t0 ))y0 +

Z

t0

t

exp(A(t − s)) f (s)ds ,

wie schon in Beispiel 7.44, 2) erwähnt. 2) Es werden demnach für jedes i = 1, . . . , k bzw. s ∈ [t0 , t] homogene Anfangswertaufgaben mit den Anfangswerten bi−1 bzw. f (s) gelöst und diese diskret oder kontinuierlich 20

Jean-Marie Constant Duhamel ∗5. Februar 1797 in Saint-Malo †29. April 1872 in Paris

8.6 Kontinuierliche und diskrete dynamische Systeme

937

„gemittelt“, und zwar durch die Operatoren   Vd → W d  P    k (i−1)   , I:  i=1 x (k)   (x ) → 7  k    0 ,

k≥1 k=0

n o wobei Vd := (Kn )N0 und Wd := (z(k) )k ∈ Vd : z(0) = 0 bzw.    Vk → W R k I:  f 7→ t f (s)ds t 0

wobei Vk = C([t0 , T ], Kn ), Wk := {g ∈ C 1 ([t0 , T ], Kn ) : g(t0 ) = 0}. Diese sind gerade die Umkehrabbildungen von ( ( Wk → Vk Wd → Vd bzw. D : D: (y(k) )k 7→ (y(k+1) − y(k) )k g 7→ dtd g (vergleiche Bemerkungen 7.13, 2)). 3) Mit (8.115) bzw. (8.116) lassen sich Lösungsdarstellungen von A bzw. B wieder gewinnen, die auf der Basis von Jordansche Normalformen von A bzw. exp(At) rein algebraisch hergeleitet worden sind: Sei o. B. d. A. A ein Jordan-Block zum Eigenwert λ der Größe s:    λ 1   . . .. ..    ∈ K(s,s) . A =   ..  . 1    λ

Betrachtet man statt y nach A die Komponenten in rückwärtiger Reihenfolge (d. h. in der Originalreihenfolge der Kettenelemente: siehe Theorem 4.106), also zi = y s−i+1 , so erfüllt z : [t0 , T ] → Kn

i = 1, . . . , s ,

 λ  . 1 . . ˙z(t) =   . . . . . .  1 λ

     z(t) ,   

also z˙1 (t) = λz1 (t) bzw. z1 (t) = exp(λt)z1 (t0 ), wobei t := t − t0 . Ab i = 2 treten einseitig gekoppelte Gleichungen

938

8 Einige Anwendungen der Linearen Algebra

z˙i (t) = λzi (t) + zi−1 (t) auf, die auch als inhomogene Probleme mit der (bekannten) rechten Seite zi−1 interpretiert werden können, somit ergibt sich nach (8.116) etwa für i = 2 Z t z2 (t) = exp(λt)z2 (t0 ) + exp(λ(t − s))z1 (s)ds t0

= exp(λt)(z2 (t0 ) + tz1 (t0 ))

und durch sukzessives Fortfahren  k  X 1  k−i  zk (t) = exp(λt)  t zi (t0 ) . (k − i)! i=1

Dies entspricht einer aus (7.29) abgeleiteten bzw. der in (4.87) angegebenen Lösungsdarstellung. Analog kann man bei A mit dem gleichen A nach (8.115) auch x(k) = Ak x(0) berechnen: Werden die Komponenten analog zu oben in rückwärtiger Reihenfolge be(k) (k+1) (k) (k+1) (k) k (0) stimmt, d. h. z(k) = λz(k) = λz(k) i := x s−i+1 , dann z1 1 bzw. z1 = λ z1 und z2 2 + z1 . Nach (8.115) mit U(l, k) = λl−k gilt somit k (0) z(k) 2 = λ z2 +

k X

k−1 (0) λk−i λi−1 z(0) z1 + λk z(0) 1 = kλ 2 =

i=1

! 1 X k k−i (0) λ z2−i i i=0

und durch Fortführung dieser Überlegung z(k) j =

! j−1 X k k−i (0) λ z j−1 , i i=0

j = 1, . . . , s ,

entsprechend der aus (4.76) sich ergebenden Lösungsdarstellung. 4) Nach dem Superpositionsprinzip reicht für die Herleitung von Hauptsatz 8.73 (für D i ), y0 = 0 zu betrachten. Die Bezeichnung rührt daher, dass (8.116) durch folgenden Ansatz hergeleitet werden kann: y(t) := U(t, t0 )ξ(t) d. h. der „konstante“ Anfangsvektor ξ wird „variiert“. Dann folgt ˙ y˙ (t) = U(t, t0 )˙ξ(t) + U(t, t0 )ξ(t) ˙ = A(t)y(t) + U(t, t0 )ξ(t) Also ist y Lösung von D i mit y0 = 0, genau dann, wenn ˙ = f (t) U(t, t0 )ξ(t) ξ(t0 ) = 0 bzw.

8.6 Kontinuierliche und diskrete dynamische Systeme

y(t) = U(t, t0 )

Z

939

t

U(s, t0 )−1 f (s)ds

t0

und damit (8.116), da (siehe Satz 8.71, 2))

U(t, t0 )U(s, t0 )−1 = U(t, t0 )U(t0 , s) = U(t, s) .



Bemerkungen 8.75 Eine Lösungsdarstellung für A bzw. B (und damit A i bzw. B i ) kann auch aus der allgemeinen Kenntnis der Eigenwerte entwickelt werden, ohne die gesamte Jordansche Normalform zu kennen. Dies kann im nichtdiagonalisierbaren Fall von Vorteil sein. Ein solcher Zugang wurde von E. J. Putzer (Putzer 1966) angegeben. Seien λ1 , . . . , λn ∈ C die nicht notwendigerweise paarweise verschiedenen Eigenwerte von A. Sei M0 = 1, Mk := (A − λk 1)Mk−1 für k = 1, . . . , n, dann ist Mn = χA (A) = 0 nach dem Satz von Cayley-Hamilton (Theorem 4.81) und die Matrizen M1 , . . . , Mn−1 singulär mit sukzessive größer werdenden Kernen. 1) Demnach ist es möglich exp(At) als eindeutige Linearkombination von M0 , . . . , Mn−1 darzustellen:

exp(At) =

n−1 X

ui+1 (t)Mi .

(8.118)

i=0

Dabei sind die Koeffizientenfunktionen u = (u1 , . . . , un )t als Lösung eines nur einseitig gekoppelten Problems des Typs B gegeben, d. h. e u(t) ˙ = Au(t),

und

u(0) = e1

  λ1    1 λ2  e :=  . . A .  . . . .    1 λn

(8.119)

(8.120)

Genauer: Die Darstellung (8.118) mit u(0) = e1 gilt genau dann, wenn u eine Lösung von (8.119) mit (8.120) ist. Das kann man folgendermaßen einsehen: „⇐“ Sei Y(t) := werden muss:

Pn−1 i=0

˙ = AY(t) für alle t ∈ R gezeigt ui+1 (t)Mi , dann ist Y(0) = 1, so dass nur noch Y(t)

940

8 Einige Anwendungen der Linearen Algebra ˙ = Y(t)

n−1 X

u˙ i+1 (t)Mi

i=0

und andererseits AY(t) =

n−1 X

ui+1 (t)AMi =

i=0

n−1 X

ui+1 (t)(Mi+1 + λi+1 Mi ) = λ1 u1 (t)M0 +

i=0

=λ1 u1 (t)M0 +

n−1 X

n X

ui (t)Mi +

i=1

n−1 X

λi+1 ui+1 (t)Mi

i=1

(ui (t) + λi+1 ui+1 (t))Mi

i=1

wegen Mn = 0. Nach Definition von u(t) gilt sodann Gleichheit. ˙ = AY(t). Vergleich der obigen Identitäten erzwingt „⇒“ Nach Voraussetzung ist u(0) = e1 und es ist Y(t) u˙ 1 (t) = λ1 u1 (t) u˙ i+1 (t) = ui (t) + λi+1 ui+1 (t),

i = 1, . . . , n − 1 ,

also (8.120).

2) In analoger Weise lässt sich Ak darstellen: Ak =

n−1 X

u(k) i+1 Mi ,

u(0) = e1

i=0

genau dann, wenn e (k) , u(k+1) = Au

e nach (8.120). mit A

u(0) = e1

(8.121)

Der Beweis verläuft analog zu 1): „⇐“ Sei Y (k) :=

Pn−1 i=0

u(k) i+1 Mi , dann Y (0) = 1

und

Y (k+1) =

n−1 X

u(k+1) i+1 Mi

i=0

und andererseits AY (k) =

n−1 X i=0

u(k) i+1 AMi =

n−1 X

(k) u(k) i+1 (Mi+1 + λi+1 Mi ) = λ1 u1 M0 +

i=0

n−1 X

(k) (u(k) i + λi+1 ui+1 )Mi

i=1

und damit Gleichheit nach Definition von u(k) , demzufolge Y (k) = Ak . „⇒“ Die obigen Identitäten erzeugen durch Gleichsetzen die Gültigkeit von (8.121).

8.6 Kontinuierliche und diskrete dynamische Systeme

941

3) Die reduzierten Probleme in (8.119) bzw. (8.121) sind zwar auch im diagonalisierbaren Fall nicht entkoppelt, doch können die Lösungskomponenten analog zu Bemerkungen 8.74, 3) mittels Hauptsatz 8.73 im Prinzip angegeben werden. So gilt für u nach (8.119) u1 (t) = exp(λ1 t) Z t Z t u2 (t) = exp(λ2 (t − s))u1 (s)ds = exp(λ2 t) exp((λ1 − λ2 )s)ds 0 0    für λ1 = λ2 t = exp(λ2 t)    1 exp((λ1 − λ2 )t) für λ1 , λ2 λ1 −λ2

und im Prinzip lässt sich diese Lösungsdarstellung weiter entwickeln aus Z t ui (t) = exp(λi (t − s))ui−1 (s)ds , i = 2, . . . , n . 0

Analog gilt für u(k) nach (8.121): k u(k) 1 = λ1

u(k) i =

k X

j−1) λik− j u(i−1 ,

i = 2, . . . , n .

j=1



Das der Fundamentallösung exp(A(t − t0 )) für B i zugrunde liegende Matrixexponential wurde in Theorem 7.42, Satz 7.43, eingeführt bzw. untersucht. Unabhängig davon kann dies durch einen Differentialgleichungs-Zugang erfolgen. Anwendung der Fixpunktiteration nach (4.12) auf die integrierte Form von D bei y(0) = y0 liefert mit t := t − t0 y(1) (t) = y(0) +

Z

t

Ay(0) ds = (1 + tA)y0

t0

y(2) (t) = y(0) +

Z

t

t0

und bei

t Ay(1) (s)ds = 1 + (tA + A2 )y0 2

 k  X tl  l y (t) =  A  y l!  0 (k)

l=1

folgt

y

k+1

  k+1 X tl  l  A  y (t) =  l!  0 l=1

Wenn gesichert werden kann, dass in C(I, K ), wobei I := [t0 , T ] gilt n

y(k) → y

für k → ∞

942

8 Einige Anwendungen der Linearen Algebra

dann ist y eine Lösung der Anfangswertaufgabe, es gilt also:  ∞ X t l   A  y exp(At)y0 :=  l!  0 l=1

existiert in C(I, Kn ) für alle t, t0 ∈ I und y0 ∈ Kn und ist die Lösung der AWA und damit existiert auch ∞ X 1 l A exp(A) := l! l=1 und exp(A(t − t0 )) ist die Fundamentallösung zum Anfangswert 1.

Bemerkungen 8.75a Analog ergeben sich auch die Eigenschaften des Matrixexponentials 1) Seien A, B ∈ Kn , AB = AB, dann gelten a) A exp(B) = exp(B)A

b) exp(A + B) = exp(A) exp(B) Sei X(t) := A exp(tB), Y(t) := exp(tB)A, dann gilt X(0) = A = Y(0)

und ˙ = AB exp(tB) = BA exp(tB) = BX(t) X(t) Y(t) = B exp(tB)A = BY(t)

und wegen der Eindeutigkeit der Lösung der Anfangswertaufgabe (Bemerkungen 8.66, 7)) also X(t) = Y(t) und mit t = 1 also die Behauptung a). Für b) setze man analog X(t) := exp(t(A + B)) und Y(t) := exp(tA) exp(tB). Wieder gilt X(0) = 1 = Y(0)

und ˙ = (A + B)X(t) X(t) ˙ Y(t) = A exp(tA) exp(tB) + exp(tA)B exp(tB) = (A + B)Y(t)

nach a),

also wieder X(t) = Y(t) und mit t = 1 die Behauptung ii)

2) Seien A, B ∈ K(n,n) , B invertierbar, dann gilt exp(BAB−1) = B exp(A)B−1 Analog zu 1) sei X(t) := exp(tBAB−1 ), Y(t) := B exp(tA)B−1 , also X(0) = 1 = Y(0)

und ˙ = BAB−1 X(t) X(t) ˙ = BA exp(tA)B−1 = BAB−1 Y(t) , Y(t)

also X(t) = Y(t) und mit t = 1 die Behauptung.



8.6 Kontinuierliche und diskrete dynamische Systeme

943

8.6.2 Stabilität: Asymptotisches Verhalten für große Zeiten Für C i bzw. D i soll im Folgenden das Verhalten von Lösungen für k → ∞ bzw. t → ∞ studiert werden: Liegt Konvergenz vor, d. h. x(k) → x∗ für k → ∞

bzw. y(t) → y∗ für t → ∞ , so folgt daraus für z(k) := x(k) − x∗ bzw. z(t) := y(t) − y∗ bzw.

z(k) → 0 für k → ∞

z(t) → 0 für t → ∞

und

Gilt zusätzlich

z(k+1) = Ak+1 z(k) + e bk mit e bk := Ak+1 x∗ − x∗ + bk bzw. ˙z(t) = A(t)z(t) + ef (t) mit ef (t) = A(t)y∗ + f (t) . bzw.

Ak+1 → A, bk → b für k → ∞

A(t) → A, f (t) → f für t → ∞ ,

(8.122)

so folgt e bk → b∗ := Ax∗ − x∗ + b = 0 bzw. ef (t) → f ∗ := Ay∗ + f = 0 .

(8.123)

Für die letzte Identität beachte man

y˙ (t) = A(t)y(t) + f (t) → Ay∗ + f =: yˆ für t → ∞

und damit notwendigerweise yˆ = 0.

Andererseits bezeichnet eine Gleichgewichtslösung eine (für große k bzw. t) konstante Lösung, d. h. für C i ein x∗ , so dass x∗ = Ak+1 x∗ + bk für k ≥ k0 bzw. für D i ein y∗ , so dass A(t)y∗ + f (t) = 0 für t ≥ t0 . Unter der Voraussetzung (8.122) gilt infolgedessen wie in (8.123) bei C

i

bei D

x∗ = Ax∗ + b i

0 = Ay∗ + f .

944

8 Einige Anwendungen der Linearen Algebra

 Insbesondere im zeitunabhängigen Fall A i bzw. B i mit zeitunabhängigen Daten sind daher die Grenzwerte von Lösungen notwendigerweise Gleichgewichtslösungen. Im homogenen Fall C bzw. D ist die Nulllösung eine Gleichgewichtslösung. Ob und wie eine Lösung gegen eine Gleichgewichtslösung konvergiert, hängt vom Stabilitätsverhalten des Systems ab. 

Definition 8.76     1) Das Problem C i heißt stabil in seiner Lösung x(k) (oder auch x(k) heißt k

k

(0) stabil ), wenn   zu ε > 0 ein δ > 0 existiert, so dass aus kx0 − x k ≤ δ für die i (0) (k) Lösung x von C zu x = x0 folgt: k

kx(k) − x(k) k ≤ ε für alle k ∈ N0 .

2) Das Problem D i heißt stabil in einer Lösung y (oder auch y heißt stabil ), wenn zu ε > 0 ein δ > 0 existiert, so dass aus ky0 − y(t0 )k ≤ δ für die Lösung y zu y(t0 ) = y0 folgt:

Ist C

i

h

D

i

i

ky(t) − y(t)k ≤ ε für alle t ∈ [t0 , T ] .

  in x(k) [y] nicht stabil, so heißt es dort instabil. k

Bemerkungen 8.77 1) Damit ist insbesondere die Stabilität (in) einer Gleichgwichtslösung definiert. Stabilität bedeutet in Worten, dass beliebig nah an einer vorgegebenen Lösung (für alle Zeiten) verblieben werden kann, wenn man nur hinreichend nah an dieser startet. 2) Bei D i kann auch ein halbunendliches Intervall [t0 , ∞) betrachtet werden.

3) Die gewählte Vektornorm k . k hat keinen Einfluss wegen der Äquivalenz aller Normen auf Kn (siehe 7.10). △

Im hier vorliegenden Fall gilt verschärfend: Theorem 8.78: Stabilität und Fundamentalsystem   h i Sei x(k) [y] eine beliebige Lösung von C i D i , wobei die rechten Seiten k (bk )k [ f ] als fest vorgegeben angesehen werden. Die folgenden Aussagen sind für C i bzw. D i äquivalent: h i   (i) C i D i ist stabil in x(k) [y]. k

8.6 Kontinuierliche und diskrete dynamische Systeme

(ii) C

i

h

D

i

i





945

ist stabil in xˆ (k) [yˆ ], wobei xˆ (k) die Lösung von k

xˆ (k+1) = Ak+1 xˆ (k) + bk , xˆ (0) = 0

bzw. yˆ von (8.98) ist. (iii) Sei Y(n)[Y(t)] das Fundamentalsystem von C 1], dann existiert ein M > 0, so dass kY(n)k [kY(t)k] ≤ M

h

i D mit Y(0) = 1[Y(t0 ) =

für alle n ∈ N0 [t ∈ [t0 , T ]] ,

wobei k . k eine Norm auf K(n,n) ist.

Beweis: Der Begriff der Stabilität ist die explizite Forderung der Stetigkeit der Abbildung   Φ : D → L, x(0) 7→ x(k) [y0 7→ y] , k wobei die rechte Seite (bk )k [ f ] als fest betrachtet wird, und zwar für D = (Kn , k . k), n     o  L = x(k) ∈ (Kn )N0 : x(k) ist beschränkt , k . kL (C([t0 , T ], Kn ), k . kL ) k

k

mit

o   n k x(k) kL := sup kx(k) k : k ∈ N0

[kykL := sup{ky(t)k : t ∈ [t0 , T ]}] .

Dabei ist k . k die in der Definition benutzte Vektornorm. Da Φ affin-linear ist, reicht es den linearen Anteil zu betrachten bzw. (bk )k = 0 [ f = 0] zu setzen. Der Beweis ergibt sich mit dieser Vorüberlegung sofort: (i)⇒(ii): Theorem 7.4, (iii)⇒(iv) (ii)⇒(iii): Theorem 7.4, (iv)⇒(i) liefert die Beschränktheit des Lösungsoperators, der im homogenen Fall dem Fundamentalsystem Y entspricht, d. h. die Existenz von M > 0, so dass für alle x ∈ D sup{kY(n)xk : n ∈ N0 } ≤ Mkxk ⇔ kY(n)xk ≤ Mkxk für alle n ∈ N0 ⇔ kY(n)k ≤ M für alle n ∈ N0

für die erzeugte Norm k . k und analog kY(t)k ≤ M für alle t ∈ [t0 , T ] . (iii)⇒(i): Theorem 7.4, (i)⇒(iii).



Bemerkung 8.79 Im homogenen Fall C bzw. D ist xˆ bzw. yˆ in ii) die Nulllösung. Stabilität in einer beliebigen Lösung ist somit äquivalent mit Stabilität in der Nulllösung, die auch Gleichgewichtslösung ist. △

946

8 Einige Anwendungen der Linearen Algebra

Im autonomen Fall ist folglich die Beschränktheit von kAk k für alle k ∈ N0

bzw. k exp(At)k für alle t ∈ [t0 , T ]

durch Bedingungen an A zu charakterisieren. Das Erste ist schon in Bemerkungen 7.35 geschehen, für das Zweite gilt: Satz 8.80: Beschränktheit von exp(At) Sei A ∈ K(n,n) , seien λ1 , . . . , λn ∈ C die Eigenwerte von A. Dann sind äquivalent: (i) Es existiert M > 0, so dass k exp(At)k ≤ M für alle t ≥ 0.

(ii) Re λi ≤ 0 für alle i = 1, . . . , n. Ist Re λi = 0, so ist λi halbeinfach.

Beweis: Da die Aussage von der Wahl der Norm unabhängig ist, kann diese wie im Beweis von Bemerkungen 7.35 gewählt werden, d. h. o. B. d. A. seien A = J, die Jordansche Normalform, und k . k die Zeilensummennorm. Also reicht es einen JordanBlock zu einem festen Eigenwert λ = µ + iν zu betrachten (siehe (7.24)). Es gilt daher (7.28) und (7.29). Weiterhin sind die Matrixeinträge betragsmäßig vom Typ | exp(iνt)| exp(µt)|p(t)| =: h(t)

(8.124)

mit p ∈ Kk−1 [x], wobei k die Größe des Jordan-Blocks darstellt.

(ii)⇒ (i): Ist µ < 0, so ist h(t) beschränkt. Ist µ = 0, dann ist k = 1 und damit h auch beschränkt und damit z. B. die Zeilensummennorm in diesen Einträgen. (i)⇒(ii): Ist eine Funktion vom Typ (8.124) für t ≥ 0 beschränkt, so kann nicht µ > 0 sein und im Fall µ = 0 muss p beschränkt sein, also k = 1 und damit λ halbeinfach.  Also: Hauptsatz 8.81: Stabilität im autonomen Fall Sei A ∈ K(n,n) , λ1 , . . . , λn ∈ C die Eigenwerte von A.

1) Das Problem A i ist stabil an einer beliebigen Lösung genau dann, wenn ρ(A) ≤ 1 und Eigenwerte von A mit |λ| = 1 halbeinfach sind.

2) Das Problem B i ist stabil auf [t0 , ∞) an einer beliebigen Lösung genau dann, wenn Re λi ≤ 0 für alle i = 1, . . . , n und λi ist halbeinfach, falls Re λi = 0.

Beweis: 1): Theorem 8.78 und Bemerkungen 7.35. 2): Theorem 8.78 und Satz 8.80.



8.6 Kontinuierliche und diskrete dynamische Systeme

947

Bemerkung 8.82 Können C i (falls die Ak invertierbar sind) bzw. D i nach Bemerkungen 8.66, 2) sowohl „vorwärts“ als auch „rückwärts“ betrachtet werden, so gibt es bei der Stabilität einen gravierenden Unterschied. Im autonomen Fall gilt: Bei A i : Richtungsumkehr bedeutet Wechsel von A zu A−1 bzw. bei den Eigenwerten von λi zu λ−1 i , mithin: i Ist A in Vorwärtsrichtung stabil und |λi | < 1 für einen Eigenwert λi , so ist A i in Rückwärtsrichtung wegen ρ(A−1 ) > 1 instabil und vice versa. Nur wenn für alle Eigenwerte |λi | = 1 gilt, bleibt die Stabilität auch bei Richtungsumkehr erhalten. Bei B i : Richtungsumkehr bedeutet Wechsel von A zu −A bzw. bei den Eigenwerten von λi zu −λi , damit: Ist B i stabil in Vorwärtsrichtung und Re λi < 0 für einen Eigenwert λi , so ist B i in Rückwärtsrichtung instabil und vice versa. Nur wenn für alle Eigenwerte Re λi = 0 gilt, bleibt die Stabilität auch bei Richtungsumkehr erhalten. △ Bemerkung 8.83 Ein Beispiel, bei dem eine Richtungsumkehr bei Beibehaltung der Stabilität möglich ist, ist das Differentialgleichungssystem 2. Ordnung (MM.96) unter der Voraussetzung A > 0, M > 0. Physikalisch entspricht das Modell einer ungedämpften Schwingung. Genau gilt: Ist A positiv definit, so sind nach Satz 7.47 alle Eigenwerte in der äquivalenten Formulierung 1. Ordnung ((MM.97), (MM.98)) rein imaginär und halbeinfach, so dass Stabilität vorliegt. Dies bedeutet für die Massenkette mindestens einseitige Einspannung. Ist A nur positiv semidefinit, so ist λ = 0 nicht halbeinfacher Eigenwert, d. h. es liegt keine Stabilität vor, was auch sofort durch die unbeschränkte Lösung x(t) = tu, für einen Eigenvektor u zu λ = 0 ersichtlich ist. Dies entspricht der Massenkette ohne Einspannung. Sobald „dissipative“ Prozesse (wie z. B. Reibung) hinzukommen, geht diese Eigenschaft verloren, das Modell wird aber stabiler in Vorwärtsrichtung, nämlich asymptotisch stabil . Ein solches Modell, das physikalisch einem Diffusionsprozess entspricht, wird in Beispiel 3(12) besprochen. △ Stabilität sichert nicht die Konvergenz gegen eine Gleichgewichtslösung, aber: Definition 8.84 Sei x∗ ∈ Kn [y∗ ∈ Kn ] eine Gleichgewichtslösung von C

h

i D .

1) Die Gleichgewichtslösung heißt anziehend, wenn es ein ρ > 0 gibt, so dass für kx∗ − x0 k ≤ ρ [ky∗ − y0 k ≤ ρ] gilt x(k) → x∗ für k → ∞

[y(t) → y∗ für t → ∞] ,

948

8 Einige Anwendungen der Linearen Algebra

h

i wobei x(k) [y] die Lösung von C D zu x0 [y0 ] ist. k 2) Eine Gleichgewichtslösung heißt asymptotisch stabil , wenn sie stabil und anziehend ist. 



Theorem 8.85: anziehend im linearen Fall Für C bzw. D sei Y(n) bzw. Y(t) das Fundamentalsystem mit Y(0) = 1 bzw. Y(t0 ) = 1. Dann sind äquivalent: (i) Es gibt eine anziehende Gleichgewichtslösung x∗ ∈ Kn bzw. y∗ ∈ Kn .

(ii)

Y(n) → 0 für n → ∞ bzw. Y(t) → 0 für t → ∞ . Bei Gültigkeit ist eine Gleichgewichtslösung eindeutig ( x∗ = 0 bzw. y∗ = 0) und die Konvergenz ist global, d. h. gilt für jedes x0 [y0 ] ∈ Kn .

Beweis: Wir betrachten C , der Beweis für D verläuft analog. (i)⇒(ii). Es gibt ein ρ > 0, so dass für x0 mit kx0 − x∗ k ≤ ρ gilt: Y(n)x0 → x∗ für n → ∞ . Wegen Y(n)x∗ = x∗ (für große n) ist dies äquivalent mit Y(n)x → 0 für n → ∞ , wobei x = x0 − x∗ ∈ Bρ (0) beliebig gewählt werden kann und damit auch beliebig in Kn wegen der Linearität von Y(n). Damit gilt etwa in einer erzeugten Norm und damit in jeder Norm: kY(n)k → 0 für n → ∞ . (ii)⇒(i): Die obigen Argumente können umgekehrt werden: Sei x∗ eine beliebige Gleichgewichtslösung: kY(n)x0 − x∗ k = kY(n)(x0 − x∗ )k ≤ kY(n)k kx0 − x∗ k → 0 für n → ∞ . Damit muss x∗ eindeutig sein und es liegt sogar globale Konvergenz für jedes x0 vor. Im autonomen Fall ist sodann



8.6 Kontinuierliche und diskrete dynamische Systeme

949

An → 0 für n → ∞

bzw. exp(At) → 0 für t → ∞ zu charakterisieren. Das Erste ist in Hauptsatz 7.34 geschehen, das Zweite folgt in Satz 8.86. Satz 8.86: Konvergenz von exp(At) gegen 0 Sei A ∈ K(n,n) , seien λ1 , . . . , λn ∈ C die Eigenwerte von A. Dann sind äquivalent: (i) exp(At) → 0 für t → ∞.

(ii) Re λi < 0 für alle i = 1, . . . , n.

Beweis: Da die Norm auf K(n,n) beliebig gewählt werden kann, ist der Beweis eine leichte Modifikation des Beweises von Satz 8.80. Es ist folglich die Funktion h aus (8.124) zu beachten, und es reicht festzustellen, dass h(t) → 0 für t → ∞ äquivalent ist mit µ < 0.



Theorem 8.87: Asymptotische Stabilität im autonomen Fall Seien A ∈ K(n,n) und λ1 , . . . , λn ∈ C die Eigenwerte von A. 1) Die Nulllösung ist bei A asymptotisch stabil genau dann, wenn ρ(A) < 1. 2) Die Nulllösung ist bei B asymptotisch stabil genau dann, wenn Re λi < 0 für alle i = 1, . . . , n.

Beweis: Hauptsatz 8.81, Theorem 8.85 und bei 1) Hauptsatz 7.34, bei 2) Satz 8.86.



Bemerkung 8.88 Eine typische asymptotisch stabile Gleichung ist also vom Typ y˙ (t) + By(t) = 0 für t ≥ t0 y(t0 ) = y0 , wobei B > 0 gilt. Nach Bemerkungen 4.137, 3) gilt dies auch für die Verallgemeinerung M y˙ (t) + By(t) = 0 für t ≥ t0 y(t0 ) = y0 ,

wenn B > 0, M > 0.



950

8 Einige Anwendungen der Linearen Algebra

Stabilität wurde als (Lipschitz-)stetige Abhängigkeit der Lösung von Daten eingeführt. Weitere Verschärfungen für C i werden z. B. in Elaydi 2005, S. 173 ff. untersucht, etwa:

Definition 8.89 In der Situation von Definition 8.76 spricht man von exponentieller Stabilität , wenn M > 0, η ∈ (0, 1) existieren, so dass die Abschätzung kx(k) − x(k) k ≤ Mkx(0) − x(0) kηk bei C i bzw. ky(t) − y(t)k ≤ Mky0 − y(t0 )kηt−t0 bei D i gilt. Für den autonomen Fall ergibt sich recht direkt: Satz 8.90: Exponentielle Stabilität im lineraren Fall Seien A ∈ K(n,n) und λ1 , . . . , λn ∈ C die Eigenwerte von A. 1) Die Nulllösung bei A ist asymptotisch stabil genau dann, wenn sie exponentiell stabil ist, wobei dann η ∈ (ρ(A), 1) gewählt werden kann.

2) Die Nulllösung bei B ist asymptotisch wenn sie exponentiell  stabil genau dann,  stabil ist, wobei dann η = exp(ξ) mit ξ ∈ maxni=1 Re λi , 0 gewählt werden kann.

Beweis: Es reicht jeweils der Nachweis der stärkeren exponentiellen Stabilität. Bei 1) existiert nach Theorem 7.32, 2) zu η eine erzeugte Norm k . k, so dass gilt kAk ≤ η und damit kAn k ≤ kAkn ≤ ηn . Bei 2) existiert nach Bemerkung 8.91 eine erzeugte Norm, so dass k exp(At)k ≤ exp(ξt) = exp(ξ)t .



8.6 Kontinuierliche und diskrete dynamische Systeme

951

Bemerkung 8.91 Wendet man Theorem 7.32, 2) auf exp(A) an, erhält man nur k exp(A)k ≤ exp(kAk) ≤ exp(ρ(A) + ε) , d. h. die Tatsache | exp(iν)| = 1 für die Imaginärteile der Eigenwerte geht verloren. Übertragung des dortigen Beweises liefert verschärfend: Zu ε > 0 gibt es eine erzeugte Norm k . k, so dass   n k exp(A)k ≤ exp max Re λi + ε , i=1

wobei λ1 , . . . , λn die Eigenwerte von A seien.

In der Notation des Beweises von Theorem 7.32, 2) gilt exp(A) = C exp(J)C −1 und damit k exp(A)k′′ = k exp(J)k′ = k exp(D + N)k′ n

= k exp(D) exp(N)k′ ≤ k exp(D)k′ k exp(N)k′ ≤ max | exp(i Im λi )| exp(Re λi )) exp(kNk′ i=1

und damit mit kNk′ ≤ ε die Behauptung.





Betrachten wir A i bzw. B i im Spezialfall einer konstanten Inhomogenität, d. h. A B

i

x(k+1) = Ax(k) + b, k ∈ N0 , y˙ (t) = Ay(t) + f , t ≥ t0 .

i

Eine Gleichgewichtslösung x∗ bzw. y∗ von A i bzw. B i ist asymptotisch stabil genau dann, wenn die Nulllösung eine asymptotisch stabile Gleichgewichtslösung von A bzw. B ist. Daher sind dann nach Theorem 8.87 1 − A bzw. A invertierbar und so ist die Gleichgewichtslösung eindeutig bestimmt durch A B

i i

x∗ = Ax∗ + b , 0 = Ay∗ + f .

Nach Theorem 8.78 und Theorem 8.87 gilt

bzw.

x(k) → x∗ für k → ∞ y(t) → y∗ für t → ∞

für beliebige Startwerte x(0) [y0 ]. Es liegt deshalb (im Sinne von Definition 8.19) globale Konvergenz vor in der Form, dass der Grenzwert vom Anfangswert unabhängig ist. Wir fragen, ob noch andere Formen von globaler Konvergenz existieren, d. h. Situatio  nen, in denen auch x(k) bzw. y(t) für k → ∞ [t → ∞] und beliebige Startwerte x(0) k [y0 ] konvergieren, der Grenzwert aber davon abhängt. Da der Grenzwert notwendigerweise Gleichgewichtslösung ist, muss somit (1 − A)x∗ = b bzw. Ay∗ = − f lösbar sein, aber nicht eindeutig, daher muss also bei A i 1 Eigenwert von A bzw. bei B i 0 Eigenwert von A sein. Andererseits muss A bzw. B beschränkt sein.

952

8 Einige Anwendungen der Linearen Algebra

Theorem 8.92: Globale Konvergenz im linearen Fall Sei A ∈ K(n,n) , b, f ∈ Kn . Die LGS x − Ax = b bei A i bzw. Ay = − f bei B seien lösbar. Dann sind äquivalent: Bei A i :

i

(i) Die Lösungen sind bei beliebigem Startvektor x(0) konvergent für k → ∞.

(ii) ρ(A) ≤ 1 und ist λ ein Eigenwert von A mit |λ| = 1, dann gilt λ = 1 und λ ist halbeinfach. Bei B i : (i) Die Lösungen sind bei beliebigem Startvektor y0 konvergent für t → ∞.

(ii) Re(λ) ≤ 0 für jeden Eigenwert λ von A und ist Re(λ) = 0, dann λ = 0 und λ ist halbeinfach. y ∈ Kn eine fest gewählte Beweis: Wir betrachten B i , der Beweis für A i ist analog. Sei b Lösung von Ay = − f . i)⇒ii): Sei x ∈ Kn beliebig und y die Lösung von B i zu y(t0 ) = x + b y. Nach Voraussetzung gilt y(t) → y∗ für t → ∞ und ein y∗ ∈ Kn

und damit e y(t) := y(t) − b y → y∗ − b y. e y ist eine Lösung von B , d. h. e y(t) = exp(A(t − t0 ))e y(t0 ) = exp(A(t − t0 ))x

und dies für beliebiges x ∈ Kn , also

exp(At) → B für t → ∞ und ein B ∈ K(n,n) . Insbesondere ist deswegen exp(At) beschränkt für t ≥ 0 und damit folgt die Behauptung aus Satz 8.80, noch mit der Möglichkeit, dass außer λ = 0 weitere halbeinfache Eigenwerte λ = iν, ν ∈ R, existieren könnten. Nach Beispiel 7.44, 4) gilt auch für jeden (reellen) Jordan-Block J exp(Jt) konvergiert für t → ∞ , was bei J = iν1, ν , 0, nach (7.26) zum Widerspruch führen würde. y(t) := y(t) − b y eine ii)⇒i): Sei y0 ∈ Kn beliebig und y die Lösung zu B i dazu, also ist e y(t0 ) = y0 − b y =: e y0 . Sei E der Eigenraum von A zu λ = 0, sei H die Lösung von B zu e Summe der zu den übrigen Eigenwerten, die folglich alle Re(λ) < 0 erfüllen, gehörigen Haupträume. Sei e y0 = u + x die eindeutige Darstellung in Kn = E ⊕ H. Die Räume E und H sind A-invariant und damit auch exp(At)-invariant für alle t ≥ 0 (siehe (7.24)). Nach

8.6 Kontinuierliche und diskrete dynamische Systeme

953

Satz 8.86 gilt aus diesem Grund exp(At)x → 0 für t → ∞ und exp(At)u = exp(λt)u = u , also

und so

e y(t) = exp(A(t − t0 )e y0 → u y(t) = e y(t) + b y → u +b y für t → ∞.



Bemerkung 8.93 Ist nun bei B i E := Kern A bzw. bei A i E := Kern 1 − A nicht trivial, so ist der Grenzwert vom Startvektor abhängig. Ist bei beliebiger Gleichgewichtslösung b y [b x] der eindeutige Anteil von y0 − b y [x0 − b x] in E mit u bezeichnet, so ist u +b y [u + b x]

der Grenzwert, der nicht von der Wahl von b y [b x] abhängt. Ist P die durch die Zerlegung definierte Projektion von Kn auf E, ist daher der Grenzwert y∗ = Py0 + b y − Pb y für B i ,

d. h. es wird das eindeutig bestimmte y∗ , für das

Py∗ = Py0 h i gilt, als Grenzwert ausgewählt analog für A i .



Bemerkung 8.94 Eine typische asymptotisch stabile Gleichung ist also eine Gleichung der Art M y˙ (t) + By(t) = 0 für t ≥ t0 , , y(t0 ) = y0 ,

wobei M > 0, B > 0 gilt (siehe Bemerkungen 4.137, 3). Ein solcher Fall wird in Beispiel 3(12) besprochen. Ist nur B ≥ 0, so liegt nicht nur Stabilität vor, sondern möglicherweise △ auch globale Konvergenz nach Theorem 8.92. Im Folgenden sollen für die autonomen Fälle A bzw. B in zwei Variablen (n = 2) anhand der Eigenwerte von A alle Möglichkeiten aufgezeigt werden. Sei nunmehr A ∈ R(2,2) , die komplexen Eigenwerte seien mit λ1 , λ2 bezeichnet: Das jeweilige (In)Stabilitätsverhalten in der Gleichgewichtslösung x∗ = (0, 0)t wird   (k) t durch ein Phasendiagramm dargestellt, d. h. durch eine Darstellung von x(k) , x bzw. 1 2

954

8 Einige Anwendungen der Linearen Algebra

(y1 (t), y2 (t))t in der kartesischen Ebene, parametrisiert durch k bzw. t. Wie schnell die dadurch aufgezeigten Trajektorien durchlaufen werden ist mithin aus der Darstellung nicht ersichtlich. Die Richtung, mit der die Lösung für wachsende k bzw. t durchlaufen wird, wird durch Pfeile angedeutet. Richtungs(Pfeil-)umkehr entspricht somit bei A (wenn möglich, d. h. λi , 0) Wechsel von λi zu λ1i , bei B allgemein Wechsel von λi zu −λi . Es wird im Folgenden die Lösung nicht in den Originalkoordinaten (x1 , x2 ) bzw. (y1 , y2 ), sondern in denen einer Hauptvektorbasis dargestellt, in der A Jordansche Normalform hat (ohne Wechsel der Bezeichnung). Die entsprechende Rücktransformation ist dann den nachfolgenden Abbildungen noch zu überlagern (siehe Abbildung 8.7). Bei echt komplexen Eigenwerten entsprechen die Achsen Realteil und Imaginärteil

xˆ2

x2

x1 xˆ1

(a)

(b)

Abb. 8.7: Asymptotisches Verhalten in a) transformierten und b) ursprünglichen Koordinaten. eines Eigenvektors zum ausgewählten Eigenwert λ = µ + iν (statt λ = µ − iν). Für die Differenzengleichung A liegt asymptotische Stabilität genau für den Fall |λ1 |, |λ2 | < 1 vor. Parametrisiert man bei 0 < λ1 < 1 die (transformierte) Lösung mit λk1 =: tk , d. h. (0) (k) (0) x(k) 1 = x1 tk , x2 = x2

λ2 λ1

!k

tk ,

so konvergiert die x2 -Komponente bei λ := λ2 /λ1 > 1 entsprechend langsam gegen 0. Analog ergeben sich die weiteren Fälle in Abbildung 8.8. Die Pfeile sind in wachsender Größe zu lesen. Im nicht diagonalisierbaren Fall, gilt für die Jordansche Normalform

8.6 Kontinuierliche und diskrete dynamische Systeme

955

x2

x2

x1

x1

(a) 0 < λ1 < λ2 < 1, Pfeilumkehr für λ1 > λ2 > 1

(b) −1 < λ1 < λ2 < 0, Pfeilumkehr für λ2 < λ1 < −1

x2

x2

x1

(c) −1 < λ1 < 0 < λ2 < 1, λ2 /λ1 > −1, Pfeilumkehr für λ1 < −1, λ2 > 1, λ2 /λ1 < −1

x1

(d) −1 < λ1 < 0 < λ2 < 1, λ2 /λ1 < −1, Pfeilumkehr für λ1 < −1, λ2 > 1, λ2 /λ1 > −1

Abb. 8.8: Asymptotische Stabilität bei A bei reellen Eigenwerten, A diagonalisierbar. ! ! λ1 λk kλk−1 k J= , d. h. J = für k ∈ N nach (4.75) . 0λ 0 λk Parametrisiert man die (transformierte) Lösung mit tn = λn , so lautet die Lösung: k−1

(0) (k) (0) (0) k x(k) , 2 = x2 tk , x1 = x1 tk + kx2 tk

d. h. es ergibt sich Abbildung 8.9. Im Fall λ1 = 0, λ2 0 ist die x1 -Komponente konstant, die x2 -Komponente läuft auf die x1 -Achse zu bzw. weg. Im Fall λ1 = λ2 = 0 gibt es die (k) (k+1) (k+1) (k) Fälle x(k) = x(k) = 0, also auch x(k) 1 = x2 = 0 und x1 2 , x2 1 = x2 = 0 für k ≥ 2 (Abbildung 8.9 (h)).

956

8 Einige Anwendungen der Linearen Algebra

x2

x2

x1

x1

(e) 0 < λ1 = λ2 < 1, Pfeilumkehr für λ1 = λ2 , λi > 1

(f) −1 < λ1 = λ2 < 0, Pfeilumkehr für λ1 = λ2 , λi < −1

x2

x2

x1

(g) λ1 = 0, λ2 < 0, Pfeilumkehr für λ2 > 0

x1

(h) λ1 = λ2 = 0

Abb. 8.8: Asymptotische Stabilität bei A bei reellen Eigenwerten, A diagonalisierbar.

Den Fall komplexer Eigenwerte zeigt Abbildung 8.10. Die stabilen, aber nicht asymptotisch stabilen Fälle sind in Abbildung 8.11 und schließlich die (in beiden Zeitrichtungen) instabilen Fälle in Abbildung 8.12 dargestellt. Hier spricht man von einem Sattelpunkt . Man beachte bei Abbildung 8.11 a), dass durchaus (startwertunabhängige) Konvergenz gegen eine Gleichgewichtslösung, d. h. einen Eigenwert von A zu λ = 1, stattfindet, aber i. Allg. nicht gegen (0, 0)t . Für die Differentialgleichung B ist die Stabilitätsklassifikation völlig analog, wobei jetzt die gestrichelten Linien den Trajektorien entsprechen, die aber nun exponentiell in der Zeit t durchlaufen werden. Anstelle von λi bestimmt Re λi das Stabilitätsverhalten und die Bedingung |λi | S 1 ist durch Re λi S 0 zu ersetzen.

8.6 Kontinuierliche und diskrete dynamische Systeme

957

x2

x2

x1

x1

(a) 0 < λ < 1, Pfeilumkehr bei λ > 1

(b) −1 < λ < 0, Pfeilumkehr bei λ < −1

Abb. 8.9: Asymptotische Stabilität bei A im nicht diagonalisierbaren Fall. x2

x1

Abb. 8.10: Asymptotische Stabilität bei A bei echt komplexen Eigenwerten, |λi | < 1, Pfeilumkehr und -umtausch für |λi | > 1. Asymptotische Stabilität liegt also vor bei: λ1 < λ2 < 0: siehe Abb. 8.8, a); λ1 = λ2 < 0: siehe Abb. 8.8, e) (diagonalisierbarer Fall); siehe Abb. 8.9, a) (mit x1 , durch −x1 , ersetzt) (nicht diagonalisierbarer Fall); λi ∈ C\R, Re λi < 0, Im λi , 0: siehe Abb. 8.10;

Pfeilumkehr bei: 0 < λ2 < λ1 λ1 = λ2 > 0 Re λi > 0 .

958

8 Einige Anwendungen der Linearen Algebra

x2

x2

x1

(a)

0 < λ1 < λ2 = 1 Umkehrung für 1 = λ2 < λ1

x1

(b)

λ1 ∈ C\R, λ2 = λ1 , |λi | = 1, Im λ1 > 0 Umkehrung für Im λ1 < 0

Abb. 8.11: Stabilität bei A .

x2

x1

0 < λ1 < 1 < λ2 , Umkehrung für 0 < λ2 < 1 < λ1

Abb. 8.12: Instabilität (in beide Richtungen) bei A . Sattelpunktverhalten liegt vor bei; λ1 < 0 < λ2 : siehe Abb. 8.12;

Pfeilumkehr bei λ2 < 0 < λ1 .

8.6 Kontinuierliche und diskrete dynamische Systeme

Stabilität liegt vor bei; λi ∈ C\R, Re λi = 0: siehe Abb. 8.11 b); λ1 < 0, λ2 = 0: siehe Abb. 8.11, a) λ1 = λ2 = 0

959

Pfeilumkehr bei λi > 0 .

Mehr Informationen, insbesondere auch zu nichtlinearen Differential- und Differenzengleichungen finden sich in den einschlägigen Lehrbüchern, von denen exemplarisch Amann 1995 und Elaydi 2005 genannt seien.

8.6.3 Approximation kontinuierlicher durch diskrete dynamische Systeme In (4.25), (4.26) ist mit dem expliziten Euler-Verfahren eine erste Approximation einer gewöhnlichen Differentialgleichung 1. Ordnung durch eine Differenzengleichung 1. Ordnung angegeben worden. Diese und Alternativen bzw. die gleiche Konstellation für die Ordnung 2 sollen im Folgenden untersucht werden. Eingangs soll aber noch das Spektrum der (physikalischen) Modelle erweitert werden. Beispiel 3(12) – Jenseits der Massenkette: Stofftransport durch Diffusion Ein zu (MM.96) scheinbar sehr ähnliches Modell ergibt sich, wenn bei gleichen Voraussetzungen und Beispielen für die Matrizen M und A die analoge Anfangswertaufgabe für eine gewöhnliche Differentialgleichung 1. Ordnung betrachtet wird: Gesucht ist x : [t0 , ∞) → Rm , so dass M x˙ (t) + Ax(t) = f (t) für t ≥ t0 , und x(t0 ) = x0 .

(MM.106)

Ein solches Problem entsteht, wenn man dem in Beispiel 3 bzw. allgemeiner in Abschnitt 1.6 entwickelten Modell eine andere physikalische Bedeutung gibt. Dazu werden Knoten x0 < x1 < . . . < xn−1 < xn betrachtet und das dadurch definierte Intervall [x0 , xn ] und seine Zerlegung ∆ (siehe Definition 1.29). In jedem Knoten denken wir uns die Masse eines Stoffes mit Konzentration ui , i = 0, . . . , n. Eine (sekundäre) Zerlegung e ∆ von [x0 , xn ] sei definiert durch F0 := [x0 , x 21 ), Fi := [xi− 12 , xi+ 21 ) für i = 1, . . . , n − 1, Fn := [xn− 12 , xn ],

wobei xi+ 12 :=

1 2 (xi

+ xi+1 ) für i = 0, . . . , n − 1, siehe Abbildung 8.13. Seien (analog zu (1.35)) hi :=

xi − xi−1 , i = 1, . . . , n die Schrittweiten in der Zerlegung und hi die Länge von Fi , gegeben durch h0 :=

1 1 1 h1 , hi = (hi + hi+1 ), i = 1, . . . , n − 1, hn = hn . 2 2 2

(MM.107)

Die „Kontrollelemente“ Fi können als mit einer Substanz angefüllte Behältnisse (Compartments ) angesehen werden, deren (konstante) Konzentration ui ist. Der Vektor u spielt hier die gleiche Rolle wie die Auslenkung x bei der Massenkette. Das hier für das Modell wesentliche Erhaltungsprinzip ist die Erhaltung der Masse. Dies bedeutet, dass bei der „Übergabe“ von Fi zu einem benachbarten Compartment keine Masse verloren geht oder entsteht. Dies kann mit Hilfe des Massenflusses qi , i = 0, 12 , . . . , n − 12 , n, formuliert werden, der daher an den Eckpunkten der Fi definiert ist (und der Kraft y bei der Massenkette entspricht). qi > 0 bedeutet Fluss von links nach rechts und vice versa. Betrachtet man das Compartment

960

8 Einige Anwendungen der Linearen Algebra

Fi , i = 1, . . . , n − 1, so fließt bei xi− 12 der Fluss qi− 21 in Fi hinzu und bei xi+ 12 der Fluss qi+ 21 aus Fi heraus. Um eine stationäre Konzentrationsverteilung zu erreichen, müssen sich diese Flüsse kompensieren oder aber es muss eine (konstante) Quelldichte fi vorhanden sein, die für den Überschuss oder Verlust verantwortlich ist, d. h. die Massenbilanz in Fi lautet qi+ 12 − qi− 21 = fi hi , i = 1, . . . , n − 1.

(MM.108)

Hier geht man davon aus, dass fi > 0 eine Quelle und fi < 0 eine Senke beschreibt, da die linke Seite der Gleichung je nach Vorzeichen den Verlust oder Gewinn durch den Nettoabfluss über die Randpunkte von Fi beschreibt. Das zum Hookeschen Gesetz analoge Gesetz ist das Ficksche21 Gesetz und besagt, dass der Massenfluss proportional zum Konzentrationsgefälle ist. Also q := (q 12 , . . . , qn− 12 )t , q = Cg,

(MM.109)

wobei C = diag(ci+ 21 ), ci+ 12 > 0, i = 0, . . . , n − 1, die Matrix aus den Diffusionskoeffizienten darstellt und g = (g 12 , . . . , gn− 21 )t also durch gi+ 21 = −

1 (ui+1 − ui ), i = 0, . . . , n − 1 hi+1

(MM.110)

gegeben ist. (Dies ist exakt, wenn man den ui die Interpolierende in S 1 (∆) zuordnet.) Durch Einsetzen erhält man aus (MM.108) n− 1 lineare Gleichungen für die Unbekannten u0 , . . . , un , die mithin noch durch Randbedingungen um zwei Gleichungen zu ergänzen sind. In den Randpunkten a := x0 und b := xn kann die Konzentration (Dirichlet22 -Randbedingung ) oder auch der Massenfluss (aus dem Intervall heraus) (Fluss-Randbedingung ) vorgegeben werden: Die Dirichlet-Randbedingung lautet bei x = a : u0 = ua , bei x = b : un = ub für gegebene ua , ub ∈ R. (MM.110) wird zu 1 1 u1 + ua , h1 h1 1 (ui+1 − ui ), i = 1, . . . , n − 2, =− hi+1 1 1 = un−1 − ub . hn hn

g 12 = − gi+ 12 gn− 21

F0

F1 x 23

x 21

x0

Fn−1

x1

xn− 23

x2

xn−2

Fn

xn− 21

xn−1

xn

Abb. 8.13: Zerlegung und sekundäre Zerlegung. 21 22

Adolf Eugen Fick ∗3. September 1829 in Kassel †21. August 1901 in Blankenberge Johann Peter Gustav Lejeune Dirichlet ∗13. Februar 1805 in Düren †5. Mai 1859 in Göttingen

8.6 Kontinuierliche und diskrete dynamische Systeme

961

Hierdurch reduzieren sich die Unbekannten auf u1 , . . . , un−1 und das entstehende LGS ist quadratisch. Um dessen Struktur besser einzusehen, beschränken wir uns auf den Fall einer äquidistanten Zerlegung, d. h. hi = h, i = 1, . . . , n, hi = h, i = 1, . . . , n − 1, h0 = hn =

h , 2

wobei h := (xn − x0 )/n. (MM.110) lässt sich dann unter Beachtung der Dirichlet-Randbedingungen für u = (u1 , . . . , un−1 )t schreiben als 1 1 g = − Bu + uD , h h wobei uD = (ua , 0, . . . , 0, −ub )t und B ∈ R(n,n−1) der Matrix B aus (MM.35) entspricht. Analog schreibt sich (MM.108) als −Bt q = h f , demnach folgt zusammen mit (MM.109) Bt CBu = ef := h2 f + Bt CuD

(MM.111)

und somit genau die Gestalt (MM.41). Die homogene Dirichlet-Bedingung (ua = ub = 0) entspricht damit der Einspannung der Massenkette. Man spricht auch von der stationären (diskreten) Diffusionsgleichung. Die Fluss-Randbedingung lautet bei x = a :

− q0 = qa ,

bei x = b : qn = qb für gegebene qa , qb ∈ R. Mit der Massenbilanz (MM.108) in F0 bzw. in Fn , d. h.

q 12 − q0 = f0 h0 und qn − qn− 21 = fn hn , erhält man q 12 = f0 h0 − qa ,

(MM.112)

−qi− 21 + qi+ 21 = fi hi , i = 1, . . . , n − 1, −qn− 1 = fn hn − qb . 2

Aus diesen n + 1 Gleichungen entsteht durch Einsetzen von (MM.109) und (MM.110) ein quadratisches LGS für u0 , . . . , un . Im äquidistanten Fall lässt sich (MM.112) schreiben als −Bt q = h ˆf − qF , wobei qF := (qa , 0, . . . , 0, qb )t , ˆf := ( 21 f0 , f1 , . . . , fn−1 , 12 fn )t und B ∈ R(n,n+1) definiert ist durch

Aus (MM.110) folgt

 −1 1  ..  .  B =    

   ..  .   . .. ..  . .  −1 1

(MM.113)

962

8 Einige Anwendungen der Linearen Algebra 1 g = − Bu, h

daher Bt CBu = ef := h2 ˆf − hqF .

(MM.114)

Für C = 1 ist die Systemmatrix, d. h. Bt B, die Matrix A aus (MM.15), d. h. die Vorgabe des Flusses an beiden Rändern entspricht bei der Massenkette der Freigabe beider Einspannungen und führt nach (MM.15) ff. bzw. allgemeiner Satz 2.72 zu einer Matrix mit eindimensionalen Kern, für die dann (MM.114) nicht eindeutig lösbar ist. Analog führt etwa die Dirichlet-Vorgabe bei xn und die Flussvorgabe bei x0 zu einem der einseitigen Einspannung analogen LGS, d. h. (bei äquidistanter Zerlegung) zu einem B wie in (MM.36). Wird kein stationärer Zustand, sondern eine zeitliche Entwicklung der Konzentrationswerte betrachtet, so ist für t0 , T ∈ R, t0 < T eine Funktion u : [t0 , T ] → Rm gesucht (m = n − 1, n + 1, n, je nach Randbedingung). Da dann u˙ i je nach Vorzeichen als Senke oder Quelle(ndichte) interpretiert werden kann, ist also in (MM.108) h fi durch h( fi − u˙ i ) zu ersetzen (wenn die Konzentration als konstant für Fi angenommen wird). Mit dieser Modifikation und aus (MM.111) bzw. (MM.114) ergibt sich: h2 u˙ (t) + Bt CBu(t) = ef ,

(MM.115)

d. h. ein lineares Differentialgleichungssystem 1. Ordnung, das mit der Vorgabe u(t0 ) = u0 eine Anfangswertaufgabe ergibt. Man spricht auch von der instationären (diskreten) Diffusionsgleichung . Da Quellendichte f und Randbedingungen zusammen die rechte Seite in (MM.115) bilden, kann bei zeitabhängigem f auch die Randvorgabe zeitabhängig sein (d. h. ua = ua (t) etc.), ohne dass sich der Charakter von (MM.115) ändert. ^ Beispiel 3(13): Diffusionsproblem Hier soll das asymptotische Verhalten für t → ∞ bei (MM.115) untersucht werden. Zur Vereinfachung sei eine äquidistante Zerlegung vorausgesetzt. Sei M := h2 1,

A := Bt CB,

mit C = diag(ci+ 1 ), ci+ 1 > 0. 2

2

Sei f (t) = f für t ≥ t0 . Bei Dirichlet-Randbedingungen ist B durch (MM.35) gegeben und damit ist A > 0,

M −1 A > 0

nach Bemerkungen 4.137, 3). Das „stationäre“ Problem Au∗ = ef

ist somit eindeutig lösbar und nach Theorem 8.85 und Theorem 8.87 ist die Gleichgewichtslösung u∗ asymptotisch stabil (man beachte den Vorzeichenwechsel in der Systemmatrix A zwischen der Formulierung (MM.106) und Problem B i (8.95)) und damit für beliebiges u0 : u(t) → u∗ für t → ∞ , und zwar exponentiell nach Satz 8.90,2). Die stationäre Lösung existiert immer und „vergisst“ die Anfangsvorgabe u(t0 ), was physikalisch gerade der „Offenheit“ des Systems entspricht.

8.6 Kontinuierliche und diskrete dynamische Systeme

963

Bei einer Fluss-Randbedingung ist B durch (MM.113) gegeben und damit nach Bemerkungen 4.137, 3) A≥0,

M −1 A ≥ 0 ,

aber Kern A = Kern B = span(1) nach Satz 2.67,1). Daher ist das stationäre Problem genau dann lösbar, wenn ef ∈ Kern(At )⊥ = Kern(A)⊥ ,   n+1 n X X   1 1 e  also fi = 0 bzw. h  f0 + fi + fn+1  = qa + qb . 2 2 i=1 i=1

Dies besagt, dass sich ein stationärer Zustand einstellen kann genau dann, wenn sich die verteilten Zuflüsse durch die Quelldichte f mit den Randzuflüssen q kompensieren. Im Fall der Lösbarkeit unterscheiden sich stationäre Lösungen in einer Konstante. Nach Theorem 8.92 konvergiert für beliebiges u0 u(t) → u∗

für t → ∞

und der Beweis zeigt, dass die Konvergenz auch hier exponentiell ist. Es wird die stationäre Lösung u∗ ausgewählt, für die n X i=0

u∗i =

n X

u0,i ,

(MM.116)

i=0

die daher in diesem Sinn die gleiche Masse wie die Anfangsvorgabe hat. Dies ergibt sich aus Bemerkung 8.93: A ist diagonalisierbar und die Eigenräume sind orthogonal (nach Satz 4.65, 6)), sodass die Projektion P auf Kern A, den Eigenraum zu λ = 0, orthogonal ist (siehe Bemerkungen 4.61) und damit P  n i=0 ui 1 für u ∈ Rn+1 . Pu = n+1 Die Bedingung (MM.116) ist also nur die Konkretisierung von Pu∗ = Pu0 . Physikalisch entspricht die beschriebene Situation der „Abgeschlossenheit“ des Systems.

^

Im Folgenden wird wegen der Beispiele 2 und 3 die Formulierung (MM.106) verwendet. Dabei sei M als positiv definit vorausgesetzt: M ∈ R(m,m) ,

M > 0.

Man beachte den Vorzeichenwechsel im Term Ax(t) gegenüber (4.24) und der gesamten Behandlung gewöhnlicher Differentialgleichungen einschließlich der Abschnitte 8.6.1, 8.6.2. Das explizite Euler-Verfahren angewendet auf (MM.106) ist analog zu (4.25), (4.26) das Differenzenverfahren x(0) = x0 und M

 1  (k+1) x − x(k) + Ax(k) = f (tk ), k ∈ N, bzw. ∆t x(k+1) = AEE x(k) + g(k) ,

(8.125)

964

8 Einige Anwendungen der Linearen Algebra

wobei g(k) := ∆tM −1 f (tk ) und AEE := 1 − ∆tM −1 A. Im üblichen Fall, dass M eine Diagonalmatrix ist, erscheint dieses Verfahren insofern attraktiv, als dass für einen Schritt von (8.125) als wesentlichen Anteil nur ein Matrix-Vektor-Produkt mit einer bekannten Matrix nötig ist (daher die Benennung als „explizit“). Eine Alternative zum expliziten Euler-Verfahren ist das implizite Euler-Verfahren, bei dem anders als in (4.25) der Differenzenquotient als rückwärtsgenommen interpretiert wird, d. h. 1 (x(tk+1 ) − x(tk )) ≈ x˙ (tk+1 ), ∆t so dass also die zu (MM.106) approximierende Differenzengleichung lautet: M

 1  (k+1) x − x(k) + Ax(k+1) = f (tk+1 ), k ∈ N, bzw. ∆t x(k+1) = AIE x(k) + g(k+1) ,

(8.126)

 −1 wobei g(k+1) := (M + ∆tA)−1 ∆t f (tk+1 ) und AIE := 1 + ∆tM −1 A . Wie üblich sollte man hier nicht die inverse Matrix berechnen, sondern x(k+1) durch Lösen eines LGS bestimmen, etwa von   (M + ∆tA) z(k) = ∆t −Ax(k) + f (tk+1 ) , um dann

x(k+1) := x(k) + z(k)

zu setzen. Der Aufwand ist hier folglich höher als bei (8.125), da x(k+1) nur „implizit“ gegeben ist, obwohl sich dies dadurch relativiert, dass (wegen der konstanten Zeitschrittweite ∆t) einmalig eine LR-Zerlegung von M + ∆tA berechnet werden kann, so dass dann für jeden Iterationsschritt nur eine Vorwärts- und Rückwärtssubstitution nötig ist. Beide Formulierungen haben aber deutlich unterschiedliches Stabilitätsverhalten, was für die implizite Variante sprechen kann. Sei dazu zunächst vorausgesetzt: A ∈ R(m,m) , A ≥ 0. Dies ist die typische Situation der diskreten Diffusionsgleichung aus Beispiel 3(12). Das Stabilitätsverhalten abhängig von den Randbedingungen wurde in Beispiel 3(12) für die Diffusionsgleichung untersucht. Die Approximation (8.125) bzw. (8.126) sollte also auch (asymptotisch) stabil sein. Es gilt: Theorem 8.95: Stabilität explizites und implizites Euler-Verfahren Betrachtet werde (MM.106), wobei M > 0, A ≥ 0. Dann gilt:

1) Das implizite Euler-Verfahren ist für alle ∆t > 0 stabil, d. h. die Nulllösung ist bei g(k) = 0 (für große k ∈ N) stabil und global konvergent für k → ∞ bei konstanter rechter Seite. Ist A > 0, so ist das implizite Euler-Verfahren (im analogen Sinn) asymptotisch stabil.

8.6 Kontinuierliche und diskrete dynamische Systeme

965

2) Das explizite Euler-Verfahren ist stabil bei konstanter rechter Seite (analog zu 1)) genau dann, wenn ∆t ≤

2 . max{λi ∈ R : λi ist Eigenwert von M −1 A}

(8.127)

Ist A > 0, dann ist das explizite Euler-Verfahren asymptotisch stabil genau dann, wenn (8.127) mit echter Ungleichung gilt. Dann ist es auch global konvergent für t → ∞.

Beweis: Nach Bemerkungen 4.137, 3) ist M −1 A positiv (semi)definit, d. h. die Eigenwerte λi erfüllen λi > 0 (λi ≥ 0). Die Klammer bezieht sich dabei auf die abgeschwächte Voraussetzung A ≥ 0. Zu 1): Die Eigenwerte µi von AIE sind µi =

1 (1 + ∆tλi )

für alle i = 1, . . . , m.

Damit gilt 0 < µi ≤ 1 für alle i = 1, . . . , m

(8.128)

und µi = 1 genau dann, wenn λi = 0. Die Behauptung folgt aufgrund dessen aus Hauptsatz 8.81, Theorem 8.92 und Theorem 8.87. (Da M −1 A diagonalisierbar ist, ist auch AIE diagonalisierbar, damit sind insbesondere alle µi halbeinfach). Zu 2): Die Eigenwerte µi von AEE sind µi = 1 − ∆tλi

für alle i = 1, . . . , m

und damit µi ≤ 1 für alle i = 1, . . . , m.

(8.129)

µi = 1 genau dann, wenn λi = 0. Es bleibt µi ≥ −1 zu charakterisieren. Im Fall λi = 0 gilt immer µi > −1. Im Fall λi > 0 gilt µi ≥ −1 genau dann, wenn ∆t ≤ 2/λi und analog mit >, 0, A > 0, f ∈ C ([t0 , ∞), Km ), x0 , x′0 ∈ Km . Gesucht ist x : [t0 , ∞) → Km , so dass M x¨ (t) + Ax(t) = f (t)

für t ≥ t0

x(t0 ) = x0 , x˙ (t0 ) = x′0 .

und

(8.131)

Eine Approximation für x¨ (tn ) erhält man durch Hintereinanderausführung eines rückwärts und eines vorwärts genommenen Differenzenquotienten, was zur Differenzengleichung M

 1  (k+1) x − 2x(k) + x(k−1) + Ax(k) = f (tn ) 2 (∆t)

für k ∈ N

mit den Anfangsvorgaben

x(0) = x0 ,

 1  (1) x − x(0) = x′0 ∆t

führt. (Tatsächlich wird für die zweite Anfangsvorgabe meist eine andere genauere Approximation benutzt, was hier nicht weiter verfolgt werden soll.) Mit e := (∆t)2 M −1 A A

lautet nun die Differenzengleichung 2. Ordnung

8.6 Kontinuierliche und diskrete dynamische Systeme

967

e (k) = ef (k) x(k+1) − 2x(k) + x(k−1) + Ax mit

(0)

x

= x0 , x

(n)

(1)

=

e x′0

(:=

(8.132) ∆tx′0

+ x0 ),

wobei ef := (∆t)2 f (tn ). Hier handelt es sich um ein explizites Verfahren, da zur Berechnung von x(k+1) aus x(k) und x(k−1) kein LGS gelöst werden muss. Statt von 2. Ordnung spricht man vom Zweischrittverfahren . Analog zu Beispiel 4.57 kann (8.132) in eine Differenzengleichung 1. Ordnung im K2n transformiert werden. Mit dem Ansatz ! x(k−1) u(k) = für k ∈ N x(k) ist (8.132) äquivalent zu u(k+1) =

  !  0  0 1 (k)  (k)  . u + e ef −1 21 − A

Anwendung der entwickelten Theorie darauf liefert:

Satz 8.97: Stabilität zeitdiskrete Wellengleichung Seien M > 0, A > 0, λ1 , . . . , λm die Eigenwerte von M −1 A. Dann ist das Zweisch(k) rittverfahren (8.132) stabil, d. h. die Nulllösung ist stabil für ef = 0, genau dann, wenn (∆t)2 λi < 4 für alle i = 1, . . . , m

gilt. Das Verfahren ist nie asymptotisch stabil (im analogen Sinn).

Beweis: Es sind folglich die Eigenwerte µi , i = 1, . . . , 2m, von ! 0 1 B := e −1 21 − A in Abhängigkeit von den λi zu bestimmen: 0 = det

!   −µ1 1 e+ 1 = det (µ − 2)µ1 + µA e −1 (2 − µ)1 − A

gilt nach Aufgabe 2.36. Also ist notwendigerweise µi , 0 und damit lautet die Gleichung für die µi ! e − µ(2 − µ) − 1 1 0 = µm det A µ

968

8 Einige Anwendungen der Linearen Algebra

und somit gilt: µ ist Eigenwert von B genau dann, wenn λ=

(2 − µ)µ − 1 e ist Eigenwert von A. µ

Die Beziehung zwischen µ und λ lautet daher

1

µ2 + (λ − 2)µ + 1 = 0 bzw. µ(1),(2) =

2 − λ ± (λ(λ − 4)) 2 . 2

Dies zeigt: Für λ ∈ (0, 4) sind die µ(1),(2) konjugiert komplex und |µ(i) | = 1. Für λ = 4 ist µ(1) = µ(2) = −1. Für λ > 4 sind die µ(1),(2) reell und verschieden, zudem gilt für einen Wert |µ(i) | > 1. Der Eigenwert µ = −1 ist nicht halbeinfach, denn wegen ! ! u u e = 4w, =− genau dann, wenn w = −u, Aw B w w

e zu hat der Eigenraum von B zu µ = −1 nur genau die Dimension des Eigenraums von A λ = 4. Andererseits ist die algebraische Vielfachheit von µ = −1 für B doppelt so groß wie e Damit folgt die Behauptung aus Hauptsatz 8.81 und Theorem 8.87. die von λ = 4 bei A. Bemerkungen 8.98

1) Analog zu Bemerkungen 8.96,2) lautet für konkrete schwingende Massenketten bei konstanter Federkonstante c und Masse m (1/cA nach (MM.11) oder (MM.12)) die Stabilitätsbedingung c ∆t m h

!2

< 1.

(8.133)

Gibt man h vor und betrachtet die entstehende Restriktion für die Zeitschrittweite ∆t, ist sie deutlich schwächer als (8.130). 2) Ist A nur positiv semidefinit, so hat B den Eigenwert µ = 1, der nicht halbeinfach ist.

! ! u u e = 0, d. h. der Eigenraum von B zu µ = 1 hat nur die Dimension genau dann, wenn w = u, Au = w w des Eigenraums von A zu λ = 0. B

Die Massenkette ohne Einspannung (A z. B. nach (MM.15)) liefert ein immer instabiles Differenzenverfahren, analog zum Verhalten der Differentialgleichung (siehe Bemer△ kung 8.83).

8.6 Kontinuierliche und diskrete dynamische Systeme

969

8.6.4 Ausblick: Vom räumlich diskreten zum räumlich verteilten kontinuierlichen Modell Die in Beispiel 2 und 3 betrachteten Prozesse waren entweder stationär oder zeitabhängig, in ihrem räumlichen Aspekt aber immer diskret. Die diskreten räumlichen „Elemente“, d. h. die Federn bei der Massenkette oder Compartments beim Diffusionsproblem (Beispiel 3) bzw. die Widerstände und Quellen beim elektrischen Netzwerk (Beispiel 2) sind dabei entweder in einer „Linie“ angeordnet oder komplizierter zweidimensional. Wir betrachten hier nur die Fälle aus Beispiel 3. Die für die Massenkette erhaltenen Modelle werden formal identisch mit denen des Diffusionsproblems, wenn die Auslenkungen x in u umbenannt werden und mit der Zerlegung ∆ : x0 < x1 < . . . < xn−1 < xn die festen Ortspositionen der Endpunkte der Federn bezeichnet werden. Die Federn entsprechen dann (bei beidseitiger Einspannung) Ei := [xi−1 , xi ), i = 1, . . . , n − 1, En = [xn−1 , xn ], jeweils mit Länge hi . Das konstitutive Gesetz ist hier das Hookesche Gesetz, bisher geschrieben als y = Ce . Tatsächlich ist die Dehnung aber das relative Maß der Längenänderung in Bezug auf eine Referenzlänge. Solange diese wie bisher konstant waren, spielte dies keine Rolle, da sie in die Federkonstanten inkorporiert werden können. Im Folgenden soll die Anzahl der Federn unbeschränkt wachsen und damit ihre Länge gegen 0 gehen. Daher ist e zu ersetzen durch ei := (ui − ui−1 )/hi ,

i = 1, . . . , n ,

(8.134)

was gerade (MM.110) entspricht. Analog ist die Kräftebilanzgleichung zu ersetzen durch yi − yi+1 = fi hi ,

i = 1, . . . , n − 1

(8.135)

mit hi nach (MM.107), wenn fi als eine Kraftdichte interpretiert wird. Dies entspricht gerade (MM.108). Wird u identifiziert mit der Interpolierenden in S 1 (∆) bzw. y mit der ˜ (∆˜ sei die durch die Fi gegebene sekundäre Zerlegung), dann Interpolierenden in S 1 (∆) lassen sich (8.134), (8.135) auch schreiben als ei = (∂ x u)(xi−1/2 ) , i = 1, . . . , n,

und

− (∂ x y)(xi ) = fi , i = 1, . . . , n − 1 .

Dabei bezeichnet ∂ x die partielle Ableitung einer Funktion nach x. Zusammen mit Ce = y legt dies im Grenzfall n → ∞, d. h. h := max{hi : i = 1, . . . , n} → 0, die Gleichungen nahe

970

8 Einige Anwendungen der Linearen Algebra

 −∂ x c(x)∂ x u(x) = f (x)

im stationären bzw.

(8.136)

 m(x)∂tt u(x, t) − ∂ x c(x)∂ x u(u, t) = f (x, t)

(8.137)

im zeitabhängigen Fall mit einer Massenverteilung m.

Für das Diffusionsproblem erhielte man ebenso (8.136) und für den zeitabhängigen Fall  ∂t u(x, t) − ∂ x c(x)∂ x u(x, t) = f (x, t) .

(8.138)

Man beachte, dass der Grenzübergang nur formal ist: Die Elemente in S 1 (∆) sind nicht einmal überall differenzierbar. Unabhängig von den diskreten Modellen lassen sich aber (8.136) - (8.138) mit den ensprechenden Randbedingungen mit gleichen Prinzipien herleiten. Hier wird [x0 , xn ] als elastischer Körper interpretiert mit Auslenkung u = u(x) [u(x, t)] oder als „Behältnis“ eines Stoffes mit Konzentration u. Die konstitutiven Gesetze sind dann: Hooke : y(x, t) = c(x)e(x, t) e(x, t) = (∂ x u)(x, t) , Fick : q(x, t) = c(x)g(x, t) g(x, t) = −(∂ x u)(x, t) . Die Impuls- bzw. Massenerhaltung in einem „Kontrollvolumen“ lautet (in der zweiten Notation): Z β f (x, t)dx Für jedes [α, β] ⊂ [x0 , xn ] : q(β) − q(α) = α

mit der Quelldichte f bzw. Rβ α

∂ x q(x, t) − f (x.t)dx = 0

und nach Einsetzen des Fickschen Gesetzes Z β  −∂ x c(x)(∂ xu) (x, t) − f (x, t)dx = 0 . α

Geht man davon aus, dass als Kontrollvolumen beliebige Teilintervalle von [x0 , xn ] gewählt werden können, und sind die beteiligten Funktionen als genügend glatt angenom-

8.6 Kontinuierliche und diskrete dynamische Systeme

971

men, so muss die Beziehung für alle x ∈ (x0 , xn ) (und t ∈ (t0 , T ]) gelten, d. h. (8.136) bzw. im zeitabhängigen Fall nach Hinzukommen des Quelldichteterms −

Z

β

m(x)∂tt u(x, t)dx

bzw.

α



Z

β

∂t u(x, t)dx

α

müssen die Gleichungen (8.137) bzw. (8.138) gelten. Die Randbedingungen übertragen sich entsprechend: Definition 8.99 Gegeben seien c : [a, b] → R, c(x) ≥ c0 > 0 (der Diffusionskoeffizient), f : QT → R (die Quelldichte), QT := (a, b) × (t0 , T ], u0 , u′0 : [a, b] → R, ua , ub ∈ R bzw. qa , qb ∈ R. Gesucht ist u : [a, b] × [t0 , T ] → R, so dass die Gleichungen  ∂t u(x, t) − ∂ x c(x)∂ x u(x, t) = f (x, t) für (x, t) ∈ QT u(x, t0 ) = u0 (x) für x ∈ (a, b)

(8.139) (8.140)

und entweder Dirichlet-Randbedingungen u(a, t) = ua ,

u(b, t) = ub ,

t ∈ (t0 , T ] ,

oder Fluss-Randbedingungen −q(a, t) = qa ,

q(b, t) = qb ,

t ∈ (t0 , T ] ,

wobei q(x, t) := −c(x)∂ x u(x, t) , oder einer Kombination aus beiden gelten. Man spricht von der eindimensionalen (instationären) Diffusionsgleichung samt der entsprechenden Randbedingungen. Ist u von t unabhängig, d. h. fällt in (8.139) ∂t u(x, t) weg und auch (8.140), so spricht man von der stationären Diffusionsgleichung . Wird (8.139) verändert zu  m(x)∂tt u(x, t) − ∂ x c(x)∂ x u(x, t) = f (x, t) für (x, t) ∈ QT

(8.141)

und die Anfangsbedingung (8.140) ergänzt um

∂t u(x, t0 ) = u0 ′ (x) für x ∈ (a, b) ,

(8.142)

so spricht man von der eindimensionalen (instationären) Wellengleichung mit den entsprechenden Randbedingungen. Dabei ist m : [a, b] → R, m(x) > m0 > 0 (die Massendichte des Mediums).

972

8 Einige Anwendungen der Linearen Algebra

Bemerkungen 8.100 1) Die Randbedingungen können auch wie in Abschnitt 8.6.3 zeitabhängig betrachtet werden. 2) Bei den stationären Problemen liegen nun auch gewöhnliche Differentialgleichungen vor, allerdings Randwertaufgaben. Bei den instationären Problemen liegen die unabhängigen Variablen x und t vor, d. h. partielle Differentialgleichungen, und für diese eine Anfangs-Randwertaufgabe. Der nächste Schritt bestünde darin, das physikalische Medium nicht eindimensional, sondern durch ein Ω ⊂ RN (N = 2, 3) zu modellieren.

3) Analog zu (8.94) ff. spricht man von inhomogenen Problemen im allgemeinen Fall und von homogenen Problemen, wenn Quelldichte und Randwertvorgaben verschwinden.

4) Es liegen auch hier lineare Probleme vor, in den Daten u0 , f, ua , ub (oder qa , qb ) bzw. u0 , u′0 , f und den Randvorgaben. Wenn aber auch alle Daten bis auf eines als fest angesehen werden (z. B. homogen), ist der Datenraum z. B. C([a, b], R) und damit unendlichdimensional. Die Untersuchung solcher Probleme verlässt somit die Lineare Algebra endlichdimensonaler Vektorräume. 5) Es ist zu erwarten, dass die räumlich diskreten Modelle aus Beispiel 3 für h → 0 eine Approximation für die Gleichungen aus Definition 8.99 erzeugen. Das ist tatsächlich der Fall: Die Herleitungsweise in Beispiel 3(12) entspricht einer Diskretisierung, die knotenorientierte Finite-Volumen-Methode heißt. In Beispiele 1.108, 4) wurde schon gezeigt, dass die Anwendung der (konformen) Finite-Element-Methode mit dem Ansatzraum S 1 (∆) für die stationäre Diffusionsgleichung mit c = 1 und homogener Dirichlet-Randbedingung auf A aus (MM.11) führt (bei äquidistanter Zerlegung). Die Stabilität und Konvergenz(güte) solcher Approximationen zu untersuchen ist Aufgabe der Numerik partieller Differentialgleichungen. Wendet man solch eine räumliche Diskretisierung (in jedem Zeitpunkt) auf ein instationäres Problem an, so entsteht ein System gewöhnlicher Differentialgleichungen vom Typ (MM.106) oder (8.131). Um dieses approximativ zu lösen, bieten sich die in Abschnitt 8.6.3 untersuchten Differenzenverfahren an. Bei der Bewertung der dortigen Aussagen ist aber zu berücksichtigen, dass die Matrizen A (und M) in Dimension und Eigenschaften von der räumlichen Diskretisierung abhängen. In den konkreten Stabilitätsbedingungen (8.130) bzw. (8.133) wird dies ersichtlich. Auch ist zu beachten, dass für h → 0 die Kondition von A unbeschränkt wächst (siehe Beispiel 3(10)), was bei klassischen Iterationsverfahren, wie in den Abschnitten 8.2.2 und 8.2.3 besprochen, für die Lösung der LGS (innerhalb impliziter Differenzenverfahren) Probleme bereitet. 6) Neben der „primalen“ Formulierung in der Variablen x, d. h. der Auslenkung (siehe (MM.41)), war auf diskreter (und stationärer) Ebene auch die (natürliche) gemischte Formulierung (MM.40) (in Auslenkung x und Kraft y) möglich. Die analoge gemischte Formulierung z. B. für die Diffusionsgleichung ist ∂t u + ∂ x q = f q = −c∂ x u

in QT

(8.143)

8.6 Kontinuierliche und diskrete dynamische Systeme

973

bzw. unter Wegfall von ∂t u für den stationären Fall. Hier steht also (formal gesehen) der Operator ∂ x bzw. −∂ x für B bzw.Bt in der diskreten Formulierung. In Beispiel 7.58 wurde angedeutet, dass sich ∂ x und −∂ x auch als Operator und dualer Operator entsprechen. Dort wird dies in N Raumdimensionen für ∇ und − div angedeutet. Tatsächlich ist die entsprechende Variante von (8.143) für Ω ⊂ RN : ∂t u + div q = f in QT q = −c∇u

(8.144)

und von (8.139) ∂t u − div(c∇u) = f

in QT .



Neben räumlichen und zeitlichen Diskretisierungen gibt es einen klassischen Weg, eine Näherung etwa der Diffusionsgleichung (8.139) zu bestimmen. Zur Vereinfachung wird dieses nur mit homogenen Dirichlet-Randbedingungen betrachtet. Bei gewöhnlichen Differentialgleichungen führte ein Weg zur Lösungsdarstellung über die Eigenwerte des „räumlichen“ Anteils Ax. Analog kann man hier nach den Eigenwerten und -funktionen des Differentialoperators −∂ x (c∂ x ) fragen: Definition 8.101  v ∈ C([a, b], R) ∩ C 2 (a, b), R heißt Eigenfunktion zum Eigenwert λ ∈ R zur stationären Diffusionsgleichung mit Dirichlet-Randbedingungen, wenn gilt: v ist nicht die Nullfunktion und  −∂ x c(x)∂ x v(x) = λv(x) für x ∈ (a, b) v(a) = v(b) = 0 .

Völlig analog zu (4.85) ist  u(x, t) := exp − λ(t − t0 ) v(x)

für Eigenfunktion v und -wert λ eine Lösung von (8.139) mit homogenen DirichletRandbedingungen zur Anfangsvorgabe v. Wegen der Linearität des Problems ist eine Linearkombination solcher Lösungen wieder eine Lösung. Es kommt deswegen darauf an, die Anfangsvorgabe u0 möglichst gut in der linearen Hülle der Eigenfunktionen zu approximieren. Asymptotische Stabilität der instationären Diffusionsgleichung würde dann die Güte der Näherungslösung u(x, t) :=

k X i=1

sichern.

αi exp(−λi (t − t0 ))vi (x)

974

8 Einige Anwendungen der Linearen Algebra

Für c(x) = c können die Eigenfunktionen explizit angegeben werden. Durch Verschieben kann statt [a, b] auch [0, l] betrachtet werden. Direktes Nachrechnen zeigt, dass  iπ  1 vi (x) := 1/2 sin x für i ∈ N l l  2 Eigenfunktionen sind zu λi = c iπl . Zusammen mit wi (x) =

1

l1/2

cos

 iπ  x , l

i ∈ N,

w0 (x) =

1 (2l)1/2

 bilden sie nach Satz 7.74 eine SONB von L2 [−l, l], R . Setzt man die Anfangsvorgabe u0 , die demnach nur in L2 ([0, l], R) zu sein braucht, ungerade, d. h. durch u0 (x) := −u0 (−x)  zu einem u0 ∈ L2 [−l, l], R fort, dann gilt für die Fourier-Koeffizienten βi zu wi : βi = 0, i ∈ N0 , folglich u0 =

∞ X i=1

Damit ist durch

αi vi

 (in L [−l, l], R ) 2

u(x, t) :=

k X i=1

und αi =

Z

l

u0 vi (x)dx .

−l

αi exp (−λi (t − t0 )) vi (x)

eine Näherungslösung der Diffusionsgleichung gegeben, der man den exponentiellen Abfall zur Nulllösung als Gleichgewichtslösung direkt ansieht.

8.6.5 Stochastische Matrizen Im Folgenden soll – bei naiver Benutzung von (undefinierten) Begriffen aus der Wahrscheinlichkeitsrechnung – ein einfacher stochastischer Prozess betrachtet werden, der die endlich vielen Zustände 1, . . . , n annehmen kann. Zu diskreten Zeitpunkten k ∈ N finden Übergänge statt. Ist der Prozess „gedächtnislos“, d. h. hängt die aus einer WahrscheinP lichkeitsverteilung x ∈ Rn (x ≥ 0, ni=1 xi = 1) hervorgehende Verteilung y nur von x, nicht aber z. B. von k ab, so spricht man von der Markov23-Kette (1. Ordnung). Ordnet man die bedingten Wahrscheinlichkeiten pi, j in einer stochastischen Übergangsmatrix P = (pi, j ) ∈ R(n,n) an (manchmal wird auch Pt statt P betrachtet), so dass bei Vorlage des Zustandes j Zustand i eintritt, dann gilt pi, j ≥ 0 für alle i, j = 1, . . . , n ,

23

n X

pk, j = 1 ,

und y = Px ,

k=1

Andrei Andrejewitsch Markov ∗14. Juni 1856 in Rjasan †20. Juli 1922 in Petrograd

8.6 Kontinuierliche und diskrete dynamische Systeme

975

und damit ist die nach k Zeitschritten erzielte Verteilung Pk x. Beispiele für solche Markov-Ketten finden sich in einer Vielzahl von Bereichen, von den Wirtschaftswissenschaften (Warteschlangentheorie) über die Bioinformatik (Gensequenzierung) zu den Ingenieurwissenschaften (Qualitätsmanagement). Definition 8.102 Sei A ∈ R(n,n) , A D 0.

1) A heißt stochastisch, wenn alle Spaltensummen gleich 1 sind. 2) A heißt doppelt stochastisch , wenn alle Spalten- und Zeilensummen gleich 1 sind.

Mit 1 = (1, . . . , 1)t ∈ Rn lässt sich die Bedingung kurz als At 1 = 1 bzw. A1 = 1 schreiben. Bemerkungen 8.103 1) Da die Bedingungen, stochastische Matrix zu sein: ai, j ≥ 0,

n X

ak, j = 1 für alle i, j = 1, . . . , n ,

k=1

in R(n,n) ein Polyeder definieren, ist die Menge der stochastischen Matrizen abgeschlossen und konvex (siehe Satz 6.13). Analoges gilt für doppelt stochastische Matrizen. 2) Permutationsmatrizen sind doppelt stochastisch. 3) Sind A, B ∈ R(n,n) (doppelt) stochastisch, so ist auch AB (doppelt) stochastisch.

Sind A, B D 0, so gilt auch AB D 0 und aus At 1 = 1, Bt 1 = 1 folgt (AB)t 1 = Bt 1 = 1 und analog für AB1 = 1.

4) Für stochastische Matrizen ist ρ(A) = 1 und λ = 1 ist halbeinfacher Eigenwert. Es ist At 1 = 1, d. h. λ = 1 ist Eigenwert von At und damit von A (es könnte auch mit Hauptsatz 8.51 argumentiert werden) und daher ρ(A) ≥ 1. Wegen ρ(A) ≤ kAk1 = 1 (nach Theorem 7.32) gilt ρ(A) = 1. Aus kAn k1 ≤ 1 folgt mit Bemerkungen 7.35 3), 4) die Halbeinfachheit von λ = 1.

5) Eine doppelt stochastische Matrix entsteht beim Mischen von m Spielkarten. Beschreibt man eine Kartenlage durch ein Element von Σm , d. h. n = m! für die Dimension, so wird der Übergang von τ ∈ Σm nach σ ∈ Σm gerade durch σ ◦ τ−1 beschrieben. Sei p eine Wahrscheinlichkeitsverteilung auf Σm , d. h. p(π) ≥ 0 für π ∈ Σm und Σπ∈Σm p(π) = 1, dann ist die stochastische Übergangsmatrix P = (Pσ,τ ) durch   Pσ,τ := p σ ◦ τ−1 gegeben. Es ist

aber genauso

  Σσ∈Σm Pσ,τ = Σσ∈Σm p σ ◦ τ−1 = Σπ∈Σm p(π) = 1 ,

976

8 Einige Anwendungen der Linearen Algebra Στ∈Σm Pσ,τ = Σπ∈Σm p(π) = 1 .

△ Stochastische Matrizen gehören nach Bemerkungen 7.36 gerade zu den Grenzfällen, bei denen die Konvergenz von Ak für k → ∞ noch möglich ist. Satz 8.104 Sei A ∈ R(n,n) stochastisch.

1) Existiert P := limk→∞ Ak , dann ist P stochastisch. 2) Genau dann, wenn λ = 1 der einzige Eigenwert von A mit |λ| = 1 ist, existiert limk→∞ Ak . 3) Gilt ai,i > 0 für alle i = 1, . . . , n, dann existiert limk→∞ Ak .

4) Gibt es ein m ∈ N, so dass Am ⊲ 0, dann existiert limk→∞ Ak .

Beweis: Zu 1): Folgt aus Bemerkungen 8.103, 1) und 3). Zu 2): Folgt aus Theorem 8.92 und Bemerkungen 8.103, 4). Zu 3): Nach Aufgabe 8.6 gilt für einen Eigenwert λ von A für ein j ∈ {1, . . . , n}: |λ − a j, j| ≤

n X i=1 i, j

|a j,i| = 1 − a j, j .

Dieser Kreis (in C) ist im Kreis |λ| ≤ 1 enthalten und berührt ihn nur im Punkt λ = 1. Nach 2) existiert daher limk→∞ Ak . Zu 4): Siehe Satz 8.114.  Bemerkungen 8.105 1) Nach Lemma 8.45 ist die Bedingung bei 4) hinreichend für Irreduzibilität und bei ai,i > 0 für alle i = 1, . . . , n nach Theorem 8.46 äquivalent dazu. ! 01 k k 2) Wegen kA k1 = 1 für alle k ∈ N ist (A ) immer beschränkt. Das Beispiel A = mit 10 den Eigenwerten λ = ±1 zeigt, dass ohne die Bedingung in Satz 8.104, 2) oszillierendes Verhalten möglich ist, auch für irreduzible Matrizen. Bemerkungen 7.36 3), 4) zeigen aber, dass die Potenzfolge immer summierbar ist. △

8.6 Kontinuierliche und diskrete dynamische Systeme

977

Satz 8.106 Sei A ∈ R(n,n) stochastisch und λ = 1 sei der einzige Eigenwert mit |λ| = 1. Dann ist Rn = Kern(A − 1) ⊕ Bild(A − 1) und für x ∈ Rn gilt lim Ak x = Px .

k→∞

Dabei ist P die Projektion auf Kern(A − 1) entlang Bild(A − 1).

Beweis: Siehe Satz 7.26 und Bemerkungen 8.103, 4).



Zur Interpretation einer stochastischen Matrix als Übergangsmatrix in einem stochastischen Prozess passt: Definition 8.107 Ein Vektor x ∈ Rn heißt Wahrscheinlichkeitsvektor , wenn x ≥ 0 und

Pn

i=1

xi = 1.

Ein Wahrscheinlichkeitsvektor beschreibt in seiner i-Komponente die Wahrscheinlichkeit, dass ein System, das die Zustände 1, . . . , n annehmen kann, sich im Zustand i befindet. Daher ist für einen durch die stochastische Matrix A ∈ R(n,n) beschriebenen stochastischen Prozess Ax der Wahrscheinlichkeitsvektor nach einmaligem Eintreten und Ak x nach kmaligem Eintreten des Prozesses. Bemerkungen 8.108 Sei A ∈ R(n,n) stochastisch.

1) Ist x ∈ Rn ein Wahrscheinlichkeitsvektor, dann ist auch Ax ein Wahrscheinlichkeitsvektor.

Denn Ax ≥ 0 und hAx . 1i = x . At 1 = hx . 1i = 1.

2) Die Menge der Wahrscheinlichkeitsvektoren ist ein Polyeder in Rn , also konvex und abgeschlossen. 3) Ist x ein Wahrscheinlichkeitsvektor, dann auch Ak x für k ∈ N und bei Existenz auch limk→∞ Ak x. Dies folgt aus 1) und 2).



978

8 Einige Anwendungen der Linearen Algebra

Satz 8.109 Sei A ∈ R(n,n) stochastisch und λ = 1 sei einziger Eigenwert mit |λ| = 1 und einfach. Sei x ∈ Rn ein Wahrscheinlichkeitsvektor. 1) Dann gilt

lim Ak x = x

k→∞

und x ist der eindeutige Wahrscheinlichkeitsvektor der Ax = x erfüllt. x heißt Gleichgewichtsvektor . 2) P := limk→∞ Ak hat die Gestalt P = (x, . . . , x) .

(8.145)

3) Ist A doppelt stochastisch, so ist x=

1 1. n

Beweis: Zu 1): Nach Bemerkungen 8.108, 3) ist x ein Wahrscheinlichkeitsvektor, und und als solcher eindeutig im eindimensionalen Eigenraum. Zu 2): Für jeden Wahrscheinlichkeitsvektor x gilt Px = x , insbesondere für die Einheitsvektoren. Zu 3): Auch P ist doppelt stochastisch, dadurch 1 = P1 = nx.



Der Startwahrscheinlichkeitsvektor x hat deswegen keinen Einfluss auf limk→∞ Ak x. Das System „vergisst“ den Anfangszustand. Bemerkungen 8.110 1) Für die Eindimensionalität des Eigenraums von A zu λ = 1 reicht nach Hauptsatz 8.51, 4), dass A irreduzibel ist. Irreduzibilität allein reicht aber nicht für die Konvergenz, wie das Beispiel in Bemerkungen 8.105, 2) zeigt. 2) Bei einer doppelt stochastischen Matrix sind also unter den Voraussetzungen von Satz 8.109 im Grenzwert alle Zustände gleich wahrscheinlich. Mann nennt so einen stochastischen Prozess auch fair , etwa beim Beispiel des Kartenmischens. △

Wir wollen zeigen: Das Kriterium in Satz 8.104, 4) charakterisiert gerade die irreduziblen stochastischen Matrizen, für die limk→∞ Ak existiert. Nach Theorem 8.92 geht es folglich darum, zu charakterisieren, wann λ = 1 der einzige Eigenwert von A mit |λ| = 1 = ρ(A) ist. Dazu ist hilfreich:

8.6 Kontinuierliche und diskrete dynamische Systeme

979

Satz 8.111: Satz von Frobenius Sei A ∈ R(n,n) , A D 0 und irreduzibel, λ0 , . . . , λk−1 ∈ C seien die paarweise verschiedenen Eigenwerte von A mit |λ j | = ρ(A). Dann gilt eventuell nach Umnummerierung ! 2πi j ρ(A), j = 0, . . . , k − 1 λ j = exp k und alle λ j sind einfach.

Beweis: siehe Huppert 1990, S. 363, Satz IV.1.11.



Die k Eigenwerte sind demnach bei ρ(A) beginnend mit gleichem Winkelabstand über den Kreis um 0 mit Radius ρ(A) verteilt, Drehung um 2π/k führt diese Eigenwerte ineinander über. Dann gilt zumindest für k λkj = e2πi j (ρ(A))k = (ρ(A))k .

Lemma 8.112 Sei A ∈ R(n,n) , A D 0, irreduzibel und es gelte: Ist λ ein Eigenwert von A mit |λ| = ρ(A), so ist λ = ρ(A) =: ρ. Dann existiert P := lim ρ−k Ak , k→∞

und P = u ⊗ u, wobei u, u ∈ Rn , u > 0, u > 0 Eigenvektoren von A bzw. At sind, so dass (u . u) = 1.

Beweis: Als erstes ist ρ > 0 zu zeigen. Hierfür mache man sich klar, dass wegen A D 0 und der Irreduzibilität von A für jedes x ≥ 0 mit mindestens einem j = 1, . . . , n so, dass x j > 0, gilt: Ax ≥ 0 und es existiert ein k = 1, . . . , n, so dass (Ax)k > 0. Andernfalls besäße A eine Nullspalte. Demnach ist A nicht nilpotent und daher ρ > 0. Nach Hauptsatz 8.51, 4) ist der Eigenraum E von A zu ρ von der Form E = span(u) und u > 0. Da mit A auch At irreduzibel ist (Bemerkungen 8.44, 4)) und die Eigenwerte genau die von A sind, ist auch hier Hauptsatz 8.51, 4) anwendbar und liefert für den Eigenraum F von At zu ρ die Form F = span(u) mit u > 0, wobei analog zu Bemerkungen 4.35, 2) (u . u) = 1 erreicht werden kann. e := ρ−1 A, d. h. ρ(A) e = 1 und λ = 1 ist der einzige Eigenwert mit |λ| = 1. Nach Sei A Bemerkungen 7.36 existiert also e k = lim ρ−k Ak . P := lim (A) k→∞

k→∞

980

8 Einige Anwendungen der Linearen Algebra

Um diesen Grenzwert zu berechnen sei C ∈ R(n,n) aus einer Basis von Rn gebildet, mit u als erstem Vektor: C = (u, . . .). Dann gilt ! t e = 10 C −1 AC 0E

e also ρ(E) < 1. Daher folgt und E hat genau die von 1 verschiedenen Eigenwerte von A, mit Satz 4.75 und Hauptsatz 7.34   !  1 0t  t  k   1 0  e C −1 PC = lim C −1 AC = lim  . k =  0 E  k→∞ k→∞ 0

0

Analog zu Bemerkungen 4.35, 2) (beachte die vertauschte Bedeutung von C und A) sieht man aus ! t e t C −t = 1 0 t , C t (A) 0E

e t zu λ = 1 ist, der wegen (u . u) = 1 dass die erste Zeile von C −1 ein Eigenvektor von (A) gleich u ist. Demzufolge  t  u  −1 C =  .  .. und damit

   1 0t    −1 P = C   C = u ⊗ u .  0

0



(n,n)

Bemerkung 8.113 Sei A ∈ R zusätzlich zu den Voraussetzungen im Lemma 8.112 auch stochastisch. Wegen At 1 = 1 und ρ(A) = 1 ist dann lim Ak = u ⊗ 1 = (u, . . . , u)

k→∞

wobei

Pn

i=1

ui = 1, was Satz 8.109, 2) reproduziert.

Satz 8.114 Sei A ∈ R(n,n) , A D 0. Dann sind äquivalent:

(i) Es gibt ein m0 ∈ N, so dass Am ⊲ 0 für m ≥ m0 .

(ii) Es gibt ein m ∈ N, so dass Am ⊲ 0.

(iii) A ist irreduzibel und ρ(A) ist der einzig mögliche Eigenwert λ von A mit |λ| = ρ(A).



8.6 Kontinuierliche und diskrete dynamische Systeme

981

Beweis: (i) ⇒ (ii): Ist klar. (ii) ⇒ (i): Gilt ebenso, da aus (ii) die Irreduzibilität von A nach Lemma 8.45, 1) folgt und damit aus Am ⊲ 0 auch Am+1 ⊲ 0, da sonst A eine Nullzeile haben müsste. Bei (ii) ⇒ (iii) ist folglich nur die Eigenwertaussage zu verifizieren. Seien λ0 , . . . , λk−1 alle paarweise verschiedene Eigenwerte von A mit |λ| = ρ(A), wobei λ0 = ρ(A). Seien ui Eigenvektoren dazu, also dim span(u0 , . . . , uk−1 ) = k nach Satz 8.111 und ebenso Ak ui = ρ(A)k ui und damit für l ∈ N Alk ui = ρ(A)lk ui . Wählt man l so, dass lk ≥ m, so ist Alk ⊲ 0 und damit irreduzibel, so dass nach Hauptsatz 8.51, 4) ρ(A)lk = ρ(Alk ) ein einfacher Eigenwert von Alk ist und damit k = 1 gelten muss. (iii) ⇒ (i): Nach Lemma 8.112 existiert P = lim ρ−k Ak k→∞

und es ist P = u ⊗ u ⊲ 0. Somit gibt es ein m0 ∈ N, so dass ρ−m Am ⊲ 0 und damit auch Am ⊲ 0 für alle m ≥ m0 gilt.  Wesentlich weitergehende Informationen findet man z. B. in Tutte 2001 oder Newman 2010.

982

8 Einige Anwendungen der Linearen Algebra

Aufgaben Aufgabe 8.22 Versehen Sie in der Entwicklung des Diffusionsmodells in Beispiel 3(12) jede Größe mit einer konsistenten (SI-)Einheit. Aufgabe 8.23 Wird in Beispiel 3(12) (bei äquidistanter Zerlegung) u nicht als stückweise konstant auf den Fi , sondern als Interpolierende durch (xi , ui ), i = 0, . . . , n in S 1 (∆) aufgefasst, ist in (MM.115) h2 (u˙ (t)) zu ersetzen durch M(u˙ (t)) für ein M ∈ R(m,m) . Bestimmen Sie die Matrix M explizit. Aufgabe 8.24 Analog zu Beispiel 3(12) leite man die diskrete stationäre und instationäre Wärmeleitungsgleichung her, indem folgende Ersetzungen vorgenommen werden: Konzentration – Temperatur T , Ficksches Gesetz – Fouriersches Gesetz, Massenfluss – Wärmestromdichte, Diffusionskoeffizient – Wärmeleitfähigkeit, Erhaltung der Masse – Erhaltung der Energie E, was ein weiteres konstruktives Gesetz E = E(T ) braucht, linear auszudrücken mittels Dichte und spezifischer Wärmekapazität. Aufgabe 8.25 Sei Ak ∈ K(n,n) und A = limk→∞ Ak existiere. Dann existiert auch P := Pk−1 limk→∞ 1k i=0 Ai .

Aufgabe 8.26 Zwei sich verneinende Nachrichten der Form N1 :=„Der alte Holzmichl lebt“ bzw. N2 :=„Der alte Holzmichl ist tot“ werden mündlich weitergegeben und zwar mit folgender stochastischer Übergangsmatrix ! 1− p q A= , wobei 0 < p, q < 1 . p 1−q Zeigen Sie ! 1 qq , lim A = k→∞ p+q p p k

d. h. ein Gerücht wird langfristig gleich wahrscheinlich mit der Wahrheit (bei p = q = 12 ). Man untersuche auch die Grenzfälle p ∈ {0, 1} oder q ∈ {0, 1}.

Literaturverzeichnis

Alt, H. W. (2006). Lineare Funktionalanalysis. 5. Aufl. Berlin: Springer. Amann, H. (1995). Gewöhnliche Differentialgleichungen. Berlin: De Gruyter. Amann, H. und J. Escher (1998). Analysis I. 1. Aufl. Basel, Boston, Berlin: Birkhäuser.

— (1999). Analysis II. Berlin: Birkhäuser. Ben-Israel, A. und T. N. E. Greville (2003). Generalized Inverses: Theory and Applications.

2. Aufl. Berlin: Springer. Berman, A. und R. J. Plemmons (1994). Nonnegative Matrices in the Mathematical Sciences. Phil-

adelphia: SIAM. Börm, S. und C. Mehl (2012). Numerical methods for eigenvalue problems. Berlin: de Gruyter. Bosch, S. (2013). Algebra. Berlin: Springer. Bunse, W. und J. Bunse-Gerstner (1985). Numerische lineare Algebra. Stuttgart: Teubner. Chvatal, V. (1983). Linear Programming. New York: W. H. Freeman Publication. Cooley, J. W. und J. W. Tukey (1965). „An Algorithm for the Machine Calculation of the Complex

Fourier Series“. In: Math. Comp. 19, S. 297–301. Dantzig, G. (1966). Lineare Programmierung und Erweiterungen. Berlin: Springer. Demmel, J. W. (1997). Applied Numerical Linear Algebra. Philadelphia: SIAM. Deuflhard, P. (2006). Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algo-

rithms. Berlin, Heidelberg, New York: Springer. Deuflhard, P. und A. Hohmann (1991). Numerische Mathematik: Eine algorithmisch orientierte Ein-

führung. Berlin, New York: de Gruyter. Dongarra, J. und F. Sullivan (2000). „Guest Editors’ Introduction: The Top 10 Algorithms“. In:

Computing in Science and Engineering 2.1, S. 22–23. Eck, C., H. Garcke und P. Knabner (2011). Mathematische Modellierung. 2. Aufl. Berlin: Springer. Elaydi, S. (2005). An Introduction to Difference Equations. 3. Aufl. Berlin: Springer. Fischer, G. (1978). Analytische Geometrie. Reinbek bei Hamburg: Rowohlt. Forster, O. (2008). Analysis 1. 9. Aufl. Wiesbaden: Vieweg. Golub, G. H. und C. F. Van Loan (1996). Matrix Computations. Johns Hopkins University Press. Hackbusch, W. (1991). Iterative Lösung großer schwachbesetzter Gleichungssysteme. Stuttgart: Teub-

ner. Higham, N. J. (1996). Accuracy and Stability of Numerical Algorithms. Philadelphia: SIAM. Huppert, B. (1990). Angewandte lineare Algebra. Berlin: de Gruyter. Huppert, B. und W. Willems (2006). Lineare Algebra. 1. Aufl. Wiesbaden: Teubner. Jarre, F. und J. Stoer (2004). Optimierung. Berlin, Heidelberg: Springer. Jech, T. J. (1973). The Axiom of Choice. Amsterdam: North Holland. Knabner, P. und L. Angermann (2000). Numerik partieller Differentialgleichungen. Berlin: Springer. Lax, P. (2007). Linear Algebra and its Applications. Hoboken, N.J.: Wiley-Interscience. Meyer, C. (2000). Matrix analysis and applied linear algebra 1. Philadelphia: SIAM.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9

983

984

LITERATURVERZEICHNIS

Newman, M. E. J. (2010). Networks: An Introduction. Oxford: Oxford University Press. Putzer, E. J. (1966). „Avoiding the Jordan Canonical form in the Discussion of Linear Systems with

Constant Coefficients“. In: American Mathematical Monthly 73.1, S. 2–7. Saad, Y. (2003). Iterative Methods for Sparse Linear Sytems. Philadelphia: SIAM.

— (2011). Numerical Methods for Large Eigenvalue Problems. 2nd. Philadelphia: SIAM. Schumann, J. (1968). Input-Output-Analysen. Berlin: Springer. Strang, G. (2003). Lineare Algebra. Berlin, Heidelberg: Springer. Tutte, W. T. (2001). Graph Theory. Cambridge: Cambridge University Press. Watkins, D. S. (2007). The Matrix Eigenvalue Problem: GR and Krylov Subspace Methods. Philadelphia: SIAM. Wolsey, L. A. (1998). Integer Programming. New York: Wiley-Interscience Publication.

Sachverzeichnis

̺(Φ), 430 a ⊗ b, 199, 376, 618 a × b, 324 a ≥ 0, a > 0, 674 a ⊥ b, 110 dim, dimK , 87, 90, 142, 361 codim, 97, 142, 393 cone q (M), 706 conv(M), 681 d(x, A), 119 det(A), 299, 420 deti, j , 665 diag(di ), 65 ei , 57 exp(A), 792 f ∧ g, 628 fˆ, 896 i, 353 id, 178 int, 692 ℓ2 (K), 362, 753 o(hk ), 833 p(C), p(Φ), 488 qϕ , 634 vol, 296 span, 56 spana , 145 sp, 437 tr, siehe sp z, 355 An , 142 → − A, 141 A⊥ , 110, 373, 623 At , Φt , 66, 234 A−1 , Φ−1 , 212 A+ , 256 A, 377

A† , Φ† , 377, 379, 816 A · B, 192 A : B, 107, 373 A > 0, A ≥ B, 581 A ⊲ 0, A D B, 909 Abb(M, R), 48 Bild, 158, 349 C, 353 C∗ , 353 Cλ , 532 C([a, b], Kn ), 89, 363 C q ((a, b), Kn ), 364, 760 FV , 399 F p , 356, 358 G(B), 113, 617 GL(V), 213 GL(n, K), 213, 362 Hom(V, W), HomK (V, W), 158, 361 Im z, 355 Ind Φ, 505 K, 363 K n , 362 K (m,n) , 362 K ∗ , 351 K[x], K[X], 364 Kn [x], Kn [X], 364 Kern, 158, 349 LGS, 7 LP, 675 L[V, W], 765 L2 ([a, b], K), 392 ONB, 124 O(nk ), 68 O(n, K), 227, 379 O(V), 236 O(V; ϕ), 630 PK (x), 115, 375

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2018 P. Knabner und W. Barth, Lineare Algebra, https://doi.org/10.1007/978-3-662-55600-9

985

986 Rn , 31 R(m,n) , 50 RN , 49 R[x], R[X], 49 Rang, 94 Re z, 355 SKP, 106 SVD, 567 S 0 (△), 46 S 1 (△), 48 SL(n, K), 308, 362 SO(n, K), 228, 308 SO(V; ϕ), 630 Sp(V; ϕ), 668 SU(V; ϕ), 630 U ⊥ , siehe A⊥ U + V, 56 U ⊕ V, 61 U(V; ϕ), 630 U(t, s), U(l, k), 933 V ∗ , 183 V ′ , 765 V 1 × V2 , 364 L m i=1 Vi , 208 V/U, 386 X (k) , Y(t), 929 Zn , 344 ∂H, 684 δi, j , 59 κ(A), κ2 (A), 838 µC , µΦ , 497 ρ(A), 776 ̺(Φ), 767 σ(Φ), 430, 767 χC , χΦ , 438 Σn , 277 Φ∗ , 404 Φ′ , 818 ΨB , Ψ˜ B , 156 1n , 66 1, 69, 399, 975 (a . b), 66, 106 ha . bi, 370, 371 k · k, 104, 751 k f k∞ , 108, 764 k f k2 , 108 k A k∞ , 777 k A k1 , 777 k A k2 , 777 k A kF , 107, 373 k x kA , 582 [m], 356, 386 [Φ] = B2 [Φ]B1 , 175

Sachverzeichnis Abbildung, 153 affin-lineare, 333 duale, 404 lineare, 153 lineare, beschränkte, 765 Abstandstreue, 166 Addition von Vektoren, 33 Adjazenzgraph, 903 Adjazenzmatrix, 903 Adjungierte, 379, 816 adjungiertes Problem, 927 Adjunkte, 314 affin-linear, 333 affin-lineare Abbildung, 333 affiner Raum, 141 affiner Unterraum, 72 Abstand zu Vektor, 119 affine Basis, 149 affine Hülle, 145 Affinität, 333, 649 Klassifikation nach Fixpunkten, 335 radiale, 335 Affinkombination, 143 affin lineare Abbildung Charakterisierung, 334 affin unabhängig, 146 ähnlich, 419 orthogonal bzw. unitär ähnlich, 423 Ähnlichkeit, 169 Algebra, 197, 368 Banach-, 774 normierte, 774 Algebrennorm, 806 ALGS, 5 α-Bilinearform, 613 α-linear, 613 Anfangspunkt, 141 Anfangswert, 794 Anfangswertaufgabe, 794 Annihilator, 407 antilinear, 814 antisymmetrisch, 230 aperiodischer Grenzfall, 805 Äquivalenzklasse, 386 Äquivalenzrelation, 385 Assoziativgesetz, 34, 360 asymptotisch stabil, 947, 948 Austauschschritt, 730, 732 Auswertungsfunktional, 621 Automorphismus, 158, 349 autonom, 927 B-Koordinaten, 720

Sachverzeichnis Bahn, 668 Banach-Algebra, 774 Banach-Raum, 766 Banachscher Fixpunktsatz, 866 Basis, 81, 720 -Auswahl-Satz, 86 -Ergänzungs-Satz, 85 -Satz, 85 affine, 149 Dualbasis, 401 duale, 825 Haar-, 890 Invarianz der Länge, 86 Karhunen-Loève, 567 Ketten-, 527 Länge, 81 Multiskalen-, 890 Orientierung, 317 Orthogonal-, 124, 637 Orthonormal-, 124, 637 Standard-, 81 Zweiskalen-, 890 Basis-Menge, 720 Basiskoordinaten, 720 Basislösung, 721 zulässige, 721 Begleitmatrix, 438, 468, 796 beschränkt, 755 Besselsche Ungleichung, 823 Bewegung, 162, 649 Bewegungen orientrierungstreue, 346 Bidualraum, 400 Bilinearform, 613 alternierende, 627, 664 antihermitesch, 627 antisymmetrische, 627, 664 Basiswechsel, 619 darstellende Matrix, 617 Darstellungsmatrix, 617 Diagonalisierung, 636, 641 Diskriminante, 617 Entartungsraum, 623, 624 hermitesch, 627 indefinite, 644 negativ definite, 644 negativ semi-definite, 644 nicht entartete, 623 orthogonales Komplement, 623 orthosymmetrische, 623 positiv definite, 644 positiv semi-definite, 644 Rang, 622 regulär, 623

987 Signatur, 643 Symmetriezerlegung, 628 symmetrische, 627 zerfallende, 615 Bilinearität, 104 biorthogonal, 113 Blockmatrix Blockdiagonalmatrix, 461, 507 obere Blockdreiecksmatrix, 461 Branch-and-Cut-Verfahren, 748 Casorati-Determinante, 931 Cauchy-Produkt, 791 Cauchy-Schwarz-Ungleichung, 104 Cayley-Hamilton, 494

CG-Verfahren, 874 Charakteristik, 352 charakteristische Funktion, 888 charakteristische Gleichung, 799 charakteristisches Polynom, 438 Cholesky-Zerlegung, 591 Compartment, 959 Cosinus, 109 Cramersche Regel, 316 Darstellungsmatrix, 173 Bilinearform, 617 Rang der, 622 Datenanalyse, 884 Datenkompression, 845 Datum, 925 Determinante, 296, 299, 420 Casorati, 931 Berechnung, 310 Kästchenregel, 309 Leibniz-Formel, 299 Minor, 312 Multilinearität, 302 n-Multiplikationssatz, 304 Normierung, 301 Regel von Sarrus, 300 Schiefsymmetrie, 300 Streichungs-, 314 und Volumen, 297 Wronski-, 931 Diagonaldominanz, 919 Diagonalisierbarkeit, 419, 433 einer Bilinearform, 641 einer symmetrischen Bilinearform, 636, 641 Kriterium, 433, 452, 454 orthogonale bzw. unitäre, 423, 475 simultane, 486 Diagonalmatrix, 11 Differentialgleichung, gewöhnliche

988 homogen, 794 inhomogen, 794 lineares System, 794 lineares System mit konstanten Koeffizienten, 794 lineares System mit variablen Koeffizienten, 795 Differenzengleichung, 447, 463, 466, 540, 549 asymptotischer Zustand, 465 Begleitmatrix, 468 charakteristische Gleichung, 468 differenzierbar, 832 Diffusionsgleichung, 961 Eigenfunktion, 973 eindimensional, 971 instationäre, 962 stationäre, 971 Diffusionskoeffizienten, 960 Dimension affiner Raum, 141 des Lösungsraums, 95 eines Polyeders, 686 eines affinen Unterraums, 89 eines linearen Unterraums, 87 Dimensionsformel I, 95, 186 Dimensionsformel II, 99 direkte Summen-Zerlegung, 625 direkte Summe, 208 Distributivgesetz, 351, 360 Divergenz, 819 Doppelkegel, 655 Draufsicht, 116 Drehmatrix, 179, 198, 491 Drehspiegelung, 483 Drehstreckung, 170, 345, 548 Drehung in R2 , 168 um die z-Achse, 483 um eine Drehachse, 483 Dreieck, 150 Dreiecksungleichung, 105, 751 duale Abbildung, 404 dualer Operator, 818 duales Problem, 745 duale Basis, 825 Dualität schwach, 745 Dualraum, 398 Duhamelsches Prinzip, 936 Durchschnitt von Doppelkegel und Ebene, 655 von Quadrik und Gerade, 657 dyadisches Produkt, 199, 376, 381 Ebene, 41, 141

Sachverzeichnis Ecke, 675 eines Polyeders, 694 einfache, 723 entartete, 723 nicht entartete, 723 nicht-einfache, 723 optimale, 714 Eigenfunktion, 973 Eigenraum, 429, 455 direkte Summe, 450 verallgemeinerter, 508 Eigenschaft LIN, 55 Eigenvektor, 429 linker, 444 näherungsweiser, 558 rechter, 444 und Rayleigh-Quotient, 558 Eigenwert, 429, 973 algebraische Vielfachheit, 439 Bezug zum Minimalpolynom, 500 Charakterisierung durch Rayleigh-Quotient, 604 einfacher, 455 geometrische Vielfachheit, 429 halbeinfacher, 455 spezieller Matrizen, 446 Eigenwertberechnung, 878 Eigenwertgleichung, 434 Eigenwertproblem verallgemeinertes, 588 Einbettung, 758 einfache Ecke, 723 Einheitsmatrix, 66, 178 Einheitsvektor, 57 Einheitswurzel, 897 Einsteinsche Summenkonvention, 415 Einzelschrittverfahren, 861 Elementarmatrix, 219 Inverse, 221 Typ I, 219 Typ II, 220 Typ III, 220 Ellipse, 656 Ellipsoid, 578 Endomorphismus, 158 Energie kinetische, 669 potentielle, 669 Energie-Skalarprodukt, 582 Energienorm, 582, 590, 871 Energieskalarprodukt, 870 entartet, 697 entartete Ecke, 723 Entartungsraum, 624

Sachverzeichnis Epimorphismus, 158 Erlanger Programm, 346 Ersatzaufgabe lineare, 832 Erzeugende, 800 Erzeugendensystem, 56 Euler-Verfahren explizites, 464 implizites, 964 Euler-Winkel, 485 exponentielle Stabilität, 950 Extremalpunkte, 700 fairer Prozess, 978 Faktorraum, siehe Quotientenraum Fehlerfunktional, 114 Fibonacci-Folge, 60, 83, 466 Ficksches Gesetz, 970 Finite-Element-Methode, 122 Finite-Volumen-Methode, 972 Fitting-Index, 532, 554 Fixpunkt, 863 flächenerhaltend, 668 Fluktuation, 890 Fourier

-Koeffizient, 825 Fourier

-Analyse, 126, 828 -Koeffizient, 124, 828, 894 -Matrix, 898 -Reihe, 828 -Summe, 828 Fourier-Transformation Algorithmus, 900 diskrete, 893, 894 schnelle, 899 Fourier-Transformation inverse diskrete, 894 Frechet-Ableitung, 833 Freiheitsgrad, 6, 15, 87, 402 Frequenzraum, 828 FrobeniusNorm, 771 Frobenius-Matrix, 268 Fundamentallösung, 929 Fundamentalsystem, 929 Funktion charakteristische, 888 Gauss-Seidel-Verfahren, 861 Gauss-Verfahren, 16, 267

Algorithmus mit Pivotisierung, 285 Algorithmus ohne Pivotisierung, 268 Gauss liefert LR-Zerlegung, 271

989 Gauss-Jordan-Verfahren, 15, 216 Gauss-Schritt, 16 Gausssche Elimination zur Zeilenstufenform,

20 Gausssche Elimination zur Zeilenstufenform, 21

Gerade, 37, 141 Achsenabschnittsform, 42 Durchschnitt zweier Geraden, 40 Momentenvektor, 331 parallel, 82 und lineare Gleichungen, 39 windschief, 83 Gesamtschrittverfahren, 861 Gewicht einer Internetseite, 857 mit Dämpfung, 859 Gierwinkel, 485 Givens-Rotation, 180 Gleichgewichtslösung, 943 Gleichgewichtsvektor, 978 gleichmässige Konvergenz, 764 Gleichung charakteristische, 799 Gleichungsnebenbedingungen, 676 aktiv, 693 Gradient, 819 Gradientenverfahren, 872 Gramsche Matrix, 113, 617 Definitheit, 590 Graph Adjazenz-, 903 gerichteter, 902 isomorph, 903 ungerichteter, 902 zusammenhängender, 904 Zusammenhangskomponenten, 904 Grenzfall aperiodischer, 805 Gruppe, 343 affine, 346 allgemeine lineare, 213, 344 Bewegungs-, 346 der Ähnlichkeiten, 169 der Bewegungen, 650 Dieder-, 232 konforme, 345 Ordnung, 348 orthogonale, 227, 236, 344, 630 spezielle lineare, 308, 344 spezielle orthogonale, 228, 308, 344, 630 spezielle unitäre, 630 Symmetrie-, 232 symmetrische, 278, 344 symplektische, 668 unitäre, 379, 630

990 zyklische, 232 Gruppenhomomorphismus, 349 Haar-Basis, 890 Haar-Wavelet, 886, 889

Halbnorm, 391 Halbräume, 202 Halbraum, 684 Hauptachse, 661 Hauptachsenlänge, 661 Hauptachsentransformation, 473 Zusammenhang mit Singulärwertzerlegung, 574 Hauptinvariante, 441 Hauptraum, 508 Aufbau einer Basis, 553, 555 Bezug zum Minimalpolynom, 531 Hauptvektor, 508, 553 hermitesch, 819 Hesse-Matrix, 833 Hessesche Normalform, 202 Hilbert-Raum, 362, 766, 819 Histogramm, 46 Homomorphismus, 158 Hookesches Gesetz, 3 Housholder-Matrix, 180 Hutfunktion, 59 Hyperbel, 657 hyperbolische Ebene, 664 Hyperboloid einschaliges, 655 zweischaliges, 655 Hyperebene, 42, 163, 393 affine, 142 Hessesche Normalform, 202 Identität, siehe Einheitsmatrix implizites Euler-Verfahren, 964 indefinit Bilinearform, 644 Induktivitat einer Spule, 242 innerer Kern, 692 Inneres eines Polyeders, 692 inneres Produkt, 370 Eigenschaften, 370 Integralkern, 614 Integration Lebesgue, 767 Interpolation Hermite-, 410 Polynom-, 187, 389 trigonometrische, 897 Interpolationsaufgabe komplexe, 897

Sachverzeichnis Interpolationsstellen, 187 Interpolierende, 187 Invariante, 346 invers-monotone Matrix, 910 Involution, 629 Inzidenzmatrix, 904 Isometrie, 629 Isomorphie, 158, 182 Isomorphismus, 158, 349 orientierungstreuer, 318 Iterationsverfahren Fixpunkt, 863 konsistentes, 862 konvergentes, 862 linear stationär, 865 lineare konvergente, 864 monotone Konvergenz, 865 Jacobi-Matrix, 833 Jacobi-Verfahren, 861 Jacobi-Verfahren

Spalten- und Zeilensummenkriterium, 867 Jordan-Block, 452, 493, 524, 527 Jordan-Chevalley-Zerlegung, 537 Jordan-Zerlegung, 537 Jordansche Normalform, 534 Anzahl und Größe der Jordan-Blöcke, 536

K-Algebra, 774 Kästchenregel, 309 Kante, 677 eines Polyeders, 694 Kapazitat eines Kondensators, 242 Karush-Kuhn-Tucker-Bedingung, 742, 743 Kavalierperspektive, 207 Kegel, 655, 706 -schnitt, 654 konvexer, 739 Mantellinie, 656 Spitze, 656 Kern innerer, 692 Kette, 522 Markov-, 974 Basis aus, 527 Länge, 522 kinetische Energie, 669 KKT-Bedingung, 743 Klappstreckung, 170 Klassifizierung Quadrik, 650 Knoten hangende, 857 Knoten-Kanten-Matrix, 904

Sachverzeichnis Knotenachsen, 485 Kodimension, 97, 142, 393, 409 Koeffizient, 6 Koeffizientenmatrix, 8 erweiterte, 8 Quadrik, 647 kommutatives Diagramm, 176 kompakt, 768 Komplementaritätsbedingung, 742 komplexe Zahlen, 353 Imaginärteil, 354 konjugierte, 355 Polardarstellung, 356 Realteil, 354 Komponente, 7, 35 Kompression, 885 Kondensator, 241 Konditionszahl, 838 kongruent, 619 Kongruenz, 162, 584, 650 konjugiert komplex, 355 Konjugierte-Gradienten-Verfahren, 874 konjugierte Potenz, 752 Konsistenz von Iterationsverfahren, 862 Kontraktion, 866 kontravariant, 413 Konvergenz gleichmäßige, 764 im quadratischen Mittel, 764 Konvergenz von Iterationsverfahren, 862 konvex, 679, 749 strikt, 744 Hülle, 681 Konvexkombination, 680 Koordinaten, 81, 411 baryzentrische, 338 Plücker-, 331 Koordinatenabbildung, 156 Koordinatenfunktion, 398 Koordinatenraum, 142 Körper, 351 Charakteristik, 352 endlicher, 356 Körperhomomorphismus, 352 Kosten reduzierte, 725 kovariant, 414 Kreuzprodukt, 324, 667 Kriechfall, 805 Kronecker-Delta, 178 Kronecker-Symbol, 59 Ky-Fan-Norm, 779 Lagrange-Funktional, 601

991 Sattelpunkt, 601 Lagrange-Multiplikator, 598 Lagrange-Polynome, 184

Länge, 103 euklidische, 104 Laufindex, 7 Lebesgue Integration, 767 Leibniz-Formel, 299 Lemma von Farkas, 739 LGS, siehe lineares Gleichungssystem LIN, 55 lineare Abbildung, 153, 361 Φ-invariante Zerlegung, 507, 509, 514 Additivität, 154 Adjungierte, 379 Bild, 158 Bildsatz, 157 charakteristisches Polynom, 438 Diagonalisierbrakeit, 433 hermitesch, 379 Homogenität, 154 Injektivität, 157 Kriterium, 158 invarianter Unterraum, 431 Kern, 158 Minimalpolynom, 498 nilpotente, 491 normale, 475 Eigenschaften, 477 orientierungstreue, 318 orthogonale, 234, 421 positiv (semi)definit, 581 Prinzip der linearen Ausdehnung, 173 selbstadjungiert, 379 Selbstadjungiertheit, 581 Spektraldarstellung, 483 Spektrum, 430 Surjektivität, 157 Kriterium, 157 symmetrische, 234 transponierte, 234 unitär, 379 Zerlegung in surjektive und injektive Abbildung, 256 lineare Optimierungsaufgabe, 675 linearer Operator, siehe lineare Abbildung linearer Unterraum, 55 lineares Gleichungssystem Lösungsraum Dimension, 95 Struktursatz, 25 lineares Ausgleichsproblem, 251, 594 Lösbarkeit, 252 Lösung mit QR-Zerlegung, 611

992 lineares Gleichungssystem, 5–7 Cramersche Regel, 316 homogenes, 7 inhomogenes, 7 Lösbarkeitsbedingung, 63, 248 Lösbarkeit und Eindeutigkeit bei LGS, 98, 155, 212, 222, 237 triviale Lösung, 7 Verbindung zur quadratischen Optimierung, 593 lineares Programm, 675 lineare Unabhängigkeit, 75 Test, 77 Linearform, 398 Linearisierung, 834 Linearkombination, 56 linear abhängig, 75, 76, 80 Test, 77 Linerformen, 183 Linksinverse, 213 Lipschitz-Stetigkeit, 755 Lösungsbegriff variationeller, 621 Lotfußpunkt, 119 Lotvektor, 119 LR-Zerlegung, 271, 274, 288 mit Pivotisierung, 286 M-Matrix, 922 Markov-Kette, 974 Massenfluss, 959 Massenkette, 2, 22, 132, 224, 249, 426, 434, 435, 602 Matrix, 50 -Matrix-Multiplikation, 192 -Vektor-Produkt, 63 Gramsche, 375 Adjazenz-, 903 Adjungierte, 377 ähnlich, 419, 423 alternierende, 664 antihermitesch, 446 antisymmetrisch, 664 Begleit-, 438 Blockdiagonalisierbarkeit, 517 Blockdiagonalmatrix, 461 charakteristisches Polynom, 438 Cholesky-Zerlegung, 591 Darstellungs-, 173 diagonale, 11, 65 Diagonalisierbarkeit, 419 doppelt stochastische, 975 Einheitsmatrix, 178 Elementar-, 219 Frobenius-, 268

Sachverzeichnis Gramsche, 113, 617

Definitheit, 590 hermitesch, 379 idempotente, 203 invers-monotone, 910 inverse, 212, 216, 315 inverse 2 × 2, 217 invertierbare, 212 Inzidenz-, 904 irreduzible, 250 Kern-Bild-Orthogonalität, 247, 381 Knoten-Kanten-, 904 Koeffizienten-, 8 erweiterte, 8 konjugiert komplexe, 377 LR-Zerlegung, 271 M-, 922 Matrix der Adjunkten, 314 Minimalpolynom, 497 monotone, 910 Nachbarschafts-, 903 nichtsingulär, 212 nilpotente, 491 normale, 475 Null-, 50 obere Dreiecks-, 12 orientierungstreue, 318 orthogonale, 227 Permutationsmatrix, 278 Polardarstellung, 586 positiv definit, 581 Eigenwert, 584 Potenz, 195 Produktmatrix, 191 Pseudoinverse, 256, 260 QR-Zerlegung, 609 Rang, 92 Rang-1-, 199 reduzible, 250 schiefhermitesch, 446 selbstadjungiert, 379 Spektraldarstellung, 483, 573 Spur, 437 stochastische, 975 Streichungsmatrix, 311 symmetrische, 230 transponierte, 66, 223, 405 tridiagonale, 23 Trigonalisierbarkeit, 458, 462 Übergangs-, 412, 974 unitäre, 378 untere Dreiecks-, 15 Zeilenstufenform, 13, 20, 78 reduzierte, 22

Sachverzeichnis Matrixpolynom, 195, 488 Maximumnorm, 764 Menge konvex, 679 zulässig, 675 Minimalfolge, 810 Minimalpolynom, 497, 499 Minkowski-Form, 634 Minor Hauptminor, 313 k-reihiger Minor, 312 Mittelpunktsquadrik, 651 Momentenfeld, 329 Momentenvektor, 332 Monome, 58 Monomorphismus, 158 monotone Matrix, 910 Multiplikation mit Skalaren, 33 von Matrizen, 192 Multiskalenbasis, 890 N-Koordinaten, 720 n-Tupel, 31 Nachbarschaftsmatrix, 903 negativ definit Bilinearform, 644 negativ semi-definit Bilinearform, 644 Neumannsche Reihe, 789 Newton-Verfahren, 834 nicht entartete Ecke, 723 Nicht-Basis-Koordinaten, 720 Nicht-Basis-Menge, 720 nicht-derogatorisch, 527 nicht-einfache Ecke, 723 Nickwinkel, 485 Nilpotenzgrad, 492 Nilpotenzindex, 492 Norm, 106, 751 äquivalente, 758 Definitheit, 751 Dreiecksungleichung, 751 Energie-, 582, 590 erzeugte, 771 euklidische, 104, 251 Frobenius-, 107, 771 Homogenität, 751 Maximums-, 108 Spaltensummen-, 777 Spektral-, 777 stärkere, 758 submultiplikative, 774, 806 verträgliche, 771

993 Zeilensummen-, 777 normal, 819 Normalform bei beliebigem Basiswechsel, 418 einer alternierenden Matrix, 666 für nilpotente lineare Abbildungen, 527 Jordansche Normalform, 534 Komplexe Schur-Normalform, 458 Optimierungsproblem, 717 reelle Blockdiagonalisierung, 517 reelle Jordansche Normalform, 548 reelle Schur-Normalform, 462 Normalgleichung, 251, 595 Normalprojektion, 116 Nullabbildung, 179 Nullraum, 55, 56 o.B.d.A, 43 Oberlösung, 911 ONB, siehe Orthonormalbasis, 166 Operator dualer, 818 Operator Overloading, 33 optimal, 714 Optimierung lineare, 675 quadratische, 117 Optimierungsproblem Normalform, 717 Orientierung, 317 orthogonal, 110, 124, 373 Orthogonalbasis, 124, 637 orthogonales Komplement, 110, 373, 407 orthogonale Abbildung, 167 orthogonale Projektion, 114 auf Hyperebene, 163 Darstellungsmatrix, 180, 201 orthogonale Transformation, 164 und Skalarprodukt, 165 Orthonormalbasis, 124, 637 Orthonormalisierungsverfahren Schmidtsches, 127 orthosymmetrisch, 623 Ortsvektor, 141 PageRank-Algorithmus, 856 Parabel, 657 Paraboloid, 655 Parallelität von affinen Unterräumen, 142 Parallelität, 67, 82 Parallelogramm Fläche, 295 Parallelogrammgleichung, 107

994 Parallelotop, 294 Parallelprojektion, 116 schiefe, 206 Partionierung, 51 Permutation, 277 Aufbau, 281 Fehlstand, 283 Produkt (Hintereinanderausführung), 277 Symmetrische Gruppe, 278 Vertauschung (Transposition), 277 zyklische, 280 Permutationsmatrix, 278 Phasendiagramm, 953 Pivot Element, 14 Spalte, 14 Pivotelement, 17, 731 Pivotoperation, 731 Pivotspalte, 17 Polarisationsformel, 374, 635 Polyeder, 684 beschränktes, 703 Dimension, 686 Ecke, 694 explizite Parametrisierung, 725 Inneres, 692 Kante, 694 Rand, 692 Seite, 694 Polynom, 45, 364 Matrix-, 195, 488 Minimal-, 497 trigonometrisches, 896 polynomial, 716 Polytop, 703 positiv definit Bilinearform, 644 positiv semi-definit Bilinearform, 644 potentielle Energie, 669 Potenz, 348 Potenzmethode, 878 Algorithmus, 880 Primärzerlegung, 510 primales Problem, 745 Produkt dyadisches, 199, 376, 381 kartesisches, 364 von Drehmatrizen, 198 Produktmatrix, 191 Programm lineares, 675 Projektion, 202 normale, siehe Normalprojektion

Sachverzeichnis orthogonale, siehe orthogonale Projektion, 810 parallele, siehe Parallelprojektion und direkte Zerlegung, 207 Projektion auf U längs oder in Richtung von W, 207 Pseudoinverse, 256, 260 allgemeine, 595 dyadische Spektralform, 576 Zusammenhang mit Singulärwertzerlegung, 575 Punkt, 140, 141 Punktspektrum, 768 Punktspiegelung, 163, 179 QR-Zerlegung, 609 quadratische Form, 634 Quadraturformel, 183, 815 Quadraturgewicht, 815 Quadraturgewichte, 183 Quadrik, 473, 647, 648 affine Normalform, 654, 655 euklidische Normalform, 659 Gleichung einer, 647, 648 Hauptachse, 661 Hauptachsenlänge, 661 Klassifizierung, 650 Koeffizientenmatrix, 647 erweiterte, 647 geränderte, 647 metrische Normalform, 659 nicht entartete, 654 Tangente, 657 Quotientenraum, 386 Rand, 684 eines Polyeders, 692 Randbedingung, 960 Dirichlet-, 960 Fluss-, 960 Randwert, 668 Randflächen, 687 Rang, 21 einer Matrix, 94 der Darstellungsmatrix, 622 maximaler, 212 transponierte Matrix, 224 Rayleigh-Quotient, 558 Rayleigh-Quotient, 603 Rechte-Hand-Regel, 318, 327 Rechtsinverse, 213 Referenzsimplex, 690 Regel von Sarrus, 300 Regression lineare, 253 polynomiale, 253

Sachverzeichnis Regularisierung, 845 Tikhonov-, 848 Residualspektrum, 768 Residuum, 838 Resolvente, 430 Resolventenmenge, 430, 767 Restklassen, 386 Restklassenabbildung, 387 Richardson-Verfahren, 867 Richtungsvektor, 703 Rieszscher Darstellungssatz, 400, 625, 814 RLGS, 5 Rollwinkel, 485 Rückwärtssubstitution, 288 Sattelfläche, 655 Sattelpunkt, 956 Satz alle Normen äquivalent auf endlichdimensionalen Raum, 759 Austauschschritt, 731 Charakterisierung invertierbarer M-Matrizen, 917 Diagonalisierbarkeitskriterium, 454 Diagonalisierung symmetrischer Bilinearformen, 636 Eigenschaften des Vektorprodukts, 325 Eigenschaften Pseudoinverse, 257 Eindeutige Existenz der orthogonalen Projektion, 115, 375 Eindeutige Existenz der SVD, 572 Gauss liefert LR-Zerlegung, 271 Gausssche Elimination zur Zeilenstufenform, 20 Hauptachsentransformation für selbstadjungierte Matrize, 473 injektiv = surjektiv bei gleicher endlicher Dimension, 185 Jordansche Normalform, 534 Kästchenregel, 309 Karush-Kuhn-Tucker-Bedingungen, 742 Kern-Bild-Orthogonalität, 247, 381 Komplexe Schur-Normalform, 458 Konvergenz der Matrixpotenz, 783 Lemma von Farkas, 739 Lösbarkeit des linearen Ausgleichsproblems, 252 Lösbarkeit und Eindeutigkeit bei LGS, 98, 155, 212, 222, 237 Minimum auf Rand, 712 Normalform einer alternierenden Matrix, 666 Orthogonale Projektion, 810 Prinzip der linearen Ausdehnung, 173 Projektion und direkte Zerlegung, 207

995 Rieszscher Darstellungssatz, 400, 814 Fourier-Transformation, 899

Stabilität im autonomen Fall, 946 Test auf lineare Unabhängigkeit, 77 Unitäre Diagonalisierung normaler Matrizen, 479 Variation der Konstanten, 935 von Perron und Frobenius, 911 von Cayley-Hamilton, 494 von Pythagoras, 103 n-dimensionaler, 110 Zeilenrang = Spaltenrang, 93 Schauder-Basis, 824 Schauder-Orthonormalbasis, 825 Scherung, 549 Schiefsymmetrie, 300 schiefsymmetrisch, 230 Schlupfvariablen, 677 Schmidtsches Orthonormalisierungsverfahren, 127 Schnittebenenverfahren, 748 Schrägriss, 206 Schur-Komplement, 223 Schur-Normalform, 458, 462 schwache Formulierung, 621 Schwerpunkt, 150, 689 Schwerpunktsatz, 150 Schwingung, 805 gedämpft, 805 ungedämpft, 805 Seite eines Polyeders, 694 Seitenansicht, 116 Seitenhalbierende, 150 selbstadjungiert, 819 senkrecht, siehe orthogonal separabel, 827 Sequilinearform, 614 Sherman-Morrison-Fromel, 217, 377 Signatur Bilinearform, 643 Signum-Funktion, 283 Simplex, 688 Dreieck, 150 Tetraeder, 150 Simplex-Verfahren, 678 duales, 748 kondensiertes, 732 lexikographisches, 732 revidiertes, 749 Singulärwerte, 567 Singulärwertzerlegung, 567, 572 normierte, 572 reduzierte, 573

996 Zusammenhang mit Hauptachsentransformation, 574 Zusammenhang mit Pseudoinverse, 575 skalares Vielfaches, 33 Skalarmultiplikation, 360 Skalarprodukt, 106, 370 Eigenschaften, 104 Energie-, 582 euklidisches, 66 Skalierungsfunktion, 888 Spalten-Äquivalenz, 229 Spaltenrang, 92, 98, 155, 237 Spaltenraum, 91 Spaltensummennorm, 777 Spat, 294 Spatprodukt, 323 Spektraldarstellung, 483, 573 Spektralnorm, 777 Spektralradius, 776 Spektrum, 430, 767 stetiges, 768 Spiegelung an Hyperebene, 163 an Hyperebene, Matrix, 180 Splines lineare, 48 Spule, 241 Spur, 437 Stabilität, 944 bei Eigenwert- und Eigenvektorberechnung, 850 exponentielle, 950 Stabilitätsbedingung, 965 stark diagonal-dominant, 867 Stationaritatsbedingung, 834 Stichprobenvarianz, 241 stochastische Übergangsmatrix, 974 stochastische Matrix, 975 Strahl, 703 Strahlen, 708 Strecke, 38, 149, 679 Streck-Scherung, 179 Streckung Dreh-, 170 Klapp-, 170 Matrix, 178 zentrische, 170, 548 Streichungsdeterminante, 314 strikt konvex, 744 Stützstelle, 183 submultiplikativ, 774 Substitution Rückwärts-, 12 Vorwärts-, 15 Summenkonvention

Sachverzeichnis Einsteinsche, 415 Superpositionsprinzip, 925 Swastika, 232 Sylvester-Gleichung, 513 Symmetriegruppe, 232 symmetrisch, 819 symplektisch, 668 Synthese, 884

Tableau, 726 Tangente, 657 Tensorprodukt, 199 von Linearformen, 615 Testfunktion, 621 Tetraeder, 150 Tikhonov-Regularisierung, 849 Topologie, 758 Trägheitssatz von Sylvester, 643 Tragheitsindex, 643 Trajektorie, 954 Transformation affine, 346 orthogonale, 164 Transformationsverhalten kontravariantes, 413 kovariantes, 414 von Bilinearformen, 619 von darstellenden Matrizen, 618 von Endomorphismen, 619 von Matrizen, 416 Translation, 36, 163 transponiert, 223 Transposition, siehe Vertauschung Trend, 890 Trennungssatz, 813 Treppenfunktion, 46 Tridiagonalmatrix, 23 Trigonalisierbarkeit, 458 komplexe, 458 reelle, 462 Triskele, 232 trivial, 7 triviale Lösung, 7 Tupel, 7 n-Tupel, 31 Übergangsmatrix, 412 stochastische, 974 Ungleichung Dreiecks-, 105 von Cauchy-Schwarz, 104 von Kantorowitsch, 873 Ungleichungsnebenbedingungen aktiv, 693

Sachverzeichnis unitär, 819 Untergruppe, 343 Unterlösung, 911 Unterraum affiner, 72 invarianter, 431 linearer, 55 Ursprung, 141 Vandermonde Matrix, 306

Variable freie, 677 gebundene, 677 Variationsgleichung, 810 Variationsproblem, 669 Variation der Konstanten, 794 Vater-Wavelet, 888 Vektor, 30 erweiterter, 647 Koordinaten-, 81, 411 Koordinatentransformation, 414 System von Vektoren, 80 Vektorfeld, 329 Vektoriteration, 878 Vektorkombination, 143 Vektorprodukt, 324, 667 Eigenschaften, 325 Vektorraum, 360 Φ-invariante Zerlegung, 507, 509, 514 R-Vektorraum, 47 der Matrizen, 50 direkte Summe, 208 euklidischer bzw. unitärer, 371 Komplexifizierung, 364 mit Skalarprodukt, 106 normierter, 106 Rn , 35 unendlichdimensional, 89 vollständig, 766 Zerlegung, 61 orthogonale, 118 Verbindungsraum, 141 Verbindungsvektor, 140 Verfahren Gradienten-, 872 Konjugierte-Gradienten-, 874 Vertauschung, 277 Vielfaches, 348 Vielfachheit, 786 Voll-Rang-Zerlegung, 264 vollständig, 766, 826 Vollständigkeitsrelation, 826

997 Volumen Eigenschaften, 296 und Determinante, 297 Volumenfunktion, 303 Vorderansicht, 116 Vorkonditionierung, 840 Vorwärtssubstitution, 288 Wahrscheinlichkeitsvektor, 977 Wavelet -transformation, 892 Haar-, 886, 889 Vater-, 888 Wavelet-Transformation schnelle, 893 Wellengleichung diskrete, 802 eindimensional, 971 Winkel, 109 nichtorientierter, 165 orientierter, 319 zwischen Vektoren, 109 Winkelgeschwindigkeit, 329 Winkeltreue, 166 Wronski-Determinante, 931 Zahlengerade, 31 Zahlenraum, 7, 31 Zahlenvektor, 31 Zeilenäquilibrierung, 840 Zeilen-Äquivalenz, 229 Zeilenrang, 92, 98, 155, 237 Zeilenraum, 91 Zeilenstufenform, 13, 20, 78 reduzierte, 22 Zeilensummennorm, 777 Zeilenumformungen, 16 Zerlegung, 51, 61 Φ-invariante, 507, 509, 514 direkte, 61, 207 Zerlegung der Eins, 209 Zielfunktional, 675 Zufallssurfer, 860 Zustandsraum, 828 Zweischrittverfahren, 967 Zweiskalenbasis, 890 zyklische Gruppe, 232 Zyklus elementfremd, 280 Länge, 280 Zylinder, 655

springer.com

Willkommen zu den Springer Alerts ••

Unser Neuerscheinungs-Service für Sie: aktuell *** kostenlos *** passgenau *** flexibel

Springer veröffentlicht mehr als 5.500 wissenschaftliche Bücher jährlich in gedruckter Form. Mehr als 2.200 englischsprachige Zeitschriften und mehr als 120.000 eBooks und Referenzwerke sind auf unserer Online Plattform SpringerLink verfügbar. Seit seiner Gründung 1842 arbeitet Springer weltweit mit den hervorragendsten und anerkanntesten Wissenschaftlern zusammen, eine Partnerschaft, die auf Offenheit und gegenseitigem Vertrauen beruht. Die SpringerAlerts sind der beste Weg, um über Neuentwicklungen im eigenen Fachgebiet auf dem Laufenden zu sein. Sie sind der/die Erste, der/die über neu erschienene Bücher informiert ist oder das Inhaltsverzeichnis des neuesten Zeitschriftenheftes erhält. Unser Service ist kostenlos, schnell und vor allem flexibel. Passen Sie die SpringerAlerts genau an Ihre Interessen und Ihren Bedarf an, um nur diejenigen Information zu erhalten, die Sie wirklich benötigen.

Mehr Infos unter: springer.com/alert A14445 | Image: Tashatuvango/iStock

Jetzt anmelden!

Smile Life

When life gives you a hundred reasons to cry, show life that you have a thousand reasons to smile

Get in touch

© Copyright 2015 - 2024 AZPDF.TIPS - All rights reserved.