29
Konversatoriumsunterlagen zur Analysis T2, SS 2005 Klaus Lichtenegger 16. M¨ arz 2005 Inhaltsverzeichnis 1 Elementare Vektoralgebra 2 2 Produkte von Vektoren 4 2.1 Skalarprodukt ...................................... 4 2.2 Vektorielles Produkt .................................. 4 3 Analytische Geometrie 5 4 Tensoren 7 5 Wichtige Vektoridentit¨ aten 8 6 ¨ Ubungsaufgaben – Vektorrechnung 9 7 Elementare Matrizenrechnung 10 7.1 Matrixmultiplikation .................................. 11 8 Die Determinante 13 8.1 Die inverse Matrix ................................... 14 9 Mehr zu Matrizen 15 9.1 Der Rang einer Matrix ................................. 15 9.2 Die Cramersche Regel ................................. 15 9.3 Der Gauß-Algorithmus ................................. 16 10 Das Eigenwertproblem 17 11 ¨ Ubungsaufgaben – Matrizenrechnung 19 12 ¨ Ubungsaufgaben – Differentialrechnung R n R 20 13 ¨ Ubungsaufgaben – Abbildungen R n R m 23 14 ¨ Ubungsaufgaben – Extremwertaufgaben 27 1

Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Konversatoriumsunterlagen

zur Analysis T2, SS 2005

Klaus Lichtenegger

16. Marz 2005

Inhaltsverzeichnis

1 Elementare Vektoralgebra 2

2 Produkte von Vektoren 42.1 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42.2 Vektorielles Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Analytische Geometrie 5

4 Tensoren 7

5 Wichtige Vektoridentitaten 8

6 Ubungsaufgaben – Vektorrechnung 9

7 Elementare Matrizenrechnung 107.1 Matrixmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

8 Die Determinante 138.1 Die inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

9 Mehr zu Matrizen 159.1 Der Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159.2 Die Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159.3 Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

10 Das Eigenwertproblem 17

11 Ubungsaufgaben – Matrizenrechnung 19

12 Ubungsaufgaben – Differentialrechnung Rn → R 20

13 Ubungsaufgaben – Abbildungen Rn → Rm 23

14 Ubungsaufgaben – Extremwertaufgaben 27

1

Page 2: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

1 Elementare Vektoralgebra

Wann immer es darum geht, im mehrdimensionalen Raum Rn zu arbeiten, sind Vektoren einnutzliches, ja oft nahezu unersetzliches Hilfsmittel.Ursprunglich stammt der Vektorbegriff aus der Physik, woman grob zwei Arten von Großen unterscheidet: gerichtetewie Kraft oder Geschwindigkeit und ungerichtete wie Druckoder Temperatur. Will man etwa die Temperatur an einemPunkt angebena, so benotigt man nur eine einzige Zahl (plusEinheit), etwa 25◦C oder 273 K. Solche Zahlen nennt man inder Physik (da sich der Wert auf einer Skala angeben laßt)Skalare.

aDass physikalisch gesehen der Temperaturbegriff nur fur ein Ensem-ble von Teilchen Sinn macht, steht naturlich wieder auf einem anderenBlatt

Im Gegensatz dazu muss man bei einer Kraft nicht nur die Große, sondern auch die Richtungangeben. Solche eine Große nennt man einen Vektor, und in Zeichungen werden Vektoren oft alsPfeile gezeichnet, um die Richtungseigenschaft anzudeuten. In Formeln kennzeichnet man Vek-toren meist mit Fettdruck, fett und kursiv oder, vor allem in Handschrift, durch Unterstreichenbzw. durch ein Pfeilchen uber dem Buchstaben, z.B. ~A oder ~A.

Uns geht es nun darum, wie man derartige Großen am be-sten rechnerisch zuganglich machen kann. Legt man in denRaum (wir gehen der Einfachkeit und Anschaulichkeit hal-ber zunachst vom R3 aus) ein kartesisches Koordinatensy-stem, so kann man die Große des Vektors in jede Koordina-tenrichtung angeben.Das heißt, ein Vektor ~A zeigt ein Stuck a1 in x-, ein Stuck a2

in y- und ein Stuck a3 in z-Richtung. (Jede der Zahlen kannnaturlich auch negativ sein.) Diese drei Zahlen konnen wirzu einem Tripel (a1, a2, a3) oder, wenn wir uns mit dem Rn

beschaftigen, einem n-Tupel (a1, . . . , an) zusammenfassen.

Oft schreibt man direkt ~A = (a1, a2, a3), aber das ist nursinnvoll, wenn das Koordinatensystem festliegt. Prinzipiellkann ein kartesisches Koordinatensystem ja vollig beliebigin den Raum gelegt werden, und im allgemeinen wird einVektor in verschiedenen solcher Systeme auch verschiedeneDarstellungszahlen ak haben. Tatsachlich muss die Transfor-mation von einem Koordinatensystem in ein anderes nachgenau festgelegten Regeln erfolgen; erst dann spricht man(im strengen Sinne) von einem Vektor.Arbeitet man mit komplizierteren Koordinatensystemen als es das kartesische ist, wird außerdemdie Unterscheidung in ko- und kontravariante Vektoren nutzlich. Auf diese Themenkreise wollenwir hier nicht weiter eingehen; statt dessen nehmen wir ein fixes Koordinatensystem an unduberlegen uns nun, wie man mit Vektoren uberhaupt rechnet; jede Rechenoperation kann mansich auch geometrisch veranschaulichen.

2

Page 3: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Die Addition und Subtraktion zweier Vektoren erfolgt komponentenwei-se: ~C = ~A± ~B heißt also:

c1...

cn

=

a1 ± b1...

an ± bn

=

a1...

an

±

b1...

bn

Geometrisch bedeutet die Addition, die Vektorpfeile einfach aneinander-zusetzen. Naturlich ist deswegen auch ~A + ~B = ~B + ~A.Die Multplikation eines Vektors mit einem Skalar (einer Zahl) geht ana-log vor sich: ~C = λ ~A bedeutet:

c1...

cn

=

λa1...

λan

= λ

a1...

an

Geometrisch ist das fur |λ| < 1 eine Stauchung, fur |λ| > 1 eineStreckung. Ist λ < 0, so kehrt sich zusatzlich die Richtung des Vektorsum.Der Betrag eines Vektors A = | ~A| ist ein Maß fur seine Lange, streng nach Pythagoras berechnetman sie mittels A =

√a2

1 + a22 + . . . + a2

n. Den Vektor ~0 = (0, 0, . . . , 0) nennt man Nullvektor,sein Betrag ist Null, seine Richtung unbestimmt. Vektoren der Lange 1 heißen Einheitsvektoren,dividiert man einen Vektor durch seinen Betrag, um ihn zu einem Einheitsvektor zu machen, sonennt man diese Operation Normierung.Formal sehen Vektoren nahezu gleich aus wie Punkte des Rn, und tatsachlich gibt es zwischenbeiden viele Zusammenhange: An sich hat ein Vektor ja keinen festen Ort (freier Vektor), d.h.man kann einen Vektor an jede beliebige Stelle im Raum setzen. Betrachtet man aber Vektoren,die im Ursprung 0 beginnen, so beschreibt jeder Vektor ~r genau einen Punkt P (Ortsvektor).Die Koordinaten des Vektors entsprechen dabei genau jenen des Punktes.Vor allem aber erzeugen Vektoren Punktverschiebungen, man kann also einen Vektor ~V zu einemPunkt addieren und erhalt einen neuen Punkt, der genau um den Vektor ~V gegenuber demursprunglichen Punkt verschoben ist. In diesem Sinne ist es zu verstehen, wenn man vom ”Vektor

von P nach Q“ spricht. Die Koordinaten des Vektors−→PQ erhalt man dabei als Differenz der

Koordinaten von P und Q

Beispiel: Der Vektor von P = (2,−1, 3) nach Q = (3, 1,−1) ist ~A =−→PQ= (1, 2,−4), sein

Betrag ist A = | ~A| =√

12 + 22 + (−4)2 =√

21. Das Produkt von ~A mit der Zahl λ = 3 ist ~B =3 · ~A = (3, 6,−12), der Betrag dieses Vektors ist B = | ~B| =

√32 + 62 + (−12)2 =

√189 = 3 ·A.

Zwei Vektoren ~A, ~B nennt man linear abhangig, wenn einer das Vielfache des anderen ist.So sind etwa ~A = (2, 1,−2) und ~B = (−3,−3

2 , 3) linear abhangig, denn es ist ~B = −32 · ~A.

Allerdings wird diese Bedingung meistens noch ein wenig umformuliert, insbesondere wenn esum die Ubertragung auf mehr als zwei Vektoren geht. Vektoren ~Ak sind linear abhangig, wennes Zahlen αk, gibt, die nicht alle gleich Null sind, so dass α1

~A1 + . . . + αn~Ak = ~0 ist. Vektoren,

die nicht linear abhangig sind, bezeichnte man als linear unabhangig. Ein wenig mehr zu linearerAbhangigkeit und Unabhangigkeit (auch in allgemeinen Vektorraumen) wird noch in Abschnitt6.3 gebracht, viel mehr in allen gangigen Lehrbuchern der Linearen Algebra.

3

Page 4: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

2 Produkte von Vektoren

Man konnte nun daran denken, wie bei der Addition auch das Produkt zweier Vektoren kom-ponentenweise zu definieren, das erweist sich allerdings als nicht sinnvoll. Tatsachlich kann manaus zwei Vektoren aber sogar auf mehrere gebrauchliche Arten ein Produkt bilden, wir wollendie zwei wichtigsten herausgreifen:

2.1 Skalarprodukt

Im einfachsten Fall ist das Produkt zweier Vektoren einfach eine Zahl, also ein Skalar. DiesesSkalarprodukt wird mit einem einfachen Punkt · geschrieben und ist definiert als

~A · ~B = a1b1 + . . . + anbn.

Es hangt eng mit dem Winkel zwischen zwei Vektoren zusammen:

~A · ~B = AB cosϑ,

wobei ϑ den Winkel zwischen ~A und ~B bezeichnet. Daraus folgt: ~A · ~B ist genau dann Null, wenn~A und ~B normal aufeinander stehen – meist die bequemste Variante, um die Orthogonalitat vonVektoren zu uberprufen. Den Betrag eines Vektors kann man mit Hilfe des Skalarproduktsubrigens auch als | ~A| =

√~A · ~A schreiben. Oft liest man auch ~A2 fur ~A · ~A = | ~A|2.

2.2 Vektorielles Produkt

Nun kann das Produkt zweier Vektoren aber auch wieder ein Vektor sein,man spricht dann vom vektoriellen Produkt, Vektorprodukt oder auch Kreuz-produkt, weil es meist durch ein Kreuz × symbolisiert wird. Definiert wird esim Dreidimensionalen als

~A× ~B =

a1

a2

a3

×

b1

b2

b3

× =

a2b3 − a3b2

a3b1 − a1b3

a1b2 − a2b1

Die Merkregel ist, zum Berechnen einer Zeile von ~A × ~B jeweils die entspre-chende Zeile in ~A und ~B zuzuhalten, die Produkte der gegenuberliegendenubrigen Elemente zu bilden und voneinander abzuziehen.

(Vorsicht bei der zweiten Komponente: a3b1 − a1b3, nicht a1b3 − a3b1.)Die wohl wichtigste Eigenschaft des Vektorprodukts ist, dass ~A× ~B so-wohl auf ~A als auch auf ~B normal steht. Will man also zu zwei gegebenenVektoren (die nicht linear abhangig sind) einen dritten finden, der nor-mal auf beide steht, so kann man einfach ihr Vektorprodukt bilden. Furden Betrag des Vektorprodukts gilt

| ~A× ~B| = AB sinϑ,

er ist also gleich der Flache des von ~A und ~B aufgespannten Parallelo-gramms.Wahrend fur das Skalarprodukt klarerweise ~A · ~B = ~B · ~A ist, gilt fur das Vektorprodukt keinKommutativgesetz. Ganz im Gegenteil, es ist sogar ~A × ~B = − ~B × ~A (Antikommutativitat).Naturlich gilt demnach ~A× ~A = ~0.

4

Page 5: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

3 Analytische Geometrie

Vektoren sind ein hervorragendes Werkzeug, um geometrische Gegebenheiten (insbesondere imR3) zu beschreiben, damit befaßt sich die Disziplin der analytischen Geometrie. So ist etwa eineKugelflache die Menge aller Punkte, die von einem Mittelpunkt M genau den Abstand r haben.Identifizieren wir nun (schlampigerweise) den Mittelpunkt mit seinem Ortsvektor, M = ~m =(m1,m2,m3), so laßt sich die Kugelgleichung

(x1 −m1)2 + (x2 −m2)2 + (x3 −m3)2 = r2

in Vektorform kompakt als|~x−M |2 = r2

schreiben. Vektoren konnen naturlich gut dazu verwendet werden, um Richtungen anzugeben.So kann man etwa Geraden in der Form g : X = P + t · ~A schreiben, wobei P ein beliebigerPunkt auf der Geraden, ~A ein geeigneter Richtungsvektor und t ein reller Parameter ist. DieseDarstellung ist naturlich nicht eindeutig, so beschreiben

g : X =

21−3

+ t ·

4−22

und g : X =

6−1−1

+ s ·

−21−1

die gleiche Gerade. Ebenso ist eine Gerade durch die Angabe zweier Punkte eindeutig festgelegt.Um im R3 eine Ebene anzugeben, gibt es eine ganze Reihe von Moglichkeiten: drei Punkte, dienicht auf einer Geraden liegen, etwa, einen Punkt und zwei Vektoren in der Ebene oder einenPunkt und einen zur Ebene normaler Vektor. Der letzte Fall ist zumeist der angenehmste, miteinem Punkt P und einem Normalvektor ~n schreibt sich eine Ebene als

ε : ~n ·X = ~n · P.

Beispiel: Wir wollen die Gleichung der Ebene bestimmen, in der die drei Punkte P = (2, 1, 3),Q = (4, 1, 4) und R = (1, 3,−2) liegen. Nun bestimmen wir zwei Vektoren in der Ebene uber~A =

−→PQ= Q− P = (2, 0, 1) und ~B =

−→PR= R− P = (−1, 2,−5) und erhalten als erste Form der

Ebenengleichung

ε : X = P + u · ~A + v · ~B =

213

+ u ·

201

+ v ·

−12−5

.

Statt P hatten wir naturlich genausogut Q oder R als Stutzpunkt wahlen konnen. Nun suchenwir einen Normalvektor zur Ebene, am einfachsten erhalten wir diesen uber das Kreuzproduktvon ~A und ~B:

~n = ~A× ~B =

201

×

−12−5

=

0 · (−5)− 1 · 21 · (−1)− 2 · (−5)

2 · 2− 0 · (−1)

=

−294

Jedes Vielfache von ~n ist naturlich ebenfalls ein Normalvektor der Ebene. Fur die Ebenenglei-chung ergibt sich

ε :

−294

·

xyz

=

−294

·

213

also letztendlich −2x + 9y + 4z = 17.

5

Page 6: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Naturlich kann man verschiedene geometrische Gebilde auch miteinander schneiden – je nach-dem, wie sie zueinander liegen, kann das Ergebnis sehr unterschiedlich ausfallen. Zwei Geradenetwa konnen sich in einem Punkt scheiden, ohne weiteres aber auch gar nicht (parallele oderwindschiefe Geraden), schließlich konnen sie auch zusammenfallen und damit unendlich vieleSchnittpunkte haben.Ahnlich konnen zwei Ebenen parallel sein, zusammenfallen oder sich in einer Geraden schneiden.Der Schnitt dreier nicht paralleler Ebenen kann einen Punkt liefern, unter Umstanden aber auchleer sein. (Die drei Ebenen haben dann keinen Punkt gemeinsam.) Ahnliche Uberlegungen lassensich auch fur andere geometrische Figuren anstellen.

Beispiel: Wir betrachten nun folgende geometrische Figuren: die Geraden

g1 : X =

−213

+ t ·

12−1

g2 : X =

110

+ s ·

−111

,

die Ebenenε1 : 3x− 2y + z = 6 und ε2 : x + y + 2z = 2

sowie die Kugel |X − (−3,−1, 4)|2 = 24. Nun schneiden wir

• g1 ∩ g2: Das liefert drei Gleichungen mit zwei Unbekannten:

−2 + t = 1− s 1 + 2t = 1 + s 3− t = 0 + s

Aus zwei dieser Gleichungen, etwa aus der ersten und der zweiten kann man nun s und tbestimmen, in diesem Fall t = 1 und s = 2. Diese Werte muss man nun noch in die ver-beliebene Gleichung einsetzen, im Fall einer falschen Aussage gibt es keinen Schnittpunkt.Hier erhalt man aber 2 = 2 und man bekommt aus einer der beiden Geradengleichungen,indem man den gefundenen Parameter einsetzt, den Schnittpunkt P = (−1, 3, 2).

• ε1 ∩ ε2: Nun haben wir zwei Gleichungen 3x − 2y + z = 6 und x + y + 2z = 2 mit dreiUnbekannten. Der Schnitt zweier Ebenen liefert aber ohnehin meist eine Gerade mit einemfreien Parameter t. Also setzen wir z = t und losen die beiden Gleichungen

3x− 2y = 6− t x + y = 2− 2t

nach x und y auf. Das liefert x = 2− t und y = −t, also insgesamt g3 : X = (2, 0, 0) + t ·(−1,−1, 1).

• g1 ∩ ε2: In die Ebenengleichung x + y + 2z = 2 setzen wir nun x = −2 + t, y = 1 + 2t undz = 3− t ein und erhalten aus

(−2 + t) + (1 + 2t) + 2(3− t) = 3

den Parameter t = −3, also den Schnittpunkt Q = (−5,−5, 6).

• g1 ∩K: Einsetzen der Gerade in die Kugelgleichung liefert

(t + 1)2 + (2t + 2)2 + (−t− 1)2 = 24,

also die quadratische Gleichung t2 +2t− 3 = 0 mit den Losungen t = −1± 2. Dabei liefertt = −3 den ersten Schnittpunkt S1 = (−5,−5, 6), t = 1 den zweiten S2 = (−1, 3, 2).

6

Page 7: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

4 Tensoren

Vektoren haben, wenn man sich explizit auf die Koordinaten bezieht, einen Index, { ~A}i = ai.Im Rn braucht man also, um einen Vektor anzugeben, n Zahlen, insbesondere im R3 drei. Nunkonnen wir aber auch Großen betrachten, die nicht nur einen, sondern zwei oder mehr Indizeshaben, also etwa bij oder cijk. Um sie anzugeben braucht man im R3 bereits neun bzw. 27 Zahlen.Alle derartigen ”Indexgroßen“ faßt man unter dem Begriff Tensoren zusammen, als Stufe desTensors bezeichnet man die Zahl der Indizes. Vektoren sind also Tensoren erster Stufe, tijk`

etwa ware ein Tensor vierter Stufe. Meist bezieht man auch Skalare als Tensoren nullter Stufein dieses Schema mit ein.Mit Vektoren und Skalaren haben wir es schon zu tun gehabt. Tensoren zweiter Stufe (die sichals quadratische Matrizen darstellen lassen) sind etwa nutzlich, um richtungsabhangige Großenzu beschreiben oder metrische Eigenschaften von Koordinatensystemen zu charakterisieren. DerEpsilontensor, der ein wenig spater behandelt wird, ist ein Beispiel fur einen Tensor dritter Stufe.Zunachst aber zu den wichtigsten Rechenregeln fur Tensoren:

• Das direkte (tensorielle) Produkt eines Tensors m-ter und eines n-ter Stufe ist ein Tensorder Stufe m + n

{A⊗B}i1i2...imj1j2...jn= ai1i2...imbj1j2...jn

• Uber zwei gleiche Indizes, die in einem Produkt oder in Tensorkoordinaten vorkommen,ist zu summieren (Einsteinsche Summenkonvention). Im R3 ist also etwa aijbj = ai1b1 +ai2b2 + ai3b3. Ein typisches Beispiel fur die Anwendung der Summenkonvention ware etwa

ai = bjkcjid`k`.

Hier wird auf der rechten Seite uber j, k und ` summiert; i bleibt als einziger freier Indexlinks und rechts stehen.

• Als Uberschiebung bezeichnet man das Gleichsetzen (und anschließende Summieren uber)zweier Indizes in einem Tensorprodukt. Das Uberschieben eines Tensors m-ter mit einemTensor n-ter Stufe liefert einen Tensor der Stufe m + n− 2. Ein Beispiel:

tij`mn = aijkb`mkn

Bei Tensoren hoherer Stufe gibt es naturlich sehr viele Moglichkeiten fur die Wahl der zuuberschiebenden Indizes.

• Verjungung eines Tensors nennt man das Gleichsetzen zweier seiner Indizes, die Verjungungeines Tensors n-ter Stufe liefert einen Tensor der Stufe n− 2, beispielsweise:

tij`n = aijk`kn

Ahnlich wie bei der Uberschiebung gibt es bei Tensoren dritter und hoherer Stufe naturlichmehrere Moglichkeiten, die zu verjungenden Indizes zu wahlen, was im allgemeinen auchzu unterschiedlichen Ergebnissen fuhrt.

• Ein Tensor heiß symmetrisch in den Indizes ik und i`, wenn ti1i2...ik...i`...in = ti1i2...i`...ik...in

ist. Analog heißt er antisymmetrisch in ik und i`, wenn ti1i2...ik...i`...in = −ti1i2...i`...ik...in ist.

7

Page 8: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Zwei wichtige Beispiel fur Tensoren sind

• der Einheitstensor (Deltatensor)

{E}ij = δij :={

1 fur i = j0 fur i 6= j

fur den die Elemente der Diagonale gleich Eins, alle anderen hingegen gleich Null sind.(Das Symbol δij wird ubrigens Kronecker-Delta genannt.)

• der Epsilontensor (Levi-Civita-Tensor)

ε123 = ε231 = ε312 = 1 ε132 = ε213 = ε321 = −1 εijk = 0 sonst

der antisymmetrisch in allen Indizes ist. Klarerweise sind daher alle Koordinaten gleichNull, bei denen zwei oder mehr Indizes ubereinstimmen. Mit Hilfe des Epsilontensors laßtsich das Kreuzprodukt zweier Vektoren elegant darstellen als:

{~A× ~B

}i= εijkajbk

Die Verallgemeinerung des Epsilontensors auf mehr als drei Indizes liegt auf der Hand.

Fur Epsilon- und Einheitstensor gelten die folgenden nutzlichen Beziehungen (Man denke an dieSummenkonvention!):

εijkε`mk = δijδjm − δimδj` εijkδik = 0εijkεmjk = 2δim δijδjk = δjk

εijkεijk = 6 δijδij = δii = 3

5 Wichtige Vektoridentitaten

Hier werden noch einmal einige schon bekannte und einige neue Vektoridentitaten zusammen-gefaßt. Davor definieren wir noch das Spatprodukt von drei Vektoren: ( ~A, ~B, ~C) := ~A · ( ~B × ~C)

~A · ~B = ~B · ~A = a1b1 + . . . + anbn = AB cosϑ | ~A× ~B| =√

A2B2 − ~A · ~B = AB sinϑ

~A · ( ~A× ~B) = ~B · ( ~A× ~B) = 0 ~A× ~B = − ~B × ~A ~A× ~A = ~0

( ~A× ~B) · ( ~C × ~D) = ( ~A · ~B)( ~B · ~D)− ( ~A · ~D)( ~B · ~C) ~A× ( ~B + ~C) = ~A× ~B + ~A× ~C

~A× ( ~B × ~C) = ( ~A · ~C) ~B − ( ~A · ~B)~C ( ~A× ~B)× ~C = ( ~A · ~C) ~B − ( ~B · ~C) ~A

( ~A× ~B)× (~C × ~D) = ( ~A, ~B, ~D) ~B − ( ~B, ~C, ~D) ~A ( ~A, ~B, ~C) = ( ~B, ~C, ~A) = (~C, ~A, ~B)

( ~A× ~B)× (~C × ~D) = ( ~A, ~B, ~D) ~C − ( ~A, ~B, ~C) ~D ( ~A, ~B, ~C) = −( ~A, ~C, ~B) = −( ~B, ~A, ~C)

Fur das direkte (tensorielle, dyadische) Produkt zwei Vektoren gilt: { ~A⊗ ~B}ij = aibj , es werdenalso die Produkte aller Vektorkoordinaten gebildet. Definiert man zusatzlich das Skalarprodukteines Tensors zweiter Stufe mit einem Vektor uber {T · ~A}i = tikak und { ~A · T}i = aktki

(Summenkonvention!), so gilt weiters die Identitat:

~A( ~B · ~C) = ( ~A⊗ ~B) · ~C = ~C · ( ~B ⊗ ~A) = ( ~A⊗ ~C) · ~B = ~B · (~C ⊗ ~A)

8

Page 9: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

6 Ubungsaufgaben – Vektorrechnung

Man berechne den Winkel, den eine Kante eines Wurfels mit dessen Diagonale einschließt.

Wir erhalten fur den Richtungsvektor einer Kante ~k = (1, 0, 0), fur den der Diagonale ~d = (1, 1, 1)und fur die Betrage k = |~k| = 1, d = |~d| = √

3. Damit ergibt sich:

cosϕ =~k · ~d

kd=

1√3

ϕ = arccos1√3≈ 54, 74◦

Eine Pyramide der Hohe h = 15 · √2 hat als Grundflache das ParallelogrammABCD, ihre Spitze liegt uber dem Mittelpunkt der Grundflache. Gegeben sindA = (2, 1, 2), B = (3, 3, 1) und D = (1, 2 − 1). Gesucht sind der Punkt D, dieSpitze S (zwei Losungen) und das Volumen der Pyramide.

−→AB=

331

212

=

121

−→

AD=

12−1

212

=

−11−3

C = B+

−→AD=

24−2

M =12(A + C) =

12(B + D) =

22, 50

~n =

−→AB ×

−→AD=

121

×

−11−3

=

−543

Fur den Betrag dieses Normalvektors erhalt man |~n| =√

50 = 5 · √2 und mit S1,2 = M ± h|~n|~n

weiter:

S1 = M + 3~n =

−1314, 5

9

S1 = M − 3~n =

17−9, 5−9

Das Volumen der Pyramide ist V = 13 ·G · h = 1

3 · |~n| · h = 1503 = 50

Gegeben sind die Kugel K und die Gerade g:

K :

∣∣∣∣∣∣X −

31−2

∣∣∣∣∣∣

2

= 25 g : X =

117−7

+ t ·

−4−35

Man berechne die Schnittpunkte der Geraden mit der Kugel und bestimme in diesen Punktendie Tangeltialebenen an die Kugel.

In die Kugelgleichung (x − 3)2 + (y − 1)2 + (z + 2)2 = 25 setzen wir x = 11 − 4t, y = 7 − 3t undz = −7 + 5t ein. Das fuhrt auf:

(8− 4t)2 + (6− 3t)2 + (−5 + 5t)2 = 25 50t2− 150t + 100 = 0 t2− 3t + 2 = 0 t =32± 1

2.

t1 = 1 liefert S1 = (7, 4,−2), t2 = 2 ergibt S2 = (3, 1, 3). Mit−→

MS1= (4, 3, 0) und−→

MS2= (0, 0, 5)

erhalt man aus−→

MSi ·X =−→

MSi ·Si die Ebenengleichungen:

τ1 : 4x + 3y = 40 τ2 : z = 3

9

Page 10: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

7 Elementare Matrizenrechnung

Wir kommen nun zum Rechnen mit Matrizen (Einzahl: Matrix). Matrizen spielen in vielen Be-reichen der Mathematik, Technik und Naturwissenschaft eine wichtige Rolle. Wir werden es inder Differential- und Integralrechungen mehrerer Variablen vor allem mit der Jacobischen Funk-tionalmatrix und der zugehorigen Funktionaldeterminante zu tun haben, aber auch sonst tretenMatrizen in den verschiedensten Bereichen auf: Lineare Gleichungssysteme fuhren rasch aufdas Studium von Matrizen, ebenso die Darstellung von Symmetrie- und Gruppeneigenschaften.Drehungen und andere geometrische Operationen in der Computergraphik lassen sich genausomittels Matrizen darstellen wie Operatoren in der Quantenmechanik. Dieser Abschnitt kannnotgedrungen nicht mehr sein als eine ganz kurze Einfuhrung oder Wiederholung einiger derwichtigsten Themen.Nun aber zur Sache: Bei einer Matrix handelt es sich um eine Anordnung von Zahlen (oder auchallgemeineren Objekten) in einem rechteckigen Schema. Eine [m× n]-Matrix hat m Zeilen undn Spalten (im Fallen m = n spricht man von quadratischen Matrizen):

A =

a11 . . . a1n

.... . . · · ·

am1 . . . amn

Die Elemente aij einer Matrix werden der Kurze und Ubersichtlichkeit halber mit einem Zeilenin-dex i und einem Spaltenindex j versehen. (Generell steht der Zeilenindex vor dem Spaltenindex.)Zwei Matrizen A, B sind nur dann gleich, wenn sie die selbe Anzahl Zeilen und die selbe AnzahlSpalten haben und fur alle i, j immer aij = bij ist. Summen und Differenzen sind ebenfallsnur fur Matrizen definiert, die jeweils die gleiche Anzahl von Zeilen und Spalten haben, es istC = A + B, wenn immer cij = aij + bij gilt. Das Produkt einer Zahl α mit einer Matrix A isteine Matrix B = αA mit bij = αaij .Die Nullmatrix 0m×n ist jene Matrix, deren Elemente alle Null sind. Fur die [n × n]-Einheitsmatrix E = I = 1 sind nur die Diagonalelemente eii gleich Eins, alle anderen ver-schwinden. Generell heißt eine quadratische Matrix A mit aij = 0 fur i 6= j Diagonalmatrix.Die Summe der Diagonalelemente einer quadratischen Matrix A nennt man ihre Spur (englischtrace): SpA = TrA =

∑ni=1 aii.

Was man auf jeden Fall mit einer Matrix machen kann, ist, sie zu transponieren, das heißt, dieZeilen mit den Spalten zu vertauschen:

{AT

}ij

= {A}ji. Ist eine A eine [m×n]-Matrix, so ist AT

eine [n×m]-Matrix. Fur quadratische Matrizen kann man weiter definieren: Ist AT = A, so heißtA symmetrisch; ist AT = −A, so heißt A antisymmetrisch. Matrizen mit AAT = ATA = 1heißen ortogonal.Wird eine Matrix A nicht nur transponiert, sondern ihre Elemente zusatzlich noch komplexkonjugiert, so spricht man von der adjungierten Matrix A†. Matrizen mit A = A† heißen hermi-tesch, solche mit AA† = A†A = 1 unitar. Hermitesche Matrizen haben nur reelle Eigenwerte,was sie vor allem in der Quantenphysik zu wichtigen Werkzeugen macht.Matrizen mit nur einer Zeile oder nur einer Spalte verhalten sich formal wie Vektoren und konnenmit ihnen identifiziert werden. Fur solche Matrizen schreiben wir deshalb statt A meist ~A furSpalten- bzw. ~AT fur Zeilenvektoren und benutzen nur einen Index. Matrizen mit nur einemElement werden mit Skalaren identifiziert, Tensoren zweiter Stufe lassen sich als quadratischeMatrizen darstellen.

10

Page 11: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

7.1 Matrixmultiplikation

Wir wissen nun schon ein wenig uber Matrizen. Additionund Subtraktion wurden ebenso wie Gleichheit kompo-nentenweise erklart. Die Multiplikation zweier Matrizenhingegen ist etwas komplizierter, ahnlich wie bei Vektorenware hier eine komponentenweise Definition nicht sinnvoll.Zwei Matrizen lassen sich genau dann multiplizieren, wenndie Zahl der Spalten der ersten gleich der Zahl der Zeilender zweiten ist. Das Ergebnis ist eine Matrix, die so vieleZeilen hat wie die erste und so viele Spalten wie die zweite.In Kurzform:

[m× k] · [k × n] = [m× n]

Das Element cij der Matrix C = A·B berechnet man nun,indem man die i-te Zeile von A und die j-te Spalte von Bmiteinander wie Vektoren skalar multipliziert (Merkregel:Zeile mal Spalte), also

cij =k∑

ν=1

aiνbνj = ai1b1j + . . . + aikbkj

a11 . . . a1k

.... . .

...am1 . . . amk

·

b11 . . . b1n

.... . .

...ak1 . . . akn

=

a11b11 + . . . + a1kbk1 . . . a11b1n + . . . + a1kbkn

.... . .

...am1b11 + . . . + amkbk1 . . . am1b1n + . . . + amkbkn

Anhand dieser Definition wird aber sofort klar, dass die Matrizenmultplikation nicht kommutativsein kann. Ist etwa A eine [2×3] und B eine [3×2]-Matrix, so ist AB eine [2×2]-, BA hingegeneine [3× 3]-Matrix, und diese konnen nicht ubereinstimmen. (Es kann sogar passieren, dass furzwei Matrizen zwar AB existiert, nicht aber BA.) Doch selbst fur quadratische Matrizen A, Bist im allgemeinen AB 6= BA. Ein Maß fur diese Abweichung ist der Kommutator [A,B] :=AB−BA, der, auf Operatoren verallgemeinert, in der Quantenmechanik eine uberragende Rollespielt. Hingegen ist die Matrizenmultiplikation assoziativ, es ist also (AB)C = A(BC), weshalbman in einem Produkt die Klammern meist weglaßt.

Beispiel: Wir berechnen fur

A =

(2 13 0

)B =

(3 −3 11 0 2

)C =

2 −10 23 1

alle moglichen Produkte von je zwei Matrizen:

AA =

(7 26 3

)AB =

(7 −6 49 −9 3

)BC =

(9 −88 1

)CA =

1 26 09 3

CB =

5 −6 02 0 410 −9 5

Die Produkte AC, BA, BB und CC sind nicht definiert.

11

Page 12: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Doch es gibt noch mehr Besonderheiten bei der Matrizenmultiplikation. So kann etwa ein Pro-dukt AB die Nullmatrix sein, obwohl weder A = 0 noch B = 0 ist. Daraus folgt unmittelbar,dass, nur weil AB = AC ist, noch langst nicht B = C sein muss. Sogar Potenzen von Ma-trizen, etwa A2 = AA konnen verschwinden, obwohl A 6= 0 ist (nilpotente Matrix). BeimTransponieren von Matrixprodukten gilt: (AB . . .X)T = XT . . .BTAT .Nun ist es aber an der Zeit zu erkaren, warum die Matrizenmultiplikation uberhaupt so seltsamdefiniert wird. Ein Vorteil ist auf jeden Fall, dass man so mit Matrizen und Vektoren auf einfacheArt lineare Gleichungssysteme darstellen kann: A~x = ~b ware die Kompaktschreibweise fur:

a11 . . . a1n

.... . .

...am1 . . . amn

·

x1...

xn

a11x1 + a12x2 + . . . + a1nxn

. . .am1x1 + am2x2 + . . . + amnxn

=

b1...

bm

Besonders interessant wird die Matrizenmultiplikation aber dann, wenn beispielsweise eine (Vek-tor)große ~y aus einer anderen ~x mittels linearen Gleichungen berechnet wird, also ~y = B~x ist,und man dann aus ~y nochmals eine neue Große ~z uber ~z = A~y ermittelt. Dann erhalt man

~z = A~y = A(B~x) = AB~x = C~x

und damit C := AB als jene Matrix, die ~x direkt in ~z uberfuhrt. Nun lassen sich, wie bereitserwahnt, viele wichtige Operationen (z.B. Drehungen, Streckungen) durch Matrizen darstellen.Durch Verknupfung von Matrizen kann man sich hier viel Arbeit oder Rechenzeit ersparen.Auf eine eher formale Schwierigkeit soll an dieser Stelle auch hingewiesen werden: Vektoren miteinspaltigen oder einzeiligen Matrizen zu identifizieren funktioniert meist problemlos, allerdingsmuss man an manchen Stellen wissen, ob man den Vektor nun also Zeilen- oder als Spaltenvektorzu betrachten hat. So ist etwa nach den Regeln der Matrixmultiplikation

(1 2) ·(

23

)= (8) = 8

(12

)· (2 3) =

(2 34 6

)

und man sollte dann wissen, ob das Produkt der beiden Vektoren in diesem Fall ein Skalar odereine Matrix sein soll. Daher empfielt es sich, Zeilenvektoren konsequent mit einem T zu versehen.Uber die Matrixmultiplikation sind naturlich auch Potenzen von quadratischen Matrizen defi-niert,

An = AA . . .A︸ ︷︷ ︸n

,

und von da aus ist es nur mehr ein kleiner Schritt bis zu allgemeinen Funktionen von Matrizen.Dazu greift man einfach auf die Potenzreihendarstellung reeller Funktione zuruck und definiertbeispielsweise die Exponentialmatrix von A als

expA =∞∑

n=0

1n !

An.

Dabei ist naturlich keineswegs {expA}ij = eaij . Matrixfunktionen sind also etwas grundlegendanderes als einfach die elementweise Anwendung reeller Funktionen. Einen alternativen und oftpraktischeren Zugang zu Funktionen von symmetrischen bzw. hermiteschen Matrizen liefert deraus dem Spektraltheorem erhaltene Zusammenhang

f(A) =∑

λ

f(λ) ~xλ ~xTλ

Dabei sind λ die Eigenwerte der Matrix A und ~xλ die zugehorigen normierten Eigenvektoren.Mehr dazu folgt in Abschnitt 6.2.4.

12

Page 13: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

8 Die Determinante

Jeder quadratischen Matrix kann eindeutig eine Zahl, die Determinante zugeordnet werden, diedefiniert ist als:

detA =

∣∣∣∣∣∣∣∣

a11 . . . a1n

.... . .

...an1 . . . ann

∣∣∣∣∣∣∣∣=

P [αβ...ω]

εαβ...ωa1αa2β . . . anω =∑

P [αβ...ω]

(−1)np a1αa2β . . . anω

P [αβ . . . ω] steht dabei fur alle moglichen Indexpermutationen; np ist die Zahl der Indexvertau-schungen, die notwendig sind, um von 1, 2, . . . , n auf die Permutation α, β, . . . , ω zu kommen.Die geraden Striche sind eine allgemein ubliche Schreibweise fur Determinanten, sie haben nichtsmit einem Betrag zu tun.Diese eher erschreckende Definition hat fur das praktische Berechnen einer Determinante kaumBedeutung; hier greift man meist auf die Laplace-Entwicklung zuruck, bei der Determinantenhoherer Ordnung rekursiv auf solche niedrigerer Ordnunf zuruckgefuhrt werden, bis man beiDeterminanten von [2× 2]-Matrizen angelangt ist:∣∣∣∣∣

a b

c d

∣∣∣∣∣ = ad− bc,

Fur diese Entwicklung wahlen wir in der [n × n]-Matrix eine beliebige Zeile oder Spalte. (Auspraktischen Grunden sollte es diejenige sein, die die meisten Nullen enthalt).Fur jedes Element aij dieser Zeile oder Spalte ermitteln wir nun den Minor Mij , das ist die[(n − 1) × (n − 1)]-Determinante, die beim Streichen der i-ten Zeile und j-ten Spalte entsteht.Versieht man den Minor noch mit einem (schachbrettartig wechselnden) Vorzeichen (−1)i+j , soerhalt man den Kofaktor

Cij = (−1)i+jMij .

Nun wird jedes Element aij mit dem entsprechenden Kofaktor Cij multpliziert, die Summe dieserWerte ist gleich der Determinante der Matrix.

det(A) =n∑

j=1

aijCij =n∑

i=1

aijCij

Damit wurde also eine [n×n]-Determinante auf n [(n−1)×(n−1)]-Determinanten zuruckgefuhrt.Dieses Spiel kann man nun so lange fortsetzen, bis man bei [2× 2]-Determinanten angelangt ist.

Beispiel: Wir berechnen eine [3× 3]-Determinante durch Entwicklung nach der ersten Spalte:∣∣∣∣∣∣∣

2 1 −23 0 −1−1 2 3

∣∣∣∣∣∣∣= 2 ·

∣∣∣∣∣0 −12 3

∣∣∣∣∣− 3 ·∣∣∣∣∣

1 −22 3

∣∣∣∣∣− 1 ·∣∣∣∣∣

1 −20 −1

∣∣∣∣∣ = 2 · 2− 3 · 7− 1 · (−1) = −16

13

Page 14: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Nun wissen wir immerhin schon, wie man Determinanten bestimmt, allerdings bleibt noch zuklaren, wozu sie uberhaupt gut sind, dass man den nicht unerheblichen Aufwand auf sich nimmt,sie zu berechnen. Zunachst einmal einige allgemeine Eigenschaften:

• Eine Determinante wird Null, wenn eine Zeile/Spalte verschwindet oder wenn zwei Zei-len/Spalten gleich oder einander proportional sind.

• Werden alle Elemente einer Zeile/Spalte mit einer Zahl λ multipliziert, so geht auch dieDeterminante in ihr λ-faches uber.

• Werden zwei Zeilen/Spalten miteinander vertauscht, so andert die Determinante ihr Vor-zeichen. Weiters ist (fur quadratische Matrizen) det(AB . . .X) = detAdetB . . .detX.

• Der Wert der Determinante andert sich nicht, wenn die zugehorige Matrix transponiertwird (also alle Zeilen mit den Spalten vertauscht werden) oder wenn zu einer Zeile/Spalteein beliebiges Vielfaches einer anderen Zeile/Spalte addiert wird.

Mit diesen Eigenschaften kann man sich das Berechnen von Determinanten manchmal wesentlicherleichten. Vor allem aber macht die Determinante unmittelbare Aussagen uber das Losungs-verhalten eines linearen Gleichungssystems – und genau dazu kommen wir jetzt.

8.1 Die inverse Matrix

Eine Gleichung ax = b kann man problemlos nach x auflosen, man muss nur beide Seiten mita−1 = 1

a multiplizieren und erhalt damit x = a−1b. Schon ware es nun, wenn Analoges auch furlineare Gleichungssysteme A~x = ~b moglich ware, wenn es also eine zu A inverse Matrix A−1

(mit A−1A = AA−1 = 1) gabe, mittels derer man sofort ~x = A−1~b als Losung hinschreibenkonnte. Es zeigt sich nun, dass die Inverse zu einer Matrix A dann und nur dann existiert, wennA nicht singular ist, d.h. wenn detA 6= 0 ist. Die inverse Matrix ist dann gegeben durch:

{A−1

}ij

=Cji

detACji ist dabei der entsprechende Kofaktor. (Achtung: Hier steht Cji, nicht Cij !) Allgemein gilt,dass ein lineares Gleichungssystem A~x = ~b dann und nur dann eine eindeutige Losung besitzt,wenn detA 6= 0 ist. Ansonsten gibt es entweder gar keine Losung oder gleich eine Menge vonunendlich vielen Punklosungen.

Beispiel: Wir berechnen nun die Losung des linearen Gleichungssystems

x + 2y + 2z = 2x− y + z = 0

2x− y − z = 4⇔

1 2 21 −1 12 −1 −1

xyz

=

204

Dazu berechnen wir zunachst die Kofaktormatrix und daraus mit detA = 10 die inverse Matrix:

C =

2 3 10 −5 54 1 −3

A−1 =

0, 2 0 0, 40, 3 −0, 5 0, 10, 1 0, 5 −0, 3

xyz

= A−1 ·

204

=

21−1

Meist wird man lineare Gleichungssysteme nicht mittels inverser Matrix losen. Bestehen bleibtaber die Bedingung detA = 0 fur die eindeutige Losbarkeit eines Gleichungssystems, sie trittauch in einem anderen wichtigen Verfahren, der Cramerschen Regel, explizit auf.

14

Page 15: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

9 Mehr zu Matrizen

Naturlich gibt es zu Matrizen noch mehr zu sagen, viel mehr als in auf ein paar Seiten Platz findenkann. Zumindest zum Themenbereich der linearen Gleichungssysteme sollten wir aber doch nocheinige Anmerkungen machen und auch zwei gangige Verfahren zu ihrer Losung vorstellen:

9.1 Der Rang einer Matrix

Lineare Abhangigkeit ist uns bereits bei Vektoren begegnet. Naturlich konnen auch die Zeilenoder Spalten einer Matrix linear abhangig sein – bei einer quadratischen Matrix verschwindetin diesem Fall die Determinante, im nicht quadratischen Fall ist sie ohnehin gar nicht definiert.Nun kann es aber interessant sein zu wissen, wie linear abhangig die Zeilen/Spalten der Matrixsind. Als Rang rgA einer Matrix A bezeichnet man die Dimension (Zahl der Zeilen/Spalten)der großten nichtverschwindenden Unterdeterminante von A.

Beispiel: Wir bestimmen den Rang der folgenden Matrizen:

A =

2 1 −23 0 −1−1 2 3

B =

2 2 21 2 12 4 2

C =

1 2 1 3 12 4 2 6 23 6 3 9 3

Wegen detA = −16 6= 0 ist rg A = 3. Hingegen ist detB = 0, aber beispielsweise∣∣2 21 2

∣∣ = 2 6=0, also ist rg B = 2. In der letzten Matrix verschwinden alle [3 × 3]- und sogar alle [2 × 2]-Unterdeterminanten, es ist also rgC = 1.

9.2 Die Cramersche Regel

Fur die Cramersche Regel gehen wir von einem Gleichungssystem A~x = ~b aus. Nun betrachtenwie die Determinante D = detA sowie die Determinanten Di jener Matrizen, die entstehen,wenn man die i-te Spalte der Matrix A durch den Vektor ~b der rechten Seite ersetzt. Dann gilt

x1 =D1

D, . . . , xi =

Di

D, . . . , xn =

Dn

D,

sofern eben D 6= 0 ist. Ansonsten ist die Losung des Gleichungssystems entweder eine unendlichePunktmenge (D1 = . . . = Dn = 0) oder die Gleichungen sind widerspruchlich (zumindest einDi 6= 0).

Beispiel: Wir losen mittels Cramerscher Regel das Gleichungssystem

x +y = 52x −y = 1

⇔(

1 12 −1

)(xy

)=

(51

)

D =

∣∣∣∣∣1 12 −1

∣∣∣∣∣ = −3 D1 =

∣∣∣∣∣5 11 −1

∣∣∣∣∣ = −6 D2 =

∣∣∣∣∣1 52 1

∣∣∣∣∣ = −9

Wir erhalten also x = x1 = D1D = 2 und y = x2 = D2

D = 3.

15

Page 16: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

9.3 Der Gauß-Algorithmus

Das am haufigsten angewandte Verfahren zur Losung linearer Gleichungssysteme ist wohl derder Gauß-Algorithmus, den wir hier in seiner einfachsten Variante kennenlernen wollen. Dazubetrachten wir ein lineares Gleichungssystem mit gleich vielen Gleichungen wie Variablen, dasnoch dazu eindeutig losbar sein soll. (Auch andere Falle sind dem Algorithmus zuganglich, aberkomplizierter zu behandeln.)Der Gauß-Algorithmus benutzt, dass sich die Losung eines Gleichungssystem nicht andert, wenneine Zeile mit einer Konstanten multipliziert oder ein beliebiges Vielfaches einer Zeile zu eineranderen Zeile addiert wird. Wir betrachten den Algorithmus an folgendem Beispiel (rechts stehtdie erweiterte Matrix des Gleichungssystems):

2x +y +z = 2x −y +2z = 4

2x +2y −z = −1

2 1 1 21 −1 2 42 2 −1 −1

2 1 1 21 −1 2 42 2 −1 −1

∣∣∣∣∣∣

·12 Die erste Zeile wird durch ihr erstes Element dividiert.(Sollte dieses Null sein, dann wird diese Zeile mit einergeeigneten anderen vertauscht.)

1 12

12 1

1 −1 2 42 2 −1 −1

∣∣∣∣∣∣−[Z1]−2[Z1]

Nun wird jeweils ein geeignetes Vielfaches der erstenZeile von allen anderen Zeilen abgezogen, um dortuberall fuhrende Nullen zu erreichen.

1 12

12 1

0 −32

32 3

0 1 −2 −3

∣∣∣∣∣∣·(−3

2)

Diese Schritte werden bei der Untermatrix, die beim(gedanklichen) Streichen der ersten Zeile und Spalteentsteht, wiederholt, gegebenenfalls auch mehrmal, bisin der Hauptdiagonalen Einsen und unterhalb nur Nul-len stehen.

1 12

12 1

0 1 −1 −20 1 −2 −3

∣∣∣∣∣∣ −[Z2]

1 12

12 1

0 1 −1 −20 0 −1 −1

∣∣∣∣∣∣ ·(−1)

1 12

12 1

0 1 −1 −20 0 1 1

An dieser Stelle kann man den Algorithmus beenden und die Variablen durch Rucksubstitutionermitteln. (In diesem Beispiel z = 1; y− z = −2 → y = −1; . . . ) Man kann aber auch geeigneteVielfache der unteren Zeilen zu den oberen addieren, um die Matrix in Diagonalgestalt zu bringen(Gauß-Jordan-Verfahren):

1 12

12 1

0 1 −1 −20 0 1 1

∣∣∣∣∣∣

−12 [Z3]

+[Z3]

1 12 0 1

20 1 0 −10 0 1 1

∣∣∣∣∣∣

−12 [Z2]

1 0 0 10 1 0 −10 0 1 1

Hier kann man nun x = 1, y = −1 und z = 1 unmittelbar ablesen.

Bei der praktischen Implementierung des Algorithmus (am Computer ohne weiteres fur Matri-zen mit vielen tausend Zeilen und Spalten) sind naturlich einige Feinheiten zu beachten, umnumerische Fehler moglichst gering zu halten. Darauf konnen wir hier nicht naher eingehen,statt dessen weisen wir noch auf eine weitere Anwendung des Gauß-Algorithmus hin:Wandelt man eine Matrix A mit dem oben beschriebenen Verfahren in die Einheitsmatrix 1um, so erhalt man die inverse Matrix A−1, indem man genau die selben Schritte auf die Ein-heitsmatrix anwendet.

16

Page 17: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

10 Das Eigenwertproblem

Multipliziert man eine [n × n]-Matrix A mit einem n-komponentigen Vektor ~x, so erhalt manwiederum einen Vektor ~y = A~x. Im allgemeinen wird dieser Vektor gegenuber dem ursprungli-chen ~x sowohl gestreckt/gestaucht als auch gedreht worden sein. Charakteristisch fur eine Matrixsind aber gerade jene Vektoren, bei denen diese Drehung ausbleibt, die also in parallele Vektorenubergefuhrt werden:

A~x = λ~x

Dabei ist λ eine reelle Zahl. Es zeigt sich, dass es fur jede Matrix nur wenige (fur eine [n × n]-Matrix hochstens n verschiedene) Werte von λ gibt, fur die sich die Gleichung erfullen laßt. DieseZahlen heißen die Eigenwerte der Matrix, die zugehorigen Vektoren ~x (deren Lange unbestimmtist) sind ihre Eigenvektoren.Wie bestimmt man nun die Eigenwerte und daraus die Eigenvektoren einer Matrix? Dazu schrei-ben wir die obige Gleichung noch ein wenig um:

A~x = λ~x A~x = λ1~x (A− λ1)~x = ~0.

Eine Losung der rechten Gleichung konnen wir sofort angeben, von ~x = ~0 wird sie namlich sichererfullt. An dieser trivialen Losung sind wir zwar nicht interessiert, sie existiert aber und im Falledet(A − λ1) 6= 0 ist die Losung des linearen Gleichungssystems eindeutig bestimmt. Um alsoandere Losungen als den Nullvektor zu erhalten, mussen wir demnach gerade die Bedingungdet(A− λ1) = 0 erfullen:

∣∣∣∣∣∣∣∣∣

a11 − λ a12 . . . a1n

a21 a22 − λ . . . a2n...

.... . .

...an1 an2 . . . ann − λ

∣∣∣∣∣∣∣∣∣= 0

Das ist eine Polynomgleichung n-ten Grades mit im allgemeinen n Losungen. (Einige davonkonnen naturlich zusammenfallen, man spricht dann von entarteten Eigenwerten.) Hat man nundie Eigenwerte λi gefunden, so kann man die Eigenvektoren ~xi aus dem linearen Gleichungssy-stem A~xi = λi~xi bestimmen. Da die Lange der Eigenvektoren unbestimmt ist, bleibt zumindestein freier Parameter ubrig. (Im Falle entarteter Eigenvektoren sind es sogar mehrere.) Ublicher-weise werden die Eigenvektoren auf die Lange 1 normiert.

Beispiel: Wir berechnen die Eigenwerte und Vektoren der Matrix A =

(4 33 −4

):

∣∣∣∣∣4− λ 3

3 −4− λ

∣∣∣∣∣ = (4− λ)(−4− λ)− 9 = λ2 − 25 != 0

also λ2 = 25, λ1 = 5 und λ2 = −5. Nun konnen wir die Eigenvektoren finden:(

4 33 −4

)·(

ab

)= 5

(ab

)4a + 3b = 5a3a− 4b = 5a

a = 3b ~x′1 =(

3tt

)~x1 =

1√10

(31

)

Analog erhalt man zu λ2 = −5 den normierten Eigenvektor ~xT2 = 1√

10(1,−3).

Beispiel: Die [n× n]-Einheitsmatrix hat den n-fach entarteten Eigenwert λ = 1. Jeder Vektorist Eigenvektor zu diesem Eigenwert.

17

Page 18: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Fur symmetrische (bzw. allgemeiner hermitesche) Matrizen A gilt, dass die Eigenwerte allereell und die Eigenvektoren zu verschiedenen Eigenwerte orthogonal zueinander sind. Wahltman diese Eigenvektoren als Achsen eines neuen Koordinatensystems, so hat die Matrix darinDiagonalform:

A =

λ1 . . . 0...

. . . . . .

0 . . . λn

Gelingt es einem also, eine Matrix durch Drehungen in Diagonalform zu bringen, so hat mangleichzeitig auch das Eigenwertproblem gelost. Eine entsprechende Transformationsmatrix Uerhalt man direkt, indem man als Spalten die Eigenvektoren von A wahlt (Hauptachsentrans-formation):

U = (~x1 ~x2 . . . ~xn) ⇒{U†AU

}ij

= λiδij

Beispiel: Fur die Matrix A =

(4 33 −4

)haben wir die normierten Eigenvektoren ~xT

1 =

1√10

(3, 1) und ~xT2 = 1√

10(1,−3) erhalten. Damit ergibt sich

U =1√10

(3 11 −3

)U†AU =

110

(3 11 −3

)(4 33 −4

)(3 11 −3

)=

(5 00 −5

)

Den engen Zusammenhang zwischen einer symmetrischen/hermiteschen Matrix und ihren Eigenwertenbzw. -vektoren druckt auch das Spektraltheorem aus (rechts die allgemeine Version fur Matrixfunktionen):

A =∑

λ

λ~xλ ~xTλ f(A) =

λ

f(λ) ~xλ ~xTλ

Beispiel: Die Matrix A =

(4 33 −4

)hat die Eigenvektoren ~xT

1 = 1√10

(3, 1) zum Eigenwert λ1 = 5

und ~xT2 = 1√

10(1,−3) zu λ2 = −5. Das Spektraltheorem liefert die Darstellung:

A =510

(31

)· (3 1)− 5

10

(1−3

)· (1 − 3) =

12

(9 33 1

)− 1

2

(1 −3−3 9

)=

(4 33 −4

)

Ein wichtiges Begriffspaar noch: Ist die quadratische Form ~xTA~x =∑n

i,j=1 aijxixj bis auf ~x = ~0uberall positiv, so heißt die Matrix A positiv definit, ist sie bis auf ~x = ~0 uberall negativ, heißtA negativ definit Laßt man auch fur ~x 6= ~0 Gleichheit der quadratischen Form mit Null zu, soist die Matrix nur mehr positiv/negativ semidefinit. Eine Matrix die weder positiv noch negativ(semi)definit ist, fur die ~xTA~x also sowohl positive als auch negative Werte annimmt, heißtindefinit.Eine Matrix ist genau dann positiv definit, wenn alle Eigenwerte bzw. alleUnterdeterminanten ∆i (siehe rechts) positiv sind. Sie ist negativ definit, wennalle Eigenwerte negativ sind bzw. wenn ∆1 negativ ist und ∆i∆i+1 < 0 ist, dieUnterdeterminanten also jedesmal das Vorzeichen wechseln. Die Untersuchungder Definitheit von Matrizen wird bei der Klassifikation von Extremwerten furFunktionen Rn → R wichtig werden.

18

Page 19: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

11 Ubungsaufgaben – Matrizenrechnung

Man bilde alle moglichen Produkte von je zwei Matrizen aus

A =

2 1 −11 3 12 1 3

B =

2 11 3−2 1

C =

(1 3 12 −1 −2

)

Wir erhalten

A2 =

3 4 −47 11 511 8 8

AB =

7 43 11−1 8

BC =

4 5 07 0 −50 −7 −4

CA =

(7 11 5−1 −3 −9

)CB =

(3 117 −3

)

Die Produkte AC, BA, B2 und C2 sind nicht definiert.

Man berechne die Determinanten der folgenden Matrizen:

K =

5 2 7 13 1 0 21 1 5 02 1 1 1

M =

1 0 0 20 1 2 12 0 1 00 2 1 1

N =

2 0 2 01 3 −1 0−2 1 0 10 2 1 −1

Hier benutzen wir die Rechenregeln fur Determinanten, um moglichst viele Nullen zu erzeugen.Dabei bedeutet beispielsweise [S1] − [S2], dass von der ersten Spalte die zweite subtrahiert wird(was die Determinante ja unverandert laßt).

∣∣∣∣∣∣∣∣

5 2 7 13 1 0 21 1 5 02 1 1 1

∣∣∣∣∣∣∣∣

[S1]−[S2]=

∣∣∣∣∣∣∣∣

3 2 7 12 1 0 20 1 5 01 1 1 1

∣∣∣∣∣∣∣∣

[S1]−[S4]=

∣∣∣∣∣∣∣∣

2 2 7 10 1 0 20 1 5 00 1 1 1

∣∣∣∣∣∣∣∣= 2

∣∣∣∣∣∣

1 0 21 5 01 1 1

∣∣∣∣∣∣=

= 2(5 + 2(1− 5)) = −6. Analog erhalten wir det(M) = −13 und det(N) = −30.

Man lose das folgende lineare Gleichungssysteme mit einer geeigneten Methode und begrunde,warum die Losung eindeutig ist:

2x + y − z = 3 x + 3y + z = 8 2x + y + 3z = 7

Als Losung ergibt sich x = 1, y = 2, z = 1, die Losung ist eindeutig, weil die Koeffizientendeter-minante ungleich Null ist.

Man bestimme die Eigenwerte und -vektoren der Matrix: W =

(3 −1−8 1

).

Zur Bestimmung der Eigenwerte erhalten wir:∣∣∣∣∣

3− λ −1−8 1− λ

∣∣∣∣∣ = (3− λ)(1− λ)− 8 = λ2 − 4λ− 5 != 0 λ = 2± 3

Der Eigenwert λ1 = −1 liefert ~xT1 = 1√

17(1, 4),

zu λ2 = 5 gehort der normierte Eigenvektor ~xT1 = 1√

5(1,−2),

19

Page 20: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

12 Ubungsaufgaben – Differentialrechnung Rn → R

Man untersuche die Funktion

f(x, y) =

{x2ey+y2 cos x

x2+y2 fur (x, y) 6= (0, 0)1 fur (x, y) = (0, 0)

auf Stetigkeit und ermittle die partiellen Ableitungen im Ursprung.Außer in (0, 0) ist f mit Sicherheit stetig. Nun fuhren wir Polarkoordinaten ein und erhalten:

G = lim(x,y)→(0,0)

x2ey + y2 cosx

x2 + y2= lim

r→0

r2 cos2 ϕer sin ϕ + r2 sin2 ϕ cos(r cos ϕ)r2

=

= limr→0

cos2 ϕer sin ϕ︸ ︷︷ ︸

→1

+sin2 ϕ cos(r cosϕ)︸ ︷︷ ︸→1

= cos2 ϕ + sin2 ϕ = 1 = f(0, 0)

Die Funktion ist also uberall stetig. Fur die partiellen Ableitungen im Ursprung erhalt man

fx(0, 0) = limh→0

1h

(h2e0 + 0h2 + 0

− 1)

= limh→0

1− 1h

= 0

fy(0, 0) = limh→0

1h

(0 + h2 cos 0

0 + h2− 1

)= lim

h→0

1− 1h

= 0

Man untersuche die Funktion

f(x, y) =

{x6+y5

x4+y4 fur (x, y) 6= (0, 0)0 fur (x, y) = (0, 0)

auf Stetigkeit. Weiters berechne man die partiellen Ableitungen ∂f∂x (0, 0), ∂f

∂y (0, 0) und die Rich-

tungsableitung ∂f∂~a (0, 0) mit ~a = ( 1√

2, 1√

2). Ist die Funktion im Ursprung differenzierbar?

An allen Punkten außer (x, y) = (0, 0) ist f naturlich als Zusammensetzung stetiger und differen-zierbarer Funktion ebenfalls stetig und differenzierbar. Zu untersuchen bleibt der Punkt (0, 0), hiererhalten wir:

lim(x,y)→(0,0)

x6 + y5

x4 + y4= lim

r→0

r6 cos6 ϕ + r5 sin5 ϕ

r4 cos4 ϕ + r4 sin4 ϕ= lim

r→0r ·

{r cos6 ϕ + sin5 ϕ

cos4 ϕ + sin4 ϕ

}= 0

Der Grenzwert wird Null, da der Klammerausdruck wegen cos4 ϕ+sin4 ϕ ≥ 12 immer endlich bleibt.

(Das erhalt man aus ddϕ (cos4 ϕ + sin4 ϕ) = −4 cos3 ϕ sin ϕ + 4 sin3 ϕ cosϕ = 4 sin ϕ cosϕ(sin2 ϕ −

cos2 ϕ). Diese Ableitung wird in nur Null, wenn ϕ = kπ, ϕ = 2k+12 π oder | sin ϕ| = | cos ϕ| = 1√

2

ist, was den Funktionswerten 1, 1 und 12 entspricht. Es gilt also immer 1

2 ≤ cos4 ϕ + sin4 ϕ ≤ 1.)

∂f

∂x(0, 0) = lim

h→0

f(h, 0)− f(0, 0)h

= limh→0

1h

(h6 + 0h4 + 0

− 0)

= limh→0

h = 0

∂f

∂y(0, 0) = lim

h→0

f(0, h)− f(0, 0)h

= limh→0

1h

(0 + h5

0 + h4− 0

)= lim

h→0

h

h= 1

∂f

∂~a(0, 0) = lim

h→0

f( h√2, h√

2)− f(0, 0)

h= lim

h→0

1h

18h6 +

√2

8 h5

14h4 + 1

4h4= lim

h→0

18h +

√2

812

=√

24

Da hier nicht ∂f∂~a (0, 0) = (grad f)(0, 0) · ~a gilt, kann f in (0, 0) nicht differenzierbar sein.

20

Page 21: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Man berechne alle partiellen Ableitungen erster und zweiter Ordnung der Funktionen

f(x, y) = x2ey + exy g(x, y) = sin2(xy) h(x, y) = ecos x+y3

Man erhalt (aufgrund der zweimaligen stetigen Differenzierbarkeit ist fxy = fyx und analog gxy =gyx, hxy = hyx):

fx = 2xey + yexy fxx = 2ey + y2exy fxy = 2xey + exy + xyexy

fy = x2ey + xexy fyy = x2ey + x2exy fyx = 2xey + exy + xyexy

gx = 2y sin(xy) cos(xy) gxx = 2y2(cos2(xy)− sin2(xy))gxy = 2xy(cos2(xy)− sin2(xy)) + 2 sin(xy) cos(xy)

gy = 2x sin(xy) cos(xy) gyy = 2x2(cos2(xy)− sin2(xy))gyx = 2xy(cos2(xy)− sin2(xy)) + 2 sin(xy) cos(xy)

hx = − sin x ecos x+y2hxx = (sin2 x− cosx)ecos x+y2

hxy = −2y sin x ecos x+y2

hy = 2y ecos x+y2hyy = (4y2 + 2)ecos x+y2

hyx = −2y sin x ecos x+y2

Man untersuche die Funktion

f(x, y) =

{xy3

cos(x2+y2)−1fur (x, y) 6= (0, 0)

0 fur (x, y) = (0, 0)

auf Stetigkeit im Punkt (0, 0).Mit Polarkoordinaten erhalt man

G = lim(x,y)→(0,0)

xy3

cos(x2 + y2)− 1= lim

r→0

r4 cosϕ sin3 ϕ

cos(r2)− 1= lim

r→0

r4 cos ϕ sin3 ϕ

1− r4

2 +O(r8)− 1=

= limr→0

−2r4 cos ϕ sin3 ϕ

r4 +O(r8)= lim

r→0

−2 cos ϕ sin3 ϕ

1 +O(r4)= −2 cos ϕ sin3 ϕ

und dieser Ausdruck hangt vom Winkel ϕ ab (siehe z.B. fur ϕ = 0 und ϕ = π4 . Der Grenzwert

existiert also nicht, die Funktion ist im Ursprung unstetig.

Man berechne fur die Funktion

f(x, y) =

{1 + x3+xy−y2

x2+yfur (x, y) 6= (0, 0)

1 fur (x, y) = (0, 0)

die partiellen Ableitungen fx und fy an der Stelle (0, 0).

Wir erhalten

∂f

∂x(0, 0) = lim

h→0

f(h, 0)− f(0, 0)h

= limh→0

1h

(1 +

h3 + h · 0− 02

h2 + 0− 1

)= lim

h→0

h3

h3= 1

∂f

∂y(0, 0) = lim

h→0

f(0, h)− f(0, 0)h

= limh→0

1h

(1 +

03 + 0 · h− h2

02 + h− 1

)= lim

h→0

−h2

h2= −1

21

Page 22: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Man untersuche die Funktion

f(x, y) ={

e−(x2+y2) fur x > 01 fur x ≤ 0

in den Punkten (0, 0) und (0, 1) auf Stetigkeit.

In (0, 0) ist f stetig, da fur r → 0 immer e−r2 → 1 geht. In (0, 0) ist f hingegenunstetig, wie man z.B. bei Annaherung parallel zur x-Achse sieht:

(−1, 0)− lim(x,y)→(0,1)

f(x, y) = limx→0+

e−(x2+1) = e−1 =1e6= 1 = f(0, 1)

Man entwickle die Funktion f(x, y) = y · lnx+x ey+2 um P = (1e , −1) in ein Taylorpolynom bis

zu Termen zweiter Ordnung.Fur die partiellen Ableitungen bis zur zweiten Ordnung erhalt man allgemein bzw. speziell anP = ( 1

e , −1):

f = y · ln x + x ey+2 f∣∣P

= 2 ∂f∂x = y · 1

x + ey+2 ∂f∂x

∣∣P

= 0

∂f∂y = ln x + x ey+2 ∂f

∂y

∣∣P

= 0 ∂2f∂x2 = − y

x2∂2f∂x2

∣∣P

= e2

∂2f∂y2 = x ey+2 ∂2f

∂y2

∣∣P

= 1 ∂2f∂x ∂y = 1

x + ey+2 ∂2f∂x ∂y

∣∣P

= 2e

Fur das Taylorpolynom ergibt sich also

T2(x, y) = 2 + e2

2 (x− 1e )2 + 1

2 (y + 1)2 + 2e(x− 1e )(y + 1)

Man entwickle f(x, y) = xy an der Stelle P = (1, 1) in ein Taylorpolynom bis zu Termen zweiterOrdnung und berechen damit naherungsweise 10

√(1, 05)9.

Wir erhalten fur die Ableitungen:

f = xy = ey·ln x f∣∣P

= 1 ∂f∂x = y xy−1 ∂f

∂x

∣∣P

= 1

∂f∂y = ln x · xy ∂f

∂y

∣∣P

= 0 ∂2f∂x2 = y(y − 1)xy−2 ∂2f

∂x2

∣∣P

= 0

∂2f∂y2 = (ln x)2 xy ∂2f

∂y2

∣∣P

= 0 ∂2f∂x ∂y = xy−1 + y · ln x · xy−1 ∂2f

∂x ∂y

∣∣P

= 1

und damit das Taylorpolynom

T2(x, y) = 1 + (x− 1) + (x− 1)(y − 1).

Nun benutzen wir diese Naherung

10√

(1, 05)9 = 1, 050,9 ≈ 1 + 0, 05 + 0, 05 · (−0, 1) = 1, 045

Das exakte Ergebnis ware 1, 050,9 = 1, 04488 . . .

22

Page 23: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

13 Ubungsaufgaben – Abbildungen Rn → Rm

Man berechne die Jacobi-Matrizen ∂(f1,f2,f3)∂(x,y,z) und ∂(g1,g2,g3)

∂(x1,x2,x3,x4) der Abbildungen

f1(x, y, z) = exy + cos2 z g1(x1, x2, x3, x4) =√

x21 + x2

2 + 1− x4

f2(x, y, z) = xyz − e−z g2(x1, x2, x3, x4) = cos(x1x23) + ex4

f3(x, y, z) = sinh(xz) + y2 g3(x1, x2, x3, x4) = x2x3 + ln(1 + x24)

∂(f1, f2, f3)∂(x, y, z)

=

yexy xexy −2 cos z sin z

yz xz xy + e−z

z cosh(xz) 2y x cosh(xz)

∂(g1, g2, g3)∂(x1, x2, x3, x4)

=

x1√x21+x2

2+1

x2√x21+x2

2+10 −1

−x23 sin(x1x

23) 0 −2x1x3 sin(x1x

23) ex4

0 x3 x22x4

1+x24

Man untersuche, ob sich die Funktion

f(x, y, z) = ex − y2z + x ln(1 + z)− 1 = 0

am Punkt P (0, 1, 0) lokal eindeutig nach z auflosen laßt.

f ∈ C1 ist erfullt, und es gilt f(0, 1, 0) = 0. Nun erhalt man

∂f

∂z

∣∣∣P

=[−y2 +

x

1 + z

]

P

= −1 6= 0,

die Auflosung ist also moglich.

Gegeben ist das Funktionensystem

f1(x, y, z) = x2 − 2y − ez−1 = 0f2(x, y, z) = xy − z + 1 = 0

Man zeige, dass es in einer Umgebung von P (1, 0, 1) zwei Funktionen ϕ1(z), ϕ2(z) gibt, so dassfi(ϕ1(z), ϕ2(z), z) ≡ 0 ist. Weiters bestimme man ϕ′1(1) und ϕ′2(1).

Es gilt fi ∈ C1 und f1(1, 0, 1) = f2(1, 0, 1) = 0. Nun ist

∣∣∣∣∂(f1, f2)∂(x, y)

∣∣∣∣P

=

∣∣∣∣∣2x −2y x

∣∣∣∣∣P

= 2 6= 0,

eine eindeutige Auflosung x = ϕ1(z) und y = ϕ2(z) also moglich. Fur die Ableitungen erhalt man

F1(z) := ϕ1(z)2 − 2ϕ2(z)− ez−1 ≡ 0 dF1dz := 2ϕ1(z)ϕ′1(z)− 2ϕ′2(z)− ez−1 ≡ 0

F2(z) := ϕ1(z)ϕ2(z)− z + 1 ≡ 0 dF2dz := ϕ′1(z)ϕ2(z) + ϕ1(z)ϕ′2(z)− 1 ≡ 0

Daraus ergibt sich nun mit ϕ1(1) = 1 und ϕ2(1) = 0

2ϕ′1(1)− 2ϕ′2(1)− 1 = 0 ϕ′2(1)− 1 = 0

und daraus ϕ′2(1) = 1 und ϕ′1(1) = 32 .

23

Page 24: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Man uberprufe, ob sich das Funktionensystem

f1(x, y, z) = x2 + y2 − z − 22 = 0 f2(x, y, z) = x + y2 + z3 = 0

in einer Umgebung von P (4, 2,−2) eindeutig nach x und y auflosen laßt. Ferner bestimme manzwei Funktionen ϕ1(z) und ϕ2(z), so dass in U(P ) gilt: fj(ϕ1(z), ϕ2(z), z) ≡ 0, j = 1, 2.

Es ist fi ∈ C1, f1(4, 2,−2) = f2(4, 2,−2) = 0, und fur die Jacobi-Determinante erhalt man

∣∣∣∣∂(f1, f2)∂(x, y)

∣∣∣∣ =

∣∣∣∣∣∂f1∂x

∂f1∂y

∂f2∂x

∂f2∂y

∣∣∣∣∣P

=

∣∣∣∣∣2x 2y

1 2y

∣∣∣∣∣P

=

∣∣∣∣∣8 44 1

∣∣∣∣∣ = 28 6= 0

Das Funktionensystem ist also in P tatsachlich lokal auflosbar. Aus f1(x, y, z) = 0 erhalt manx2 = 22 + z − y2, aus f2(x, y, z) = 0 weiter y2 = −z3 − x, und setzt man das ein, ergibt sichx2 − x− z3 − z − 22 = 0. Als Losung der quadratischen Gleichung erhalt man

x = ϕ1(z) = −12

+

√14

+ z3 + z + 22

(nur der positive Zweig der Wurzel kommt in Betracht, da fur z = −2 ja x = 4 > 0 sein soll) unddamit weiter

y = ϕ2(z) =

√−z3 − 1

2−

√14

+ z3 + z + 22.

Man begrunde, warum sich das Gleichungssystem

f1(x, y, z) = 2 cos(xyz) + yz − 2x = 0 f2(x, y, z) = (xyz)2 + z − 1 = 0

in einer Umgebung des Punktes P = (x0, y0, z0) = (1, 0, 1) lokal nach y und z auflosen laßt undberechne y′(x), z′(1), y′′(1) sowie z′′(1).

Es sind f1, f2 ∈ C1(R3), außerdem ist f1(1, 0, 1) = f2(1, 0, 1) = 0. Fur Jacobi-Determinante erhaltman∣∣∣∣∂(f1, f2)∂(y, z)

∣∣∣∣P

=

∣∣∣∣∣f1,y f1,z

f2,y f2,z

∣∣∣∣∣ =

∣∣∣∣∣−2 sin(xyz)xz + z −2 sin(xyz)xy + y

2(xyz) · xz 2(xyz) · xy + 1

∣∣∣∣∣P

=

∣∣∣∣∣1 00 1

∣∣∣∣∣ = 1 6= 0

Daher gibt es zwei Funktionen y(x) und z(x), fur die gilt: y(1) = 0, z(1) = 1 sowief1(x, y(x), z(x)) ≡ 0 und f2(x, y(x), z(x)) ≡ 0 in einer Umgebung von P . Mit diesem Ergebniswerden nun zwei Funktionen F1(x) und F2(x) definiert und nach x abgeleitet, dabei sind nunnaturlich auch y = y(x) und z = z(x) Funktionen von x, was bei entsprechenden Ausdrucken mitKetten- bzw. Produktregel berucksichtigt werden muss:

F1(x) := f1(x, y(x), z(x)) = 2 cos(x y(x) z(x)) + y(x) z(x)− 2x ≡ 0F ′1(x) = −2 sin(x y(x) z(x)) · {y(x) z(x) + x · [y′(x) z(x) + y(x) z′(x)]}+ [y′(x) z(x) + y(x) z′(x)]− 2 ≡ 0F ′′1 (x) = − cos(. . .) · {. . .}2 − 2 sin(. . .) · {. . .}′ + y′′(x) z(x) + 2y′(x) z′(x) + y(x) z′′(x) ≡ 0F2(x) := f2(x, y(x), z(x)) = (x y(x) z(x))2 + z(x)− 1 ≡ 0F ′2(x) = 2(x y(x) z(x)) · {. . .}+ z′(x) ≡ 0

F ′′2 (x) = 2 · {. . .}2 + 2(x y(x) z(x)){ . . .}′ + z′′(x) ≡ 0

Nun setzen wir x = 1 ein und beachten y(1) = 0 und z(1) = 1: Aus F ′1(1) = y′(1) − 2 = 0 erhaltman y′(1) = 2, weiters ist F ′2(1) = z′(1) = 0. Analog sind wegen F ′′1 (1) = −2 · 22 + y′′(1) = 0 undF ′′2 (1) = 2 · 22 + z′′(1) = 0 die zweiten Ableitungen y′′(1) = 8 und z′′(1) = −8.

24

Page 25: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Gegeben sind die Abbildungen f : R3 → R3 und g : R3 → R3:

f1 = x1 − 2x2 + x3 f2 = x1x2 f3 = x21 − x2

3

g1 = (y1 − y2)2 + y23 g2 = (y1 + y2)2 g3 = y1y2 − y3

Man uberprufe, ob die Abbildung h = g ◦ f = g(f); R3 → R3 in einer geeigneten Umgebung vonh(X0) mit X0 = (1, 1, 1) umkehrbar ist.

Es ist Y0 = f(X0) = (0, 1, 0). Die Jacobi-Determinanten von f und g in X0 und Y0 ergeben:

∂f

∂x

∣∣∣∣(1,1,1)

=

1 −2 1x2 x1 02x1 0 −2x3

(1,1,1)

=

1 −2 11 1 02 0 −2

∂g

∂y

∣∣∣∣(0,1,0)

=

2(y1 − y2) −2(y1 − y2) 2y3

2(y1 + y2) 2(y1 + y2) 0y2 y1 −1

(0,1,0)

=

−2 2 02 2 01 0 −1

Nun gilt nach der Kettenregel:

∂h

∂x(X0) =

∂g

∂y(Y0) · ∂f

∂x(X0) =

−2 2 02 2 01 0 −1

·

1 −2 11 1 02 0 −2

=

0 6 −24 −2 2−1 −2 3

und die Determinante ergibt |∂h∂x (X0)| = −6 · (12 + 2)− 2 · (−8− 2) = −64 6= 0, die Abbildung ist

also umkehrbar. (Hier gilt auch |∂h∂x (X0)| = |∂g

∂y (Y0)| · |∂f∂x (X0)| = 8 · (−8) = −64.)

Gegeben ist die Funktionf(x, yz) := ecos2(xy3z) −√e

Man begrunde, warum sich f(x, y, z) = 0 in einer Umgebung von P = (x0, y0, z0) = (π, 1, 14) lokal

nach z auflosen laßt, und berechne dort die partiellen Ableitungen zx(x0, y0) und zy(x0, y0).

Als Zusammensetzung unendlich oft differenzierbarer Funktionen ist sicher f ∈ C1, und es gilt

f(π, 1,14) = ecos2 π

4 −√e = e

�1√2

�2

−√e = 0

Fur die Ableitung nach z erhalt man

∂f

∂z

∣∣∣∣P

= −2xy3 cos(xy3z) sin(xy3z) · ecos2(xy3z)∣∣∣P

= −2π164

cosπ

4sin

π

4ecos2 π

4 6= 0

Die Funktion ist also lokal eindeutig nach z auflosbar. Nun zu den partiellen Ableitungen:

F (x, y) := f(x, y, z(x, y)) = ecos2(xy3z(x,y)) −√e ≡ 0

Fx(x, y) = −2 cos(xy3z(x, y)) sin(xy3z(x, y))ecos2(xy3z(x,y)) · (zy3 + xy3zx(x, y)) ≡ 0

Fy(x, y) = −2 cos(xy3z(x, y)) sin(xy3z(x, y))ecos2(xy3z(x,y)) · (3xy2z + xy3zy(x, y)) ≡ 0

Einsetzen von x = π, y = 1 ergibt mit z(π, 1) = 14 :

−2e1/2 1√2· 1√

2︸ ︷︷ ︸6=0

·( 14 + πzx(π, 1)) = 0 −2e1/2 1√

2· 1√

2︸ ︷︷ ︸6=0

·( 3π4 + πzy(π, 1)) = 0

weiter also zx(π, 1) = − 14π und zy(π, 1) = − 3

4 .

25

Page 26: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Man transformiere den Ausdruck

W = x∂U

∂y− y

∂U

∂x

auf Polarkoordinaten (setze dazu wieder u(r, ϕ) := U((r cosϕ, r sinϕ)):

W = x∂U

∂y− y

∂U

∂x= r cos ϕ

(∂u

∂r

∂r

∂y+

∂u

∂ϕ

∂ϕ

∂y

)− r sin ϕ

(∂u

∂r

∂r

∂x+

∂u

∂ϕ

∂ϕ

∂x

)=

= r cos ϕ

(∂u

∂rsin ϕ +

∂u

∂ϕ

cosϕ

r

)− r sin ϕ

(∂u

∂rcosϕ− ∂u

∂ϕ

sin ϕ

r

)=

= cos2 ϕ∂u

∂ϕ+ sin2 ϕ

∂u

∂ϕ=

∂u

∂ϕ

Gegeben sind die Abbildungen f : R2 → R3 und g : R3 → R2:

f1 = x− y2 f2 = 1 + xy f3 = x + yg1 = f1 + f2 − f3 g2 = f1f2 − f2

3

Man untersuche, ob die Abbildung h = g ◦ f = g(f); R2 → R2 in einer geeigneten Umgebungvon h(X0) mit X0 = (1, 1) umkehrbar ist.

∂(f1, f2, f3)∂(x, y)

∣∣∣∣P

=

1 −2yy x1 1

(1,1)

=

1 −21 11 1

∂(g1, g2)∂(f1, f2, f3)

∣∣∣∣f(P )

=(

1 1 −1f2 f1 −2f3

)

(0,2,2)

=(

1 1 −12 0 −4

)

⇒ ∂(h1, h2)∂(x, y)

∣∣∣∣P

=(

1 1 −12 0 −4

1 −21 11 1

=

(1 −2−2 −8

)

Es ist also |∂(h1,h2)∂(x,y) | = −12 6= 0, die Abbildung ist also lokal umkehrbar.

26

Page 27: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

14 Ubungsaufgaben – Extremwertaufgaben

Man finde alle kritischen Punkte der Funktion

f(x, y) = (y2 − x2) · e−x2+y2

2

und uberprufe, ob es sich um lokale Maxima, lokale Minima oder Sattelpunkte handelt.Fur die ersten partiellen Ableitungen erhalt man

∂f

∂x= x · (x2 − y2 − 2) · e− x2+y2

2∂f

∂y= y · (2 + x2 − y2) · e− x2+y2

2

Nullsetzen liefert im ersten Fall x = 0 oder x2− y2− 2 = 0, im zweiten y = 0 oder x2− y2 +2 = 0,Ein kritischer Punkt ist damit auf jeden Fall P1(0, 0). Die Bedingungen x = 0 und 2 − y2 = 0fuhren auf P2(0,

√2), P3(0, −√2). Fur y = 0 und x2 − 2 = 0 erhalt man P4(

√2, 0), P5(−

√2, 0).

Die beiden Bedingungen x2 − y2 − 2 = 0 und x2 − y2 + 2 = 0 sind nicht gleichzeitig erfullbar, manhat also bereits alle kritischen Punkte gefunden.Uberprufen der zweiten Ableitungen liefert

(fxx · fyy − f2xy)

∣∣(0,0)

= (−2) · 2− 0 = −4 < 0 P1 Sattelpunkt(fxx · fyy − f2

xy)∣∣(0,√

2)= (− 4

e ) · (− 4e )− 0 = 16

e2 > 0 fxx = − 4e < 0 P2 lok. Maximum

(fxx · fyy − f2xy)

∣∣(0,√

2)= (− 4

e ) · (− 4e )− 0 = 16

e2 > 0 fxx = − 4e < 0 P3 lok. Maximum

(fxx · fyy − f2xy)

∣∣(√

2,0)= 4

e · 4e − 0 = 16

e2 > 0 fxx = 4e > 0 P4 lok. Minimum

(fxx · fyy − f2xy)

∣∣(−√2,0)

= 4e · 4

e − 0 = 16e2 > 0 fxx = 4

e > 0 P5 lok. Minimum

Man bestimme und klassifiziere alle Extrema der Funktion

f(x, y) = (1 + 2x− y)2 + (2− x + y)2 + (1 + x− y)2.

Die ersten partiellen Ableitungen ergeben sich zu fx = 4(1+2x−y)−2(2−x+y)+2(1+x−y) =12x− 8y + 2 und fy = −2(1 + 2x− y) + 2(2− x + y)− 2(1 + x− y) = −8x + 6y. Nullsetzen liefertein Gleichungssystem mit den Losungen x = − 3

2 und y = −2.Mit fxx = 12, fxy = −8 und fyy = 6 erhalt man ∆ = fxxfyy − f2

xy = 8 > 0, es handelt sich alsotatsachlich um ein Extremum, wegen fxx = 12 > 0 um ein relatives Minimum, naturlich muss esauch das absolute Minimum der Funktion sein.

Man bestimme und klassifiziere alle Extrema der Funktion

f(x, y, z) = −xy + z2 − 3x + 5y

unter der Nebenbedingung g(x, y, z) = x + y + z − 1 = 0.Da in der Nebenbedingung die Variablen nur in erster Potenz vorkommen, bietet es sich hieran, nicht mit Langrange-Multiplikatoren zu arbeiten, sondern einfach die Nebenbedingung in dieZielfunktion einzusetzen. Mit x = 1− y − z erhalt man die neue Zielfunktion

f(y, z) = y2 + yz + z2 + 7y + 3z − 3,

mit den partiellen Ableitungen fy = 2y + z +7 und fz = 2z + y +3. Nullsetzen und anschließendesLosen des Gleichungssystems liefert y = − 11

3 , z = 13 , die Nebenbedingung ergibt weiter x = 13

3 .Fur die Funktion f(y, z) kann man sofort die Hesse-Matrix uberprufen: Man erhalt mit fyy = 2,fyz = 1 und fzz = 2 sofort ∆ = fyy fzz − f2

yz = 3 > 0 fur beliebige y und z, wegen fyy = 2 > 0 istalso jeder kritische Punkt (es gibt ohnehin nur einen) ein relatives Minimum.Tatsachlich ist der vorher gefundene Punkt P ( 13

3 , − 113 , 1

3 ) sogar ein absolutes Minimum: Es kom-men namlich sowohl y als auch z in f in hochster Potenz quadratisch vor, die Funktion geht alsoin jede Richtung → +∞. Weiters ist die Funktion auf ganz R2 differenzierbar und besitzt keineweiteren kritischen Punkte, P muss also ein absolutes Minimum sein.

27

Page 28: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Man bestimme alle Extrema der Funktion

f(x, y, z) =x

2− y2 + z2

unter der Nebenbedingung g(x, y, z) = x2 + y2 + 2z2 − 1 = 0.

Wir definieren nun mit dem Lagrange-Multiplikator λ:

F (x, y, z, λ) := f(x, y, z) + λg(x, y, z) =x

2− y2 + z2 + λ

(x2 + y2 + 2z2 − 1

)

Die Ableitungen ergeben

I Fx = 12 + 2λx = 0

II Fy = −2y + 2λy = 2y(λ− 1) = 0 → y = 0 ∨ λ = 1III Fz = 2z + 4λz = 2z(2λ + 1) = 0 → z = 0 ∨ λ = − 1

2IV Fλ = g(x, yz) = x2 + y2 + 2z2 − 1 = 0

Nun unterscheidet man die Falle:

• y = 0: Hier gilt es wiederum zu unterscheiden:

– z = 0: Aus (IV) erhalt man x2 − 1 = 0, x = ±1 und P1(1, 0, 0), P2(−1, 0, 0)

– λ = − 12 : (I) ergibt x = 1

2 , (IV) wird damit zu 14 + 2z2 − 1 = 0, z2 = 3

8 und z = ±√

38 ,

also P3(12 , 0,

√38 ) und P4( 1

2 , 0,−√

38 ).

• λ = 1, damit ist λ = − 12 von vornherein ausgeschlossen, also z = 0. (I) liefert 1

2 + 2x = 0,also x = − 1

4 , damit wird (IV) zu 116 + y2− 1 = 0 mit der Losung y = ±

√154 . Letztlich erhalt

man also noch P5(− 14 ,√

154 , 0) und P6(− 1

4 ,−√

154 , 0).

Will man die Extrema noch klassifizieren, so kann man ausnutzen, dass g(x, y, z) = 0 ein Ellipsoid,also eine kompakte Menge beschreibt, auf der die Funktion f sowohl ein Minimum als auch einMaximum annehmen muss. Berechnung der Funktionswerte liefert:

f∣∣P1

=12, f

∣∣P2

= −12, f

∣∣P3

= f∣∣P4

=58

f∣∣P5

= f∣∣P6

= −1716

,

demnach liegen an P3 und P4 absolute Maxima, an P5 und P6 absolute Minima. Eine Untersuchungder Punkte P1 und P2 ware allerdings aufwendiger.

Man bestimme die stationaren Stellen der Funktion

f(x, y, z) = x2 + xz + y2

unter der Nebenbedingung g(x, y, z) = x + y + z − 1 = 0. Handelt es sich dabei um Extreme?

Mit g(x, y, z) = 0 → z = 1−x−y definieren wir f(x, y) := f(x, y, 1−x−y) = x2+x(1−x−y)+y2 =x− xy + y2 und erhalten

fx = 1− y = 0 → y = 1fy = −x + 2y = 0 → x = 2y,

also x = 2, y = 1, z = −2. Nun ist f(2, 1,−2) = f(2, 1) = 1, aber z.B. f(0, 0) = 0 < 1 undf(2, 0) = 2 > 1, also ist P (2, 1,−2) kein Extremum.

28

Page 29: Konversatoriumsunterlagen zur Analysis T2, SS 2005lichtenegger/untSS05.pdf · 2005. 3. 16. · 0 @ 2 1 ¡3 1 A+t¢ 0 @ 4 ¡2 2 1 A und g: X = 0 @ 6 ¡1 ¡1 1 A+s¢ 0 @ ¡2 1 ¡1 1

Unterlagen Konversatorium Analysis T2 SS 2005

Gegeben ist die Funktionf(x, y) = y4 − 3xy2 + x3

Gesucht sind Lage und Art aller kritischen Punkte von f .

Nullsetzen der ersten partiellen Ableitungen liefert:

fx(x, y) = −3y2 + 3x2 = 3(x2 − y2) = 0 → x2 = y2, x = ±y

fy(x, y) = 4y3 − 6xy = 2y(2y2 − 3x) = 0 → y = 0 ∨ 2y2 − 3x = 0

Eine Losung ist also sicher P1(0, 0). Setzt man nun y2 = x2 in 2y2 − 3x = 0 ein, erhalt manx · (2x − 3) = 0 mit den beiden Losungen x = 0 (schon in P1 erfasst) und x = 3

2 . Wegen x = ±yergeben sich also zwei weitere Punkte P2( 3

2 , 32 ) und P3( 3

2 ,− 32 ). Nun versuchen wir, anhand der

Hesse-Matrix Aussagen uber die Art des Extremums zu erhalten, dazu betrachten wir:

∆2 =

∣∣∣∣∣fxx fxy

fxy fyy

∣∣∣∣∣ =

∣∣∣∣∣6x −6y

−6y 12y2 − 6x

∣∣∣∣∣

Fur die Punkte P2 und P3 erhalten wir:

∆2

∣∣P2

= 9 · 18− (−9) · (−9) = 81 > 0 ∆2

∣∣P3

= 9 · 18− 9 · 9 = 81 > 0,

Es handelt sich also um Extrema, und zwar (wegen fxx|P2 = fxx|P2 = 9 > 0) um zumindestlokale Minima. An P1 kann mit der Hesse-Matrix keine Aussage gemacht werden (∆2

∣∣P1

= 0), daaber beispielsweise f(x, 0) = x3 in jeder Umgebung von P1(0, 0) großere und kleinere Werte alsf(0, 0) = 0 annimmt, muss es sich um einen Sattelpunkt handeln. Anhand von f(x, 0) sieht manauch, dass f beliebig große und kleine Werte annehmen kann, es also keine globalen Extreme gebenkann.

Man bestimme jenen Punkt auf dem Paraboloid

x2 + y2 = 2z + 9.

der vom Punkt P (4, 6, 1) den geringsten Abstand hat.

Zur Vereinfachung betrachten wir statt des Abstands d(x, y, z) die Funktion

f(x, y, z) := d(x, y, z)2 = (x− 4)2 + (y − 6)2 + (z − 1)2,

die unter der Nebenbedingung g(x, y, z) = x2 + y2 − 2z − 9 = 0 ein Minimum annehmen soll. Nundefinieren wir

F (x, y, z, λ) := (x− 4)2 + (y − 6)2 + (z − 1)2 + λ(x2 + y2 − 2z − 9)

und erhalten fur die Ableitungen

(I) Fx = 2(x− 4) + 2λx = 0 (1 + λ)x = 4 → x = 4/z(II) Fy = 2(y − 6) + 2λy = 0 (1 + λ)y = 6 → y = 6/z(III) Fz = 2(z − 1) + 2λx = 0 → 1 + λ = z(IV ) Fλ = x2 + y2 − 2z − 9 = 0

Setzt man nun x = 4z und y = 6

z in (IV) ein, so ergibt sich 16z2 + 36

z2 − 2z − 9 = 0 und durchMultiplikation mit z2 die kubische Gleichung 2z3 +9z2−52 = 0, deren einzige reelle Losung z1 = 2ist. Der Punkt mit minimalem Abstand (denn einen solchen muss es ja geben) ist also Q(2, 3, 2).

29