Table Of ContentLineare Algebra II
Ernst Heintze
WS 2006/07
ii
Inhaltsverzeichnis
§0 Wiederholung und Erg¨anzung . . . . . . . . . . . . . . . . . . . . . . 1
§1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
§2 Die Leibnizformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
§3 Diagonalisierbarkeit und Eigenwerte . . . . . . . . . . . . . . . . . . . 16
§4 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . 20
§5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
§6 Euklidische Vektorra¨ume . . . . . . . . . . . . . . . . . . . . . . . . . 27
§7 Diagonalisierung symmetrischer Endomorphismen . . . . . . . . . . . 32
§8 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
§9 Nachtrag: Euklidische Bewegungen . . . . . . . . . . . . . . . . . . . 43
§10 Hermitesche Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . 44
§11 Hermitesche, schiefhermitesche und unit¨are Endomorphismen . . . . . 47
§12 Normalformen schiefsymmetrischer und orthogonaler Matrizen . . . . 52
§13 Trigonalisierung und Cayley-Hamilton . . . . . . . . . . . . . . . . . 55
§14 Nilpotente Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . 59
§15 Verallgemeinerte Eigenr¨aume . . . . . . . . . . . . . . . . . . . . . . 61
§16 Fitting-Zerlegung und verallgemeinerte Eigenraumzerlegung . . . . . 64
§17 Jordan-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
§18 Normalformen nilpotenter Matrizen und Jordansche Normalform . . . 67
§19 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
§20 Symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . . . . 74
Literatur
K. J¨anich: Lineare Algebra
G. Fischer: Lineare Algebra
H.J. Kowalsky: Lineare Algebra
E. Brieskorn: Lineare Algebra und Analytische Geometrie I, II
iii
§0. Wiederholung und Erg¨anzung 1
§0 Wiederholung und Erg¨anzung
Wir beginnen mit einer kurzen Wiederholung der wichtigsten Begriffe aus dem 1.
Teil der Vorlesung im Sommersemester.
Die lineare Algebra besch¨aftigt sich mit der Untersuchung linearer Abbildungen
f : V → W zwischen zwei Vektorr¨aumen V,W u¨ber einen K¨orper K. Dabei ist ein
K¨orper ein Bereich von Zahlen, in dem die vier Grundrechenarten erkl¨art sind, so
dassdie u¨blichen“Rechenregelngelten.MankannalsodieElementeausK addieren,
”
subtrahieren, multiplizieren und dividieren (aber nicht durch Null teilen!). Genauer
ist ein K¨orper eine abelsche Gruppe bzgl. +“ und K∗ := K \ {0} eine abelsche
”
Gruppe bzgl. ·“. Wichtigste Beispiele sind K = R oder C.
”
Ein Vektorraum u¨ber K ist ebenfalls eine abelsche Gruppe bzgl. +“, aber man hat
”
zus¨atzlich eine Skalarenmultiplikation von Elementen aus V mit Elementen aus K
(den Skalaren), also eine Abbildung K×V → V,(λ,v) 7→ λ·v. Anschaulich ist λ·v
die Streckung des Vektors v um den Faktor λ. Vektoren kann man (im Allgemeinen)
nicht multiplizieren (Ausnahmen: Kreuzprodukt im R3, komplexe Multplikation im
R2 = C,...).
Wichtigste Beispiele von Vektorr¨aumen sind der Rn, der Cn oder allgemein der
Kn,K ein K¨orper. Tats¨achlich ist jeder endlich dimensionale K-Vektorraum iso-
morph zu Kn, d.h. l¨aßt sich mit Kn identifizieren. Dabei heißt V endlich dimensio-
nal, wenn V eine endliche Basis hat, d.h. es v ,...,v ∈ V gibt, so dass sich jeder
1 n
Vektor v ∈ V eindeutig als
v = λ v +···+λ v
1 1 n n
schreiben l¨aßt. Die Zuordnung (λ ,...,λ ) 7→ λ v + ··· + λ v liefert dann die
1 n 1 1 n n
gewu¨nschte Identifikation von Kn mit V.
Allderdings ist nicht jeder Vektorraum endlich dimensional. Beispiele unendlich di-
mensionaler Vektorr¨aume sind die fu¨r die Analysis so wichtigen R¨aume wie etwa
C◦(a,b)) = {f : (a,b) → R | f stetig } oder C∞((a,b)) = {f : (a,b) → R | f
beliebig oft differenzierbar}.
Den Begriff der Basis kann man in zwei Teile zerlegen: v ,...,v ∈ V ist eine
1 n
Basis genau dann, wenn 1. v ,...,v Erzeugendensystem (jedes v ∈ V l¨aßt sich als
1 n
Linearkombination λ v +···+λ v der v ,...,v schreiben) und 2. v ,...,v linear
1 1 n n 1 n 1 n
unabh¨angig (l.u.) sind (aus λ v + ··· + λ v = 0 folgt λ = ··· = λ = 0). Die
1 1 n n 1 n
lineare Unabh¨angigkeit sorgt gerade fu¨r die Eindeutigkeit der Darstellung.
Eine lineare Abbildung f : V → W zwischen zwei Vektorr¨aumen u¨ber den K¨orper
K (der gleiche fu¨r V und W!) ist eine Abbildung mit
1. f(λv) = λf(v)
2. f(v +w) = f(v)+f(w)
fu¨r alle λ ∈ K und v,w ∈ V. Es folgt durch wiederholte Anwendung der beiden
Regeln:
N N
X X
f( λ v ) = λ f(v )
i i i i
i=1 i=1
(man kann aus f beliebige Linearkombinationen herausziehen“).
”
2
Die linearen Abbildungen f : Kn → Km sind genau die folgenden: f(x ,...,x ) =
1 n
(a x +···+a x ,...,a x +···+a x ), wobei a ,...,a ,...,a ,...,a
11 1 1n n m1 1 mn n 11 1n m1 mn
beliebige Elemente aus K sind. Diese Koeffizienten faßt man zu der m×n-Matrix
(m Zeilen, n Spalten)
a ... a
11 1n
. .
A := .. ..
a ... a
m1 mn
zusammen. Die Menge der m × n-Matrizen mit Koeffizienten in K bezeichnen
wir mit M(m × n,K)(Km×n ist auch gebr¨auchlich). Jedem A ∈ M(m × n,K)
entspricht also eine lineare Abbildung A : Kn → Km (die wir mit demselben
Buchstaben bezeichnen!) und umgekehrt. Wendet man in der obigen Formel f auf
e := (0,...,0,1,0,...0) (eine 1 an der i-ten Stelle, sonst Nullen; der i-te kanonische
i
Basivektor), so erh¨alt man
f(e ) = (a ,a ,...,a )
i 1i 2i ni
unddasistdiei-teSpaltevonA.Istalsof : Kn → Km gegeben,soistdaszugeh¨orige
A ∈ M(m×n,K) diejenige Matrix, die als i-ite Spalte f(e ) hat.
i
Lineare Abbildungen f ,f : Kn → Km kann man addieren ((λ f + λ f )(v) =
1 2 1 1 2 2
λ ·(f (v))+λ ·(f (v))) und mit Skalaren multiplizieren ((λf )(v) := λ·(f (v))).
1 1 2 2 1 1
Dem enspricht auf Matrizenseite die Addition von Matrizen (A = (a ),B = (b ) ⇒
ij ij
A+B = (a +b )) bzw. die Skalarmultiplikation (λA = (λa ), d.h.
ij ij ij
a ... a λa ... λa
11 1n 11 1n
. . . .
λ .. .. = .. .. ).
a ... a λa ... λa
m1 mn m1 mn
Die lineare Abbildungen Kn → Km bzw. M(m × n,K) bilden also selber wieder
einen Vektorraum.
Eine weitere wichtige Verknu¨pfung linearer Abbildungen ist die Hintereinander-
schaltung. Sind g : V → W und f : W → U linear, so ist auch f ◦ g : V →
U,f ◦g(v) := f(g(v)), linear. Sind speziell g : K‘ → Km linear mit Matrix B (also
g = B : K‘ → Km) und f : Km → Kn mit Matrix A, so ist f ◦g : K‘ → Kn linear.
Die zugeh¨orige Matrix kann man leicht ausrechnen, man bezeichnet sie mit A · B
(Matrizenprodukt). Der (i,j)-te Eintrag von A·B ist
m
X
a b .
iµ µj
µ=1
Damit ist das Matrizenprodukt
M(n×m,K)×M(mב,K) → M(nב,K)
erkl¨art. Man kann aber nicht beliebige Matrizen miteinander multiplizieren, sondern
nur solche, bei denen B soviele Zeilen hat, wie A Spalten. Fu¨r quadratische Matrizen
(m = n) ist das z.B. stets erfu¨llt, so dass man in M(n×n,K) eine Multiplikation
hat (neben der Addition und Skalarenmultiplikation). Diese ist nicht kommutativ
aber assoziativ:
A·(B ·C) = (A·B)·C
§0. Wiederholung und Erg¨anzung 3
(da die Hintereinanderschaltung von Abbildungen eine assoziative Verknu¨pfung ist,
und zwar von beliebigen, das hat nichts mit Linearit¨at zu tun).
Eine lineare Abbildung f : V → W zwischen zwei K-Vektorr¨aumen heißt ein Iso-
morphismus, wenn sie außerdem bijektiv ist. Die Umkehrabbildung f−1 : W → V
ist dann auch linear. f ist also genau dann ein Isomorphismus, wenn es eine lineare
Abbildung g : W → V gibt mit
f ◦g = id
W
g ◦f = id
V
Ist f : V → W ein Isomorphismus, so haben V und W gleiche Dimension (evtl.
unendlich), da f eine Basis von V auf eine Basis von W abbildet. Insbesondere
sind Kn und Km mit n 6= m nicht isomorph. Wie eingangs bemerkt, ist aber jeder
n-dimensionale Vektorraum V u¨ber K isomorph zu Kn: Ist A = (v ,...,v ) eine
1 n
Basis, so ist
Φ : Kn → V
A
(λ ,...,λ ) 7→ λ v +···+λ v
1 n 1 1 n n
ein Isomorphismus. Allerdings h¨angt dieser Isomorphismus von der Wahl der Basis
ab,eristnicht kanonisch.Dennochisteroftsehrnu¨tzlich,damanallesaufdenStan-
dardfall V = Kn zuru¨ckspielen kann. Ist z.B. f : V → W linear, A = (v ,...,v )
1 n
und B = (w ,...,w ) Basen von V bzw. W, so entspricht f nach Identifizierung
1 m
von V mit Kn und W mit Km eine lineare Abbildung Kn → Km, also eine (m×n)-
Matrix A, die sogenannte f darstellende Matrix
A : Kn −Φ→A V −f→ W −Φ→−B1 Km
∼= ∼=
und eine Reihe von Eigenschaften von f lassen sich an A ablesen, wie z.B. den
Rang. Der Rang einer linearen Abbildung f : V → W ist die Dimension des Bildes
von f also von {f(v) | v ∈ V}. Es ist klar, dass sich der Rang nicht ¨andert, wenn
man Isomorphismen vor f oder hinter f schaltet, insbesondere Rang f = Rang
A in der obigen Situation. Der Rang einer Matrix, also der Rang der zugeh¨origen
linearenAbbildungKn → Km,l¨aßtsichabersehrleichtberechnen.Eristgleichdem
Zeilenrang und dem Spaltenrang, d.h. der Maximalzahl l.u. Zeilen (bzw. Spalten)
und ¨andert sich nicht bei elementaren Zeilen (Spalten)umformungen.
Eine quatratische n × n-Matrix A nennt man regul¨ar, wenn sie Rang n hat (also
maximalen Rang). Dann ist also A : Kn → Kn surjektiv und auf Grund der Dimen-
sionsformel fu¨r lineare Abbildungen (n = dimKn = dimKern A+dimBildA) auch
injektiv, also A : Kn → Kn ein Isomorphismus. Es gibt also B ∈ M(n×n,K) mit
AB = E
BA = E .
SolcheMatrizennenntmaninvertierbarundsetztA−1 := B.UmgekehrthatARang
n, wenn A invertierbar. Also gilt fu¨r A ∈ M(n×n,K):
A regul¨ar ⇐⇒ A invertierbar .
Die darstellende Matrix einer linearen Abbildung f : V → W h¨angt von der Wahl
der Basen A und B von V bzw. W ab und man versucht A und B so zu w¨ahlen,
dass die darstellende Matrix m¨oglichst einfache Gestalt hat. Das ist stets m¨oglich:
4
Satz 0.1. Haben V und W endliche Dimension, so lassen sich Basen A und B von
V und W so w¨ahlen, dass die darstellende Matrix von f die Gestalt
1 0 ··· 0
.
0 1 ..
... ... 0 0
0 ··· 0 1
0
hat.
Bemerkung. Die Anzahl der Einsen in der obigen Matrix ist offenbar gleich ihrem
Rang und der ist gleich rgf. Also ist die Anzahl der Einsen festgelegt.
Beweis. Wir erg¨anzen eine Basis des Kerns von f zu einer Basis A = (v ,...,v )
1 n
von V, wobei v ,...,v die Basis des Kerns. Wir hatten fru¨her gesehen, dass dann
k+1 n
w := f(v ),...,w := f(v ) eine Basis des Bildes von f bilden, insbesondere also
1 1 k k
k = rg f. Wir erg¨anzen w ,...,w zu einer Basis B = (w ,...,w ,w ,...,w )
1 k 1 k k+1 m
von W. Die darstellende Matrix A := Φ−1 ◦f ◦Φ : Kn → Km bildet dann e auf
B A i
Φ−1(fv ) ab, also auf e ∈ Rm fu¨r i = 1,...,k und auf 0 fu¨r i > k und hat damit
B i i
die angegebene Gestalt.
Ein viel schwierigeres Problem erh¨alt man, wenn V = W und man die gleiche Basis
im Definitionsbereich und Bildbereich verlangt (A = B), also nach Basen A von V
fragt, so dass die darstellende Matrix Φ−1 ◦ f ◦ Φ : Kn → Kn von f : V → V
A A
eine m¨oglichst einfache Gestalt wie z.B. Diagonalform hat. Damit werden wir uns
ausfu¨hrlich in diesem Semester besch¨aftigen.
Zum Abschluß u¨berlegen wir noch wie sich die darstellende Matrix eines Endomor-
phismus f : V → V ¨andert, wenn man die Basis A von V ¨andert.
Definition 0.2. Zwei Matrizen A,B ∈ M(n × n,K) heißen konjugiert, wenn es
eine invertierbare Matrix X ∈ M(n×n,K) gibt, so dass
B = XAX−1 .
Satz 0.3. Seien A,B ∈ M(n × n,K) darstellende Matrizen von f : V → V bzgl.
zweier Basen von V. Dann sind A und B konjugiert.
Beweis. Seien A und B Basen von V mit A = Φ−1 ◦f ◦Φ und B = Φ−1 ◦f ◦Φ .
A A B B
Dann ist B = (Φ−1 ◦ Φ ) ◦ (Φ−1 ◦ f ◦ Φ ) ◦ (Φ−1 ◦ Φ ) = X ◦ A ◦ X−1, wobei
B A A A A B
X := Φ−1 ◦Φ : Kn → Kn als Matrix aufgefaßt werden kann und X ◦A◦X−1 als
B A
Matrizenprodukt.
¨
Bemerkung. X bezeichnetmanauchalsUbergangsmatrix(vonderBasisAzurBa-
n
sisB).Dennistv = Pa w ,sohatX j-teSpalteX e = Φ−1(v ) = Φ−1(Pa w ) =
j ij i j B j B ij i
i=1
(a ,...,a ), d.h. X = (a ).
1j nj ij
§1. Determinanten 5
§1 Determinanten
Fu¨r 2×2-Matrizen hatten wir detA := ad−bc gesetzt, wenn A = (a b) ∈ M(2×
c d
2,K),K einbeliebigerK¨orper.EsgiltdannAregul¨ar(=invertierbar) ⇐⇒ detA 6=
0 und in diesem Fall ist
(cid:18) (cid:19)
1 d −b
A−1 =
ad−bc −c a
wie man sofort nachrechnet.
detA 6= 0 ist also eine sehr bequeme Bedingung, um die Regularit¨at festzustellen
und wir wu¨rden daher gerne diese Bedingung auf n×n-Matrizen verallgemeinern.
Dazu betrachten wir zun¨achst Eigenschaften der Determinante det : M(2×2,K) →
K.
Satz 1.1. det : M(2×2,K) → K hat folgende Eigenschaften:
(i) detE = 1
(ii) detA·B = detA·detB
(cid:18) (cid:19)
a b
(iii) det = 0, wenn (a,b) = (c,d)
c d
(iv) detAT = detA
(cid:18) (cid:19) (cid:18) (cid:19)
c d a b
(v) det = −det
a b c d
(cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19)
λa λb a b a b
(vi) det = λdet = det
c d c d λc λd
(cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19)
a+a0 b+b0 a b a0 b0
(vii) det = det +det
c d c d c d
(cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19)
a b a b a b
(viii) det = det +det .
c+c0 d+d0 c d c0 d
Der Beweis folgt durch einfaches Nachrechnen, wobei eigentlich nur bei (ii) etwas zu
tun ist.
Aus (i) und (ii) folgt: Ist A invertierbar, also AA−1 = E, so detA·detA−1 = detE =
1 und damit detA 6= 0 wie oben bemerkt.
Bemerkung. det : M(2 × 2,K) → K ist nicht linear, z.B. folgt aus (vi) det(λ ·
A) = det(λa λb) = λdet( a b ) = λ2 · detA. Aber (vi) und (vii) besagen z.B.,
λc λd λc λd
dass det linear ist in (a,b), also in der 1. Zeile (wenn man die 2. Zeile festh¨alt).
Genauer ∀ c,d ∈ K ist (a,b) 7→ det(a b) eine lineare Abbildung von K2 nach K.
c d
Entsprechendes gilt fu¨r die 2. Zeile.
Wir benutzen jetzt die obigen Eigenschaften fu¨r die Definition der Determinante
von n × n Matrizen. Dabei lassen wir (ii) und (iv) weg, sie werden sich sp¨ater als
Folgerungen ergeben.
Definition 1.2. Eine Abbildung det : M(n×n,K) → K heißt Determinante, wenn
sie folgende Eigenschaften erfu¨llt:
6
(i) Linearit¨atinjederZeile,d.h.beiFesthaltenallerZeilenv ,...,v ,v ,...,v ∈
1 i−1 i+1 n
− v1 −
.
.
.
Kn bis auf die i-te ist die Abbildung Kn → K , vi 7→ det− v.i − linear, also
.
.
− v...1 − − v...1 − v...1 −vvn...1− v...1
det− λ...vi − = λdet− v...i − und detvi+...vi0 = detv...i +detv...i0
− vn − − vn − vn vn vn
(ii) detA = 0, wenn A zwei gleiche Zeilen hat (also v = v und i 6= j).
i j
(iii) detE = 1.
Wir wollen natu¨rlich zeigen, dass es so eine Abbildung gibt und sie durch die 3 Ei-
genschaften eindeutig festgelegt ist, insbesondere also im Fall n = 2 mit der eingangs
definierten Determinante u¨bereinstimmt. Die hat ja nach 1.1 diese Eigenschaften.
Sei also det : M(n × n,K) → K im Folgenden eine Determinante. Wir u¨berlegen
zun¨achst, wie sie sich bei elementaren Zeilenumformungen verh¨alt.
Satz 1.3. (i) detA0 = −detA, wenn A0 durch Vertauschen zweier Zeilen v ,v
i j
mit i 6= j entsteht.
(ii) detA0 = detA, wenn A0 aus A durch Addition des λ-fachen der j-ten Zeile
zur i-ten Zeile entsteht und i 6= j,λ ∈ K.
(iii) detA0 = λdetA, wenn A0 aus A durch Multiplikation der i-ten Zeile mit λ ∈ K
entsteht.
Beweis. (i) Wir deuten nur die i-te und j-te Zeile an. Aus
. . .
. . .
. . .
v+w v w
0 = det .. = det .. +det ..
. . .
v+w v+w v+w
. . .
. . .
. . .
. . . .
. . . .
. . . .
v v w w
. . . .
= det..+det .. +det .. +det ..
v w v w
. . . .
. . . .
. . . .
. .
. .
. .
− v − − w −
folgt det .. +det .. = 0 und damit die Behauptung.
. .
− w − − v −
. .
. .
. .
.. .. .. ..
. . . .
v+λw v w v
(ii) det ... = det ... +λdet ... = det ... .
w w w w
. . . .
. . . .
. . . .
§1. Determinanten 7
(iii) ist Teil der Definition einer Determinante.
Korollar 1.4.
detA = 0 ⇐⇒ rgA < n
(detA 6= 0 ⇐⇒ rgA = n ⇐⇒ A invertierbar).
Beweis. IstrgA < n,sosinddieZeilenlinearabh¨angigunddamiteineZeile,z.B.die
Pn (cid:18)v.1(cid:19) v1−Pv2λivi!
erste,Linearkombinationderanderen:v = λ v .⇒ det . = det . =
1 i i . .
.
0 ! i=2 vn vn
v2
det . = 0.
.
.
vn
Ist rg A = n, also A invertierbar, so l¨aßt sich A durch elementare Zeilenumfor-
mungen in die Einheitsmatrix transformieren. Nach dem Satz ¨andert sich dabei die
Determinante nur um einen Faktor λ 6= 0. Also
detA = λ·detE = λ 6= 0 .
Dieselbe Argumentation wie im letzten Absatz liefert:
˜ ˜
Korollar 1.5. Ist det : M(n×n,K) → K eine weitere Determinante, so det = det.
(det ist also eindeutig bestimmt, wenn es existiert, was wir im Fall n ≥ 3 noch nicht
wissen).
˜
Beweis. Sei A ∈ M(n×n,K). Ist rgA < n, so detA = 0 und ebenso detA = 0, also
˜
detA = detA.
Ist rgA = n, so k¨onnen wir A durch elementare Zeilenumformungen auf die Ein-
˜
heitsmatrix bringen. Dabei ¨andern sich detA und detA um den gleichen Faktor,
˜ ˜
etwa λ. Also detA = λ·detE = λ = λ·detE = detA.
Wir wollen jetzt die Existenz der Determinante zeigen, und zwar durch Induktion.
Diese beruht auf folgender Eigenschaft der natu¨rlichen Zahlen N = {1,2,...}: Ist
A ⊂ N eine Teilmenge mit 1 ∈ A und der Eigenschaft, dass fu¨r jedes n ∈ A auch
n + 1 ∈ A, so ist A = N. Wir sehen in dieser Vorlesung die natu¨rlichen Zahlen
als gegeben an und benutzen das obige Induktionsprinzip ohne Begru¨ndung. Es ist
aber sehr einleuchtend, da mit 1 ∈ A auch 1 + 1 = 2 ∈ A , 2 + 1 = 3 ∈ A usw.
Konkretbedeutetdasfu¨runs:Esgenu¨gtdetfu¨r1×1-Matrizenzudefinieren(mitden
gefordertenEigenschaften)und,wennwirschondet aufdenn×n-Matrizendefiniert
n
haben, det : M((n+1)×(n+1),K) → K (mit den geforderten Eigenschaften)
n+1
zu definieren. Dann haben wir eine (und wegen schon gezeigter Eindeutigkeit) die
Determinante fu¨r alle Matrizen definiert.
Fu¨r 1×1 Matrizen setzen wir natu¨rlich det (a) := a. Offenbar erfu¨llt det die drei
1 1
Eigenschaften einer Determinante.
Fu¨r eine Matrix A bezeichnen wir im Folgenden mit A die Matrix, die aus A
ij
(cid:16) (cid:17)
1 2 3
durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Ist z.B. A = 4 5 6 , so
7 8 9
A = (4 6) und A = (1 2).
12 7 9 33 4 5