Version 0.82
Linjär algebra kapiltet från ett ODE-kompendium
Mikael Forsberg
2010 10 28
Den här boken är typsatt av författaren med hjälp av LATEX.
Alla illustrationer är utförda av Mikael Forsberg med hjälp av xfig .
Stockholm 2006-2010
c Mikael Forsberg
Innehåll
1 Komplettering i linjär algebra
1.1 Om baser till vektorrum . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Baser för radrum, kolonnrum och nollrum till en matris
1.1.2 Ortogonala och ortonormala baser . . . . . . . . . . . .
1.2 Matrisen som avbildning . . . . . . . . . . . . . . . . . . . . . .
1.3 Linjära operatorer . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Isometrier . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Egenvärden och egenvektorer . . . . . . . . . . . . . . . . . . .
1.4.1 Användningar av egenteorin . . . . . . . . . . . . . . . .
1.5 Blandade övningsuppgifter . . . . . . . . . . . . . . . . . . . . .
c Mikael Forsberg 2010
.
.
.
.
.
.
.
.
.
1
1
4
6
8
10
11
12
14
16
ii
INNEHÅLL
c Mikael Forsberg 2010
Figurer
1.1
1.2
1.3
Figur till exempel 1.2.5 . . . . . . . . . . . . . . . . . . . . . . .
Ellipsen som ges av ekvation (1.6), här återgiven med sina symmetriaxlar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I de nya variablerna X och Y blir vår sneda ellips i stället en
vanlig ellips som ligger symmetriskt kring de nya axlarna. Notera
att de nya axlarna är symmetrisaxlarna till den sneda ellipsen
som vi såg i figur 1.2 . . . . . . . . . . . . . . . . . . . . . . . . .
c Mikael Forsberg 2010
10
15
17
iv
FIGURER
c Mikael Forsberg 2010
Kapitel 1
Komplettering i linjär
algebra
1.1
Om baser till vektorrum
Om vi tar en vanlig vektor (a, b) så betyder denna att vi tar a steg längs x-axeln
och b steg längs y-axeln. Eftersom dessa axlar har riktningar som vi beskriver
med vektorerna ex = (1, 0) och ey = (0, 1) så kan vi skriva
(a, b) = a(1, 0) + b(0, 1),
och man säger att (a, b) är en linjärkombination av vektorerna ex och ey .
Poängen är också att alla vektorer i planet kan beskrivas på detta sätt. Man
säger att vektoruppsättningen S2 = {(1, 0), (0, 1)} är en bas för planet. Just
denna bas kallas för standardbasen för planet. På samma sätt bildar vektoruppsättningen S3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} standardbasen för R3 .
Nu är det emellertid så att det finns många baser så vi ska lära oss mer om
vad en bas är och hur man kan avgöra om en vektoruppsättning är en bas eller
inte.
Definitionen fokuserar på två egenskaper som vi kan se hos ovanstående standardbaser. Dels så kan alla vektorer i rummet skrivas som en linjärkombination
av basvektorerna men basvektorerna måste vara oberoende av varandra, ingen
av de ingående vektorerna ska kunna fås genom att kombinera de övriga. Vi
sammanfattar detta formellt i följande
Definition 1.1.1. En uppsättning vektorer B = {b1 , . . . , bn } i ett vektorrum
V kallas för en bas om följande gäller:
i.) b1 , . . . , bn är linjärt oberoende , dvs ekvationen
t1 b1 + · · · + tn bn = 0
ska endast har den triviala lösningen t1 = t2 = · · · = tn = 0
c Mikael Forsberg 2010
(1.1)
2
Komplettering i linjär algebra
ii.) Alla vektorer v ∈ V kan skrivas som linjärkombination av vektorerna
b1 , . . . , bn , dvs det finns tal a1 , . . . , an (kallade koordinaterna för vektorn v med avseende på basen B) sådana att
v = a1 b1 + . . . an bn ,
(1.2)
d.v.s. b1 , . . . , bn spänner upp vektorrummet V .
Kommentar 1.1.2. Om en mängd vektorer inte är linjärt oberoende så säger
man att de är linjärt beroende . Linjärt beroende betyder alltså att systemet (1.1), som formuleras nedan i ekvation (1.3), har andra lösningar än den
triviala lösningen. Man kan också formulera detta som att en av vektorerna kan
uttryckas med hjälp av de övriga, vilket förtydligar att vektorerna är beroende
av varandra.
Kommentar 1.1.3. Om vi tittar på ekvation (1.1) så kan denna skrivas som en
homogen matrisekvation
Bt = 0,
(1.3)
där B är matrisen som har vektorerna bi , i = 1, . . . , n som kolonner och t är
kolonnmatrisen (t1 , . . . , tn )T ( observera transponatet ).
Denna skrivning ger oss möjlighet att tolka det linjära oberoendet för några
olika fall.
1. Om vektorerna bi är m-dimensionella med m < n så är B en m × n
matris med färre rader än kolonner. Detta innebär att systemet (1.3) är
underbestämt och alltid har andra lösningar än den triviala. I detta fall
(m < n) så kan B inte bli en bas.
fler vektorer än rumsdimensionen kan aldrig bilda en bas eftersom de alltid
är linjärt beroende
2. Om m > n så är systemet (1.3) överbestämt , dvs vi har fler ekvationer än
obekanta. Det är då möjligt att systemet bara har den triviala lösningen
vilket betyder att Vektorerna bi bildar en bas för ett delrum till V , dvs
en delmängd av V som är ett vektorrum i sig.
Man kan säga att om vektorerna är linjärt oberoende så bildar de en bas
för det rum de spänner upp.
Exempel 1.1.5 visar en sådan här situation.
3. Det tredje och sista fallet är då m = n vilket innebär att matrisen B är
kvadratisk. I detta fall så kan villkoret för linjär oberoende översättas med
att säga att matrisen B skall vara inverterbar vilket innebär att determinanten för B ska vara nollskild.
Exempel 1.1.4. Om vi tittar på följande mängd som består av tre tvådimensionella vektorer B = {b1 = (1, 0), b2 = (0, 1), b3 = (a, b)} så är det direkt
uppenbart att detta inte blir en bas eftersom den tredje vektorn kan skrivas
c Mikael Forsberg 2010
1.1 Om baser till vektorrum
som en linjärkombination av de två första: (a, b) = a(1, 0) + b(0, 1). Det är detta
som alltid händer i situationen som beskrivs i punkt 1 i kommentaren ovan!
Låt oss nu titta på hur systemet (1.3) blir i detta fall
1
0
a
0
1 0 a 0
t1 +
t2 +
t3 =
⇒
,
0
1
b
0
0 1 b 0
som ger lösningarna (t1 , t2 ) = −(a, b)t3 vilket ger många lösningar förutom
den triviala lösningen. De tre vektorerna är alltså inte linjärt oberoende (utan
linjärt beroende) och bildar alltså inte en bas. Notera dock att de tre vektorerna
spänner upp R2 . För att vara en bas måste mängden innehålla så få vektorer som
möjligt. Man kan visa att varje bas för samma vektorrum innehåller samma antal
vektorer, det är detta antal vektorer i en bas som vi kallar för vektorrummets
dimension.
Exempel 1.1.5. I detta exempel tittar vi på vektormängden
C = {c1 = (1, 0, 0), c2 = (0, 1, 0)}.
Bildar denna mängd en bas för R3 ?
Efter att ha läst föregående exempel så vet vi att antalet vektorer i en bas är
lika med rummets dimension. I vårt fall krävs det alltså tre vektorer och vår
mängd innehåller bara två. Vi kan nu fråga oss om de två vektorerna är linjärt
oberoende och om de kan vara en bas för något tvådimensionellt rum (eftersom
vi har två vektorer). För att undersöka det linjära beroendet så löser vi följande
ekvationssystem
 
 


 
0
0
1 0 0
1
 0  t1 +  1  t 2 =  0  ⇒  0 1 0 
0
0
0 0 0
0
Det följer direkt att detta system endast lösningarna t1 = t2 = 0 vilket således
bevisar vektorernas linjära oberoende.
Vilket rum är C en bas för? För att vara en bas så måste vektorerna spänna
upp rummet så om vi skriver upp en typisk linjärkombination så kan vi kanske
få en idé: x(1, 0, 0) + y(0, 1, 0) = (x, y, 0) Det ser alltså ut som våra vektorer
spänner upp alla tredimensionella vektorer som har noll i sin tredje koordinat.
Våra vektor spänner upp x − y planet som är ett delrum av R3 . (Ett delrum av
R3 är antingen en linje eller ett plan som går genom origo.)
Exempel 1.1.6. Undersök vilken av mängderna A = {(1, 1, 0), (0, 1, 1), (1, 0, 1)}
och B = {(2, 1, 3), (1, 3, 1), (1, −2, 2)} som bildar en bas för R3 . Vi använder oss
av punkt 3 i kommentar 1.1.3 som säger att vi har en bas om och bara om
matrisdeterminanten inte är noll. Vi får


1 0 1
det  1 1 0  = 2
0 1 1
c Mikael Forsberg 2010
3
4
Komplettering i linjär algebra
och


2 1 1
det  1 3 −2  = 0.
3 1 2
Detta innebär alltså att endast mängden A är en bas för R3 !
Övning 1.1. Visa att
b1 =
1
2
,
b2 =
1
3
bildar en bas för R2
Övning 1.2. Undersök om
 
1
b1 =  2  ,
1

1
b2 =  2  ,
2


1
b3 =  2 
3

bildar en bas för R3 .
Övning 1.3. Förklara varför
       
1
1
0
1
B = { 0  ,  1  ,  1  ,  1 }
1
0
1
1
inte bildar en bas för R3 . På vilket sätt kan vi enklast göra om B till en bas?
1.1.1
Baser för radrum, kolonnrum och nollrum till en
matris
Radrummet Row(M ) till en matris M är det rum som spänns upp av matrisens
rader, dvs
Row(M ) = span( raderna till M )
På samma sätt så definierar vi kolonnrummet Col(M ) som det rum som spänns
av matrisens kolonner, dvs
Col(M ) = span( kolonnerna till M )
Radrummet och kolonnrummet till en matris har samma dimension och denna
dimension kallas matrisens rang, som vi betecknar med Rang(M ) . Baser för
rad och kolonnrummen kan beräknas mha Gausselimination på sätt som visas i
följande exempel.
Nollrummet Noll(M ) till en matris M är lösningarna till det homogena
systemet M x = 0. Rangen, nollrummets dimension samt antalet kolonner n i
matrisen är kopplade via sambandet
Rang(M ) + dimension för Noll(M ) = n,
c Mikael Forsberg 2010
1.1 Om baser till vektorrum
5
som är ett viktigt resultat som kallas dimensionssatsen (rank theorem i Lay’s
bok)
Exempel 1.1.7. Beräkna baser för rad, kolonn

1
3
0

 3
0
1

M =
 −4 6 −2

1
och nollrummen till matrisen

1

1 


0 

12 −1 3
Gausseliminering av M ger oss matrisen


1 3 0 1


 0 −9 1 −2 


0
M =

 0 0 0 0 


0 0 0 0
De två nollskilda raderna i matrisen M bildar en bas för radrummet.
För att få fram en bas för kolonnrummet så börjar vi med att identifiera i
vilka kolonner som de ledande elementen står i. I vår matris har vi att de ledande
elementen i M 0 står i kolonn 1 och 2. Nu går vi tillbaka till ursprungsmatrisen1
M och väljer i denna kolonn 1 och 2, som då blir en bas för kolonnrummet till
vår matris.
Alltså bas för radrummet:
{(1, 3, 0, 1), (0, −9, 1, −2)}
och bas för kolonnrummet blir

 
3
1



  0
3
 

 −4  ,  6



12
1








1 Observera att de två första kolonnerna i M 0 inte är en bas för kolonnrummet till M även
om de är en bas för Col(M 0 ). Problemet är att gausselimineringen, som ju involverar radoperationer visserligen bevarar radrummet medan samma radoperationer förstör kolonnrummet
så att Col(M ) 6= Col(M 0 ).
c Mikael Forsberg 2010
6
Komplettering i linjär algebra
Från dimensionssatsen vet vi att nollrummet måste vara tvådimensionellt
och vi ser också att vi har två fria variabler och detta ger att nollrummet faktiskt
är tvådimensionellt. En bas för nollrummet får vi genom att identifiera de fria
variablerna2 z = 9s och u = 9t (om vi sätter xT = (x, y, z, u)T i ekvationen
M x = 0) Vi får då från rad 2 i M 0 att y = 19 9s − 29 9t = s − 2t och från rad
1 att x = −3y − u = −3s + 6t − 9t = −3s − 3t varför vi får att lösningen till
M x = 0, vilket ju är nollrummet, ges av

 



x
−3
−3
 y   1 
 −2 

 



 z  =  9 s +  0 t
u
0
9
från detta är det uppenbart att

−3



1

B= 
9



0

−3 

  −2 

,
  0 


9
 
är en bas för nollrummet.
1.1.2
Ortogonala och ortonormala baser
Standardbaserna i föregående sektion har, förutom att de är baser, även andra
viktiga egenskaper: för det första är vektorerna ömsesidigt ortogonala och för
det andra så har varje vektor längden ett. Vi gör följande definition:
Definition 1.1.8. n stycken vektorer o1 , . . . , on i Rn bildar en ortogonal bas
om vektorerna är ömsesidigt ortogonala, dvs om
oi • oj = 0,
om i 6= j
Om alla vektorerna dessutom har längden ett så säger vi har en ortonormal
bas . En ortonormal bas brukar ofta kallas en ON bas .
Detta kan uttryckas som
(
0 om i 6= j
oi • oj = δij =
1 om i = j,
där δij , definierad av den andra likheten, brukar kallas för Kroneckers 3 delta
En mängd vektorer kallas för en ortonormal mängd om de är ömsesidigt
ortogonala och alla vektorer har längden 1.
2 Att
vi sätter z = 9s och u = 9t är bara för att slippa få bråk i basvektorerna
Leopold (1823-1891), tysk matematiker.
3 Kronecker,
c Mikael Forsberg 2010
1.1 Om baser till vektorrum
7
Exempel 1.1.9. Basen B = {b1 = (1, 1), b2 = (1, −1)} är en ortogonal
√ bas för
R2 som inte är ortonormal eftersom båda vektorerna har längden 2. Det är
lätt att göra om B till en ON-bas genom att normera de ingående vektorerna,
dvs dividera vektorerna med deras längd. Detta betyder att
√
√
√
√
BON = {(1/ 2, 1/ 2), (1/ 2, −1/ 2)}
är en ON-bas.
Definition 1.1.10. En kvadratisk matris är en ortogonal matris om dess kolonner bildar en ortonormal mängd. (Observera att vi faktiskt säger att matrisen
är ortogonal och inte ortonormal som man kanske borde)
Följande sats pekar ut några av de viktigaste egenskaperna för en ortogonal
matris
Theorem 1.1.11. Följande är ekvivalent för en n × n-matris M
i. M är ortogonal
ii. M ’s kollonner bildar en ON-bas för Rn
iii. M ’s rader bildar en ortonormal mängd.
iv. M ’s rader bildar en ON-bas för Rn
v. M −1 = M t
vi. M som linjär operator är en isometri (se följande sektioner)
Notera att punkt ii. och v. gör att vi får fram ett användbart test för att
undersöka om en bas är ortonormal eller inte. Observera att vi tack vare v. även
har
Korollarium 1.1.12. Om M är en ortogonal matris så är det M = ±1
Detta korolllarium gör att vi har ett test som avgör om en matris inte är
ortogonal. Om determinantens belopp inte är ett så är matrisen inte ortogonal.
Däremot finns det gott om matriser med determinant 1 som inte är ortogonala:
Exempel 1.1.13. Matrisen
A=
3
2
2
1
har determinant 1 men är ej en ortogonal matris eftersom kolonnerna inte ens
är ortogonala och de har heller inte längden ett.
c Mikael Forsberg 2010
8
Komplettering i linjär algebra
Exempel 1.1.14. Visa att B = {( √12 , √12 , 0), ( √12 , − √12 , 0), (0, 0, 1)} är en ONbas.
Vi ställer upp vektorerna som kolonner i en 3 × 3-matris och beräknar dess
determinant:

 √1
√1
0
2
2
det  √12 − √12 0  = −1
0
0
1
Eftersom determinanten är −1 så säger satsen ovan att kolonnerna bildar ONbas för R3 .
1.2
Matrisen som avbildning
Vi börjar med en definition som visar hur matrier kan uppfattas som avbildningar. Det är viktigt att förstå hur detta fungerar.
Definition 1.2.1. Låt A vara en m × n matris, där vi påminner om att m är
antal rader och n antalet kolonner i matrisen. Då definierar matrisen en linjär
avbildning från Rn till Rm genom
Rn 3 x 7→ Ax ∈ Rm ,
där produkten Ax är definierad om vi betraktar den n-dimensionella vektorn
x som en n × 1-matris. Vi påminner om att en avbildning L(x) mellan två
vektorrum är linjär om följande gäller för två godtyckliga element x, y och två
godtyckliga skalärer a och b i L’s definitionsmängd:
L(ax + by) = aL(x) + bL(y).
Orden avbildning är en synonym med begreppet funktion.
Det är viktigt att förstå att definitionen av matrisprodukten Ax ger en m×1
matris som på ett naturligt sätt tolkas som en m-dimensionell vektor. Låt oss
titta på några exempel:
Exempel 1.2.2. Låt oss studera 1×3-matrisen A = (a, b, c). Enligt definitionen
ger denna matris en avbildning som går från R3 till R och som definieras av




x
x
R3 3 x =  y  → (a, b, c)  y  = ax + by + cz
z
z
Den observante känner troligen igen det sista uttrycket som skalärprodukten
av vektorerna (a, b, c) och (x, y, z). Vi kan alltså se på skalärprodukten, som
en radvektor i en matris multiplicerat med en kolonnvektor i en annan matris.
Detta är många gånger en användbar insikt.
c Mikael Forsberg 2010
1.2 Matrisen som avbildning
9
Exempel 1.2.3. Låt

1
A= 3
1
Då är A en avbildning A : R2 → R3
skrivas


x =
y=


z=

2
1 
1
och kan, om vi skriver x = (u, v) ∈ R2 ,
u + 2v
3u + v ,
u+v
där x, y och z är variablenamnen i R3 .
Låt oss nu titta lite på geometriskt definierade linjära avbildningar och hur
man går tillväga för att skriva dem på matrisform. Principen är att man ser hur
avbildningen avbildar standardbasvektorerna. De resulterande vektorerna ställs
upp som kolonner i en matris och då har vi fått den matris som avbildningen
svarar mot. Låt oss illustrera detta i ett par exempel.
Exempel 1.2.4. Ett av de enklare exemplen att starta med är den avbildning som speglar en tvådimensionell vektor i x-axeln. Denna avbildning kan
formuleras som så att y-koordinaten byter tecken:
S : R2 3 (x, y) 7→ (x, −y) ∈ R2 .
Om vi nu kollar vad som händer med standardbasvektorerna: S((1, 0)) = (1, 0)
och S((0, 1)) = (0, −1). De resulterande vektorerna ställs nu upp som kolonner
i en matris:
1 0
AS =
0 −1
och vi kan verifiera att denna matris ger rätt avbildning:
1 0
x
x
AS (x, y)t =
=
,
0 −1
y
−y
vilket ju ser alldeles rätt ut! Notera att determinanten blir −1 vilket är kännetecknande för en spegling.
Exempel 1.2.5. Låt oss titta på en linjär avbildning som definieras geometriskt
genom att alla vektorer roterar med centrum i origo en vinkel t. Situationen är
som i figur 1.1:
Från figuren ser vi att standardbasvektorerna avbildas enligt
Rt ((1, 0)) = (cos t, sin t),
Rt ((0, 1)) = (− sin t, cos t)
och då blir avbildningens matris
ARt =
cos t
sin t
− sin t
cos t
c Mikael Forsberg 2010
10
Komplettering i linjär algebra
t
cos t
sin t
t
- sin t
cos t
Figur 1.1: Figur till exempel 1.2.5
som är en matris med determinanten +1 och detta är något som karakteriserar
alla rotationer.
Övning 1.4. Beräkna matrisen till den avbildning som geometriskt speglar alla
vektorer i y-axeln.
Övning 1.5. Beräkna matrisen för den avbildning som geometriskt är spegling
i y-axeln åtföljd av en rotation med π/3, dvs med 60◦ .
Övning 1.6. a. Betrakta linjen y = x. Hitta matrisen för den avbildning som
geometriskt är speglinen i denna linje
b. Låt linjen y = 2x vara given. Hitta matrisen för den avbildning som geometriskt är speglingen i denna linje. (kan vara knepig...)
c. Generalisera ovanstående till spegling i en allmän linje y = kx. (Detta är en
utmanande uppgift!!)
1.3
Linjära operatorer
Vi börjar med denna sektions huvudbegrepp.
Definition 1.3.1. En linjär avbildning från Rn till Rn kallar vi för en linjär
operator
Exempel 1.3.2. En matris ger en operator om och bara om matrisen är kvadratisk.
c Mikael Forsberg 2010
1.3 Linjära operatorer
11
Det viktiga här är alltså att avbildningen avbildar element från ett rum
tillbaka till samma rum. Detta gör att vi kan direkt jämföra input med output
och bilda oss t.ex. en uppfattning av vad avbildningen innebär geometriskt.
Exempel 1.3.3. Låt oss titta på matrisen
1 0
S=
0 −1
som ger oss avbildningen
x
1 0
x
x
7→
=
,
y
0 −1
y
−y
dvs vi kan skriva S(x, y) = (x, −y) och från detta ser vi att avbildningen byter
tecken på y-koordinaten, dvs är en spegling i x-axeln. Vi kan notera att det S =
−1
p som är kännetecknande för en spegling. En annan sak är att ||S(x, y)|| =
x2 + y 2 = ||(x, y)|| vilket innebär att S inte förändrar vektorers längder (m.a.o
avstånd förändras inte genom denna avbildning). En operator som inte förändrar
avstånd kallas för en isometri, vilket vi ska studera i nästa delavsnitt.
1.3.1
Isometrier
I exempel 1.3.3 såg vi det första exemplet på en isometri.
begreppet ordentligt
4
Låt oss nu definiera
Definition 1.3.4. En operator L : Rn → Rn är en isometri om
||x|| = ||L(x)||
för alla x ∈ Rn .
Kommentar 1.3.5. Observera att vi i denna definition inte kräver att operatorn
är linjär. Det går att visa (vilket ni kan se i separat dokument om isometrier) varje isometri är affin, dvs linjär så när på en translation. Varje isometri
kan ges som en ortogonal matris plus en translation, vilket har betydelse för
tillämpningar som tapetmönster och liknande. I det som följer ska vi bara studera de linjära isometrierna för att motivera punkt (vii.) i teorem 1.1.11.
Theorem 1.3.6. En linjär operator är en isometri om och bara om dess tillhörande
matris är ortogonal.
Eftersom isometrier är ortogonala matriser så följer det att deras determinant antingen är +1 eller −1. De matriser som har positiv determinant kallas
för Rotationer och är en jämn isometri. De som har negativ determinant är
Udda isometri och geometriskt så är de speglingar.
4 Isometri
kommer av Grekiskans isos =lik, lika och metron = mått
c Mikael Forsberg 2010
12
Komplettering i linjär algebra
Exempel 1.3.7. Man kan visa att en rotation med en vinkel α ges av följande
matris
cos α − sin α
Rα =
sin α cos α
Man får att det Rα = cos2 α + sin2 α = 1
1.4
Egenvärden och egenvektorer
När vi har en linjär operator så är det naturligt att jämföra input med output.
Man kan t.ex. se i fallet spegling i x-axeln, som vi studerade i exempel 1.2.4, att
det finns två riktningar som inte förändras. Den mest uppenbara är ju själva
spegellinjen (x-axeln) men också y-axeln förändras inte (den vänds bara upp
och ned). Sådana oföränderliga riktningar är väldigt viktiga eftersom de säger
mycket om avbildningens natur. Det visar sig också att dessa riktningar faktiskt
karakteriserar avbildningen vilket gör det fruktbart att studera detta. Följande
definition ställer upp detta problem på ett sätt som kommer visa sig användbart:
Definition 1.4.1. Låt A vara en n × n matris vilket betyder att A är matrisen
för en linjär operator från Rn till sig själv. När vi söker en riktning xsom inte
förändras så söker man lösning till systemet
Ax = λx,
(1.4)
där λ kallas för ett egenvärde och x för en egenvektor som hör till egenvärdet
λ.
Kommentar 1.4.2. Ekvation (1.4) betyder geometriskt att vi förväntar oss att
en längden för vektorn x kan ändras medan riktningen bibehålls. Ekvationen
skrivs vanligen om på följande sätt
0 = Ax − λx = Ax − λIx = (A − λI)x
(1.5)
som alltså är ett homogent ekvationssystem. Det är uppenbart att x = 0 är
en lösning men den kallar vi för den triviala lösningen eftersom den inte
ger någon information alls om avbildninen. Vi är i stället intresserade av de
icketriviala lösningar som systemet har.
Proposition 1.4.3. Egenvärdesproblemet i (1.5) har icketriviala lösningar precis då matrisen A − λI inte är inverterbar, dvs precis då det(A − λI) = 0
c(λ) = det(A − λI) blir ett polynom i variabeln λ som vi kallar för det karakteristiska polynomet och egenvärdena är tydligen nollställen till detta polynom.
Låt oss nu försöka lösa ett enkelt egenvärdesproblem:
Exempel 1.4.4. Hitta egenvärden och egenvektorer till matrisen
−3 4
A=
.
4 3
c Mikael Forsberg 2010
1.4 Egenvärden och egenvektorer
13
Vi bestämmer först det karakteristiska polynomet:
−3 − λ
4
c(λ) = det(A − λI) = det
= −(3 + λ)(3 − λ) − 16 = λ2 − 25,
4
3−λ
som har nollställena λ = ±5, vilket alltså är våra egenvärden. För att beräkna
egenvektorerna så måste vi lösa ekvationssystemet (A − λI)x = 0 för båda våra
egenvärden. Det blir alltså två ekvationssystem att lösa i detta fallet:
λ = 5: (A − 5I)x = 0 blir
−8 4 0
4 −2 0
2 −1 0 ,
0 0 0 Gausseliminering ger
som har lösningen y = t godtycklig och x = t/2 och om vi skriver detta
på vektoriell parameterform får vi
1
Eλ=5 =
s,
2
där vi satt 2s = t för att få lite snyggare siffror. Eλ=5 kallar vi för egenrummet till λ = 5. Egenrummet innehåller alla möjliga egenvektorer till
det aktuella egenvärdet. Vektorn
eλ=5 =
1
2
är då en egenvektor som hör till egenvärdet λ = 5
λ = −5: (A − (−5)I)x = 0 blir
2
4
4 0
8 0
Gausseliminerar vi detta system får vi
1 2 0
0 0 0
som har lösningarna, sammanfattade som ett egenrum
−2
Eλ=−5 =
s,
1
och en naturlig egenvektor blir i detta fall:
−2
eλ=−5 =
1
c Mikael Forsberg 2010
14
Komplettering i linjär algebra
Notera att de båda egenvektorerna är ortogonala. Faktiskt är det så att alla
vektorer i det ena egenrummet är ortogonala mot alla egenvektorer i det andra
egenrummet. Man kan därför säga att egenrummen är ortogonala ortogonala
egenrum. Detta gäller alltid om matrisen vi startade med är symmetrisk, dvs
om A = At
Övning 1.7. Vad betyder matrisen A i exempel 1.4.4 geometriskt. Vad händer
t.ex. med standardbasvektorerna och försök göra bilden fullständig m.h.a. dessa.
Glöm inte bort att egenvektorerna pekar ut riktningar som inte förändras och
representerar därför symmetriegenskaper för avbildningen som A definierar.
Övning 1.8. Beräkna egenvärden, egenvektorer och egenrum för den symmetriska matrisen
−1 2
2 0
Varning: detta är en typisk situation där egenvärdena blir typiskt knepiga...
Situationer med heltalsegenvärden är ovanliga. Svar :
Övning 1.9. Beräkna egenvärden, egenvektorer och egenrum för den symmetriska matrisen


−1 2 0



A=
 2 0 2 
0 2 1
Övning 1.10. Beräkna symmetririktningar för matrisavbildningen
1 7
A=
3 5
1.4.1
Användningar av egenteorin
Vi har sett att egenvärden och egenvektorer ser ut att ha stor betydelse för
en avbildnins egenskaper. Om tid ges så avser jag att komplettera detta avsnitt
med exempel på hur man kan använda de symmetrier som egenvektorerna pekar
ut för att skriva om avbildningarna på enklare sätt. Egenvektorerna till symmetriska matriserna kan beräknas så att de bildar en ON bas. Genom att göra
ett koordinatbyte till denna bas så kan avbildningen skrivas på enklast möjliga
sätt. Ett sätt att lösa övning 1.7 är att utföra en sådan beräkning.
Exempel 1.4.5. Betrakta situationen i exempel 1.4.4 och frågeställningen i
övning 1.7. Om vi normerar egenvektorerna eλ=±5 så får vi en ON-bas för R2 .
Ställer vi upp dem som kolonner i en matris P så blir denna matris ortogonal
enligt sats 1.1.11. Vi har alltså att
√ √
1/√5 −2/√ 5
P =
2/ 5 1/ 5
c Mikael Forsberg 2010
1.4 Egenvärden och egenvektorer
15
och beräknar vi determinanten så ser vi att denna är +1 vilket gör att P geometriskt är en rotation (byter jag plats på egenvektorerna så byter determinanten
tecken och vi får då i stället en spegling). Nu gör jag ett basbyte, eller variabelbyte/substitution, med hjälp av denna matris P . En följd av detta blir att jag
multiplicerar A med P −1 från vänster och med P från höger och vi får (kom
ihåg att inversen till en ortogonal matris är lika med transponatet):
√ √ √
√
−3 4
5 0
1/√5 −2/√ 5
1/ √5 2/√5
t
=
.
P AP =
4 3
0 −5
−2/ 5 1/ 5
2/ 5 1/ 5
Notera att denna manöver gav oss en matris (som vi kallar för D ) med egenvärdena
på diagonlen och nollor i övrigt. Vi kan nu se att denna diagonala matris representerar en spegling i y-axeln och en förstoring med en faktor 5 ty vi får att
D(x, y)t = 5(−x, y).
Exempel 1.4.6. Lösningarna till ekvationen
5x2 − 4xy + 8y 2 − 36 = 0
(1.6)
är geometriskt ellipsen i figur 1.2. Notera att ellipsen är roterad i förhållande till
koordinataxlarna. Det är den blandade termen −4xy som ger upphov till detta.
Vi ska se hur vi kan hitta nya variabler i vilka ellipsen ligger oroterad och med
5
4
3
2
1
0
−5
−4
−3
−2
0
−1
−1
1
2
3
4
5
x
−2
y
−3
−4
−5
Figur 1.2: Ellipsen som ges av ekvation (1.6), här återgiven med sina symmetriaxlar.
dessa variabler kommer ellipsens ekvation att sakna blandad term.
Så här gör man:
i. Vi skriver vänster led av (1.6) på matrisform:
5 −2
x
x y
= 36
−2 8
y
c Mikael Forsberg 2010
(1.7)
16
Komplettering i linjär algebra
Genom att sätta
x
y
x=
så kan vi skriva ekvation (1.7) som
xT Ax = 36
(1.8)
, där
A=
5 −2
−2 8
ii. Beräkna egenvärden och egenvektorer till matrisen A. Egenvärdena blir
λ1 = 4 och λ2 = 9 och motsvarande normerade egenvektorer blir eλ=4 =
√1 (2, 1) och eλ=9 = √1 (−1, 2).
5
5
iii. Bilda den ortogonala matrisen P som har dessa egenvektorer som kolonner:
!
P =
−1
√
5
√2
5
√2
5
√1
5
iv. Utför variabelbytet
x=
x
y
=P
X
Y
= PX
som ger att
xT Ax = XT P T AP X = XT DX,
(1.9)
, där
T
P AP = D =
4
0
0
9
.
v. När vi räknar ut vad som står i (1.9) så får vi att ekvationen 1.8 så får vi
ekvationen
4X 2 + 9Y 2 = 36,
vilket illustreras i figur 1.3.
Övning 1.11. Utför beräkningarna av egenvärden och egenvektorer till matrisen A i exempel 1.4.6.
Övning 1.12. Verifiera att matrisen P i exempel 1.4.6 är en ortogonal matris.
Är matrisen en rotation eller en spegling?
1.5
Blandade övningsuppgifter
Övning 1.13.
c Mikael Forsberg 2010
1.5 Blandade övningsuppgifter
17
2
1
0
−3
−2
−1
0
1
2
3
X
Y −1
−2
Figur 1.3: I de nya variablerna X och Y blir vår sneda ellips i stället en vanlig
ellips som ligger symmetriskt kring de nya axlarna. Notera att de nya axlarna
är symmetrisaxlarna till den sneda ellipsen som vi såg i figur 1.2
c Mikael Forsberg 2010