LINJÄR ALGEBRA
TOMAS SJÖDIN
Innehåll
0.
Notation
1
1.
Linjära Ekvationssystem
2
2.
Geometriska vektorer, rummen
3.
Skalärprodukt, Vektorprodukt, Volymprodukt
4.
Linjer och plan
10
5.
Matriser
13
6.
Vektorrum, linjärt oberoende
17
7.
Linjärt beroende/oberoende
18
8.
Bas och Dimension
18
9.
Euklidiska rum
19
Rn
och
3
Mn×1
7
10.
Mer om ortogonal projektion. Minstakvadratmetoden
21
12.
Determinanter
22
13.
Linjära avbildningar
24
14.
Sammansatta och inversa avbildningar
25
15.
Nollrum, Värderum och Dimensionssatsen
25
16.
Isometriska och symmetriska avbildningar
25
17.
Basbyte
26
19.
Egenvärden, Egenvektorer, Spektralsatsen
27
20.
Kvadratiska former
28
21.
Andragradskurvor, Andragradsytor och System av Dierentialekvationer
30
Detta är teoridelen av föreläsningarna i Linjär Algebra för U,D,IT. Varje kapitel svarar mot
en föreläsning (de föreläsningsnummer som inte nns med, d.v.s. 11, 18 och 22 är repetitionsföreläsningar). Detta material kommer behandlas ganska fort på föreläsningarna för att ge tid åt
exempel. Det förväntas att ni läser på materialet inför varje föreläsning i detta häfte i förväg.
0. Notation
M är en väldenierad samling element. Om M1 , M2 är mängder så denierar vi:
M1 ⊂ M2 : M1 är en delmängd till M2 , om varje punkt i M1 också ligger i M2 ,
M1 ∩ M2 : M1 snitt M2 , mängden av punkter som ligger i både M1 och M2 ,
M1 ∪ M2 : M1 union M2 , mängden av punkter som ligger i minst ett av M1 eller M2 ,
M1 \ M2 : M1 minus M2 , mängden av punkter som ligger i M1 men inte i M2 .
En mängd
•
•
•
•
Vi skriver också
y∈M : y
tillhör
M,
eller
y
är en punkt i
M.
Kanske rätt självklart, men två mängder sägs vara lika om de innehåller samma element. Den
tomma mängden är mängden som inte har några element alls, och betecknas
era mängder
M1 , M2 , . . . , Mk ,
k
[
∅.
och då skriver vi också:
k
\
M j = M1 ∪ M2 ∪ . . . ∪ M k ,
j=1
Mj = M1 ∩ M2 ∩ . . . ∩ Mk .
j=1
Ofta betecknas mängder på följande sätt:
{x ∈ M : P (x)} = {x : P (x)},
1
Ibland har man
2
TOMAS SJÖDIN
som står för den delmängd till
skrivsättet används då
M
M
som består av de
är underförstådd). T.ex.
x i M som uppfyller villkoret P (x) (det senare
[a, b] = {x ∈ R : a ≤ x ≤ b}. Om en mängd är
ändlig skriver man ofta också
{x1 , x2 , . . . , xk },
där
xi :a
är elementen i mängden.
Funktioner/Avbildningar: En funktion/avbildning f
regel som för varje
x∈M
ger exakt ett värde
f (x) ∈ N ,
från en mängd
M
till en mängd
N
är en
vi skriver
f : M → N.
M
denitionsmängden till f .
kallas för
Följande begrepp är också användbara ibland.
En funktion
f :M →N
som ovan sägs vara:
injektiv om det för varje par a, b ∈ M , a 6= b gäller att f (a) 6= f (b).
surjektiv om det för varje y ∈ N nns (minst) ett x ∈ M med y = f (x).
bijektiv om den är både injektiv och surjektiv.
Värdemängden V (f ) till f är mängden av alla punkter y ∈ N sådana att det nns x ∈ M
•
•
•
med
y = f (x).
1. Linjära Ekvationssystem
1.1.
Linjära ekvationer.
En linjär ekvation för de obekanta
x1 , x2 , . . . , xn
är en ekvation på
formen
a1 x1 + a2 x2 + . . . + an xn = b,
där
a1 , a2 , . . . , an
samt
b
är xa reella tal. T.ex. är
3x1 − x2 = 12
en linjär ekvation för de obekanta
x1 , x2 .
Å andra sidan är
√
3 x1 − x2 = 0
inte en linjär ekvation på grund av roten.
Med en lösning till en ekvation menar vi en uppsättning reella tal
x1 , x2 , . . . , xn
sådana att när
de sätts in i ekvationen gäller likheten.
Det som kännetecknar en linjär ekvation är dessa två egenskaper: Om a1 x1 +a2 x2 +. . .+an xn =
b1 och a1 y1 + a2 y2 + . . . + an yn = b2 samt k ∈ R då gäller att a1 (x1 + y1 ) + a2 (x2 + y2 ) + . . . +
an (xn + yn ) = (b1 + b2 ) och a1 (kx1 ) + a2 (kx2 ) + . . . + an (kxn ) = kb1 . D.v.s. vi kan addera och
multiplicera lösningar. (Testa och se vad som händer med den ickelinjära ekvationen ovan för att
förstå skillnaden!)
1.2.
Linjära ekvationssystem.
x1 , x2 , . . . , xn är ett
m ekvationer och n obekanta
Ett linjärt ekvationssystem för de obekanta
antal linjära ekvationer. Ett allmänt sådant system av ekvationer med
är alltså på formen









där
aij :a
och
bi :a
är xa reella
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
.
.
.
am1 x1 + am2 x2 + . . . + amn xn = bm ,
tal, och xi :a de obekanta.
Med en lösning till ett sådant ekvationssystem menar vi en uppsättning reella tal
x1 , x2 , . . . , xn
sådana att när de sätts in i ekvationerna ovan gäller likhet simultant i alla ekvationer.
Alla sådana ekvationssystem kan lösas med hjälp av tre
elementära radoperationer:
Radoperation 1: Byta plats på två ekvationer,
Radoperation 2: Multiplicera en av ekvationerna med en konstant
c 6= 0,
Radoperation 3: Addera en konstant multipel av en ekvation till en annan.
LINJÄR ALGEBRA
3
Strategin för att lösa ett sådant system är att med hjälp av ovanstående operationer via så
kallad Gausselimination skapa ett ekvivalent system (d.v.s. med samma lösningar) som har ett
trappsteghsliknande utseende där vi enkelt successivt kan få fram lösningarna.
Följande är också sådant man bör övertyga sig om:
Det nns till varje ekvationssystem som ovan endast tre möjligheter. Antingen nns det en unik
lösning, ingen lösning alls eller så nns det oändligt många lösningar.
Om alla
bi :a
är
0
kallas ekvationssystemet för
homogent.
Ett ekvationssystem som är homogent har alltid minst en lösning, kallad den triviala lösningen:
x1 = x2 = . . . = xn = 0.
Om ett ekvationssystem saknar lösning är det alltid möjligt att skapa ett ekvivalent system som
har en ekvation på formen
0=c
där
c 6= 0.
När det gäller de med oändligt antal lösningar, när vi skapat vår trappstegsform kommer det
vara så att de nollskilda ekvationerna är färre än antalet obekanta, och såvida vi inte är i situationen
att det inte nns några lösningar alls, så måste vi införa parametrar på lämpligt sätt. Antalet
parametrar som behövs är helt enkelt antalet obekanta - antalet nollskilda ekvationer (när vi
har trappstegsform).
2. Geometriska vektorer, rummen
Rn
och
Mn×1
En (geometrisk) vektor är ett objekt som har storlek och riktning, men inte någon naturlig
startpunkt. Om vi i ett plan har två punkter
till
Q,
ritad som en pil som startar i
P
P
och
och slutar i
Q, då låter vi den riktade sträckan från P
−−→
Q, betecknas P Q. Vi låter nu mängden av
alla sådana riktade sträckor med samma storlek och riktning (det är alltså underförstått att vi
kan mäta detta) betecknas
−−→
[P Q].
Detta tar vi som denition av vektorer i planet. Givetvis kan
motsvarande också göras i ett tredimensionellt rum. (För de som vet vad en ekvivalensrelation
är kan vi säga att ha samma storlek och riktning är en ekvivalensrelation, och en vektor är helt
enkelt en ekvivalensklass av riktade sträckor). Notera att det för varje vektor
en unik punkt
Q
sådan att
En speciell vektor är
−−→
u = [P Q].
nollvektorn,
riktning). Denna betecknas
0,
Vi inför även för en vektor
P
och
Q.
och punkt
P
nns
som har längd noll (och alltså inte kan sägas ha någon
och vi har
−−→
u = [P Q]
u
−−→
0 = [P P ].
längden/normen
|u|
att vara avståndet mellan punkterna
4
TOMAS SJÖDIN
För dessa vektorer inför man nu två operationer. Addition av två vektorer, samt multiplikation
med skalär (=reellt tal).
Addition av två vektorer
−→
u = [P R]
−−→
v = [RQ] denieras som
−→
−−→
−−→
u + v = [P R] + [RQ] = [P Q].
och
ku är den unika vektor som uppfyller |ku| = |k||u| och
u om k > 0, ku har motsatt riktning om k < 0. Om k = 0 är ku = 0.
−u := −1u, d.v.s. den vektor som har samma storlek men motsatt
Multiplikation med skalär denieras så att
ku
har samma riktning som
Vi inför även beteckningen
riktning.
Det är lätt att inse att följande räknelagar gäller:
Sats 1. För alla vektorer u, v, w (i ett plan eller rum) och skalärer λ, µ gäller följande:
(a)
(b)
(c)
(d)
(e)
(f )
(g)
(h)
u + v = v + u,
u + (v + w) = (u + v) + w,
u + 0 = u,
u + v = 0 ⇔ u = −v ,
1u = u,
λ(µu) = (λµ)u,
(λ + µ)u = λu + µu,
λ(u + v) = λu + λv .
Tack vare lag
(b), (f )
ovan kommer vi skriva
u + v + w, λµu
eftersom det inte spelar någon roll
i vilken ordning vi tar dessa operationer.
2.1.
Baser och Koordinater.
Nu har vi den geometriska denitionen av vektorer klar, och den
viktigaste algebraiska strukturen för dessa klara. Vektorerna i planet/rummet med denna struktur
LINJÄR ALGEBRA
5
utgör exempel på vad som kallas vektorrum som är den typ av rum som linjär algebra handlar om.
Det vi nu vill göra är att på något systematiskt sätt införa siror för vektorer för att överföra dessa
geometriska konstruktioner till algebra. Den idé som Descartes (även kallad Kartesius) ck var att
införa koordinataxlar för att kunna ge punkter koordinater (därför kallas dessa koordinatsystem
för kartesiska koordinater).
Denition 2.
En ordnad uppsättning vektorer
u = (u1 u2 ) i ett plan (u = (u1 u2 u3 ) i ett rum)
v i planet (rummet) på entydigt sätt kan
sägs utgöra en bas till planet (rummet) om varje vektor
skrivas på formen
v = x1 u1 + x2 u2 =: u
x1
x2
 
x1
v = x1 u1 + x2 u2 + x3 u3 =: u x2  .
x3

Det är tack vare att en bas till planet (rummet) består av två (tre) vektorer som vi säger att
ett plan är två-dimensionellt och ett rum tre-dimensionellt.
•
Per denition har alltså varje vektor unika koordinater i en bas, och varje sådan kolumnmatris svarar mot en unik vektor, så det nns en
1−1
korrespondens mellan vektorer och
dessa koordinatmatriser.
•
Notera att två vektorer i ett plan (tre vektorer i ett rum) utgör en bas om och endast om
de inte ligger på en gemensam linje (i ett gemensamt plan).
Koordinater för punkter.
2.1.1.
För att ge punkter koordinater behöver vi förutom en bas också
en x referenspunkt i vårt plan/rum, som vi kallar origo och betecknar denna
Om
P
O.
är en punkt i planet/rummet och vi har
−−→
x
[OP ] = u 1
x2
respektive
 
x1
−−→
[OP ] = u x2 
x3
då säger vi att
P
har koordinater
(x1 , x2 ) respektive (x1 , x2 , x3 ) i detta koordinatsystem (observera
u och O).
att detta alltså nu beror både på valet av
När det gäller de algebraiska operationerna vi har infört blir dessa mycket enkla om vi uttrycker
alla vektorer i samma bas
u:
a1
b1
a1 + b1
u
+u
=u
,
a2
b2
a2 + b2
a1
ka1
ku
=u
,
a2
ka2
respektive
 
 


a1
b1
a1 + b1
u a2  + u b2  = u a2 + b2  ,
a3
b3
a3 + b3
•
 


a1
ka1
ku a2  = u ka2  .
a3
ka3
Det vill säga för att addera två vektorer adderar vi bara deras koordinater, och för att
multiplicera en vektor med en skalär multiplicerar vi bara varje koordinat med denna
skalär.
•
Det är ganska lätt att övertyga sig om att detta stämmer överens med den geometriska
denitionen av addition och multiplikation med skalär som vi införde ovan.
6
TOMAS SJÖDIN
2.1.2.
ON-baser och högersystem.
(e1 e2 e3 )
Om vi valt vektorerna
e = (e1 e2 )
i ett rum så att dessa vektorer är parvis ortogonala (vinkel
de har längd
1,
då sägs de utgöra en
i ett plan respektive
π/2
e =
mellan dem) samt att
ortonormal bas (ON-bas) till planet/rummet.
högeroriente-
Om axlarna dessutom är orienterade som i nedanstående gur sägs basen vara
rad.
2.2.
Rummen
varje punkt
P
Rn
och
Mn×1 .
Vi har ovan sett att om vi väljer origo och en bas så har vi att
i ett plan kan identieras med sina koordinater
sina koordinater
a1
,
a2
(a1 , a2 ),
och varje vektor
u
med
samt att vi hade enkla uttryck för våra algebraiska operationer så fort vi
uttryckt allt i denna xa bas. Samma sak kan sägas även i tre dimensioner, och man kan givetvis
tänka sig att man gjorde motsvarande även i högre dimensioner, även om det givetvis inte går att
visualisera på samma sätt. Detta leder till följande denition:
Denition 3.
Mängden av alla tal
n-tupler (a1 , a2 , . . . , an ), där a1 , a2 , . . . , an ∈ R, betecknas Rn .
På samma sätt betecknar vi mängden av alla kolumnmatriser


a1
 a2 
 
 .. 
.
an
med
Mn×1 .
Vårt främsta motiv för att införa dessa rum redan här är att det gör att vi enklare kan formulera
satser gemensamt för två och tre dimensioner, och behöver inte behandla dessa separat. Det är än
så länge främst
n = 2, 3
vi är intresserade av.
Vi inför också följande operationer på
Rn
respektive
Mn×1 .
(a1 , a2 , . . . , an )+(b1 , b2 , . . . , bn ) = (a1 +b1 , a2 +b2 , . . . , an +bn ), k(a1 , a2 , . . . , an ) = (ka1 , ka2 , . . . , kan ),
    

  

a1
b1
a1 + b1
a1
ka1
 a2   b2   a2 + b2 
 a2   ka2 
    

  

 ..  +  ..  =  ..  , k  ..  =  ..  .
. .  . 
.  . 
an
bn
an + bn
an
kan
n
Rummen R och Mn×1 tillsammans med ovanstående operationer är exempel på det man kallar
vektorrum som vi ska deniera allmänt senare i kursen. Här kanske det är värt att notera att
då vi jobbar med geometriska problem är det givetvis viktigt att skilja på punkter och vektorer,
LINJÄR ALGEBRA
och vi använder främst element i
med
e
Rn
7
för att beteckna punkter och element i
Mn×1
(egentligen
framför för att beteckna basen om man ska vara noga) som vektorer. Då kan det ju tyckas
konstigt att vi inför addition och multiplikation med skalär för punkter. Nu är det så att det bara
är i dessa geometriska problem (som handlar om linjer och plan i två och tre dimensioner främst)
som vi kommer tala om punkter, annars kommer vi enbart i kursen tala om vektorer. Det nns
en uppenbar
1−1
korrespondens mellan punkter och motsvarande vektor som startar i origo.

Dessutom om vi identierar
(a1 , a2 , . . . , an )
med

a1
 a2 
 
 .. ,
.
an
på alla sätt. Anledningen till att vi vill ha båda är att
så är ju rummen ovan helt ekvivalenta
Rn
är det i särklass vanligaste rummet
i matematiklitteraturen, men när vi sedan räknar med matriser är det rätta sättet att skriva
vektorer som kolumnmatriser. I princip skulle det kanske vara bättre att göra detta rakt igenom
i kursen och skippa
Rn ,
men det som talar starkt för
Rn
är att det är betydligt smidigare att
Nedan kommer vi formulera alla
begrepp/satser enbart för Rn , och givetvis nns det en direkt motsvarighet för Mn×1 .
Dessa fall lämnas åt läsaren att formulera, och vi kommer hämningslöst använda dessa
motsvarande satser senare i kursen.
skriva dessa vektorer, samt att det är mer standardiserat.
Notera också att jämfört med kursboken vänder vi till stor del upp och ner på materialet, för vi
inför våra operationer nedan på
Rn ,
och ger sedan geometriska tolkningar av dem, medan boken
ger geometriska denitioner och visar räknelagarna utifrån dessa. Det är också värt att notera att
rent geometriskt betyder det att vi lägger ut våra basvektorer
ei
så att
e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, 0, . . . , 0, 1),
och dessa kallas standardbasen till
Rn .
Vidare lägger vi origo
O
i punkten
(0, 0, . . . , 0).
3. Skalärprodukt, Vektorprodukt, Volymprodukt
Vi kommer här införa tre typer av produkter, och vi kommer införa dessa via formler i
Rn .
Om vi i ett plan eller rum vill införa dessa kan vi göra detta genom att först välja en lämplig
bas
e,
och identiera vektorer med dess koordinater. (T.ex. i ett plan identierar vi
e
a1
a2
med
(a1 , a2 ) i R2 ).
Det är dock så att vi inte kan välja dessa baser hur som helst, utan det nns krav för att
formlerna ska vara rätt.
Mer precist, för skalärprodukten (som är meningsfull i alla dimensioner) måste basen vara en
ON-bas, och för kryssprodukten och volymprodukten (som bara är denierade i tre dimensioner)
måste basen vara både ON och högerorienterad.
3.1.
Skalärprodukt.
torer.
R
n
Vi kommer nu i
Rn
införa den så kallade skalärprodukten mellan två vek-
tillsammans med denna utgör då ett exempel på ett så kallat Euklidiskt rum som vi ska
deniera mer allmänt senare i kursen. Namnet skalärprodukt kommer av att den tar två vektorer
och ger en skalär (alltså inte en vektor)!
(a1 , a2 , . . . , an ) • (b1 , b2 , . . . , bn ) := a1 b1 + a2 b2 + . . . + an bn .
(a1 , a2 , . . . , an ) via
q
|(a1 , a2 , . . . , an )| := a21 + a22 + . . . + a2n .
Vi denierar även längden av en vektor
Igen är det enkelt att se via Pythagoras sats att detta verkligen överensstämmer med längden av
Men
detta beror på både att våra basvektorer har längd 1 och att de är ortogonala mot
varandra! Följande sats gäller för skalärprodukten:
Sats 4. Om u, v, w ∈ Rn och λ ∈ R så gäller:
motsvarande geometriska vektor om vi infört säg ett koordinatsystem i planet som ovan.
(a)
u • v = v • u,
8
TOMAS SJÖDIN
(b)
(c)
(d)
(e)
u • (v + w) = u • v + u • w,
u • (λv) = (λu) • v = λ(u • v),
u • u = |u|2 ,
u • u = 0 ⇔ u = 0.
Följande viktiga olikheter gäller för skalärprodukten:
Schwarz olikhet: |x̄ • ȳ| ≤ |x̄||ȳ|.
Triangelolikheten: |x̄ + ȳ| ≤ |x̄| + |ȳ|.
3.1.1.
Geometrisk tolkning av skalärprodukten.
då denierar vi vinkeln
θ
Antag att vi har två nollskilda vektorer
mellan dessa att vara den unika vinkel i intervallet
[0, π]
u, v i Rn ,
sådan att
u • v = |u||v| cos(θ).
Först och främst är det enkelt att visa att
sådant
θ.
−|u||v| ≤ u • v ≤ |u||v|,
så det nns verkligen ett unikt
För att se att detta stämmer överens geometriskt antag att de två vektorerna ligger
i ett plan där vi infört koordinataxlar som ovan, och antag för enkelhets skull att den ena har
koordinaterna
a1
a2
säger är att vinkeln
1
där a1 , a2 > 0 och den andra
(d.v.s. vektorn e1 ). Vad ovanstående då
0
p
θ mellan dessa ges av cos(θ) = a1 / a21 + a22 , d.v.s. närliggande sida genom
hypotenusan, vilket vi ju känner igen att det stämmer.
Vi säger också att två vektorer
π/2,
d.v.s. om
3.1.2.
u • v = 0.
u, v
är
ortogonala, skrivet u ⊥ v, om vinkeln mellan dem är
Ortogonal projektion av en vektor på en annan vektor (linje).
LINJÄR ALGEBRA
Om vi som i bilden ovan har två vektorer
u, v
där
v 6= 0
9
då kan vi på entydigt sätt skriva
u
på
formen
u = u⊥v + u||v ,
där
u⊥v
v , och u||v är parallell med v .
u||v = kv och u⊥v = u − kv . Så (u − kv) • v = 0,
är ortogonal mot
Detta betyder att
u||v =
3.2.
Kryssprodukt (vektorprodukt).
vilket ger
k=
u•v
|v|2 . Eller
u•v
v.
|v|2
Denna produkt är endast denierad i tre dimensioner.
Vi denierar
(a1 , a2 , a3 ) × (b1 , b2 , b3 ) = (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ).
R3 och får en ny vektor i R3 . Det är enkelt att visa följande:
Om u = kv då gäller att u × v = 0.
u • (u × v) = 0 och v • (u × v) = 0. Det vill säga kryssprodukten ger en vektor som är ortogonal
mot både u och v .
Notera alltså att vi tar två vektorer i
3.2.1.
Geometrisk tolkning, högersystem.
Vi såg ovan att kryssprodukten av två vektorer
u, v i R3
gav en ny vektor som är ortogonal mot båda dessa. Angående storleken kan vi säga att vi har
följande
|u × v| = |u||v| sin(θ),
där
θ
återigen är vinkeln mellan
u
och
v.
Dessutom kan man se att den pekar i den riktning som
anges av den så kallade högerhandsregeln. Man säger att
u, v, u×v
utgör ett så kallat högersystem.
Dessa två egenskaper är enkelt att inse att de karaktäriserar kryssprodukten unikt. Om de två
vektorerna
u, v
inte är parallella (om de är det är ju kryssprodukten nollvektorn) då nns det ju
bara två riktningar att välja på sådana att de är ortogonala mot bägge dessa vektorer. Storleken
ges av formeln ovan, och högerhandsregeln ger oss en av dessa två riktningar.
För att motivera ovanstående påstående, antag för enkelhets skull att u = (1, 0, 0) och v =
(b1 , b2p
, 0) med b1 , b2 > 0 Då gäller enligt ovanstående att u × v = (0, 0, b2 ). Notera nu att b2 =
sin(θ) b21 + b22 = sin(θ)|v|, samt att denna vektor pekar i positiva e3 -riktningen.
Vidare kan vi säga att uttrycket |u||v| sin(θ) helt enkelt är arean av det parallellogram som spänns upp av u och v .
10
3.3.
TOMAS SJÖDIN
Trippelprodukt (volymprodukt).
Givet tre vektorer
u, v, w i R3 ,
Denna produkt tar tre vektorer och ger ett reellt tal.
då är trippelprodukten mellan dessa uttrycket
(u × v) • w.
Observera att denna produkt alltså beror på ordningen av dessa vektorer. Rent geometriskt är
detta tal
±
volymen av den parallellepiped som de tre vektorerna spänner upp. Vi har även
följande resultat:
Sats 5.
(u × v) • w > 0 om och endast om u, v, w utgör ett högersystem. Om (u × v) • w = 0, då
ligger alla tre vektorer i ett gemensamt plan.
4. Linjer och plan
4.1.
Linjer på parameterform i Rn .
LINJÄR ALGEBRA
En linje
L
11
i planet/rummet ses enkelt vara unikt bestämd om vi vet en punkt
v
en riktningsvektor
som är parallell med denna. För varje punkt
P
på
L
P0
på den, samt
nns då unikt tal
t
så
att
−−→
−−→
[OP ] = [OP0 ] + tv,
och vidare för varje
t gäller att den unika punkt P
L unikt.
som uppfyller denna ekvation ligger på
L, vilket
ger att detta bestämmer
Rn (då vi nu tillåter även n > 3) då mot(v1 , v2 , . . . , vn ), och de punkter (x1 , x2 , . . . , xn )
Om vi uttrycker detta i koordinater, så att vi hamnar i
−−→
svaras [OP0 ]
av någon vektor
som ligger på
L
(a1 , a2 , . . . , an ), v
av
är de som kan skrivas på formen
(x1 , x2 , . . . , xn ) = (a1 , a2 , . . . , an ) + t(v1 , v2 , . . . , vn ) t ∈ R.
Detta kallas att linjen
4.2.
om
Linjer i planet.
v1 6= 0
L
är given på parameterform (t kallas för parameter).
Om vi har en linje
L i R2 ,
given av
(x1 , x2 ) = (a1 , a2 ) + t(v1 , v2 ),
då kan vi
lösa ut
x2 = a2 + tv2 = a2 +
x1 − a1
v2 = kx1 + m.
v1
k kallas för riktningskoecienten.
v1 = 0 svarar mot att linjen är parallell med x2 −axeln, och dessa linjer kan inte skrivas
Detta kallas att linjen är given på riktningskoecientsform, och
Notera att
på denna form.
Det är också lätt att se att en linje
n
och en punkt
P0
L i planet är unikt bestämd om vi känner till en normalvektor
P ligger då på L om och endast om
på linjen. En punkt
−−→
n • [P0 P ] = 0.
L är given på normalform. Om vi är i R2 och n = (n1 , n2 ) är normalvektor
en x punkt på L, då ges alltså linjen av ekvationen
Man säger då att linjen
till
L
och
(a1 , a2 )
är
(n1 , n2 ) • (x1 − a1 , x2 − a2 ) = 0 ⇔ n1 x1 + n2 x2 = n1 a1 + n2 a2 .
Det sista uttrycket sägs vara linjen skriven på
normalform.
12
TOMAS SJÖDIN
4.3.
Plan på parameterform i Rn .
Ett plan
u, v
Π
i rummet ses enkelt vara bestämt av att vi vet en punkt
som är parallella med
Π
P0
i
Π
samt två vektorer
men inte parallella med varandra. Då ligger en punkt
endast om det nns två tal (parametrar)
s, t
P
i
Π
om och
sådana att
−−→
−−→
[OP ] = [OP0 ] + su + tv.
Rn kan vi göra motsvarande med koordinater. Om vi låter (a1 , a2 , . . . , an ) vara en x punkt ,
och u = (u1 , u2 , . . . , un ), v = (v1 , v2 , . . . , vn ) där u och v inte är parallella, då kallar vi mängden
av alla (x1 , x2 , . . . , xn ) som uppfyller
I
(x1 , x2 , . . . , xn ) = (a1 , a2 , . . . , an ) + s(u1 , u2 , . . . , un ) + t(v1 , v2 , . . . , vn ) s, t ∈ R
för ett plan på parameterform.
LINJÄR ALGEBRA
4.4.
Plan på normalform i
bestämt om vi vet en punkt
endast om
−−→
n • [P0 P ] = 0.
R3 .
P0 i Π
13
I rummet är det också lätt att se att ett plan
samt en normalvektor
Om vi är i
R3
n.
En punkt
P
Π är unikt
Π om och
ligger då i
kan detta i koordinater (precis som för linjer i planet)
skrivas som en ekvation
n1 x1 + n2 x2 + n3 x3 = n1 a1 + n2 a2 + n3 a3 ,
där
(n1 , n2 , n3 )
är normalvektorn och
(a1 , a2 , a3 )
en x punkt i
Π.
5. Matriser
Denition 6.
Om vi för varje par
ij
A = (aij )r×k
för en
r × k−matris
över
En
r × k−matris
har
r
1 ≤ i ≤ r, 1 ≤ j ≤ k har fått


a11 a12 . . . a1k
 a21 a22 . . . a2k 


= .

.
.
..
.
.
 ..

.
.
.
ar1 ar2 . . . ark
med
tal
aij ∈ R
R.
rader och
k
kolumner. En matris som bara har en rad,
(a11 a12 · · · a1k ),
kallas en radmatris, och en matris som bara har en kolumn,


a11
 a21 


 ..  ,
 . 
ar1
kallas en kolumnmatris.
En
r × r−matris
Denition 7.
då kallar vi
kallas kvadratisk.
• (aij )r×k = (bij )r×k om
• (aij )r×k + (bij )r×k = (aij + bij )r×k ,
• λ(aij )r×k = (λaij )r×k ,
och endast om
aij = bij
för alla
ij ,
14
TOMAS SJÖDIN
• (aij )r×m · (bij )m×k = (cij )r×k ,
där
cij = ai1 b1j + ai2 b2j + . . . + aim bmj .
Denitionen av matrismultiplikation förtjänar att titta lite närmare på. Det är svårt att än
så länge motivera denna närmare, mer än att säga att vi med denna får en så kallad associativ
multiplikation:
A(BC) = (AB)C .
När vi sedan börjar studera linjära avbildningar kommer vi se
varför detta är rätt denition.
Det är dock värt att notera följande. För en radmatris gånger en kolumnmatris gäller:
a1
Detta är en
a2
1 × 1−matris,
···
och normalt identierar vi dessa med reella tal. D.v.s. det är precis
samma sak som skalärprodukten
cij
Talet
med kolumn
 
b1


 b2 
an  .  = (a1 b1 + a2 b2 + . . . + an bn ).
 .. 
bn
(a1 , a2 , . . . , an ) • (b1 , b2 , . . . , bn ) i Rn .
ovan är helt enkelt ovanstående multiplikation mellan rad
j
från matrisen
i
från matrisen
(aij )r×m
(bij )m×k .
Vi inför även beteckningarna:
Nollmatris:

0 = 0r×k
0 0
 0 0

= . .
 .. ..
0 0
...
...
..
.
...

0
0 

. ,
. 
.
0
−A = −1A
Enhetsmatris (r
× r):

1
 0

I = Ir =  .
 ..
0
0
1
...
...
.
.
.
..
0
...
.

0
0 

. .
. 
.
1
Följande sats gäller också. (Beviset bygger helt enkelt på att man inför beteckningar för alla
ingående matriser och jämför höger och vänsterledet i varje ekvation, vilket lämnas till läsaren/kursboken).
Sats 8. Nedan är A, B, C matriser så att operationerna är väldenierade och λ, µ ∈ R.
•
•
•
•
•
•
•
•
•
•
•
•
•
•
A + B = B + A,
(A + B) + C = A + (B + C),
A + 0 = A,
A + (−A) =: A − A = 0,
1A = A,
λ(µA) = (λµ)A,
(λ + µ)A = λA + µA,
λ(A + B) = λA + λB ,
(AB)C = A(BC),
(λA)B = λ(AB),
A(B + C) = AB + AC ,
(B + C)A = BA + CA,
A0 = 0, 0A = 0,
AI = A, IA = A.
OBS!
AB 6= BA
Denition 9.
normalt även om bägge sidor är väldenierade.
A = (aij )r×k . Då denierar vi transponatet At till A att vara k × r−matrisen
t
t
t
given av A = (aij )k×r där aij = aji (1 ≤ i ≤ k , 1 ≤ j ≤ r ). (D.v.s. A fås från A genom att byta
plats på rader och kolumner).
t
Låt
LINJÄR ALGEBRA
15
Sats 10.
•
•
•
•
(A + B)t = At + B t ,
(λA)t = λ(At ),
(At )t = A,
(AB)t = B t At .
Radoperationer på matriser. Precis som för linjära ekvationssystem kan man utföra tre
elementära radoperationer på en matris:
5.1.
Radoperation 1: Byta plats på två rader,
c 6= 0,
Radoperation 2: Multiplicera en rad med en konstant
Radoperation 3: Addera en konstant multipel av en rad till en annan rad.
Två matriser
A, B
kallas
radekvivalenta, skrivet A ∼ B , om den ena kan fås från den andra
via ett ändligt antal elementära radoperationer. (Notera att alla radoperationer är reversibla, så
kan vi ta oss från den ena till den andra på detta sätt kan vi göra det åt andra hållet också. För
de som vet vad en ekvivalensrelation är kan vi också säga att det är lätt att visa att
∼
utgör en
sådan).
Matrisnotation för linjära ekvationssystem.
5.2.
Av era skäl (främst platsbesparande)
kommer vi fortsättningsvis att skriva om linjära ekvationssystem på matrisform och lösa dessa
(med samma strategi som tidigare) i matrisen.
Givet ett linjärt ekvationssystem









inför vi systemets
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
.
.
.
am1 x1 + am2 x2 + . . . + amn xn = bm ,
totalmatris

a11
 a21

A= .
 ..
am1
Vi kommer kalla det som står till höger om
om
|
a12
a22
...
...
a1n
a2n
.
.
.
..
.
.
.
am2
...
.
amn

b1
b2 

. .
. 
.
bm
| för högersidan i matrisen, och det som står till vänster
för vänstersidan.
Normalt kommer vi alltså forsättningsvis överföra ekvationssystemet till dess totalmatris och utföra de elementära radoperationerna där, men det är viktigt att komma ihåg att detta representerar
motsvarande operationer på ekvationssystemet. Jag rekommenderar att man i alla fall i början prövar ett par exempel där man löser systemet både med ekvationerna direkt och med matrisen, eller
åtminstone att när man fått fram sin slutliga matris går tillbaka till ekvationsformen.
Strategin för att lösa ett sådant system är att skapa en så kallad trappstegsmatris av vänstersidan via elementära radoperationer:
Denition 11.
om
aij 6= 0
och
Ett element
aµν = 0
aij i vänstersidan av ovanstående
µ ≥ i, ν ≤ j med (µ, ν) 6= (i, j).
matris
A
kallas ett pivotelement
för alla
Om alla rader vars vänstersida ej är identiskt noll står över alla de rader där dessa är identiskt
noll, samt att alla rader vars vänstersidor är nollskilda har ett pivotelement, då säger vi att
systemmatrisen är på
trappstegsform.
Så t.ex. är följande system på trappstegsform:

1 2 3
 0 1 2
0 0 0

2
3 ,
0
16
TOMAS SJÖDIN
medan följande inte är det:

1 2 3
 0 1 2
0 1 0

2
3 .
0
Poängen är att det första systemet är enkelt att skriva ner lösningarna till. Detta motsvarar ju
systemet

 x1 + 2x2 + 3x3 = 2
0x1 + 1x2 + 2x3 = 3

0x1 + 0x2 + 0x3 = 0
I detta fall nns det oändligt många lösningar, och vi kan skriva dessa på formen

 x1 = −4 + t
x2 = 3 − 2t , t ∈ R.

x3 = t
Jag anser att det bästa sättet att lära sig ovanstående om linjära ekvationssystem helt enkelt är
genom att titta på en del exempel, och efter det kommer nog följande sats framstå som ganska
självklar.
Sats 12. Alla ekvationssystem är radekvivalenta med ett ekvationssystem på trappstegsform.
5.3.
Matriser och ekvationssystem.









Ett linjärt ekvationssystem
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
.
.
.
am1 x1 + am2 x2 + . . . + amn xn = bm ,
är ekvivalent med följande matrisekvation:

a11
 a21

 ..
 .
am1
a12
a22
...
...
.
.
.
..
am2
...
Denition 13.
kallad
A:s
.
En







  
a1n
x1
a11
a12
a1n
b1
 x2 
 a21 
 a22 
 a2n   b2 
a2n 







  
  ..  = x1  ..  + x2  ..  + . . . + xn  ..  =  ..  .
.
.
 . 
 . 
 . 
 .   . 
.
amn
xn
am1
am2
amn
bm
n × n−matris A
sägs vara inverterbar om det nns en
n × n−matris A−1 ,
invers, sådan att
AA−1 = A−1 A = In .
För att hitta inversen till
A
(om den nns) ställer man upp systemmatrisen
radoperationer tills man fått ett radekvivalent system
att göra sådana radoperationer om och endast om
A
(In |B)
och då är
har en invers).
Sats 14. Låt A vara en n × n−matris. Då är följande ekvivalent:
(a)
(b)
(c)
A−1 existerar,
AX = B har entydig lösning X
AX = 0 har endast den triviala
Sats 15.
•
•
•
•
(A−1 )−1 = A,
(At )−1 = (A−1 )t ,
(AB)−1 = B −1 A−1 ,
(Ak )−1 = (A−1 )k =: A−k .
för varje n × 1−matris B ,
lösningen X = 0.
B = A−1
(A|In )
och gör
(det går alltså
LINJÄR ALGEBRA
17
6. Vektorrum, linjärt oberoende
Denition 16.
Låt
V
vara en icketom mängd, vars element vi kallar vektorer, sådan att vi
denierat två operationer
•
•
Om
u, v ∈ V ⇒ u + v ∈ V,
λ ∈ R, u ∈ V ⇒ λu ∈ V.
dessa uppfyller följande axiom, då säger vi att V är ett vektorrum (över R).
• u + v = v + u,
• u + (v + w) = (u + v) + w,
• Det nns unikt element 0 ∈ V s.a. u + 0 = u för alla u ∈ V,
• Till varje u ∈ V nns unik additiv invers −u s.a. u + (−u) =: u − u = 0,
• 1u = u,
• λ(µu) = (λµ)u,
• (λ + µ)u = λu + µu,
• λ(u + v) = λu + λv.
Addition av vektorer:
Multiplikation med skalär:
OBS! Det är lätt att kontrollera att följande gäller
u + v = u ⇒ v = 0,
0u = 0,
−u = −1u.
Observera också att begrepp som längd, vinkel etc. inte har någon innebörd i ett allmänt vektorrum.
Exempel 17. Det är lätt att veriera att Rn som vi denierat tidigare utgör ett vektorrum. Likaså
utgör mängden Mr×k bestående av alla r × k−matriser ett vektorrum. Slutligen, om vi låter Pn
beteckna alla polynom av grad högst n, d.v.s. alla polynom på formen a0 + a1 x + a2 x2 + . . . + an xn ,
då utgör detta ett exempel på ett vektorrum. Addition/multiplikation med skalär är i detta fall
denierat som följer:
(a0 +a1 x+a2 x2 +. . . an xn )+(b0 +b1 x+b2 x2 +. . .+bn xn ) = (a0 +b0 )+(a1 +b1 )x+(a2 +b2 )x2 +. . .+(an +bn )xn ,
λ(a0 + a1 x + a2 x2 + . . . an xn ) = (λa0 ) + (λa1 )x + (λa2 )x2 + . . . (λan )xn .
Denition 18.
En icketom delmängd
samma operationer som de i
(a)
(b)
V själv
u, v ∈ U ⇒ u + v ∈ U,
λ ∈ R, u ∈ U ⇒ λu ∈ U.
U
till
V
kallas ett delrum (underrum) till
är ett vektorrum. D.v.s.
U
V
om
U
med
är ett delrum om och endast om
Exempel 19. Självklart är varje vektorrum ett delrum till sig själv, och dessutom är det så kallade
nollrummet som bara består av nollvektorn ett delrum till varje vektorrum.
Ett annat exempel är att ta V = R3 och U = {(x1 , x2 , 0) : x1 , x2 ∈ R}, då är det lätt att veriera
att U är ett delrum till V.
Linjärkombinationer.
Denition 20. Låt V vara ett vektorrum och v1 , v2 , . . . , vn ∈ V. Om λ1 , λ2 , . . . , λn ∈ R då kallas
6.1.
vektorn
λ1 v 1 + λ2 v 2 + . . . + λn v n
för en linjärkombination av vektorerna v 1 , v 2 , . . . , v n .
Mängden av alla linjärkombinationer av v 1 , v 2 , . . . , v n kallas det linjära höljet till v 1 , v 2 , . . . , v n
och betecknas
[v 1 , v 2 , . . . , v n ].
[v 1 , v 2 , . . . , v n ] utgör ett delrum till V,
v1 , v2 , . . . , vn .
Vi säger också att v 1 , v 2 , . . . , v n spänner upp delrummet U om [v 1 , v 2 , . . . , v n ] = U.
n
T.ex. har vi R = [e1 , e2 , . . . , en ] där e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . Dessa kallas
n
standardbasen till R .
OBS! Det är lätt att kontrollera att det linjära höljet
vidare är det det minsta delrummet som innehåller alla vektorerna
18
TOMAS SJÖDIN
Sats 21.
v n ∈ [v 1 , v 2 , . . . , v n−1 ] ⇒ [v 1 , v 2 , . . . , v n−1 ] = [v 1 , v 2 , . . . , v n ].
7. Linjärt beroende/oberoende
Ett av de mest använda begreppen för vektorrum är den så kallade
vektorer. Givet vetkorer
v1 , v2 , . . . , vn
i ett vektorrum
V,
beroendeekvationen för
då kallas ekvationen
λ1 v 1 + λ2 v 2 + . . . + λn v n = 0,
som alltså är en ekvation för
λ1 , λ2 , . . . , λn ,
för beroendeekvatioen till dessa vektorer. Poängen
med den är att testa om det går att skriva någon av dessa vektorer som en linjärkombination av
de övriga, utan att behöva testa det för varje vektor var för sig. I praktiken när vi har vektorer
i ett konkret rum uttryckta i lämplg bas (t.ex.
Rn )
så är beroendeekvationen helt enkelt när den
skrivs komponent för komponent ett linjärt ekvationssystem för de obekanta
Denition 22.
λi :a.
Om beroendeekvationen
λ1 v 1 + λ2 v 2 + . . . + λn v n = 0
endast har den triviala lösningen
λ1 = λ2 = . . . = λn = 0 ,
då sägs vektorerna
linjärt oberoende. Annars sägs de vara linjärt beroende.
Det är lätt att kontollera att standardbasen till
Rn
v1 , v2 , . . . , vn
vara
är linjärt oberoende t.ex.
v 1 , v 2 , . . . , v n är linjärt beroende om och endast om det nns en vektor
v 1 , . . . , v j−1 , v j+1 , . . . , v n spänner upp samma rum som alla v 1 , v 2 , . . . , v n .
Det är också lätt att se att
vj
sådan att mängden
8. Bas och Dimension
Denition 23.
kallas för en bas
(1)
(2)
V vara ett vektorrum. En ordnad uppsättning vektorer v = v 1
till V om
Låt
v 1 , v 2 , . . . , vn är linjärt
V = [v 1 , v 2 , . . . , v n ].
Ibland skriver vi bara att
matrisnotationen
v
v2
···
vn
oberoende,
v1 , v2 , . . . , vn
eller
{v 1 , v 2 , . . . , v n }
är en bas till
V
utan att använda
som ovan. Det är dock viktigt att tänka på att en bas alltid är ordnad.
Vi kommer använda notationen


a1
 a2 
 
vX = v  .  := a1 v 1 + a2 v 2 + . . . + an v n
 .. 
an
a1 , a2 , . . . an ∈ R. D.v.s. vi använder detta skrivsätt för att skriva linjärkombinationer med
v . Notera också att detta stämmer överens med hur vi denierat matrismultiplikationen om v hade varit en vanlig radmatris.
om
basvektorerna i
Sats 24. En uppsättning vektorer v1 , v2 , . . . , vn i ett vektorrum
varje vektor v ∈ V på entydigt sätt kan skrivas på formen
V
är en bas om och endast om
v = vX,
där v = v1 v2 · · · vn . Kolumnmatrisen X kallas för koordinaterna till v i basen v. (Notera
att koordinaterna påverkas av ordningen på basvektorerna, och det är därför det är viktigt att ha
dem ordnade).
Alla vektorrum har inte ändliga baser (vi denierar inte oändliga baser i denna kurs . . . ), t.ex.
har rummet av alla kontinuerliga funktioner på ett givet intervall inte någon ändlig bas. Men i
denna kurs kommer vi i princip uteslutande vara intresserad av de vektorrum som har ändliga
baser.
Standardbasen till
Rn
är enkel att visa att den utgör en bas till
Rn .
LINJÄR ALGEBRA
Sats 25. Om ett vektorrum V har en bas v =
v1
också n element. Vi säger då att V har dimension
Per denition sätter vi också dim{0} = 0.
19
v2 · · · v n
dimV = n.
, då har alla andra baser till V
Sats 26. En mängd vektorer i V som har er element än dimV är linjärt beroende.
Om å andra sidan en mängd vektorer i ett ändligdimensionellt vektorrum är linjärt oberoende,
då nns en bas som innehåller dessa som element.
9. Euklidiska rum
Vi ska nu införa en extra struktur på vektorrum, en så kallad skalärprodukt, vilken vi kan an-
vända för att deniera längd och vinklar m.m. som inte har någon mening i ett allmänt vektorrum.
Denition 27.
En skalärprodukt på ett vektorrum
och ger ett reellt tal
•
•
•
•
E
(och
Mn×1 )
(·|·)
endast om
u = 0.
kallas för ett Euklidiskt rum.
tillsammans med standardskalärprodukten
Euklidiskt rum. Detta rum betecknas även ibland
Euklidiskt rum
E
E är en funktion som tar två vektorer u, v ∈ E
u, v, w ∈ E, λ ∈ R:
och som uppfyller följande för alla
(u|v) = (v|u),
(u|v + w) = (u|v) + (u|w),
(u|λv) = λ(u|v),
(u|u) ≥ 0 med likhet om och
tillsammans med
Rn
(u|v),
En .
•
som vi denierat tidigare är ett
Vidare är det klart att ett delrum
automatiskt är ett Euklidiskt rum med samma skalärprodukt som i
I ett Euklidiskt rum
E
U
E.
till ett
denierar vi även följande begrepp via skalärprodukten:
p
• Längd/norm: |u| = (u|u),
• Avstånd: d(u, v) = |u − v|,
• u, v ortogonala om (u|v) = 0,
• Vinkeln θ mellan u, v 6= 0 denieras
att vara den unika vinkel i
[0, π]
s.a.
cos θ =
(u|v)
|u||v| .
Vidare har vi följande resultat:
Pythagoras sats: (u|v) = 0 ⇒ |u + v|2 = |u|2 + |v|2 .
Cauchy-Schwarz olikhet: |(u|v)| ≤ |u||v|.
Triangelolikheten: |u + v| ≤ |u| + |v|.
Rn införa den ortogonala projektionen av en vektor u på en vektor v 6= 0
att vara den unika vektor u||v som är parallell med v och sådan att u⊥v := u − u||v är ortogonal
n
n
mot v . Samma formel som i R (med samma argument som i R för att få fram den) gäller även
Vi kan också precis som i
här:
u||v =
(u|v)
v.
|v|2
ON-mängder/baser.
Denition 28. {u1 , u2 , . . . , um } i ett Euklidiskt rum kallas en ON-mängd (ortonormal mängd)
9.1.
om
(ui |uj ) =
Om
u1
u2
···
um
1
0
i=j
i 6= j
dessutom är en bas då kallas den en ON-bas.
Notera att detta säger att en ON-mängd består av vektorer med längd 1 och som är parvis
ortogonala mot varandra.
Sats 29. En ON-mängd i ett Euklidiskt rum är alltid linjärt oberoende
Normalt är det just ON-baser som är rätt baser att jobba med i Euklidiska rum, som följande
sats förklarar.
20
TOMAS SJÖDIN
Sats 30. Om
u = u1
u2
följande för skalärprodukten:
···
um
är en ON-bas till det Euklidiska rummet E, då gäller
  
x1 y1
  x2   y2 
    
u  ..  u  ..  = x1 y1 + x2 y2 + . . . + xm ym .
  .   . 
xm ym
 
D.v.s. när vi väl uttrycker allt i en ON-bas så är skalärprodukten samma som i
Rm .
Ortogonal projektion på delrum.
Denition 31. Om U är ett delrum till det Euklidiska rummet E, då denierar vi det ortogonala
9.2.
komplementet till
U:
U⊥ = {v ∈ E : (v|u) = 0
Det är lätt att kontrollera att
U⊥
för alla
också är ett delrum till
u ∈ U}.
E.
Sats 32. Om U = [u1 , u2 , . . . , um ] då gäller att
Sats 33. Om
u1
U⊥ = {v ∈ E : (v|ui ) = 0
u2 · · · um är en ON-bas
för alla i = 1, 2, . . . , m}.
till delrummet U i E, då gäller att
u||U := (u|u1 )u1 + (u|u2 )u2 + . . . + (u|um )um ∈ U,
u⊥U := u − u||U ∈ U⊥ .
Vi kallar u||U den ortogonala projektionen av u på U.
OBS! Notera att uppdelningen
tillämpar satsen med
U=E
u = v+w
säger den att om
där
u1
v ∈ U, w ∈ U⊥ är unik. Notera även att om vi
u2 · · · um är en ON-bas till E då gäller
u = (u|u1 )u1 + (u|u2 )u2 + . . . + (u|um )um .
LINJÄR ALGEBRA
9.3.
Gram-Schmidts metod.
Gram-Schmidts metod tar en bas till ett Euklidiskt rum och
skapar en ON-bas utifrån denna som följer. Låt
rummet
E
21
u1
u2
···
um
vara en bas till det Euklidiska
(alltså inte nödvändigtvis en ON-bas). Skapa nu vektorer
e1
:= u1 /|u1 |,
e2
:= v 2 /|v 2 |
där
e1 , e2 , . . . , em
som följer:
v 2 := u2 − (u2 |e1 )e1 ,
.
.
.
em
:= v m /|v m |
där
v m := um − (um |e1 )e1 − (um |e2 )e2 − . . . − (um |em−1 )em−1
Denna bas uppfyller också följande för varje
j = 1, 2, . . . , m:
[e1 , e2 , . . . , ej ] = [u1 , u2 , . . . , uj ].
(Om det är så att man har en mängd vektorer
u1 , u2 , . . . , um
som man bara vet genererar
E,
men ej nödvändigtvis är linjärt oberoende kan man använda ovanstående metod också för att
skapa en ON-bas med den skillnaden att om man i något steg får ett
vj
som är nollvektorn så
kastar man helt enkelt bort den.)
10. Mer om ortogonal projektion. Minstakvadratmetoden
Vi kommer ihåg att om
komplementet
U⊥
till
U
U är ett delrum till ett Euklidiskt rum E då har vi infört det ortogonala
u på U så att
och vi har infört ortogonal projektion av
u = u||U + u⊥U ,
u||U ∈ U,
u⊥U ∈ U⊥ .
Denna uppdelning är unik, och vidare är det lätt att inse att
• |u||U | ≤ |u|
• |u⊥U | ≤ |u − v|
D.v.s. avtsåndet mellan
10.1.
och
U
Vidare gäller att
v ∈ U.
för alla
u
u⊥U = u||U⊥ .
ges av
Minstakvadratmetoden.
|u⊥U |.
Detta handlar om att behandla linjära ekvationssystem som är
överbestämda och saknar lösning. Man vill då hitta värden som är så nära att vara en lösning
som möjligt i viss mening. Vi ser på ett ekvationssystem på formen:

a11
 a21

 ..
 .
am1
a12
a22
...
...
.
.
.
..
am2
...
.







  
a1n
x1
a11
a12
a1n
b1
 x2 
 a21 
 a22 
 a2n   b2 
a2n 







  
  ..  = x1  ..  + x2  ..  + . . . + xn  ..  =  ..  .
.
.








 . 
.
.
.
.
. 
amn
xn
am1
am2
amn
bm
22
TOMAS SJÖDIN
Med

a11
 a21

A= .
 ..
am1
a12
a22
...
...
.
.
.
..
am2
...
.

a1n
a2n 

,
.
.

.
amn


b1
 b2 
 
Y = . 
 .. 
bm


x1
 x2 


X =  . ,
 .. 
xn
kan vi skriva detta som
AX = Y.
I allmänhet vet vi att ett sådant system inte behöver ha någon lösning. Minstakvadratmetoden
går ut på att hitta
X
så att
|AX − Y |
blir så litet som möjligt i
Mm×1 ,
eller ekvivalent
|AX − Y |2
blir så litet som möjligt (härav namnet minstakvadratmetoden).
Mm×1 , kallat kolumnrummet till A:



 

a1n
a12
a11
 a2n 
 a21   a22 



 

U =  .  ,  .  , . . . ,  .  .
 .. 
 ..   .. 
amn
am2
am1
Vi inför följande delrum till
Enligt ovanstående ska vi välja
X
sådant att
AX = Y||U .
Eftersom
Y⊥U = Y − Y||U = Y − AX
är detta ekvivalent med att
Y − AX
är ortogonal mot alla
element


a1i
 a2i 


 .. 
 . 
ami
i = 1, 2, . . . , n.
Med en explicit uträkning kommer man fram till att de
löser den så kallade
normalekvationen:
X
som uppfyller detta är precis de som
At AX = At Y.
AX = Y||U , ty detta
AX − Y är ortogonal mot varje kolumn i A, vilket är
t
precis samma sak som att A (AX − Y ) = 0.) D.v.s. lösningarna X till denna (det existerar alltså
alltid minst en, och i praktiken i princip alltid exakt en även om det nns undantagsfall då X inte
2
blir unik) är precis de X sådana att |AX − Y | minimeras.
(Egentligen är det ganska direkt varför denna ekvation är ekvivalent med att
är ju samma sak som att varje kolumn i
12. Determinanter
Determinanten är en funktion som tar kvadratiska matriser och ger reella tal på ett sådant
sätt att determinanten är noll om och endast om matrisen ej är inverterbar. Tyvärr är teorin för
determinanter lite stökig, och vi kommer inte ge några explicita bevis, utan hänvisar för detta till
kursboken. Vi börjar med att deniera determinanten induktivt via så kallad radexpansion längs
första raden. Vi ska alltså deniera

a11
 a21

det 
.
 ..
an1
a12
a22
...
...
.
.
.
..
an2
...
.

a11
a1n
a21
a2n 

=: .

.
.
..

.
an1
ann
a12
a22
...
...
a1n
a2n
.
.
.
..
.
.
.
an2
...
.
ann
för
n ≥ 2.
LINJÄR ALGEBRA
(För
n=1
denierar vi det(a11 )
:= a11 .
23
Vi använder dock ej absolutbeloppstecknet i detta fall.
n=2
:= a11 a22 − a12 a21 .
Notera att determinanten inte nödvändigtvis är positiv). För
a11
a21
a12
a22
denierar vi
(n − 1) × (n − 1)-matriser. Då låter
a1n a2n :=
.
.
.
ann a21 a23 . . . a2n . . . a2n a31 a33 . . . a3n . . . a3n − a12 ..
.
.
.
..
..
.
.
.
.
.
.
.
.
.
an1 an3 . . . ann . . . ann a21 a22 . . . a2(n−1) a31 a32 . . . a3(n−1) + . . . + (−1)n+1 a1n .
.
.
.
..
.
.
..
.
.
.
an1 an2 . . . an(n−1) Antag nu att vi denierat determinanten för
vi
a11 a12 . . .
a21 a22 . . .
..
.
..
.
.
.
.
an1 an2 . . .
a22 a23
a32 a33
a11 .
.
.
..
.
an2 an3
Det är värt att notera att i fallet
n = 2
är determinanten
radvektorerna i matrisen spänner upp, och om
n=3
± arean av det
± volymen av
är den
parallellogram som
den parallellepiped
som spänns upp av radvektorerna. Man kan också visa att determinanten ges av följande (det är
denna denition som används i boken):
a11
a21
..
.
an1
a12
a22
...
...
a1n
a2n
.
.
.
..
.
.
.
an2
...
.
ann
X
(−1)N (p1 ,p2 ,...,pn ) a1p1 a2p2 · · · anpn ,
=
tillåtna produkter p1 6= p2 6= . . . 6= pn , och N (p1 , p2 , . . . , pn ) är
negativa par = antalet par (i, j) sådana att i < j men pi > pj . (Ett annat
där summan tas över alla
mängden av alla
sätt att säga detta är att
p1 , p2 , . . . , pn
är en permutation av
1, 2, . . . , n
och
(−1)N (p1 ,p2 ,...,pn )
är
permutationens tecken.)
Man kan visa att följande gäller för determinanten.
Sats 34.
•
•
•
•
detA 6= 0 ⇔ A är inverterbar. I detta fall
det(AB) = detAdetB,
detAt = detA.
detIn = 1, där In är identitetsmatrisen.
gäller detA−1 = 1/detA,
Vi kan alltså använda denitionen ovan induktivt för att räkna ut determinater, men oftast är
detta inte så smidigt. Istället är det bättre att använda följande (eller ofta en kombination av detta
och ovanstående denition) som säger hur determinanten påverkas vid elementära radoperationer
på matrisen
A.
Sats 35. Om A är en n × n−matris, då ändras determinanten på följande sätt vid elementära
radoperationer på A.
• Multiplicerar vi en rad med en konstant k , då multipliceras även determinanten med k ,
• Lägger vi till en konstant multipel av en rad till en annan ändras inte determinanten,
• Byter vi plats på två rader byter determinanten tecken.
Detta kan också användas för att beräkna determinanten. För om
A
inte är inverterbar då kan
vi skapa en nollrad via elementära radoperationer, och alltså blir determinanten noll. Annars kan
24
TOMAS SJÖDIN
vi med hjälp av elementära radoperationer gå från
A
In ,
till
och om vi då håller reda på hur
alla dessa radoperationer ändrar determinanten, samt använder att
detIn = 1
får vi fram dess
värde. Oftast är det dock i praktiken bäst att använda en kombination av radoperationer och
radexpansioner som ovan.
13. Linjära avbildningar
Denition 36.
En avbildning (=funktion)
F
mellan två vektorrum
U, V
(skrivet
F : U → V)
som uppfyller
F (x̄ + ȳ) = F (x̄) + F (ȳ),
F (kx̄) = kF (x̄)
för alla vektorer
x̄, ȳ ∈ U
och skalärer
F (r̄0 + tv̄) = F (r̄0 ) + tF (v̄)
F (v̄) = 0).
k
kallas linjär.
ger att linjer avbildas på linjer eller punkter (det senare om
Det är också lätt att se att en linjär avbildning uppfyller
F (0) = 0.
Vidare gäller att om F, G : U → V är linjära, då är även dess summa F + G, denierad via
(F + G)(x̄) = F (x̄) + G(x̄), linjär. Och om k ∈ R då är även kF , denierad via (kF )(x̄) = kF (x̄)
linjär. D.v.s. mängden av alla linjära avbildningar från U till V utgör själva ett vektorrum.
En speciellt viktig linjär avbildning av ett vektorrum på sig själv är identitetsavbildningen I
som avbildar varje vektor på sig själv:
I(x̄) = x̄.
Andra exempel på linjära avbildningar är rotationer, och projektioner i Euklidiska rum.
13.1.
Matriser för linjära avbildningar:
Låt F : U → V vara en linjär avbildning, samt antag
u = u1 u2 · · · uk samt v = v 1 v 2 · · · v r till U respektive V. Då
att varje vektor u ∈ U kan skrivas entydigt på formen uX , och F (u) = F (uX) = vY för
unikt Y . Om vi låter vYi = F (ui ) och skapar matrisen


|
| ···
|
A := Y1 Y2 · · · Yk  ,
|
| ···
|
att vi valt baser
gäller
något
där vi med detta menar att vi sätter in
Yi :a
i kolumnerna i
F (uX) = vAX
Vi säger att
F
för alla
har matrisrepresentation (eller bara matris)
A,
då gäller att
X.
A
i baserna
u, v .
Observera att denna
i högsta grad beror på båda dessa val av baser. Så man kan säga att när vi väl valt baser så är
linjära avbildningar inget annat än multiplikation med en matris. Dessutom är det lätt att inse
att det bara nns en matris
mellan
r × k -matriser
A
som uppfyller ovanstående, så vi har alltså en
och linjära avbildningar från
U
till
1−1
korrespondans
V.
För att se varför ovanstående gäller notera att med


x1
 x2 
 
X= . 
 .. 
xk
då har vi
F (uX) = F (x1 u1 + x2 u2 + . . . + xk uk ) = x1 F (u1 ) + x2 F (u2 ) + . . . + xk F (uk ) =
x1 (vY1 ) + x2 (vY2 ) + . . . + xk (vYk ) = v(x1 Y1 + x2 Y2 + . . . + xk Yk ) = v(AX)
LINJÄR ALGEBRA
25
14. Sammansatta och inversa avbildningar
Sammansatta avbildningar. Antag att vi fått tre vektorrum U, V, W och F : U → V,
G : V → W är linjära. Vi denierar då den sammansatta avbildningen G ◦ F : U → W via
(G ◦ F )(u) = G(F (u)). Det är lätt att visa att detta är en linjär avbildning, vidare om u, v, w är
baser där F respektive G har matriser A respektive B då har G ◦ F matris BA relativt u, w . (Man
14.1.
kan säga att matrismultiplikationen är denierad precis så att detta ska gälla).
Inversa Avbildningar.
14.2.
F : U → V vara en linjär avbildning. Vi säger då
F −1 : V → U, kallad F :s invers, sådan att
Låt
att
F
är
inverterbar om det nns en linjär avbildning
F ◦ F −1 (v) = v
för alla
v ∈ V,
U, V är ändligdimensionella, då har F
Om
{0}.
F −1 ◦ F (u) = u
för alla
en invers om och endast om
u ∈ U.
dimU = dimV och N (F ) =
Vi har också (som förväntat) följande resultat:
Sats 37. Låt U, V ha baser u respektive v, där dimU = dimV. Den linjära avbildningen F
:U→V
har då en invers om och endast om dess matris A i dessa baser är inverterbar, och F −1 har då
matris A−1 relativt dessa.
15. Nollrum, Värderum och Dimensionssatsen
Följande sats är rättfram att visa från denitionen av linjära avbildningar.
Sats 38. Låt F
:U→V
vara linjär.
• N (F ) := {u ∈ U : F (u) = 0} är ett delrum till U, kallat F :s nollrum,
• V (F ) := {F (u) : u ∈ U} är ett delrum till V, kallat F :s värderum.
Vi har också följande resultat:
U = [u1 , u2 , . . . , um ] ⇒ V (F ) = [F (u1 ), F (u2 ), . . . , F (um )].
Sats 39 (Dimensionssatsen). Låt F
:U→V
vara linjär. Då gäller att
dimN (F ) + dimV (F ) = dimU.
16. Isometriska och symmetriska avbildningar
16.1.
Isometriska avbildningar.
isometri om
Låt
E vara ett Euklidiskt rum. En linjär avbildning F : E → E
kallas för en (linjär)
|F (u)| = |u|
för alla
u ∈ E.
Vi har följande sats:
Sats 40. Låt e =
ekvivalent:
(a)
(b)
(c)
(d)
e1
e2
···
en
vara en ON-bas till E. För en linjär avbildning är då följande
F är en isometri,
(F (u)|F (v)) = (u|v) för allau, v ∈ E,
F (e1 ) F (e2 ) · · · F (en ) är en ON-bas till E,
F :s matris A i basen e är ortonormal, d.v.s. At A = I .
OBS! En ortonormal matris uppfyller alltid
på
R2
och
Sats 41.
(b)
detA = ±1.
Följande sats karaktäriserar isometrier
R3 :
2
2
(a) Om F : R → R är en isometri med matris A i standardbasen, då gäller att F
är en vridning om detA = 1, och en spegling om detA = −1.
Om F : R3 → R3 är en isometri med matris A i standardbasen, då gäller att F är en vridning om detA = 1. Om detA = −1 då är F antingen en spegling, eller en sammansättning
mellan en vridning och en spegling.
26
TOMAS SJÖDIN
16.2.
Symmetriska avbildningar.
En avbildning
(u|F (v)) gäller för alla u,v ∈ E.
e2 · · · en är en ON-bas till E
Om e1
A i denna bas är symmetrisk, d.v.s. At = A.
då är
F :E→E
F
kallas symmetrisk om
(F (u)|v) =
symmetrisk om och endast om dess matris
17. Basbyte
• Basbyten: Antag
v̄1 v̄2 · · · v̄n . I
att vi i
ett
vektorrum
V
har två baser
u = ū1
ū2
···
ūn
och
v =
så fall kan vi skriva
(1 ≤ i ≤ n)
v̄i = c1i ū1 + c2i ū2 + . . . + cni ūn
c1i , . . . , cni .

för unikt bestämda reella tal
Matrisen
c11
 c21

T = .
 ..
cn1
c12
c22
...
...
.
.
.
..
cn2
...
.

c1n
c2n 


.
.

.
cnn
v− till u−basen. Rent formellt kommer det vara bekvämt att skriva:


c11 c12 . . . c1n


 c21 c22 . . . c2n 
v̄n = ū1 ū2 . . . ūn  .
.
.
.
.
.
..
.
 ..

.
.
cn1 cn2 . . . cnn
kallas övergångsmatrisen från
v̄1
v̄2
...
Mer kortfattat kan vi säga att med
v i = uYi
så är

|
T = Y1
|
|
Y2
|
···
···
···

|
Yn  ,
|
och
v = uT ⇔ u = vT −1 .
Notera att
T −1
är övergångsmatrisen från
u−
till
inverterbar alltid avbildar en bas på en bas, så
och endast om
T
v−basen.
Vidare gäller att en matris
som är
detT 6= 0.
Förhållandet mellan koordinater i de olika baserna ges av att om en vektor
gäller att
T
är en övergångsmatris mellan några baser om
vY = (uT )Y = u(T Y ) = uX ,
u = vY = uX ,
då
eller med andra ord
X = T Y.
(Observera att vi alltså får
u−koordinaterna från v−koordinaterna.)
u, v, w till V och T1 är övergångsmatris från v till u-basen, och
w till v -basen. Då är T = T1 T2 övergångsmatris från w till u-basen.
Antag nu att vi har tre baser
T2
är övergångsmatris från
•ON-baser: Om u och v
är ON-baser till ett Euklidiskt rum
E, och T
är övergångsmatrisen given
ovan, då gäller att
T tT = I
d.v.s.
t
T =T
−1
. En matris
T
,
som uppfyller detta kallas ortonormal, eller ON-matris. (Kom ihåg
att detta innebär att motsvarande avbildning är en isometri.)
•Linjära
avbildningars matriser i olika baser: Låt F
: V → V vara linjär och antag att vi
v− till u−basen. Om vi låter Au
respektive Av vara matrisen svarande mot F i respektive bas (d.v.s. Au tar en vektors koordinater
i u−basen till bildens koordinater i u−basen, och på samma sätt för Av ) så gäller:
har två olika baser
u
och
v
till
V
med övergångsmatris
Av = T −1 Au T,
T
från
LINJÄR ALGEBRA
för vi har, om
27
vY = uX ,
F (uX) = uAu X = vT −1 Au T Y = vAv Y.
T −1
(Om vidare båda baserna är ON-baser kan vi också byta
mot
Tt
i denna formel.)
Notera att
det(Av ) = det(T −1 Au T ) = det(T −1 )det(Au )det(T ) = det(Au ),
så detta visar att determinanten är basoberoende, och vi tar detta som denition av
detF .
19. Egenvärden, Egenvektorer, Spektralsatsen
Egenvärden, egenvektorer och diagonalisering.
19.1.
Denition 42.
En linjär avbildning
med motsvarande egenvektor
v̄ 6= 0
(i
F :V→V
V) om
sägs ha ett egenvärde
λ
(reellt tal, eventuellt
0)
F (v̄) = λv̄.
F har n stycken linjärt oberoende egenvektorer v = v̄1 v̄2 · · · v̄n , och dessa
till V, med motsvarande egenvärden λ1 , λ2 , . . . , λn (ej nödvändigtvis alla olika). I så
Antag nu att
utgör en bas
fall gäller

λ1
 0

Av =  .
 ..
0
d.v.s.
Av
är diagonal. Omvänt om
A,
torer till
kallas
F
Av
0
λ2
...
...
.
.
.
..
...
0
.

0
0 

. ,
. 
.
λn
är diagonal i någon bas
v
är elementen i denna bas egenvek-
och elementen i diagonalen egenvärdena. Om det nns en bas
v
där
Av
är diagonal
diagonaliserbar.
Eftersom
F (v̄) = λv̄ ⇔ (F − λI)v̄ = 0
så har vi att
λ
är ett egenvärde till
F
om och endast om
F − λI
inte är inverterbar, d.v.s. om och
endast om
det(F − λI) = 0.
(Kom ihåg att determinanten är basoberoende).
Sats 43. Om {v̄1 , v̄2 , . . . , v̄k } är egenvektorer svarande mot olika egenvärden till F
: V → V så är
de linjärt oberoende. Speciellt om F har dimV stycken olika egenvärden, då nns alltid en bas av
egenvektorer till F .
Vi kommer ibland vilja tala om egenvärden/egenvektorer till en
vi att vi ser denna som en linjär avbildning på
ON-diagonalisering.
19.2.
med
dimE = n. F
Låt
F :E→E
Mn×1
n × n−matris A,
och då menar
i standardbasen.
vara en linjär avbildning på ett Euklidiskt rum
kallas ON-diagonaliserbar om det nns en ON-bas i vilken
F :s
E
matris är
diagonal.
Sats 44 (Spektralsatsen).
Kom ihåg att
till
E.
F
F
är ON-diagonaliserbar om och endast om F är symmetrisk.
är symmetrisk om och endast om den har en symmetrisk matris i någon ON-bas
Om detta gäller har den automatiskt en symmetrisk matris i alla ON-baser till
E.
28
TOMAS SJÖDIN
Något om lösningsmetoder för ovanstående problem.
19.3.
bas
u
Antag att
A
nu är en
n × n−matris
F , välj någon lämplig
F : s matris A i denna.
Givet
(ON-bas om vi vill ON-diagonalisera i Euklidiskt rum)och bestäm
som vi vill diagonalisera, då börjar vi med att lösa
det(A − λI) = 0
med avseende på
arna
X
λ,
A.
vilket ger alla egenvärden till
Sedan för varje egenvärde
λ
bestäm lösning-
till
(A − λI)X = 0.
uX
Dessa lösningar ger alla egenvektorer
egenvektorer
till
u−basen
v = v̄1
v̄2
···
v̄n
som svarar mot
λ.
Om det nu går att hitta en bas av
från ovanstående då ges transformationsmatrisen
T
från
v
som tidigare av:
v i = uYi

|
T = Y1
|
|
Y2
|

|
Yn  ,
|
···
···
···
och

λ1
 0

T −1 AT =  .
 ..
0
där
λi
är egenvärde svarande mot
v̄i .
0
λ2
...
...
.
.
.
..
...
0
.

0
0 

. ,
. 
.
λn
Om vi vill ON-diagonalisera måste vi också se till att
F
blir en ON-bas. Detta går bara enligt ovan om
är symmetrisk (d.v.s.
A = At ).
v
ovan
Egenvektorer
svarande mot olika egenvärden är i detta fall automatiskt ortogonala mot varandra, men om vi
för ett visst egenvärde har ett egenrum (= rummet av alla egenvektorer svarande mot ett visst
egenvärde + nollvektorn), då måste man i detta rum välja ut en ON-bas m.h.a. t.ex. GramSchmidts metod.
Ak
Ett annat vanligt problem som ges är att räkna ut
D
för något heltal
k.
Om
A = T −1 DT
där
är diagonal

λ1
 0

D= .
 ..
0
0
λ2
...
...
.
.
.
..
...
0
.

0
0 

. ,
. 
.
λn
då har vi
Ak = (T −1 DT )k = T −1 Dk T,
och
λk1
 0

Dk =  .
 ..
0

0
λk2
...
...
.
.
.
..
...
0
.

0
0 

. .
. 
.
λkn
20. Kvadratiska former
Vi kommer här bara titta på kvadratiska former på
Rn
(boken behandlar allmännare Euklidiska
rum, men det blir inte någon större skillnad).
En kvadratisk form på
R2
är en funktion
Q(x1 , x2 ) =
Q : R2 → R
ax21
på formen
+ 2bx1 x2 + cx22 .
En sådan kan vi med matriser skriva på formen
Q(x1 , x2 ) = x1
x2
a
b
b
x1
.
c
x2
LINJÄR ALGEBRA
I
Rn ,
29
om vi skriver


x1
 x2 
 
X =  . ,
 .. 
xn
och betecknar standardbasen med
funktion
Q : Rn → R
e,
då denierar vi analogt en kvadratisk form att vara en
på formen
Q(x1 , x2 , . . . , xn ) = Q(eX) = X t AX,
där
A
är symmetrisk (d.v.s.
A = At ).
Vi observerar att följande gäller:
• Q(eλX) = λ2 Q(eX),
• Q(e0) = 0,
• Q är ett polynom som bara innehåller andragradstermer,
• Om X = T Y då gäller att Q(eX) = Q(eT Y ) = Y t T t AT Y ,
och
T t AT
är symmetrisk.
D.v.s. att vara en kvadratisk form är invariant om vi byter till en ny ON-bas.
Enligt spektralsatsen nns det en ON-bas
torer till
A
med motsvarande egenvärden
f = f 1 f 2 · · · f n till Rn bestående av egenvekλ1 , λ2 , . . . , λn (där dessa inte alla behöver vara olika).
Vi har då följande resultat:
Sats 45. Om f =
motsvarande
f2 · · · fn
egenvärden λ1 , λ2 , . . . , λn
f1
är en ON-bas till Rn bestående av egenvektorer till A med
då gäller att
Q(eX) = Q(f Y ) = λ1 y12 + λ2 y22 + . . . + λn yn2 ,
där


y1
 y2 
 
Y = . 
 .. 
yn
är koordinaterna för eX i f −basen.
20.1.
Teckenkaraktär.
•
•
•
•
•
Q(eX) = X t AX på Rn sägs vara:
Positivt denit om Q(eX) > 0 för alla X 6= 0,
Positivt semidenit om Q(eX) ≥ 0 för alla X med likhet för något X 6= 0,
Negativt denit om Q(eX) < 0 för alla X 6= 0,
Negativt semidenit om Q(eX) ≤ 0 för alla X med likhet för något X 6= 0,
En kvadratisk form
Indenit om den antar både positiva och negativa värden.
Sats 46. Om λ1 , λ2 , . . . , λn är egenvärdena till A, då gäller att Q är:
•
•
•
•
•
Positivt denit om och endast om alla λi > 0,
Positivt semidenit om och endast om alla λi ≥ 0 med likhet för något i,
Negativt denit om och endast om alla λi < 0,
Negativt semidenit om och endast om alla λi ≤ 0 med likhet för något i,
Indenit om det nns både positiva och negativa egenvärden.
Att diagonalisera
A
är också ett eektivt sätt att kontrollera värdena på
Q
enligt följande sats:
Sats 47. Om λ1 ≤ λ2 ≤ . . . ≤ λn är egenvärdena till A, då gäller att:
• λ1 |eX|2 ≤ Q(eX) ≤ λn |eX|2 ,
• λ1 är det minsta värdet Q antar på {|eX| = 1}, och
är egenvektorer till A svarande mot egenvärdet λ1 ,
• λn är det största värdet Q antar på {|eX| = 1}, och
är egenvektorer till A svarande mot egenvärdet λn .
detta värde antas i de punkter som
detta värde antas i de punkter som
30
TOMAS SJÖDIN
21. Andragradskurvor, Andragradsytor och System av Differentialekvationer
Andragradskurvor och Andragradsytor.
21.1.
Problemet att beskriva andragradskurvor i
två dimensioner och andragradsytor i tre dimensioner är analoga. Här tittar vi bara på fallet med
två variabler (d.v.s. andragradskurvor), det med tre behandlas på motsvarande sätt. Givet en
andragradsekvation
Ax21 + 2Bx1 x2 + Cx22 + 2Dx1 + 2Ex2 + F = 0
i två variabler (A, B, C, D, E, F reella tal, minst ett av
A, B, C 6= 0)
så vill vi veta vilken typ av
geometriskt objekt lösningsmängden till denna utgör i planet. Ekvationen kan skrivas på formen
(x1
x2 )
A
B
B
C
x1
x2
+ (2D
2E)
x1
x2
+ F = 0.
Enligt spektralsatsen nns ON-matris
C11
C21
T =
sådan att
T
λ1 , λ2
(där
är egenvärden till
t
A
B
att
A B
B C
B
C
C12
C22
T =
λ1
0
0
λ2
). Vi har nu att de nya koordinaterna för
x1
x2
=T
y1
y2
x1
x2
ges av
.
I dessa nya koordinater ges alltså ekvationen av:
(y1
y2 )T
t
A
B
B
C
y1
y2
T
λ1 y12 + λ2 y22 + (2D
y1
y2
+ (2D 2E)T
+F =
C11 y1 + C12 y2
2E)
+F =
C21 y1 + C22 y2
λ1 y12 + λ2 y22 + 2D1 y1 + 2E1 y2 + F = 0,
där
D1 , E1 lätt räknas fram explicit. Detta ger att vi blivit av med den blandade andragradstermen,
och vi kan nu använda kvadratkomplettering för att avgöra vilken typ av geometriskt objekt det
handlar om. Vi gör detta för fallet
λ 1 y1 +
Om
F−
D12
λ1
−
E12
λ2
<0
D1
λ1
2
λ1 , λ2 > 0. I detta fall ger kvadratkomplettering
2 D12
E12
E1
+ λ 2 y2 +
+ F−
−
= 0.
λ2
λ1
λ2
ger detta en ellips, om det är
0
ekvationen:
ger det en punkt, och om det är
>0
ger
det ingenting. Man får behandla de olika möjliga fallen för egenvärdena var för sig på motsvarande
sätt.
21.2.
Dierentialekvationer.
21.2.1.
En linjär dierentialekvation.
homogena ekvationen
Den
y 0 (t) = ky(t)
(eller bara
y 0 = ky
) har allmän lösning
y(t) = Cekt .
(y(t)e−kt )0 = y 0 (t)e−kt − ky(t)e−kt = e−kt (y 0 (t) − ky(t)) = 0 vilket är ekvivalent
med att y(t)e
= C.
0
kt
Ekvationen y (t) = ky(t) + g(t) har allmän lösning y(t) = Ce + yp (t), där yp (t) är en så kallad
Detta följer av att
−kt
partikulärlösning. D.v.s. en x lösning (utan obestämda parametrar) till ekvationen. En sådan kan
ofta hittas med hjälp av en lämplig ansats.
LINJÄR ALGEBRA
21.2.2.
31
Parameterkurvor i Rn och Mn×1 .
då kallar vi
(tänk t.ex.
Om vi får varje koordinat xi som funktion av tiden xi (t),
(x1 (t), x2 (t), . . . , xn (t)) (som alltså är en funktion från R till Rn ) för en parameterkurva
på linjer på parameterform som ett exempel). Vi kommer nedan anta att alla xi (t) är
kontinuerligt deriverbara funktioner, och vi sätter


x1 (t)
 x2 (t) 


X(t) =  .  ,
 .. 
xn (t)
vilket är en parameterkurva i
Mn×1 .
Det är uppenbart hur vi adderar två parameterkurvor till
varandra, och hur vi multiplicerar med skalär, och dessa utgör då ett vektorrum. Vi denierar nu

x01 (t)
 x02 (t) 


X 0 (t) :=  .  .
 .. 
x0n (t)

Det är rättfram att visa att vi har
(X1 (t) + X2 (t))0 = X10 (t) + X20 (t),
och
(cX(t))0 = cX 0 (t).
D.v.s. derivation av
X(t)
är en linjär avbildning. Mer allmänt kan man också med en direkt
uträkning (som dock är lite längre) visa att om
T
är en (konstant)
n × n−matris,
då gäller
(T X(t))0 = T X 0 (t).
21.2.3.
System av dierentialekvationer.
Vi antar nu att vi fått ett system av dierentialekvatio-
ner:
 0
x1 (t) = c11 x1 (t) + c12 x2 (t) + . . . + c1n xn (t)



 x02 (t) = c21 x1 (t) + c22 x2 (t) + . . . + c2n xn (t)




.
.
.
x0n (t) = cn1 x1 (t) + cn2 x2 (t) + . . . + cnn xn (t).
Detta är ett homogent system. Man kan även behandla ickehomogena system med liknande metoder som nedan.
Detta system kan vi med matrisnotation skriva som
X 0 (t) = CX(t).
Antag nu att vi kan diagonalisera
dardbasen till
Mn×1 )
till
λ1 , λ2 , . . . , λn ,
då vet vi att
Mn×1
C.
D.v.s. om vi kan hitta en ny bas
bestående av egenvektorer till

λ1
0

T −1 CT =  .
 ..
0
Alltså får vi om
0
λ2
···
···
.
.
.
..
0
···
.
C,

0
0

. .
. 
.
λn
X = TY
X 0 (t) = (T Y (t))0 = T Y 0 (t) = CX(t) = CT Y (t),
eller ekvivalent
Y 0 (t) = T −1 CT Y (t).
f = eT
(där
e
är stan-
med motsvarande egenvärden
32
TOMAS SJÖDIN
Det vill säga vi får systemet
 0
y1 (t) = λ1 y1 (t)



 y20 (t) = λ2 y2 (t)




Detta kan vi lösa direkt:
T Y (t)
.
.
.
yn0 (t) = λn yn (t)
yi (t) = Ci eλi t .
Detta ger oss alltså
Y (t),
och sedan har vi
X(t) =
T
explicit
vilket ger oss lösningen till vårt system. (Observera att vi inte behöver invertera
någonstans i ovanstående uträkningar).