LINJÄR ALGEBRA TOMAS SJÖDIN Innehåll 0. Notation 1 1. Linjära Ekvationssystem 2 2. Geometriska vektorer, rummen 3. Skalärprodukt, Vektorprodukt, Volymprodukt 4. Linjer och plan 10 5. Matriser 13 6. Vektorrum, linjärt oberoende 17 7. Linjärt beroende/oberoende 18 8. Bas och Dimension 18 9. Euklidiska rum 19 Rn och 3 Mn×1 7 10. Mer om ortogonal projektion. Minstakvadratmetoden 21 12. Determinanter 22 13. Linjära avbildningar 24 14. Sammansatta och inversa avbildningar 25 15. Nollrum, Värderum och Dimensionssatsen 25 16. Isometriska och symmetriska avbildningar 25 17. Basbyte 26 19. Egenvärden, Egenvektorer, Spektralsatsen 27 20. Kvadratiska former 28 21. Andragradskurvor, Andragradsytor och System av Dierentialekvationer 30 Detta är teoridelen av föreläsningarna i Linjär Algebra för U,D,IT. Varje kapitel svarar mot en föreläsning (de föreläsningsnummer som inte nns med, d.v.s. 11, 18 och 22 är repetitionsföreläsningar). Detta material kommer behandlas ganska fort på föreläsningarna för att ge tid åt exempel. Det förväntas att ni läser på materialet inför varje föreläsning i detta häfte i förväg. 0. Notation M är en väldenierad samling element. Om M1 , M2 är mängder så denierar vi: M1 ⊂ M2 : M1 är en delmängd till M2 , om varje punkt i M1 också ligger i M2 , M1 ∩ M2 : M1 snitt M2 , mängden av punkter som ligger i både M1 och M2 , M1 ∪ M2 : M1 union M2 , mängden av punkter som ligger i minst ett av M1 eller M2 , M1 \ M2 : M1 minus M2 , mängden av punkter som ligger i M1 men inte i M2 . En mängd • • • • Vi skriver också y∈M : y tillhör M, eller y är en punkt i M. Kanske rätt självklart, men två mängder sägs vara lika om de innehåller samma element. Den tomma mängden är mängden som inte har några element alls, och betecknas era mängder M1 , M2 , . . . , Mk , k [ ∅. och då skriver vi också: k \ M j = M1 ∪ M2 ∪ . . . ∪ M k , j=1 Mj = M1 ∩ M2 ∩ . . . ∩ Mk . j=1 Ofta betecknas mängder på följande sätt: {x ∈ M : P (x)} = {x : P (x)}, 1 Ibland har man 2 TOMAS SJÖDIN som står för den delmängd till skrivsättet används då M M som består av de är underförstådd). T.ex. x i M som uppfyller villkoret P (x) (det senare [a, b] = {x ∈ R : a ≤ x ≤ b}. Om en mängd är ändlig skriver man ofta också {x1 , x2 , . . . , xk }, där xi :a är elementen i mängden. Funktioner/Avbildningar: En funktion/avbildning f regel som för varje x∈M ger exakt ett värde f (x) ∈ N , från en mängd M till en mängd N är en vi skriver f : M → N. M denitionsmängden till f . kallas för Följande begrepp är också användbara ibland. En funktion f :M →N som ovan sägs vara: injektiv om det för varje par a, b ∈ M , a 6= b gäller att f (a) 6= f (b). surjektiv om det för varje y ∈ N nns (minst) ett x ∈ M med y = f (x). bijektiv om den är både injektiv och surjektiv. Värdemängden V (f ) till f är mängden av alla punkter y ∈ N sådana att det nns x ∈ M • • • med y = f (x). 1. Linjära Ekvationssystem 1.1. Linjära ekvationer. En linjär ekvation för de obekanta x1 , x2 , . . . , xn är en ekvation på formen a1 x1 + a2 x2 + . . . + an xn = b, där a1 , a2 , . . . , an samt b är xa reella tal. T.ex. är 3x1 − x2 = 12 en linjär ekvation för de obekanta x1 , x2 . Å andra sidan är √ 3 x1 − x2 = 0 inte en linjär ekvation på grund av roten. Med en lösning till en ekvation menar vi en uppsättning reella tal x1 , x2 , . . . , xn sådana att när de sätts in i ekvationen gäller likheten. Det som kännetecknar en linjär ekvation är dessa två egenskaper: Om a1 x1 +a2 x2 +. . .+an xn = b1 och a1 y1 + a2 y2 + . . . + an yn = b2 samt k ∈ R då gäller att a1 (x1 + y1 ) + a2 (x2 + y2 ) + . . . + an (xn + yn ) = (b1 + b2 ) och a1 (kx1 ) + a2 (kx2 ) + . . . + an (kxn ) = kb1 . D.v.s. vi kan addera och multiplicera lösningar. (Testa och se vad som händer med den ickelinjära ekvationen ovan för att förstå skillnaden!) 1.2. Linjära ekvationssystem. x1 , x2 , . . . , xn är ett m ekvationer och n obekanta Ett linjärt ekvationssystem för de obekanta antal linjära ekvationer. Ett allmänt sådant system av ekvationer med är alltså på formen där aij :a och bi :a är xa reella a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 . . . am1 x1 + am2 x2 + . . . + amn xn = bm , tal, och xi :a de obekanta. Med en lösning till ett sådant ekvationssystem menar vi en uppsättning reella tal x1 , x2 , . . . , xn sådana att när de sätts in i ekvationerna ovan gäller likhet simultant i alla ekvationer. Alla sådana ekvationssystem kan lösas med hjälp av tre elementära radoperationer: Radoperation 1: Byta plats på två ekvationer, Radoperation 2: Multiplicera en av ekvationerna med en konstant c 6= 0, Radoperation 3: Addera en konstant multipel av en ekvation till en annan. LINJÄR ALGEBRA 3 Strategin för att lösa ett sådant system är att med hjälp av ovanstående operationer via så kallad Gausselimination skapa ett ekvivalent system (d.v.s. med samma lösningar) som har ett trappsteghsliknande utseende där vi enkelt successivt kan få fram lösningarna. Följande är också sådant man bör övertyga sig om: Det nns till varje ekvationssystem som ovan endast tre möjligheter. Antingen nns det en unik lösning, ingen lösning alls eller så nns det oändligt många lösningar. Om alla bi :a är 0 kallas ekvationssystemet för homogent. Ett ekvationssystem som är homogent har alltid minst en lösning, kallad den triviala lösningen: x1 = x2 = . . . = xn = 0. Om ett ekvationssystem saknar lösning är det alltid möjligt att skapa ett ekvivalent system som har en ekvation på formen 0=c där c 6= 0. När det gäller de med oändligt antal lösningar, när vi skapat vår trappstegsform kommer det vara så att de nollskilda ekvationerna är färre än antalet obekanta, och såvida vi inte är i situationen att det inte nns några lösningar alls, så måste vi införa parametrar på lämpligt sätt. Antalet parametrar som behövs är helt enkelt antalet obekanta - antalet nollskilda ekvationer (när vi har trappstegsform). 2. Geometriska vektorer, rummen Rn och Mn×1 En (geometrisk) vektor är ett objekt som har storlek och riktning, men inte någon naturlig startpunkt. Om vi i ett plan har två punkter till Q, ritad som en pil som startar i P P och och slutar i Q, då låter vi den riktade sträckan från P −−→ Q, betecknas P Q. Vi låter nu mängden av alla sådana riktade sträckor med samma storlek och riktning (det är alltså underförstått att vi kan mäta detta) betecknas −−→ [P Q]. Detta tar vi som denition av vektorer i planet. Givetvis kan motsvarande också göras i ett tredimensionellt rum. (För de som vet vad en ekvivalensrelation är kan vi säga att ha samma storlek och riktning är en ekvivalensrelation, och en vektor är helt enkelt en ekvivalensklass av riktade sträckor). Notera att det för varje vektor en unik punkt Q sådan att En speciell vektor är −−→ u = [P Q]. nollvektorn, riktning). Denna betecknas 0, Vi inför även för en vektor P och Q. och punkt P nns som har längd noll (och alltså inte kan sägas ha någon och vi har −−→ u = [P Q] u −−→ 0 = [P P ]. längden/normen |u| att vara avståndet mellan punkterna 4 TOMAS SJÖDIN För dessa vektorer inför man nu två operationer. Addition av två vektorer, samt multiplikation med skalär (=reellt tal). Addition av två vektorer −→ u = [P R] −−→ v = [RQ] denieras som −→ −−→ −−→ u + v = [P R] + [RQ] = [P Q]. och ku är den unika vektor som uppfyller |ku| = |k||u| och u om k > 0, ku har motsatt riktning om k < 0. Om k = 0 är ku = 0. −u := −1u, d.v.s. den vektor som har samma storlek men motsatt Multiplikation med skalär denieras så att ku har samma riktning som Vi inför även beteckningen riktning. Det är lätt att inse att följande räknelagar gäller: Sats 1. För alla vektorer u, v, w (i ett plan eller rum) och skalärer λ, µ gäller följande: (a) (b) (c) (d) (e) (f ) (g) (h) u + v = v + u, u + (v + w) = (u + v) + w, u + 0 = u, u + v = 0 ⇔ u = −v , 1u = u, λ(µu) = (λµ)u, (λ + µ)u = λu + µu, λ(u + v) = λu + λv . Tack vare lag (b), (f ) ovan kommer vi skriva u + v + w, λµu eftersom det inte spelar någon roll i vilken ordning vi tar dessa operationer. 2.1. Baser och Koordinater. Nu har vi den geometriska denitionen av vektorer klar, och den viktigaste algebraiska strukturen för dessa klara. Vektorerna i planet/rummet med denna struktur LINJÄR ALGEBRA 5 utgör exempel på vad som kallas vektorrum som är den typ av rum som linjär algebra handlar om. Det vi nu vill göra är att på något systematiskt sätt införa siror för vektorer för att överföra dessa geometriska konstruktioner till algebra. Den idé som Descartes (även kallad Kartesius) ck var att införa koordinataxlar för att kunna ge punkter koordinater (därför kallas dessa koordinatsystem för kartesiska koordinater). Denition 2. En ordnad uppsättning vektorer u = (u1 u2 ) i ett plan (u = (u1 u2 u3 ) i ett rum) v i planet (rummet) på entydigt sätt kan sägs utgöra en bas till planet (rummet) om varje vektor skrivas på formen v = x1 u1 + x2 u2 =: u x1 x2 x1 v = x1 u1 + x2 u2 + x3 u3 =: u x2 . x3 Det är tack vare att en bas till planet (rummet) består av två (tre) vektorer som vi säger att ett plan är två-dimensionellt och ett rum tre-dimensionellt. • Per denition har alltså varje vektor unika koordinater i en bas, och varje sådan kolumnmatris svarar mot en unik vektor, så det nns en 1−1 korrespondens mellan vektorer och dessa koordinatmatriser. • Notera att två vektorer i ett plan (tre vektorer i ett rum) utgör en bas om och endast om de inte ligger på en gemensam linje (i ett gemensamt plan). Koordinater för punkter. 2.1.1. För att ge punkter koordinater behöver vi förutom en bas också en x referenspunkt i vårt plan/rum, som vi kallar origo och betecknar denna Om P O. är en punkt i planet/rummet och vi har −−→ x [OP ] = u 1 x2 respektive x1 −−→ [OP ] = u x2 x3 då säger vi att P har koordinater (x1 , x2 ) respektive (x1 , x2 , x3 ) i detta koordinatsystem (observera u och O). att detta alltså nu beror både på valet av När det gäller de algebraiska operationerna vi har infört blir dessa mycket enkla om vi uttrycker alla vektorer i samma bas u: a1 b1 a1 + b1 u +u =u , a2 b2 a2 + b2 a1 ka1 ku =u , a2 ka2 respektive a1 b1 a1 + b1 u a2 + u b2 = u a2 + b2 , a3 b3 a3 + b3 • a1 ka1 ku a2 = u ka2 . a3 ka3 Det vill säga för att addera två vektorer adderar vi bara deras koordinater, och för att multiplicera en vektor med en skalär multiplicerar vi bara varje koordinat med denna skalär. • Det är ganska lätt att övertyga sig om att detta stämmer överens med den geometriska denitionen av addition och multiplikation med skalär som vi införde ovan. 6 TOMAS SJÖDIN 2.1.2. ON-baser och högersystem. (e1 e2 e3 ) Om vi valt vektorerna e = (e1 e2 ) i ett rum så att dessa vektorer är parvis ortogonala (vinkel de har längd 1, då sägs de utgöra en i ett plan respektive π/2 e = mellan dem) samt att ortonormal bas (ON-bas) till planet/rummet. högeroriente- Om axlarna dessutom är orienterade som i nedanstående gur sägs basen vara rad. 2.2. Rummen varje punkt P Rn och Mn×1 . Vi har ovan sett att om vi väljer origo och en bas så har vi att i ett plan kan identieras med sina koordinater sina koordinater a1 , a2 (a1 , a2 ), och varje vektor u med samt att vi hade enkla uttryck för våra algebraiska operationer så fort vi uttryckt allt i denna xa bas. Samma sak kan sägas även i tre dimensioner, och man kan givetvis tänka sig att man gjorde motsvarande även i högre dimensioner, även om det givetvis inte går att visualisera på samma sätt. Detta leder till följande denition: Denition 3. Mängden av alla tal n-tupler (a1 , a2 , . . . , an ), där a1 , a2 , . . . , an ∈ R, betecknas Rn . På samma sätt betecknar vi mängden av alla kolumnmatriser a1 a2 .. . an med Mn×1 . Vårt främsta motiv för att införa dessa rum redan här är att det gör att vi enklare kan formulera satser gemensamt för två och tre dimensioner, och behöver inte behandla dessa separat. Det är än så länge främst n = 2, 3 vi är intresserade av. Vi inför också följande operationer på Rn respektive Mn×1 . (a1 , a2 , . . . , an )+(b1 , b2 , . . . , bn ) = (a1 +b1 , a2 +b2 , . . . , an +bn ), k(a1 , a2 , . . . , an ) = (ka1 , ka2 , . . . , kan ), a1 b1 a1 + b1 a1 ka1 a2 b2 a2 + b2 a2 ka2 .. + .. = .. , k .. = .. . . . . . . an bn an + bn an kan n Rummen R och Mn×1 tillsammans med ovanstående operationer är exempel på det man kallar vektorrum som vi ska deniera allmänt senare i kursen. Här kanske det är värt att notera att då vi jobbar med geometriska problem är det givetvis viktigt att skilja på punkter och vektorer, LINJÄR ALGEBRA och vi använder främst element i med e Rn 7 för att beteckna punkter och element i Mn×1 (egentligen framför för att beteckna basen om man ska vara noga) som vektorer. Då kan det ju tyckas konstigt att vi inför addition och multiplikation med skalär för punkter. Nu är det så att det bara är i dessa geometriska problem (som handlar om linjer och plan i två och tre dimensioner främst) som vi kommer tala om punkter, annars kommer vi enbart i kursen tala om vektorer. Det nns en uppenbar 1−1 korrespondens mellan punkter och motsvarande vektor som startar i origo. Dessutom om vi identierar (a1 , a2 , . . . , an ) med a1 a2 .. , . an på alla sätt. Anledningen till att vi vill ha båda är att så är ju rummen ovan helt ekvivalenta Rn är det i särklass vanligaste rummet i matematiklitteraturen, men när vi sedan räknar med matriser är det rätta sättet att skriva vektorer som kolumnmatriser. I princip skulle det kanske vara bättre att göra detta rakt igenom i kursen och skippa Rn , men det som talar starkt för Rn är att det är betydligt smidigare att Nedan kommer vi formulera alla begrepp/satser enbart för Rn , och givetvis nns det en direkt motsvarighet för Mn×1 . Dessa fall lämnas åt läsaren att formulera, och vi kommer hämningslöst använda dessa motsvarande satser senare i kursen. skriva dessa vektorer, samt att det är mer standardiserat. Notera också att jämfört med kursboken vänder vi till stor del upp och ner på materialet, för vi inför våra operationer nedan på Rn , och ger sedan geometriska tolkningar av dem, medan boken ger geometriska denitioner och visar räknelagarna utifrån dessa. Det är också värt att notera att rent geometriskt betyder det att vi lägger ut våra basvektorer ei så att e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, 0, . . . , 0, 1), och dessa kallas standardbasen till Rn . Vidare lägger vi origo O i punkten (0, 0, . . . , 0). 3. Skalärprodukt, Vektorprodukt, Volymprodukt Vi kommer här införa tre typer av produkter, och vi kommer införa dessa via formler i Rn . Om vi i ett plan eller rum vill införa dessa kan vi göra detta genom att först välja en lämplig bas e, och identiera vektorer med dess koordinater. (T.ex. i ett plan identierar vi e a1 a2 med (a1 , a2 ) i R2 ). Det är dock så att vi inte kan välja dessa baser hur som helst, utan det nns krav för att formlerna ska vara rätt. Mer precist, för skalärprodukten (som är meningsfull i alla dimensioner) måste basen vara en ON-bas, och för kryssprodukten och volymprodukten (som bara är denierade i tre dimensioner) måste basen vara både ON och högerorienterad. 3.1. Skalärprodukt. torer. R n Vi kommer nu i Rn införa den så kallade skalärprodukten mellan två vek- tillsammans med denna utgör då ett exempel på ett så kallat Euklidiskt rum som vi ska deniera mer allmänt senare i kursen. Namnet skalärprodukt kommer av att den tar två vektorer och ger en skalär (alltså inte en vektor)! (a1 , a2 , . . . , an ) • (b1 , b2 , . . . , bn ) := a1 b1 + a2 b2 + . . . + an bn . (a1 , a2 , . . . , an ) via q |(a1 , a2 , . . . , an )| := a21 + a22 + . . . + a2n . Vi denierar även längden av en vektor Igen är det enkelt att se via Pythagoras sats att detta verkligen överensstämmer med längden av Men detta beror på både att våra basvektorer har längd 1 och att de är ortogonala mot varandra! Följande sats gäller för skalärprodukten: Sats 4. Om u, v, w ∈ Rn och λ ∈ R så gäller: motsvarande geometriska vektor om vi infört säg ett koordinatsystem i planet som ovan. (a) u • v = v • u, 8 TOMAS SJÖDIN (b) (c) (d) (e) u • (v + w) = u • v + u • w, u • (λv) = (λu) • v = λ(u • v), u • u = |u|2 , u • u = 0 ⇔ u = 0. Följande viktiga olikheter gäller för skalärprodukten: Schwarz olikhet: |x̄ • ȳ| ≤ |x̄||ȳ|. Triangelolikheten: |x̄ + ȳ| ≤ |x̄| + |ȳ|. 3.1.1. Geometrisk tolkning av skalärprodukten. då denierar vi vinkeln θ Antag att vi har två nollskilda vektorer mellan dessa att vara den unika vinkel i intervallet [0, π] u, v i Rn , sådan att u • v = |u||v| cos(θ). Först och främst är det enkelt att visa att sådant θ. −|u||v| ≤ u • v ≤ |u||v|, så det nns verkligen ett unikt För att se att detta stämmer överens geometriskt antag att de två vektorerna ligger i ett plan där vi infört koordinataxlar som ovan, och antag för enkelhets skull att den ena har koordinaterna a1 a2 säger är att vinkeln 1 där a1 , a2 > 0 och den andra (d.v.s. vektorn e1 ). Vad ovanstående då 0 p θ mellan dessa ges av cos(θ) = a1 / a21 + a22 , d.v.s. närliggande sida genom hypotenusan, vilket vi ju känner igen att det stämmer. Vi säger också att två vektorer π/2, d.v.s. om 3.1.2. u • v = 0. u, v är ortogonala, skrivet u ⊥ v, om vinkeln mellan dem är Ortogonal projektion av en vektor på en annan vektor (linje). LINJÄR ALGEBRA Om vi som i bilden ovan har två vektorer u, v där v 6= 0 9 då kan vi på entydigt sätt skriva u på formen u = u⊥v + u||v , där u⊥v v , och u||v är parallell med v . u||v = kv och u⊥v = u − kv . Så (u − kv) • v = 0, är ortogonal mot Detta betyder att u||v = 3.2. Kryssprodukt (vektorprodukt). vilket ger k= u•v |v|2 . Eller u•v v. |v|2 Denna produkt är endast denierad i tre dimensioner. Vi denierar (a1 , a2 , a3 ) × (b1 , b2 , b3 ) = (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ). R3 och får en ny vektor i R3 . Det är enkelt att visa följande: Om u = kv då gäller att u × v = 0. u • (u × v) = 0 och v • (u × v) = 0. Det vill säga kryssprodukten ger en vektor som är ortogonal mot både u och v . Notera alltså att vi tar två vektorer i 3.2.1. Geometrisk tolkning, högersystem. Vi såg ovan att kryssprodukten av två vektorer u, v i R3 gav en ny vektor som är ortogonal mot båda dessa. Angående storleken kan vi säga att vi har följande |u × v| = |u||v| sin(θ), där θ återigen är vinkeln mellan u och v. Dessutom kan man se att den pekar i den riktning som anges av den så kallade högerhandsregeln. Man säger att u, v, u×v utgör ett så kallat högersystem. Dessa två egenskaper är enkelt att inse att de karaktäriserar kryssprodukten unikt. Om de två vektorerna u, v inte är parallella (om de är det är ju kryssprodukten nollvektorn) då nns det ju bara två riktningar att välja på sådana att de är ortogonala mot bägge dessa vektorer. Storleken ges av formeln ovan, och högerhandsregeln ger oss en av dessa två riktningar. För att motivera ovanstående påstående, antag för enkelhets skull att u = (1, 0, 0) och v = (b1 , b2p , 0) med b1 , b2 > 0 Då gäller enligt ovanstående att u × v = (0, 0, b2 ). Notera nu att b2 = sin(θ) b21 + b22 = sin(θ)|v|, samt att denna vektor pekar i positiva e3 -riktningen. Vidare kan vi säga att uttrycket |u||v| sin(θ) helt enkelt är arean av det parallellogram som spänns upp av u och v . 10 3.3. TOMAS SJÖDIN Trippelprodukt (volymprodukt). Givet tre vektorer u, v, w i R3 , Denna produkt tar tre vektorer och ger ett reellt tal. då är trippelprodukten mellan dessa uttrycket (u × v) • w. Observera att denna produkt alltså beror på ordningen av dessa vektorer. Rent geometriskt är detta tal ± volymen av den parallellepiped som de tre vektorerna spänner upp. Vi har även följande resultat: Sats 5. (u × v) • w > 0 om och endast om u, v, w utgör ett högersystem. Om (u × v) • w = 0, då ligger alla tre vektorer i ett gemensamt plan. 4. Linjer och plan 4.1. Linjer på parameterform i Rn . LINJÄR ALGEBRA En linje L 11 i planet/rummet ses enkelt vara unikt bestämd om vi vet en punkt v en riktningsvektor som är parallell med denna. För varje punkt P på L P0 på den, samt nns då unikt tal t så att −−→ −−→ [OP ] = [OP0 ] + tv, och vidare för varje t gäller att den unika punkt P L unikt. som uppfyller denna ekvation ligger på L, vilket ger att detta bestämmer Rn (då vi nu tillåter även n > 3) då mot(v1 , v2 , . . . , vn ), och de punkter (x1 , x2 , . . . , xn ) Om vi uttrycker detta i koordinater, så att vi hamnar i −−→ svaras [OP0 ] av någon vektor som ligger på L (a1 , a2 , . . . , an ), v av är de som kan skrivas på formen (x1 , x2 , . . . , xn ) = (a1 , a2 , . . . , an ) + t(v1 , v2 , . . . , vn ) t ∈ R. Detta kallas att linjen 4.2. om Linjer i planet. v1 6= 0 L är given på parameterform (t kallas för parameter). Om vi har en linje L i R2 , given av (x1 , x2 ) = (a1 , a2 ) + t(v1 , v2 ), då kan vi lösa ut x2 = a2 + tv2 = a2 + x1 − a1 v2 = kx1 + m. v1 k kallas för riktningskoecienten. v1 = 0 svarar mot att linjen är parallell med x2 −axeln, och dessa linjer kan inte skrivas Detta kallas att linjen är given på riktningskoecientsform, och Notera att på denna form. Det är också lätt att se att en linje n och en punkt P0 L i planet är unikt bestämd om vi känner till en normalvektor P ligger då på L om och endast om på linjen. En punkt −−→ n • [P0 P ] = 0. L är given på normalform. Om vi är i R2 och n = (n1 , n2 ) är normalvektor en x punkt på L, då ges alltså linjen av ekvationen Man säger då att linjen till L och (a1 , a2 ) är (n1 , n2 ) • (x1 − a1 , x2 − a2 ) = 0 ⇔ n1 x1 + n2 x2 = n1 a1 + n2 a2 . Det sista uttrycket sägs vara linjen skriven på normalform. 12 TOMAS SJÖDIN 4.3. Plan på parameterform i Rn . Ett plan u, v Π i rummet ses enkelt vara bestämt av att vi vet en punkt som är parallella med Π P0 i Π samt två vektorer men inte parallella med varandra. Då ligger en punkt endast om det nns två tal (parametrar) s, t P i Π om och sådana att −−→ −−→ [OP ] = [OP0 ] + su + tv. Rn kan vi göra motsvarande med koordinater. Om vi låter (a1 , a2 , . . . , an ) vara en x punkt , och u = (u1 , u2 , . . . , un ), v = (v1 , v2 , . . . , vn ) där u och v inte är parallella, då kallar vi mängden av alla (x1 , x2 , . . . , xn ) som uppfyller I (x1 , x2 , . . . , xn ) = (a1 , a2 , . . . , an ) + s(u1 , u2 , . . . , un ) + t(v1 , v2 , . . . , vn ) s, t ∈ R för ett plan på parameterform. LINJÄR ALGEBRA 4.4. Plan på normalform i bestämt om vi vet en punkt endast om −−→ n • [P0 P ] = 0. R3 . P0 i Π 13 I rummet är det också lätt att se att ett plan samt en normalvektor Om vi är i R3 n. En punkt P Π är unikt Π om och ligger då i kan detta i koordinater (precis som för linjer i planet) skrivas som en ekvation n1 x1 + n2 x2 + n3 x3 = n1 a1 + n2 a2 + n3 a3 , där (n1 , n2 , n3 ) är normalvektorn och (a1 , a2 , a3 ) en x punkt i Π. 5. Matriser Denition 6. Om vi för varje par ij A = (aij )r×k för en r × k−matris över En r × k−matris har r 1 ≤ i ≤ r, 1 ≤ j ≤ k har fått a11 a12 . . . a1k a21 a22 . . . a2k = . . . .. . . .. . . . ar1 ar2 . . . ark med tal aij ∈ R R. rader och k kolumner. En matris som bara har en rad, (a11 a12 · · · a1k ), kallas en radmatris, och en matris som bara har en kolumn, a11 a21 .. , . ar1 kallas en kolumnmatris. En r × r−matris Denition 7. då kallar vi kallas kvadratisk. • (aij )r×k = (bij )r×k om • (aij )r×k + (bij )r×k = (aij + bij )r×k , • λ(aij )r×k = (λaij )r×k , och endast om aij = bij för alla ij , 14 TOMAS SJÖDIN • (aij )r×m · (bij )m×k = (cij )r×k , där cij = ai1 b1j + ai2 b2j + . . . + aim bmj . Denitionen av matrismultiplikation förtjänar att titta lite närmare på. Det är svårt att än så länge motivera denna närmare, mer än att säga att vi med denna får en så kallad associativ multiplikation: A(BC) = (AB)C . När vi sedan börjar studera linjära avbildningar kommer vi se varför detta är rätt denition. Det är dock värt att notera följande. För en radmatris gånger en kolumnmatris gäller: a1 Detta är en a2 1 × 1−matris, ··· och normalt identierar vi dessa med reella tal. D.v.s. det är precis samma sak som skalärprodukten cij Talet med kolumn b1 b2 an . = (a1 b1 + a2 b2 + . . . + an bn ). .. bn (a1 , a2 , . . . , an ) • (b1 , b2 , . . . , bn ) i Rn . ovan är helt enkelt ovanstående multiplikation mellan rad j från matrisen i från matrisen (aij )r×m (bij )m×k . Vi inför även beteckningarna: Nollmatris: 0 = 0r×k 0 0 0 0 = . . .. .. 0 0 ... ... .. . ... 0 0 . , . . 0 −A = −1A Enhetsmatris (r × r): 1 0 I = Ir = . .. 0 0 1 ... ... . . . .. 0 ... . 0 0 . . . . 1 Följande sats gäller också. (Beviset bygger helt enkelt på att man inför beteckningar för alla ingående matriser och jämför höger och vänsterledet i varje ekvation, vilket lämnas till läsaren/kursboken). Sats 8. Nedan är A, B, C matriser så att operationerna är väldenierade och λ, µ ∈ R. • • • • • • • • • • • • • • A + B = B + A, (A + B) + C = A + (B + C), A + 0 = A, A + (−A) =: A − A = 0, 1A = A, λ(µA) = (λµ)A, (λ + µ)A = λA + µA, λ(A + B) = λA + λB , (AB)C = A(BC), (λA)B = λ(AB), A(B + C) = AB + AC , (B + C)A = BA + CA, A0 = 0, 0A = 0, AI = A, IA = A. OBS! AB 6= BA Denition 9. normalt även om bägge sidor är väldenierade. A = (aij )r×k . Då denierar vi transponatet At till A att vara k × r−matrisen t t t given av A = (aij )k×r där aij = aji (1 ≤ i ≤ k , 1 ≤ j ≤ r ). (D.v.s. A fås från A genom att byta plats på rader och kolumner). t Låt LINJÄR ALGEBRA 15 Sats 10. • • • • (A + B)t = At + B t , (λA)t = λ(At ), (At )t = A, (AB)t = B t At . Radoperationer på matriser. Precis som för linjära ekvationssystem kan man utföra tre elementära radoperationer på en matris: 5.1. Radoperation 1: Byta plats på två rader, c 6= 0, Radoperation 2: Multiplicera en rad med en konstant Radoperation 3: Addera en konstant multipel av en rad till en annan rad. Två matriser A, B kallas radekvivalenta, skrivet A ∼ B , om den ena kan fås från den andra via ett ändligt antal elementära radoperationer. (Notera att alla radoperationer är reversibla, så kan vi ta oss från den ena till den andra på detta sätt kan vi göra det åt andra hållet också. För de som vet vad en ekvivalensrelation är kan vi också säga att det är lätt att visa att ∼ utgör en sådan). Matrisnotation för linjära ekvationssystem. 5.2. Av era skäl (främst platsbesparande) kommer vi fortsättningsvis att skriva om linjära ekvationssystem på matrisform och lösa dessa (med samma strategi som tidigare) i matrisen. Givet ett linjärt ekvationssystem inför vi systemets a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 . . . am1 x1 + am2 x2 + . . . + amn xn = bm , totalmatris a11 a21 A= . .. am1 Vi kommer kalla det som står till höger om om | a12 a22 ... ... a1n a2n . . . .. . . . am2 ... . amn b1 b2 . . . . bm | för högersidan i matrisen, och det som står till vänster för vänstersidan. Normalt kommer vi alltså forsättningsvis överföra ekvationssystemet till dess totalmatris och utföra de elementära radoperationerna där, men det är viktigt att komma ihåg att detta representerar motsvarande operationer på ekvationssystemet. Jag rekommenderar att man i alla fall i början prövar ett par exempel där man löser systemet både med ekvationerna direkt och med matrisen, eller åtminstone att när man fått fram sin slutliga matris går tillbaka till ekvationsformen. Strategin för att lösa ett sådant system är att skapa en så kallad trappstegsmatris av vänstersidan via elementära radoperationer: Denition 11. om aij 6= 0 och Ett element aµν = 0 aij i vänstersidan av ovanstående µ ≥ i, ν ≤ j med (µ, ν) 6= (i, j). matris A kallas ett pivotelement för alla Om alla rader vars vänstersida ej är identiskt noll står över alla de rader där dessa är identiskt noll, samt att alla rader vars vänstersidor är nollskilda har ett pivotelement, då säger vi att systemmatrisen är på trappstegsform. Så t.ex. är följande system på trappstegsform: 1 2 3 0 1 2 0 0 0 2 3 , 0 16 TOMAS SJÖDIN medan följande inte är det: 1 2 3 0 1 2 0 1 0 2 3 . 0 Poängen är att det första systemet är enkelt att skriva ner lösningarna till. Detta motsvarar ju systemet x1 + 2x2 + 3x3 = 2 0x1 + 1x2 + 2x3 = 3 0x1 + 0x2 + 0x3 = 0 I detta fall nns det oändligt många lösningar, och vi kan skriva dessa på formen x1 = −4 + t x2 = 3 − 2t , t ∈ R. x3 = t Jag anser att det bästa sättet att lära sig ovanstående om linjära ekvationssystem helt enkelt är genom att titta på en del exempel, och efter det kommer nog följande sats framstå som ganska självklar. Sats 12. Alla ekvationssystem är radekvivalenta med ett ekvationssystem på trappstegsform. 5.3. Matriser och ekvationssystem. Ett linjärt ekvationssystem a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 . . . am1 x1 + am2 x2 + . . . + amn xn = bm , är ekvivalent med följande matrisekvation: a11 a21 .. . am1 a12 a22 ... ... . . . .. am2 ... Denition 13. kallad A:s . En a1n x1 a11 a12 a1n b1 x2 a21 a22 a2n b2 a2n .. = x1 .. + x2 .. + . . . + xn .. = .. . . . . . . . . . amn xn am1 am2 amn bm n × n−matris A sägs vara inverterbar om det nns en n × n−matris A−1 , invers, sådan att AA−1 = A−1 A = In . För att hitta inversen till A (om den nns) ställer man upp systemmatrisen radoperationer tills man fått ett radekvivalent system att göra sådana radoperationer om och endast om A (In |B) och då är har en invers). Sats 14. Låt A vara en n × n−matris. Då är följande ekvivalent: (a) (b) (c) A−1 existerar, AX = B har entydig lösning X AX = 0 har endast den triviala Sats 15. • • • • (A−1 )−1 = A, (At )−1 = (A−1 )t , (AB)−1 = B −1 A−1 , (Ak )−1 = (A−1 )k =: A−k . för varje n × 1−matris B , lösningen X = 0. B = A−1 (A|In ) och gör (det går alltså LINJÄR ALGEBRA 17 6. Vektorrum, linjärt oberoende Denition 16. Låt V vara en icketom mängd, vars element vi kallar vektorer, sådan att vi denierat två operationer • • Om u, v ∈ V ⇒ u + v ∈ V, λ ∈ R, u ∈ V ⇒ λu ∈ V. dessa uppfyller följande axiom, då säger vi att V är ett vektorrum (över R). • u + v = v + u, • u + (v + w) = (u + v) + w, • Det nns unikt element 0 ∈ V s.a. u + 0 = u för alla u ∈ V, • Till varje u ∈ V nns unik additiv invers −u s.a. u + (−u) =: u − u = 0, • 1u = u, • λ(µu) = (λµ)u, • (λ + µ)u = λu + µu, • λ(u + v) = λu + λv. Addition av vektorer: Multiplikation med skalär: OBS! Det är lätt att kontrollera att följande gäller u + v = u ⇒ v = 0, 0u = 0, −u = −1u. Observera också att begrepp som längd, vinkel etc. inte har någon innebörd i ett allmänt vektorrum. Exempel 17. Det är lätt att veriera att Rn som vi denierat tidigare utgör ett vektorrum. Likaså utgör mängden Mr×k bestående av alla r × k−matriser ett vektorrum. Slutligen, om vi låter Pn beteckna alla polynom av grad högst n, d.v.s. alla polynom på formen a0 + a1 x + a2 x2 + . . . + an xn , då utgör detta ett exempel på ett vektorrum. Addition/multiplikation med skalär är i detta fall denierat som följer: (a0 +a1 x+a2 x2 +. . . an xn )+(b0 +b1 x+b2 x2 +. . .+bn xn ) = (a0 +b0 )+(a1 +b1 )x+(a2 +b2 )x2 +. . .+(an +bn )xn , λ(a0 + a1 x + a2 x2 + . . . an xn ) = (λa0 ) + (λa1 )x + (λa2 )x2 + . . . (λan )xn . Denition 18. En icketom delmängd samma operationer som de i (a) (b) V själv u, v ∈ U ⇒ u + v ∈ U, λ ∈ R, u ∈ U ⇒ λu ∈ U. U till V kallas ett delrum (underrum) till är ett vektorrum. D.v.s. U V om U med är ett delrum om och endast om Exempel 19. Självklart är varje vektorrum ett delrum till sig själv, och dessutom är det så kallade nollrummet som bara består av nollvektorn ett delrum till varje vektorrum. Ett annat exempel är att ta V = R3 och U = {(x1 , x2 , 0) : x1 , x2 ∈ R}, då är det lätt att veriera att U är ett delrum till V. Linjärkombinationer. Denition 20. Låt V vara ett vektorrum och v1 , v2 , . . . , vn ∈ V. Om λ1 , λ2 , . . . , λn ∈ R då kallas 6.1. vektorn λ1 v 1 + λ2 v 2 + . . . + λn v n för en linjärkombination av vektorerna v 1 , v 2 , . . . , v n . Mängden av alla linjärkombinationer av v 1 , v 2 , . . . , v n kallas det linjära höljet till v 1 , v 2 , . . . , v n och betecknas [v 1 , v 2 , . . . , v n ]. [v 1 , v 2 , . . . , v n ] utgör ett delrum till V, v1 , v2 , . . . , vn . Vi säger också att v 1 , v 2 , . . . , v n spänner upp delrummet U om [v 1 , v 2 , . . . , v n ] = U. n T.ex. har vi R = [e1 , e2 , . . . , en ] där e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . Dessa kallas n standardbasen till R . OBS! Det är lätt att kontrollera att det linjära höljet vidare är det det minsta delrummet som innehåller alla vektorerna 18 TOMAS SJÖDIN Sats 21. v n ∈ [v 1 , v 2 , . . . , v n−1 ] ⇒ [v 1 , v 2 , . . . , v n−1 ] = [v 1 , v 2 , . . . , v n ]. 7. Linjärt beroende/oberoende Ett av de mest använda begreppen för vektorrum är den så kallade vektorer. Givet vetkorer v1 , v2 , . . . , vn i ett vektorrum V, beroendeekvationen för då kallas ekvationen λ1 v 1 + λ2 v 2 + . . . + λn v n = 0, som alltså är en ekvation för λ1 , λ2 , . . . , λn , för beroendeekvatioen till dessa vektorer. Poängen med den är att testa om det går att skriva någon av dessa vektorer som en linjärkombination av de övriga, utan att behöva testa det för varje vektor var för sig. I praktiken när vi har vektorer i ett konkret rum uttryckta i lämplg bas (t.ex. Rn ) så är beroendeekvationen helt enkelt när den skrivs komponent för komponent ett linjärt ekvationssystem för de obekanta Denition 22. λi :a. Om beroendeekvationen λ1 v 1 + λ2 v 2 + . . . + λn v n = 0 endast har den triviala lösningen λ1 = λ2 = . . . = λn = 0 , då sägs vektorerna linjärt oberoende. Annars sägs de vara linjärt beroende. Det är lätt att kontollera att standardbasen till Rn v1 , v2 , . . . , vn vara är linjärt oberoende t.ex. v 1 , v 2 , . . . , v n är linjärt beroende om och endast om det nns en vektor v 1 , . . . , v j−1 , v j+1 , . . . , v n spänner upp samma rum som alla v 1 , v 2 , . . . , v n . Det är också lätt att se att vj sådan att mängden 8. Bas och Dimension Denition 23. kallas för en bas (1) (2) V vara ett vektorrum. En ordnad uppsättning vektorer v = v 1 till V om Låt v 1 , v 2 , . . . , vn är linjärt V = [v 1 , v 2 , . . . , v n ]. Ibland skriver vi bara att matrisnotationen v v2 ··· vn oberoende, v1 , v2 , . . . , vn eller {v 1 , v 2 , . . . , v n } är en bas till V utan att använda som ovan. Det är dock viktigt att tänka på att en bas alltid är ordnad. Vi kommer använda notationen a1 a2 vX = v . := a1 v 1 + a2 v 2 + . . . + an v n .. an a1 , a2 , . . . an ∈ R. D.v.s. vi använder detta skrivsätt för att skriva linjärkombinationer med v . Notera också att detta stämmer överens med hur vi denierat matrismultiplikationen om v hade varit en vanlig radmatris. om basvektorerna i Sats 24. En uppsättning vektorer v1 , v2 , . . . , vn i ett vektorrum varje vektor v ∈ V på entydigt sätt kan skrivas på formen V är en bas om och endast om v = vX, där v = v1 v2 · · · vn . Kolumnmatrisen X kallas för koordinaterna till v i basen v. (Notera att koordinaterna påverkas av ordningen på basvektorerna, och det är därför det är viktigt att ha dem ordnade). Alla vektorrum har inte ändliga baser (vi denierar inte oändliga baser i denna kurs . . . ), t.ex. har rummet av alla kontinuerliga funktioner på ett givet intervall inte någon ändlig bas. Men i denna kurs kommer vi i princip uteslutande vara intresserad av de vektorrum som har ändliga baser. Standardbasen till Rn är enkel att visa att den utgör en bas till Rn . LINJÄR ALGEBRA Sats 25. Om ett vektorrum V har en bas v = v1 också n element. Vi säger då att V har dimension Per denition sätter vi också dim{0} = 0. 19 v2 · · · v n dimV = n. , då har alla andra baser till V Sats 26. En mängd vektorer i V som har er element än dimV är linjärt beroende. Om å andra sidan en mängd vektorer i ett ändligdimensionellt vektorrum är linjärt oberoende, då nns en bas som innehåller dessa som element. 9. Euklidiska rum Vi ska nu införa en extra struktur på vektorrum, en så kallad skalärprodukt, vilken vi kan an- vända för att deniera längd och vinklar m.m. som inte har någon mening i ett allmänt vektorrum. Denition 27. En skalärprodukt på ett vektorrum och ger ett reellt tal • • • • E (och Mn×1 ) (·|·) endast om u = 0. kallas för ett Euklidiskt rum. tillsammans med standardskalärprodukten Euklidiskt rum. Detta rum betecknas även ibland Euklidiskt rum E E är en funktion som tar två vektorer u, v ∈ E u, v, w ∈ E, λ ∈ R: och som uppfyller följande för alla (u|v) = (v|u), (u|v + w) = (u|v) + (u|w), (u|λv) = λ(u|v), (u|u) ≥ 0 med likhet om och tillsammans med Rn (u|v), En . • som vi denierat tidigare är ett Vidare är det klart att ett delrum automatiskt är ett Euklidiskt rum med samma skalärprodukt som i I ett Euklidiskt rum E U E. till ett denierar vi även följande begrepp via skalärprodukten: p • Längd/norm: |u| = (u|u), • Avstånd: d(u, v) = |u − v|, • u, v ortogonala om (u|v) = 0, • Vinkeln θ mellan u, v 6= 0 denieras att vara den unika vinkel i [0, π] s.a. cos θ = (u|v) |u||v| . Vidare har vi följande resultat: Pythagoras sats: (u|v) = 0 ⇒ |u + v|2 = |u|2 + |v|2 . Cauchy-Schwarz olikhet: |(u|v)| ≤ |u||v|. Triangelolikheten: |u + v| ≤ |u| + |v|. Rn införa den ortogonala projektionen av en vektor u på en vektor v 6= 0 att vara den unika vektor u||v som är parallell med v och sådan att u⊥v := u − u||v är ortogonal n n mot v . Samma formel som i R (med samma argument som i R för att få fram den) gäller även Vi kan också precis som i här: u||v = (u|v) v. |v|2 ON-mängder/baser. Denition 28. {u1 , u2 , . . . , um } i ett Euklidiskt rum kallas en ON-mängd (ortonormal mängd) 9.1. om (ui |uj ) = Om u1 u2 ··· um 1 0 i=j i 6= j dessutom är en bas då kallas den en ON-bas. Notera att detta säger att en ON-mängd består av vektorer med längd 1 och som är parvis ortogonala mot varandra. Sats 29. En ON-mängd i ett Euklidiskt rum är alltid linjärt oberoende Normalt är det just ON-baser som är rätt baser att jobba med i Euklidiska rum, som följande sats förklarar. 20 TOMAS SJÖDIN Sats 30. Om u = u1 u2 följande för skalärprodukten: ··· um är en ON-bas till det Euklidiska rummet E, då gäller x1 y1 x2 y2 u .. u .. = x1 y1 + x2 y2 + . . . + xm ym . . . xm ym D.v.s. när vi väl uttrycker allt i en ON-bas så är skalärprodukten samma som i Rm . Ortogonal projektion på delrum. Denition 31. Om U är ett delrum till det Euklidiska rummet E, då denierar vi det ortogonala 9.2. komplementet till U: U⊥ = {v ∈ E : (v|u) = 0 Det är lätt att kontrollera att U⊥ för alla också är ett delrum till u ∈ U}. E. Sats 32. Om U = [u1 , u2 , . . . , um ] då gäller att Sats 33. Om u1 U⊥ = {v ∈ E : (v|ui ) = 0 u2 · · · um är en ON-bas för alla i = 1, 2, . . . , m}. till delrummet U i E, då gäller att u||U := (u|u1 )u1 + (u|u2 )u2 + . . . + (u|um )um ∈ U, u⊥U := u − u||U ∈ U⊥ . Vi kallar u||U den ortogonala projektionen av u på U. OBS! Notera att uppdelningen tillämpar satsen med U=E u = v+w säger den att om där u1 v ∈ U, w ∈ U⊥ är unik. Notera även att om vi u2 · · · um är en ON-bas till E då gäller u = (u|u1 )u1 + (u|u2 )u2 + . . . + (u|um )um . LINJÄR ALGEBRA 9.3. Gram-Schmidts metod. Gram-Schmidts metod tar en bas till ett Euklidiskt rum och skapar en ON-bas utifrån denna som följer. Låt rummet E 21 u1 u2 ··· um vara en bas till det Euklidiska (alltså inte nödvändigtvis en ON-bas). Skapa nu vektorer e1 := u1 /|u1 |, e2 := v 2 /|v 2 | där e1 , e2 , . . . , em som följer: v 2 := u2 − (u2 |e1 )e1 , . . . em := v m /|v m | där v m := um − (um |e1 )e1 − (um |e2 )e2 − . . . − (um |em−1 )em−1 Denna bas uppfyller också följande för varje j = 1, 2, . . . , m: [e1 , e2 , . . . , ej ] = [u1 , u2 , . . . , uj ]. (Om det är så att man har en mängd vektorer u1 , u2 , . . . , um som man bara vet genererar E, men ej nödvändigtvis är linjärt oberoende kan man använda ovanstående metod också för att skapa en ON-bas med den skillnaden att om man i något steg får ett vj som är nollvektorn så kastar man helt enkelt bort den.) 10. Mer om ortogonal projektion. Minstakvadratmetoden Vi kommer ihåg att om komplementet U⊥ till U U är ett delrum till ett Euklidiskt rum E då har vi infört det ortogonala u på U så att och vi har infört ortogonal projektion av u = u||U + u⊥U , u||U ∈ U, u⊥U ∈ U⊥ . Denna uppdelning är unik, och vidare är det lätt att inse att • |u||U | ≤ |u| • |u⊥U | ≤ |u − v| D.v.s. avtsåndet mellan 10.1. och U Vidare gäller att v ∈ U. för alla u u⊥U = u||U⊥ . ges av Minstakvadratmetoden. |u⊥U |. Detta handlar om att behandla linjära ekvationssystem som är överbestämda och saknar lösning. Man vill då hitta värden som är så nära att vara en lösning som möjligt i viss mening. Vi ser på ett ekvationssystem på formen: a11 a21 .. . am1 a12 a22 ... ... . . . .. am2 ... . a1n x1 a11 a12 a1n b1 x2 a21 a22 a2n b2 a2n .. = x1 .. + x2 .. + . . . + xn .. = .. . . . . . . . . . amn xn am1 am2 amn bm 22 TOMAS SJÖDIN Med a11 a21 A= . .. am1 a12 a22 ... ... . . . .. am2 ... . a1n a2n , . . . amn b1 b2 Y = . .. bm x1 x2 X = . , .. xn kan vi skriva detta som AX = Y. I allmänhet vet vi att ett sådant system inte behöver ha någon lösning. Minstakvadratmetoden går ut på att hitta X så att |AX − Y | blir så litet som möjligt i Mm×1 , eller ekvivalent |AX − Y |2 blir så litet som möjligt (härav namnet minstakvadratmetoden). Mm×1 , kallat kolumnrummet till A: a1n a12 a11 a2n a21 a22 U = . , . , . . . , . . .. .. .. amn am2 am1 Vi inför följande delrum till Enligt ovanstående ska vi välja X sådant att AX = Y||U . Eftersom Y⊥U = Y − Y||U = Y − AX är detta ekvivalent med att Y − AX är ortogonal mot alla element a1i a2i .. . ami i = 1, 2, . . . , n. Med en explicit uträkning kommer man fram till att de löser den så kallade normalekvationen: X som uppfyller detta är precis de som At AX = At Y. AX = Y||U , ty detta AX − Y är ortogonal mot varje kolumn i A, vilket är t precis samma sak som att A (AX − Y ) = 0.) D.v.s. lösningarna X till denna (det existerar alltså alltid minst en, och i praktiken i princip alltid exakt en även om det nns undantagsfall då X inte 2 blir unik) är precis de X sådana att |AX − Y | minimeras. (Egentligen är det ganska direkt varför denna ekvation är ekvivalent med att är ju samma sak som att varje kolumn i 12. Determinanter Determinanten är en funktion som tar kvadratiska matriser och ger reella tal på ett sådant sätt att determinanten är noll om och endast om matrisen ej är inverterbar. Tyvärr är teorin för determinanter lite stökig, och vi kommer inte ge några explicita bevis, utan hänvisar för detta till kursboken. Vi börjar med att deniera determinanten induktivt via så kallad radexpansion längs första raden. Vi ska alltså deniera a11 a21 det . .. an1 a12 a22 ... ... . . . .. an2 ... . a11 a1n a21 a2n =: . . . .. . an1 ann a12 a22 ... ... a1n a2n . . . .. . . . an2 ... . ann för n ≥ 2. LINJÄR ALGEBRA (För n=1 denierar vi det(a11 ) := a11 . 23 Vi använder dock ej absolutbeloppstecknet i detta fall. n=2 := a11 a22 − a12 a21 . Notera att determinanten inte nödvändigtvis är positiv). För a11 a21 a12 a22 denierar vi (n − 1) × (n − 1)-matriser. Då låter a1n a2n := . . . ann a21 a23 . . . a2n . . . a2n a31 a33 . . . a3n . . . a3n − a12 .. . . . .. .. . . . . . . . . . an1 an3 . . . ann . . . ann a21 a22 . . . a2(n−1) a31 a32 . . . a3(n−1) + . . . + (−1)n+1 a1n . . . . .. . . .. . . . an1 an2 . . . an(n−1) Antag nu att vi denierat determinanten för vi a11 a12 . . . a21 a22 . . . .. . .. . . . . an1 an2 . . . a22 a23 a32 a33 a11 . . . .. . an2 an3 Det är värt att notera att i fallet n = 2 är determinanten radvektorerna i matrisen spänner upp, och om n=3 ± arean av det ± volymen av är den parallellogram som den parallellepiped som spänns upp av radvektorerna. Man kan också visa att determinanten ges av följande (det är denna denition som används i boken): a11 a21 .. . an1 a12 a22 ... ... a1n a2n . . . .. . . . an2 ... . ann X (−1)N (p1 ,p2 ,...,pn ) a1p1 a2p2 · · · anpn , = tillåtna produkter p1 6= p2 6= . . . 6= pn , och N (p1 , p2 , . . . , pn ) är negativa par = antalet par (i, j) sådana att i < j men pi > pj . (Ett annat där summan tas över alla mängden av alla sätt att säga detta är att p1 , p2 , . . . , pn är en permutation av 1, 2, . . . , n och (−1)N (p1 ,p2 ,...,pn ) är permutationens tecken.) Man kan visa att följande gäller för determinanten. Sats 34. • • • • detA 6= 0 ⇔ A är inverterbar. I detta fall det(AB) = detAdetB, detAt = detA. detIn = 1, där In är identitetsmatrisen. gäller detA−1 = 1/detA, Vi kan alltså använda denitionen ovan induktivt för att räkna ut determinater, men oftast är detta inte så smidigt. Istället är det bättre att använda följande (eller ofta en kombination av detta och ovanstående denition) som säger hur determinanten påverkas vid elementära radoperationer på matrisen A. Sats 35. Om A är en n × n−matris, då ändras determinanten på följande sätt vid elementära radoperationer på A. • Multiplicerar vi en rad med en konstant k , då multipliceras även determinanten med k , • Lägger vi till en konstant multipel av en rad till en annan ändras inte determinanten, • Byter vi plats på två rader byter determinanten tecken. Detta kan också användas för att beräkna determinanten. För om A inte är inverterbar då kan vi skapa en nollrad via elementära radoperationer, och alltså blir determinanten noll. Annars kan 24 TOMAS SJÖDIN vi med hjälp av elementära radoperationer gå från A In , till och om vi då håller reda på hur alla dessa radoperationer ändrar determinanten, samt använder att detIn = 1 får vi fram dess värde. Oftast är det dock i praktiken bäst att använda en kombination av radoperationer och radexpansioner som ovan. 13. Linjära avbildningar Denition 36. En avbildning (=funktion) F mellan två vektorrum U, V (skrivet F : U → V) som uppfyller F (x̄ + ȳ) = F (x̄) + F (ȳ), F (kx̄) = kF (x̄) för alla vektorer x̄, ȳ ∈ U och skalärer F (r̄0 + tv̄) = F (r̄0 ) + tF (v̄) F (v̄) = 0). k kallas linjär. ger att linjer avbildas på linjer eller punkter (det senare om Det är också lätt att se att en linjär avbildning uppfyller F (0) = 0. Vidare gäller att om F, G : U → V är linjära, då är även dess summa F + G, denierad via (F + G)(x̄) = F (x̄) + G(x̄), linjär. Och om k ∈ R då är även kF , denierad via (kF )(x̄) = kF (x̄) linjär. D.v.s. mängden av alla linjära avbildningar från U till V utgör själva ett vektorrum. En speciellt viktig linjär avbildning av ett vektorrum på sig själv är identitetsavbildningen I som avbildar varje vektor på sig själv: I(x̄) = x̄. Andra exempel på linjära avbildningar är rotationer, och projektioner i Euklidiska rum. 13.1. Matriser för linjära avbildningar: Låt F : U → V vara en linjär avbildning, samt antag u = u1 u2 · · · uk samt v = v 1 v 2 · · · v r till U respektive V. Då att varje vektor u ∈ U kan skrivas entydigt på formen uX , och F (u) = F (uX) = vY för unikt Y . Om vi låter vYi = F (ui ) och skapar matrisen | | ··· | A := Y1 Y2 · · · Yk , | | ··· | att vi valt baser gäller något där vi med detta menar att vi sätter in Yi :a i kolumnerna i F (uX) = vAX Vi säger att F för alla har matrisrepresentation (eller bara matris) A, då gäller att X. A i baserna u, v . Observera att denna i högsta grad beror på båda dessa val av baser. Så man kan säga att när vi väl valt baser så är linjära avbildningar inget annat än multiplikation med en matris. Dessutom är det lätt att inse att det bara nns en matris mellan r × k -matriser A som uppfyller ovanstående, så vi har alltså en och linjära avbildningar från U till 1−1 korrespondans V. För att se varför ovanstående gäller notera att med x1 x2 X= . .. xk då har vi F (uX) = F (x1 u1 + x2 u2 + . . . + xk uk ) = x1 F (u1 ) + x2 F (u2 ) + . . . + xk F (uk ) = x1 (vY1 ) + x2 (vY2 ) + . . . + xk (vYk ) = v(x1 Y1 + x2 Y2 + . . . + xk Yk ) = v(AX) LINJÄR ALGEBRA 25 14. Sammansatta och inversa avbildningar Sammansatta avbildningar. Antag att vi fått tre vektorrum U, V, W och F : U → V, G : V → W är linjära. Vi denierar då den sammansatta avbildningen G ◦ F : U → W via (G ◦ F )(u) = G(F (u)). Det är lätt att visa att detta är en linjär avbildning, vidare om u, v, w är baser där F respektive G har matriser A respektive B då har G ◦ F matris BA relativt u, w . (Man 14.1. kan säga att matrismultiplikationen är denierad precis så att detta ska gälla). Inversa Avbildningar. 14.2. F : U → V vara en linjär avbildning. Vi säger då F −1 : V → U, kallad F :s invers, sådan att Låt att F är inverterbar om det nns en linjär avbildning F ◦ F −1 (v) = v för alla v ∈ V, U, V är ändligdimensionella, då har F Om {0}. F −1 ◦ F (u) = u för alla en invers om och endast om u ∈ U. dimU = dimV och N (F ) = Vi har också (som förväntat) följande resultat: Sats 37. Låt U, V ha baser u respektive v, där dimU = dimV. Den linjära avbildningen F :U→V har då en invers om och endast om dess matris A i dessa baser är inverterbar, och F −1 har då matris A−1 relativt dessa. 15. Nollrum, Värderum och Dimensionssatsen Följande sats är rättfram att visa från denitionen av linjära avbildningar. Sats 38. Låt F :U→V vara linjär. • N (F ) := {u ∈ U : F (u) = 0} är ett delrum till U, kallat F :s nollrum, • V (F ) := {F (u) : u ∈ U} är ett delrum till V, kallat F :s värderum. Vi har också följande resultat: U = [u1 , u2 , . . . , um ] ⇒ V (F ) = [F (u1 ), F (u2 ), . . . , F (um )]. Sats 39 (Dimensionssatsen). Låt F :U→V vara linjär. Då gäller att dimN (F ) + dimV (F ) = dimU. 16. Isometriska och symmetriska avbildningar 16.1. Isometriska avbildningar. isometri om Låt E vara ett Euklidiskt rum. En linjär avbildning F : E → E kallas för en (linjär) |F (u)| = |u| för alla u ∈ E. Vi har följande sats: Sats 40. Låt e = ekvivalent: (a) (b) (c) (d) e1 e2 ··· en vara en ON-bas till E. För en linjär avbildning är då följande F är en isometri, (F (u)|F (v)) = (u|v) för allau, v ∈ E, F (e1 ) F (e2 ) · · · F (en ) är en ON-bas till E, F :s matris A i basen e är ortonormal, d.v.s. At A = I . OBS! En ortonormal matris uppfyller alltid på R2 och Sats 41. (b) detA = ±1. Följande sats karaktäriserar isometrier R3 : 2 2 (a) Om F : R → R är en isometri med matris A i standardbasen, då gäller att F är en vridning om detA = 1, och en spegling om detA = −1. Om F : R3 → R3 är en isometri med matris A i standardbasen, då gäller att F är en vridning om detA = 1. Om detA = −1 då är F antingen en spegling, eller en sammansättning mellan en vridning och en spegling. 26 TOMAS SJÖDIN 16.2. Symmetriska avbildningar. En avbildning (u|F (v)) gäller för alla u,v ∈ E. e2 · · · en är en ON-bas till E Om e1 A i denna bas är symmetrisk, d.v.s. At = A. då är F :E→E F kallas symmetrisk om (F (u)|v) = symmetrisk om och endast om dess matris 17. Basbyte • Basbyten: Antag v̄1 v̄2 · · · v̄n . I att vi i ett vektorrum V har två baser u = ū1 ū2 ··· ūn och v = så fall kan vi skriva (1 ≤ i ≤ n) v̄i = c1i ū1 + c2i ū2 + . . . + cni ūn c1i , . . . , cni . för unikt bestämda reella tal Matrisen c11 c21 T = . .. cn1 c12 c22 ... ... . . . .. cn2 ... . c1n c2n . . . cnn v− till u−basen. Rent formellt kommer det vara bekvämt att skriva: c11 c12 . . . c1n c21 c22 . . . c2n v̄n = ū1 ū2 . . . ūn . . . . . . .. . .. . . cn1 cn2 . . . cnn kallas övergångsmatrisen från v̄1 v̄2 ... Mer kortfattat kan vi säga att med v i = uYi så är | T = Y1 | | Y2 | ··· ··· ··· | Yn , | och v = uT ⇔ u = vT −1 . Notera att T −1 är övergångsmatrisen från u− till inverterbar alltid avbildar en bas på en bas, så och endast om T v−basen. Vidare gäller att en matris som är detT 6= 0. Förhållandet mellan koordinater i de olika baserna ges av att om en vektor gäller att T är en övergångsmatris mellan några baser om vY = (uT )Y = u(T Y ) = uX , u = vY = uX , då eller med andra ord X = T Y. (Observera att vi alltså får u−koordinaterna från v−koordinaterna.) u, v, w till V och T1 är övergångsmatris från v till u-basen, och w till v -basen. Då är T = T1 T2 övergångsmatris från w till u-basen. Antag nu att vi har tre baser T2 är övergångsmatris från •ON-baser: Om u och v är ON-baser till ett Euklidiskt rum E, och T är övergångsmatrisen given ovan, då gäller att T tT = I d.v.s. t T =T −1 . En matris T , som uppfyller detta kallas ortonormal, eller ON-matris. (Kom ihåg att detta innebär att motsvarande avbildning är en isometri.) •Linjära avbildningars matriser i olika baser: Låt F : V → V vara linjär och antag att vi v− till u−basen. Om vi låter Au respektive Av vara matrisen svarande mot F i respektive bas (d.v.s. Au tar en vektors koordinater i u−basen till bildens koordinater i u−basen, och på samma sätt för Av ) så gäller: har två olika baser u och v till V med övergångsmatris Av = T −1 Au T, T från LINJÄR ALGEBRA för vi har, om 27 vY = uX , F (uX) = uAu X = vT −1 Au T Y = vAv Y. T −1 (Om vidare båda baserna är ON-baser kan vi också byta mot Tt i denna formel.) Notera att det(Av ) = det(T −1 Au T ) = det(T −1 )det(Au )det(T ) = det(Au ), så detta visar att determinanten är basoberoende, och vi tar detta som denition av detF . 19. Egenvärden, Egenvektorer, Spektralsatsen Egenvärden, egenvektorer och diagonalisering. 19.1. Denition 42. En linjär avbildning med motsvarande egenvektor v̄ 6= 0 (i F :V→V V) om sägs ha ett egenvärde λ (reellt tal, eventuellt 0) F (v̄) = λv̄. F har n stycken linjärt oberoende egenvektorer v = v̄1 v̄2 · · · v̄n , och dessa till V, med motsvarande egenvärden λ1 , λ2 , . . . , λn (ej nödvändigtvis alla olika). I så Antag nu att utgör en bas fall gäller λ1 0 Av = . .. 0 d.v.s. Av är diagonal. Omvänt om A, torer till kallas F Av 0 λ2 ... ... . . . .. ... 0 . 0 0 . , . . λn är diagonal i någon bas v är elementen i denna bas egenvek- och elementen i diagonalen egenvärdena. Om det nns en bas v där Av är diagonal diagonaliserbar. Eftersom F (v̄) = λv̄ ⇔ (F − λI)v̄ = 0 så har vi att λ är ett egenvärde till F om och endast om F − λI inte är inverterbar, d.v.s. om och endast om det(F − λI) = 0. (Kom ihåg att determinanten är basoberoende). Sats 43. Om {v̄1 , v̄2 , . . . , v̄k } är egenvektorer svarande mot olika egenvärden till F : V → V så är de linjärt oberoende. Speciellt om F har dimV stycken olika egenvärden, då nns alltid en bas av egenvektorer till F . Vi kommer ibland vilja tala om egenvärden/egenvektorer till en vi att vi ser denna som en linjär avbildning på ON-diagonalisering. 19.2. med dimE = n. F Låt F :E→E Mn×1 n × n−matris A, och då menar i standardbasen. vara en linjär avbildning på ett Euklidiskt rum kallas ON-diagonaliserbar om det nns en ON-bas i vilken F :s E matris är diagonal. Sats 44 (Spektralsatsen). Kom ihåg att till E. F F är ON-diagonaliserbar om och endast om F är symmetrisk. är symmetrisk om och endast om den har en symmetrisk matris i någon ON-bas Om detta gäller har den automatiskt en symmetrisk matris i alla ON-baser till E. 28 TOMAS SJÖDIN Något om lösningsmetoder för ovanstående problem. 19.3. bas u Antag att A nu är en n × n−matris F , välj någon lämplig F : s matris A i denna. Givet (ON-bas om vi vill ON-diagonalisera i Euklidiskt rum)och bestäm som vi vill diagonalisera, då börjar vi med att lösa det(A − λI) = 0 med avseende på arna X λ, A. vilket ger alla egenvärden till Sedan för varje egenvärde λ bestäm lösning- till (A − λI)X = 0. uX Dessa lösningar ger alla egenvektorer egenvektorer till u−basen v = v̄1 v̄2 ··· v̄n som svarar mot λ. Om det nu går att hitta en bas av från ovanstående då ges transformationsmatrisen T från v som tidigare av: v i = uYi | T = Y1 | | Y2 | | Yn , | ··· ··· ··· och λ1 0 T −1 AT = . .. 0 där λi är egenvärde svarande mot v̄i . 0 λ2 ... ... . . . .. ... 0 . 0 0 . , . . λn Om vi vill ON-diagonalisera måste vi också se till att F blir en ON-bas. Detta går bara enligt ovan om är symmetrisk (d.v.s. A = At ). v ovan Egenvektorer svarande mot olika egenvärden är i detta fall automatiskt ortogonala mot varandra, men om vi för ett visst egenvärde har ett egenrum (= rummet av alla egenvektorer svarande mot ett visst egenvärde + nollvektorn), då måste man i detta rum välja ut en ON-bas m.h.a. t.ex. GramSchmidts metod. Ak Ett annat vanligt problem som ges är att räkna ut D för något heltal k. Om A = T −1 DT där är diagonal λ1 0 D= . .. 0 0 λ2 ... ... . . . .. ... 0 . 0 0 . , . . λn då har vi Ak = (T −1 DT )k = T −1 Dk T, och λk1 0 Dk = . .. 0 0 λk2 ... ... . . . .. ... 0 . 0 0 . . . . λkn 20. Kvadratiska former Vi kommer här bara titta på kvadratiska former på Rn (boken behandlar allmännare Euklidiska rum, men det blir inte någon större skillnad). En kvadratisk form på R2 är en funktion Q(x1 , x2 ) = Q : R2 → R ax21 på formen + 2bx1 x2 + cx22 . En sådan kan vi med matriser skriva på formen Q(x1 , x2 ) = x1 x2 a b b x1 . c x2 LINJÄR ALGEBRA I Rn , 29 om vi skriver x1 x2 X = . , .. xn och betecknar standardbasen med funktion Q : Rn → R e, då denierar vi analogt en kvadratisk form att vara en på formen Q(x1 , x2 , . . . , xn ) = Q(eX) = X t AX, där A är symmetrisk (d.v.s. A = At ). Vi observerar att följande gäller: • Q(eλX) = λ2 Q(eX), • Q(e0) = 0, • Q är ett polynom som bara innehåller andragradstermer, • Om X = T Y då gäller att Q(eX) = Q(eT Y ) = Y t T t AT Y , och T t AT är symmetrisk. D.v.s. att vara en kvadratisk form är invariant om vi byter till en ny ON-bas. Enligt spektralsatsen nns det en ON-bas torer till A med motsvarande egenvärden f = f 1 f 2 · · · f n till Rn bestående av egenvekλ1 , λ2 , . . . , λn (där dessa inte alla behöver vara olika). Vi har då följande resultat: Sats 45. Om f = motsvarande f2 · · · fn egenvärden λ1 , λ2 , . . . , λn f1 är en ON-bas till Rn bestående av egenvektorer till A med då gäller att Q(eX) = Q(f Y ) = λ1 y12 + λ2 y22 + . . . + λn yn2 , där y1 y2 Y = . .. yn är koordinaterna för eX i f −basen. 20.1. Teckenkaraktär. • • • • • Q(eX) = X t AX på Rn sägs vara: Positivt denit om Q(eX) > 0 för alla X 6= 0, Positivt semidenit om Q(eX) ≥ 0 för alla X med likhet för något X 6= 0, Negativt denit om Q(eX) < 0 för alla X 6= 0, Negativt semidenit om Q(eX) ≤ 0 för alla X med likhet för något X 6= 0, En kvadratisk form Indenit om den antar både positiva och negativa värden. Sats 46. Om λ1 , λ2 , . . . , λn är egenvärdena till A, då gäller att Q är: • • • • • Positivt denit om och endast om alla λi > 0, Positivt semidenit om och endast om alla λi ≥ 0 med likhet för något i, Negativt denit om och endast om alla λi < 0, Negativt semidenit om och endast om alla λi ≤ 0 med likhet för något i, Indenit om det nns både positiva och negativa egenvärden. Att diagonalisera A är också ett eektivt sätt att kontrollera värdena på Q enligt följande sats: Sats 47. Om λ1 ≤ λ2 ≤ . . . ≤ λn är egenvärdena till A, då gäller att: • λ1 |eX|2 ≤ Q(eX) ≤ λn |eX|2 , • λ1 är det minsta värdet Q antar på {|eX| = 1}, och är egenvektorer till A svarande mot egenvärdet λ1 , • λn är det största värdet Q antar på {|eX| = 1}, och är egenvektorer till A svarande mot egenvärdet λn . detta värde antas i de punkter som detta värde antas i de punkter som 30 TOMAS SJÖDIN 21. Andragradskurvor, Andragradsytor och System av Differentialekvationer Andragradskurvor och Andragradsytor. 21.1. Problemet att beskriva andragradskurvor i två dimensioner och andragradsytor i tre dimensioner är analoga. Här tittar vi bara på fallet med två variabler (d.v.s. andragradskurvor), det med tre behandlas på motsvarande sätt. Givet en andragradsekvation Ax21 + 2Bx1 x2 + Cx22 + 2Dx1 + 2Ex2 + F = 0 i två variabler (A, B, C, D, E, F reella tal, minst ett av A, B, C 6= 0) så vill vi veta vilken typ av geometriskt objekt lösningsmängden till denna utgör i planet. Ekvationen kan skrivas på formen (x1 x2 ) A B B C x1 x2 + (2D 2E) x1 x2 + F = 0. Enligt spektralsatsen nns ON-matris C11 C21 T = sådan att T λ1 , λ2 (där är egenvärden till t A B att A B B C B C C12 C22 T = λ1 0 0 λ2 ). Vi har nu att de nya koordinaterna för x1 x2 =T y1 y2 x1 x2 ges av . I dessa nya koordinater ges alltså ekvationen av: (y1 y2 )T t A B B C y1 y2 T λ1 y12 + λ2 y22 + (2D y1 y2 + (2D 2E)T +F = C11 y1 + C12 y2 2E) +F = C21 y1 + C22 y2 λ1 y12 + λ2 y22 + 2D1 y1 + 2E1 y2 + F = 0, där D1 , E1 lätt räknas fram explicit. Detta ger att vi blivit av med den blandade andragradstermen, och vi kan nu använda kvadratkomplettering för att avgöra vilken typ av geometriskt objekt det handlar om. Vi gör detta för fallet λ 1 y1 + Om F− D12 λ1 − E12 λ2 <0 D1 λ1 2 λ1 , λ2 > 0. I detta fall ger kvadratkomplettering 2 D12 E12 E1 + λ 2 y2 + + F− − = 0. λ2 λ1 λ2 ger detta en ellips, om det är 0 ekvationen: ger det en punkt, och om det är >0 ger det ingenting. Man får behandla de olika möjliga fallen för egenvärdena var för sig på motsvarande sätt. 21.2. Dierentialekvationer. 21.2.1. En linjär dierentialekvation. homogena ekvationen Den y 0 (t) = ky(t) (eller bara y 0 = ky ) har allmän lösning y(t) = Cekt . (y(t)e−kt )0 = y 0 (t)e−kt − ky(t)e−kt = e−kt (y 0 (t) − ky(t)) = 0 vilket är ekvivalent med att y(t)e = C. 0 kt Ekvationen y (t) = ky(t) + g(t) har allmän lösning y(t) = Ce + yp (t), där yp (t) är en så kallad Detta följer av att −kt partikulärlösning. D.v.s. en x lösning (utan obestämda parametrar) till ekvationen. En sådan kan ofta hittas med hjälp av en lämplig ansats. LINJÄR ALGEBRA 21.2.2. 31 Parameterkurvor i Rn och Mn×1 . då kallar vi (tänk t.ex. Om vi får varje koordinat xi som funktion av tiden xi (t), (x1 (t), x2 (t), . . . , xn (t)) (som alltså är en funktion från R till Rn ) för en parameterkurva på linjer på parameterform som ett exempel). Vi kommer nedan anta att alla xi (t) är kontinuerligt deriverbara funktioner, och vi sätter x1 (t) x2 (t) X(t) = . , .. xn (t) vilket är en parameterkurva i Mn×1 . Det är uppenbart hur vi adderar två parameterkurvor till varandra, och hur vi multiplicerar med skalär, och dessa utgör då ett vektorrum. Vi denierar nu x01 (t) x02 (t) X 0 (t) := . . .. x0n (t) Det är rättfram att visa att vi har (X1 (t) + X2 (t))0 = X10 (t) + X20 (t), och (cX(t))0 = cX 0 (t). D.v.s. derivation av X(t) är en linjär avbildning. Mer allmänt kan man också med en direkt uträkning (som dock är lite längre) visa att om T är en (konstant) n × n−matris, då gäller (T X(t))0 = T X 0 (t). 21.2.3. System av dierentialekvationer. Vi antar nu att vi fått ett system av dierentialekvatio- ner: 0 x1 (t) = c11 x1 (t) + c12 x2 (t) + . . . + c1n xn (t) x02 (t) = c21 x1 (t) + c22 x2 (t) + . . . + c2n xn (t) . . . x0n (t) = cn1 x1 (t) + cn2 x2 (t) + . . . + cnn xn (t). Detta är ett homogent system. Man kan även behandla ickehomogena system med liknande metoder som nedan. Detta system kan vi med matrisnotation skriva som X 0 (t) = CX(t). Antag nu att vi kan diagonalisera dardbasen till Mn×1 ) till λ1 , λ2 , . . . , λn , då vet vi att Mn×1 C. D.v.s. om vi kan hitta en ny bas bestående av egenvektorer till λ1 0 T −1 CT = . .. 0 Alltså får vi om 0 λ2 ··· ··· . . . .. 0 ··· . C, 0 0 . . . . λn X = TY X 0 (t) = (T Y (t))0 = T Y 0 (t) = CX(t) = CT Y (t), eller ekvivalent Y 0 (t) = T −1 CT Y (t). f = eT (där e är stan- med motsvarande egenvärden 32 TOMAS SJÖDIN Det vill säga vi får systemet 0 y1 (t) = λ1 y1 (t) y20 (t) = λ2 y2 (t) Detta kan vi lösa direkt: T Y (t) . . . yn0 (t) = λn yn (t) yi (t) = Ci eλi t . Detta ger oss alltså Y (t), och sedan har vi X(t) = T explicit vilket ger oss lösningen till vårt system. (Observera att vi inte behöver invertera någonstans i ovanstående uträkningar).