Version 0.82 Linjär algebra kapiltet från ett ODE-kompendium Mikael Forsberg 2010 10 28 Den här boken är typsatt av författaren med hjälp av LATEX. Alla illustrationer är utförda av Mikael Forsberg med hjälp av xfig . Stockholm 2006-2010 c Mikael Forsberg Innehåll 1 Komplettering i linjär algebra 1.1 Om baser till vektorrum . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Baser för radrum, kolonnrum och nollrum till en matris 1.1.2 Ortogonala och ortonormala baser . . . . . . . . . . . . 1.2 Matrisen som avbildning . . . . . . . . . . . . . . . . . . . . . . 1.3 Linjära operatorer . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Isometrier . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Egenvärden och egenvektorer . . . . . . . . . . . . . . . . . . . 1.4.1 Användningar av egenteorin . . . . . . . . . . . . . . . . 1.5 Blandade övningsuppgifter . . . . . . . . . . . . . . . . . . . . . c Mikael Forsberg 2010 . . . . . . . . . 1 1 4 6 8 10 11 12 14 16 ii INNEHÅLL c Mikael Forsberg 2010 Figurer 1.1 1.2 1.3 Figur till exempel 1.2.5 . . . . . . . . . . . . . . . . . . . . . . . Ellipsen som ges av ekvation (1.6), här återgiven med sina symmetriaxlar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I de nya variablerna X och Y blir vår sneda ellips i stället en vanlig ellips som ligger symmetriskt kring de nya axlarna. Notera att de nya axlarna är symmetrisaxlarna till den sneda ellipsen som vi såg i figur 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . c Mikael Forsberg 2010 10 15 17 iv FIGURER c Mikael Forsberg 2010 Kapitel 1 Komplettering i linjär algebra 1.1 Om baser till vektorrum Om vi tar en vanlig vektor (a, b) så betyder denna att vi tar a steg längs x-axeln och b steg längs y-axeln. Eftersom dessa axlar har riktningar som vi beskriver med vektorerna ex = (1, 0) och ey = (0, 1) så kan vi skriva (a, b) = a(1, 0) + b(0, 1), och man säger att (a, b) är en linjärkombination av vektorerna ex och ey . Poängen är också att alla vektorer i planet kan beskrivas på detta sätt. Man säger att vektoruppsättningen S2 = {(1, 0), (0, 1)} är en bas för planet. Just denna bas kallas för standardbasen för planet. På samma sätt bildar vektoruppsättningen S3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} standardbasen för R3 . Nu är det emellertid så att det finns många baser så vi ska lära oss mer om vad en bas är och hur man kan avgöra om en vektoruppsättning är en bas eller inte. Definitionen fokuserar på två egenskaper som vi kan se hos ovanstående standardbaser. Dels så kan alla vektorer i rummet skrivas som en linjärkombination av basvektorerna men basvektorerna måste vara oberoende av varandra, ingen av de ingående vektorerna ska kunna fås genom att kombinera de övriga. Vi sammanfattar detta formellt i följande Definition 1.1.1. En uppsättning vektorer B = {b1 , . . . , bn } i ett vektorrum V kallas för en bas om följande gäller: i.) b1 , . . . , bn är linjärt oberoende , dvs ekvationen t1 b1 + · · · + tn bn = 0 ska endast har den triviala lösningen t1 = t2 = · · · = tn = 0 c Mikael Forsberg 2010 (1.1) 2 Komplettering i linjär algebra ii.) Alla vektorer v ∈ V kan skrivas som linjärkombination av vektorerna b1 , . . . , bn , dvs det finns tal a1 , . . . , an (kallade koordinaterna för vektorn v med avseende på basen B) sådana att v = a1 b1 + . . . an bn , (1.2) d.v.s. b1 , . . . , bn spänner upp vektorrummet V . Kommentar 1.1.2. Om en mängd vektorer inte är linjärt oberoende så säger man att de är linjärt beroende . Linjärt beroende betyder alltså att systemet (1.1), som formuleras nedan i ekvation (1.3), har andra lösningar än den triviala lösningen. Man kan också formulera detta som att en av vektorerna kan uttryckas med hjälp av de övriga, vilket förtydligar att vektorerna är beroende av varandra. Kommentar 1.1.3. Om vi tittar på ekvation (1.1) så kan denna skrivas som en homogen matrisekvation Bt = 0, (1.3) där B är matrisen som har vektorerna bi , i = 1, . . . , n som kolonner och t är kolonnmatrisen (t1 , . . . , tn )T ( observera transponatet ). Denna skrivning ger oss möjlighet att tolka det linjära oberoendet för några olika fall. 1. Om vektorerna bi är m-dimensionella med m < n så är B en m × n matris med färre rader än kolonner. Detta innebär att systemet (1.3) är underbestämt och alltid har andra lösningar än den triviala. I detta fall (m < n) så kan B inte bli en bas. fler vektorer än rumsdimensionen kan aldrig bilda en bas eftersom de alltid är linjärt beroende 2. Om m > n så är systemet (1.3) överbestämt , dvs vi har fler ekvationer än obekanta. Det är då möjligt att systemet bara har den triviala lösningen vilket betyder att Vektorerna bi bildar en bas för ett delrum till V , dvs en delmängd av V som är ett vektorrum i sig. Man kan säga att om vektorerna är linjärt oberoende så bildar de en bas för det rum de spänner upp. Exempel 1.1.5 visar en sådan här situation. 3. Det tredje och sista fallet är då m = n vilket innebär att matrisen B är kvadratisk. I detta fall så kan villkoret för linjär oberoende översättas med att säga att matrisen B skall vara inverterbar vilket innebär att determinanten för B ska vara nollskild. Exempel 1.1.4. Om vi tittar på följande mängd som består av tre tvådimensionella vektorer B = {b1 = (1, 0), b2 = (0, 1), b3 = (a, b)} så är det direkt uppenbart att detta inte blir en bas eftersom den tredje vektorn kan skrivas c Mikael Forsberg 2010 1.1 Om baser till vektorrum som en linjärkombination av de två första: (a, b) = a(1, 0) + b(0, 1). Det är detta som alltid händer i situationen som beskrivs i punkt 1 i kommentaren ovan! Låt oss nu titta på hur systemet (1.3) blir i detta fall 1 0 a 0 1 0 a 0 t1 + t2 + t3 = ⇒ , 0 1 b 0 0 1 b 0 som ger lösningarna (t1 , t2 ) = −(a, b)t3 vilket ger många lösningar förutom den triviala lösningen. De tre vektorerna är alltså inte linjärt oberoende (utan linjärt beroende) och bildar alltså inte en bas. Notera dock att de tre vektorerna spänner upp R2 . För att vara en bas måste mängden innehålla så få vektorer som möjligt. Man kan visa att varje bas för samma vektorrum innehåller samma antal vektorer, det är detta antal vektorer i en bas som vi kallar för vektorrummets dimension. Exempel 1.1.5. I detta exempel tittar vi på vektormängden C = {c1 = (1, 0, 0), c2 = (0, 1, 0)}. Bildar denna mängd en bas för R3 ? Efter att ha läst föregående exempel så vet vi att antalet vektorer i en bas är lika med rummets dimension. I vårt fall krävs det alltså tre vektorer och vår mängd innehåller bara två. Vi kan nu fråga oss om de två vektorerna är linjärt oberoende och om de kan vara en bas för något tvådimensionellt rum (eftersom vi har två vektorer). För att undersöka det linjära beroendet så löser vi följande ekvationssystem 0 0 1 0 0 1 0 t1 + 1 t 2 = 0 ⇒ 0 1 0 0 0 0 0 0 0 Det följer direkt att detta system endast lösningarna t1 = t2 = 0 vilket således bevisar vektorernas linjära oberoende. Vilket rum är C en bas för? För att vara en bas så måste vektorerna spänna upp rummet så om vi skriver upp en typisk linjärkombination så kan vi kanske få en idé: x(1, 0, 0) + y(0, 1, 0) = (x, y, 0) Det ser alltså ut som våra vektorer spänner upp alla tredimensionella vektorer som har noll i sin tredje koordinat. Våra vektor spänner upp x − y planet som är ett delrum av R3 . (Ett delrum av R3 är antingen en linje eller ett plan som går genom origo.) Exempel 1.1.6. Undersök vilken av mängderna A = {(1, 1, 0), (0, 1, 1), (1, 0, 1)} och B = {(2, 1, 3), (1, 3, 1), (1, −2, 2)} som bildar en bas för R3 . Vi använder oss av punkt 3 i kommentar 1.1.3 som säger att vi har en bas om och bara om matrisdeterminanten inte är noll. Vi får 1 0 1 det 1 1 0 = 2 0 1 1 c Mikael Forsberg 2010 3 4 Komplettering i linjär algebra och 2 1 1 det 1 3 −2 = 0. 3 1 2 Detta innebär alltså att endast mängden A är en bas för R3 ! Övning 1.1. Visa att b1 = 1 2 , b2 = 1 3 bildar en bas för R2 Övning 1.2. Undersök om 1 b1 = 2 , 1 1 b2 = 2 , 2 1 b3 = 2 3 bildar en bas för R3 . Övning 1.3. Förklara varför 1 1 0 1 B = { 0 , 1 , 1 , 1 } 1 0 1 1 inte bildar en bas för R3 . På vilket sätt kan vi enklast göra om B till en bas? 1.1.1 Baser för radrum, kolonnrum och nollrum till en matris Radrummet Row(M ) till en matris M är det rum som spänns upp av matrisens rader, dvs Row(M ) = span( raderna till M ) På samma sätt så definierar vi kolonnrummet Col(M ) som det rum som spänns av matrisens kolonner, dvs Col(M ) = span( kolonnerna till M ) Radrummet och kolonnrummet till en matris har samma dimension och denna dimension kallas matrisens rang, som vi betecknar med Rang(M ) . Baser för rad och kolonnrummen kan beräknas mha Gausselimination på sätt som visas i följande exempel. Nollrummet Noll(M ) till en matris M är lösningarna till det homogena systemet M x = 0. Rangen, nollrummets dimension samt antalet kolonner n i matrisen är kopplade via sambandet Rang(M ) + dimension för Noll(M ) = n, c Mikael Forsberg 2010 1.1 Om baser till vektorrum 5 som är ett viktigt resultat som kallas dimensionssatsen (rank theorem i Lay’s bok) Exempel 1.1.7. Beräkna baser för rad, kolonn 1 3 0 3 0 1 M = −4 6 −2 1 och nollrummen till matrisen 1 1 0 12 −1 3 Gausseliminering av M ger oss matrisen 1 3 0 1 0 −9 1 −2 0 M = 0 0 0 0 0 0 0 0 De två nollskilda raderna i matrisen M bildar en bas för radrummet. För att få fram en bas för kolonnrummet så börjar vi med att identifiera i vilka kolonner som de ledande elementen står i. I vår matris har vi att de ledande elementen i M 0 står i kolonn 1 och 2. Nu går vi tillbaka till ursprungsmatrisen1 M och väljer i denna kolonn 1 och 2, som då blir en bas för kolonnrummet till vår matris. Alltså bas för radrummet: {(1, 3, 0, 1), (0, −9, 1, −2)} och bas för kolonnrummet blir 3 1 0 3 −4 , 6 12 1 1 Observera att de två första kolonnerna i M 0 inte är en bas för kolonnrummet till M även om de är en bas för Col(M 0 ). Problemet är att gausselimineringen, som ju involverar radoperationer visserligen bevarar radrummet medan samma radoperationer förstör kolonnrummet så att Col(M ) 6= Col(M 0 ). c Mikael Forsberg 2010 6 Komplettering i linjär algebra Från dimensionssatsen vet vi att nollrummet måste vara tvådimensionellt och vi ser också att vi har två fria variabler och detta ger att nollrummet faktiskt är tvådimensionellt. En bas för nollrummet får vi genom att identifiera de fria variablerna2 z = 9s och u = 9t (om vi sätter xT = (x, y, z, u)T i ekvationen M x = 0) Vi får då från rad 2 i M 0 att y = 19 9s − 29 9t = s − 2t och från rad 1 att x = −3y − u = −3s + 6t − 9t = −3s − 3t varför vi får att lösningen till M x = 0, vilket ju är nollrummet, ges av x −3 −3 y 1 −2 z = 9 s + 0 t u 0 9 från detta är det uppenbart att −3 1 B= 9 0 −3 −2 , 0 9 är en bas för nollrummet. 1.1.2 Ortogonala och ortonormala baser Standardbaserna i föregående sektion har, förutom att de är baser, även andra viktiga egenskaper: för det första är vektorerna ömsesidigt ortogonala och för det andra så har varje vektor längden ett. Vi gör följande definition: Definition 1.1.8. n stycken vektorer o1 , . . . , on i Rn bildar en ortogonal bas om vektorerna är ömsesidigt ortogonala, dvs om oi • oj = 0, om i 6= j Om alla vektorerna dessutom har längden ett så säger vi har en ortonormal bas . En ortonormal bas brukar ofta kallas en ON bas . Detta kan uttryckas som ( 0 om i 6= j oi • oj = δij = 1 om i = j, där δij , definierad av den andra likheten, brukar kallas för Kroneckers 3 delta En mängd vektorer kallas för en ortonormal mängd om de är ömsesidigt ortogonala och alla vektorer har längden 1. 2 Att vi sätter z = 9s och u = 9t är bara för att slippa få bråk i basvektorerna Leopold (1823-1891), tysk matematiker. 3 Kronecker, c Mikael Forsberg 2010 1.1 Om baser till vektorrum 7 Exempel 1.1.9. Basen B = {b1 = (1, 1), b2 = (1, −1)} är en ortogonal √ bas för R2 som inte är ortonormal eftersom båda vektorerna har längden 2. Det är lätt att göra om B till en ON-bas genom att normera de ingående vektorerna, dvs dividera vektorerna med deras längd. Detta betyder att √ √ √ √ BON = {(1/ 2, 1/ 2), (1/ 2, −1/ 2)} är en ON-bas. Definition 1.1.10. En kvadratisk matris är en ortogonal matris om dess kolonner bildar en ortonormal mängd. (Observera att vi faktiskt säger att matrisen är ortogonal och inte ortonormal som man kanske borde) Följande sats pekar ut några av de viktigaste egenskaperna för en ortogonal matris Theorem 1.1.11. Följande är ekvivalent för en n × n-matris M i. M är ortogonal ii. M ’s kollonner bildar en ON-bas för Rn iii. M ’s rader bildar en ortonormal mängd. iv. M ’s rader bildar en ON-bas för Rn v. M −1 = M t vi. M som linjär operator är en isometri (se följande sektioner) Notera att punkt ii. och v. gör att vi får fram ett användbart test för att undersöka om en bas är ortonormal eller inte. Observera att vi tack vare v. även har Korollarium 1.1.12. Om M är en ortogonal matris så är det M = ±1 Detta korolllarium gör att vi har ett test som avgör om en matris inte är ortogonal. Om determinantens belopp inte är ett så är matrisen inte ortogonal. Däremot finns det gott om matriser med determinant 1 som inte är ortogonala: Exempel 1.1.13. Matrisen A= 3 2 2 1 har determinant 1 men är ej en ortogonal matris eftersom kolonnerna inte ens är ortogonala och de har heller inte längden ett. c Mikael Forsberg 2010 8 Komplettering i linjär algebra Exempel 1.1.14. Visa att B = {( √12 , √12 , 0), ( √12 , − √12 , 0), (0, 0, 1)} är en ONbas. Vi ställer upp vektorerna som kolonner i en 3 × 3-matris och beräknar dess determinant: √1 √1 0 2 2 det √12 − √12 0 = −1 0 0 1 Eftersom determinanten är −1 så säger satsen ovan att kolonnerna bildar ONbas för R3 . 1.2 Matrisen som avbildning Vi börjar med en definition som visar hur matrier kan uppfattas som avbildningar. Det är viktigt att förstå hur detta fungerar. Definition 1.2.1. Låt A vara en m × n matris, där vi påminner om att m är antal rader och n antalet kolonner i matrisen. Då definierar matrisen en linjär avbildning från Rn till Rm genom Rn 3 x 7→ Ax ∈ Rm , där produkten Ax är definierad om vi betraktar den n-dimensionella vektorn x som en n × 1-matris. Vi påminner om att en avbildning L(x) mellan två vektorrum är linjär om följande gäller för två godtyckliga element x, y och två godtyckliga skalärer a och b i L’s definitionsmängd: L(ax + by) = aL(x) + bL(y). Orden avbildning är en synonym med begreppet funktion. Det är viktigt att förstå att definitionen av matrisprodukten Ax ger en m×1 matris som på ett naturligt sätt tolkas som en m-dimensionell vektor. Låt oss titta på några exempel: Exempel 1.2.2. Låt oss studera 1×3-matrisen A = (a, b, c). Enligt definitionen ger denna matris en avbildning som går från R3 till R och som definieras av x x R3 3 x = y → (a, b, c) y = ax + by + cz z z Den observante känner troligen igen det sista uttrycket som skalärprodukten av vektorerna (a, b, c) och (x, y, z). Vi kan alltså se på skalärprodukten, som en radvektor i en matris multiplicerat med en kolonnvektor i en annan matris. Detta är många gånger en användbar insikt. c Mikael Forsberg 2010 1.2 Matrisen som avbildning 9 Exempel 1.2.3. Låt 1 A= 3 1 Då är A en avbildning A : R2 → R3 skrivas x = y= z= 2 1 1 och kan, om vi skriver x = (u, v) ∈ R2 , u + 2v 3u + v , u+v där x, y och z är variablenamnen i R3 . Låt oss nu titta lite på geometriskt definierade linjära avbildningar och hur man går tillväga för att skriva dem på matrisform. Principen är att man ser hur avbildningen avbildar standardbasvektorerna. De resulterande vektorerna ställs upp som kolonner i en matris och då har vi fått den matris som avbildningen svarar mot. Låt oss illustrera detta i ett par exempel. Exempel 1.2.4. Ett av de enklare exemplen att starta med är den avbildning som speglar en tvådimensionell vektor i x-axeln. Denna avbildning kan formuleras som så att y-koordinaten byter tecken: S : R2 3 (x, y) 7→ (x, −y) ∈ R2 . Om vi nu kollar vad som händer med standardbasvektorerna: S((1, 0)) = (1, 0) och S((0, 1)) = (0, −1). De resulterande vektorerna ställs nu upp som kolonner i en matris: 1 0 AS = 0 −1 och vi kan verifiera att denna matris ger rätt avbildning: 1 0 x x AS (x, y)t = = , 0 −1 y −y vilket ju ser alldeles rätt ut! Notera att determinanten blir −1 vilket är kännetecknande för en spegling. Exempel 1.2.5. Låt oss titta på en linjär avbildning som definieras geometriskt genom att alla vektorer roterar med centrum i origo en vinkel t. Situationen är som i figur 1.1: Från figuren ser vi att standardbasvektorerna avbildas enligt Rt ((1, 0)) = (cos t, sin t), Rt ((0, 1)) = (− sin t, cos t) och då blir avbildningens matris ARt = cos t sin t − sin t cos t c Mikael Forsberg 2010 10 Komplettering i linjär algebra t cos t sin t t - sin t cos t Figur 1.1: Figur till exempel 1.2.5 som är en matris med determinanten +1 och detta är något som karakteriserar alla rotationer. Övning 1.4. Beräkna matrisen till den avbildning som geometriskt speglar alla vektorer i y-axeln. Övning 1.5. Beräkna matrisen för den avbildning som geometriskt är spegling i y-axeln åtföljd av en rotation med π/3, dvs med 60◦ . Övning 1.6. a. Betrakta linjen y = x. Hitta matrisen för den avbildning som geometriskt är speglinen i denna linje b. Låt linjen y = 2x vara given. Hitta matrisen för den avbildning som geometriskt är speglingen i denna linje. (kan vara knepig...) c. Generalisera ovanstående till spegling i en allmän linje y = kx. (Detta är en utmanande uppgift!!) 1.3 Linjära operatorer Vi börjar med denna sektions huvudbegrepp. Definition 1.3.1. En linjär avbildning från Rn till Rn kallar vi för en linjär operator Exempel 1.3.2. En matris ger en operator om och bara om matrisen är kvadratisk. c Mikael Forsberg 2010 1.3 Linjära operatorer 11 Det viktiga här är alltså att avbildningen avbildar element från ett rum tillbaka till samma rum. Detta gör att vi kan direkt jämföra input med output och bilda oss t.ex. en uppfattning av vad avbildningen innebär geometriskt. Exempel 1.3.3. Låt oss titta på matrisen 1 0 S= 0 −1 som ger oss avbildningen x 1 0 x x 7→ = , y 0 −1 y −y dvs vi kan skriva S(x, y) = (x, −y) och från detta ser vi att avbildningen byter tecken på y-koordinaten, dvs är en spegling i x-axeln. Vi kan notera att det S = −1 p som är kännetecknande för en spegling. En annan sak är att ||S(x, y)|| = x2 + y 2 = ||(x, y)|| vilket innebär att S inte förändrar vektorers längder (m.a.o avstånd förändras inte genom denna avbildning). En operator som inte förändrar avstånd kallas för en isometri, vilket vi ska studera i nästa delavsnitt. 1.3.1 Isometrier I exempel 1.3.3 såg vi det första exemplet på en isometri. begreppet ordentligt 4 Låt oss nu definiera Definition 1.3.4. En operator L : Rn → Rn är en isometri om ||x|| = ||L(x)|| för alla x ∈ Rn . Kommentar 1.3.5. Observera att vi i denna definition inte kräver att operatorn är linjär. Det går att visa (vilket ni kan se i separat dokument om isometrier) varje isometri är affin, dvs linjär så när på en translation. Varje isometri kan ges som en ortogonal matris plus en translation, vilket har betydelse för tillämpningar som tapetmönster och liknande. I det som följer ska vi bara studera de linjära isometrierna för att motivera punkt (vii.) i teorem 1.1.11. Theorem 1.3.6. En linjär operator är en isometri om och bara om dess tillhörande matris är ortogonal. Eftersom isometrier är ortogonala matriser så följer det att deras determinant antingen är +1 eller −1. De matriser som har positiv determinant kallas för Rotationer och är en jämn isometri. De som har negativ determinant är Udda isometri och geometriskt så är de speglingar. 4 Isometri kommer av Grekiskans isos =lik, lika och metron = mått c Mikael Forsberg 2010 12 Komplettering i linjär algebra Exempel 1.3.7. Man kan visa att en rotation med en vinkel α ges av följande matris cos α − sin α Rα = sin α cos α Man får att det Rα = cos2 α + sin2 α = 1 1.4 Egenvärden och egenvektorer När vi har en linjär operator så är det naturligt att jämföra input med output. Man kan t.ex. se i fallet spegling i x-axeln, som vi studerade i exempel 1.2.4, att det finns två riktningar som inte förändras. Den mest uppenbara är ju själva spegellinjen (x-axeln) men också y-axeln förändras inte (den vänds bara upp och ned). Sådana oföränderliga riktningar är väldigt viktiga eftersom de säger mycket om avbildningens natur. Det visar sig också att dessa riktningar faktiskt karakteriserar avbildningen vilket gör det fruktbart att studera detta. Följande definition ställer upp detta problem på ett sätt som kommer visa sig användbart: Definition 1.4.1. Låt A vara en n × n matris vilket betyder att A är matrisen för en linjär operator från Rn till sig själv. När vi söker en riktning xsom inte förändras så söker man lösning till systemet Ax = λx, (1.4) där λ kallas för ett egenvärde och x för en egenvektor som hör till egenvärdet λ. Kommentar 1.4.2. Ekvation (1.4) betyder geometriskt att vi förväntar oss att en längden för vektorn x kan ändras medan riktningen bibehålls. Ekvationen skrivs vanligen om på följande sätt 0 = Ax − λx = Ax − λIx = (A − λI)x (1.5) som alltså är ett homogent ekvationssystem. Det är uppenbart att x = 0 är en lösning men den kallar vi för den triviala lösningen eftersom den inte ger någon information alls om avbildninen. Vi är i stället intresserade av de icketriviala lösningar som systemet har. Proposition 1.4.3. Egenvärdesproblemet i (1.5) har icketriviala lösningar precis då matrisen A − λI inte är inverterbar, dvs precis då det(A − λI) = 0 c(λ) = det(A − λI) blir ett polynom i variabeln λ som vi kallar för det karakteristiska polynomet och egenvärdena är tydligen nollställen till detta polynom. Låt oss nu försöka lösa ett enkelt egenvärdesproblem: Exempel 1.4.4. Hitta egenvärden och egenvektorer till matrisen −3 4 A= . 4 3 c Mikael Forsberg 2010 1.4 Egenvärden och egenvektorer 13 Vi bestämmer först det karakteristiska polynomet: −3 − λ 4 c(λ) = det(A − λI) = det = −(3 + λ)(3 − λ) − 16 = λ2 − 25, 4 3−λ som har nollställena λ = ±5, vilket alltså är våra egenvärden. För att beräkna egenvektorerna så måste vi lösa ekvationssystemet (A − λI)x = 0 för båda våra egenvärden. Det blir alltså två ekvationssystem att lösa i detta fallet: λ = 5: (A − 5I)x = 0 blir −8 4 0 4 −2 0 2 −1 0 , 0 0 0 Gausseliminering ger som har lösningen y = t godtycklig och x = t/2 och om vi skriver detta på vektoriell parameterform får vi 1 Eλ=5 = s, 2 där vi satt 2s = t för att få lite snyggare siffror. Eλ=5 kallar vi för egenrummet till λ = 5. Egenrummet innehåller alla möjliga egenvektorer till det aktuella egenvärdet. Vektorn eλ=5 = 1 2 är då en egenvektor som hör till egenvärdet λ = 5 λ = −5: (A − (−5)I)x = 0 blir 2 4 4 0 8 0 Gausseliminerar vi detta system får vi 1 2 0 0 0 0 som har lösningarna, sammanfattade som ett egenrum −2 Eλ=−5 = s, 1 och en naturlig egenvektor blir i detta fall: −2 eλ=−5 = 1 c Mikael Forsberg 2010 14 Komplettering i linjär algebra Notera att de båda egenvektorerna är ortogonala. Faktiskt är det så att alla vektorer i det ena egenrummet är ortogonala mot alla egenvektorer i det andra egenrummet. Man kan därför säga att egenrummen är ortogonala ortogonala egenrum. Detta gäller alltid om matrisen vi startade med är symmetrisk, dvs om A = At Övning 1.7. Vad betyder matrisen A i exempel 1.4.4 geometriskt. Vad händer t.ex. med standardbasvektorerna och försök göra bilden fullständig m.h.a. dessa. Glöm inte bort att egenvektorerna pekar ut riktningar som inte förändras och representerar därför symmetriegenskaper för avbildningen som A definierar. Övning 1.8. Beräkna egenvärden, egenvektorer och egenrum för den symmetriska matrisen −1 2 2 0 Varning: detta är en typisk situation där egenvärdena blir typiskt knepiga... Situationer med heltalsegenvärden är ovanliga. Svar : Övning 1.9. Beräkna egenvärden, egenvektorer och egenrum för den symmetriska matrisen −1 2 0 A= 2 0 2 0 2 1 Övning 1.10. Beräkna symmetririktningar för matrisavbildningen 1 7 A= 3 5 1.4.1 Användningar av egenteorin Vi har sett att egenvärden och egenvektorer ser ut att ha stor betydelse för en avbildnins egenskaper. Om tid ges så avser jag att komplettera detta avsnitt med exempel på hur man kan använda de symmetrier som egenvektorerna pekar ut för att skriva om avbildningarna på enklare sätt. Egenvektorerna till symmetriska matriserna kan beräknas så att de bildar en ON bas. Genom att göra ett koordinatbyte till denna bas så kan avbildningen skrivas på enklast möjliga sätt. Ett sätt att lösa övning 1.7 är att utföra en sådan beräkning. Exempel 1.4.5. Betrakta situationen i exempel 1.4.4 och frågeställningen i övning 1.7. Om vi normerar egenvektorerna eλ=±5 så får vi en ON-bas för R2 . Ställer vi upp dem som kolonner i en matris P så blir denna matris ortogonal enligt sats 1.1.11. Vi har alltså att √ √ 1/√5 −2/√ 5 P = 2/ 5 1/ 5 c Mikael Forsberg 2010 1.4 Egenvärden och egenvektorer 15 och beräknar vi determinanten så ser vi att denna är +1 vilket gör att P geometriskt är en rotation (byter jag plats på egenvektorerna så byter determinanten tecken och vi får då i stället en spegling). Nu gör jag ett basbyte, eller variabelbyte/substitution, med hjälp av denna matris P . En följd av detta blir att jag multiplicerar A med P −1 från vänster och med P från höger och vi får (kom ihåg att inversen till en ortogonal matris är lika med transponatet): √ √ √ √ −3 4 5 0 1/√5 −2/√ 5 1/ √5 2/√5 t = . P AP = 4 3 0 −5 −2/ 5 1/ 5 2/ 5 1/ 5 Notera att denna manöver gav oss en matris (som vi kallar för D ) med egenvärdena på diagonlen och nollor i övrigt. Vi kan nu se att denna diagonala matris representerar en spegling i y-axeln och en förstoring med en faktor 5 ty vi får att D(x, y)t = 5(−x, y). Exempel 1.4.6. Lösningarna till ekvationen 5x2 − 4xy + 8y 2 − 36 = 0 (1.6) är geometriskt ellipsen i figur 1.2. Notera att ellipsen är roterad i förhållande till koordinataxlarna. Det är den blandade termen −4xy som ger upphov till detta. Vi ska se hur vi kan hitta nya variabler i vilka ellipsen ligger oroterad och med 5 4 3 2 1 0 −5 −4 −3 −2 0 −1 −1 1 2 3 4 5 x −2 y −3 −4 −5 Figur 1.2: Ellipsen som ges av ekvation (1.6), här återgiven med sina symmetriaxlar. dessa variabler kommer ellipsens ekvation att sakna blandad term. Så här gör man: i. Vi skriver vänster led av (1.6) på matrisform: 5 −2 x x y = 36 −2 8 y c Mikael Forsberg 2010 (1.7) 16 Komplettering i linjär algebra Genom att sätta x y x= så kan vi skriva ekvation (1.7) som xT Ax = 36 (1.8) , där A= 5 −2 −2 8 ii. Beräkna egenvärden och egenvektorer till matrisen A. Egenvärdena blir λ1 = 4 och λ2 = 9 och motsvarande normerade egenvektorer blir eλ=4 = √1 (2, 1) och eλ=9 = √1 (−1, 2). 5 5 iii. Bilda den ortogonala matrisen P som har dessa egenvektorer som kolonner: ! P = −1 √ 5 √2 5 √2 5 √1 5 iv. Utför variabelbytet x= x y =P X Y = PX som ger att xT Ax = XT P T AP X = XT DX, (1.9) , där T P AP = D = 4 0 0 9 . v. När vi räknar ut vad som står i (1.9) så får vi att ekvationen 1.8 så får vi ekvationen 4X 2 + 9Y 2 = 36, vilket illustreras i figur 1.3. Övning 1.11. Utför beräkningarna av egenvärden och egenvektorer till matrisen A i exempel 1.4.6. Övning 1.12. Verifiera att matrisen P i exempel 1.4.6 är en ortogonal matris. Är matrisen en rotation eller en spegling? 1.5 Blandade övningsuppgifter Övning 1.13. c Mikael Forsberg 2010 1.5 Blandade övningsuppgifter 17 2 1 0 −3 −2 −1 0 1 2 3 X Y −1 −2 Figur 1.3: I de nya variablerna X och Y blir vår sneda ellips i stället en vanlig ellips som ligger symmetriskt kring de nya axlarna. Notera att de nya axlarna är symmetrisaxlarna till den sneda ellipsen som vi såg i figur 1.2 c Mikael Forsberg 2010