Linjär algebra på 2×45 minuter x n π F (x) Förberedelser inför skrivningen Den här genomgången täcker förstås inte hela kursen. Bra sätt att lära sig kursen: ? läs boken, ? diskutera med kompisar, ? gå igenom föreläsningsanteckningar, ? svara på instuderingsfrågor, ? räkna uppgifterna som förekommit i kursen, ? testa dig med frågorna på hemsidan (täcker inte hela kursen!), ? använd Jans repetitionslapp för att få förslag på uppgifter. Linjära vektorrum Linjära vektorrum – axiom Regler för addition: A0. u + v är en vektor (slutenhet för addition). A1. (u + v) + w = u + (v + w) (associativitet). A2. u + v = v + u (kommutativitet). A3. Det finns en vektor 0 sådan att 0 + u = u (existens av enhetselement). A4. För alla vektorer u finns en vektor v sådan att u + v = 0 (existens av invers). Regler för multiplikation med skalär: M0. λ · u är en vektor (slutenhet för multiplikation med skalär). M1. λ · (µ · u) = (λµ) · u (associativitet). M2. (λ + µ) · u = λ · u + µ · u (distributivitet). M3. λ · (u + v) = λ · u + λ · v (distributivitet). M4. 1 · u = u (egenskap hos enhetselementet hos de reella talen). Geometriska vektorer ? Vi är på en linje, i ett plan eller i rummet, och kan grundläggande geometri. ? Vektorer definieras som ekvivalensklasser av riktade sträckor, det vill säga som pilar. ? Addition via kraftparallellogram. ? Multiplikation med tal sträcker ut eller trycker ihop (och vänder på vektorn om talet är negativt). B −−→ AB A C u D −−→ CD v u+v −1.5u u 0.5u Rn ? Definieras som n-tiplar (x1, x2, . . ., xn). ? Addition definieras via koordinatvis addition. ? Multiplikation med skalär definieras genom att multiplicera varje koordinat med skalären. P2 – andragradspolynom (ej med i kursen) ? P2: Mängden av polynom av grad högst två. ? Addition och multiplikation med skalär: Låt p1(x) = a1x 2 + b1x + c1, p2(x) = a2x 2 + b2x + c2 tillhöra P2. Då definierar vi p1 + p2 och λp1 enligt (p1 + p2)(x) = (a1 + a2)x 2 + (b1 + b2)x + (c1 + c2), och (λp1)(x) = (λa1)x 2 + (λb1)x + (λc1). ? Kolla att villkoren för att vara ett vektorrum är uppfyllda! Linjärt beroende, oberoende, spänna upp, bas En samling vektorer u1, u2, . . ., up är linjärt beroende precis då det finns en nollskild lösning till ekvationssystemet λ1u1 + λ2u2 + · · · + λpup = 0, ? är linjärt oberoende om ovanstående ekvationssystem endast har lösningen λ1 = λ2 = · · · = λp = 0, ? spänner upp (linjen/planet/rummet/R n) om varje vektor v däri kan skrivas v = λ1u1 + λ2u2 + · · · + λpup, ? utgör en bas om de spänner upp och är linjärt oberoende. ? En summa λ1u1 + λ2u2 + · · · + λpup kallas för en linjärkombination av u1, u2, . . ., up. Bassatsen i R n ? Varje bas i R n har n element. ? n stycken vektorer i R n är en bas om och endast om de är linjärt oberoende. ? n stycken vektorer i R n är en bas om och endast om de spänner upp R n. ? Fler än n vektorer i R n är alltid linjärt beroende. ? Färre än n vektorer i R n kan inte spänna upp R n. Se varianten för geometriska vektorer på sidan 34. Skalärprodukt u · v ? Definieras för geometriska vektorer u och v som u · v = |u||v| cos[u, v]. Om någon är nollvektorn så låter vi u · v = 0. ? För u = (x1, . . ., xn), v = (y1, . . ., yn) i R n så definieras skalärprodukten som u · v = x1y1 + · · · + xnyn. ? u och v ortogonala, u ⊥ v , om och endast om u · v = 0. ? Kolla upp räkneregler för skalärprodukt! Vektorprodukt u × v (kryssprodukt) Vektorprodukten (kryssprodukten) u × v definierades för vektorer i rummet genom ? ? ? |u × v| = |u||v| sin[u, v], u × v ortogonal mot både u och v , u, v och u × v positivt orienterade. Det gäller att |u × v| är lika med arean av parallellogrammet som spänns upp av u och v , ? (u × v) · w är lika med volymen av parallellepipeden som spänns upp av u, v och w om de är positivt orienterade. Annars blir det minus volymen, ? u × v = −v × u. ? Kolla upp övriga räkneregler för vektorprodukt! ? Matriser A en m × n-matris: A= a11 a21 .. . am1 a12 a22 .. . am2 ··· ··· .. . ··· a1n a2n .. . . amn Repetera definition av matrisprodukt och räknereglerna! Speciellt gällde det i allmänhet att AB 6= BA för matriser A och B. Något om linjära ekvationssystem Gausseliminering – radoperationer Vid lösning av ekvationssystem kan vi göra föjlande tre operationer utan att lösningsmängden ändras: ? Multiplicera en rad med ett tal skilt ifrån noll, ? Byta plats på två rader, ? Addera en multipel av en rad till en annan. Ekvivalent att lösa a11x1 + a12x2 = y1 a21x1 + a22x2 = y2 och a11 a21 a12 a22 x1 x2 = y1 y2 Struktur av lösningar till linjära ekvationssystem Lösningarna till ekvationssystemet AX = Y kan skrivas X = X h + Xp där ? Xh är alla lösningar till den homogena ekvationen AX = 0, ? Xp är en (partikulär)lösning till AX = Y. Linjära avbildningar och matristeori Linjära avbildningar En avbildning L : V → W (där V och W är vektorrum) är linjär om (för varje u och v i V , och för alla tal λ) ? ? L(u + v) = Lu + Lv , L(λu) = λLu. Exempel på linjära avbildningar vi sett: ? ? ? ? ? ? ? skalärprodukt med given vektor v : Lu = u · v , vektorprodukt med given vektor v : Lu = u × v , spegling i ett plan som går genom origo, projektion i ett plan som går genom origo, rotation av vektor, multiplikation med matris A: Lx = Ax , ... Avbildningsmatris Vi såg att om vi valde bas för V och W så kunde varje avbildning L : V → W ses som matrismultiplikation. Matrisen kallas för avbildningsmatris. För att få fram avbildningsmatrisen så såg vi att den första kolonnen var bilden av den första basvektorn, den andra kolonnen bilden av den andra och så vidare, det vill säga A = L(e1) L(e2) . . . L(en) . Om F har avbildningsmatris A och G har avbildningsmatris B och sammansättningen F ◦ G är väldefinierad så har F ◦ G avbildningsmatris AB. Derivering av andragradspolynom (ej med) Låt L vara deriveringsoperatorn från andragradspolynom till andragradspolynom, det vill säga Lp = p0. Låt vidare {1, x, x 2} vara en bas för P2. Då skrivs till exempel polynomet 3 − x + 2x 2 som vektorn (3, −1, 2) i den basen. Det gäller att L(1, 0, 0) = (0, 0, 0), L(0, 1, 0) = (1, 0, 0), L(0, 0, 1) = (0, 2, 0) så avbildningsmatrisen A för L ges alltså av 0 1 0 A = 0 0 2 . 0 0 0 Speciellt gäller A(3 − 1 2) T = (−1 4 0) T vilket vi alltså kan läsa ut som att derivatan av 3 − x + 2x 2 är −1 + 4x . Beräkning av rang och nolldimension Låt oss betrakta matrisen 1 A= 6 11 2 7 12 3 8 13 4 5 9 10 . 14 15 Radreducering ger 1 2 3 4 5 1 0 6 7 8 9 10 ∼ · · · ∼ 0 1 11 12 13 14 15 0 0 −1 −2 −3 2 3 4 . 0 0 0 Från den räkningen drar vi slutsatsen att rangen är två (antalet pivotelement) och nolldimensionen tre (antalet parametrar om vi vill lösa det homogena systemet). Notera att rangen plus nolldimensionen blir antalet kolonner i matrisen! Bas för nollrummet? Se nästa sida! Bas för nollrummet Vi ska lösa AX = 0. Vi såg att A hade radreducerats till 1 0 −1 −2 −3 0 1 2 3 4 . 0 0 0 0 0 Låter vi X = (x1 x2 x3 x4 x5) T får vi att x3, x4 och x5 kan väljas som parametrar (t1, t2 respektive t3). Vi får 1 2 3 −2 −3 −4 X = t1X1 + t2X2 + t3X3 = t1 1 + t2 0 + t3 0 . 0 1 0 0 0 1 De tre vektorerna X1, X2 och X3 bildar en bas för nollrummet. Transponat av matris A T – transponatet till A. ”Byt rader mot kolonner” Exempel: T 3 −4 3 = 2 1 −4 2 1 Följande gäller: ? (A T ) T = A, ? (AB) T = B T A T . Matrisen A sägs vara symmetrisk om A = A T . Invers av matris En matris A är inverterbar precis då det finns en matris B så att AB = BA = I. I sådana fall sägs B vara inversen till A och vi skriver B = A−1. Följande gäller: ? ? ? (A−1)−1 = A, (A T )−1 = (A−1) T , (AB)−1 = B−1A−1. Det räcker att hitta en vänsterinvers eller högerinvers för att dra slutsatsen att en matris är inverterbar. Det väll säga: ? ? A är inverterbar om det finns en matris V så att VA = I. A är inverterbar om det finns en matris H så att AH = I. Ovan gäller att A−1 är lika med V respektive H. Beräkning av matrisinvers Radoperationer av (A | I) skall leda till (I | A−1). Exempel: Vi radopererar och får 1 2 || 1 0 1 2 || 1 0 | ∼ | ∼ 3 4 || 0 1 0 −2 || −3 1 1 0 || −2 1 1 0 || −2 1 || || 3 ∼ . 0 −2 | −3 1 0 1 | 2 − 12 Alltså gäller det att 1 3 2 4 −1 1 −4 = 3 2 2 . −1 Om invers saknas. . . Om invers saknas händer följande vid radreduceringen. | | 1 −2 | 1 0 1 −2 | 1 0 ∼ . || | −3 6 |0 1 0 0 || 3 1 Finns ingen chans att radreducera och få I till vänster eftersom vi har en rad med nollor. Alltså är matrisen 1 −2 −3 6 inte inverterbar. Isometrisk avbildning – ortogonal matris En linjär avbildning F är isometrisk om |F x| = |x| för alla vektorer x . En n × n-matris A är ortogonal om kolonnvektorerna i A utgör en ortonormerad bas i R n. Följande är ekvivalent: ? F är isometrisk, ? A är ortogonal, ? kolonnvektorerna i A utgör en ortonormerad bas i R n, ? radvektorerna i A utgör en ortonormerad bas i R n, ? AA T = I, ? A T A = I, ? A−1 = A T . Basbyten Antag att vi har sambandet E0 = S T E mellan två baser. Här är S en inverterbar matris. Då ges motsvarande förhållande mellan koordinater i de olika baserna som X = SX0. Matrisen S kallas för basbytesmatris. Antag vidare att Y = AX och Y0 = A0X0 representerar samma linjära avbildning i de olika baserna. Då gäller A0 = S−1AS. Basbyte – exempel Antag att vi har en bas e1, e2 i planet och att vi inför nya vektorer e10 = 3e1 − 4e2 och e20 = 2e1 + e2. Visa att e10 och e20 också utgör en bas i planet. Metod 1: Vi vet att två linjärt oberoende vektorer i planet utgör en bas så vi kollar om de är linjärt oberoende. vi får λ1e10 + λ2e20 = 0 ⇐⇒ λ1(3e1 − 4e2) + λ2(2e1 + e2) = 0 ⇐⇒ (3λ1 + 2λ2)e1 + (−4λ1 + λ2)e2 = 0 ⇐⇒ 3λ1 + 2λ2 = 0 ⇐⇒ −4λ1 + λ2 = 0 λ1 = λ2 = 0. Alltså är e10 och e20 linjärt oberoende och utgör således en bas. Basbyte – exempel Metod 2: Vi skriver e10 e20 3 2 = 3 −4 2 1 e1 . e2 Låt nu S= −4 1 T = 3 −4 2 1 Eftersom S är inverterbar så utgör den en basbytesmatris. Vektorerna e10 och e20 utgör alltså en bas i planet. Koordinaterna X och X0 för en given vektor i de olika baserna förhåller sig nu som X = SX0. Determinanter (2 × 2- och 3 × 3-matris) ? Definierades för 2 × 2-matriser som den area (med tecken) av den parallellogram som kolonnvektorerna spänner upp. Formel för beräkning blev sedan || a11 || | a21 ? a12 || | = a11a22 − a12a21. a22 || Definierades för 3 × 3-matriser som den volym (med tecken) av den parallellepiped som kolonnvektorerna spänner upp. För matrisen A = (A1 A2 A3) så såg vi att det A = (A1 × A2) · A3. Dessutom var vektorerna A1, A2 och A3 positivt orienterade precis då (A1 × A2) · A3 > 0. ? Finns en kom-i-håg-regel för den som vill. Determinanter (n × n-matris) Determinanten definierades för n × n-matriser (n > 3) genom utveckling av rad eller kolonn. Följande tecken-schema används vid utveckling: + − + − + − + − + − + − + − + − + − + − + − + − + Determinanter (n × n-matris) Följande gäller för determinanter: det A = det A T , det(AB) = det A det B, det I = 1, det A−1 = 1/det A, det A 6= 0 om och endast om A är inverterbar. Vi kan addera multiplar av rader till andra rader utan att ändra determinanten, ? Byter vi plats på två rader byter determinanten tecken, ? Multiplicerar vi en rad med ett tal så multipliceras determinantens värde med samma tal. ? ? ? ? ? ? Huvudsatsen Låt F : R n → R n vara en linjär avbildning med avbildningsmatris A. Då är följande ekvivalent: ? A är inverterbar (F är bijektiv), ? ekvationssystemet AX = 0 har endast lösningen X = 0 (F är injektiv), ? ekvationssystemet AX = Y har lösning för varje Y ∈ R n (F är surjektiv), ? det A 6= 0, ? kolonnerna i A utgör en bas för R n, ? raderna i A utgör en bas för R n, ? noll är inte ett egenvärde till A. Egenvärden och egenvektorer En vektor X 6= 0 är en egenvektor och ett tal λ är ett egenvärde till n × n-matrisen A om AX = λX. Detta är ekvivalent med att ekvationen (λI − A)X = 0 har en lösning X 6= 0, vilket precis händer då 0 = det(λI − A). Vi använder den sista formeln för att beräkna egenvärdena. Då vi väl gjort det använder vi den näst sista ekvationen för att finna motsvarand egenvektorer. Låt oss titta på några exempel. Exempel 1 Vi beräknar egenvärden och egenvektorer till 4 2 A= . 1 3 Det gäller att | λ − 4 −2 || 0 = det(λI − A) = ||| || = (λ − 4)(λ − 3) − (−2)(−1) −1 λ − 3 | | = λ 2 − 7λ + 10 = (λ − 2)(λ − 5) så egenvärdena är 2 och 5. För att hitta egenvektorerna hörande till egenvärdet 2 löser vi ekvationen (2I − A)X = 0 och får X = t(1 − 1) T , t 6= 0. För att hitta egenvektorerna hörande till egenvärdet 5 löser vi ekvationen (5I − A)X = 0 och får X = t(2 1) T , t 6= 0. Exempel 2 (deriveringen av polynom) Vi beräknar egenvärden och egenvektorer av 0 1 0 A = 0 0 2 . 0 0 0 Det gäller att λ 0 = det(λI − A) = 0 0 −1 0 λ −2 = λ 3, 0 λ så λ = 0 är det enda egenvärdet (med multiplicitet tre!). Egenvektorer X finner vi genom att lösa AX = 0. En enkel räkning ger att X = t(1 0 0) T , t 6= 0. Vi tolkar räkningen ovan som att det precis är de konstanta andragradspolynomen som har derivata noll. Exempel 3 (rotation) Rotation i planet φ radianer är en linjär avbildning med avbildningsmatris cos φ − sin φ Rφ = . sin φ cos φ För att få fram egenvärden räknar vi: | λ − cos φ 0 = det(λI − Rφ ) = ||| | − sin φ sin φ || || = (λ − cos φ)2 + sin2 φ λ − cos φ | med lösningar λ = cos φ ± i sin φ. Vi ser alltså att en rotation endast har reella egenvärden då φ är en heltalsmultipel av π . Rφ kommer då att vara I eller −I. Diagonaliserbarhet Vi såg tidigare att om vi bytte bas från E till E0 med basbytesmatris S så ändrades avbildningsmatriser enligt A0 = S−1AS. Om det går att finna ett basbyte så att A0 blir en diagonalmatris (det vill säga en matris vars enda nollskilda element återfinns på diagonalen) så säger vi att A är diagonaliserbar. Omformulerat: A är diagonaliserbar om det finns en diagonalmatris D sådan att S−1AS = D Diagonalisering av A Recept: Tag fram egenvärdena till A. Kalla dem λ1, λ2, . . ., λn. Tag fram tillhörande egenvektorer v 1, v 2, . . ., v n. Låt nu D vara diagonalmatrisen λ1 0 ··· 0 .. . 0 λ2 D= .. .. . 0 . 0 ··· 0 λn och S = (v 1 v 2 . . . v n) den matris som erhålls då egenvektorerna stoppas in som kolonnvektorer (OBS! viktigt med ordningen). Då gäller S−1AS = D. Exempel 1 igen Vi såg att matrisen A= 4 1 2 3 hade egenvärden 2 och 5 med tillhörande egenvektorer (till exempel) (1 − 1) T och (2 1) T . Med 2 0 1 2 D= och S = 0 5 −1 1 gäller alltså att S−1AS = D. Exempel 2 igen Vi såg att matrisen 0 A = 0 0 1 0 0 0 2 0 hade egenvärdet noll med multiplicitet tre. Den enda egenvektorn vi fann var t(1 0 0) T . Det är klart att vi inte hittar tre linjärt oberoende egenvektorer, så A är inte diagonaliserbar. Diagonaliserbara matriser Vi vet att n × n-matrisen A är diagonaliserbar om ? A har n olika egenvärden, ? A är symmetrisk (A T = A). Även en del andra matriser är diagonaliserbara. Om A är symmetrisk så kan S dessutom väljas som en ortogonal matris, och S T AS = D. Några geometriska tillämpningar Ortogonal projektion på vektor Projektionen av x på v : x F (x) F (x) = v x ·v v. v ·v På matrisform (X kolonnvektorn x och V kolonnvektorn v ) X 7→ VV T VT V så avbildningsmatrisen blir VV T VT V X, Ortogonal projektion på plan x n π F (x) Plan π genom origo med normal n. Orgogonal projektion ges av F (x) = x − x ·n n. n·n Avbildningsmatris: I− NN T NT N där N är normalen skriven som kolonnvektor. Spegling i plan x n π F (x) Plan π genom origo med normal n. Spegling i planet ges av F (x) = x − 2 x ·n n. n·n Avbildningsmatris: I−2 NN T NT N där N är normalen skriven som kolonnvektor. Avstånd i planet/rummet Vi kan beräkna (se boken för exempel) ? avstånd mellan punkter, ? minsta avstånd mellan punkt och linje, ? minsta avstånd mellan punkt och plan, ? minsta avstånd mellan två plan, ? minsta avstånd mellan linje och plan, ? minsta avstånd mellan två linjer, De flesta av dessa innefattar projektion! Lär dig metoderna. Rita figur! Förbered dig inför skrivningen! Åter igen: ? läs boken, ? diskutera med kompisar, ? gå igenom föreläsningsanteckningar, ? svara på instuderingsfrågor, ? räkna uppgifterna som förekommit i kursen, ? testa dig med frågorna på hemsidan (täcker inte hela kursen!), ? använd Jans repetitionslapp för att få förslag på uppgifter. Skrivningen Ta med: ? ? ? ? pennor (blyerts och bläck), suddigummi, legitimation, kårleg. Några råd: ? ? ? ? ? ? ? stressa inte! skriv tydliga lösningar! svara på frågorna! kontrollräkna! namn på alla papper! ny uppgift – ny lapp! skriv på en sida! Fyll i CEQ! Lycka till! . . . och se så kul man kan ha i nästa mattekurs!