LINJÄR ALGEBRA & GEOMETRI Seriöst, de här e fan allting. DE HÄR ÄR ALLT SKIT DU BEHÖVER, SKIT I ALLT ANNAT. STÅR DE INTE HÄR ÄR DE ONÖDIGT Contents Räkneregler för Vektorer ........................................................................................................................................ 2 Multiplikation mellan skalär och vektor (vanlig) ................................................................................................. 2 Skalärprodukt ...................................................................................................................................................... 2 Kryssprodukt ....................................................................................................................................................... 3 Normen ............................................................................................................................................................... 3 Parameterform........................................................................................................................................................ 4 Linjens parameterekvation ................................................................................................................................. 4 Planets parameterekvation ................................................................................................................................. 4 Från normal- till parameterform ......................................................................................................................... 4 Skärningspunkter .................................................................................................................................................... 5 Två linjer .............................................................................................................................................................. 5 Skärning av ett plan och en linje ......................................................................................................................... 5 Skärning av två plan ............................................................................................................................................ 5 Projektion ................................................................................................................................................................ 7 Matriser ................................................................................................................................................................... 8 Matrismultiplikation ............................................................................................................................................ 9 Gauss-Jordan elimination i matriser/ekvationssystem ......................................................................................... 10 Gauss metod ..................................................................................................................................................... 10 Invers- och Identitetsmatrisen .............................................................................................................................. 12 Linjära Transformationer ...................................................................................................................................... 13 Delrum, Bild och Kärna.......................................................................................................................................... 16 Delrum............................................................................................................................................................... 16 Kärna ................................................................................................................................................................. 17 Baser och basbyten ............................................................................................................................................... 18 Vad är en determinant? ........................................................................................................................................ 21 2x2 matriser ...................................................................................................................................................... 21 Genom att utveckla efter en rad eller en kolonn .............................................................................................. 21 Tredje metoden: genom Gausselemination ...................................................................................................... 22 Minsta-kvadratmetoden ....................................................................................................................................... 23 Egenvärde och Egenvektor.................................................................................................................................... 24 Diagonalisering av en matris ................................................................................................................................. 26 Matrispotenser ..................................................................................................................................................... 27 Gram-Schmidt ortogonalisering och ON-baser ..................................................................................................... 28 Checklista/Begreppsamling ................................................................................................................................... 29 Räkneregler för Vektorer Vektorer delar addition och subtraktion med skalärer. Men i dom andra två räknesätten, multiplikation och division, finns det väldigt stora skillnader. Det finns 4 olika sorters multiplikation och ingen division. De olika metoderna beror på vad som gångras och de ger olika resultat av multiplikationen. Metoderna är: 1. Vanlig multiplikation: ๐๐๐๐ä๐ ∗ ๐๐๐๐ก๐๐ = ๐๐๐๐ก๐๐ ๐ก ∗ ๐ฃโ = ๐ฃโ 2. Skalärprodukt: ๐๐๐๐ก๐๐ ∗ ๐๐๐๐ก๐๐ = ๐๐๐๐ä๐ ๐ฃโ ∗ ๐ฃโ = ๐ก 3. Kryssprodukt: ๐๐๐๐ก๐๐ ∗ ๐๐๐๐ก๐๐ = ๐๐๐๐ก๐๐ ๐ฃโ ∗ ๐ฃโ = ๐ฃโ 4. Matrismultiplikation: ๐๐๐ก๐๐๐ /๐๐๐๐ก๐๐ ∗ ๐๐๐ก๐๐๐ /๐๐๐๐ก๐๐ = ๐๐๐ก๐๐๐ /๐๐๐๐ก๐๐ ๐ด/๐ฃโ ∗ ๐ด/๐ฃโ = ๐ด/ ๐ฃโ Multiplikation mellan skalär och vektor (vanlig) Den vanligaste multiplikationen som förekommer är den mellan skalärer och vektorer. ๐ฃ1 ๐ฃ Om ๐ฃโ = [ 2 ] och t är en skalär så kommer produkten av dessa vara: ๐ฃ3 ๐ฃ1 ๐ก๐ฃ1 ๐ก ∗ ๐ฃโ = ๐ก ∗ [๐ฃ2 ] = [๐ก๐ฃ2 ] ๐ฃ3 ๐ก๐ฃ3 Skalärprodukt Skalärprodukten beräknar vinkelförhållandet mellan två vektorer och betecknas på följande sätt där det läses u skalärt v. Resultatet av skalärprodukten är en skalär. Vi har vektorerna: ๐ข โโ ๐ข1 ๐ฃ1 = [๐ข ] och ๐ฃโ = [๐ฃ ] och deras skalärprodukt ges av: 2 2 ๐ข1 ๐ฃ1 ๐ข โโ ∗ ๐ฃโ = [๐ข ] ∗ [๐ฃ ] = (๐ข1 ∗ ๐ฃ1 ) + (๐ข2 ∗ ๐ฃ2 ) 2 2 Då detta har med vinklarna att göra finns det ett par saker att tänka på när man får resultatet: 1. 2. 3. Om ๐ข โโ ∗ ๐ฃโ = 0 är vektorerna vinkelräta mot varann, dvs ortogonala varann Om ๐ข โโ ∗ ๐ฃโ < 0 bildar vektorerna en trubbig vinkel Om ๐ข โโ ∗ ๐ฃโ > 0 bildar vektorerna en spetsig vinkel Kryssprodukt Denna form av multiplikation beräknar den vektorn som är vinkelrät mot de två vektorer som multipliceras med varann. Säg att vi har två vektorer, ๐ข โโ och ๐ฃโ så kommer kryssprodukten(som betecknas med ett X, som i kryss, inte ex) av dessa kunna beräknas enligt: ๐ข1 ๐ฃ1 ๐ข2 ๐ฃ3 ๐ฃ2 ๐ข3 ๐ข โโ × ๐ฃโ = [๐ข2 ] × [๐ฃ2 ] = [๐ข3 ๐ฃ1 − ๐ฃ3 ๐ข1 ] ๐ข3 ๐ฃ3 ๐ข1 ๐ฃ2 ๐ฃ1 ๐ข2 Det finns även ett specialfall: Om ๐ข โโ och ๐ฃโ är parallella kommer ๐ข โโ × ๐ฃโ = โ0โ Viktigt! Kryssprodukten går endast att göra i tre dimensioner, dvs då ๐ข1 ๐ฃ1 ๐ข โโ × ๐ฃโ = [๐ข2 ] × [๐ฃ2 ] ๐ข3 ๐ฃ3 Normen ๐ฃ1 Normen av en vektor ๐ฃ โ betecknas โ๐ฃโโ och motsvarar vektorns längd. Om ๐ฃโ = [๐ฃ2 ] så ges dess längd ๐ฃ3 โ๐ฃโโ enligt: โ๐ฃโโ = √๐ฃ12 + ๐ฃ22 + ๐ฃ32 Parameterform Linjens ekvaktion har hittils skrivits som ๐ฆ = ๐๐ฅ + ๐, likt normalformen ๐๐ฅ + ๐๐ฆ + ๐ = 0 som används mycket ๐ i denna kurs. Här definieras en linje av sin normalvektor som i detta fall ges på sättet ๐โโ = [ ]. Detta innebär att ๐ ifall man har normalvektorn till en linje har man även linjens ekvation, och vice versa. Normalformen för en linje är inte alltid önskvärd då den kräver att vi befinner oss i ๐ 2 , det tvådimensionella xyplanet. Därför introduceras vi i denna kurs parameter ekvationer som beskrivs genom en punkt och med vektorer. Linjens parameterekvation Parameterekvationen för en linje i ๐ 3 skrivs med en punkt och en riktningsvektor. Säg att vi har punkten ๐ = ๐ฃ1 ๐1 [๐2 ] och vektorn ๐ฃโ = [๐ฃ2 ] och använder en parameter t kan vi skapa en linje genom parameterekvationen: ๐ฃ3 ๐3 ๐ฃ1 ๐1 ๐ฅ [๐ฆ] = ๐ก [๐ฃ2 ] + [๐2 ] ๐ฃ3 ๐ง ๐3 Anledning till varför parameterekvationen är att föredra när vi arbetar i en dimension högre än 2 är för att vi inte kan beskriva en linje i dess normalform. Planets parameterekvation Ett plans normalekvation skrivs ๐๐ฅ + ๐๐ฆ + ๐๐ง + ๐ = 0, som enbart gäller i tre dimensioner. Vi har återigen ett ๐ material som beskrivs av sin normalvektor ๐โโ = [๐ ]. För beskrivning av plan i dimensioner över 3 används ๐ parameterformen som nu har två riktningsvektorer ๐ข โโ och ๐ฃโ med punkten P enligt: ๐ข1 ๐ฃ1 ๐1 ๐ฅ ๐ข ๐ฃ [๐ฆ] = ๐ [ 2 ] + ๐ก [ 2 ] + [๐2 ] ๐ข3 ๐ฃ3 ๐ง ๐3 Från normal- till parameterform Om vi har linjen ๐๐ฅ + ๐๐ฆ + ๐ = 0 och vi vill skriva om denna till parameterform börjar vi med att beskriva uttrycket som en variabel, dvs flytta över alla termer utom en utav dom till högra sidan och kallar därefter en ๐ ๐ ๐ ๐ ๐ฅ ๐ฅ=− ๐ก− − − ๐ ๐ → [ ] = ๐ก [ ๐] + [ ๐] utav termerna för t: { ๐ฆ ๐ฆ=๐ก 0 1 Samma sak gäller för plan också, ๐๐ฅ + ๐๐ฆ + ๐๐ง + ๐ = 0 förutom att vi får en till variabel, tex s. Vi ställer upp ๐ฅ=๐ก 0 0 1 ๐ฅ ๐ฆ = ๐ 1 0 dom på samma sett:{ → [๐ฆ] = ๐ก [ ๐] + ๐ [ ๐] + [ 0๐] ๐ ๐ ๐ − − − ๐ง=− ๐ก− ๐ − ๐ง ๐ ๐ ๐ ๐ ๐ ๐ Skärningspunkter Två linjer Två icke-parallella linjer som är definierade i ๐ 2 har alltid en skärningspunkt någonstans. För att hitta den punkten ställs ett ekvationssystem upp med varje linjes normalekvation där variablernas värden beräknas. Note: För beräkning av skärningen mellan två linjer definierade i en valfri dimension ๐ ๐ krävs kunskaper från GaussJordan elimination och Matriser, och jag kommer gå igenom hur man gör det i dom kapitlena. Skärning av ett plan och en linje Säg att vi har en linje och ett plan, definierat i ๐ 3 , då kommer linjen inte kunna vara definierad i normalform utan måste skrivas på parameterform: ๐ฟ1 ๐ฃ1 ๐1 ๐ฟ3 ๐ฃ3 ๐3 ๐ฟ = ๐ก๐ฃโ + ๐ ↔ [๐ฟ2 ] = ๐ก [๐ฃ2 ] + [๐2 ] Där L är alla punkter som linjen skär planet. Möjligheten till skärningspunkter som kan uppstå delas in i 3 olika fall: 1. 2. 3. Linjen är inte parallell med planet: en skärningspunkt Linjen är parallell med planet: ingen skärningspunkt Linjen är parallell med planet och ligger i planet: oändligt med skärningspunkter För att beräkna eventuella skärningspunkter sker en insättning av linjens ekvation för varje variabel i planets ekvation enligt: ๐ฃ1 ๐ฅ = ๐ก๐ฃ โโโ1 + ๐1 ๐1 ๐ฅ [๐ฆ] = ๐ก [๐ฃ2 ] + [๐2 ] ↔ {๐ฆ = ๐ก๐ฃโโโ2 + ๐2 ๐ฃ3 ๐ง ๐3 ๐ง = ๐ก๐ฃ โโโ3 + ๐3 ๐๐ฅ + ๐๐ฆ + ๐๐ง + ๐ = 0 → ๐( ๐ก๐ฃ โโโโโ1 + ๐1 ) + ๐( ๐ก๐ฃ โโโโโ2 + ๐2 ) + ๐( ๐ก๐ฃ โโโโโ3 + ๐3 ) + ๐ = 0 Ur denna ekvation kommer samtliga variabler att vara givna förutom parametervariabeln t som är den som, tillsammans med linjens parameterekvation, ge vilken punkt linjen skär i planet. Exempel: ๐ฅ 4 1 ๐ฅ = ๐ก+4 ๐ฆ [ ] = ๐ก [2] + [−2] ↔ {๐ฆ = 2๐ก − 2 och planet 2๐ฅ − 3๐ฆ + ๐ง + 5 =0 ๐ง = ๐ก−1 ๐ง −1 1 2๐ฅ − 3๐ฆ + ๐ง + 5 = 0 → 2( ๐ก + 4) − 3( 2๐ก − 2) + ( ๐ก − 1) + 5 = 0 → ๐ก = 6 ๐ฅ ๐ฅ 4 10 1 [๐ฆ] = 6 [2] + [−2] ↔ [๐ฆ] = [10] ๐ง ๐ง −1 5 1 Detta ger oss att linjen skär planet i punkten (๐, ๐, ๐) = (๐๐, ๐๐, ๐) Skärning av två plan Då vi har två plan i ๐น๐ som är icke-parallella kommer deras skärning att vara en linje som kommer vara beskriven på parameterform. För att ta fram denna linje är det viktigt att förstå att linjens riktningsvektor alltid kommer vara ortogonal mot planens normalvektor. Tack vare detta kan vi beräkna linjens riktningsvektor genom att använda kryssprodukten! Skärningen mellan plan A och B är en linje Säg att vi har planen ๐1 ๐ฅ + ๐1 ๐ฆ + ๐1 ๐ง + ๐1 = 0 och ๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐ ๐ = ๐. Då kommer ๐๐ ๐๐ normalvektorerna för respektive plan vara โโโโโ ๐๐ = [๐๐ ] och โโโโโ ๐๐ = [๐๐ ]. Genom att applicera kryssprodukten ๐๐ ๐๐ kommer vi kunna få en vektor som är otrogonal mot de vektorer som kryssas som i detta fall måste vara linjens riktningsvektor. Vi kallar denna ๐ฃโ enligt: ๐1 ๐2 ๐1 × โโโโโ โโโโโ ๐2 = [๐1 ] × [๐2 ] = ๐ฃโ ๐1 ๐2 När detta är gjort behöver vi bara en punkt på linjen, vilken som helst, för att kunna beskriva hela skärningen ๐ก๐ฃโ + ๐. Om en redan inte är given kan detta enklast göras genom en substitution i ekvationssystemet som uppstår av planens normalekvation: { −๐๐ ๐ − ๐๐ ๐ − ๐ ๐ ๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐ ๐ = ๐ ๐= ↔{ → ๐๐ ๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐ ๐ = ๐ ๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐ ๐ = ๐ −๐๐ ๐ − ๐๐ ๐ − ๐ ๐ ๐๐ → −๐๐ ๐ − ๐๐ ๐ − ๐ ๐ ๐ ( ) + ๐๐ ๐ + ๐๐ ๐ + ๐ ๐ = ๐ { ๐ ๐๐ ๐= โโ + ๐ท Där vilket (๐, ๐, ๐) som satisfierar båda ekvationerna är en punkt P i linjen ๐๐ Projektion โโ, ๐ โโ och att vi vill projicera ๐ โโ på ๐ โโ där projektionen ๐๐๐๐๐โโ (๐ โโ) kan ses som Tänk att vi har två vektorer, ๐ โโ på ๐ โโ. Detta kan illustreras enligt figuren: skuggan av vektorn ๐ Projektionen blir den nya vektorn som är parallell med ๐ฃโ Formeln för projektion har följande utseende: โโ) = ( ๐๐๐๐๐โโ (๐ โโ ∗ ๐ โโ ๐ โโ )∗๐ โ๐ โโโ2 โโ∗๐ โโ ๐ Där ( ) kommer att bli en skalär efter beräkning. Notera att det vi väljer att projicera(här ๐โโ) är viktigare โ๐ โโโ๐ โโ). Detta är logiskt med tanke på att projektionen på ๐ โโ kommer att än den vektor som faktiskt projiceras(här ๐ โโ vilket stämmer överrens med illustrationen ovan. ha samma riktning som ๐ VIKTIGT! โโ och ๐ โโ enligt ๐ โโ ∗ ๐ โโ = (๐๐ ∗ ๐๐ ) + (๐๐ ∗ ๐๐ ) Det är skalärprodukt mellan ๐ Exempel: −๐ ๐ โโ = [ ๐ ] och ๐ โโ = [ ๐ ] är givna, beräkna projektionen av ๐ โโ på ๐ โโ: Vektorerna ๐ ๐ −๐ โโ∗๐ โโโ ๐ โโ) = (โ๐ 2 ) ∗ ๐ โโ = ๐๐๐๐๐โโโ (๐ โโโโ ๐ −๐ [ ๐ ] ∗[ ๐ ] −๐ ๐ −๐ ๐ โ[ ๐ ] โ ( ๐ ) −๐ ๐ โโ) = ( ) ∗ [ ๐ ] Projektionen ๐๐๐๐๐โโโ (๐ ๐๐ ๐ −๐ −๐ ๐ ∗[ ๐ ] =( )∗[ ๐ ] ๐๐ ๐ ๐ Matriser Matriser är datahållare. De innehåller information som vi kommer att kunna manipulera på olika sett. Alla matriser innehåller ett visst antal rader och kolonner. De används för att beskriva storleken på en matris och för att ange positionen till ett element inom matrisen. När man anger storleken på en matris skriver man alltid ANTALET RADER x ANTALET KOLONNER. Detta innebär 1 2 3 att matrisen [ ] är ett exempel på en 2x3 matris. Om antalet rader motsvarar antalet kolloner så har 4 5 6 −1 4 man en kvadratisk matris: [ ] är ett exempel på en kvadratisk 2x2 matris. 0 26 Matriser och transponering Transponering innebär att raderna och kollonerna i en matris byter plats. Transponatet till matrisen A ๐ ๐ ๐ ๐ ๐ betecknas ๐จ๐ . Om ๐จ = [ ] så kommer dess transponat att vara ๐จ๐ป = [๐ ๐] Om ๐จ = ๐จ๐ป kallas ๐ ๐ ๐ ๐ ๐ Addition och subtraktion av matriser Att addera och subtrahera mellan matriser fungerar på ett väldigt ”självklart” sätt. Den enda förutsättningen är att båda matriserna är av samma storlek i både antal rader och kolonner. Om ๐จ = [ ๐๐ ๐๐ ๐๐ ๐ ] och ๐ฉ = [ ๐ ๐ ๐ ๐๐ ๐๐ ] så kommer additionen och subtraktionen se ut såhär: ๐ ๐ ๐ ๐จ+๐ฉ=[ ๐ ๐๐ ๐๐ ๐ ]+[ ๐ ๐ ๐ ๐๐ ๐๐ ๐ + ๐๐ ]=[ ๐ ๐ ๐ ๐๐ + ๐๐ ๐๐ + ๐๐ ] ๐ ๐ + ๐ ๐ ๐ ๐จ−๐ฉ=[ ๐ ๐๐ ๐๐ ๐ ]−[ ๐ ๐ ๐ ๐๐ ๐๐ ๐ − ๐๐ ]=[ ๐ ๐ ๐ ๐๐ − ๐๐ ๐๐ − ๐๐ ] ๐ ๐ − ๐ ๐ Skalär multiplikation För att multiplicera en skalär t med en matris ๐จ = [ ๐ ๐ ๐ ] så kommer resultatet bli att t multipliceras in i varje ๐ position i matrisen enligt: ๐∗๐จ=๐∗[ ๐ ๐ ๐๐ ๐๐ ]=[ ] ๐ ๐ ๐๐ ๐๐ Viktigt! Denna typ av multiplikation får inte misstas för skalärprodukten tidigare i texten, som är definierad enbart för vektorer. Matrismultiplikation Denna typ av multiplikation skiljer sig från hur aritmatiken fungerat tidigare i all annan matematik. Det kan betraktas så att varje rad i den första matrisen tas skalärt(Se skalärprodukt!) med varje kolonn i den andra matrisen, vart resultatet hamnar motsvarar vilken rad och kollon som skalärprodukten utförs med. ๐ฅ1 [๐ฅ3 ๐ฅ5 ๐ฅ2 ๐ฆ ๐ฅ4 ] ∗ [ 1 ๐ฆ3 ๐ฅ6 ๐ฅ1 ๐ฆ1 + ๐ฅ2 ๐ฆ2 ๐ฆ2 ๐ฅ ๐ฆ + ๐ฅ4 ๐ฆ2 ๐ฆ4 ] = [ 3 1 ๐ฅ5 ๐ฆ1 + ๐ฅ6 ๐ฆ2 ๐ฅ1 ๐ฆ3 + ๐ฅ2 ๐ฆ4 ๐ฅ3 ๐ฆ3 + ๐ฅ4 ๐ฆ4 ] ๐ฅ5 ๐ฆ3 + ๐ฅ6 ๐ฆ4 Om vi har två matriser A och B, så är multiplikationen ๐จ ∗ ๐ฉ INTE densamma som ๐ฉ ∗ ๐จ, vilket tidigare aritmatik i matten sagt är samma sak. Därför är de viktigt att hålla reda på vilken matris som är vilken när man sysslar med matrismultiplikation. För att multiplikationen av två matriser ska vara definierad måste den första matrisen ha lika många kolonner som den andra matrisen har rader. Detta illusteras i bilden nedan. Siffrorna i rött måste vara identiska för en definierad multiplikation, de blå kommer att bli den nya matrisens dimensioner. Gauss-Jordan elimination i matriser/ekvationssystem Ekvationssystem Ett område då matriser kommer till väldigt stor användning är när man ska lösa ekvationssystem. Säg att vi har följande ekvationssystem: { 2๐ฅ + 3๐ฆ = 5 4๐ฅ + 2๐ฆ = 9 Då kommer vi kunna skriva om det till matrisform såhär: 2๐ฅ + 3๐ฆ = 5 2 { →[ 4๐ฅ + 2๐ฆ = 9 4 3 |5 ] 2 |9 Där varje ekvation blir sin egen rad, och ”är-lika-med” tecknet skrivs ut som ett rakt sträck, som separerar vänster- och högerleden i ekvationerna. Trappstegsmatris Innan jag går igenom hur Gausselemination fungerar måste man förstå vad en trappstegsmatris är. En trappstegsmatris är en matris där: 1. 2. Alla rader som enbart består av nollor ligger under raderna som inte bara består av nollor Pivotelementet på varje rad befinner sig till höger om pivotelementet på raden ovanför. En rads pivotelement är det första av dess tal som är skilt från noll. I en trappstegsmatris vill man helst att detta ska vara 1, eftersom de gör matrisen enklare att räkna med. Detta kallas för en ledande etta. Exempel på en matris i trappstegsform(REF1).: 1 ๐ด = [0 0 4 1 0 −1 3] 1 Gauss metod Gausselimination är en effektiv metod för att lösa linjära ekvationssystem. Metoden är upplagd på ett sätt som gör att man i varje steg eliminerar det oviktiga i ekvationssystemet, utan att förstöra det man redan ordnat! För att utföra en Gausselimination skriver man först upp det linjära ekvationssystemet som en matris. Målet är att sedan ”förvandla” vänsterledet i matrisen till en trappstegsmatris. Detta kan man göra genom att utföra ett eller flera av följande steg: 1. 2. 3. Byta plats på 2 rader Multiplicera en rad med ett tal(dock ej noll!) Addera multipeln av en rad till en annan rad Detta är nog den metod som jag använt mest i hela kursen, den tycks va i varenda jävla tal, oavsett vad det är dom ber om så verkar jag använda denna metoden hela tiden. Man tex ut rank, nollrum, basvektorer, dimension, bild, kollonrum och en hel del andra grejer! 1 Reduced Echelon Form Exempel för att förstå hur det funkar: 3๐ฅ − 8๐ฆ + ๐ง = 22 {2๐ฅ − 3๐ฆ + 4๐ง = 20 ๐ฅ − 2๐ฆ + ๐ง = 8 Låt oss säga att vi har de här ekvationssystemet. Vi skriver först ut alla koefficienterna till de olika variablerna i en matris. Därefter skriver jag ut alla delsteg, varefter jag gör dom: 3 [2 1 −8 −3 −2 ๐ 1 ↔ ๐ 3 1 1| 22 } → [2 4| 20] → { 1| 8 3 1 { } → [0 ๐ 3 + 2๐ 2 0 −2 1 0 1| 8 1 4 | 20 ] → {๐ 2 − 2๐ 1 } → [0 ๐ 3 − 3๐ 1 1 | 22 0 −2 −3 −8 1| 2| 2| 8 1 4] → { } → [ 0 1 6 ๐ 3 ∗ ( ) 0 2 −2 1 0 1 | 8 2 | 4] → −2 | − 2 −2 1 −2 1| 2| 1| 8 4] 3 Nu är matrisen på trappstegsform. De räcker dock inte bara att få fram en trappstegsmatris för att få fram lösningen till ekvationssystemet. För de måste man använda sig av Gauss-Jordan metoden! Gauss-Jordans metod När man reducerat sin matris till en trappstegsmatris kan man antingen skriva om ekvationen som ett linjärt ekvationssystem och lösa de på de klassiska sättet, eller så kan man ta matrisreduktionen ett steg längre. Denna metod är, enligt mig, att föredra för den underlättar allt! När man använder Gauss-Jordan elimination fortsätter man med sin trappstegsmatris och gör så att alla nummer ovanför de ledande ettorna också blir noll! Detta gör man på samma sätt som i Gauss metod, men även på raderna man redan använt i tidigare steg ovan. 1 [0 0 −2 1 0 1| 2| 1| 8 ๐ 1 + 2๐ 2 1 4] → { } → [0 3 0 0 1 0 ๐ 1 − 5๐ 3 1 5 | 16 2 | 4] → {๐ 2 − 2๐ 3 } → [0 0 1| 3 0 1 0 0| 1 0 | − 2] 1| 3 Om matrisen i reducerad trappstegsform(RREF2) inte är en identitetsmatris betyder de att ekvationssystemet har mer än en lösning! 2 Reduced Row Echelon Form Invers- och Identitetsmatrisen För att gå igenom inversmatriser måste man förstå vad en identitetsmatris är. En identitetsmatris(även kallad enhetsmatris) är en kvadratisk matris med ettor längs huvuddiagonalen och nollor i alla andra positioner. 1 ๐ผ = [0 0 0 1 0 0 0] 1 Dessa har, enligt boken, beteckningen I. Det speciella med en identitetsmatris är att om man multiplicerar en kvadratisk matris A med en identitetsmatris I av samma ordning, så blir resultatet samma matris A. Vi har alltså ๐ด ∗ ๐ผ = ๐ด, att multiplicera en matris med dess identitetsmatris är samma sak som att multiplicera med 1. Inversmatrisen En inversmatris fungerar på samma sätt för en matris som en invers fungerar för ett tal, och betecknas som matrisen upphöjt till minus ett, ๐ด−1 Om matrisen, dess invers och identitetsmatrisen har samma rank gäller: ๐จ−๐ ∗ ๐จ = ๐จ ∗ ๐จ−๐ = ๐ฐ Man säger att matrisen A då är inverterbar. För att en matris A ska vara inverterbar måste den vara kvadratisk och dess determinant måste vara skilt från noll. Innan man börjar räkna bör man därför först kolla om determinanten för matrisen är noll: ๐๐๐ญ(๐จ) = |๐จ| ≠ ๐ För att beräkna inversmatriser använder man sig generellt sätt utav Gauss-Jordan elimination, där man lägger till ett högerled till matrisen som är dess identitetsmatris. Man reducerar därefter som vanligt och försöker ”få över högerledet till vänsterledet”. 2 ๐ด = [0 0 2 [0 0 2 2 0 0| 1 0| 0 1| 0 0 1 0 0 0] → 1 2 2 0 0 0] ; ๐ต๐๐ ๐กä๐ ๐ด−1 1 1 ๐ 1 − ๐ 2 , ๐ 1 ∗ ( ) 1 2 1 → [0 ๐ 2 ∗ ( ) 0 2 { } 0 1 0 0|1/2 0| 0 1| 0 −1/2 1/2 0 0 0] 1 För 2x2 matriser finns det dock en formel man kan använda sig utav: ๐ ๐จ=[ ๐ ๐ ๐ ๐ ] → ๐จ−๐ = ∗[ ๐ ๐ ๐๐(๐จ) −๐ −๐ ] ; ๐ ๐๐(๐จ) ≠ ๐ ๐ ๐๐ ๐๐ − ๐๐ ≠ ๐ ๐ Jag föredrar dock att alltid använda mig utav Gauss-Jordan metoden, för jag känner mig säker på den. De är bra o veta att det finns fler alternativ dock. Linjära Transformationer I gymnasiematten lärde vi oss att hantera funktioner ๐ฆ = ๐(๐ฅ) där x tillhör käll-mängden(domain på engelska, kan liknas vid definitonsmängd) medan y tillhör målmängden(co-domain på engelska, kan liknas vid värdemängd). Detta ger oss ett annat, mera abstrakt vis att beskriva vad en funktion faktiskt är: En funktion f är något som tar värden x från en mängd och skapar dess representation y i målmängden. Funktioner har dock en nackdel; de hanterar enbart skalärer. โโ) är motsvarigheten till funktioner ๐(๐) i vektoralgebran då de enbart hanterar vektorer. Transformationer ๐ป(๐ Transformationer finns, likt funktioner, i väldigt många olika slag. Men I denna kurs kommer vi bara hantera linjära transformationer. โโ tillhör vår co-domain. A โโ = โ๐โ där ๐ โโ tillhör vår domain och๐ Ekvationen för den linjära transformationen är ๐จ๐ är transformatonsmatrisen som är den enda i linjära transformationer som påverkar ut-resultatet โ๐โ. Vi kan โโ. därför påstå att โ๐โ är den transformationen av vektorn ๐ Transformationen T beskrivs dessutom med dimensionen av domänen och dimensionen av mål-domänen. Om en transformation går från ๐น๐ till ๐น๐ skrivs enligt: ๐ป โถ ๐น๐ → ๐น๐ . Transformationsmatrisen A kommer vidare definieras av transformationen av varje enskild basvektor. Om transformationens mål-domän är ๐น๐ kommer A vara beskriven enligt: ๐ด = [๐(๐โโโโ) โโโโ) โโโโ)] 1 ๐(๐ 2 ๐(๐ 3 โโโโโ), Där ๐ป(๐ ๐ โโโโโ), โโโโโ) ๐ป(๐ ๐ ๐ป(๐ ๐ representerar respektive kollon i matrisen A. Basvektorerna i ๐น๐ motsvarar: 1 0 ๐1 = [0 ] โโโโ โโโโ ๐2 = [1] 0 0 0 ๐2 = [0] โโโโ 1 Dimensionen av domänen måste motsvara antalet transformationer av basvektorer. Detta ger att om domänen โโโโโ). e beskriven i ๐น๐ kommer en till basvektor โโโโโ ๐๐ ge upphov till yttligare en kolumn ๐ป(๐ ๐ Detta används vid ekvationer som kräver uppställning av ett linjäritets-ekvationssystem. Generellt så kommer det kunna uppstå 3 olika typer av uppgifter, beroende på vad som är givet i transformationens ekvation. โโ = โ๐โ ๐จ๐ 2. โโ givna, โ๐โ tillfrågas. Löses genom matrismultiplikation. ๐จ och ๐ โโ tillfrågas. Löses genom Gauss elemination. ๐จ och โ๐โ givna, ๐ 3. โโ och โ๐โ givna, ๐จ tillfrågas. Löses genom linjäritets-ekvationssystem. ๐ 1. Lösningarna för dessa olika fall kan enklast förklaras genom exempeluppgifterna nedan. Viktigt โโ i ๐จ๐ โโ = โ๐โ. Läs delen om Matriser ifall du glömt vad de innebär. Det är matrismultiplikation mellan ๐จ och ๐ โโ โโ. Tillfrågad vektor: ๐ Uppgiftstyp 1 – Given transformationsmatris ๐จ och in-vektor ๐ ๐ โโ) ges av transformationsmatrisen ๐จ = [ Transformationen ๐ป(๐ −๐ −๐ [๐] −๐ ๐ ๐ −๐ โโ = ]. Beräkna transformationen av ๐ ๐ Lösning: Vi har både transformationsmatrisen och vår in-vektor, vi använder därför matrismultiplikation för att beräkna transformationen av vår vektor enligt: ๐ โโ) = ๐จ(๐ โโ) = [ ๐ป(๐ −๐ ๐ ๐ −๐ −๐ + ๐๐ + ๐๐ −๐ ๐๐ ][ ๐ ] = [ ]=[ ] ๐ + ๐๐ − ๐๐ ๐ −๐๐ −๐ ๐๐ โโ) = โ๐โ = [ Vi har alltså att ๐ป(๐ ] −๐๐ โโ Uppgiftstyp 2 – Given transformationsmatris ๐จ och ut-vektor โ๐โ. Tillfrågad vektor: ๐ ๐ โโ); ๐ป: ๐น๐ → ๐น๐ ges av transformationsmatrisen ๐จ = [ Transformationen ๐ป(๐ −๐ ๐ ] ๐ โโ = [ ๐ ] โโ som efter transformationen blir ๐ Beräkna den vektor ๐ −๐ Lösning: โโ där ๐ โโ) = ๐จ(๐ โโ) = ๐ โโ är den okända. Vi använder oss av Gausselemination för att lösa problemet Vi har att ๐ป(๐ enligt: ๐ โโ) = โ๐โ ↔ [ ๐จ(๐ −๐ [ 1 −4 2| 4 1 ]→{ }→[ ๐ 2 + 4๐ 1 2|−6 0 ๐ ๐ โโ = [ ] → ]๐ ๐ −๐ ๐ − (1⁄5)๐ 2 2 | 4 1 ]→{ 1 }→[ ๐ 2 ∗ (1⁄10) 10 | 10 0 2 ๐ฃโ = [ ] 1 0| 1| 2 ๐ฃ =2 ]→{ 1 → ๐ฃ2 = 1 1 โโ. Tillfrågad transformationsmatrisen ๐จ. โโ och ut-vektor ๐ Uppgiftstyp 3 – Given in-vektor ๐ Transformationsmatrisen ๐จ ges av transformationerna: ๐ ๐ โโโโโ) โโโโโ) โโโโโ๐ − ๐๐ โโโโโ๐ + ๐๐ โโโโโ๐ ๐ป (−๐) = [−๐] ↔ −๐ป(๐ ๐ + ๐ป(๐ ๐ = ๐๐ ๐ ๐ ๐ ๐ โโโโโ) โโโโโ) โโโโโ๐ + โโโโโ โโโโโ๐ ๐ป (๐) = [๐] ↔ ๐ป(๐ ๐๐ + ๐๐ ๐ + ๐ป(๐ ๐ = ๐๐ ๐ ๐ ๐ ๐ โโโโโ) โโโโโ) โโโโโ๐ + ๐๐๐ โโโโโ๐ + โโโโโ ๐ป (๐) = [๐๐] ↔ ๐ป(๐ ๐๐ ๐ + ๐๐ป(๐ ๐ = ๐๐ ๐ ๐ Vi lägger in detta i ekvationssystemet, gör om det till en matris och Gauss-eliminerar: โโโโโ) โโโโโ) โโโโโ๐ − ๐๐ โโโโโ๐ + ๐๐ โโโโโ๐ −๐ป(๐ ๐ + ๐ป(๐ ๐ = ๐๐ ๐ { ๐ป(๐ โโโโโ) โโโโโ) โโโโโ โโโโโ โโโโโ → [ + ๐ป(๐ = ๐๐ + ๐ + ๐๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ โโโโโ) โโโโโ) โโโโโ โโโโโ โโโโโ ๐ป(๐ + ๐๐ป(๐ = ๐๐ + ๐๐๐ + ๐ ๐ ๐ ๐ ๐ ๐ ๐ [๐ ๐ −๐ ๐ ๐ ๐|๐ ๐|๐ ๐|๐ ๐ → [๐ ๐ ๐น๐ ↔ ๐น๐ −๐ ๐ ๐ ๐ ๐] → { } → [๐ ๐น๐ − ๐น๐ ๐๐ ๐ ๐ ๐ ๐ ๐ ๐ | ๐ −๐| − ๐ ๐ | ๐ −๐ ๐ ๐ ๐ ๐ | ๐ −๐ ๐ | ๐ ๐ −๐| − ๐ ๐ ๐ ๐น๐ − ๐น๐ ๐ ๐ −๐] → {๐น๐ + ๐น๐ } → [๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐|๐ −๐ ๐ ๐|๐ ๐ ๐] ๐|๐ ๐๐ ๐ ๐ ๐ −๐ ๐ ] → {๐น๐ ∗ (−๐)} ๐น๐ + ๐๐น๐ ๐๐ −๐ ๐| ๐| ๐| ๐ −๐ ๐ ๐ ๐ ๐ ๐ ๐] ๐ โโโโโ) โโโโโ๐ − โโโโโ ๐ป(๐ ๐๐ + โโโโโ ๐๐ ๐ = ๐๐ ๐ ๐ ๐ โโโโโ) โโโโโ๐ ๐๐ + ๐๐ โโโโโ) โโโโโ) โโโโโ) { ๐ป(๐ → ๐ป(๐ = [ ] ; ๐ป(๐ = [ ] ; ๐ป(๐ = [ −๐ ๐ ๐] ๐ = โโโโโ ๐ ๐ ๐ ๐ ๐ ๐ โโโโโโโโ๐ โโโโโ) โโโโโ๐ + ๐๐ โโโโโ๐ + ๐๐ ๐ป(๐ ๐ = ๐๐ Detta ger transformationsmatrisen: โฎ โฎ โฎ ๐ ๐ ๐ ๐จ = [๐ป(๐ โโโโโ) โโโโโ) โโโโโ) ๐ป(๐ ๐ป(๐ ๐ ๐ ๐ ] = [−๐ ๐ ๐] โฎ โฎ โฎ ๐ ๐ ๐ Delrum, Bild och Kärna I tidigare kurser fick vi bland annat lära oss två begrepp: Definitionsmängd och Värdemängd. Definitionsmängden beskriver för vilka x som värdet på funktionen ๐(๐) är definierat och kan därför beskrivas t.ex. med ๐ ≤ ๐ ≤ ๐. Värdemängden motsvarar då det intervall som ett värde ๐ = ๐(๐) finns för funktionen, dvs alla värden som funktionen kan anta, som kan beskrivas med ๐ ≤ ๐ ≤ ๐ . Syftet med inledningen är att förstå att båda dessa mängder, definitonsmängd och värdemängd, har varit tallinjer hittils. I denna kurs kan mängderna vara allt från en punkt till en kub. (Teoretiskt kan mängderna vara en högre dimension än en kub, men det är svårt att visualisera) Delrum Synonymer: Underrum, Subspace Ett delrum kan liknas till en delmängd, förutom att delrum dessutom har tre kriterier till som måste uppfyllas: 1. 2. โโ är inom ๐พ så att ๐ โโ ∈ ๐พ, då måste Skalärmultiplikation sluten: Om vektorn ๐ โโ {−∞ < ๐ < ∞ också finnas inom ๐พ så att ๐๐ โโ ∈ ๐พ ๐๐ โโ och โ๐โ är inom ๐พ så att ๐ โโ, โ๐โ ∈ ๐พ så måste ๐ โโ + โ๐โ också vara Vektoraddition sluten: Om vektorerna ๐ โโ + โ๐โ ∈ ๐พ en vektor inom ๐พ så att ๐ 3. Nollvektorn innehållen: Nollvektorn, eller origo, måste vara inom ๐พ, så att โ๐โ ∈ ๐พ Om alla kriterierna stämmer samtidigt så är delmängden av ๐พ också ett delrum. Delrum kan därför visualiseras med hjälp av geometri(punkt, linje,plan,kub…) som spannets dimension bestämmer, där varje vektor går oändligt i sin riktning. Av denna anledning är alla linjära funktioner som skär origo delrum då deras linjer inte är ändliga samtidigt som de satisfierar den slutna vektoradditionen.Bild Synonymer: Bildrum, Kolonnrum, Image, Columnspace Kan liknas till värdemängd fast för transformationer โโ) = ๐จ๐ โโ = โ๐โ. Då kan vi se att det enda som egentligen kan påverka Tänk att vi har en linjär transformation ๐(๐ transformationen är transformationsmatrisen ๐จ. Det är därför rimligt att påstå att ๐จ är det enda som kan โโ) påverka den bild(tänk värdemängd) som kommer uppstå av transformationen ๐(๐ Sambandet mellan transformationsmatrisen A och bilden är att kolumnvektorerna i A är det som utgör spannet för bilden. Tänk sambandet såhär: โโ påverkas genom en transformation ๐ så att den transformeras till en ny vektor โ๐โ. Den nya vektorn En vektor ๐ โ๐โ måste därför vara innehållen i bildens spann då โ๐โ kan ses som en av bildens vektorer(eller ett värde i värdemängden). Detta kan illustreras som bilden på nästa sida: โโ som ligger i bilden(som är ett delrum till målโโ i vår domän kommer det finnas ett värde ๐ För varje värde på ๐ โโ kan transformeras till genom transformationen ๐ป. domänen) som ๐ Detta betyder alltså att det inte är möjligt att ta ett värde i domänen och transformera det och få ett värde utanför bilden. Transformationsmatrisen ๐จ kommer inte göra det möjligt. | | | โโ) = ๐จ๐ โโ i en transformationsmatris ๐จ = [๐ Om vi då har transformationen ๐ป(๐ โโ ๐ โโ โ๐ โโโ] så kommer bilden | | | โโ, ๐ โโ, โ๐ โโ, ๐ โโ, โ๐ ๐ฐ๐(๐ป) att definieras av spannet vektorerna๐๐๐๐{๐ โโโ} så att ๐ฐ๐(๐ป) = ๐๐๐๐{๐ โโโ}. Detta kan tolkas โโ, ๐ โโ, โ๐ som att kolumnvektorerna ๐ โโโ spänner upp bilden. Dvs, om alla tre är linjärt oberoende kommer spannet motsvara ๐น๐ (eller en oändligt stor kub). Om två vektorer är linjärt oberoende kommer det mot svara ๐น๐ (Ett oädligt stort papper). Bilden kan därför tolkas som alla möjliga vektorer som transformationen kan ge upphov till. Kärna Synonymer: Kernel, Nollrum, Nullspace โโ där vi kräver att den vektor ๐ โโ som ๐ โโ) = ๐จ๐ โโ = ๐ โโ ska transformeras Tänk att vi har en linjärtramsformation ๐(๐ โโ = ๐ โโ. Alla domän-vektorer ๐ โโ = ๐ โโ kommer tillsammans bilda en till måste vara nollvektorn, dvs ๐จ๐ delmängd(och även ett underrum) av den totala domänen och kommer kunna definieras av spannet som uppstår av de vektorer som fås genom att beräkna RREF av transformationsmatrisen. Detta spann kallas โโ, ๐ โโ, … } där ๐ โโ, ๐ โโ fås genom ๐น๐น๐ฌ๐ญ(๐จ). kärnan och beskrivs enligt ๐๐๐(๐ป) = ๐๐๐๐{๐ Till skillnad från bilden (som är ett delrum av mål-domänen) är kärnan ett delrum av domänen där alla vektorer innanför detta delrum kommer att transformeras till nollvektorn. Detta kan illustreras på följande vis: Baser och basbyten Baser Standardbasen En bas ges av ett antal oberoende vektorer tillsammans. Dessa vektorer är därmed basvektorer där varje enskild vektor utgör en koordinataxel i koordinatsystemet. Den vanligaste basen är det kartesiska koordinatsystemets bas som i ๐น๐ ges av basvektorerna: 1 0 ๐1 = [0 ] โโโโ โโโโ ๐2 = [1] 0 0 0 ๐2 = [0] โโโโ 1 โโโโโ, Där basen(I detta fall kallat standardbasen) ges av ๐ฌ = {๐ ๐๐ โโโโโ}. ๐๐ Standardbasens vektorer är dessutom ๐ โโโโโ, ortogonala mot varann och har längden 1. Andra baser Om en ny bas ska definieras måste de göras med linjärt oberoende vektorer, om till exempelvis 3 vektorer är givna varav 2 är beroende måste en av dessa strykas, därmed kan en sådan bas enbart ge upphov till ett spann av dimension 2 . Annars kan de skapas med vilka vektorer som helst! Koordinater för en vektor i en given bas Om ๐ฉ = (๐๐ , ๐๐ , ๐๐ , … ) är en bas för vektorrummet, eller underrummet, V då gäller följande: Varje vektor โ๐ โโโ i rummet V kan skrivas på exakt ett sätt, som en linjär kombination av ๐๐ , ๐๐ , ๐๐ … ๐ = ๐๐ ๐ ๐ + ๐๐ ๐ ๐ + ๐๐ ๐ ๐ … Vi kan också säga att hela vektorrummet V spänns upp av basvektorerna, som vi skriver: ๐ = ๐๐๐๐{๐๐ , ๐๐ , ๐๐ , … } ๐๐ Tal ๐๐ , ๐๐ , ๐๐ … kallas för w:s koordinater i basen B och [ ๐๐ ] kallas koordinatvektor i basen B. Vi skriver [๐]๐ฉ = โฎ ๐๐ [ ๐๐ ] โฎ Exempel: Låt V vara rummet ๐น๐ med standardbasen ๐ผ = (๐, ๐, ๐, … ). Bestäm koordinater för vektorn โ๐ โโโ där โโ: โ๐ โโโ = ๐๐โ − ๐๐โ + ๐๐ ๐ [๐]๐ผ = [−๐] ๐ Basbyte Basbyte med standardbas โโโโโโ๐ , โโโโโโ För att skapa en basbytesmatris måste basvektorer vara givna. Säg att vi har basen ๐ฉ = {๐ฉ ๐ฉ๐ } , då kommer basbytesmatrisen P att gå från B till standardbasen enligt: ๐ท๐ฉ→๐ฌ | โโโโโโ๐ = [๐ฉ | | โโโโโโ ๐ฉ๐ ] | För att förstå varför riktningen är specifikt ๐ฉ → ๐ฌ och inte tvärt om är det viktigt att betrakta det allmänna fallet, då basbytet görs oberoende av standardbasen. Basbyte med allmän bas Varför matrisen P ovan har riktningen ๐ฉ → ๐ฌ beror på att vektorerna โโโโโโ ๐ฉ๐ , โโโโโโ ๐ฉ๐ är definierade i standardbasen. Detta beror på att en vektor inte kan existera utan att vara definierad utifrån ett koordinatsystem på samma โโ skrivs utan sätt som att en punkt inte kan ritas in utan att veta var koordinataxlarna finns. När en vektor ๐ โ โ utskriven bas antas det vara i standardbasen. Säg att ๐ hade varit definierad i bas B, då hade det istället skrivits [๐ โโ]๐ฉ . Detta gäller även basvektorer som ska användas för att definiera andra baser. Därför gäller: โโโโโโ๐ , ๐ฉ โโโโโโ๐ } = {[๐ฉ โโโโโโ๐ ] , [๐ฉ โโโโโโ๐ ] } โโ = [๐ โโ]๐ฌ ; ๐ฉ = {๐ฉ ๐ ๐ ๐ฌ Med detta kan vi nu skriva om basbytet till det mera allmänna fallet då vi har basen ๐ฉ = {[โโโโโโโโ ๐ฉ๐]๐ , [โโโโโโโโ ๐ฉ๐]๐ } som har sina basvektorer angivna i en annan bas v än standardbasen där basbytesmatrisen nu blir ๐ท med riktningen ๐ฉ → ๐ enligt: ๐ท๐ฉ→๐ | โโโโโโ๐ ] = [[๐ฉ ๐ | | โโโโโโ๐ ] ] [๐ฉ ๐ | Det som definierar riktningen hos en basbytesmatris är med andra ord vilken bas kolumnvektorerna är definierade i. โโโโโโ ๐ฉ๐ , โโโโโโ ๐ฉ๐ må utgöra en egen bas, men de måste vara definierade i en annan bas som i detta fall är v . Om man tänker sig att man har [๐ โโโโ]๐ och söker [๐ โโโโ]๐ฉ när man har ๐ท๐ฉ→๐ kommer ekvationen ställas upp ๐ท๐ฉ→๐ [๐ โโโโ]๐ฉ = [๐ โโโโ]๐ som i detta fall kommer lösas genom gauss elemination eller genom att hitta en inversmatris till ๐ท๐ฉ→๐ som har motsatt riktning. Basbyten och linjära transformationer Precis på samma sätt som vektorer måste vara definerade med hänsyn till en bas måste även linjära โโ) som transformerar vektorn ๐ โโ till transformationer det. Detta innebär att den linjära transformationen ๐ป(๐ โโ) bara kan verka i standardbasen då transformationen använder matrisen A enligt ๐ป(๐ โโ) = ๐จ๐ โโ . ๐ป(๐ För att kunna transformera vektorer i andra baser kommer andra basbytesmatriser krävas! Transformationen beräknas precis som vanligt förutom att en annan transformationsmatris D, som gäller för basen B, används โโ)]๐ฉ = ๐ซ[๐ โโ]๐ฉ enligt: [๐ป(๐ Genom att kombinera basbyten med linjära transformationer kan det illustreras som en karta med de olika vägarna man kan använda för att ta sig mellan transformationer med olika baser. Detta ger oss att om en given โโ med efterfrågan av transformationsvektorn ๐ป(๐ โโ) kan beräkningen fortfarande utföras även om inte vektor ๐ transformationsmatrisen A är given. โโ Detta går genom: ๐ โโ]๐ฉ → [๐ป(๐ โโ)]๐ฉ → ๐ป(๐ โโ) . → [๐ Detta ger dessutom att både transformationsmatrisen A och D kan skrivas som en produkt av de andra matriserna: ๐ด = ๐๐ท๐ −1 ๐ท = ๐−1 ๐ด๐ Dessa formler gås igenom lite tydligare under Diagonaliserings kapitlet Viktigt Studera kartan noga och notera att läsordningen i matrisekvationerna ovan är den motsatta från den som ges från kartan nedan. Detta beror på att när ytterligare matriser multipliceras måste de läggas till längst till vänster i varje led. Vad är en determinant? Alla kvadratiska matriser har en s.k. determinant: ett tal som tillordnas martrisen enligt vissa regler. Determinanten motsvarar förstoringsfaktorn av en linjär avbildning(mer om de sen), och kan användas för att få fram lösningen till linjära ekvationssystem, räkna ut en area eller en volym m.m! Detemrinanten till en matris A betecknas |๐จ| eller ๐๐๐ญ(๐จ). 2x2 matriser För matriser som har storleken 2x2 är det väldigt enkelt att räkna ut determinanten: ๐จ=[ ๐ ๐ ๐ ] → |๐จ| = ๐๐ − ๐๐ ๐ Exempel: ๐ Vi har matrisen ๐จ = [ ๐ ๐ ] Vad är dess determinant? ๐ |๐จ| = ๐ ∗ ๐ − ๐ ∗ ๐ = ๐๐ Genom att utveckla efter en rad eller en kolonn För att räkna ut determinanten till en 3x3 matris (eller större) kan man dela upp den i flera 2x2 matriser, räkna ut determinanten för varje ”mindre” matris och sedan addera dem med varandra, där varannan term blir negativ. ๐ ๐จ = [๐ ๐ ๐ ๐ ๐ ๐ ๐] → |๐จ| = ๐ ∗ | ๐ ๐ ๐ ๐ ๐ |−๐∗| ๐ ๐ ๐ ๐ |+๐∗| ๐ ๐ ๐ | ๐ För att beräkna determinanten kan vi använda en av följande metoder: 1. Utveckling efter rad nummer i ๐จ = (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐ 2. Utveckling efter kolonnummer k ๐จ = (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐ Det finns ett tredje sätt att lösa dom, som jag kommer gå igenom på nästa sida. Lite egenskaper hos determinanter: Värdet av en determinant ändras inte om raderna görs till kolonner och vice versa, dvs ๐๐๐ญ(๐จ๐ป ) = ๐๐๐ญ(๐จ) Om alla element i en rad/kolonn är 0 så är determinantens värde 0. Om en determinant har två lika rader/kolonner så är determinantens värde 0. Om en determinant har två proportionella rader/kolonner så är determinantens värde 0. Tredje metoden: genom Gausselemination Ett annat, ofta enklare, sätt att beräkna determinanten till matriser som är större än 2x2 är att använda sig av Gausselimination. Här utnyttjar man det faktum att om man kan reducera matrisen till en trappstegsmatris så är determinanten lika med produkten av talen längs matrisens huvuddiagonal (från övre vänstra hörnet till det nedre högra). När man Gausseliminerar för att hitta determinanten finns det dock särskilda regler som gäller: 1. 2. 3. Du får inte längre dela en rad med konstant som vanligt (bara lägga till en multipel av en rad på en annan)! Man kan dock fortfarande göra detta genom att ”bryta ut” en siffra ur raden, kanske för att underlätta radoperationerna, vilket då placeras framför matrisen som en konstant som man sedan måste multiplicera in när man löser ut determinanten. Varje gång du byter plats på 2 närliggande rader så byter determinanten tecken (här gäller det alltså att ha koll på hur många såna byten man har gjort). Målet är inte att göra om huvuddiagonalens tal till ettor (vilket man annars brukar göra när man Gausseliminerar), utan det viktiga här är bara att det finns nollor under huvuddiagonalen! Exempel: ๐ ๐ ๐ ๐ ๐ } → [๐ ๐] → { ๐ ๐] → { ๐น๐ ↔ ๐น๐ } → (−๐๐)(−๐) [๐ ๐น๐ − ๐๐น๐ ๐น๐ ∗ (−๐⁄๐๐) ๐ ๐ −๐๐ ๐ ๐ ๐ ๐ ๐ →{ } → (๐๐) [๐ ๐ ๐] → ๐๐๐ญ(๐จ) = (๐๐)(๐)(๐)(๐) = ๐๐ ๐น๐ − ๐๐น๐ ๐ ๐ ๐ ๐ ๐จ = [๐ ๐ ๐ ๐ −๐ ๐ ๐จ = [๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐น๐ ∗ (๐⁄๐) ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐น๐ − ๐น๐ ๐ ๐ ๐] → { ๐ ๐ } → (๐) [ ]→{ } → (๐) [๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐น๐ − ๐๐น๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐น๐ − ๐๐น๐ ๐ ๐ ๐ ๐ ๐น − ๐น๐ →{ ๐ } → (๐) [๐ ๐ ๐ ๐] → ๐๐๐ญ(๐จ) = (๐)(๐)(๐)(๐)(๐) = ๐๐ ๐ ๐ ๐ ๐ ๐น ๐ − ๐น๐ ๐ ๐ ๐ ๐ ๐น ๐ − ๐น๐ ๐ ๐ ๐ ๐ ๐] ๐ ๐ ๐ ๐ ๐ ๐ ๐] ๐ ๐ Minsta-kvadratmetoden Minsta-kvadratmetoden används för ekvationssystem som är inkonsistenta(inte har någon lösning), som t.ex. när du inte kan radreducera en matris så att den ”går ut”. ๐ฅ+๐ฆ =1 −๐ฅ + 2๐ฆ = 4 som består av tre linjer som inte har någon gemensam punkt: Ta ekvationsystemet { ๐ฅ−๐ฆ =0 Det finns alltså ingen exakt lösning här. Men däremot kan vi beräkna den närmaste lösningen, d.v.s. punkten som är närmast de tre linjernas skärningspunkter genom minsta-kvadrat metoden! ๐จ๐ป ๐จ๐ = ๐จ๐ป ๐ Vi börjar med att skriva upp ekvationssystemet i matrisform: ๐ [−๐ ๐ ๐ ๐ ๐ ๐ ] (๐) = [๐] −๐ ๐ Vi kallar matrisen till vänster för A och vektorn till höger för b. Därefter beräknar vi produkten av matrisen A och dess transponat: ๐ ๐จ๐ป ๐จ = [ ๐ −๐ ๐ ๐ ๐ ] [−๐ −๐ ๐ ๐ ๐+๐+๐ ๐ ]=[ ๐ + ๐ ∗ (−๐) − ๐ −๐ ๐−๐∗๐−๐ ๐ ]=[ ๐+๐∗๐+๐ −๐ Därefter beräknar vi produkten av A’s transponat och b. ๐ ๐จ๐ป ๐ = [ ๐ −๐ ๐ ๐ ๐−๐+๐ ๐ −๐ ] [๐] = [ ]=[ ] ๐+๐+๐ −๐ ๐ ๐ Nu beräknar vi ekvationssystemet ๐จ๐ป ๐จ๐ = ๐จ๐ป ๐, vilket i matrisform motsvarar: [ ๐ −๐ −๐ ๐ −๐ ]( ) = [ ] ๐ ๐ ๐ Därefter löser vi det genom att sätta upp en matris med vänster- och högerled utefter ovan: [ ๐ −๐ −๐| − ๐ ๐ ] →. . . → [ ๐ | ๐ ๐ ๐| ๐ ] ๐|๐/๐ 3 Nu är de klart! Den närmaste lösningen till ekvationssystemet är alltså(๐ฅ, ๐ฆ) = (0, ( )) 2 −๐ ] ๐ Egenvärde och Egenvektor I linjära avbildningar finns det ibland vektorer som varken ändrar riktning eller vinkel utan bara blir längre eller kortare. Låt oss tänka att T är en linjär avbildning med kvadratiska matrisen A. Om en vektor uppfyller โโ = ๐๐ โโ där ๐ är en konstant, betyder det att ๐ är ett egenvärde till matrisen, och att ๐ โโ är en egenvektor till ๐จ๐ matrisen som hör till egenvärdet. Notera att egenvektorn måste vara nollskild. Nollvektorn godkänns alltså INTE som egenvektor till NÅGON avbildning. Däremot kan 0 vara ett egenvärde till matrisen. โโ med faktorn ๐. Med andra ord betyder det alltså att matrisen A bara dragit ut vektorn ๐ De enda vektorerna som inte ändrar riktning är de som är helt horisontella(t.ex. gubbens armar) och de som är helt vertikala(t.ex. gubbens kropp) För att hitta alla egenvärden till en avbildningsmatris A löser man den karaktäristiska ekvationen: ๐๐๐ญ(๐จ − ๐๐ฐ) = ๐ De värden som uppfyller ekvationen är då egenvärdena. Nedan är ett exempel: ๐ Hitta alla egenvärden till matrisen ๐จ = [๐ ๐ ๐ ๐ −๐ −๐ −๐] −๐ Vi applicerar formeln ovan. Det första vi vill veta är alltså vad ๐จ − ๐๐ฐ blir: ๐ ๐จ − ๐๐ฐ = [๐ ๐ ๐ ๐ −๐ −๐ ๐ −๐] − [๐ −๐ ๐ ๐ ๐ ๐ ๐ ๐−๐ ๐] = [ ๐ ๐ ๐ ๐ −๐ −๐ −๐ −๐ ] −๐ − ๐ Vi ska nu räkna ut determinanten till den här matrisen. I det här fallet blir det svårt att använda Gausseliminering pga ๐ variabeln, vi använder därför oss av utveckling efter kollon/rad. ๐ ๐๐(๐จ − ๐๐ฐ) = (๐ − ๐) | −๐ −๐ ๐ −๐ |−| ๐ −๐ − ๐ −๐ ๐ |−| −๐ − ๐ ๐ −๐ |= −๐ = (๐ − ๐) ((−๐)(−๐ − ๐) − ((−๐)(−๐))) − (๐(−๐ − ๐) − (−๐) − (๐(−๐) − (−๐))) = = (๐ − ๐)(๐ + ๐๐ − ๐) − (−๐๐) − (−๐ + ๐) = ๐ + ๐๐ − ๐ − ๐๐ − ๐๐ + ๐๐ + ๐๐ + ๐ − ๐ = = −๐๐ + ๐๐ = ๐(−๐๐ + ๐) → ๐ ๐๐(๐จ − ๐๐ฐ) = ๐(−๐๐ + ๐) Egenvärdena på matrisen är då ๐ ๐๐(๐จ − ๐๐ฐ) = ๐ → ๐(−๐๐ + ๐) = ๐ → ๐๐ = ๐, ๐๐ = ๐, ๐๐ = −๐ Svar: Matrisens egenvärden är alltså ๐ = {๐, ๐, −๐} För att hitta alla egenvektorer till en matris A måste man först hitta alla dess egenvärden och sedan lösa följande karaktäristiska ekvation genom att ersätta ๐ med de olika egenvärdena: (๐จ − ๐๐ฐ)๐ โโ = โ๐โ โโ som uppfyller ekvationen är då egenvektorerna! De värdena på ๐ Fortsättning på förra exemplet: Hitta även alla matrisens egenvektorer. Vi börjar med att stoppa in alla de egenvärdena vi hittade i ekvationen ๐−๐ ๐ −๐ ๐จ − ๐๐ฐ = [ ๐ −๐ −๐ ] ๐ −๐ −๐ − ๐ ๐ ๐ = ๐ → ๐จ − ๐๐ฐ = [๐ ๐ ๐ ๐ −๐ −๐ −๐] I de här fallet blir matrisen oförändrad. −๐ För att hitta vilken vektor matrisen ska multipliceras med för att ge en nollvektor använder vi oss av Gausseliminering. Jag tänker, för att spara utrymme, skippa alla steg och bara skriva svaret av RREF: ๐ ๐๐๐๐ ([๐ ๐ ๐ ๐ −๐ ๐ −๐ −๐] ) = [๐ −๐ ๐ ๐ ๐ ๐ ๐ −๐ ๐ ๐=๐ ๐−๐ =๐ ๐ ] → { ๐ = ๐ ↔ {๐ = ๐ → [๐] = ๐ [๐] ๐ ๐ ๐ Därefter gör vi samma sak med dom andra två egenvärdena. −๐ ๐ = ๐ → ๐จ − ๐๐ฐ = [ ๐ ๐ −๐ ๐๐๐๐ ([ ๐ ๐ ๐ −๐ −๐ −๐ ๐ −๐]) = [๐ −๐ ๐ −๐ ๐ ๐ ๐ ๐ −๐ ๐ −๐ −๐]) = [๐ ๐ ๐ ๐ ๐ ๐ −๐ −๐] −๐ ๐ ๐ ๐ ๐=๐ ๐−๐= ๐ ๐ ] → { ↔ { → [ ] = ๐ [ ๐ ๐] ๐=๐ ๐=๐ ๐ ๐ ๐ ๐ ๐ = ๐ → ๐จ − ๐๐ฐ = [๐ ๐ ๐ ๐๐๐๐ ([๐ ๐ ๐ −๐ −๐ ๐ ๐ −๐ −๐ −๐] ๐ ๐ ๐ ๐ ๐=๐ ๐=๐ −๐] → {๐ − ๐ = ๐ ↔ { ๐ = ๐ → [๐] = ๐ [๐] ๐ ๐ ๐ ๐ ๐ ๐ Till sist har vi äntligen fått fram våra egenvektorer: ๐ [๐] , ๐ [๐] , ๐ [๐] ๐ ๐ ๐ Diagonalisering av en matris Låt A vara en kvadratisk matris av typen n x n. Matrisen A är diagonaliserbar om det finns en inverterbar matris P och en diagonalmatris D så att : ๐ซ = ๐ท−๐ ๐จ๐ท (∗) Ofta vill man använda sambandet ๐จ = ๐ท๐ซ๐ท−๐ som fås ur (*) genom att lösa ut A. Med ”diagonalisera en matris (om möjligt)” menar examinatorerna att skriva, om möjligt, matrisen A på formen ๐จ = ๐ท๐ซ๐ท−๐ , Där P är en avbildningsmatris, ๐ท−๐ dess invers och D är en diagonalmatris(en matris som bara har nollor utanför huvuddiagonalen) För att hitta P och D använder man matrisen A:s egenvärden och egenvektorer. ๏ท D är en diagonalmatris med A:s egenvärden längs huvuddiagonalen. ๐๐ ๐ซ =[๐ ๐ ๏ท ๐ ๐๐ ๐ P är en matris med A:s egenvektorer längs dess kolonner โฎ ๐ท = [โโโโโ ๐๐ โฎ ๏ท ๐ ๐] ๐๐ โฎ โฎ โโโโโ๐ ๐ โโโโโ๐ ] ๐ โฎ โฎ ๐ท−๐ är P:s inversmatris och kan räknas ut med valfri metod Tänker fortsätta på föregående kapitels exempel för att illustrera hur de går till: ๐ Diagonalisera matrisen ๐จ = [๐ ๐ ๐ ๐ −๐ −๐ −๐] −๐ Vi vill skriva A under formen ๐ท๐ซ๐ท−๐ . I förra kapitlet beräknade vi matrisens egenvärden, {๐, ๐, −๐}, och ๐ ๐ ๐ egenvektorer, ๐ [๐] , ๐ [๐] , ๐ [๐] ๐ ๐ ๐ Vi räknar nu ut D genom att sätta in egenvärdena längs diagonalen, P genom att sätta in egenvektorer längs kolumnerna och slutligen ๐ท−๐ genom Gausselimination. ๐ ๐ซ = [๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ] ; ๐ท = [๐ −๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐] ; ๐ท−๐ = [ ๐ ๐ ๐ −๐ −๐ ๐ ๐ ๐ −๐] ๐ Nu har vi våra tre matriser och kan därför diagonalisera A enligt formeln ovan: ๐จ= ๐ ๐ [๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐] [๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ][ ๐ −๐ −๐ −๐ ๐ ๐ ๐ −๐] ๐ Glöm inte att man måste gå från vänster när man löser dessa, dvs första matrisen gånger den andra, och resultatet av den gånger den tredje! Matrispotenser Vad använder man då diagonalisering till? Jo, om man har en matris A som man diagonaliserar kan man enkelt räkna ut dess potenser(๐จ๐ , ๐จ๐ , ๐จ๐ … ) genom formeln: ๐จ๐ = ๐ท๐ซ๐ ๐ท−๐ Uträkningen av D:s potenser är väldigt enkelt eftersom det är en diagonalmatris! Det räcker därför att räkna ut potensen av talen längs dess huvuddiagonal(och slippa jobbiga matrismultiplikationer!) Återigen fortsätter jag på föregående exemplet: Använda A:s dagonalisering för att räkna ut ๐จ๐ . Vi använder matrisen som vi fick fram i förra exemplet och sätter potensen på diagonalmatrisen: ๐ ๐ −๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ [๐ ๐ ๐] [ ๐ ๐๐ ๐ −๐] = ๐ ][ ๐ ๐ ๐ ๐ ๐ ๐ ๐ −๐๐ −๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ −๐ ๐ ๐ = ๐จ๐ = [๐ ๐ ๐] [๐ ๐ ๐] [ ๐ ๐ −๐] ๐ ๐ ๐ ๐ ๐ ๐ ๐ −๐ ๐ ๐ ๐จ๐ = Nu återstår bara att multiplicera matriserna för att få fram ๐จ๐ ! ๐จ๐ = ๐ ๐∗๐+๐∗๐+๐∗๐ [๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ ๐ ๐ ๐∗๐+๐∗๐+๐∗๐ ๐ ๐ [๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐] [ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐ ๐] [ ๐ ๐ −๐ ๐∗๐+๐∗๐+๐∗๐ ๐∗๐+๐∗๐+๐∗๐ ๐∗๐+๐∗๐+๐∗๐ ๐ ๐ [๐ ๐ ๐ ๐ ๐ ๐ −๐ ๐ ๐ ๐∗๐+๐∗๐+๐∗๐ ๐ ๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ ๐] [ ๐ ๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ ๐ −๐ ๐ ๐ ๐] [ ๐ ๐ −๐ −๐ ๐ ๐ ๐ ๐ [๐ ๐ −๐ ๐ ๐ ๐ −๐ ๐ ๐ ]=[ ๐ ๐ −๐ ๐ ๐จ๐ = [ ๐ −๐ ๐ ๐ ๐ −๐ ๐ ๐ ๐ −๐] = ๐ ๐ −๐] = ๐ (−๐) ๐ ∗ (−๐) + ๐ ∗ ๐ + ๐ ∗ ๐ ๐ ๐∗๐+๐∗๐+๐∗ = [๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ (−๐) ๐ ∗ (−๐) + ๐ ∗ ๐ + ๐ ∗ ๐ ๐ ๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ (−๐) ๐ ∗ (−๐) + ๐ ∗ ๐ + ๐ ∗ ๐ = ๐ −๐] = ๐ ๐ ๐ ๐ ๐ ∗ ๐ + ๐ ∗ (−๐) + ๐ ∗ ๐ ๐ ∗ ๐ + ๐ ∗ (−๐) + ๐ ∗ ๐] = ๐ ∗ ๐ + ๐ ∗ (−๐) + ๐ ∗ ๐ −๐ ๐] ๐ −๐ ๐] ๐ Detta innebär också att man kan räkna ut rötter på en matris, då √๐จ = ๐จ ๐⁄ ๐ Gram-Schmidt ortogonalisering och ON-baser Gram-Schmidt otrogonalisering är metoden för att transformera en godtycklig bas till en ON-bas(Ortogonal & Normaliserad bas) som har samma spann som den föregående basen. Denna metod använder sig av ortogonal projektion och är därför ett förkunskapskrav för att förstå de nedanför. Ifall du glömt, kolla igenom kapitlena om projektion ovan. Gram-Schmidt ortogonalisering โโโโโ, Antag att vi har en godtycklig bas ๐ฉ = {๐ ๐๐ โโโโโ} ๐๐ som vi vill ortogonal- och normalisera genom Gram-Schmidt ๐ โโโโโ, โโโโโ, โโโโโ, โโโโโ}. metoden till basen ๐ธ = {๐ ๐ ๐ ๐ ๐ ๐ Ortogonala basen: โโโโโ ๐๐ = โโโโโ ๐๐ โโโโโ โโโโโ) ๐๐ = โโโโโ ๐๐ − ๐๐๐๐โโโโโโ ๐๐ − ๐๐ (๐ ๐ = โโโโโ โโโโโ ๐๐ ∗ โโโโโ ๐๐ โโโโโ ๐๐ ๐ โ๐ โโโโโโ ๐ โโโโโ โโโโโ) โโโโโ) ๐๐ = โโโโโ ๐๐ − ๐๐๐๐โโโโโโ ๐๐ − ๐๐ (๐ ๐ − ๐๐๐๐โโโโโโ ๐๐ (๐ ๐ = โโโโโ โโโโโ โโโโโ ๐๐ ∗ โโโโโ ๐๐ ๐๐ ∗ โโโโโ ๐๐ โโโโโ โโโโโ ๐ − ๐๐ ๐ ๐ ๐ โ๐ โ๐ โโโโโโ โโโโโโ ๐ ๐ Detta har givit oss en ortogonal bas, men vi kan också bes om dess ortonormerade bas som ges utav att vi delar varje basvektor med dess norm(längd). โโโโโ ๐๐ = โโโโโ ๐๐ , โ๐ โโโโโโ ๐ โโโโโ ๐๐ = โโโโโ ๐๐ , โ๐ โโโโโโ ๐ โโโโโ ๐๐ = โโโโโ ๐๐ โ๐ โโโโโโ ๐ Checklista/Begreppsamling Vektor Synonym: Kordinatvektor En vektor beskrivs av en riktning (och en längd), inte en position som en punkt gör. An denna anledning kan vektorer förflyttas så de inte är bundna vid en position. Vektorer skrivs med gemener(små bokstäver) med en ๐ โโ = [ ] pil över enligt: ๐ ๐ Skalär Alla reella tal är skalärer, detta vill säga, skalärer är det som finns på den reella tallinjen. Skalärer skrivs med gemener, det vill säga små bokstäver ๐ = ๐: Norm Synonym: Längd av vektor, Magnitud Vektorer kan vara olika långa men forfarande ha samma riktning. Normen av en vektor är inte absolutbeloppet ๐ av en vektor. Normen ges av: โ๐ฃโโ = โ โ = √๐2 + ๐ 2 ๐ Matris En matris kan betraktas som en datahållare, något som håller information. Syftet med att ha matriser är att de är enkla att manipulera för att ge svar på olika problem. Matriser beskrivs genom antalet rader och kolonner den har och namn med versaler, det vill säga, stora bokstäver. Följande matris är en 2x3 matris: ๐จ = ๐ ๐ ๐ [ ] ๐ ๐ ๐ Dimension Synonym: dim() Alla vektorrum har en dimension de är bundna vid. Detta motsvarar det lägsta antalet vektorer som krävs för att beskriva rummet. En vektor kommer rummet motsvara en linje. Två motsvarar ett plan och tre ett kubiskt rum. Rang Synonym: dim(Im()), dimensionen av bilden Rangen av en matris är antalet oberoende kolumnvektorer som finns i matrisen eller antalet ledande ettor efter gauss elemination. I själva verket är rangen av en matris dimensionen av bilden som den matrisen ger upphov till vid transformation. Projektion, perpendikulär & reflektion Projektionen av en vektor på en annan vektor kan informellt tolkas som skuggan av den första vektorn på en โโ på ๐ โโ kommer projektionen ges av: andra. Om vi vill projicera ๐ โโ ∗ ๐ โโ ๐ โโ) = ( โโ ๐๐๐๐๐โโ (๐ )๐ โ๐ โโโ2 Den perpendikulära vektorn kommer att motsvara avståndsvektorn från skuggan, i normalens riktning, tills den โโ. Detta kommer ges av: når den första vektorn, i detta fall ๐ โโ) = ๐ โโ − ๐๐๐๐๐โโ (๐ โโ) = ๐ โโ − ( ๐๐๐๐๐โโ (๐ โโ ∗ ๐ โโ ๐ โโ )๐ โ๐ โโโ2 โโ på ๐ โโ beräknas. Vektor ๐ โโ kan i detta fall betraktas som en spegel för Avslutningsvis kan även reflektionen av ๐ de resterande vektorerna. Reflektionen ges av: โโ ∗ ๐ โโ ๐ โโ) = ๐๐๐๐๐๐โโ (๐ โโ) − ๐ โโ = ๐ ( โโ − ๐ โโ ๐๐๐๐โโ (๐ )๐ โ๐ โโโ2 Linjär transformation Synonym: Linjär avbildning Transformation kan betraktas som motsvarigheten till skalärfunktioner ๐(๐) fast för vektorer genom att utföra โโ) av vektor โ๐โ genom transformationsmatrisen A då ๐ป(๐ โโ) = ๐จ๐ โโ . Resultatet kommer att transformationen ๐ป(๐ โโ som är en transformation av ๐ โโ . Detta ger att hela transformationen โโ enligt ๐ป(๐ โโ) = ๐จ๐ โโ = ๐ ge en ny vektor ๐ enbart definieras av matrisen A som då även definierar bilden och kärnan. Bild Synonym: Image, kolonnrum, Im() Bilden för given transformation kam betraktas som transformationens värdemängd där värdemängden inte är definierad i ett intervall på en tallinje utan istället kan vara i form av talplan eller talrum, av denna anledning måste bilden definieras av ett spann av vektorer. Bilden ges även av spannet hos kolumnvektorerna i transformationsmatrisen. Kärna Synonym: Kernel, Nollrum, Nullspace, Ker() Kärnan för en transformation är en mängd där alla vektorer innanför mängden kommer efter transformation โโ tillhör kärnan, då måste ๐ป(๐ โโ) = โ๐โ enligt definition. Kärnan ges alltid att transformeras till nollvektor. Säg att ๐ därför genom att radreduktion samt lösning av systemet som transformationsmatrisen innehåller. Underrum Synonym: Delrum För att en delmängd ska vara ett delrum måste tre kriterier uppfyllas samtidigt: 1. 2. โโ måste vara innehållen i delmängden. Nollvektorn ๐ Den resulterande vektorn från additionen av två vektorer som båda innehålls i delmängden måste fortfarande vara innehållen a Span โโ, ๐ โโ} med ๐๐๐๐{๐ โโ, ๐ โโ} är att i det förstnämnda sker referensen specifikt till ๐ โโ och ๐ โโ, inga andra Det som skiljer {๐ โโ, ๐ โโ} refererar till ๐ โโ ∗ ๐ โโ och alla linjära kombinationer som de ger upphov till. Det kan vektorer, medan ๐๐๐๐{๐ โโ, ๐ โโ} = ๐๐ โโ + ๐๐ โโ där t och s är reella tal. Av denna därför vara passande (men något informellt) att ๐๐๐๐{๐ } { } används för att beskriva baser anledning används alltid ๐๐๐๐{ för att beskriva underrum medan Bas En bas är i själva verket ett kordinatsystem där kordinataxlarna är vektorerna som utgör basen. Den vanligaste basen ges av det kartesiska koordinatsystemet som har enhetsvektorerna: 1 0 0 ๐1 = [0 ] โโโโ โโโโ ๐2 = [1] โโโโ ๐2 = [0] 0 0 1 Det går att skapa nya baser och gå mellan dessa baser genom ett basbyte. Ett kriterium för baser är att alla dess vektorer måste vara linjärt oberoende. En bas kan även vara ortogonal och ortonormal. För en ortogonal bas gäller att alla basens vektorer är vinkelräta mot varann. För en ortonormal bas gäller dessutom att de är normaliserade, det vill säga, har längden 1. Basbyte Att utföra ett basbyte innebär att beskriva en given vektor i en annan bas. Detta görs med basbytesmatriser där kolumnerna i matrisen är vektorerna som utgör basen. Viktigt är att notera från vilken till vilken bas basbytesmatrisen går. Basbyten är den svårare delen av kursen Linjär Algebra, för vidare förståelse se lektionen Basbyte. Determinant Beräkning av determinanten ger information kring huruvida kolumnerna i matrisen är linjärt beroende. Detta kan utnyttjas för att se om ett system har en enskild lösning eller ingen/oändligt med lösningar. Om ๐๐๐ญ(๐จ) ≠ ๐ har A en enskild lösning och går därmed att invertera. Om ๐๐ ๐ญ(๐จ) = ๐ har A oändligt/ingen lösning och kan därför inte ha en inversmatris. Area av parallelogram och triangel Arean av ett parallellogram kan beräknas på olika sätt, en för ๐น๐ och en för ๐น๐ : I ๐น๐ ges arean av absolutbeloppet(en area kan inte vara negativ) av en determinant med två av paralellogrammets vektorer som utgår från samma hörn i determinatens rader: ๐จ๐๐๐ = ๐๐๐ (| − − โโ ๐ โ๐โ − |) − I ๐น๐ ges arean genom att ta normen av kryssprodukten av två vektorer som går från samma hörn i paralellogrammet kan man få arean enligt: โโ × โ๐โโ ๐จ๐๐๐ = โ๐ Volym av parallelepiped I ๐น๐ ges volymen av en parallelepiped av absolutbeloppet en determinant med tre av paralellogrammets vektorer som utgår från samma hörn i determinatens rader enligt: − โ๐โ − โโ −|) ๐จ๐๐๐ = ๐๐๐ (|− ๐ โโ − − ๐ Egenvärde & Egenvektorer โโ då har vi transformationen Om vi har en given linjär transformation T för en given vektor ๐ โโ. Om även den resulterande vektorn ๐ โโ är en multipel av vektorn som transformationen verkar โโ) = ๐จ๐ โโ = ๐ ๐ป(๐ โโ enligt ๐ป(๐ โโ) = ๐จ๐ โโ = ๐๐ โโ där ๐ är en skalär. Då gäller att ๐ är ett egenvärde till egenvektorn ๐ โโ. på ๐ Detta innebär att egenvektorer efter transformationen kommer enbart att förändras i längd, inte i riktning. Egenvärdena för en transformationsmatris A ges av ekvationen: ๐๐๐ญ(๐จ − ๐๐ฐ) = ๐ där I är identitetsmatrisen. Egenvektorerna ges av: (๐จ − ๐๐ฐ)๐ โโ = โ๐โ som kräver att egenvärdena redan är givna och appliceras en gång per egenvärde. Algebraisk multiplicitet & Geometrisk multiplicitet Vid beräkning av egenvärden och lösning av karaktäristisk ekvation kan det uppstå dubbelrötter, till exempel: ๐1 = 3 {๐2 = 4 , där det är dubbelrot då ๐ = ๐. Då gäller att egenvärdet ๐ = ๐ har den algebraiska multipliciteten 2 ๐3 = 3 medan ๐ = ๐ har den 1 algebraiska multipliciteten . Den geometriska multipliciteten definieras av antalet vektorer som varje enskilt egenvärde ger upphov till och motsvarar dimensionen på egenrummet. Egenrum Egenrummet spänns upp av egenvektorer med samma egenvärde och ger upphov till ett spann där allt som innehålls av det spannet också är egenvektorer med samma egenvärde. Detta innebär att det kan finnas flera egenrum för en linjär transformation, en för varje egenvärde. Diagonalisering Att diagonalisera en matris innebär att ta reda på matrisens motsvarande diagonalmatris D genom att ta reda på matrisens egenvärden och egenvektorer. När detta är gjort är det bara att skapa diagonal- och basbytesmatrisen P enligt: โฎ ๐ท = [โโโโโ ๐๐ โฎ โฎ โโโโโ๐ ๐ โฎ โฎ โโโโโ๐ ] , ๐ โฎ ๐๐ ๐ซ = [๐ ๐ ๐ ๐๐ ๐ ๐ ๐] ๐๐ Där ๐๐ , ๐๐ , ๐๐ är egenvärden och โโโโโ ๐๐ , โโโโโ ๐๐ , โโโโโ ๐๐ är motsvarande egenvektorer. Gram-Schmidt ortogonalisering Detta är en metod för att ta fram ortogonala vektorer genom att utgå från icke-ortogonala. Det används främst för att skapa ortogonala och ortonormala baser när man utgår från vanliga baser. För vidare läsning, se lektionen Grahm-Schmidt ortogonalisering