LINJÄR ALGEBRA & GEOMETRI
Seriöst, de här e fan allting.
DE HÄR ÄR ALLT SKIT DU BEHÖVER, SKIT I ALLT ANNAT. STÅR DE INTE HÄR ÄR
DE ONÖDIGT
Contents
Räkneregler för Vektorer ........................................................................................................................................ 2
Multiplikation mellan skalär och vektor (vanlig) ................................................................................................. 2
Skalärprodukt ...................................................................................................................................................... 2
Kryssprodukt ....................................................................................................................................................... 3
Normen ............................................................................................................................................................... 3
Parameterform........................................................................................................................................................ 4
Linjens parameterekvation ................................................................................................................................. 4
Planets parameterekvation ................................................................................................................................. 4
Från normal- till parameterform ......................................................................................................................... 4
Skärningspunkter .................................................................................................................................................... 5
Två linjer .............................................................................................................................................................. 5
Skärning av ett plan och en linje ......................................................................................................................... 5
Skärning av två plan ............................................................................................................................................ 5
Projektion ................................................................................................................................................................ 7
Matriser ................................................................................................................................................................... 8
Matrismultiplikation ............................................................................................................................................ 9
Gauss-Jordan elimination i matriser/ekvationssystem ......................................................................................... 10
Gauss metod ..................................................................................................................................................... 10
Invers- och Identitetsmatrisen .............................................................................................................................. 12
Linjära Transformationer ...................................................................................................................................... 13
Delrum, Bild och Kärna.......................................................................................................................................... 16
Delrum............................................................................................................................................................... 16
Kärna ................................................................................................................................................................. 17
Baser och basbyten ............................................................................................................................................... 18
Vad är en determinant? ........................................................................................................................................ 21
2x2 matriser ...................................................................................................................................................... 21
Genom att utveckla efter en rad eller en kolonn .............................................................................................. 21
Tredje metoden: genom Gausselemination ...................................................................................................... 22
Minsta-kvadratmetoden ....................................................................................................................................... 23
Egenvärde och Egenvektor.................................................................................................................................... 24
Diagonalisering av en matris ................................................................................................................................. 26
Matrispotenser ..................................................................................................................................................... 27
Gram-Schmidt ortogonalisering och ON-baser ..................................................................................................... 28
Checklista/Begreppsamling ................................................................................................................................... 29
Räkneregler för Vektorer
Vektorer delar addition och subtraktion med skalärer. Men i dom andra två räknesätten, multiplikation och
division, finns det väldigt stora skillnader. Det finns 4 olika sorters multiplikation och ingen division. De olika
metoderna beror på vad som gångras och de ger olika resultat av multiplikationen. Metoderna är:
1.
Vanlig multiplikation: ๐๐๐๐ä๐ ∗ ๐๐๐๐ก๐๐ = ๐๐๐๐ก๐๐
๐ก ∗ ๐ฃโ = ๐ฃโ
2.
Skalärprodukt:
๐๐๐๐ก๐๐ ∗ ๐๐๐๐ก๐๐ = ๐๐๐๐ä๐
๐ฃโ ∗ ๐ฃโ = ๐ก
3.
Kryssprodukt:
๐๐๐๐ก๐๐ ∗ ๐๐๐๐ก๐๐ = ๐๐๐๐ก๐๐
๐ฃโ ∗ ๐ฃโ = ๐ฃโ
4.
Matrismultiplikation:
๐๐๐ก๐๐๐ /๐๐๐๐ก๐๐ ∗ ๐๐๐ก๐๐๐ /๐๐๐๐ก๐๐ = ๐๐๐ก๐๐๐ /๐๐๐๐ก๐๐
๐ด/๐ฃโ ∗ ๐ด/๐ฃโ = ๐ด/ ๐ฃโ
Multiplikation mellan skalär och vektor (vanlig)
Den vanligaste multiplikationen som förekommer är den mellan skalärer och vektorer.
๐ฃ1
๐ฃ
Om ๐ฃโ = [ 2 ] och t är en skalär så kommer produkten av dessa vara:
๐ฃ3
๐ฃ1
๐ก๐ฃ1
๐ก ∗ ๐ฃโ = ๐ก ∗ [๐ฃ2 ] = [๐ก๐ฃ2 ]
๐ฃ3
๐ก๐ฃ3
Skalärprodukt
Skalärprodukten beräknar vinkelförhållandet mellan två vektorer och betecknas på följande sätt där det läses u
skalärt v. Resultatet av skalärprodukten är en skalär.
Vi har vektorerna: ๐ข
โโ
๐ข1
๐ฃ1
= [๐ข ] och ๐ฃโ = [๐ฃ ] och deras skalärprodukt ges av:
2
2
๐ข1
๐ฃ1
๐ข
โโ ∗ ๐ฃโ = [๐ข ] ∗ [๐ฃ ] = (๐ข1 ∗ ๐ฃ1 ) + (๐ข2 ∗ ๐ฃ2 )
2
2
Då detta har med vinklarna att göra finns det ett par saker att tänka på när man får resultatet:
1.
2.
3.
Om ๐ข
โโ ∗ ๐ฃโ = 0 är vektorerna vinkelräta mot varann, dvs ortogonala varann
Om ๐ข
โโ ∗ ๐ฃโ < 0 bildar vektorerna en trubbig vinkel
Om ๐ข
โโ ∗ ๐ฃโ > 0 bildar vektorerna en spetsig vinkel
Kryssprodukt
Denna form av multiplikation beräknar den vektorn som är vinkelrät mot de två vektorer som multipliceras
med varann. Säg att vi har två vektorer, ๐ข
โโ och ๐ฃโ så kommer kryssprodukten(som betecknas med ett X, som i
kryss, inte ex) av dessa kunna beräknas enligt:
๐ข1
๐ฃ1
๐ข2 ๐ฃ3 ๐ฃ2 ๐ข3
๐ข
โโ × ๐ฃโ = [๐ข2 ] × [๐ฃ2 ] = [๐ข3 ๐ฃ1 − ๐ฃ3 ๐ข1 ]
๐ข3
๐ฃ3
๐ข1 ๐ฃ2 ๐ฃ1 ๐ข2
Det finns även ett specialfall:
Om ๐ข
โโ
och ๐ฃโ är parallella kommer ๐ข
โโ × ๐ฃโ = โ0โ
Viktigt!
Kryssprodukten går endast att göra i tre dimensioner, dvs då
๐ข1
๐ฃ1
๐ข
โโ × ๐ฃโ = [๐ข2 ] × [๐ฃ2 ]
๐ข3
๐ฃ3
Normen
๐ฃ1
Normen av en vektor ๐ฃ
โ betecknas โ๐ฃโโ och motsvarar vektorns längd. Om ๐ฃโ = [๐ฃ2 ] så ges dess längd
๐ฃ3
โ๐ฃโโ enligt:
โ๐ฃโโ = √๐ฃ12 + ๐ฃ22 + ๐ฃ32
Parameterform
Linjens ekvaktion har hittils skrivits som ๐ฆ = ๐๐ฅ + ๐, likt normalformen ๐๐ฅ + ๐๐ฆ + ๐ = 0 som används mycket
๐
i denna kurs. Här definieras en linje av sin normalvektor som i detta fall ges på sättet ๐โโ = [ ]. Detta innebär att
๐
ifall man har normalvektorn till en linje har man även linjens ekvation, och vice versa.
Normalformen för en linje är inte alltid önskvärd då den kräver att vi befinner oss i ๐
2 , det tvådimensionella xyplanet. Därför introduceras vi i denna kurs parameter ekvationer som beskrivs genom en punkt och med
vektorer.
Linjens parameterekvation
Parameterekvationen för en linje i ๐
3 skrivs med en punkt och en riktningsvektor. Säg att vi har punkten ๐ =
๐ฃ1
๐1
[๐2 ] och vektorn ๐ฃโ = [๐ฃ2 ] och använder en parameter t kan vi skapa en linje genom parameterekvationen:
๐ฃ3
๐3
๐ฃ1
๐1
๐ฅ
[๐ฆ] = ๐ก [๐ฃ2 ] + [๐2 ]
๐ฃ3
๐ง
๐3
Anledning till varför parameterekvationen är att föredra när vi arbetar i en dimension högre än 2 är för att vi
inte kan beskriva en linje i dess normalform.
Planets parameterekvation
Ett plans normalekvation skrivs ๐๐ฅ + ๐๐ฆ + ๐๐ง + ๐ = 0, som enbart gäller i tre dimensioner. Vi har återigen ett
๐
material som beskrivs av sin normalvektor ๐โโ = [๐ ]. För beskrivning av plan i dimensioner över 3 används
๐
parameterformen som nu har två riktningsvektorer ๐ข
โโ och ๐ฃโ med punkten P enligt:
๐ข1
๐ฃ1
๐1
๐ฅ
๐ข
๐ฃ
[๐ฆ] = ๐ [ 2 ] + ๐ก [ 2 ] + [๐2 ]
๐ข3
๐ฃ3
๐ง
๐3
Från normal- till parameterform
Om vi har linjen ๐๐ฅ + ๐๐ฆ + ๐ = 0 och vi vill skriva om denna till parameterform börjar vi med att beskriva
uttrycket som en variabel, dvs flytta över alla termer utom en utav dom till högra sidan och kallar därefter en
๐
๐
๐
๐
๐ฅ
๐ฅ=− ๐ก−
−
−
๐
๐ → [ ] = ๐ก [ ๐] + [ ๐]
utav termerna för t: {
๐ฆ
๐ฆ=๐ก
0
1
Samma sak gäller för plan också, ๐๐ฅ + ๐๐ฆ + ๐๐ง + ๐ = 0 förutom att vi får en till variabel, tex s. Vi ställer upp
๐ฅ=๐ก
0
0
1
๐ฅ
๐ฆ
=
๐
1
0
dom på samma sett:{
→ [๐ฆ] = ๐ก [ ๐] + ๐ [ ๐] + [ 0๐]
๐
๐
๐
−
−
−
๐ง=− ๐ก− ๐ −
๐ง
๐
๐
๐
๐
๐
๐
Skärningspunkter
Två linjer
Två icke-parallella linjer som är definierade i ๐
2 har alltid en skärningspunkt någonstans. För att hitta den
punkten ställs ett ekvationssystem upp med varje linjes normalekvation där variablernas värden beräknas.
Note:
För beräkning av skärningen mellan två linjer definierade i en valfri dimension ๐
๐ krävs kunskaper från GaussJordan elimination och Matriser, och jag kommer gå igenom hur man gör det i dom kapitlena.
Skärning av ett plan och en linje
Säg att vi har en linje och ett plan, definierat i ๐
3 , då kommer linjen inte kunna vara definierad i normalform
utan måste skrivas på parameterform:
๐ฟ1
๐ฃ1
๐1
๐ฟ3
๐ฃ3
๐3
๐ฟ = ๐ก๐ฃโ + ๐ ↔ [๐ฟ2 ] = ๐ก [๐ฃ2 ] + [๐2 ]
Där L är alla punkter som linjen skär planet. Möjligheten till skärningspunkter som kan uppstå delas in i 3 olika
fall:
1.
2.
3.
Linjen är inte parallell med planet: en skärningspunkt
Linjen är parallell med planet: ingen skärningspunkt
Linjen är parallell med planet och ligger i planet: oändligt med skärningspunkter
För att beräkna eventuella skärningspunkter sker en insättning av linjens ekvation för varje variabel i planets
ekvation enligt:
๐ฃ1
๐ฅ = ๐ก๐ฃ
โโโ1 + ๐1
๐1
๐ฅ
[๐ฆ] = ๐ก [๐ฃ2 ] + [๐2 ] ↔ {๐ฆ = ๐ก๐ฃโโโ2 + ๐2
๐ฃ3
๐ง
๐3
๐ง = ๐ก๐ฃ
โโโ3 + ๐3
๐๐ฅ + ๐๐ฆ + ๐๐ง + ๐ = 0 → ๐( ๐ก๐ฃ
โโโโโ1 + ๐1 ) + ๐( ๐ก๐ฃ
โโโโโ2 + ๐2 ) + ๐( ๐ก๐ฃ
โโโโโ3 + ๐3 ) + ๐ = 0
Ur denna ekvation kommer samtliga variabler att vara givna förutom parametervariabeln t som är den som,
tillsammans med linjens parameterekvation, ge vilken punkt linjen skär i planet.
Exempel:
๐ฅ
4
1
๐ฅ = ๐ก+4
๐ฆ
[ ] = ๐ก [2] + [−2] ↔ {๐ฆ = 2๐ก − 2 och planet 2๐ฅ − 3๐ฆ + ๐ง + 5 =0
๐ง = ๐ก−1
๐ง
−1
1
2๐ฅ − 3๐ฆ + ๐ง + 5 = 0 → 2( ๐ก + 4) − 3( 2๐ก − 2) + ( ๐ก − 1) + 5 = 0 → ๐ก = 6
๐ฅ
๐ฅ
4
10
1
[๐ฆ] = 6 [2] + [−2] ↔ [๐ฆ] = [10]
๐ง
๐ง
−1
5
1
Detta ger oss att linjen skär planet i punkten (๐, ๐, ๐) = (๐๐, ๐๐, ๐)
Skärning av två plan
Då vi har två plan i ๐น๐ som är icke-parallella kommer deras skärning att vara en linje som kommer vara
beskriven på parameterform. För att ta fram denna linje är det viktigt att förstå att linjens riktningsvektor alltid
kommer vara ortogonal mot planens normalvektor. Tack vare detta kan vi beräkna linjens riktningsvektor
genom att använda kryssprodukten!
Skärningen mellan plan A och B är en linje
Säg att vi har planen ๐1 ๐ฅ + ๐1 ๐ฆ + ๐1 ๐ง + ๐1 = 0 och ๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐
๐ = ๐. Då kommer
๐๐
๐๐
normalvektorerna för respektive plan vara โโโโโ
๐๐ = [๐๐ ] och โโโโโ
๐๐ = [๐๐ ]. Genom att applicera kryssprodukten
๐๐
๐๐
kommer vi kunna få en vektor som är otrogonal mot de vektorer som kryssas som i detta fall måste vara linjens
riktningsvektor. Vi kallar denna ๐ฃโ enligt:
๐1
๐2
๐1 × โโโโโ
โโโโโ
๐2 = [๐1 ] × [๐2 ] = ๐ฃโ
๐1
๐2
När detta är gjort behöver vi bara en punkt på linjen, vilken som helst, för att kunna beskriva hela skärningen
๐ก๐ฃโ + ๐. Om en redan inte är given kan detta enklast göras genom en substitution i ekvationssystemet som
uppstår av planens normalekvation:
{
−๐๐ ๐ − ๐๐ ๐ − ๐
๐
๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐
๐ = ๐
๐=
↔{
→
๐๐
๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐
๐ = ๐
๐๐ ๐ + ๐๐ ๐ + ๐๐ ๐ + ๐
๐ = ๐
−๐๐ ๐ − ๐๐ ๐ − ๐
๐
๐๐
→
−๐๐ ๐ − ๐๐ ๐ − ๐
๐
๐ (
) + ๐๐ ๐ + ๐๐ ๐ + ๐
๐ = ๐
{ ๐
๐๐
๐=
โโ + ๐ท
Där vilket (๐, ๐, ๐) som satisfierar båda ekvationerna är en punkt P i linjen ๐๐
Projektion
โโ, ๐
โโ och att vi vill projicera ๐
โโ på ๐
โโ där projektionen ๐๐๐๐๐โโ (๐
โโ) kan ses som
Tänk att vi har två vektorer, ๐
โโ på ๐
โโ. Detta kan illustreras enligt figuren:
skuggan av vektorn ๐
Projektionen blir den nya vektorn som är parallell med ๐ฃโ
Formeln för projektion har följande utseende:
โโ) = (
๐๐๐๐๐โโ (๐
โโ ∗ ๐
โโ
๐
โโ
)∗๐
โ๐
โโโ2
โโ∗๐
โโ
๐
Där (
) kommer att bli en skalär efter beräkning. Notera att det vi väljer att projicera(här ๐โโ) är viktigare
โ๐
โโโ๐
โโ). Detta är logiskt med tanke på att projektionen på ๐
โโ kommer att
än den vektor som faktiskt projiceras(här ๐
โโ vilket stämmer överrens med illustrationen ovan.
ha samma riktning som ๐
VIKTIGT!
โโ och ๐
โโ enligt ๐
โโ ∗ ๐
โโ = (๐๐ ∗ ๐๐ ) + (๐๐ ∗ ๐๐ )
Det är skalärprodukt mellan ๐
Exempel:
−๐
๐
โโ = [ ๐ ] och ๐
โโ = [ ๐ ] är givna, beräkna projektionen av ๐
โโ på ๐
โโ:
Vektorerna ๐
๐
−๐
โโ∗๐
โโโ
๐
โโ) = (โ๐ 2 ) ∗ ๐
โโ =
๐๐๐๐๐โโโ (๐
โโโโ
๐
−๐
[ ๐ ] ∗[ ๐ ]
−๐
๐
−๐ ๐
โ[ ๐ ] โ
( ๐
)
−๐
๐
โโ) = ( ) ∗ [ ๐ ]
Projektionen ๐๐๐๐๐โโโ (๐
๐๐
๐
−๐
−๐
๐
∗[ ๐ ] =( )∗[ ๐ ]
๐๐
๐
๐
Matriser
Matriser är datahållare. De innehåller information som vi kommer att kunna manipulera på olika sett. Alla
matriser innehåller ett visst antal rader och kolonner. De används för att beskriva storleken på en matris och
för att ange positionen till ett element inom matrisen.
När man anger storleken på en matris skriver man alltid ANTALET RADER x ANTALET KOLONNER. Detta innebär
1 2 3
att matrisen [
] är ett exempel på en 2x3 matris. Om antalet rader motsvarar antalet kolloner så har
4 5 6
−1 4
man en kvadratisk matris: [
] är ett exempel på en kvadratisk 2x2 matris.
0 26
Matriser och transponering
Transponering innebär att raderna och kollonerna i en matris byter plats. Transponatet till matrisen A
๐ ๐
๐ ๐ ๐
betecknas ๐จ๐ . Om ๐จ = [
] så kommer dess transponat att vara ๐จ๐ป = [๐ ๐] Om ๐จ = ๐จ๐ป kallas
๐ ๐ ๐
๐ ๐
Addition och subtraktion av matriser
Att addera och subtrahera mellan matriser fungerar på ett väldigt ”självklart” sätt. Den enda förutsättningen är
att båda matriserna är av samma storlek i både antal rader och kolonner.
Om ๐จ = [
๐๐
๐๐
๐๐
๐
] och ๐ฉ = [ ๐
๐
๐
๐๐
๐๐
] så kommer additionen och subtraktionen se ut såhär:
๐
๐
๐
๐จ+๐ฉ=[ ๐
๐๐
๐๐
๐
]+[ ๐
๐
๐
๐๐
๐๐
๐ + ๐๐
]=[ ๐
๐
๐
๐๐ + ๐๐
๐๐ + ๐๐
]
๐
๐ + ๐
๐
๐
๐จ−๐ฉ=[ ๐
๐๐
๐๐
๐
]−[ ๐
๐
๐
๐๐
๐๐
๐ − ๐๐
]=[ ๐
๐
๐
๐๐ − ๐๐
๐๐ − ๐๐
]
๐
๐ − ๐
๐
Skalär multiplikation
För att multiplicera en skalär t med en matris ๐จ = [
๐
๐
๐
] så kommer resultatet bli att t multipliceras in i varje
๐
position i matrisen enligt:
๐∗๐จ=๐∗[
๐ ๐
๐๐ ๐๐
]=[
]
๐ ๐
๐๐ ๐๐
Viktigt!
Denna typ av multiplikation får inte misstas för skalärprodukten tidigare i texten, som är definierad enbart för
vektorer.
Matrismultiplikation
Denna typ av multiplikation skiljer sig från hur aritmatiken fungerat tidigare i all annan matematik. Det kan
betraktas så att varje rad i den första matrisen tas skalärt(Se skalärprodukt!) med varje kolonn i den andra
matrisen, vart resultatet hamnar motsvarar vilken rad och kollon som skalärprodukten utförs med.
๐ฅ1
[๐ฅ3
๐ฅ5
๐ฅ2
๐ฆ
๐ฅ4 ] ∗ [ 1
๐ฆ3
๐ฅ6
๐ฅ1 ๐ฆ1 + ๐ฅ2 ๐ฆ2
๐ฆ2
๐ฅ
๐ฆ + ๐ฅ4 ๐ฆ2
๐ฆ4 ] = [ 3 1
๐ฅ5 ๐ฆ1 + ๐ฅ6 ๐ฆ2
๐ฅ1 ๐ฆ3 + ๐ฅ2 ๐ฆ4
๐ฅ3 ๐ฆ3 + ๐ฅ4 ๐ฆ4 ]
๐ฅ5 ๐ฆ3 + ๐ฅ6 ๐ฆ4
Om vi har två matriser A och B, så är multiplikationen ๐จ ∗ ๐ฉ INTE densamma som ๐ฉ ∗ ๐จ, vilket tidigare
aritmatik i matten sagt är samma sak. Därför är de viktigt att hålla reda på vilken matris som är vilken när man
sysslar med matrismultiplikation.
För att multiplikationen av två matriser ska vara definierad måste den första matrisen ha lika många kolonner
som den andra matrisen har rader. Detta illusteras i bilden nedan.
Siffrorna i rött måste vara identiska för en definierad multiplikation, de blå kommer att bli den nya matrisens
dimensioner.
Gauss-Jordan elimination i matriser/ekvationssystem
Ekvationssystem
Ett område då matriser kommer till väldigt stor användning är när man ska lösa ekvationssystem. Säg att vi har
följande ekvationssystem:
{
2๐ฅ + 3๐ฆ = 5
4๐ฅ + 2๐ฆ = 9
Då kommer vi kunna skriva om det till matrisform såhär:
2๐ฅ + 3๐ฆ = 5
2
{
→[
4๐ฅ + 2๐ฆ = 9
4
3 |5
]
2 |9
Där varje ekvation blir sin egen rad, och ”är-lika-med” tecknet skrivs ut som ett rakt sträck, som separerar
vänster- och högerleden i ekvationerna.
Trappstegsmatris
Innan jag går igenom hur Gausselemination fungerar måste man förstå vad en trappstegsmatris är.
En trappstegsmatris är en matris där:
1.
2.
Alla rader som enbart består av nollor ligger under raderna som inte bara består av nollor
Pivotelementet på varje rad befinner sig till höger om pivotelementet på raden ovanför.
En rads pivotelement är det första av dess tal som är skilt från noll. I en trappstegsmatris vill man helst att
detta ska vara 1, eftersom de gör matrisen enklare att räkna med. Detta kallas för en ledande etta. Exempel på
en matris i trappstegsform(REF1).:
1
๐ด = [0
0
4
1
0
−1
3]
1
Gauss metod
Gausselimination är en effektiv metod för att lösa linjära ekvationssystem. Metoden är upplagd på ett sätt
som gör att man i varje steg eliminerar det oviktiga i ekvationssystemet, utan att förstöra det man redan
ordnat!
För att utföra en Gausselimination skriver man först upp det linjära ekvationssystemet som en matris. Målet är
att sedan ”förvandla” vänsterledet i matrisen till en trappstegsmatris. Detta kan man göra genom att utföra ett
eller flera av följande steg:
1.
2.
3.
Byta plats på 2 rader
Multiplicera en rad med ett tal(dock ej noll!)
Addera multipeln av en rad till en annan rad
Detta är nog den metod som jag använt mest i hela kursen, den tycks va i varenda jävla tal, oavsett vad det är
dom ber om så verkar jag använda denna metoden hela tiden. Man tex ut rank, nollrum, basvektorer,
dimension, bild, kollonrum och en hel del andra grejer!
1
Reduced Echelon Form
Exempel för att förstå hur det funkar:
3๐ฅ − 8๐ฆ + ๐ง = 22
{2๐ฅ − 3๐ฆ + 4๐ง = 20
๐ฅ − 2๐ฆ + ๐ง = 8
Låt oss säga att vi har de här ekvationssystemet. Vi skriver först ut alla koefficienterna till de olika variablerna i
en matris. Därefter skriver jag ut alla delsteg, varefter jag gör dom:
3
[2
1
−8
−3
−2
๐
1 ↔ ๐
3
1
1| 22
} → [2
4| 20] → {
1| 8
3
1
{
} → [0
๐
3 + 2๐
2
0
−2
1
0
1| 8
1
4 | 20 ] → {๐
2 − 2๐
1 } → [0
๐
3 − 3๐
1
1 | 22
0
−2
−3
−8
1|
2|
2|
8
1
4] → {
}
→
[
0
1
6
๐
3 ∗ ( )
0
2
−2
1
0
1 | 8
2 | 4] →
−2 | − 2
−2
1
−2
1|
2|
1|
8
4]
3
Nu är matrisen på trappstegsform. De räcker dock inte bara att få fram en trappstegsmatris för att få fram
lösningen till ekvationssystemet. För de måste man använda sig av Gauss-Jordan metoden!
Gauss-Jordans metod
När man reducerat sin matris till en trappstegsmatris kan man antingen skriva om ekvationen som ett linjärt
ekvationssystem och lösa de på de klassiska sättet, eller så kan man ta matrisreduktionen ett steg längre.
Denna metod är, enligt mig, att föredra för den underlättar allt!
När man använder Gauss-Jordan elimination fortsätter man med sin trappstegsmatris och gör så att alla
nummer ovanför de ledande ettorna också blir noll! Detta gör man på samma sätt som i Gauss metod, men
även på raderna man redan använt i tidigare steg ovan.
1
[0
0
−2
1
0
1|
2|
1|
8
๐
1 + 2๐
2
1
4] → {
} → [0
3
0
0
1
0
๐
1 − 5๐
3
1
5 | 16
2 | 4] → {๐
2 − 2๐
3 } → [0
0
1| 3
0
1
0
0| 1
0 | − 2]
1| 3
Om matrisen i reducerad trappstegsform(RREF2) inte är en identitetsmatris betyder de att ekvationssystemet
har mer än en lösning!
2
Reduced Row Echelon Form
Invers- och Identitetsmatrisen
För att gå igenom inversmatriser måste man förstå vad en identitetsmatris är. En identitetsmatris(även kallad
enhetsmatris) är en kvadratisk matris med ettor längs huvuddiagonalen och nollor i alla andra positioner.
1
๐ผ = [0
0
0
1
0
0
0]
1
Dessa har, enligt boken, beteckningen I.
Det speciella med en identitetsmatris är att om man multiplicerar en kvadratisk matris A med en
identitetsmatris I av samma ordning, så blir resultatet samma matris A. Vi har alltså ๐ด ∗ ๐ผ = ๐ด, att multiplicera
en matris med dess identitetsmatris är samma sak som att multiplicera med 1.
Inversmatrisen
En inversmatris fungerar på samma sätt för en matris som en invers fungerar för ett tal, och betecknas som
matrisen upphöjt till minus ett, ๐ด−1
Om matrisen, dess invers och identitetsmatrisen har samma rank gäller:
๐จ−๐ ∗ ๐จ = ๐จ ∗ ๐จ−๐ = ๐ฐ
Man säger att matrisen A då är inverterbar.
För att en matris A ska vara inverterbar måste den vara kvadratisk och dess determinant måste vara skilt från
noll. Innan man börjar räkna bör man därför först kolla om determinanten för matrisen är noll: ๐๐๐ญ(๐จ) = |๐จ| ≠
๐
För att beräkna inversmatriser använder man sig generellt sätt utav Gauss-Jordan elimination, där man lägger
till ett högerled till matrisen som är dess identitetsmatris. Man reducerar därefter som vanligt och försöker ”få
över högerledet till vänsterledet”.
2
๐ด = [0
0
2
[0
0
2
2
0
0| 1
0| 0
1| 0
0
1
0
0
0] →
1
2
2
0
0
0] ; ๐ต๐๐ ๐กä๐ ๐ด−1
1
1
๐
1 − ๐
2 , ๐
1 ∗ ( )
1
2
1
→ [0
๐
2 ∗ ( )
0
2
{
}
0
1
0
0|1/2
0| 0
1| 0
−1/2
1/2
0
0
0]
1
För 2x2 matriser finns det dock en formel man kan använda sig utav:
๐
๐จ=[
๐
๐
๐
๐
] → ๐จ−๐ =
∗[
๐
๐
๐๐(๐จ) −๐
−๐
] ; ๐
๐๐(๐จ) ≠ ๐ ๐
๐๐ ๐๐
− ๐๐ ≠ ๐
๐
Jag föredrar dock att alltid använda mig utav Gauss-Jordan metoden, för jag känner mig säker på den. De är bra
o veta att det finns fler alternativ dock.
Linjära Transformationer
I gymnasiematten lärde vi oss att hantera funktioner ๐ฆ = ๐(๐ฅ) där x tillhör käll-mängden(domain på engelska,
kan liknas vid definitonsmängd) medan y tillhör målmängden(co-domain på engelska, kan liknas vid
värdemängd). Detta ger oss ett annat, mera abstrakt vis att beskriva vad en funktion faktiskt är: En funktion f är
något som tar värden x från en mängd och skapar dess representation y i målmängden. Funktioner har dock en
nackdel; de hanterar enbart skalärer.
โโ) är motsvarigheten till funktioner ๐(๐) i vektoralgebran då de enbart hanterar vektorer.
Transformationer ๐ป(๐
Transformationer finns, likt funktioner, i väldigt många olika slag. Men I denna kurs kommer vi bara hantera
linjära transformationer.
โโ tillhör vår co-domain. A
โโ = โ๐โ där ๐
โโ tillhör vår domain och๐
Ekvationen för den linjära transformationen är ๐จ๐
är transformatonsmatrisen som är den enda i linjära transformationer som påverkar ut-resultatet โ๐โ. Vi kan
โโ.
därför påstå att โ๐โ är den transformationen av vektorn ๐
Transformationen T beskrivs dessutom med dimensionen av domänen och dimensionen av mål-domänen. Om
en transformation går från ๐น๐ till ๐น๐ skrivs enligt: ๐ป โถ ๐น๐ → ๐น๐ . Transformationsmatrisen A kommer vidare
definieras av transformationen av varje enskild basvektor. Om transformationens mål-domän är ๐น๐ kommer A
vara beskriven enligt:
๐ด = [๐(๐โโโโ)
โโโโ)
โโโโ)]
1 ๐(๐
2 ๐(๐
3
โโโโโ),
Där ๐ป(๐
๐
โโโโโ),
โโโโโ)
๐ป(๐
๐ ๐ป(๐
๐ representerar respektive kollon i matrisen A.
Basvektorerna i ๐น๐ motsvarar:
1
0
๐1 = [0 ] โโโโ
โโโโ
๐2 = [1]
0
0
0
๐2 = [0]
โโโโ
1
Dimensionen av domänen måste motsvara antalet transformationer av basvektorer. Detta ger att om domänen
โโโโโ).
e beskriven i ๐น๐ kommer en till basvektor โโโโโ
๐๐ ge upphov till yttligare en kolumn ๐ป(๐
๐ Detta används vid
ekvationer som kräver uppställning av ett linjäritets-ekvationssystem.
Generellt så kommer det kunna uppstå 3 olika typer av uppgifter, beroende på vad som är givet i
transformationens ekvation.
โโ = โ๐โ
๐จ๐
2.
โโ givna, โ๐โ tillfrågas. Löses genom matrismultiplikation.
๐จ och ๐
โโ tillfrågas. Löses genom Gauss elemination.
๐จ och โ๐โ givna, ๐
3.
โโ och โ๐โ givna, ๐จ tillfrågas. Löses genom linjäritets-ekvationssystem.
๐
1.
Lösningarna för dessa olika fall kan enklast förklaras genom exempeluppgifterna nedan.
Viktigt
โโ i ๐จ๐
โโ = โ๐โ. Läs delen om Matriser ifall du glömt vad de innebär.
Det är matrismultiplikation mellan ๐จ och ๐
โโ
โโ. Tillfrågad vektor: ๐
Uppgiftstyp 1 – Given transformationsmatris ๐จ och in-vektor ๐
๐
โโ) ges av transformationsmatrisen ๐จ = [
Transformationen ๐ป(๐
−๐
−๐
[๐]
−๐
๐
๐
−๐
โโ =
]. Beräkna transformationen av ๐
๐
Lösning:
Vi har både transformationsmatrisen och vår in-vektor, vi använder därför matrismultiplikation för att beräkna
transformationen av vår vektor enligt:
๐
โโ) = ๐จ(๐
โโ) = [
๐ป(๐
−๐
๐
๐
−๐
−๐ + ๐๐ + ๐๐
−๐
๐๐
][ ๐ ] = [
]=[
]
๐ + ๐๐ − ๐๐
๐
−๐๐
−๐
๐๐
โโ) = โ๐โ = [
Vi har alltså att ๐ป(๐
]
−๐๐
โโ
Uppgiftstyp 2 – Given transformationsmatris ๐จ och ut-vektor โ๐โ. Tillfrågad vektor: ๐
๐
โโ); ๐ป: ๐น๐ → ๐น๐ ges av transformationsmatrisen ๐จ = [
Transformationen ๐ป(๐
−๐
๐
]
๐
โโ = [ ๐ ]
โโ som efter transformationen blir ๐
Beräkna den vektor ๐
−๐
Lösning:
โโ där ๐
โโ) = ๐จ(๐
โโ) = ๐
โโ är den okända. Vi använder oss av Gausselemination för att lösa problemet
Vi har att ๐ป(๐
enligt:
๐
โโ) = โ๐โ ↔ [
๐จ(๐
−๐
[
1
−4
2| 4
1
]→{
}→[
๐
2 + 4๐
1
2|−6
0
๐
๐
โโ = [ ] →
]๐
๐
−๐
๐
− (1⁄5)๐
2
2 | 4
1
]→{ 1
}→[
๐
2 ∗ (1⁄10)
10 | 10
0
2
๐ฃโ = [ ]
1
0|
1|
2
๐ฃ =2
]→{ 1
→
๐ฃ2 = 1
1
โโ. Tillfrågad transformationsmatrisen ๐จ.
โโ och ut-vektor ๐
Uppgiftstyp 3 – Given in-vektor ๐
Transformationsmatrisen ๐จ ges av transformationerna:
๐
๐
โโโโโ)
โโโโโ)
โโโโโ๐ − ๐๐
โโโโโ๐ + ๐๐
โโโโโ๐
๐ป (−๐) = [−๐] ↔ −๐ป(๐
๐ + ๐ป(๐
๐ = ๐๐
๐
๐
๐
๐
โโโโโ)
โโโโโ)
โโโโโ๐ + โโโโโ
โโโโโ๐
๐ป (๐) = [๐] ↔ ๐ป(๐
๐๐ + ๐๐
๐ + ๐ป(๐
๐ = ๐๐
๐
๐
๐
๐
โโโโโ)
โโโโโ)
โโโโโ๐ + ๐๐๐
โโโโโ๐ + โโโโโ
๐ป (๐) = [๐๐] ↔ ๐ป(๐
๐๐
๐ + ๐๐ป(๐
๐ = ๐๐
๐
๐
Vi lägger in detta i ekvationssystemet, gör om det till en matris och Gauss-eliminerar:
โโโโโ)
โโโโโ)
โโโโโ๐ − ๐๐
โโโโโ๐ + ๐๐
โโโโโ๐
−๐ป(๐
๐ + ๐ป(๐
๐ = ๐๐
๐
{ ๐ป(๐
โโโโโ)
โโโโโ)
โโโโโ
โโโโโ
โโโโโ
→
[
+
๐ป(๐
=
๐๐
+
๐
+
๐๐
๐
๐
๐
๐
๐
๐
๐
โโโโโ)
โโโโโ)
โโโโโ
โโโโโ
โโโโโ
๐ป(๐
+
๐๐ป(๐
=
๐๐
+
๐๐๐
+
๐
๐
๐
๐
๐
๐
๐
[๐
๐
−๐
๐
๐
๐|๐
๐|๐
๐|๐
๐
→ [๐
๐
๐น๐ ↔ ๐น๐
−๐ ๐
๐
๐ ๐] → {
} → [๐
๐น๐ − ๐น๐
๐๐ ๐
๐
๐
๐
๐
๐ | ๐
−๐| − ๐
๐ | ๐
−๐
๐
๐
๐
๐ | ๐
−๐ ๐ | ๐
๐ −๐| − ๐
๐ ๐
๐น๐ − ๐น๐
๐
๐ −๐] → {๐น๐ + ๐น๐ } → [๐
๐ ๐
๐
๐
๐
๐
๐|๐ −๐ ๐
๐|๐ ๐ ๐]
๐|๐ ๐๐ ๐
๐
๐
−๐ ๐ ] → {๐น๐ ∗ (−๐)}
๐น๐ + ๐๐น๐
๐๐ −๐
๐|
๐|
๐|
๐ −๐
๐ ๐
๐ ๐
๐
๐]
๐
โโโโโ)
โโโโโ๐ − โโโโโ
๐ป(๐
๐๐ + โโโโโ
๐๐
๐ = ๐๐
๐
๐
๐
โโโโโ)
โโโโโ๐
๐๐ + ๐๐
โโโโโ)
โโโโโ)
โโโโโ)
{ ๐ป(๐
→ ๐ป(๐
=
[
]
;
๐ป(๐
=
[
]
;
๐ป(๐
=
[
−๐
๐
๐]
๐ = โโโโโ
๐
๐
๐
๐
๐
๐
โโโโโโโโ๐
โโโโโ)
โโโโโ๐ + ๐๐
โโโโโ๐ + ๐๐
๐ป(๐
๐ = ๐๐
Detta ger transformationsmatrisen:
โฎ
โฎ
โฎ
๐ ๐ ๐
๐จ = [๐ป(๐
โโโโโ)
โโโโโ)
โโโโโ)
๐ป(๐
๐ป(๐
๐
๐
๐ ] = [−๐ ๐ ๐]
โฎ
โฎ
โฎ
๐ ๐ ๐
Delrum, Bild och Kärna
I tidigare kurser fick vi bland annat lära oss två begrepp: Definitionsmängd och Värdemängd.
Definitionsmängden beskriver för vilka x som värdet på funktionen ๐(๐) är definierat och kan därför beskrivas
t.ex. med ๐ ≤ ๐ ≤ ๐. Värdemängden motsvarar då det intervall som ett värde ๐ = ๐(๐) finns för funktionen,
dvs alla värden som funktionen kan anta, som kan beskrivas med ๐ ≤ ๐ ≤ ๐
.
Syftet med inledningen är att förstå att båda dessa mängder, definitonsmängd och värdemängd, har varit
tallinjer hittils. I denna kurs kan mängderna vara allt från en punkt till en kub. (Teoretiskt kan mängderna vara
en högre dimension än en kub, men det är svårt att visualisera)
Delrum
Synonymer: Underrum, Subspace
Ett delrum kan liknas till en delmängd, förutom att delrum dessutom har tre kriterier till som måste uppfyllas:
1.
2.
โโ är inom ๐พ så att ๐
โโ ∈ ๐พ, då måste
Skalärmultiplikation sluten: Om vektorn ๐
โโ {−∞ < ๐ < ∞ också finnas inom ๐พ så att ๐๐
โโ ∈ ๐พ
๐๐
โโ och โ๐โ är inom ๐พ så att ๐
โโ, โ๐โ ∈ ๐พ så måste ๐
โโ + โ๐โ också vara
Vektoraddition sluten: Om vektorerna ๐
โโ + โ๐โ ∈ ๐พ
en vektor inom ๐พ så att ๐
3.
Nollvektorn innehållen: Nollvektorn, eller origo, måste vara inom ๐พ, så att โ๐โ ∈ ๐พ
Om alla kriterierna stämmer samtidigt så är delmängden av ๐พ också ett delrum. Delrum kan därför visualiseras
med hjälp av geometri(punkt, linje,plan,kub…) som spannets dimension bestämmer, där varje vektor går
oändligt i sin riktning. Av denna anledning är alla linjära funktioner som skär origo delrum då deras linjer inte är
ändliga samtidigt som de satisfierar den slutna vektoradditionen.Bild
Synonymer: Bildrum, Kolonnrum, Image, Columnspace
Kan liknas till värdemängd fast för transformationer
โโ) = ๐จ๐
โโ = โ๐โ. Då kan vi se att det enda som egentligen kan påverka
Tänk att vi har en linjär transformation ๐(๐
transformationen är transformationsmatrisen ๐จ. Det är därför rimligt att påstå att ๐จ är det enda som kan
โโ)
påverka den bild(tänk värdemängd) som kommer uppstå av transformationen ๐(๐
Sambandet mellan transformationsmatrisen A och bilden är att kolumnvektorerna i A är det som utgör
spannet för bilden. Tänk sambandet såhär:
โโ påverkas genom en transformation ๐ så att den transformeras till en ny vektor โ๐โ. Den nya vektorn
En vektor ๐
โ๐โ måste därför vara innehållen i bildens spann då โ๐โ kan ses som en av bildens vektorer(eller ett värde i
värdemängden). Detta kan illustreras som bilden på nästa sida:
โโ som ligger i bilden(som är ett delrum till målโโ i vår domän kommer det finnas ett värde ๐
För varje värde på ๐
โโ kan transformeras till genom transformationen ๐ป.
domänen) som ๐
Detta betyder alltså att det inte är möjligt att ta ett värde i domänen och transformera det och få ett värde
utanför bilden. Transformationsmatrisen ๐จ kommer inte göra det möjligt.
| | |
โโ) = ๐จ๐
โโ i en transformationsmatris ๐จ = [๐
Om vi då har transformationen ๐ป(๐
โโ ๐
โโ โ๐
โโโ] så kommer bilden
| | |
โโ, ๐
โโ, โ๐
โโ, ๐
โโ, โ๐
๐ฐ๐(๐ป) att definieras av spannet vektorerna๐๐๐๐{๐
โโโ} så att ๐ฐ๐(๐ป) = ๐๐๐๐{๐
โโโ}. Detta kan tolkas
โโ, ๐
โโ, โ๐
som att kolumnvektorerna ๐
โโโ spänner upp bilden.
Dvs, om alla tre är linjärt oberoende kommer spannet motsvara ๐น๐ (eller en oändligt stor kub). Om två vektorer
är linjärt oberoende kommer det mot svara ๐น๐ (Ett oädligt stort papper). Bilden kan därför tolkas som alla
möjliga vektorer som transformationen kan ge upphov till.
Kärna
Synonymer: Kernel, Nollrum, Nullspace
โโ där vi kräver att den vektor ๐
โโ som ๐
โโ) = ๐จ๐
โโ = ๐
โโ ska transformeras
Tänk att vi har en linjärtramsformation ๐(๐
โโ = ๐
โโ. Alla domän-vektorer ๐
โโ = ๐
โโ kommer tillsammans bilda en
till måste vara nollvektorn, dvs ๐จ๐
delmängd(och även ett underrum) av den totala domänen och kommer kunna definieras av spannet som
uppstår av de vektorer som fås genom att beräkna RREF av transformationsmatrisen. Detta spann kallas
โโ, ๐
โโ, … } där ๐
โโ, ๐
โโ fås genom ๐น๐น๐ฌ๐ญ(๐จ).
kärnan och beskrivs enligt ๐๐๐(๐ป) = ๐๐๐๐{๐
Till skillnad från bilden (som är ett delrum av mål-domänen) är kärnan ett delrum av domänen där alla vektorer
innanför detta delrum
kommer att
transformeras till
nollvektorn. Detta kan
illustreras på följande
vis:
Baser och basbyten
Baser
Standardbasen
En bas ges av ett antal oberoende vektorer tillsammans. Dessa vektorer är därmed basvektorer där varje
enskild vektor utgör en koordinataxel i koordinatsystemet. Den vanligaste basen är det kartesiska
koordinatsystemets bas som i ๐น๐ ges av basvektorerna:
1
0
๐1 = [0 ] โโโโ
โโโโ
๐2 = [1]
0
0
0
๐2 = [0]
โโโโ
1
โโโโโ,
Där basen(I detta fall kallat standardbasen) ges av ๐ฌ = {๐
๐๐ โโโโโ}.
๐๐ Standardbasens vektorer är dessutom
๐ โโโโโ,
ortogonala mot varann och har längden 1.
Andra baser
Om en ny bas ska definieras måste de göras med linjärt oberoende vektorer, om till exempelvis
3 vektorer är givna varav 2 är beroende måste en av dessa strykas, därmed kan en sådan bas enbart ge upphov
till ett spann av dimension 2 . Annars kan de skapas med vilka vektorer som helst!
Koordinater för en vektor i en given bas
Om ๐ฉ = (๐๐ , ๐๐ , ๐๐ , … ) är en bas för vektorrummet, eller underrummet, V då gäller följande:
Varje vektor โ๐
โโโ i rummet V kan skrivas på exakt ett sätt, som en linjär kombination av ๐๐ , ๐๐ , ๐๐ …
๐ = ๐๐ ๐ ๐ + ๐๐ ๐ ๐ + ๐๐ ๐ ๐ …
Vi kan också säga att hela vektorrummet V spänns upp av basvektorerna, som vi skriver:
๐ = ๐๐๐๐{๐๐ , ๐๐ , ๐๐ , … }
๐๐
Tal ๐๐ , ๐๐ , ๐๐ … kallas för w:s koordinater i basen B och [ ๐๐ ] kallas koordinatvektor i basen B. Vi skriver [๐]๐ฉ =
โฎ
๐๐
[ ๐๐ ]
โฎ
Exempel:
Låt V vara rummet ๐น๐ med standardbasen ๐ผ = (๐, ๐, ๐, … ). Bestäm koordinater för vektorn โ๐
โโโ där
โโ:
โ๐
โโโ = ๐๐โ − ๐๐โ + ๐๐
๐
[๐]๐ผ = [−๐]
๐
Basbyte
Basbyte med standardbas
โโโโโโ๐ , โโโโโโ
För att skapa en basbytesmatris måste basvektorer vara givna. Säg att vi har basen ๐ฉ = {๐ฉ
๐ฉ๐ } , då kommer
basbytesmatrisen P att gå från B till standardbasen enligt:
๐ท๐ฉ→๐ฌ
|
โโโโโโ๐
= [๐ฉ
|
|
โโโโโโ
๐ฉ๐ ]
|
För att förstå varför riktningen är specifikt ๐ฉ → ๐ฌ och inte tvärt om är det viktigt att betrakta det allmänna
fallet, då basbytet görs oberoende av standardbasen.
Basbyte med allmän bas
Varför matrisen P ovan har riktningen ๐ฉ → ๐ฌ beror på att vektorerna โโโโโโ
๐ฉ๐ , โโโโโโ
๐ฉ๐ är definierade i standardbasen.
Detta beror på att en vektor inte kan existera utan att vara definierad utifrån ett koordinatsystem på samma
โโ skrivs utan
sätt som att en punkt inte kan ritas in utan att veta var koordinataxlarna finns. När en vektor ๐
โ
โ
utskriven bas antas det vara i standardbasen. Säg att ๐ hade varit definierad i bas B, då hade det istället skrivits
[๐
โโ]๐ฉ . Detta gäller även basvektorer som ska användas för att definiera andra baser. Därför gäller:
โโโโโโ๐ , ๐ฉ
โโโโโโ๐ } = {[๐ฉ
โโโโโโ๐ ] , [๐ฉ
โโโโโโ๐ ] }
โโ = [๐
โโ]๐ฌ ; ๐ฉ = {๐ฉ
๐
๐
๐ฌ
Med detta kan vi nu skriva om basbytet till det mera allmänna fallet då vi har basen
๐ฉ = {[โโโโโโโโ
๐ฉ๐]๐ , [โโโโโโโโ
๐ฉ๐]๐ } som har sina basvektorer angivna i en annan bas v än standardbasen där
basbytesmatrisen nu blir ๐ท med riktningen ๐ฉ → ๐ enligt:
๐ท๐ฉ→๐
|
โโโโโโ๐ ]
= [[๐ฉ
๐
|
|
โโโโโโ๐ ] ]
[๐ฉ
๐
|
Det som definierar riktningen hos en basbytesmatris är med andra ord vilken bas kolumnvektorerna är
definierade i. โโโโโโ
๐ฉ๐ , โโโโโโ
๐ฉ๐ må utgöra en egen bas, men de måste vara definierade i en annan bas som i detta fall är v
.
Om man tänker sig att man har [๐
โโโโ]๐ och söker [๐
โโโโ]๐ฉ när man har ๐ท๐ฉ→๐ kommer ekvationen ställas upp
๐ท๐ฉ→๐ [๐
โโโโ]๐ฉ = [๐
โโโโ]๐ som i detta fall kommer lösas genom gauss elemination eller genom att hitta en
inversmatris till ๐ท๐ฉ→๐ som har motsatt riktning.
Basbyten och linjära transformationer
Precis på samma sätt som vektorer måste vara definerade med hänsyn till en bas måste även linjära
โโ) som transformerar vektorn ๐
โโ till
transformationer det. Detta innebär att den linjära transformationen ๐ป(๐
โโ) bara kan verka i standardbasen då transformationen använder matrisen A enligt ๐ป(๐
โโ) = ๐จ๐
โโ .
๐ป(๐
För att kunna transformera vektorer i andra baser kommer andra basbytesmatriser krävas! Transformationen
beräknas precis som vanligt förutom att en annan transformationsmatris D, som gäller för basen B, används
โโ)]๐ฉ = ๐ซ[๐
โโ]๐ฉ
enligt: [๐ป(๐
Genom att kombinera basbyten med linjära transformationer kan det illustreras som en karta med de olika
vägarna man kan använda för att ta sig mellan transformationer med olika baser. Detta ger oss att om en given
โโ med efterfrågan av transformationsvektorn ๐ป(๐
โโ) kan beräkningen fortfarande utföras även om inte
vektor ๐
transformationsmatrisen A är given.
โโ
Detta går genom: ๐
โโ]๐ฉ → [๐ป(๐
โโ)]๐ฉ → ๐ป(๐
โโ) .
→ [๐
Detta ger dessutom att både transformationsmatrisen A och D kan skrivas som en produkt av de andra
matriserna:
๐ด = ๐๐ท๐ −1
๐ท = ๐−1 ๐ด๐
Dessa formler gås igenom lite tydligare under Diagonaliserings kapitlet
Viktigt
Studera kartan noga och notera att läsordningen i matrisekvationerna ovan är den motsatta från den som ges
från kartan nedan. Detta beror på att när ytterligare matriser multipliceras måste de läggas till längst till
vänster i varje led.
Vad är en determinant?
Alla kvadratiska matriser har en s.k. determinant: ett tal som tillordnas martrisen enligt vissa regler.
Determinanten motsvarar förstoringsfaktorn av en linjär avbildning(mer om de sen), och kan användas för att
få fram lösningen till linjära ekvationssystem, räkna ut en area eller en volym m.m!
Detemrinanten till en matris A betecknas |๐จ| eller ๐๐๐ญ(๐จ).
2x2 matriser
För matriser som har storleken 2x2 är det väldigt enkelt att räkna ut determinanten:
๐จ=[
๐
๐
๐
] → |๐จ| = ๐๐
− ๐๐
๐
Exempel:
๐
Vi har matrisen ๐จ = [
๐
๐
] Vad är dess determinant?
๐
|๐จ| = ๐ ∗ ๐ − ๐ ∗ ๐ = ๐๐
Genom att utveckla efter en rad eller en kolonn
För att räkna ut determinanten till en 3x3 matris (eller större) kan man dela upp den i flera 2x2 matriser, räkna
ut determinanten för varje ”mindre” matris och sedan addera dem med varandra, där varannan term blir
negativ.
๐
๐จ = [๐
๐
๐
๐
๐
๐
๐] → |๐จ| = ๐ ∗ | ๐
๐
๐
๐
๐
|−๐∗|
๐
๐
๐
๐
|+๐∗|
๐
๐
๐
|
๐
För att beräkna determinanten kan vi använda en av följande metoder:
1.
Utveckling efter rad nummer i
๐จ = (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐
2.
Utveckling efter kolonnummer k
๐จ = (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐ + (−๐)๐+๐ ๐๐๐ ๐จ๐๐
Det finns ett tredje sätt att lösa dom, som jag kommer gå igenom på nästa sida. Lite egenskaper hos
determinanter:
Värdet av en determinant ändras inte om raderna görs till kolonner och vice versa, dvs
๐๐๐ญ(๐จ๐ป ) = ๐๐๐ญ(๐จ)
Om alla element i en rad/kolonn är 0 så är determinantens värde 0.
Om en determinant har två lika rader/kolonner så är determinantens värde 0.
Om en determinant har två proportionella rader/kolonner så är determinantens värde 0.
Tredje metoden: genom Gausselemination
Ett annat, ofta enklare, sätt att beräkna determinanten till matriser som är större än 2x2 är att använda sig av
Gausselimination.
Här utnyttjar man det faktum att om man kan reducera matrisen till en trappstegsmatris så är determinanten
lika med produkten av talen längs matrisens huvuddiagonal (från övre vänstra hörnet till det nedre högra).
När man Gausseliminerar för att hitta determinanten finns det dock särskilda regler som gäller:
1.
2.
3.
Du får inte längre dela en rad med konstant som vanligt (bara lägga till en multipel av en rad på en
annan)! Man kan dock fortfarande göra detta genom att ”bryta ut” en siffra ur raden, kanske för att
underlätta radoperationerna, vilket då placeras framför matrisen som en konstant som man sedan
måste multiplicera in när man löser ut determinanten.
Varje gång du byter plats på 2 närliggande rader så byter determinanten tecken (här gäller det alltså
att ha koll på hur många såna byten man har gjort).
Målet är inte att göra om huvuddiagonalens tal till ettor (vilket man annars brukar göra när man
Gausseliminerar), utan det viktiga här är bara att det finns nollor under huvuddiagonalen!
Exempel:
๐
๐
๐
๐
๐
} → [๐
๐] → {
๐
๐] → { ๐น๐ ↔ ๐น๐ } → (−๐๐)(−๐) [๐
๐น๐ − ๐๐น๐
๐น๐ ∗ (−๐⁄๐๐)
๐
๐ −๐๐ ๐
๐
๐ ๐ ๐
→{
} → (๐๐) [๐ ๐ ๐] → ๐๐๐ญ(๐จ) = (๐๐)(๐)(๐)(๐) = ๐๐
๐น๐ − ๐๐น๐
๐ ๐ ๐
๐
๐จ = [๐
๐
๐
๐
−๐
๐
๐จ = [๐
๐
๐
๐
๐
๐
๐
๐
๐
๐
๐
๐น๐ ∗ (๐⁄๐)
๐ ๐ ๐ ๐
๐ ๐
๐
๐น๐ − ๐น๐
๐
๐
๐] → {
๐
๐
} → (๐) [
]→{
} → (๐) [๐ ๐
๐ ๐ ๐ ๐
๐ ๐
๐
๐น๐ − ๐๐น๐
๐ ๐
๐
๐ ๐ ๐ ๐
๐น๐ − ๐๐น๐
๐ ๐ ๐ ๐
๐น − ๐น๐
→{ ๐
} → (๐) [๐ ๐ ๐ ๐] → ๐๐๐ญ(๐จ) = (๐)(๐)(๐)(๐)(๐) = ๐๐
๐ ๐ ๐ ๐
๐น ๐ − ๐น๐
๐ ๐ ๐ ๐
๐น ๐ − ๐น๐
๐
๐
๐
๐
๐]
๐
๐
๐
๐
๐
๐
๐]
๐
๐
Minsta-kvadratmetoden
Minsta-kvadratmetoden används för ekvationssystem som är inkonsistenta(inte har någon lösning), som t.ex.
när du inte kan radreducera en matris så att den ”går ut”.
๐ฅ+๐ฆ =1
−๐ฅ
+ 2๐ฆ = 4 som består av tre linjer som inte har någon gemensam punkt:
Ta ekvationsystemet {
๐ฅ−๐ฆ =0
Det finns alltså ingen exakt lösning här. Men däremot kan vi beräkna den närmaste lösningen, d.v.s. punkten
som är närmast de tre linjernas skärningspunkter genom minsta-kvadrat metoden!
๐จ๐ป ๐จ๐ = ๐จ๐ป ๐
Vi börjar med att skriva upp ekvationssystemet i matrisform:
๐
[−๐
๐
๐
๐ ๐
๐ ] (๐) = [๐]
−๐
๐
Vi kallar matrisen till vänster för A och vektorn till höger för b. Därefter beräknar vi produkten av matrisen A
och dess transponat:
๐
๐จ๐ป ๐จ = [
๐
−๐
๐
๐
๐
] [−๐
−๐
๐
๐
๐+๐+๐
๐ ]=[
๐ + ๐ ∗ (−๐) − ๐
−๐
๐−๐∗๐−๐
๐
]=[
๐+๐∗๐+๐
−๐
Därefter beräknar vi produkten av A’s transponat och b.
๐
๐จ๐ป ๐ = [
๐
−๐
๐
๐
๐−๐+๐
๐
−๐
] [๐] = [
]=[ ]
๐+๐+๐
−๐
๐
๐
Nu beräknar vi ekvationssystemet ๐จ๐ป ๐จ๐ = ๐จ๐ป ๐, vilket i matrisform motsvarar:
[
๐
−๐
−๐ ๐
−๐
]( ) = [ ]
๐ ๐
๐
Därefter löser vi det genom att sätta upp en matris med vänster- och högerled utefter ovan:
[
๐
−๐
−๐| − ๐
๐
] →. . . → [
๐ | ๐
๐
๐| ๐
]
๐|๐/๐
3
Nu är de klart! Den närmaste lösningen till ekvationssystemet är alltså(๐ฅ, ๐ฆ) = (0, ( ))
2
−๐
]
๐
Egenvärde och Egenvektor
I linjära avbildningar finns det ibland vektorer som varken ändrar riktning eller vinkel utan bara blir längre eller
kortare.
Låt oss tänka att T är en linjär avbildning med kvadratiska matrisen A. Om en vektor uppfyller
โโ = ๐๐
โโ där ๐ är en konstant, betyder det att ๐ är ett egenvärde till matrisen, och att ๐
โโ är en egenvektor till
๐จ๐
matrisen som hör till egenvärdet. Notera att egenvektorn måste vara nollskild. Nollvektorn godkänns alltså
INTE som egenvektor till NÅGON avbildning. Däremot kan 0 vara ett egenvärde till matrisen.
โโ med faktorn ๐.
Med andra ord betyder det alltså att matrisen A bara dragit ut vektorn ๐
De enda vektorerna som inte ändrar riktning är de som är helt horisontella(t.ex. gubbens armar) och de som är
helt vertikala(t.ex. gubbens kropp)
För att hitta alla egenvärden till en avbildningsmatris A löser man den karaktäristiska ekvationen:
๐๐๐ญ(๐จ − ๐๐ฐ) = ๐
De värden som uppfyller ekvationen är då egenvärdena. Nedan är ett exempel:
๐
Hitta alla egenvärden till matrisen ๐จ = [๐
๐
๐
๐
−๐
−๐
−๐]
−๐
Vi applicerar formeln ovan. Det första vi vill veta är alltså vad ๐จ − ๐๐ฐ blir:
๐
๐จ − ๐๐ฐ = [๐
๐
๐
๐
−๐
−๐
๐
−๐] − [๐
−๐
๐
๐
๐
๐
๐
๐−๐
๐] = [ ๐
๐
๐
๐
−๐
−๐
−๐
−๐ ]
−๐ − ๐
Vi ska nu räkna ut determinanten till den här matrisen. I det här fallet blir det svårt att använda
Gausseliminering pga ๐ variabeln, vi använder därför oss av utveckling efter kollon/rad.
๐
๐๐(๐จ − ๐๐ฐ) = (๐ − ๐) |
−๐
−๐
๐
−๐
|−|
๐
−๐ − ๐
−๐
๐
|−|
−๐ − ๐
๐
−๐
|=
−๐
= (๐ − ๐) ((−๐)(−๐ − ๐) − ((−๐)(−๐))) − (๐(−๐ − ๐) − (−๐) − (๐(−๐) − (−๐))) =
= (๐ − ๐)(๐ + ๐๐ − ๐) − (−๐๐) − (−๐ + ๐) = ๐ + ๐๐ − ๐ − ๐๐ − ๐๐ + ๐๐ + ๐๐ + ๐ − ๐ =
= −๐๐ + ๐๐ = ๐(−๐๐ + ๐) → ๐
๐๐(๐จ − ๐๐ฐ) = ๐(−๐๐ + ๐)
Egenvärdena på matrisen är då ๐
๐๐(๐จ − ๐๐ฐ) = ๐ → ๐(−๐๐ + ๐) = ๐ → ๐๐ = ๐, ๐๐ = ๐, ๐๐ = −๐
Svar: Matrisens egenvärden är alltså ๐ = {๐, ๐, −๐}
För att hitta alla egenvektorer till en matris A måste man först hitta alla dess egenvärden och sedan lösa
följande karaktäristiska ekvation genom att ersätta ๐ med de olika egenvärdena:
(๐จ − ๐๐ฐ)๐
โโ = โ๐โ
โโ som uppfyller ekvationen är då egenvektorerna!
De värdena på ๐
Fortsättning på förra exemplet:
Hitta även alla matrisens egenvektorer.
Vi börjar med att stoppa in alla de egenvärdena vi hittade i ekvationen
๐−๐ ๐
−๐
๐จ − ๐๐ฐ = [ ๐
−๐
−๐ ]
๐
−๐ −๐ − ๐
๐
๐ = ๐ → ๐จ − ๐๐ฐ = [๐
๐
๐
๐
−๐
−๐
−๐] I de här fallet blir matrisen oförändrad.
−๐
För att hitta vilken vektor matrisen ska multipliceras med för att ge en nollvektor använder vi oss av
Gausseliminering. Jag tänker, för att spara utrymme, skippa alla steg och bara skriva svaret av RREF:
๐
๐๐๐๐ ([๐
๐
๐
๐
−๐
๐
−๐
−๐] ) = [๐
−๐
๐
๐
๐
๐
๐
−๐
๐
๐=๐
๐−๐ =๐
๐ ] → { ๐ = ๐ ↔ {๐ = ๐ → [๐] = ๐ [๐]
๐
๐
๐
Därefter gör vi samma sak med dom andra två egenvärdena.
−๐
๐ = ๐ → ๐จ − ๐๐ฐ = [ ๐
๐
−๐
๐๐๐๐ ([ ๐
๐
๐
−๐
−๐
−๐
๐
−๐]) = [๐
−๐
๐
−๐
๐
๐
๐
๐
−๐
๐
−๐
−๐]) = [๐
๐
๐
๐
๐
๐
−๐
−๐]
−๐
๐
๐
๐
๐=๐
๐−๐= ๐
๐
]
→
{
↔
{
→
[
]
=
๐
[
๐
๐]
๐=๐
๐=๐
๐
๐
๐
๐
๐ = ๐ → ๐จ − ๐๐ฐ = [๐
๐
๐
๐๐๐๐ ([๐
๐
๐
−๐
−๐
๐
๐
−๐
−๐
−๐]
๐
๐
๐
๐
๐=๐
๐=๐
−๐] → {๐ − ๐ = ๐ ↔ { ๐ = ๐ → [๐] = ๐ [๐]
๐
๐
๐
๐
๐
๐
Till sist har vi äntligen fått fram våra egenvektorer: ๐ [๐] , ๐ [๐] , ๐ [๐]
๐
๐
๐
Diagonalisering av en matris
Låt A vara en kvadratisk matris av typen n x n. Matrisen A är diagonaliserbar om det finns en inverterbar
matris P och en diagonalmatris D så att :
๐ซ = ๐ท−๐ ๐จ๐ท (∗)
Ofta vill man använda sambandet ๐จ = ๐ท๐ซ๐ท−๐ som fås ur (*) genom att lösa ut A. Med ”diagonalisera en
matris (om möjligt)” menar examinatorerna att skriva, om möjligt, matrisen A på formen ๐จ = ๐ท๐ซ๐ท−๐ ,
Där P är en avbildningsmatris, ๐ท−๐ dess invers och D är en diagonalmatris(en matris som bara har nollor
utanför huvuddiagonalen)
För att hitta P och D använder man matrisen A:s egenvärden och egenvektorer.
๏ท
D är en diagonalmatris med A:s egenvärden längs huvuddiagonalen.
๐๐
๐ซ =[๐
๐
๏ท
๐
๐๐
๐
P är en matris med A:s egenvektorer längs dess kolonner
โฎ
๐ท = [โโโโโ
๐๐
โฎ
๏ท
๐
๐]
๐๐
โฎ
โฎ
โโโโโ๐ ๐
โโโโโ๐ ]
๐
โฎ
โฎ
๐ท−๐ är P:s inversmatris och kan räknas ut med valfri metod
Tänker fortsätta på föregående kapitels exempel för att illustrera hur de går till:
๐
Diagonalisera matrisen ๐จ = [๐
๐
๐
๐
−๐
−๐
−๐]
−๐
Vi vill skriva A under formen ๐ท๐ซ๐ท−๐ . I förra kapitlet beräknade vi matrisens egenvärden, {๐, ๐, −๐}, och
๐
๐
๐
egenvektorer, ๐ [๐] , ๐ [๐] , ๐ [๐]
๐
๐
๐
Vi räknar nu ut D genom att sätta in egenvärdena längs diagonalen, P genom att sätta in egenvektorer längs
kolumnerna och slutligen ๐ท−๐ genom Gausselimination.
๐
๐ซ = [๐
๐
๐
๐
๐
๐
๐
๐ ] ; ๐ท = [๐
−๐
๐
๐
๐
๐
๐
๐ ๐
๐] ; ๐ท−๐ = [ ๐
๐
๐
−๐
−๐
๐
๐
๐
−๐]
๐
Nu har vi våra tre matriser och kan därför diagonalisera A enligt formeln ovan:
๐จ=
๐ ๐
[๐
๐
๐
๐
๐
๐
๐ ๐
๐] [๐
๐ ๐
๐
๐
๐
๐
๐
๐ ][ ๐
−๐ −๐
−๐
๐
๐
๐
−๐]
๐
Glöm inte att man måste gå från vänster när man löser dessa, dvs första matrisen gånger den andra, och
resultatet av den gånger den tredje!
Matrispotenser
Vad använder man då diagonalisering till? Jo, om man har en matris A som man diagonaliserar kan man enkelt
räkna ut dess potenser(๐จ๐ , ๐จ๐ , ๐จ๐ … ) genom formeln:
๐จ๐ = ๐ท๐ซ๐ ๐ท−๐
Uträkningen av D:s potenser är väldigt enkelt eftersom det är en diagonalmatris! Det räcker därför att räkna ut
potensen av talen längs dess huvuddiagonal(och slippa jobbiga matrismultiplikationer!)
Återigen fortsätter jag på föregående exemplet:
Använda A:s dagonalisering för att räkna ut ๐จ๐ .
Vi använder matrisen som vi fick fram i förra exemplet och sätter potensen på diagonalmatrisen:
๐
๐ −๐ ๐
๐
๐
๐ ๐ ๐ ๐ ๐
[๐ ๐ ๐] [ ๐ ๐๐
๐ −๐] =
๐ ][ ๐
๐
๐ ๐ ๐ ๐ ๐ −๐๐ −๐ ๐
๐
๐
๐
๐
๐
๐
๐
๐
−๐
๐
๐
= ๐จ๐ = [๐ ๐ ๐] [๐ ๐ ๐] [ ๐
๐ −๐]
๐
๐ ๐ ๐ ๐ ๐ ๐ −๐ ๐
๐
๐จ๐ =
Nu återstår bara att multiplicera matriserna för att få fram ๐จ๐ !
๐จ๐ =
๐ ๐∗๐+๐∗๐+๐∗๐
[๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ ๐
๐
๐∗๐+๐∗๐+๐∗๐
๐ ๐
[๐
๐
๐
๐
๐
๐
๐ ๐
๐] [ ๐
๐ ๐
๐
๐
๐
๐ ๐
๐] [ ๐
๐ −๐
๐∗๐+๐∗๐+๐∗๐
๐∗๐+๐∗๐+๐∗๐
๐∗๐+๐∗๐+๐∗๐
๐ ๐
[๐
๐
๐
๐
๐
๐
−๐
๐
๐
๐∗๐+๐∗๐+๐∗๐ ๐
๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ ๐] [ ๐
๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ ๐ −๐
๐ ๐
๐] [ ๐
๐ −๐
−๐
๐
๐
๐ ๐
[๐
๐
−๐
๐
๐
๐
−๐
๐
๐ ]=[ ๐
๐
−๐
๐
๐จ๐ = [ ๐
−๐
๐
๐
๐
−๐
๐
๐
๐
−๐] =
๐
๐
−๐] =
๐
(−๐) ๐ ∗ (−๐) + ๐ ∗ ๐ + ๐ ∗ ๐
๐ ๐∗๐+๐∗๐+๐∗
= [๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ (−๐) ๐ ∗ (−๐) + ๐ ∗ ๐ + ๐ ∗ ๐
๐
๐ ∗ ๐ + ๐ ∗ ๐ + ๐ ∗ (−๐) ๐ ∗ (−๐) + ๐ ∗ ๐ + ๐ ∗ ๐
=
๐
−๐] =
๐
๐
๐
๐
๐ ∗ ๐ + ๐ ∗ (−๐) + ๐ ∗ ๐
๐ ∗ ๐ + ๐ ∗ (−๐) + ๐ ∗ ๐] =
๐ ∗ ๐ + ๐ ∗ (−๐) + ๐ ∗ ๐
−๐
๐]
๐
−๐
๐]
๐
Detta innebär också att man kan räkna ut rötter på en matris, då √๐จ = ๐จ
๐⁄
๐
Gram-Schmidt ortogonalisering och ON-baser
Gram-Schmidt otrogonalisering är metoden för att transformera en godtycklig bas till en ON-bas(Ortogonal &
Normaliserad bas) som har samma spann som den föregående basen. Denna metod använder sig av ortogonal
projektion och är därför ett förkunskapskrav för att förstå de nedanför. Ifall du glömt, kolla igenom kapitlena
om projektion ovan.
Gram-Schmidt ortogonalisering
โโโโโ,
Antag att vi har en godtycklig bas ๐ฉ = {๐
๐๐ โโโโโ}
๐๐ som vi vill ortogonal- och normalisera genom Gram-Schmidt
๐ โโโโโ,
โโโโโ,
โโโโโ,
โโโโโ}.
metoden till basen ๐ธ = {๐
๐
๐
๐
๐
๐
Ortogonala basen:
โโโโโ
๐๐ = โโโโโ
๐๐
โโโโโ
โโโโโ)
๐๐ = โโโโโ
๐๐ − ๐๐๐๐โโโโโโ
๐๐ −
๐๐ (๐
๐ = โโโโโ
โโโโโ
๐๐ ∗ โโโโโ
๐๐
โโโโโ
๐๐
๐
โ๐
โโโโโโ
๐
โโโโโ
โโโโโ)
โโโโโ)
๐๐ = โโโโโ
๐๐ − ๐๐๐๐โโโโโโ
๐๐ −
๐๐ (๐
๐ − ๐๐๐๐โโโโโโ
๐๐ (๐
๐ = โโโโโ
โโโโโ
โโโโโ
๐๐ ∗ โโโโโ
๐๐
๐๐ ∗ โโโโโ
๐๐
โโโโโ
โโโโโ
๐
−
๐๐
๐
๐
๐
โ๐
โ๐
โโโโโโ
โโโโโโ
๐
๐
Detta har givit oss en ortogonal bas, men vi kan också bes om dess ortonormerade bas som ges utav att vi
delar varje basvektor med dess norm(längd).
โโโโโ
๐๐ =
โโโโโ
๐๐
,
โ๐
โโโโโโ
๐
โโโโโ
๐๐ =
โโโโโ
๐๐
,
โ๐
โโโโโโ
๐
โโโโโ
๐๐ =
โโโโโ
๐๐
โ๐
โโโโโโ
๐
Checklista/Begreppsamling
Vektor
Synonym: Kordinatvektor
En vektor beskrivs av en riktning (och en längd), inte en position som en punkt gör. An denna anledning kan
vektorer förflyttas så de inte är bundna vid en position. Vektorer skrivs med gemener(små bokstäver) med en
๐
โโ = [ ]
pil över enligt: ๐
๐
Skalär
Alla reella tal är skalärer, detta vill säga, skalärer är det som finns på den reella tallinjen. Skalärer skrivs med
gemener, det vill säga små bokstäver ๐ = ๐:
Norm
Synonym: Längd av vektor, Magnitud
Vektorer kan vara olika långa men forfarande ha samma riktning. Normen av en vektor är inte absolutbeloppet
๐
av en vektor. Normen ges av: โ๐ฃโโ = โ โ = √๐2 + ๐ 2
๐
Matris
En matris kan betraktas som en datahållare, något som håller information. Syftet med att ha matriser är att de
är enkla att manipulera för att ge svar på olika problem. Matriser beskrivs genom antalet rader och kolonner
den har och namn med versaler, det vill säga, stora bokstäver. Följande matris är en 2x3 matris: ๐จ =
๐ ๐ ๐
[
]
๐
๐ ๐
Dimension
Synonym: dim()
Alla vektorrum har en dimension de är bundna vid. Detta motsvarar det lägsta antalet vektorer som krävs för
att beskriva rummet. En vektor kommer rummet motsvara en linje. Två motsvarar ett plan och tre ett kubiskt
rum.
Rang
Synonym: dim(Im()), dimensionen av bilden
Rangen av en matris är antalet oberoende kolumnvektorer som finns i matrisen eller antalet ledande ettor
efter gauss elemination. I själva verket är rangen av en matris dimensionen av bilden som den matrisen ger
upphov till vid transformation.
Projektion, perpendikulär & reflektion
Projektionen av en vektor på en annan vektor kan informellt tolkas som skuggan av den första vektorn på en
โโ på ๐
โโ kommer projektionen ges av:
andra. Om vi vill projicera ๐
โโ ∗ ๐
โโ
๐
โโ) = (
โโ
๐๐๐๐๐โโ (๐
)๐
โ๐
โโโ2
Den perpendikulära vektorn kommer att motsvara avståndsvektorn från skuggan, i normalens riktning, tills den
โโ. Detta kommer ges av:
når den första vektorn, i detta fall ๐
โโ) = ๐
โโ − ๐๐๐๐๐โโ (๐
โโ) = ๐
โโ − (
๐๐๐๐๐โโ (๐
โโ ∗ ๐
โโ
๐
โโ
)๐
โ๐
โโโ2
โโ på ๐
โโ beräknas. Vektor ๐
โโ kan i detta fall betraktas som en spegel för
Avslutningsvis kan även reflektionen av ๐
de resterande vektorerna. Reflektionen ges av:
โโ ∗ ๐
โโ
๐
โโ) = ๐๐๐๐๐๐โโ (๐
โโ) − ๐
โโ = ๐ (
โโ − ๐
โโ
๐๐๐๐โโ (๐
)๐
โ๐
โโโ2
Linjär transformation
Synonym: Linjär avbildning
Transformation kan betraktas som motsvarigheten till skalärfunktioner ๐(๐) fast för vektorer genom att utföra
โโ) av vektor โ๐โ genom transformationsmatrisen A då ๐ป(๐
โโ) = ๐จ๐
โโ . Resultatet kommer att
transformationen ๐ป(๐
โโ som är en transformation av ๐
โโ . Detta ger att hela transformationen
โโ enligt ๐ป(๐
โโ) = ๐จ๐
โโ = ๐
ge en ny vektor ๐
enbart definieras av matrisen A som då även definierar bilden och kärnan.
Bild
Synonym: Image, kolonnrum, Im()
Bilden för given transformation kam betraktas som transformationens värdemängd där värdemängden inte är
definierad i ett intervall på en tallinje utan istället kan vara i form av talplan eller talrum, av denna anledning
måste bilden definieras av ett spann av vektorer. Bilden ges även av spannet hos kolumnvektorerna i
transformationsmatrisen.
Kärna
Synonym: Kernel, Nollrum, Nullspace, Ker()
Kärnan för en transformation är en mängd där alla vektorer innanför mängden kommer efter transformation
โโ tillhör kärnan, då måste ๐ป(๐
โโ) = โ๐โ enligt definition. Kärnan ges
alltid att transformeras till nollvektor. Säg att ๐
därför genom att radreduktion samt lösning av systemet som transformationsmatrisen innehåller.
Underrum
Synonym: Delrum
För att en delmängd ska vara ett delrum måste tre kriterier uppfyllas samtidigt:
1.
2.
โโ måste vara innehållen i delmängden.
Nollvektorn ๐
Den resulterande vektorn från additionen av två vektorer som båda innehålls i delmängden måste
fortfarande vara innehållen a
Span
โโ, ๐
โโ} med ๐๐๐๐{๐
โโ, ๐
โโ} är att i det förstnämnda sker referensen specifikt till ๐
โโ och ๐
โโ, inga andra
Det som skiljer {๐
โโ, ๐
โโ} refererar till ๐
โโ ∗ ๐
โโ och alla linjära kombinationer som de ger upphov till. Det kan
vektorer, medan ๐๐๐๐{๐
โโ, ๐
โโ} = ๐๐
โโ + ๐๐
โโ där t och s är reella tal. Av denna
därför vara passande (men något informellt) att ๐๐๐๐{๐
}
{
} används för att beskriva baser
anledning används alltid ๐๐๐๐{
för att beskriva underrum medan
Bas
En bas är i själva verket ett kordinatsystem där kordinataxlarna är vektorerna som utgör basen. Den vanligaste
basen ges av det kartesiska koordinatsystemet som har enhetsvektorerna:
1
0
0
๐1 = [0 ] โโโโ
โโโโ
๐2 = [1] โโโโ
๐2 = [0]
0
0
1
Det går att skapa nya baser och gå mellan dessa baser genom ett basbyte. Ett kriterium för baser är att alla
dess vektorer måste vara linjärt oberoende. En bas kan även vara ortogonal och ortonormal. För en ortogonal
bas gäller att alla basens vektorer är vinkelräta mot varann. För en ortonormal bas gäller dessutom att de är
normaliserade, det vill säga, har längden 1.
Basbyte
Att utföra ett basbyte innebär att beskriva en given vektor i en annan bas. Detta görs med basbytesmatriser där
kolumnerna i matrisen är vektorerna som utgör basen. Viktigt är att notera från vilken till vilken bas
basbytesmatrisen går. Basbyten är den svårare delen av kursen Linjär Algebra, för vidare förståelse se lektionen
Basbyte.
Determinant
Beräkning av determinanten ger information kring huruvida kolumnerna i matrisen är linjärt beroende. Detta
kan utnyttjas för att se om ett system har en enskild lösning eller ingen/oändligt med lösningar. Om ๐๐๐ญ(๐จ) ≠
๐ har A en enskild lösning och går därmed att invertera.
Om ๐๐ ๐ญ(๐จ) = ๐ har A oändligt/ingen lösning och kan därför inte ha en inversmatris.
Area av parallelogram och triangel
Arean av ett parallellogram kan beräknas på olika sätt, en för ๐น๐ och en för ๐น๐ :
I ๐น๐ ges arean av absolutbeloppet(en area kan inte vara negativ) av en determinant med två av
paralellogrammets vektorer som utgår från samma hörn i determinatens rader:
๐จ๐๐๐ = ๐๐๐ (|
−
−
โโ
๐
โ๐โ
−
|)
−
I ๐น๐ ges arean genom att ta normen av kryssprodukten av två vektorer som går från samma hörn i
paralellogrammet kan man få arean enligt:
โโ × โ๐โโ
๐จ๐๐๐ = โ๐
Volym av parallelepiped
I ๐น๐ ges volymen av en parallelepiped av absolutbeloppet en determinant med tre av paralellogrammets
vektorer som utgår från samma hörn i determinatens rader enligt:
− โ๐โ −
โโ −|)
๐จ๐๐๐ = ๐๐๐ (|− ๐
โโ −
− ๐
Egenvärde & Egenvektorer
โโ då har vi transformationen
Om vi har en given linjär transformation T för en given vektor ๐
โโ. Om även den resulterande vektorn ๐
โโ är en multipel av vektorn som transformationen verkar
โโ) = ๐จ๐
โโ = ๐
๐ป(๐
โโ enligt ๐ป(๐
โโ) = ๐จ๐
โโ = ๐๐
โโ där ๐ är en skalär. Då gäller att ๐ är ett egenvärde till egenvektorn ๐
โโ.
på ๐
Detta innebär att egenvektorer efter transformationen kommer enbart att förändras i längd, inte i riktning.
Egenvärdena för en transformationsmatris A ges av ekvationen:
๐๐๐ญ(๐จ − ๐๐ฐ) = ๐
där I är identitetsmatrisen. Egenvektorerna ges av:
(๐จ − ๐๐ฐ)๐
โโ = โ๐โ
som kräver att egenvärdena redan är givna och appliceras en gång per egenvärde.
Algebraisk multiplicitet & Geometrisk multiplicitet
Vid beräkning av egenvärden och lösning av karaktäristisk ekvation kan det uppstå dubbelrötter, till exempel:
๐1 = 3
{๐2 = 4 , där det är dubbelrot då ๐ = ๐. Då gäller att egenvärdet ๐ = ๐ har den algebraiska multipliciteten 2
๐3 = 3
medan ๐ = ๐ har den 1 algebraiska multipliciteten .
Den geometriska multipliciteten definieras av antalet vektorer som varje enskilt egenvärde ger upphov till och
motsvarar dimensionen på egenrummet.
Egenrum
Egenrummet spänns upp av egenvektorer med samma egenvärde och ger upphov till ett spann där allt som
innehålls av det spannet också är egenvektorer med samma egenvärde. Detta innebär att det kan finnas flera
egenrum för en linjär transformation, en för varje egenvärde.
Diagonalisering
Att diagonalisera en matris innebär att ta reda på matrisens motsvarande diagonalmatris D genom att ta reda
på matrisens egenvärden och egenvektorer. När detta är gjort är det bara att skapa diagonal- och
basbytesmatrisen P enligt:
โฎ
๐ท = [โโโโโ
๐๐
โฎ
โฎ
โโโโโ๐
๐
โฎ
โฎ
โโโโโ๐ ] ,
๐
โฎ
๐๐
๐ซ = [๐
๐
๐
๐๐
๐
๐
๐]
๐๐
Där ๐๐ , ๐๐ , ๐๐ är egenvärden och โโโโโ
๐๐ , โโโโโ
๐๐ , โโโโโ
๐๐ är motsvarande egenvektorer.
Gram-Schmidt ortogonalisering
Detta är en metod för att ta fram ortogonala vektorer genom att utgå från icke-ortogonala. Det används främst
för att skapa ortogonala och ortonormala baser när man utgår från vanliga baser. För vidare läsning, se
lektionen Grahm-Schmidt ortogonalisering