Transformationen ges av transformationsmatrisen

LINJÄR ALGEBRA & GEOMETRI
Seriöst, de här e fan allting.
DE HÄR ÄR ALLT SKIT DU BEHÖVER, SKIT I ALLT ANNAT. STÅR DE INTE HÄR ÄR
DE ONÖDIGT
Contents
Räkneregler för Vektorer ........................................................................................................................................ 2
Multiplikation mellan skalär och vektor (vanlig) ................................................................................................. 2
Skalärprodukt ...................................................................................................................................................... 2
Kryssprodukt ....................................................................................................................................................... 3
Normen ............................................................................................................................................................... 3
Parameterform........................................................................................................................................................ 4
Linjens parameterekvation ................................................................................................................................. 4
Planets parameterekvation ................................................................................................................................. 4
Från normal- till parameterform ......................................................................................................................... 4
Skärningspunkter .................................................................................................................................................... 5
Två linjer .............................................................................................................................................................. 5
Skärning av ett plan och en linje ......................................................................................................................... 5
Skärning av två plan ............................................................................................................................................ 5
Projektion ................................................................................................................................................................ 7
Matriser ................................................................................................................................................................... 8
Matrismultiplikation ............................................................................................................................................ 9
Gauss-Jordan elimination i matriser/ekvationssystem ......................................................................................... 10
Gauss metod ..................................................................................................................................................... 10
Invers- och Identitetsmatrisen .............................................................................................................................. 12
Linjära Transformationer ...................................................................................................................................... 13
Delrum, Bild och Kärna.......................................................................................................................................... 16
Delrum............................................................................................................................................................... 16
Kärna ................................................................................................................................................................. 17
Baser och basbyten ............................................................................................................................................... 18
Vad är en determinant? ........................................................................................................................................ 21
2x2 matriser ...................................................................................................................................................... 21
Genom att utveckla efter en rad eller en kolonn .............................................................................................. 21
Tredje metoden: genom Gausselemination ...................................................................................................... 22
Minsta-kvadratmetoden ....................................................................................................................................... 23
Egenvärde och Egenvektor.................................................................................................................................... 24
Diagonalisering av en matris ................................................................................................................................. 26
Matrispotenser ..................................................................................................................................................... 27
Gram-Schmidt ortogonalisering och ON-baser ..................................................................................................... 28
Checklista/Begreppsamling ................................................................................................................................... 29
Räkneregler för Vektorer
Vektorer delar addition och subtraktion med skalärer. Men i dom andra två räknesätten, multiplikation och
division, finns det väldigt stora skillnader. Det finns 4 olika sorters multiplikation och ingen division. De olika
metoderna beror på vad som gångras och de ger olika resultat av multiplikationen. Metoderna är:
1.
Vanlig multiplikation: ๐‘†๐‘˜๐‘Ž๐‘™ä๐‘Ÿ ∗ ๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ = ๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ
๐‘ก ∗ ๐‘ฃโƒ— = ๐‘ฃโƒ—
2.
Skalärprodukt:
๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ ∗ ๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ = ๐‘†๐‘˜๐‘Ž๐‘™ä๐‘Ÿ
๐‘ฃโƒ— ∗ ๐‘ฃโƒ— = ๐‘ก
3.
Kryssprodukt:
๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ ∗ ๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ = ๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ
๐‘ฃโƒ— ∗ ๐‘ฃโƒ— = ๐‘ฃโƒ—
4.
Matrismultiplikation:
๐‘€๐‘Ž๐‘ก๐‘Ÿ๐‘–๐‘ /๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ ∗ ๐‘€๐‘Ž๐‘ก๐‘Ÿ๐‘–๐‘ /๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ = ๐‘€๐‘Ž๐‘ก๐‘Ÿ๐‘–๐‘ /๐‘‰๐‘’๐‘˜๐‘ก๐‘œ๐‘Ÿ
๐ด/๐‘ฃโƒ— ∗ ๐ด/๐‘ฃโƒ— = ๐ด/ ๐‘ฃโƒ—
Multiplikation mellan skalär och vektor (vanlig)
Den vanligaste multiplikationen som förekommer är den mellan skalärer och vektorer.
๐‘ฃ1
๐‘ฃ
Om ๐‘ฃโƒ— = [ 2 ] och t är en skalär så kommer produkten av dessa vara:
๐‘ฃ3
๐‘ฃ1
๐‘ก๐‘ฃ1
๐‘ก ∗ ๐‘ฃโƒ— = ๐‘ก ∗ [๐‘ฃ2 ] = [๐‘ก๐‘ฃ2 ]
๐‘ฃ3
๐‘ก๐‘ฃ3
Skalärprodukt
Skalärprodukten beräknar vinkelförhållandet mellan två vektorer och betecknas på följande sätt där det läses u
skalärt v. Resultatet av skalärprodukten är en skalär.
Vi har vektorerna: ๐‘ข
โƒ—โƒ—
๐‘ข1
๐‘ฃ1
= [๐‘ข ] och ๐‘ฃโƒ— = [๐‘ฃ ] och deras skalärprodukt ges av:
2
2
๐‘ข1
๐‘ฃ1
๐‘ข
โƒ—โƒ— ∗ ๐‘ฃโƒ— = [๐‘ข ] ∗ [๐‘ฃ ] = (๐‘ข1 ∗ ๐‘ฃ1 ) + (๐‘ข2 ∗ ๐‘ฃ2 )
2
2
Då detta har med vinklarna att göra finns det ett par saker att tänka på när man får resultatet:
1.
2.
3.
Om ๐‘ข
โƒ—โƒ— ∗ ๐‘ฃโƒ— = 0 är vektorerna vinkelräta mot varann, dvs ortogonala varann
Om ๐‘ข
โƒ—โƒ— ∗ ๐‘ฃโƒ— < 0 bildar vektorerna en trubbig vinkel
Om ๐‘ข
โƒ—โƒ— ∗ ๐‘ฃโƒ— > 0 bildar vektorerna en spetsig vinkel
Kryssprodukt
Denna form av multiplikation beräknar den vektorn som är vinkelrät mot de två vektorer som multipliceras
med varann. Säg att vi har två vektorer, ๐‘ข
โƒ—โƒ— och ๐‘ฃโƒ— så kommer kryssprodukten(som betecknas med ett X, som i
kryss, inte ex) av dessa kunna beräknas enligt:
๐‘ข1
๐‘ฃ1
๐‘ข2 ๐‘ฃ3 ๐‘ฃ2 ๐‘ข3
๐‘ข
โƒ—โƒ— × ๐‘ฃโƒ— = [๐‘ข2 ] × [๐‘ฃ2 ] = [๐‘ข3 ๐‘ฃ1 − ๐‘ฃ3 ๐‘ข1 ]
๐‘ข3
๐‘ฃ3
๐‘ข1 ๐‘ฃ2 ๐‘ฃ1 ๐‘ข2
Det finns även ett specialfall:
Om ๐‘ข
โƒ—โƒ—
och ๐‘ฃโƒ— är parallella kommer ๐‘ข
โƒ—โƒ— × ๐‘ฃโƒ— = โƒ—0โƒ—
Viktigt!
Kryssprodukten går endast att göra i tre dimensioner, dvs då
๐‘ข1
๐‘ฃ1
๐‘ข
โƒ—โƒ— × ๐‘ฃโƒ— = [๐‘ข2 ] × [๐‘ฃ2 ]
๐‘ข3
๐‘ฃ3
Normen
๐‘ฃ1
Normen av en vektor ๐‘ฃ
โƒ— betecknas โ€–๐‘ฃโƒ—โ€– och motsvarar vektorns längd. Om ๐‘ฃโƒ— = [๐‘ฃ2 ] så ges dess längd
๐‘ฃ3
โ€–๐‘ฃโƒ—โ€– enligt:
โ€–๐‘ฃโƒ—โ€– = √๐‘ฃ12 + ๐‘ฃ22 + ๐‘ฃ32
Parameterform
Linjens ekvaktion har hittils skrivits som ๐‘ฆ = ๐‘˜๐‘ฅ + ๐‘š, likt normalformen ๐‘Ž๐‘ฅ + ๐‘๐‘ฆ + ๐‘ = 0 som används mycket
๐‘Ž
i denna kurs. Här definieras en linje av sin normalvektor som i detta fall ges på sättet ๐‘›โƒ—โƒ— = [ ]. Detta innebär att
๐‘
ifall man har normalvektorn till en linje har man även linjens ekvation, och vice versa.
Normalformen för en linje är inte alltid önskvärd då den kräver att vi befinner oss i ๐‘…2 , det tvådimensionella xyplanet. Därför introduceras vi i denna kurs parameter ekvationer som beskrivs genom en punkt och med
vektorer.
Linjens parameterekvation
Parameterekvationen för en linje i ๐‘…3 skrivs med en punkt och en riktningsvektor. Säg att vi har punkten ๐‘ƒ =
๐‘ฃ1
๐‘ƒ1
[๐‘ƒ2 ] och vektorn ๐‘ฃโƒ— = [๐‘ฃ2 ] och använder en parameter t kan vi skapa en linje genom parameterekvationen:
๐‘ฃ3
๐‘ƒ3
๐‘ฃ1
๐‘ƒ1
๐‘ฅ
[๐‘ฆ] = ๐‘ก [๐‘ฃ2 ] + [๐‘ƒ2 ]
๐‘ฃ3
๐‘ง
๐‘ƒ3
Anledning till varför parameterekvationen är att föredra när vi arbetar i en dimension högre än 2 är för att vi
inte kan beskriva en linje i dess normalform.
Planets parameterekvation
Ett plans normalekvation skrivs ๐‘Ž๐‘ฅ + ๐‘๐‘ฆ + ๐‘๐‘ง + ๐‘‘ = 0, som enbart gäller i tre dimensioner. Vi har återigen ett
๐‘Ž
material som beskrivs av sin normalvektor ๐‘›โƒ—โƒ— = [๐‘ ]. För beskrivning av plan i dimensioner över 3 används
๐‘
parameterformen som nu har två riktningsvektorer ๐‘ข
โƒ—โƒ— och ๐‘ฃโƒ— med punkten P enligt:
๐‘ข1
๐‘ฃ1
๐‘ƒ1
๐‘ฅ
๐‘ข
๐‘ฃ
[๐‘ฆ] = ๐‘  [ 2 ] + ๐‘ก [ 2 ] + [๐‘ƒ2 ]
๐‘ข3
๐‘ฃ3
๐‘ง
๐‘ƒ3
Från normal- till parameterform
Om vi har linjen ๐‘Ž๐‘ฅ + ๐‘๐‘ฆ + ๐‘ = 0 och vi vill skriva om denna till parameterform börjar vi med att beskriva
uttrycket som en variabel, dvs flytta över alla termer utom en utav dom till högra sidan och kallar därefter en
๐‘
๐‘
๐‘
๐‘
๐‘ฅ
๐‘ฅ=− ๐‘ก−
−
−
๐‘Ž
๐‘Ž → [ ] = ๐‘ก [ ๐‘Ž] + [ ๐‘Ž]
utav termerna för t: {
๐‘ฆ
๐‘ฆ=๐‘ก
0
1
Samma sak gäller för plan också, ๐‘Ž๐‘ฅ + ๐‘๐‘ฆ + ๐‘๐‘ง + ๐‘‘ = 0 förutom att vi får en till variabel, tex s. Vi ställer upp
๐‘ฅ=๐‘ก
0
0
1
๐‘ฅ
๐‘ฆ
=
๐‘ 
1
0
dom på samma sett:{
→ [๐‘ฆ] = ๐‘ก [ ๐‘Ž] + ๐‘  [ ๐‘] + [ 0๐‘‘]
๐‘Ž
๐‘
๐‘‘
−
−
−
๐‘ง=− ๐‘ก− ๐‘ −
๐‘ง
๐‘
๐‘
๐‘
๐‘
๐‘
๐‘
Skärningspunkter
Två linjer
Två icke-parallella linjer som är definierade i ๐‘…2 har alltid en skärningspunkt någonstans. För att hitta den
punkten ställs ett ekvationssystem upp med varje linjes normalekvation där variablernas värden beräknas.
Note:
För beräkning av skärningen mellan två linjer definierade i en valfri dimension ๐‘…๐‘› krävs kunskaper från GaussJordan elimination och Matriser, och jag kommer gå igenom hur man gör det i dom kapitlena.
Skärning av ett plan och en linje
Säg att vi har en linje och ett plan, definierat i ๐‘…3 , då kommer linjen inte kunna vara definierad i normalform
utan måste skrivas på parameterform:
๐ฟ1
๐‘ฃ1
๐‘ƒ1
๐ฟ3
๐‘ฃ3
๐‘ƒ3
๐ฟ = ๐‘ก๐‘ฃโƒ— + ๐‘ƒ ↔ [๐ฟ2 ] = ๐‘ก [๐‘ฃ2 ] + [๐‘ƒ2 ]
Där L är alla punkter som linjen skär planet. Möjligheten till skärningspunkter som kan uppstå delas in i 3 olika
fall:
1.
2.
3.
Linjen är inte parallell med planet: en skärningspunkt
Linjen är parallell med planet: ingen skärningspunkt
Linjen är parallell med planet och ligger i planet: oändligt med skärningspunkter
För att beräkna eventuella skärningspunkter sker en insättning av linjens ekvation för varje variabel i planets
ekvation enligt:
๐‘ฃ1
๐‘ฅ = ๐‘ก๐‘ฃ
โƒ—โƒ—โƒ—1 + ๐‘ƒ1
๐‘ƒ1
๐‘ฅ
[๐‘ฆ] = ๐‘ก [๐‘ฃ2 ] + [๐‘ƒ2 ] ↔ {๐‘ฆ = ๐‘ก๐‘ฃโƒ—โƒ—โƒ—2 + ๐‘ƒ2
๐‘ฃ3
๐‘ง
๐‘ƒ3
๐‘ง = ๐‘ก๐‘ฃ
โƒ—โƒ—โƒ—3 + ๐‘ƒ3
๐‘Ž๐‘ฅ + ๐‘๐‘ฆ + ๐‘๐‘ง + ๐‘‘ = 0 → ๐‘Ž( ๐‘ก๐‘ฃ
โƒ—โƒ—โƒ—โƒ—โƒ—1 + ๐‘ƒ1 ) + ๐‘( ๐‘ก๐‘ฃ
โƒ—โƒ—โƒ—โƒ—โƒ—2 + ๐‘ƒ2 ) + ๐‘( ๐‘ก๐‘ฃ
โƒ—โƒ—โƒ—โƒ—โƒ—3 + ๐‘ƒ3 ) + ๐‘‘ = 0
Ur denna ekvation kommer samtliga variabler att vara givna förutom parametervariabeln t som är den som,
tillsammans med linjens parameterekvation, ge vilken punkt linjen skär i planet.
Exempel:
๐‘ฅ
4
1
๐‘ฅ = ๐‘ก+4
๐‘ฆ
[ ] = ๐‘ก [2] + [−2] ↔ {๐‘ฆ = 2๐‘ก − 2 och planet 2๐‘ฅ − 3๐‘ฆ + ๐‘ง + 5 =0
๐‘ง = ๐‘ก−1
๐‘ง
−1
1
2๐‘ฅ − 3๐‘ฆ + ๐‘ง + 5 = 0 → 2( ๐‘ก + 4) − 3( 2๐‘ก − 2) + ( ๐‘ก − 1) + 5 = 0 → ๐‘ก = 6
๐‘ฅ
๐‘ฅ
4
10
1
[๐‘ฆ] = 6 [2] + [−2] ↔ [๐‘ฆ] = [10]
๐‘ง
๐‘ง
−1
5
1
Detta ger oss att linjen skär planet i punkten (๐’™, ๐’š, ๐’›) = (๐Ÿ๐ŸŽ, ๐Ÿ๐ŸŽ, ๐Ÿ“)
Skärning av två plan
Då vi har två plan i ๐‘น๐Ÿ‘ som är icke-parallella kommer deras skärning att vara en linje som kommer vara
beskriven på parameterform. För att ta fram denna linje är det viktigt att förstå att linjens riktningsvektor alltid
kommer vara ortogonal mot planens normalvektor. Tack vare detta kan vi beräkna linjens riktningsvektor
genom att använda kryssprodukten!
Skärningen mellan plan A och B är en linje
Säg att vi har planen ๐‘Ž1 ๐‘ฅ + ๐‘1 ๐‘ฆ + ๐‘1 ๐‘ง + ๐‘‘1 = 0 och ๐’‚๐Ÿ ๐’™ + ๐’ƒ๐Ÿ ๐’š + ๐’„๐Ÿ ๐’› + ๐’…๐Ÿ = ๐ŸŽ. Då kommer
๐’‚๐Ÿ
๐’‚๐Ÿ
normalvektorerna för respektive plan vara โƒ—โƒ—โƒ—โƒ—โƒ—
๐’๐Ÿ = [๐’ƒ๐Ÿ ] och โƒ—โƒ—โƒ—โƒ—โƒ—
๐’๐Ÿ = [๐’ƒ๐Ÿ ]. Genom att applicera kryssprodukten
๐’„๐Ÿ
๐’„๐Ÿ
kommer vi kunna få en vektor som är otrogonal mot de vektorer som kryssas som i detta fall måste vara linjens
riktningsvektor. Vi kallar denna ๐‘ฃโƒ— enligt:
๐‘Ž1
๐‘Ž2
๐‘›1 × โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘›2 = [๐‘1 ] × [๐‘2 ] = ๐‘ฃโƒ—
๐‘1
๐‘2
När detta är gjort behöver vi bara en punkt på linjen, vilken som helst, för att kunna beskriva hela skärningen
๐‘ก๐‘ฃโƒ— + ๐‘ƒ. Om en redan inte är given kan detta enklast göras genom en substitution i ekvationssystemet som
uppstår av planens normalekvation:
{
−๐’ƒ๐Ÿ ๐’š − ๐’„๐Ÿ ๐’› − ๐’…๐Ÿ
๐’‚๐Ÿ ๐’™ + ๐’ƒ๐Ÿ ๐’š + ๐’„๐Ÿ ๐’› + ๐’…๐Ÿ = ๐ŸŽ
๐’™=
↔{
→
๐’‚๐Ÿ
๐’‚๐Ÿ ๐’™ + ๐’ƒ๐Ÿ ๐’š + ๐’„๐Ÿ ๐’› + ๐’…๐Ÿ = ๐ŸŽ
๐’‚๐Ÿ ๐’™ + ๐’ƒ๐Ÿ ๐’š + ๐’„๐Ÿ ๐’› + ๐’…๐Ÿ = ๐ŸŽ
−๐’ƒ๐Ÿ ๐’š − ๐’„๐Ÿ ๐’› − ๐’…๐Ÿ
๐’‚๐Ÿ
→
−๐’ƒ๐Ÿ ๐’š − ๐’„๐Ÿ ๐’› − ๐’…๐Ÿ
๐’‚ (
) + ๐’ƒ๐Ÿ ๐’š + ๐’„๐Ÿ ๐’› + ๐’…๐Ÿ = ๐ŸŽ
{ ๐Ÿ
๐’‚๐Ÿ
๐’™=
โƒ—โƒ— + ๐‘ท
Där vilket (๐’™, ๐’š, ๐’›) som satisfierar båda ekvationerna är en punkt P i linjen ๐’•๐’—
Projektion
โƒ—โƒ—, ๐’—
โƒ—โƒ— och att vi vill projicera ๐’–
โƒ—โƒ— på ๐’—
โƒ—โƒ— där projektionen ๐’‘๐’“๐’๐’‹๐’—โƒ—โƒ— (๐’–
โƒ—โƒ—) kan ses som
Tänk att vi har två vektorer, ๐’–
โƒ—โƒ— på ๐’—
โƒ—โƒ—. Detta kan illustreras enligt figuren:
skuggan av vektorn ๐’–
Projektionen blir den nya vektorn som är parallell med ๐‘ฃโƒ—
Formeln för projektion har följande utseende:
โƒ—โƒ—) = (
๐’‘๐’“๐’๐’‹๐’—โƒ—โƒ— (๐’–
โƒ—โƒ— ∗ ๐’—
โƒ—โƒ—
๐’–
โƒ—โƒ—
)∗๐’—
โ€–๐’—
โƒ—โƒ—โ€–2
โƒ—โƒ—∗๐’—
โƒ—โƒ—
๐’–
Där (
) kommer att bli en skalär efter beräkning. Notera att det vi väljer att projicera(här ๐’—โƒ—โƒ—) är viktigare
โ€–๐’—
โƒ—โƒ—โ€–๐Ÿ
โƒ—โƒ—). Detta är logiskt med tanke på att projektionen på ๐’—
โƒ—โƒ— kommer att
än den vektor som faktiskt projiceras(här ๐’–
โƒ—โƒ— vilket stämmer överrens med illustrationen ovan.
ha samma riktning som ๐’—
VIKTIGT!
โƒ—โƒ— och ๐’–
โƒ—โƒ— enligt ๐’–
โƒ—โƒ— ∗ ๐’—
โƒ—โƒ— = (๐’–๐Ÿ ∗ ๐’—๐Ÿ ) + (๐’–๐Ÿ ∗ ๐’—๐Ÿ )
Det är skalärprodukt mellan ๐’—
Exempel:
−๐Ÿ•
๐Ÿ‘
โƒ—โƒ— = [ ๐Ÿ’ ] och ๐’—
โƒ—โƒ— = [ ๐Ÿ ] är givna, beräkna projektionen av ๐’—
โƒ—โƒ— på ๐’–
โƒ—โƒ—:
Vektorerna ๐’–
๐Ÿ
−๐Ÿ
โƒ—โƒ—∗๐’–
โƒ—โƒ—โƒ—
๐’—
โƒ—โƒ—) = (โ€–๐’– 2 ) ∗ ๐’–
โƒ—โƒ— =
๐’‘๐’“๐’๐’‹๐’–โƒ—โƒ—โƒ— (๐’—
โƒ—โƒ—โƒ—โ€–
๐Ÿ‘
−๐Ÿ•
[ ๐Ÿ ] ∗[ ๐Ÿ’ ]
−๐Ÿ
๐Ÿ
−๐Ÿ• ๐Ÿ
โ€–[ ๐Ÿ’ ] โ€–
( ๐Ÿ
)
−๐Ÿ•
๐Ÿ•
โƒ—โƒ—) = ( ) ∗ [ ๐Ÿ’ ]
Projektionen ๐’‘๐’“๐’๐’‹๐’–โƒ—โƒ—โƒ— (๐’—
๐Ÿ‘๐Ÿ‘
๐Ÿ
−๐Ÿ•
−๐Ÿ•
๐Ÿ•
∗[ ๐Ÿ’ ] =( )∗[ ๐Ÿ’ ]
๐Ÿ‘๐Ÿ‘
๐Ÿ
๐Ÿ
Matriser
Matriser är datahållare. De innehåller information som vi kommer att kunna manipulera på olika sett. Alla
matriser innehåller ett visst antal rader och kolonner. De används för att beskriva storleken på en matris och
för att ange positionen till ett element inom matrisen.
När man anger storleken på en matris skriver man alltid ANTALET RADER x ANTALET KOLONNER. Detta innebär
1 2 3
att matrisen [
] är ett exempel på en 2x3 matris. Om antalet rader motsvarar antalet kolloner så har
4 5 6
−1 4
man en kvadratisk matris: [
] är ett exempel på en kvadratisk 2x2 matris.
0 26
Matriser och transponering
Transponering innebär att raderna och kollonerna i en matris byter plats. Transponatet till matrisen A
๐Ÿ ๐Ÿ“
๐Ÿ ๐Ÿ‘ ๐Ÿ•
betecknas ๐‘จ๐‘‡ . Om ๐‘จ = [
] så kommer dess transponat att vara ๐‘จ๐‘ป = [๐Ÿ‘ ๐Ÿ] Om ๐‘จ = ๐‘จ๐‘ป kallas
๐Ÿ“ ๐Ÿ ๐Ÿ—
๐Ÿ• ๐Ÿ—
Addition och subtraktion av matriser
Att addera och subtrahera mellan matriser fungerar på ett väldigt ”självklart” sätt. Den enda förutsättningen är
att båda matriserna är av samma storlek i både antal rader och kolonner.
Om ๐‘จ = [
๐’‚๐Ÿ
๐’„๐Ÿ
๐’ƒ๐Ÿ
๐’‚
] och ๐‘ฉ = [ ๐Ÿ
๐’…๐Ÿ
๐’„๐Ÿ
๐’ƒ๐Ÿ
] så kommer additionen och subtraktionen se ut såhär:
๐’…๐Ÿ
๐’‚
๐‘จ+๐‘ฉ=[ ๐Ÿ
๐’„๐Ÿ
๐’ƒ๐Ÿ
๐’‚
]+[ ๐Ÿ
๐’…๐Ÿ
๐’„๐Ÿ
๐’ƒ๐Ÿ
๐’‚ + ๐’‚๐Ÿ
]=[ ๐Ÿ
๐’…๐Ÿ
๐’„๐Ÿ + ๐’„๐Ÿ
๐’ƒ๐Ÿ + ๐’ƒ๐Ÿ
]
๐’…๐Ÿ + ๐’…๐Ÿ
๐’‚
๐‘จ−๐‘ฉ=[ ๐Ÿ
๐’„๐Ÿ
๐’ƒ๐Ÿ
๐’‚
]−[ ๐Ÿ
๐’…๐Ÿ
๐’„๐Ÿ
๐’ƒ๐Ÿ
๐’‚ − ๐’‚๐Ÿ
]=[ ๐Ÿ
๐’…๐Ÿ
๐’„๐Ÿ − ๐’„๐Ÿ
๐’ƒ๐Ÿ − ๐’ƒ๐Ÿ
]
๐’…๐Ÿ − ๐’…๐Ÿ
Skalär multiplikation
För att multiplicera en skalär t med en matris ๐‘จ = [
๐’‚
๐’„
๐’ƒ
] så kommer resultatet bli att t multipliceras in i varje
๐’…
position i matrisen enligt:
๐’•∗๐‘จ=๐’•∗[
๐’‚ ๐’ƒ
๐’•๐’‚ ๐’•๐’ƒ
]=[
]
๐’„ ๐’…
๐’•๐’„ ๐’•๐’…
Viktigt!
Denna typ av multiplikation får inte misstas för skalärprodukten tidigare i texten, som är definierad enbart för
vektorer.
Matrismultiplikation
Denna typ av multiplikation skiljer sig från hur aritmatiken fungerat tidigare i all annan matematik. Det kan
betraktas så att varje rad i den första matrisen tas skalärt(Se skalärprodukt!) med varje kolonn i den andra
matrisen, vart resultatet hamnar motsvarar vilken rad och kollon som skalärprodukten utförs med.
๐‘ฅ1
[๐‘ฅ3
๐‘ฅ5
๐‘ฅ2
๐‘ฆ
๐‘ฅ4 ] ∗ [ 1
๐‘ฆ3
๐‘ฅ6
๐‘ฅ1 ๐‘ฆ1 + ๐‘ฅ2 ๐‘ฆ2
๐‘ฆ2
๐‘ฅ
๐‘ฆ + ๐‘ฅ4 ๐‘ฆ2
๐‘ฆ4 ] = [ 3 1
๐‘ฅ5 ๐‘ฆ1 + ๐‘ฅ6 ๐‘ฆ2
๐‘ฅ1 ๐‘ฆ3 + ๐‘ฅ2 ๐‘ฆ4
๐‘ฅ3 ๐‘ฆ3 + ๐‘ฅ4 ๐‘ฆ4 ]
๐‘ฅ5 ๐‘ฆ3 + ๐‘ฅ6 ๐‘ฆ4
Om vi har två matriser A och B, så är multiplikationen ๐‘จ ∗ ๐‘ฉ INTE densamma som ๐‘ฉ ∗ ๐‘จ, vilket tidigare
aritmatik i matten sagt är samma sak. Därför är de viktigt att hålla reda på vilken matris som är vilken när man
sysslar med matrismultiplikation.
För att multiplikationen av två matriser ska vara definierad måste den första matrisen ha lika många kolonner
som den andra matrisen har rader. Detta illusteras i bilden nedan.
Siffrorna i rött måste vara identiska för en definierad multiplikation, de blå kommer att bli den nya matrisens
dimensioner.
Gauss-Jordan elimination i matriser/ekvationssystem
Ekvationssystem
Ett område då matriser kommer till väldigt stor användning är när man ska lösa ekvationssystem. Säg att vi har
följande ekvationssystem:
{
2๐‘ฅ + 3๐‘ฆ = 5
4๐‘ฅ + 2๐‘ฆ = 9
Då kommer vi kunna skriva om det till matrisform såhär:
2๐‘ฅ + 3๐‘ฆ = 5
2
{
→[
4๐‘ฅ + 2๐‘ฆ = 9
4
3 |5
]
2 |9
Där varje ekvation blir sin egen rad, och ”är-lika-med” tecknet skrivs ut som ett rakt sträck, som separerar
vänster- och högerleden i ekvationerna.
Trappstegsmatris
Innan jag går igenom hur Gausselemination fungerar måste man förstå vad en trappstegsmatris är.
En trappstegsmatris är en matris där:
1.
2.
Alla rader som enbart består av nollor ligger under raderna som inte bara består av nollor
Pivotelementet på varje rad befinner sig till höger om pivotelementet på raden ovanför.
En rads pivotelement är det första av dess tal som är skilt från noll. I en trappstegsmatris vill man helst att
detta ska vara 1, eftersom de gör matrisen enklare att räkna med. Detta kallas för en ledande etta. Exempel på
en matris i trappstegsform(REF1).:
1
๐ด = [0
0
4
1
0
−1
3]
1
Gauss metod
Gausselimination är en effektiv metod för att lösa linjära ekvationssystem. Metoden är upplagd på ett sätt
som gör att man i varje steg eliminerar det oviktiga i ekvationssystemet, utan att förstöra det man redan
ordnat!
För att utföra en Gausselimination skriver man först upp det linjära ekvationssystemet som en matris. Målet är
att sedan ”förvandla” vänsterledet i matrisen till en trappstegsmatris. Detta kan man göra genom att utföra ett
eller flera av följande steg:
1.
2.
3.
Byta plats på 2 rader
Multiplicera en rad med ett tal(dock ej noll!)
Addera multipeln av en rad till en annan rad
Detta är nog den metod som jag använt mest i hela kursen, den tycks va i varenda jävla tal, oavsett vad det är
dom ber om så verkar jag använda denna metoden hela tiden. Man tex ut rank, nollrum, basvektorer,
dimension, bild, kollonrum och en hel del andra grejer!
1
Reduced Echelon Form
Exempel för att förstå hur det funkar:
3๐‘ฅ − 8๐‘ฆ + ๐‘ง = 22
{2๐‘ฅ − 3๐‘ฆ + 4๐‘ง = 20
๐‘ฅ − 2๐‘ฆ + ๐‘ง = 8
Låt oss säga att vi har de här ekvationssystemet. Vi skriver först ut alla koefficienterna till de olika variablerna i
en matris. Därefter skriver jag ut alla delsteg, varefter jag gör dom:
3
[2
1
−8
−3
−2
๐‘…1 ↔ ๐‘…3
1
1| 22
} → [2
4| 20] → {
1| 8
3
1
{
} → [0
๐‘…3 + 2๐‘…2
0
−2
1
0
1| 8
1
4 | 20 ] → {๐‘…2 − 2๐‘…1 } → [0
๐‘…3 − 3๐‘…1
1 | 22
0
−2
−3
−8
1|
2|
2|
8
1
4] → {
}
→
[
0
1
6
๐‘…3 ∗ ( )
0
2
−2
1
0
1 | 8
2 | 4] →
−2 | − 2
−2
1
−2
1|
2|
1|
8
4]
3
Nu är matrisen på trappstegsform. De räcker dock inte bara att få fram en trappstegsmatris för att få fram
lösningen till ekvationssystemet. För de måste man använda sig av Gauss-Jordan metoden!
Gauss-Jordans metod
När man reducerat sin matris till en trappstegsmatris kan man antingen skriva om ekvationen som ett linjärt
ekvationssystem och lösa de på de klassiska sättet, eller så kan man ta matrisreduktionen ett steg längre.
Denna metod är, enligt mig, att föredra för den underlättar allt!
När man använder Gauss-Jordan elimination fortsätter man med sin trappstegsmatris och gör så att alla
nummer ovanför de ledande ettorna också blir noll! Detta gör man på samma sätt som i Gauss metod, men
även på raderna man redan använt i tidigare steg ovan.
1
[0
0
−2
1
0
1|
2|
1|
8
๐‘…1 + 2๐‘…2
1
4] → {
} → [0
3
0
0
1
0
๐‘…1 − 5๐‘…3
1
5 | 16
2 | 4] → {๐‘…2 − 2๐‘…3 } → [0
0
1| 3
0
1
0
0| 1
0 | − 2]
1| 3
Om matrisen i reducerad trappstegsform(RREF2) inte är en identitetsmatris betyder de att ekvationssystemet
har mer än en lösning!
2
Reduced Row Echelon Form
Invers- och Identitetsmatrisen
För att gå igenom inversmatriser måste man förstå vad en identitetsmatris är. En identitetsmatris(även kallad
enhetsmatris) är en kvadratisk matris med ettor längs huvuddiagonalen och nollor i alla andra positioner.
1
๐ผ = [0
0
0
1
0
0
0]
1
Dessa har, enligt boken, beteckningen I.
Det speciella med en identitetsmatris är att om man multiplicerar en kvadratisk matris A med en
identitetsmatris I av samma ordning, så blir resultatet samma matris A. Vi har alltså ๐ด ∗ ๐ผ = ๐ด, att multiplicera
en matris med dess identitetsmatris är samma sak som att multiplicera med 1.
Inversmatrisen
En inversmatris fungerar på samma sätt för en matris som en invers fungerar för ett tal, och betecknas som
matrisen upphöjt till minus ett, ๐ด−1
Om matrisen, dess invers och identitetsmatrisen har samma rank gäller:
๐‘จ−๐Ÿ ∗ ๐‘จ = ๐‘จ ∗ ๐‘จ−๐Ÿ = ๐‘ฐ
Man säger att matrisen A då är inverterbar.
För att en matris A ska vara inverterbar måste den vara kvadratisk och dess determinant måste vara skilt från
noll. Innan man börjar räkna bör man därför först kolla om determinanten för matrisen är noll: ๐๐ž๐ญ(๐‘จ) = |๐‘จ| ≠
๐ŸŽ
För att beräkna inversmatriser använder man sig generellt sätt utav Gauss-Jordan elimination, där man lägger
till ett högerled till matrisen som är dess identitetsmatris. Man reducerar därefter som vanligt och försöker ”få
över högerledet till vänsterledet”.
2
๐ด = [0
0
2
[0
0
2
2
0
0| 1
0| 0
1| 0
0
1
0
0
0] →
1
2
2
0
0
0] ; ๐ต๐‘’๐‘ ๐‘กä๐‘š ๐ด−1
1
1
๐‘…1 − ๐‘…2 , ๐‘…1 ∗ ( )
1
2
1
→ [0
๐‘…2 ∗ ( )
0
2
{
}
0
1
0
0|1/2
0| 0
1| 0
−1/2
1/2
0
0
0]
1
För 2x2 matriser finns det dock en formel man kan använda sig utav:
๐’‚
๐‘จ=[
๐’„
๐Ÿ
๐’ƒ
๐’…
] → ๐‘จ−๐Ÿ =
∗[
๐’…
๐’…๐’†๐’•(๐‘จ) −๐’„
−๐’ƒ
] ; ๐’…๐’†๐’•(๐‘จ) ≠ ๐ŸŽ ๐’…๐’—๐’” ๐’‚๐’… − ๐’ƒ๐’„ ≠ ๐ŸŽ
๐’‚
Jag föredrar dock att alltid använda mig utav Gauss-Jordan metoden, för jag känner mig säker på den. De är bra
o veta att det finns fler alternativ dock.
Linjära Transformationer
I gymnasiematten lärde vi oss att hantera funktioner ๐‘ฆ = ๐‘“(๐‘ฅ) där x tillhör käll-mängden(domain på engelska,
kan liknas vid definitonsmängd) medan y tillhör målmängden(co-domain på engelska, kan liknas vid
värdemängd). Detta ger oss ett annat, mera abstrakt vis att beskriva vad en funktion faktiskt är: En funktion f är
något som tar värden x från en mängd och skapar dess representation y i målmängden. Funktioner har dock en
nackdel; de hanterar enbart skalärer.
โƒ—โƒ—) är motsvarigheten till funktioner ๐’‡(๐’™) i vektoralgebran då de enbart hanterar vektorer.
Transformationer ๐‘ป(๐’™
Transformationer finns, likt funktioner, i väldigt många olika slag. Men I denna kurs kommer vi bara hantera
linjära transformationer.
โƒ—โƒ— tillhör vår co-domain. A
โƒ—โƒ— = โƒ—๐’ƒโƒ— där ๐’™
โƒ—โƒ— tillhör vår domain och๐’ƒ
Ekvationen för den linjära transformationen är ๐‘จ๐’™
är transformatonsmatrisen som är den enda i linjära transformationer som påverkar ut-resultatet โƒ—๐’ƒโƒ—. Vi kan
โƒ—โƒ—.
därför påstå att โƒ—๐’ƒโƒ— är den transformationen av vektorn ๐’™
Transformationen T beskrivs dessutom med dimensionen av domänen och dimensionen av mål-domänen. Om
en transformation går från ๐‘น๐Ÿ‘ till ๐‘น๐Ÿ skrivs enligt: ๐‘ป โˆถ ๐‘น๐Ÿ‘ → ๐‘น๐Ÿ . Transformationsmatrisen A kommer vidare
definieras av transformationen av varje enskild basvektor. Om transformationens mål-domän är ๐‘น๐Ÿ‘ kommer A
vara beskriven enligt:
๐ด = [๐‘‡(๐‘’โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—)]
1 ๐‘‡(๐‘’
2 ๐‘‡(๐‘’
3
โƒ—โƒ—โƒ—โƒ—โƒ—),
Där ๐‘ป(๐’†
๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—),
โƒ—โƒ—โƒ—โƒ—โƒ—)
๐‘ป(๐’†
๐Ÿ ๐‘ป(๐’†
๐Ÿ‘ representerar respektive kollon i matrisen A.
Basvektorerna i ๐‘น๐Ÿ‘ motsvarar:
1
0
๐‘’1 = [0 ] โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—
๐‘’2 = [1]
0
0
0
๐‘’2 = [0]
โƒ—โƒ—โƒ—โƒ—
1
Dimensionen av domänen måste motsvara antalet transformationer av basvektorer. Detta ger att om domänen
โƒ—โƒ—โƒ—โƒ—โƒ—).
e beskriven i ๐‘น๐Ÿ‘ kommer en till basvektor โƒ—โƒ—โƒ—โƒ—โƒ—
๐ž๐Ÿ’ ge upphov till yttligare en kolumn ๐‘ป(๐’†
๐Ÿ’ Detta används vid
ekvationer som kräver uppställning av ett linjäritets-ekvationssystem.
Generellt så kommer det kunna uppstå 3 olika typer av uppgifter, beroende på vad som är givet i
transformationens ekvation.
โƒ—โƒ— = โƒ—๐’ƒโƒ—
๐‘จ๐’™
2.
โƒ—โƒ— givna, โƒ—๐’ƒโƒ— tillfrågas. Löses genom matrismultiplikation.
๐‘จ och ๐’™
โƒ—โƒ— tillfrågas. Löses genom Gauss elemination.
๐‘จ och โƒ—๐’ƒโƒ— givna, ๐’™
3.
โƒ—โƒ— och โƒ—๐’ƒโƒ— givna, ๐‘จ tillfrågas. Löses genom linjäritets-ekvationssystem.
๐’™
1.
Lösningarna för dessa olika fall kan enklast förklaras genom exempeluppgifterna nedan.
Viktigt
โƒ—โƒ— i ๐‘จ๐’™
โƒ—โƒ— = โƒ—๐’ƒโƒ—. Läs delen om Matriser ifall du glömt vad de innebär.
Det är matrismultiplikation mellan ๐‘จ och ๐’™
โƒ—โƒ—
โƒ—โƒ—. Tillfrågad vektor: ๐’ƒ
Uppgiftstyp 1 – Given transformationsmatris ๐‘จ och in-vektor ๐’™
๐Ÿ
โƒ—โƒ—) ges av transformationsmatrisen ๐‘จ = [
Transformationen ๐‘ป(๐’™
−๐Ÿ
−๐Ÿ
[๐Ÿ’]
−๐Ÿ”
๐Ÿ’
๐Ÿ‘
−๐Ÿ
โƒ—โƒ— =
]. Beräkna transformationen av ๐’—
๐Ÿ“
Lösning:
Vi har både transformationsmatrisen och vår in-vektor, vi använder därför matrismultiplikation för att beräkna
transformationen av vår vektor enligt:
๐Ÿ
โƒ—โƒ—) = ๐‘จ(๐’—
โƒ—โƒ—) = [
๐‘ป(๐’—
−๐Ÿ
๐Ÿ’
๐Ÿ‘
−๐Ÿ
−๐Ÿ + ๐Ÿ๐Ÿ” + ๐Ÿ๐Ÿ
−๐Ÿ
๐Ÿ๐Ÿ”
][ ๐Ÿ’ ] = [
]=[
]
๐Ÿ + ๐Ÿ๐Ÿ − ๐Ÿ‘๐Ÿ”
๐Ÿ“
−๐Ÿ๐Ÿ•
−๐Ÿ”
๐Ÿ๐Ÿ”
โƒ—โƒ—) = โƒ—๐’ƒโƒ— = [
Vi har alltså att ๐‘ป(๐’—
]
−๐Ÿ๐Ÿ•
โƒ—โƒ—
Uppgiftstyp 2 – Given transformationsmatris ๐‘จ och ut-vektor โƒ—๐’ƒโƒ—. Tillfrågad vektor: ๐’™
๐Ÿ
โƒ—โƒ—); ๐‘ป: ๐‘น๐Ÿ → ๐‘น๐Ÿ ges av transformationsmatrisen ๐‘จ = [
Transformationen ๐‘ป(๐’™
−๐Ÿ’
๐Ÿ
]
๐Ÿ
โƒ—โƒ— = [ ๐Ÿ’ ]
โƒ—โƒ— som efter transformationen blir ๐’ƒ
Beräkna den vektor ๐’—
−๐Ÿ”
Lösning:
โƒ—โƒ— där ๐’—
โƒ—โƒ—) = ๐‘จ(๐’—
โƒ—โƒ—) = ๐’ƒ
โƒ—โƒ— är den okända. Vi använder oss av Gausselemination för att lösa problemet
Vi har att ๐‘ป(๐’—
enligt:
๐Ÿ
โƒ—โƒ—) = โƒ—๐’ƒโƒ— ↔ [
๐‘จ(๐’—
−๐Ÿ’
[
1
−4
2| 4
1
]→{
}→[
๐‘…2 + 4๐‘…1
2|−6
0
๐Ÿ
๐Ÿ’
โƒ—โƒ— = [ ] →
]๐’—
๐Ÿ
−๐Ÿ”
๐‘… − (1⁄5)๐‘…2
2 | 4
1
]→{ 1
}→[
๐‘…2 ∗ (1⁄10)
10 | 10
0
2
๐‘ฃโƒ— = [ ]
1
0|
1|
2
๐‘ฃ =2
]→{ 1
→
๐‘ฃ2 = 1
1
โƒ—โƒ—. Tillfrågad transformationsmatrisen ๐‘จ.
โƒ—โƒ— och ut-vektor ๐’ƒ
Uppgiftstyp 3 – Given in-vektor ๐’™
Transformationsmatrisen ๐‘จ ges av transformationerna:
๐Ÿ‘
๐ŸŽ
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ − ๐Ÿ’๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ + ๐Ÿ‘๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ‘
๐‘ป (−๐Ÿ) = [−๐Ÿ’] ↔ −๐‘ป(๐’†
๐Ÿ + ๐‘ป(๐’†
๐Ÿ‘ = ๐Ÿ‘๐’†
๐Ÿ
๐Ÿ‘
๐Ÿ
๐Ÿ”
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ + โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ‘
๐‘ป (๐ŸŽ) = [๐Ÿ] ↔ ๐‘ป(๐’†
๐’†๐Ÿ + ๐Ÿ’๐’†
๐Ÿ + ๐‘ป(๐’†
๐Ÿ‘ = ๐Ÿ”๐’†
๐Ÿ
๐Ÿ’
๐Ÿ
๐Ÿ’
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ + ๐Ÿ๐Ÿ๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ + โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ป (๐Ÿ) = [๐Ÿ๐Ÿ] ↔ ๐‘ป(๐’†
๐’†๐Ÿ‘
๐Ÿ + ๐Ÿ๐‘ป(๐’†
๐Ÿ = ๐Ÿ’๐’†
๐ŸŽ
๐Ÿ
Vi lägger in detta i ekvationssystemet, gör om det till en matris och Gauss-eliminerar:
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ − ๐Ÿ’๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ + ๐Ÿ‘๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ‘
−๐‘ป(๐’†
๐Ÿ + ๐‘ป(๐’†
๐Ÿ‘ = ๐Ÿ‘๐’†
๐ŸŽ
{ ๐‘ป(๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
→
[
+
๐‘ป(๐’†
=
๐Ÿ”๐’†
+
๐’†
+
๐Ÿ’๐’†
๐Ÿ
๐Ÿ
๐Ÿ‘
๐Ÿ
๐Ÿ
๐Ÿ‘
๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ป(๐’†
+
๐Ÿ๐‘ป(๐’†
=
๐Ÿ’๐’†
+
๐Ÿ๐Ÿ๐’†
+
๐’†
๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ‘
๐ŸŽ
[๐Ÿ
๐Ÿ
−๐Ÿ
๐ŸŽ
๐Ÿ
๐Ÿ|๐Ÿ‘
๐Ÿ|๐Ÿ”
๐ŸŽ|๐Ÿ’
๐Ÿ
→ [๐ŸŽ
๐ŸŽ
๐‘น๐Ÿ ↔ ๐‘น๐Ÿ
−๐Ÿ’ ๐Ÿ‘
๐Ÿ
๐Ÿ ๐Ÿ’] → {
} → [๐ŸŽ
๐‘น๐Ÿ‘ − ๐‘น๐Ÿ
๐Ÿ๐Ÿ ๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ
๐Ÿ | ๐Ÿ”
−๐Ÿ| − ๐Ÿ‘
๐Ÿ | ๐Ÿ’
−๐Ÿ
๐ŸŽ
๐Ÿ
๐ŸŽ
๐Ÿ | ๐Ÿ”
−๐Ÿ ๐Ÿ | ๐Ÿ‘
๐Ÿ −๐Ÿ| − ๐Ÿ
๐Ÿ ๐Ÿ’
๐‘น๐Ÿ − ๐‘น๐Ÿ‘
๐Ÿ
๐Ÿ’ −๐Ÿ‘] → {๐‘น๐Ÿ + ๐‘น๐Ÿ‘ } → [๐ŸŽ
๐Ÿ ๐Ÿ‘
๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ
๐Ÿ|๐Ÿ‘ −๐Ÿ’ ๐Ÿ‘
๐Ÿ|๐Ÿ” ๐Ÿ ๐Ÿ’]
๐ŸŽ|๐Ÿ’ ๐Ÿ๐Ÿ ๐Ÿ
๐Ÿ
๐Ÿ’
−๐Ÿ’ ๐Ÿ‘ ] → {๐‘น๐Ÿ ∗ (−๐Ÿ)}
๐‘น๐Ÿ‘ + ๐Ÿ๐‘น๐Ÿ
๐Ÿ๐ŸŽ −๐Ÿ‘
๐ŸŽ|
๐ŸŽ|
๐Ÿ|
๐Ÿ −๐Ÿ
๐Ÿ ๐Ÿ”
๐Ÿ’ ๐Ÿ
๐Ÿ
๐ŸŽ]
๐Ÿ‘
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ − โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ป(๐’†
๐’†๐Ÿ + โƒ—โƒ—โƒ—โƒ—โƒ—
๐’†๐Ÿ‘
๐Ÿ = ๐Ÿ๐’†
๐Ÿ’
๐Ÿ
๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ
๐’†๐Ÿ + ๐Ÿ”๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
{ ๐‘ป(๐’†
→ ๐‘ป(๐’†
=
[
]
;
๐‘ป(๐’†
=
[
]
;
๐‘ป(๐’†
=
[
−๐Ÿ
๐Ÿ”
๐Ÿ]
๐Ÿ = โƒ—โƒ—โƒ—โƒ—โƒ—
๐Ÿ
๐Ÿ
๐Ÿ‘
๐Ÿ
๐ŸŽ
๐Ÿ‘
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ‘
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ + ๐Ÿ๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ + ๐Ÿ‘๐’†
๐‘ป(๐’†
๐Ÿ‘ = ๐Ÿ’๐’†
Detta ger transformationsmatrisen:
โ‹ฎ
โ‹ฎ
โ‹ฎ
๐Ÿ ๐Ÿ ๐Ÿ’
๐‘จ = [๐‘ป(๐’†
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
๐‘ป(๐’†
๐‘ป(๐’†
๐Ÿ
๐Ÿ
๐Ÿ‘ ] = [−๐Ÿ ๐Ÿ” ๐Ÿ]
โ‹ฎ
โ‹ฎ
โ‹ฎ
๐Ÿ ๐ŸŽ ๐Ÿ‘
Delrum, Bild och Kärna
I tidigare kurser fick vi bland annat lära oss två begrepp: Definitionsmängd och Värdemängd.
Definitionsmängden beskriver för vilka x som värdet på funktionen ๐’‡(๐’™) är definierat och kan därför beskrivas
t.ex. med ๐’‚ ≤ ๐’™ ≤ ๐’ƒ. Värdemängden motsvarar då det intervall som ett värde ๐’š = ๐’‡(๐’™) finns för funktionen,
dvs alla värden som funktionen kan anta, som kan beskrivas med ๐’„ ≤ ๐’š ≤ ๐’….
Syftet med inledningen är att förstå att båda dessa mängder, definitonsmängd och värdemängd, har varit
tallinjer hittils. I denna kurs kan mängderna vara allt från en punkt till en kub. (Teoretiskt kan mängderna vara
en högre dimension än en kub, men det är svårt att visualisera)
Delrum
Synonymer: Underrum, Subspace
Ett delrum kan liknas till en delmängd, förutom att delrum dessutom har tre kriterier till som måste uppfyllas:
1.
2.
โƒ—โƒ— är inom ๐‘พ så att ๐’‚
โƒ—โƒ— ∈ ๐‘พ, då måste
Skalärmultiplikation sluten: Om vektorn ๐’‚
โƒ—โƒ— {−∞ < ๐’• < ∞ också finnas inom ๐‘พ så att ๐’•๐’‚
โƒ—โƒ— ∈ ๐‘พ
๐’•๐’‚
โƒ—โƒ— och โƒ—๐’ƒโƒ— är inom ๐‘พ så att ๐’‚
โƒ—โƒ—, โƒ—๐’ƒโƒ— ∈ ๐‘พ så måste ๐’‚
โƒ—โƒ— + โƒ—๐’ƒโƒ— också vara
Vektoraddition sluten: Om vektorerna ๐’‚
โƒ—โƒ— + โƒ—๐’ƒโƒ— ∈ ๐‘พ
en vektor inom ๐‘พ så att ๐’‚
3.
Nollvektorn innehållen: Nollvektorn, eller origo, måste vara inom ๐‘พ, så att โƒ—๐ŸŽโƒ— ∈ ๐‘พ
Om alla kriterierna stämmer samtidigt så är delmängden av ๐‘พ också ett delrum. Delrum kan därför visualiseras
med hjälp av geometri(punkt, linje,plan,kub…) som spannets dimension bestämmer, där varje vektor går
oändligt i sin riktning. Av denna anledning är alla linjära funktioner som skär origo delrum då deras linjer inte är
ändliga samtidigt som de satisfierar den slutna vektoradditionen.Bild
Synonymer: Bildrum, Kolonnrum, Image, Columnspace
Kan liknas till värdemängd fast för transformationer
โƒ—โƒ—) = ๐‘จ๐’™
โƒ—โƒ— = โƒ—๐’ƒโƒ—. Då kan vi se att det enda som egentligen kan påverka
Tänk att vi har en linjär transformation ๐‘‡(๐’™
transformationen är transformationsmatrisen ๐‘จ. Det är därför rimligt att påstå att ๐‘จ är det enda som kan
โƒ—โƒ—)
påverka den bild(tänk värdemängd) som kommer uppstå av transformationen ๐‘‡(๐’™
Sambandet mellan transformationsmatrisen A och bilden är att kolumnvektorerna i A är det som utgör
spannet för bilden. Tänk sambandet såhär:
โƒ—โƒ— påverkas genom en transformation ๐‘‡ så att den transformeras till en ny vektor โƒ—๐’ƒโƒ—. Den nya vektorn
En vektor ๐’™
โƒ—๐’ƒโƒ— måste därför vara innehållen i bildens spann då โƒ—๐’ƒโƒ— kan ses som en av bildens vektorer(eller ett värde i
värdemängden). Detta kan illustreras som bilden på nästa sida:
โƒ—โƒ— som ligger i bilden(som är ett delrum till målโƒ—โƒ— i vår domän kommer det finnas ett värde ๐’ƒ
För varje värde på ๐’™
โƒ—โƒ— kan transformeras till genom transformationen ๐‘ป.
domänen) som ๐’™
Detta betyder alltså att det inte är möjligt att ta ett värde i domänen och transformera det och få ett värde
utanför bilden. Transformationsmatrisen ๐‘จ kommer inte göra det möjligt.
| | |
โƒ—โƒ—) = ๐‘จ๐’™
โƒ—โƒ— i en transformationsmatris ๐‘จ = [๐’–
Om vi då har transformationen ๐‘ป(๐’™
โƒ—โƒ— ๐’—
โƒ—โƒ— โƒ—๐’˜
โƒ—โƒ—โƒ—] så kommer bilden
| | |
โƒ—โƒ—, ๐’—
โƒ—โƒ—, โƒ—๐’˜
โƒ—โƒ—, ๐’—
โƒ—โƒ—, โƒ—๐’˜
๐‘ฐ๐’Ž(๐‘ป) att definieras av spannet vektorerna๐’”๐’‘๐’‚๐’{๐’–
โƒ—โƒ—โƒ—} så att ๐‘ฐ๐’Ž(๐‘ป) = ๐’”๐’‘๐’‚๐’{๐’–
โƒ—โƒ—โƒ—}. Detta kan tolkas
โƒ—โƒ—, ๐’—
โƒ—โƒ—, โƒ—๐’˜
som att kolumnvektorerna ๐’–
โƒ—โƒ—โƒ— spänner upp bilden.
Dvs, om alla tre är linjärt oberoende kommer spannet motsvara ๐‘น๐Ÿ‘ (eller en oändligt stor kub). Om två vektorer
är linjärt oberoende kommer det mot svara ๐‘น๐Ÿ (Ett oädligt stort papper). Bilden kan därför tolkas som alla
möjliga vektorer som transformationen kan ge upphov till.
Kärna
Synonymer: Kernel, Nollrum, Nullspace
โƒ—โƒ— där vi kräver att den vektor ๐’ƒ
โƒ—โƒ— som ๐’™
โƒ—โƒ—) = ๐‘จ๐’™
โƒ—โƒ— = ๐’ƒ
โƒ—โƒ— ska transformeras
Tänk att vi har en linjärtramsformation ๐‘‡(๐’™
โƒ—โƒ— = ๐ŸŽ
โƒ—โƒ—. Alla domän-vektorer ๐’™
โƒ—โƒ— = ๐’ƒ
โƒ—โƒ— kommer tillsammans bilda en
till måste vara nollvektorn, dvs ๐‘จ๐’™
delmängd(och även ett underrum) av den totala domänen och kommer kunna definieras av spannet som
uppstår av de vektorer som fås genom att beräkna RREF av transformationsmatrisen. Detta spann kallas
โƒ—โƒ—, ๐’—
โƒ—โƒ—, … } där ๐’–
โƒ—โƒ—, ๐’—
โƒ—โƒ— fås genom ๐‘น๐‘น๐‘ฌ๐‘ญ(๐‘จ).
kärnan och beskrivs enligt ๐’Œ๐’†๐’“(๐‘ป) = ๐’”๐’‘๐’‚๐’{๐’–
Till skillnad från bilden (som är ett delrum av mål-domänen) är kärnan ett delrum av domänen där alla vektorer
innanför detta delrum
kommer att
transformeras till
nollvektorn. Detta kan
illustreras på följande
vis:
Baser och basbyten
Baser
Standardbasen
En bas ges av ett antal oberoende vektorer tillsammans. Dessa vektorer är därmed basvektorer där varje
enskild vektor utgör en koordinataxel i koordinatsystemet. Den vanligaste basen är det kartesiska
koordinatsystemets bas som i ๐‘น๐Ÿ‘ ges av basvektorerna:
1
0
๐‘’1 = [0 ] โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—
๐‘’2 = [1]
0
0
0
๐‘’2 = [0]
โƒ—โƒ—โƒ—โƒ—
1
โƒ—โƒ—โƒ—โƒ—โƒ—,
Där basen(I detta fall kallat standardbasen) ges av ๐‘ฌ = {๐’†
๐’†๐Ÿ โƒ—โƒ—โƒ—โƒ—โƒ—}.
๐’†๐Ÿ‘ Standardbasens vektorer är dessutom
๐Ÿ โƒ—โƒ—โƒ—โƒ—โƒ—,
ortogonala mot varann och har längden 1.
Andra baser
Om en ny bas ska definieras måste de göras med linjärt oberoende vektorer, om till exempelvis
3 vektorer är givna varav 2 är beroende måste en av dessa strykas, därmed kan en sådan bas enbart ge upphov
till ett spann av dimension 2 . Annars kan de skapas med vilka vektorer som helst!
Koordinater för en vektor i en given bas
Om ๐‘ฉ = (๐’—๐Ÿ , ๐’—๐Ÿ , ๐’—๐Ÿ‘ , … ) är en bas för vektorrummet, eller underrummet, V då gäller följande:
Varje vektor โƒ—๐’˜
โƒ—โƒ—โƒ— i rummet V kan skrivas på exakt ett sätt, som en linjär kombination av ๐’—๐Ÿ , ๐’—๐Ÿ , ๐’—๐Ÿ‘ …
๐’˜ = ๐’™๐Ÿ ๐’— ๐Ÿ + ๐’™๐Ÿ ๐’— ๐Ÿ + ๐’™๐Ÿ‘ ๐’— ๐Ÿ‘ …
Vi kan också säga att hela vektorrummet V spänns upp av basvektorerna, som vi skriver:
๐’— = ๐’”๐’‘๐’‚๐’{๐’—๐Ÿ , ๐’—๐Ÿ , ๐’—๐Ÿ‘ , … }
๐’™๐Ÿ
Tal ๐’™๐Ÿ , ๐’™๐Ÿ , ๐’™๐Ÿ‘ … kallas för w:s koordinater i basen B och [ ๐’™๐Ÿ ] kallas koordinatvektor i basen B. Vi skriver [๐’˜]๐‘ฉ =
โ‹ฎ
๐’™๐Ÿ
[ ๐’™๐Ÿ ]
โ‹ฎ
Exempel:
Låt V vara rummet ๐‘น๐Ÿ‘ med standardbasen ๐‘ผ = (๐’Š, ๐’‹, ๐’Œ, … ). Bestäm koordinater för vektorn โƒ—๐’˜
โƒ—โƒ—โƒ— där
โƒ—โƒ—:
โƒ—๐’˜
โƒ—โƒ—โƒ— = ๐Ÿ๐’Šโƒ— − ๐Ÿ‘๐’‹โƒ— + ๐Ÿ“๐’Œ
๐Ÿ
[๐’˜]๐‘ผ = [−๐Ÿ‘]
๐Ÿ“
Basbyte
Basbyte med standardbas
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ , โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
För att skapa en basbytesmatris måste basvektorer vara givna. Säg att vi har basen ๐‘ฉ = {๐‘ฉ
๐‘ฉ๐Ÿ } , då kommer
basbytesmatrisen P att gå från B till standardbasen enligt:
๐‘ท๐‘ฉ→๐‘ฌ
|
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ
= [๐‘ฉ
|
|
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ฉ๐Ÿ ]
|
För att förstå varför riktningen är specifikt ๐‘ฉ → ๐‘ฌ och inte tvärt om är det viktigt att betrakta det allmänna
fallet, då basbytet görs oberoende av standardbasen.
Basbyte med allmän bas
Varför matrisen P ovan har riktningen ๐‘ฉ → ๐‘ฌ beror på att vektorerna โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ฉ๐Ÿ , โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ฉ๐Ÿ är definierade i standardbasen.
Detta beror på att en vektor inte kan existera utan att vara definierad utifrån ett koordinatsystem på samma
โƒ—โƒ— skrivs utan
sätt som att en punkt inte kan ritas in utan att veta var koordinataxlarna finns. När en vektor ๐’™
โƒ—
โƒ—
utskriven bas antas det vara i standardbasen. Säg att ๐’™ hade varit definierad i bas B, då hade det istället skrivits
[๐’™
โƒ—โƒ—]๐‘ฉ . Detta gäller även basvektorer som ska användas för att definiera andra baser. Därför gäller:
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ , ๐‘ฉ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ } = {[๐‘ฉ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ ] , [๐‘ฉ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ ] }
โƒ—โƒ— = [๐’™
โƒ—โƒ—]๐‘ฌ ; ๐‘ฉ = {๐‘ฉ
๐’™
๐’—
๐‘ฌ
Med detta kan vi nu skriva om basbytet till det mera allmänna fallet då vi har basen
๐‘ฉ = {[โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ฉ๐Ÿ]๐’— , [โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ฉ๐Ÿ]๐’— } som har sina basvektorer angivna i en annan bas v än standardbasen där
basbytesmatrisen nu blir ๐‘ท med riktningen ๐‘ฉ → ๐’— enligt:
๐‘ท๐‘ฉ→๐’—
|
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ ]
= [[๐‘ฉ
๐’—
|
|
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ ] ]
[๐‘ฉ
๐’—
|
Det som definierar riktningen hos en basbytesmatris är med andra ord vilken bas kolumnvektorerna är
definierade i. โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ฉ๐Ÿ , โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘ฉ๐Ÿ må utgöra en egen bas, men de måste vara definierade i en annan bas som i detta fall är v
.
Om man tänker sig att man har [๐’˜
โƒ—โƒ—โƒ—โƒ—]๐’— och söker [๐’˜
โƒ—โƒ—โƒ—โƒ—]๐‘ฉ när man har ๐‘ท๐‘ฉ→๐’— kommer ekvationen ställas upp
๐‘ท๐‘ฉ→๐’— [๐’˜
โƒ—โƒ—โƒ—โƒ—]๐‘ฉ = [๐’˜
โƒ—โƒ—โƒ—โƒ—]๐’— som i detta fall kommer lösas genom gauss elemination eller genom att hitta en
inversmatris till ๐‘ท๐‘ฉ→๐’— som har motsatt riktning.
Basbyten och linjära transformationer
Precis på samma sätt som vektorer måste vara definerade med hänsyn till en bas måste även linjära
โƒ—โƒ—) som transformerar vektorn ๐’—
โƒ—โƒ— till
transformationer det. Detta innebär att den linjära transformationen ๐‘ป(๐’™
โƒ—โƒ—) bara kan verka i standardbasen då transformationen använder matrisen A enligt ๐‘ป(๐’™
โƒ—โƒ—) = ๐‘จ๐’™
โƒ—โƒ— .
๐‘ป(๐’—
För att kunna transformera vektorer i andra baser kommer andra basbytesmatriser krävas! Transformationen
beräknas precis som vanligt förutom att en annan transformationsmatris D, som gäller för basen B, används
โƒ—โƒ—)]๐‘ฉ = ๐‘ซ[๐’—
โƒ—โƒ—]๐‘ฉ
enligt: [๐‘ป(๐’—
Genom att kombinera basbyten med linjära transformationer kan det illustreras som en karta med de olika
vägarna man kan använda för att ta sig mellan transformationer med olika baser. Detta ger oss att om en given
โƒ—โƒ— med efterfrågan av transformationsvektorn ๐‘ป(๐’™
โƒ—โƒ—) kan beräkningen fortfarande utföras även om inte
vektor ๐’™
transformationsmatrisen A är given.
โƒ—โƒ—
Detta går genom: ๐’™
โƒ—โƒ—]๐‘ฉ → [๐‘ป(๐’™
โƒ—โƒ—)]๐‘ฉ → ๐‘ป(๐’™
โƒ—โƒ—) .
→ [๐’™
Detta ger dessutom att både transformationsmatrisen A och D kan skrivas som en produkt av de andra
matriserna:
๐ด = ๐‘ƒ๐ท๐‘ƒ −1
๐ท = ๐‘ƒ−1 ๐ด๐‘ƒ
Dessa formler gås igenom lite tydligare under Diagonaliserings kapitlet
Viktigt
Studera kartan noga och notera att läsordningen i matrisekvationerna ovan är den motsatta från den som ges
från kartan nedan. Detta beror på att när ytterligare matriser multipliceras måste de läggas till längst till
vänster i varje led.
Vad är en determinant?
Alla kvadratiska matriser har en s.k. determinant: ett tal som tillordnas martrisen enligt vissa regler.
Determinanten motsvarar förstoringsfaktorn av en linjär avbildning(mer om de sen), och kan användas för att
få fram lösningen till linjära ekvationssystem, räkna ut en area eller en volym m.m!
Detemrinanten till en matris A betecknas |๐‘จ| eller ๐๐ž๐ญ(๐‘จ).
2x2 matriser
För matriser som har storleken 2x2 är det väldigt enkelt att räkna ut determinanten:
๐‘จ=[
๐’‚
๐’„
๐’ƒ
] → |๐‘จ| = ๐’‚๐’… − ๐’ƒ๐’„
๐’…
Exempel:
๐Ÿ“
Vi har matrisen ๐‘จ = [
๐Ÿ
๐Ÿ
] Vad är dess determinant?
๐Ÿ’
|๐‘จ| = ๐Ÿ“ ∗ ๐Ÿ’ − ๐Ÿ ∗ ๐Ÿ = ๐Ÿ๐Ÿ–
Genom att utveckla efter en rad eller en kolonn
För att räkna ut determinanten till en 3x3 matris (eller större) kan man dela upp den i flera 2x2 matriser, räkna
ut determinanten för varje ”mindre” matris och sedan addera dem med varandra, där varannan term blir
negativ.
๐’‚
๐‘จ = [๐’…
๐’ˆ
๐’ƒ
๐’†
๐’‰
๐’„
๐’‡] → |๐‘จ| = ๐’‚ ∗ | ๐’†
๐’‰
๐’Š
๐’…
๐’‡
|−๐’ƒ∗|
๐’ˆ
๐’Š
๐’‡
๐’…
|+๐’„∗|
๐’ˆ
๐’Š
๐’†
|
๐’‰
För att beräkna determinanten kan vi använda en av följande metoder:
1.
Utveckling efter rad nummer i
๐‘จ = (−๐Ÿ)๐’Š+๐Ÿ ๐’‚๐’Š๐Ÿ ๐‘จ๐’Š๐Ÿ + (−๐Ÿ)๐’Š+๐Ÿ ๐’‚๐’Š๐Ÿ ๐‘จ๐’Š๐Ÿ + (−๐Ÿ)๐’Š+๐Ÿ‘ ๐’‚๐’Š๐Ÿ‘ ๐‘จ๐’Š๐Ÿ‘
2.
Utveckling efter kolonnummer k
๐‘จ = (−๐Ÿ)๐Ÿ+๐’Œ ๐’‚๐Ÿ๐’Œ ๐‘จ๐Ÿ๐’Œ + (−๐Ÿ)๐Ÿ+๐’Œ ๐’‚๐Ÿ๐’Œ ๐‘จ๐Ÿ๐’Œ + (−๐Ÿ)๐Ÿ‘+๐’Œ ๐’‚๐Ÿ‘๐’Œ ๐‘จ๐Ÿ‘๐’Œ
Det finns ett tredje sätt att lösa dom, som jag kommer gå igenom på nästa sida. Lite egenskaper hos
determinanter:
Värdet av en determinant ändras inte om raderna görs till kolonner och vice versa, dvs
๐๐ž๐ญ(๐‘จ๐‘ป ) = ๐๐ž๐ญ(๐‘จ)
Om alla element i en rad/kolonn är 0 så är determinantens värde 0.
Om en determinant har två lika rader/kolonner så är determinantens värde 0.
Om en determinant har två proportionella rader/kolonner så är determinantens värde 0.
Tredje metoden: genom Gausselemination
Ett annat, ofta enklare, sätt att beräkna determinanten till matriser som är större än 2x2 är att använda sig av
Gausselimination.
Här utnyttjar man det faktum att om man kan reducera matrisen till en trappstegsmatris så är determinanten
lika med produkten av talen längs matrisens huvuddiagonal (från övre vänstra hörnet till det nedre högra).
När man Gausseliminerar för att hitta determinanten finns det dock särskilda regler som gäller:
1.
2.
3.
Du får inte längre dela en rad med konstant som vanligt (bara lägga till en multipel av en rad på en
annan)! Man kan dock fortfarande göra detta genom att ”bryta ut” en siffra ur raden, kanske för att
underlätta radoperationerna, vilket då placeras framför matrisen som en konstant som man sedan
måste multiplicera in när man löser ut determinanten.
Varje gång du byter plats på 2 närliggande rader så byter determinanten tecken (här gäller det alltså
att ha koll på hur många såna byten man har gjort).
Målet är inte att göra om huvuddiagonalens tal till ettor (vilket man annars brukar göra när man
Gausseliminerar), utan det viktiga här är bara att det finns nollor under huvuddiagonalen!
Exempel:
๐Ÿ
๐Ÿ“
๐Ÿ
๐Ÿ
๐Ÿ
} → [๐ŸŽ
๐Ÿ•] → {
๐Ÿ‘
๐Ÿ•] → { ๐‘น๐Ÿ‘ ↔ ๐‘น๐Ÿ } → (−๐Ÿ๐Ÿ)(−๐Ÿ) [๐ŸŽ
๐‘น๐Ÿ‘ − ๐Ÿ๐‘น๐Ÿ
๐‘น๐Ÿ‘ ∗ (−๐Ÿ⁄๐Ÿ๐Ÿ)
๐Ÿ’
๐ŸŽ −๐Ÿ๐Ÿ ๐ŸŽ
๐ŸŽ
๐Ÿ ๐Ÿ“ ๐Ÿ
→{
} → (๐Ÿ๐Ÿ) [๐ŸŽ ๐Ÿ ๐ŸŽ] → ๐๐ž๐ญ(๐‘จ) = (๐Ÿ๐Ÿ)(๐Ÿ)(๐Ÿ)(๐Ÿ•) = ๐Ÿ•๐Ÿ•
๐‘น๐Ÿ‘ − ๐Ÿ‘๐‘น๐Ÿ
๐ŸŽ ๐ŸŽ ๐Ÿ•
๐Ÿ
๐‘จ = [๐ŸŽ
๐Ÿ
๐Ÿ“
๐Ÿ‘
−๐Ÿ
๐Ÿ‘
๐‘จ = [๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ‘
๐Ÿ
๐Ÿ‘
๐Ÿ‘
๐ŸŽ
๐ŸŽ
๐Ÿ’
๐ŸŽ
๐‘น๐Ÿ ∗ (๐Ÿ⁄๐Ÿ‘)
๐Ÿ ๐Ÿ ๐ŸŽ ๐ŸŽ
๐Ÿ ๐Ÿ
๐ŸŽ
๐‘น๐Ÿ − ๐‘น๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ] → {
๐ŸŽ
๐ŸŽ
} → (๐Ÿ‘) [
]→{
} → (๐Ÿ‘) [๐ŸŽ ๐Ÿ
๐Ÿ ๐Ÿ‘ ๐Ÿ’ ๐Ÿ“
๐ŸŽ ๐Ÿ
๐Ÿ“
๐‘น๐Ÿ‘ − ๐Ÿ๐‘น๐Ÿ
๐ŸŽ ๐Ÿ
๐Ÿ‘
๐Ÿ ๐Ÿ‘ ๐ŸŽ ๐Ÿ‘
๐‘น๐Ÿ’ − ๐Ÿ๐‘น๐Ÿ
๐Ÿ ๐Ÿ ๐ŸŽ ๐ŸŽ
๐‘น − ๐‘น๐Ÿ
→{ ๐Ÿ
} → (๐Ÿ‘) [๐ŸŽ ๐Ÿ ๐ŸŽ ๐ŸŽ] → ๐๐ž๐ญ(๐‘จ) = (๐Ÿ‘)(๐Ÿ)(๐Ÿ)(๐Ÿ’)(๐Ÿ‘) = ๐Ÿ‘๐Ÿ”
๐ŸŽ ๐ŸŽ ๐Ÿ’ ๐Ÿ“
๐‘น ๐Ÿ‘ − ๐‘น๐Ÿ
๐ŸŽ ๐ŸŽ ๐ŸŽ ๐Ÿ‘
๐‘น ๐Ÿ’ − ๐‘น๐Ÿ
๐Ÿ“
๐Ÿ
๐Ÿ‘
๐Ÿ
๐ŸŽ]
๐Ÿ•
๐ŸŽ
๐ŸŽ
๐Ÿ’
๐ŸŽ
๐ŸŽ
๐ŸŽ]
๐Ÿ“
๐Ÿ‘
Minsta-kvadratmetoden
Minsta-kvadratmetoden används för ekvationssystem som är inkonsistenta(inte har någon lösning), som t.ex.
när du inte kan radreducera en matris så att den ”går ut”.
๐‘ฅ+๐‘ฆ =1
−๐‘ฅ
+ 2๐‘ฆ = 4 som består av tre linjer som inte har någon gemensam punkt:
Ta ekvationsystemet {
๐‘ฅ−๐‘ฆ =0
Det finns alltså ingen exakt lösning här. Men däremot kan vi beräkna den närmaste lösningen, d.v.s. punkten
som är närmast de tre linjernas skärningspunkter genom minsta-kvadrat metoden!
๐‘จ๐‘ป ๐‘จ๐’™ = ๐‘จ๐‘ป ๐’ƒ
Vi börjar med att skriva upp ekvationssystemet i matrisform:
๐Ÿ
[−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ ๐’™
๐Ÿ ] (๐’š) = [๐Ÿ’]
−๐Ÿ
๐ŸŽ
Vi kallar matrisen till vänster för A och vektorn till höger för b. Därefter beräknar vi produkten av matrisen A
och dess transponat:
๐Ÿ
๐‘จ๐‘ป ๐‘จ = [
๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
] [−๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ+๐Ÿ+๐Ÿ
๐Ÿ ]=[
๐Ÿ + ๐Ÿ ∗ (−๐Ÿ) − ๐Ÿ
−๐Ÿ
๐Ÿ−๐Ÿ∗๐Ÿ−๐Ÿ
๐Ÿ‘
]=[
๐Ÿ+๐Ÿ∗๐Ÿ+๐Ÿ
−๐Ÿ
Därefter beräknar vi produkten av A’s transponat och b.
๐Ÿ
๐‘จ๐‘ป ๐’ƒ = [
๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ−๐Ÿ’+๐ŸŽ
๐Ÿ
−๐Ÿ‘
] [๐Ÿ’] = [
]=[ ]
๐Ÿ+๐Ÿ–+๐ŸŽ
−๐Ÿ
๐Ÿ—
๐ŸŽ
Nu beräknar vi ekvationssystemet ๐‘จ๐‘ป ๐‘จ๐’™ = ๐‘จ๐‘ป ๐’ƒ, vilket i matrisform motsvarar:
[
๐Ÿ‘
−๐Ÿ
−๐Ÿ ๐’™
−๐Ÿ‘
]( ) = [ ]
๐Ÿ” ๐’š
๐Ÿ—
Därefter löser vi det genom att sätta upp en matris med vänster- och högerled utefter ovan:
[
๐Ÿ‘
−๐Ÿ
−๐Ÿ| − ๐Ÿ‘
๐Ÿ
] →. . . → [
๐Ÿ” | ๐Ÿ—
๐ŸŽ
๐ŸŽ| ๐ŸŽ
]
๐Ÿ|๐Ÿ‘/๐Ÿ
3
Nu är de klart! Den närmaste lösningen till ekvationssystemet är alltså(๐‘ฅ, ๐‘ฆ) = (0, ( ))
2
−๐Ÿ
]
๐Ÿ”
Egenvärde och Egenvektor
I linjära avbildningar finns det ibland vektorer som varken ändrar riktning eller vinkel utan bara blir längre eller
kortare.
Låt oss tänka att T är en linjär avbildning med kvadratiska matrisen A. Om en vektor uppfyller
โƒ—โƒ— = ๐€๐’—
โƒ—โƒ— där ๐€ är en konstant, betyder det att ๐€ är ett egenvärde till matrisen, och att ๐’—
โƒ—โƒ— är en egenvektor till
๐‘จ๐’—
matrisen som hör till egenvärdet. Notera att egenvektorn måste vara nollskild. Nollvektorn godkänns alltså
INTE som egenvektor till NÅGON avbildning. Däremot kan 0 vara ett egenvärde till matrisen.
โƒ—โƒ— med faktorn ๐€.
Med andra ord betyder det alltså att matrisen A bara dragit ut vektorn ๐’—
De enda vektorerna som inte ändrar riktning är de som är helt horisontella(t.ex. gubbens armar) och de som är
helt vertikala(t.ex. gubbens kropp)
För att hitta alla egenvärden till en avbildningsmatris A löser man den karaktäristiska ekvationen:
๐๐ž๐ญ(๐‘จ − ๐€๐‘ฐ) = ๐ŸŽ
De värden som uppfyller ekvationen är då egenvärdena. Nedan är ett exempel:
๐Ÿ
Hitta alla egenvärden till matrisen ๐‘จ = [๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
−๐Ÿ
−๐Ÿ
−๐Ÿ]
−๐Ÿ
Vi applicerar formeln ovan. Det första vi vill veta är alltså vad ๐‘จ − ๐€๐‘ฐ blir:
๐Ÿ
๐‘จ − ๐€๐‘ฐ = [๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
−๐Ÿ
−๐Ÿ
๐€
−๐Ÿ] − [๐ŸŽ
−๐Ÿ
๐ŸŽ
๐ŸŽ
๐€
๐ŸŽ
๐ŸŽ
๐Ÿ−๐€
๐ŸŽ] = [ ๐Ÿ
๐€
๐Ÿ
๐Ÿ
−๐€
−๐Ÿ
−๐Ÿ
−๐Ÿ ]
−๐Ÿ − ๐€
Vi ska nu räkna ut determinanten till den här matrisen. I det här fallet blir det svårt att använda
Gausseliminering pga ๐€ variabeln, vi använder därför oss av utveckling efter kollon/rad.
๐’…๐’†๐’•(๐‘จ − ๐€๐‘ฐ) = (๐Ÿ − ๐€) |
−๐€
−๐Ÿ
๐Ÿ
−๐Ÿ
|−|
๐Ÿ
−๐Ÿ − ๐€
−๐Ÿ
๐Ÿ
|−|
−๐Ÿ − ๐€
๐Ÿ
−๐€
|=
−๐Ÿ
= (๐Ÿ − ๐€) ((−๐€)(−๐Ÿ − ๐€) − ((−๐Ÿ)(−๐Ÿ))) − (๐Ÿ(−๐Ÿ − ๐€) − (−๐Ÿ) − (๐Ÿ(−๐Ÿ) − (−๐€))) =
= (๐Ÿ − ๐€)(๐€ + ๐€๐Ÿ − ๐Ÿ) − (−๐Ÿ๐€) − (−๐Ÿ + ๐€) = ๐€ + ๐€๐Ÿ − ๐Ÿ − ๐€๐Ÿ − ๐€๐Ÿ‘ + ๐Ÿ๐€ + ๐Ÿ๐€ + ๐Ÿ − ๐€ =
= −๐€๐Ÿ‘ + ๐Ÿ’๐€ = ๐€(−๐€๐Ÿ + ๐Ÿ’) → ๐’…๐’†๐’•(๐‘จ − ๐€๐‘ฐ) = ๐€(−๐€๐Ÿ + ๐Ÿ’)
Egenvärdena på matrisen är då ๐’…๐’†๐’•(๐‘จ − ๐€๐‘ฐ) = ๐ŸŽ → ๐€(−๐€๐Ÿ + ๐Ÿ’) = ๐ŸŽ → ๐€๐Ÿ = ๐ŸŽ, ๐€๐Ÿ = ๐Ÿ, ๐€๐Ÿ‘ = −๐Ÿ
Svar: Matrisens egenvärden är alltså ๐€ = {๐ŸŽ, ๐Ÿ, −๐Ÿ}
För att hitta alla egenvektorer till en matris A måste man först hitta alla dess egenvärden och sedan lösa
följande karaktäristiska ekvation genom att ersätta ๐€ med de olika egenvärdena:
(๐‘จ − ๐€๐‘ฐ)๐’—
โƒ—โƒ— = โƒ—๐ŸŽโƒ—
โƒ—โƒ— som uppfyller ekvationen är då egenvektorerna!
De värdena på ๐’—
Fortsättning på förra exemplet:
Hitta även alla matrisens egenvektorer.
Vi börjar med att stoppa in alla de egenvärdena vi hittade i ekvationen
๐Ÿ−๐€ ๐Ÿ
−๐Ÿ
๐‘จ − ๐€๐‘ฐ = [ ๐Ÿ
−๐€
−๐Ÿ ]
๐Ÿ
−๐Ÿ −๐Ÿ − ๐€
๐Ÿ
๐€ = ๐ŸŽ → ๐‘จ − ๐ŸŽ๐‘ฐ = [๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
−๐Ÿ
−๐Ÿ
−๐Ÿ] I de här fallet blir matrisen oförändrad.
−๐Ÿ
För att hitta vilken vektor matrisen ska multipliceras med för att ge en nollvektor använder vi oss av
Gausseliminering. Jag tänker, för att spara utrymme, skippa alla steg och bara skriva svaret av RREF:
๐Ÿ
๐’“๐’“๐’†๐’‡ ([๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
−๐Ÿ
๐Ÿ
−๐Ÿ
−๐Ÿ] ) = [๐ŸŽ
−๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ
๐’™
−๐Ÿ
๐Ÿ
๐’™=๐’›
๐’™−๐’› =๐ŸŽ
๐ŸŽ ] → { ๐’š = ๐ŸŽ ↔ {๐’š = ๐ŸŽ → [๐’š] = ๐’• [๐ŸŽ]
๐’›
๐ŸŽ
๐Ÿ
Därefter gör vi samma sak med dom andra två egenvärdena.
−๐Ÿ
๐€ = ๐Ÿ → ๐‘จ − ๐Ÿ๐‘ฐ = [ ๐Ÿ
๐Ÿ
−๐Ÿ
๐’“๐’“๐’†๐’‡ ([ ๐Ÿ
๐Ÿ
๐Ÿ
−๐Ÿ
−๐Ÿ
−๐Ÿ
๐Ÿ
−๐Ÿ]) = [๐ŸŽ
−๐Ÿ‘
๐ŸŽ
−๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ
๐Ÿ
−๐Ÿ
๐Ÿ
−๐Ÿ
−๐Ÿ]) = [๐ŸŽ
๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ
−๐Ÿ
−๐Ÿ]
−๐Ÿ‘
๐’™
๐ŸŽ
๐Ÿ
๐’™=๐’š
๐’™−๐’š= ๐ŸŽ
๐’š
]
→
{
↔
{
→
[
]
=
๐’•
[
๐Ÿ
๐Ÿ]
๐’š=๐ŸŽ
๐’›=๐ŸŽ
๐’›
๐ŸŽ
๐ŸŽ
๐Ÿ‘
๐€ = ๐Ÿ → ๐‘จ − ๐Ÿ๐‘ฐ = [๐Ÿ
๐Ÿ
๐Ÿ‘
๐’“๐’“๐’†๐’‡ ([๐Ÿ
๐Ÿ
๐Ÿ
−๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
−๐Ÿ
−๐Ÿ
−๐Ÿ]
๐Ÿ
๐’™
๐ŸŽ
๐ŸŽ
๐’™=๐ŸŽ
๐’™=๐ŸŽ
−๐Ÿ] → {๐’š − ๐’› = ๐ŸŽ ↔ { ๐’š = ๐’› → [๐’š] = ๐’• [๐Ÿ]
๐’›
๐ŸŽ
๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
Till sist har vi äntligen fått fram våra egenvektorer: ๐’• [๐ŸŽ] , ๐’• [๐Ÿ] , ๐’• [๐Ÿ]
๐Ÿ
๐ŸŽ
๐Ÿ
Diagonalisering av en matris
Låt A vara en kvadratisk matris av typen n x n. Matrisen A är diagonaliserbar om det finns en inverterbar
matris P och en diagonalmatris D så att :
๐‘ซ = ๐‘ท−๐Ÿ ๐‘จ๐‘ท (∗)
Ofta vill man använda sambandet ๐‘จ = ๐‘ท๐‘ซ๐‘ท−๐Ÿ som fås ur (*) genom att lösa ut A. Med ”diagonalisera en
matris (om möjligt)” menar examinatorerna att skriva, om möjligt, matrisen A på formen ๐‘จ = ๐‘ท๐‘ซ๐‘ท−๐Ÿ ,
Där P är en avbildningsmatris, ๐‘ท−๐Ÿ dess invers och D är en diagonalmatris(en matris som bara har nollor
utanför huvuddiagonalen)
För att hitta P och D använder man matrisen A:s egenvärden och egenvektorer.
๏‚ท
D är en diagonalmatris med A:s egenvärden längs huvuddiagonalen.
๐€๐Ÿ
๐‘ซ =[๐ŸŽ
๐ŸŽ
๏‚ท
๐ŸŽ
๐€๐Ÿ
๐ŸŽ
P är en matris med A:s egenvektorer längs dess kolonner
โ‹ฎ
๐‘ท = [โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ
โ‹ฎ
๏‚ท
๐ŸŽ
๐ŸŽ]
๐€๐Ÿ‘
โ‹ฎ
โ‹ฎ
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ ๐’—
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ‘ ]
๐’—
โ‹ฎ
โ‹ฎ
๐‘ท−๐Ÿ är P:s inversmatris och kan räknas ut med valfri metod
Tänker fortsätta på föregående kapitels exempel för att illustrera hur de går till:
๐Ÿ
Diagonalisera matrisen ๐‘จ = [๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
−๐Ÿ
−๐Ÿ
−๐Ÿ]
−๐Ÿ
Vi vill skriva A under formen ๐‘ท๐‘ซ๐‘ท−๐Ÿ . I förra kapitlet beräknade vi matrisens egenvärden, {๐ŸŽ, ๐Ÿ, −๐Ÿ}, och
๐Ÿ
๐Ÿ
๐ŸŽ
egenvektorer, ๐’• [๐ŸŽ] , ๐’• [๐Ÿ] , ๐’• [๐Ÿ]
๐Ÿ
๐ŸŽ
๐Ÿ
Vi räknar nu ut D genom att sätta in egenvärdena längs diagonalen, P genom att sätta in egenvektorer längs
kolumnerna och slutligen ๐‘ท−๐Ÿ genom Gausselimination.
๐ŸŽ
๐‘ซ = [๐ŸŽ
๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ ] ; ๐‘ท = [๐ŸŽ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ ๐Ÿ
๐Ÿ] ; ๐‘ท−๐Ÿ = [ ๐Ÿ
๐Ÿ
๐Ÿ
−๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
−๐Ÿ]
๐Ÿ
Nu har vi våra tre matriser och kan därför diagonalisera A enligt formeln ovan:
๐‘จ=
๐Ÿ ๐Ÿ
[๐ŸŽ
๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
๐ŸŽ ๐ŸŽ
๐Ÿ] [๐ŸŽ
๐Ÿ ๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ
๐ŸŽ ][ ๐Ÿ
−๐Ÿ −๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
−๐Ÿ]
๐Ÿ
Glöm inte att man måste gå från vänster när man löser dessa, dvs första matrisen gånger den andra, och
resultatet av den gånger den tredje!
Matrispotenser
Vad använder man då diagonalisering till? Jo, om man har en matris A som man diagonaliserar kan man enkelt
räkna ut dess potenser(๐‘จ๐Ÿ , ๐‘จ๐Ÿ‘ , ๐‘จ๐Ÿ’ … ) genom formeln:
๐‘จ๐’ = ๐‘ท๐‘ซ๐’ ๐‘ท−๐Ÿ
Uträkningen av D:s potenser är väldigt enkelt eftersom det är en diagonalmatris! Det räcker därför att räkna ut
potensen av talen längs dess huvuddiagonal(och slippa jobbiga matrismultiplikationer!)
Återigen fortsätter jag på föregående exemplet:
Använda A:s dagonalisering för att räkna ut ๐‘จ๐Ÿ .
Vi använder matrisen som vi fick fram i förra exemplet och sätter potensen på diagonalmatrisen:
๐Ÿ
๐Ÿ −๐Ÿ ๐Ÿ
๐ŸŽ
๐ŸŽ
๐Ÿ ๐Ÿ ๐Ÿ ๐ŸŽ ๐ŸŽ
[๐ŸŽ ๐Ÿ ๐Ÿ] [ ๐ŸŽ ๐Ÿ๐Ÿ
๐Ÿ −๐Ÿ] =
๐ŸŽ ][ ๐Ÿ
๐Ÿ
๐Ÿ ๐ŸŽ ๐Ÿ ๐ŸŽ ๐ŸŽ −๐Ÿ๐Ÿ −๐Ÿ ๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
๐ŸŽ
๐ŸŽ
๐ŸŽ
๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
= ๐‘จ๐Ÿ = [๐ŸŽ ๐Ÿ ๐Ÿ] [๐ŸŽ ๐Ÿ’ ๐ŸŽ] [ ๐Ÿ
๐Ÿ −๐Ÿ]
๐Ÿ
๐Ÿ ๐ŸŽ ๐Ÿ ๐ŸŽ ๐ŸŽ ๐Ÿ’ −๐Ÿ ๐Ÿ
๐Ÿ
๐‘จ๐Ÿ =
Nu återstår bara att multiplicera matriserna för att få fram ๐‘จ๐Ÿ !
๐‘จ๐Ÿ =
๐Ÿ ๐Ÿ∗๐ŸŽ+๐Ÿ∗๐ŸŽ+๐ŸŽ∗๐ŸŽ
[๐ŸŽ ∗ ๐ŸŽ + ๐Ÿ ∗ ๐ŸŽ + ๐Ÿ ∗ ๐ŸŽ
๐Ÿ
๐Ÿ∗๐ŸŽ+๐ŸŽ∗๐ŸŽ+๐Ÿ∗๐ŸŽ
๐Ÿ ๐Ÿ
[๐ŸŽ
๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
๐ŸŽ
๐ŸŽ ๐ŸŽ
๐Ÿ] [ ๐ŸŽ
๐Ÿ ๐ŸŽ
๐ŸŽ
๐Ÿ’
๐ŸŽ
๐ŸŽ ๐Ÿ
๐ŸŽ] [ ๐Ÿ
๐Ÿ’ −๐Ÿ
๐Ÿ∗๐ŸŽ+๐Ÿ∗๐Ÿ’+๐ŸŽ∗๐ŸŽ
๐ŸŽ∗๐ŸŽ+๐Ÿ∗๐Ÿ’+๐Ÿ∗๐ŸŽ
๐Ÿ∗๐ŸŽ+๐ŸŽ∗๐Ÿ’+๐Ÿ∗๐ŸŽ
๐Ÿ ๐ŸŽ
[๐ŸŽ
๐Ÿ
๐ŸŽ
๐Ÿ’
๐Ÿ’
๐ŸŽ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ∗๐ŸŽ+๐Ÿ∗๐ŸŽ+๐ŸŽ∗๐Ÿ’ ๐Ÿ
๐ŸŽ ∗ ๐ŸŽ + ๐Ÿ ∗ ๐ŸŽ + ๐Ÿ ∗ ๐Ÿ’] [ ๐Ÿ
๐Ÿ ∗ ๐ŸŽ + ๐ŸŽ ∗ ๐ŸŽ + ๐Ÿ ∗ ๐Ÿ’ −๐Ÿ
๐ŸŽ ๐Ÿ
๐Ÿ’] [ ๐Ÿ
๐Ÿ’ −๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ ๐Ÿ’
[๐ŸŽ
๐Ÿ
−๐Ÿ’
๐Ÿ’
๐Ÿ–
๐Ÿ’
−๐Ÿ’
๐Ÿ
๐ŸŽ ]=[ ๐ŸŽ
๐Ÿ’
−๐Ÿ
๐Ÿ
๐‘จ๐Ÿ = [ ๐ŸŽ
−๐Ÿ
๐Ÿ
๐Ÿ’
๐Ÿ
−๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
−๐Ÿ] =
๐Ÿ
๐Ÿ
−๐Ÿ] =
๐Ÿ
(−๐Ÿ) ๐ŸŽ ∗ (−๐Ÿ) + ๐Ÿ’ ∗ ๐Ÿ + ๐ŸŽ ∗ ๐Ÿ
๐Ÿ ๐ŸŽ∗๐Ÿ+๐Ÿ’∗๐Ÿ+๐ŸŽ∗
= [๐ŸŽ ∗ ๐Ÿ + ๐Ÿ’ ∗ ๐Ÿ + ๐Ÿ’ ∗ (−๐Ÿ) ๐ŸŽ ∗ (−๐Ÿ) + ๐Ÿ’ ∗ ๐Ÿ + ๐Ÿ’ ∗ ๐Ÿ
๐Ÿ
๐ŸŽ ∗ ๐Ÿ + ๐ŸŽ ∗ ๐Ÿ + ๐Ÿ’ ∗ (−๐Ÿ) ๐ŸŽ ∗ (−๐Ÿ) + ๐ŸŽ ∗ ๐Ÿ + ๐Ÿ’ ∗ ๐Ÿ
=
๐Ÿ
−๐Ÿ] =
๐Ÿ
๐Ÿ
๐Ÿ’
๐Ÿ
๐ŸŽ ∗ ๐Ÿ + ๐Ÿ’ ∗ (−๐Ÿ) + ๐ŸŽ ∗ ๐Ÿ
๐ŸŽ ∗ ๐Ÿ + ๐Ÿ’ ∗ (−๐Ÿ) + ๐Ÿ’ ∗ ๐Ÿ] =
๐ŸŽ ∗ ๐Ÿ + ๐ŸŽ ∗ (−๐Ÿ) + ๐Ÿ’ ∗ ๐Ÿ
−๐Ÿ
๐ŸŽ]
๐Ÿ
−๐Ÿ
๐ŸŽ]
๐Ÿ
Detta innebär också att man kan räkna ut rötter på en matris, då √๐‘จ = ๐‘จ
๐Ÿ⁄
๐Ÿ
Gram-Schmidt ortogonalisering och ON-baser
Gram-Schmidt otrogonalisering är metoden för att transformera en godtycklig bas till en ON-bas(Ortogonal &
Normaliserad bas) som har samma spann som den föregående basen. Denna metod använder sig av ortogonal
projektion och är därför ett förkunskapskrav för att förstå de nedanför. Ifall du glömt, kolla igenom kapitlena
om projektion ovan.
Gram-Schmidt ortogonalisering
โƒ—โƒ—โƒ—โƒ—โƒ—,
Antag att vi har en godtycklig bas ๐‘ฉ = {๐’—
๐’—๐Ÿ โƒ—โƒ—โƒ—โƒ—โƒ—}
๐’—๐Ÿ‘ som vi vill ortogonal- och normalisera genom Gram-Schmidt
๐Ÿ โƒ—โƒ—โƒ—โƒ—โƒ—,
โƒ—โƒ—โƒ—โƒ—โƒ—,
โƒ—โƒ—โƒ—โƒ—โƒ—,
โƒ—โƒ—โƒ—โƒ—โƒ—}.
metoden till basen ๐œธ = {๐’–
๐’–
๐’–
๐Ÿ
๐Ÿ
๐Ÿ‘
Ortogonala basen:
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ = โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—)
๐’–๐Ÿ = โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ − ๐’‘๐’“๐’๐’‹โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ −
๐’–๐Ÿ (๐’—
๐Ÿ = โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ ∗ โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ
๐Ÿ
โ€–๐’–
โƒ—โƒ—โƒ—โƒ—โƒ—โ€–
๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—)
โƒ—โƒ—โƒ—โƒ—โƒ—)
๐’–๐Ÿ‘ = โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ‘ − ๐’‘๐’“๐’๐’‹โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ‘ −
๐’–๐Ÿ (๐’—
๐Ÿ‘ − ๐’‘๐’“๐’๐’‹โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ (๐’—
๐Ÿ‘ = โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ‘ ∗ โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ
๐’—๐Ÿ‘ ∗ โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–
−
๐’–๐Ÿ
๐Ÿ
๐Ÿ
๐Ÿ
โ€–๐’–
โ€–๐’–
โƒ—โƒ—โƒ—โƒ—โƒ—โ€–
โƒ—โƒ—โƒ—โƒ—โƒ—โ€–
๐Ÿ
๐Ÿ
Detta har givit oss en ortogonal bas, men vi kan också bes om dess ortonormerade bas som ges utav att vi
delar varje basvektor med dess norm(längd).
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’‡๐Ÿ =
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ
,
โ€–๐’–
โƒ—โƒ—โƒ—โƒ—โƒ—โ€–
๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’‡๐Ÿ =
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ
,
โ€–๐’–
โƒ—โƒ—โƒ—โƒ—โƒ—โ€–
๐Ÿ
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’‡๐Ÿ‘ =
โƒ—โƒ—โƒ—โƒ—โƒ—
๐’–๐Ÿ‘
โ€–๐’–
โƒ—โƒ—โƒ—โƒ—โƒ—โ€–
๐Ÿ‘
Checklista/Begreppsamling
Vektor
Synonym: Kordinatvektor
En vektor beskrivs av en riktning (och en längd), inte en position som en punkt gör. An denna anledning kan
vektorer förflyttas så de inte är bundna vid en position. Vektorer skrivs med gemener(små bokstäver) med en
๐’‚
โƒ—โƒ— = [ ]
pil över enligt: ๐’—
๐’ƒ
Skalär
Alla reella tal är skalärer, detta vill säga, skalärer är det som finns på den reella tallinjen. Skalärer skrivs med
gemener, det vill säga små bokstäver ๐’‚ = ๐Ÿ‘:
Norm
Synonym: Längd av vektor, Magnitud
Vektorer kan vara olika långa men forfarande ha samma riktning. Normen av en vektor är inte absolutbeloppet
๐‘Ž
av en vektor. Normen ges av: โ€–๐‘ฃโƒ—โ€– = โ€– โ€– = √๐‘Ž2 + ๐‘ 2
๐‘
Matris
En matris kan betraktas som en datahållare, något som håller information. Syftet med att ha matriser är att de
är enkla att manipulera för att ge svar på olika problem. Matriser beskrivs genom antalet rader och kolonner
den har och namn med versaler, det vill säga, stora bokstäver. Följande matris är en 2x3 matris: ๐‘จ =
๐’‚ ๐’ƒ ๐’„
[
]
๐’… ๐’† ๐’‡
Dimension
Synonym: dim()
Alla vektorrum har en dimension de är bundna vid. Detta motsvarar det lägsta antalet vektorer som krävs för
att beskriva rummet. En vektor kommer rummet motsvara en linje. Två motsvarar ett plan och tre ett kubiskt
rum.
Rang
Synonym: dim(Im()), dimensionen av bilden
Rangen av en matris är antalet oberoende kolumnvektorer som finns i matrisen eller antalet ledande ettor
efter gauss elemination. I själva verket är rangen av en matris dimensionen av bilden som den matrisen ger
upphov till vid transformation.
Projektion, perpendikulär & reflektion
Projektionen av en vektor på en annan vektor kan informellt tolkas som skuggan av den första vektorn på en
โƒ—โƒ— på ๐’—
โƒ—โƒ— kommer projektionen ges av:
andra. Om vi vill projicera ๐’–
โƒ—โƒ— ∗ ๐’—
โƒ—โƒ—
๐’–
โƒ—โƒ—) = (
โƒ—โƒ—
๐’‘๐’“๐’๐’‹๐’—โƒ—โƒ— (๐’–
)๐’—
โ€–๐’—
โƒ—โƒ—โ€–2
Den perpendikulära vektorn kommer att motsvara avståndsvektorn från skuggan, i normalens riktning, tills den
โƒ—โƒ—. Detta kommer ges av:
når den första vektorn, i detta fall ๐’–
โƒ—โƒ—) = ๐’–
โƒ—โƒ— − ๐’‘๐’“๐’๐’‹๐’—โƒ—โƒ— (๐’–
โƒ—โƒ—) = ๐’–
โƒ—โƒ— − (
๐’‘๐’†๐’“๐’‘๐’—โƒ—โƒ— (๐’–
โƒ—โƒ— ∗ ๐’—
โƒ—โƒ—
๐’–
โƒ—โƒ—
)๐’—
โ€–๐’—
โƒ—โƒ—โ€–2
โƒ—โƒ— på ๐’—
โƒ—โƒ— beräknas. Vektor ๐’—
โƒ—โƒ— kan i detta fall betraktas som en spegel för
Avslutningsvis kan även reflektionen av ๐’–
de resterande vektorerna. Reflektionen ges av:
โƒ—โƒ— ∗ ๐’—
โƒ—โƒ—
๐’–
โƒ—โƒ—) = ๐Ÿ๐’‘๐’“๐’๐’‹๐’—โƒ—โƒ— (๐’–
โƒ—โƒ—) − ๐’–
โƒ—โƒ— = ๐Ÿ (
โƒ—โƒ— − ๐’–
โƒ—โƒ—
๐’“๐’†๐’‡๐’—โƒ—โƒ— (๐’–
)๐’—
โ€–๐’—
โƒ—โƒ—โ€–2
Linjär transformation
Synonym: Linjär avbildning
Transformation kan betraktas som motsvarigheten till skalärfunktioner ๐’‡(๐’™) fast för vektorer genom att utföra
โƒ—โƒ—) av vektor โƒ—๐’—โƒ— genom transformationsmatrisen A då ๐‘ป(๐’—
โƒ—โƒ—) = ๐‘จ๐’—
โƒ—โƒ— . Resultatet kommer att
transformationen ๐‘ป(๐’—
โƒ—โƒ— som är en transformation av ๐’—
โƒ—โƒ— . Detta ger att hela transformationen
โƒ—โƒ— enligt ๐‘ป(๐’—
โƒ—โƒ—) = ๐‘จ๐’—
โƒ—โƒ— = ๐’ƒ
ge en ny vektor ๐’ƒ
enbart definieras av matrisen A som då även definierar bilden och kärnan.
Bild
Synonym: Image, kolonnrum, Im()
Bilden för given transformation kam betraktas som transformationens värdemängd där värdemängden inte är
definierad i ett intervall på en tallinje utan istället kan vara i form av talplan eller talrum, av denna anledning
måste bilden definieras av ett spann av vektorer. Bilden ges även av spannet hos kolumnvektorerna i
transformationsmatrisen.
Kärna
Synonym: Kernel, Nollrum, Nullspace, Ker()
Kärnan för en transformation är en mängd där alla vektorer innanför mängden kommer efter transformation
โƒ—โƒ— tillhör kärnan, då måste ๐‘ป(๐’‚
โƒ—โƒ—) = โƒ—๐ŸŽโƒ— enligt definition. Kärnan ges
alltid att transformeras till nollvektor. Säg att ๐’‚
därför genom att radreduktion samt lösning av systemet som transformationsmatrisen innehåller.
Underrum
Synonym: Delrum
För att en delmängd ska vara ett delrum måste tre kriterier uppfyllas samtidigt:
1.
2.
โƒ—โƒ— måste vara innehållen i delmängden.
Nollvektorn ๐ŸŽ
Den resulterande vektorn från additionen av två vektorer som båda innehålls i delmängden måste
fortfarande vara innehållen a
Span
โƒ—โƒ—, ๐’—
โƒ—โƒ—} med ๐’”๐’‘๐’‚๐’{๐’–
โƒ—โƒ—, ๐’—
โƒ—โƒ—} är att i det förstnämnda sker referensen specifikt till ๐’–
โƒ—โƒ— och ๐’—
โƒ—โƒ—, inga andra
Det som skiljer {๐’–
โƒ—โƒ—, ๐’—
โƒ—โƒ—} refererar till ๐’–
โƒ—โƒ— ∗ ๐’—
โƒ—โƒ— och alla linjära kombinationer som de ger upphov till. Det kan
vektorer, medan ๐’”๐’‘๐’‚๐’{๐’–
โƒ—โƒ—, ๐’—
โƒ—โƒ—} = ๐’•๐’–
โƒ—โƒ— + ๐’”๐’—
โƒ—โƒ— där t och s är reella tal. Av denna
därför vara passande (men något informellt) att ๐’”๐’‘๐’‚๐’{๐’–
}
{
} används för att beskriva baser
anledning används alltid ๐’”๐’‘๐’‚๐’{
för att beskriva underrum medan
Bas
En bas är i själva verket ett kordinatsystem där kordinataxlarna är vektorerna som utgör basen. Den vanligaste
basen ges av det kartesiska koordinatsystemet som har enhetsvektorerna:
1
0
0
๐‘’1 = [0 ] โƒ—โƒ—โƒ—โƒ—
โƒ—โƒ—โƒ—โƒ—
๐‘’2 = [1] โƒ—โƒ—โƒ—โƒ—
๐‘’2 = [0]
0
0
1
Det går att skapa nya baser och gå mellan dessa baser genom ett basbyte. Ett kriterium för baser är att alla
dess vektorer måste vara linjärt oberoende. En bas kan även vara ortogonal och ortonormal. För en ortogonal
bas gäller att alla basens vektorer är vinkelräta mot varann. För en ortonormal bas gäller dessutom att de är
normaliserade, det vill säga, har längden 1.
Basbyte
Att utföra ett basbyte innebär att beskriva en given vektor i en annan bas. Detta görs med basbytesmatriser där
kolumnerna i matrisen är vektorerna som utgör basen. Viktigt är att notera från vilken till vilken bas
basbytesmatrisen går. Basbyten är den svårare delen av kursen Linjär Algebra, för vidare förståelse se lektionen
Basbyte.
Determinant
Beräkning av determinanten ger information kring huruvida kolumnerna i matrisen är linjärt beroende. Detta
kan utnyttjas för att se om ett system har en enskild lösning eller ingen/oändligt med lösningar. Om ๐๐ž๐ญ(๐‘จ) ≠
๐ŸŽ har A en enskild lösning och går därmed att invertera.
Om ๐๐ž ๐ญ(๐‘จ) = ๐ŸŽ har A oändligt/ingen lösning och kan därför inte ha en inversmatris.
Area av parallelogram och triangel
Arean av ett parallellogram kan beräknas på olika sätt, en för ๐‘น๐Ÿ och en för ๐‘น๐Ÿ‘ :
I ๐‘น๐Ÿ ges arean av absolutbeloppet(en area kan inte vara negativ) av en determinant med två av
paralellogrammets vektorer som utgår från samma hörn i determinatens rader:
๐‘จ๐’“๐’†๐’‚ = ๐’‚๐’ƒ๐’” (|
−
−
โƒ—โƒ—
๐’‚
โƒ—๐’ƒโƒ—
−
|)
−
I ๐‘น๐Ÿ‘ ges arean genom att ta normen av kryssprodukten av två vektorer som går från samma hörn i
paralellogrammet kan man få arean enligt:
โƒ—โƒ— × โƒ—๐’ƒโƒ—โ€–
๐‘จ๐’“๐’†๐’‚ = โ€–๐’‚
Volym av parallelepiped
I ๐‘น๐Ÿ‘ ges volymen av en parallelepiped av absolutbeloppet en determinant med tre av paralellogrammets
vektorer som utgår från samma hörn i determinatens rader enligt:
− โƒ—๐’‚โƒ— −
โƒ—โƒ— −|)
๐‘จ๐’“๐’†๐’‚ = ๐’‚๐’ƒ๐’” (|− ๐’ƒ
โƒ—โƒ— −
− ๐’„
Egenvärde & Egenvektorer
โƒ—โƒ— då har vi transformationen
Om vi har en given linjär transformation T för en given vektor ๐’—
โƒ—โƒ—. Om även den resulterande vektorn ๐’ƒ
โƒ—โƒ— är en multipel av vektorn som transformationen verkar
โƒ—โƒ—) = ๐‘จ๐’—
โƒ—โƒ— = ๐’ƒ
๐‘ป(๐’—
โƒ—โƒ— enligt ๐‘ป(๐’—
โƒ—โƒ—) = ๐‘จ๐’—
โƒ—โƒ— = ๐€๐’—
โƒ—โƒ— där ๐€ är en skalär. Då gäller att ๐€ är ett egenvärde till egenvektorn ๐’—
โƒ—โƒ—.
på ๐’—
Detta innebär att egenvektorer efter transformationen kommer enbart att förändras i längd, inte i riktning.
Egenvärdena för en transformationsmatris A ges av ekvationen:
๐๐ž๐ญ(๐‘จ − ๐€๐‘ฐ) = ๐ŸŽ
där I är identitetsmatrisen. Egenvektorerna ges av:
(๐‘จ − ๐€๐‘ฐ)๐’—
โƒ—โƒ— = โƒ—๐ŸŽโƒ—
som kräver att egenvärdena redan är givna och appliceras en gång per egenvärde.
Algebraisk multiplicitet & Geometrisk multiplicitet
Vid beräkning av egenvärden och lösning av karaktäristisk ekvation kan det uppstå dubbelrötter, till exempel:
๐€1 = 3
{๐€2 = 4 , där det är dubbelrot då ๐€ = ๐Ÿ‘. Då gäller att egenvärdet ๐€ = ๐Ÿ‘ har den algebraiska multipliciteten 2
๐€3 = 3
medan ๐€ = ๐Ÿ’ har den 1 algebraiska multipliciteten .
Den geometriska multipliciteten definieras av antalet vektorer som varje enskilt egenvärde ger upphov till och
motsvarar dimensionen på egenrummet.
Egenrum
Egenrummet spänns upp av egenvektorer med samma egenvärde och ger upphov till ett spann där allt som
innehålls av det spannet också är egenvektorer med samma egenvärde. Detta innebär att det kan finnas flera
egenrum för en linjär transformation, en för varje egenvärde.
Diagonalisering
Att diagonalisera en matris innebär att ta reda på matrisens motsvarande diagonalmatris D genom att ta reda
på matrisens egenvärden och egenvektorer. När detta är gjort är det bara att skapa diagonal- och
basbytesmatrisen P enligt:
โ‹ฎ
๐‘ท = [โƒ—โƒ—โƒ—โƒ—โƒ—
๐’—๐Ÿ
โ‹ฎ
โ‹ฎ
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ
๐’—
โ‹ฎ
โ‹ฎ
โƒ—โƒ—โƒ—โƒ—โƒ—๐Ÿ‘ ] ,
๐’—
โ‹ฎ
๐€๐Ÿ
๐‘ซ = [๐ŸŽ
๐ŸŽ
๐ŸŽ
๐€๐Ÿ
๐ŸŽ
๐ŸŽ
๐ŸŽ]
๐€๐Ÿ‘
Där ๐€๐Ÿ , ๐€๐Ÿ , ๐€๐Ÿ‘ är egenvärden och โƒ—โƒ—โƒ—โƒ—โƒ—
๐€๐Ÿ , โƒ—โƒ—โƒ—โƒ—โƒ—
๐€๐Ÿ , โƒ—โƒ—โƒ—โƒ—โƒ—
๐€๐Ÿ‘ är motsvarande egenvektorer.
Gram-Schmidt ortogonalisering
Detta är en metod för att ta fram ortogonala vektorer genom att utgå från icke-ortogonala. Det används främst
för att skapa ortogonala och ortonormala baser när man utgår från vanliga baser. För vidare läsning, se
lektionen Grahm-Schmidt ortogonalisering