Skalärprodukt norm ortogonalitet Fil

Om skalärprodukt, norm och ortogonalitet
1. Norm, ortogonal projektion på vektor och Cauchy-Schwarz olikhet.
Vi påminner oss från räkning med vanliga (geometriska) vektorer i planet eller rummet att
|u|2 = (u, u). I vår abstrakta situation med en skalärprodukt p
i ett vektorrum är ju (u, u)
ett rellt tal ≥ 0. Vi kan därför göra följande definition ||u|| = (u, u). Vi kallar detta för
normen för u. Observera att vi skriver med dubbla lodräta streck för att skilja detta från
längd. Det finns dock likheter mellan norm och längd, som vi strax skall se. Observera att
||0|| = 0 men ||u|| > 0 om u 6= 0.
Vi visar först
Sats 1. Låt c ∈ C och låt u vara en vektor. Då är ||cu|| = |c| · ||u||.
Bevis. Vi får ||cu||2 = (cu, cu) = cc(u, u) = |c|2 · ||u||2 och resultatet följer av detta.
Detta överensstämmer med vad vi är vana vid från geometrin. Multipliceras en vektor
i rummet med ett tal c erhålles en parallell vektor, som är |c| gånger så lång. I den
abstrakta teorin så ligger vektorn i ett godtyckligt inre-produktrum (vektorrum försett
med skalärprodukt) och dessutom behöver inte c vara reellt. Många resultat blir dock
lättare att minnas om de illustreras med en geometrisk figur, men vi måste vara medvetna
om att det kan ha sina begränsningar. Men även Pythagoras’ sats har en motsvarighet:
Sats 2. Om a och b är ortogonala så gäller ||a + b||2 = ||a||2 + ||b||2 .
Bevis. Det är bara att räkna på: ||a + b||2 = (a + b, a + b) = (a, a) + (b, b) + (a, b) + (b, a) =
||a||2 + ||b||2 ty (a, b) = (b, a) = 0.
Visuellt tänker vi på a, b och a + b som sidorna i en rätvinklig triangel. Det kan vara
intressant att observera att satsens omvändning inte är sann. ||a + b||2 = ||a||2 + ||b||2
gäller så snart (a, b) + (b, a) = 0 d.v.s. då Re (a, b) = 0.
En följd av Pythagoras’ sats är att hypotenusan a + b i en “rätvinklig triangel” a, b, a + b
har norm större än eller lika med normen för “kateterna”, a och b. Likhet kan bara inträffa
om a eller b är 0.
Låt nu u och v vara två vektorer och antag att v 6= 0. Vi söker en ortogonal projektion av
u på v och med det menar vi en vektor uv som uppfyller följande två kriterier
(i) uv är ”parallell” med v, d.v.s. uv = cv för något tal c ∈ C.
(ii) u − uv är ortogonal mot v, d.v.s. (v, u − uv ) = 0.
Rita en figur för att illustrera begreppet!
Sätter vi in uv = cv i ekvationen (v, u − uv ) = 0 får vi villkoret (v, u) − c(v, v) = 0 som ger
c = (v,u)
(v,v) . Vi har alltså
Sats 3. Den ortogonala projektionen uv av u på v existerar och är entydigt bestämd,
nämligen
1
uv =
Speciellt är ||uv || =
(v, u)
·v
(v, v)
|(v,u)|
||v|||
Påståendet om norm följer av Sats 1: ||uv || = (v,u)
(v,v) · ||v|| =
|(v,u)|
||v||2
· ||v|| =
|(v,u)|
||v|||
Speciellt enkelt är detta om v = e är en enhetsvektor, d.v.s. ||e|| = 1. Då är ortogonala
projektionen av u på e vektorn (e, u) · e. Du visar lätt att ue = u om och endast om u = ce
för något c ∈ C. I annat fall är u − ue 6= 0 och ortogonal mot e.
Lägg också märke till att uv = uv0 för varje v 0 som är parallell med v, d.v.s. för varje v 0 = cv,
c 6= 0. Istället för projektion på vektor kan vi tala om projektion på ett-dimensionellt
delrum. I nästa avsnitt utvidgar vi begreppet till projektion på ändligt-dimensionellt
delrum.
Om nu uv är ortogonala projektionen av u på v, så är uv , u − uv , u sidorna i en rätvinklig
triangel med hypotenusa u. Alltså är ||u|| ≥ ||uv || som ger ||u|| ≥ |(v,u)|
||v|| och sedan
|(u, v)| ≤ ||u||||v||. Den sista olikheten gäller förstås också om v = 0 så vi har följande sats.
Sats 4. (Cauchy-Schwarz olikhet) För godtyckliga vektorer u och v gäller |(u, v)| ≤ ||u||||v||
med likhet om och endast om u och v är parallella.
Vi kan använda Cauchy-Schwarz olikhet till att visa
Sats 5 (Triangelolikheten) För godtyckliga vektorer u och v gäller ||u + v|| ≤ ||u|| + ||v||
Bevis. Kvadrerar vi båda leden och förenklar finner vi att olikheten är ekvivalent med
(u, v) + (v, u) ≤ 2||u||||v|| eller med andra ord Re (u, v) ≤ ||u||||v||, vilket följer av CauchySchwarz eftersom Re (u, v) ≤ |(u, v)|.
2. Ortogonal projektion på delrum och ortogonalt komplement.
Låt nu V vara ett vektorrum och W ett delrum av V . Antag att vi i W har en ortonormerad
bas e1 , e2 , . . . , em . Låt u vara en vektor i V och låt oss analogt med ovan söka en ortogonal
projektion av u på delrummet W och med det avse en vektor uW som uppfyller villkoren
(i) uW ∈ W
(ii) u − uW är ortogonal mot alla vektorer i W .
Mängden av vektorer {v ∈ V ; (w, v) = 0 för alla w ∈ W } kallas det ortogonala komplementet till W och betecknas W ⊥ . Du visar lätt att W ⊥ är ett delrum av V och att
W ∩ W ⊥ = {0}. Du visar också lätt att om en vektor är ortogonal mot alla vektorer i en
generatoruppsättning för W så är denna vektor ortogonal mot alla vektorer i W .
Villkor (ii) kan vi nu uttrycka så att u − uW ∈ W ⊥ och detta är alltså ekvivalent med
att (ej , u − uW ) = 0 för j = 1, 2, . . . m. Villkor (i) innebär att det finns komplexa tal c1 ,
m
P
c2 , . . . , cm sådana att uW =
ci ei . Kombinerar vi villkoren får vi
i=1
2
(ej , u −
m
X
ci e i ) = 0
för j = 1, 2, . . . , m
i=1
vilket omedelbart ger (ej , u) − cj = 0 och alltså cj = (ej , u). Vi har visat följande sats.
Sats 6. Låt W vara ett ändligt dimensionellt delrum av vektorrummet V . Låt e1 , e2 , . . . ,
em vara en ortonormerad bas för W och låt u ∈ V . Då har u en entydigt bestämd ortogonal
projektion i W , nämligen
uW =
m
X
(ej , u)ej
j=1
Speciellt kunde man naturligtvis tänka sig att W = V och då sammanfaller u med sin
projektion. Koordinaterna för u i en ortonormerad bas e1 , e2 , . . . , en är (ej , u), något som
vi väl sett förut.
3. Gram-Schmidts ortogonaliseringsalgoritm.
Vi kan använda resultatet i föregående avsnitt till att givet en bas u1 , u2 , . . . , un i ett
vektorrum V finna en ortonormerad bas i V . Metoden kallas Gram-Schmidts ortogonaliseringsalgoritm och går till på följande sätt.
Börja med att sätta e1 = ||uu11 || . Att dividera en vektor med dess norm kallar vi för att
normera vektorn. Den nya vektorn får då norm lika med 1. Låt sedan V1 vara det ettdimensionella delrum som spänns upp av e1 (eller av u1 , vilket ju är samma sak). Eftersom
u1 , u2 är linjärt oberoende ligger u2 inte i V1 . Vektorn u2 minskad med sin ortogonala
projektion på V1 , d.v.s. u2 − (e1 , u2 ) · e1 är alltså nollskild och ortogonal mot e1 . Normera
denna vektor och kalla resultatet e2 . Fortsätt på samma sätt, d.v.s. låt nu V2 vara det
delrum som spänns upp av e1 , e2 (eller av u1 , u2 , vilket ju är samma sak) och minska u3
med sin ortogonala projektion i V2 . Vi får då u3 − (e1 , u3 ) · e1 − (e2 , u3 ) · e2 . Normera
denna vektor och kalla resultatet e3 . Det är uppenbart hur man skall fortsätta. Metoden
är lätt att minnas om man ritar en figur som illustrerar tekniken. Så gör det!
4. Mer om ortogonalt komplement.
Antag nu att W är ett m-dimensionellt delrum av det n-dimensionella rummet V . En
ortonormerad bas e1 , e2 , . . . , em i W kan vi då utvidga till en bas e1 , e2 , . . . , em , um+1 , um+2 ,
. . . , un i V och med Gram-Schmidts metod kan denna sedan ersättas av en ortonormerad
n
P
bas e1 , e2 , . . . , en . Du visar lätt att en vektor u =
ci ei tillhör W ⊥ om och endast om
i=1
c1 = c2 = · · · = cm = 0 eller med andra ord om och endast om u ligger i det delrum som
spänns upp av em+1 , em+2 , . . . , en . Dessa vektorer utgör således en bas i W ⊥ och vi finner
speciellt att dim W + dim W ⊥ = dim V .
5. Ytterligare lite om ortogonal projektion.
3
Låt nu återigen W vara ett ändligt-dimensionellt delrum av V och låt a1 , a2 , . . . , am vara
en bas i W , som inte nödvändigtvis är ortonormerad. Låt b ∈ V . Ett sätt att bestämma
bW är förstås att först med Gram-Schmidtz algoritm bestämma en ortonormerad bas i W
och sedan förfara som i Avsnitt 2. Men det finns ett annat sätt.
Vi behöver dock en ortonormerad bas i V , säg e1 , e2 , . . . , en och vi antar att vektorerna aj
är givna av sina koordinater relativt denna bas. Till varje aj hör då en kolonnvektor, säg
Aj . Tillsammans bildar dessa kolonner en matris A = ( A1 A2 · · · Am ). Vidare hör
till vektorn b en kolonnvektor, säg B.
Vi skulle vilja ha bW uttryckt som en linjärkombination av a1 , a2 , . . . , am , säg bW =
m
P
xi ai . Låt X vara den kolonnvektor som bildas av xi :na.
i=1
Uttryckt i den ortonormerade basen e1 , e2 , . . . , en ges då bW av kolonnen AX och vektorn
b − bW ges av kolonnen B − AX. Villkoret på bW utöver att vara linjärkombination av
a1 , a2 , . . . , am är att (ai , b − bW ) = 0 för i = 1, 2, . . . , m. I en ortonormerad bas ges ju
skalärprodukten av två vektorer med, säg, kolonnvektorer C respektive D av produkten
C H D. Villkoret på bW kan vi alltså skriva på följande sätt
AH
i · (B − AX) = 0
för i = 1, 2, . . . , m
Men dessa m stycken samband kan vi sätta samman till en enda matrisekvation AH (B −
AX) = 0 eller
AH AX = AH B
Eftersom ortogonal projektion finns och är entydigt bestämd har denna ekvation en entydig
lösning, så det följer speciellt att AH A är inverterbar.
I det fall att b ∈ W kan ju b uttryckas entydigt som linjär kombination av basvektorerna
a1 , a2 , . . . , am . Koordinatkolonnen ges av den entydiga lösningen till AX = B. När b ∈
/W
har AX = B ingen lösning men efter multiplikation av båda sidorna till vänster med AH
får vi en entydigt lösbar ekvation, och dess lösning är ortogonala projektionen.
4