9789147112449

Page 1

LINJÄR ALGEBRA Grundkurs

RIKARD BØGVAD PAUL VADERLIND

BØGVAD VADERLIND

Denna bok erbjuder det kompletta materialet till den första kursen i linjär algebra vid universitet och tekniska högskolor. Boken behandlar matriser, determinanter, teorin för linjära ekvationssystem, vektorer, koordinatsystem, skalär och vektorprodukt, linjära avbildningar, linjer och plan i rymden samt andragradskurvor. Dessa är grundläggande för all högre matematik och framför allt för alla matematiska tillämpningar i teknik, naturvetenskap och ekonomi. Boken är skriven på ett lättsamt, omsorgsfullt och utförligt sätt. Den startar med för studenten nya begrepp, som matriser och determinanter, och landar i intrikata tillämpningar av dessa i verkligheten.

GRUNDKURS

RIKARD BØGVAD (t.h.) är professor och har som huvudsakliga forskningsintressen potentialteori och algebraisk geometri. Han har mångårig erfarenhet av att undervisa i linjär algebra. PAUL VADERLIND är universitetslektor och fördjupar sig i diskret matematik. Han har skrivit ett tjugotal böcker om problemlösning och är dessutom mångårig lagledare för det svenska olympiadlaget i matematik. Båda författarna är verksamma vid Matematiska institutionen, Stockholms universitet.

LINJÄR ALGEBRA

Best.nr 47-11244-9 Tryck.nr 47-11244-9

47112449 Linjär algebra Grund OMSLAG.indd 1

08/05/17 4:58 PM


2017-05-08 – sida 2 – # 2

ISBN 978-91-47-11244-9 © 2017 Rikard Bøgvad, Paul Vaderlind och Liber AB Förläggare: Simon Dalili Redaktör: Benny Kullinger Omslag: Cecilia Frank Layout/Illustrationer: Paul Vaderlind Produktion: Jürgen Borchert Första upplagan 1 Repro: OKS Prepress Services, Indien Tryck: People Printing, Kina 2017

Kopieringsförbud Detta verk är skyddat av upphovsrättslagen. Kopiering, utöver lärares och elevers begränsade rätt att kopiera för undervisningsbruk enligt BONUS-avtal, är förbjuden. BONUS-avtal tecknas mellan upphovsrättsorganisationer och huvudman för utbildningsanordnare, t.ex. kommuner och universitet. Intrång i upphovsmannens rättigheter enligt upphovsrättslagen kan medföra straff (böter eller fängelse), skadestånd och beslag/förstöring av olovligt framställt material. Såväl analog som digital kopiering regleras i BONUS-avtalet. Läs mer på www.bonuscopyright.se. Liber AB, 113 98 Stockholm tfn 08-690 90 00 www.liber.se kundservice tfn 08-690 93 30, fax 08–690 93 01 e-post kundservice.liber@liber.se


2017-05-08 – sida 3 – # 3

Innehåll

Innehåll 1

Matriser

1.1 1.2 1.3 1.4 1.5 1.6 2

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Vad är Gauss-Jordan-elimination egentligen? Matrisinvertering . . . . . . . . . . . . . . . På återbesök hos determinanten . . . . . . . Sammanfattning . . . . . . . . . . . . . . . Övningar . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. 84 . 97 . 105 . 115 . 116

Inledande exempel . . . . Gauss-Jordan-elimination Sammanfattning . . . . . Övningar . . . . . . . . .

Vektorer i planet och rummet

5.1 5.2

9 12 28 32 32 35 37

Determinanter av små matriser . . Determinanter av n × n-matriser . Sammanfattning . . . . . . . . . Övningar . . . . . . . . . . . . . Appendix . . . . . . . . . . . . .

37 45 54 54 56 61

. . . .

. . . .

. . . .

. . . .

Satser om linjära ekvationssystem

4.1 4.2 4.3 4.4 4.5 5

. . . . . .

Linjära ekvationssystem

3.1 3.2 3.3 3.4 4

9

Piña colada - en inblick i några matematikers vardagsliv . Matriser och matrisoperationer . . . . . . . . . . . . . . . Inversa matriser . . . . . . . . . . . . . . . . . . . . . . . Sammanfattning . . . . . . . . . . . . . . . . . . . . . . Övningar . . . . . . . . . . . . . . . . . . . . . . . . . . Appendix: Bevis för att matrismultiplikation är associativ.

Determinanter

2.1 2.2 2.3 2.4 2.5 3

3

62 66 80 80 83

119

Riktade sträckor och vektorer . . . . . . . . . . . . . . . . . . . . . . 120 Linjärt beroende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133


2017-05-08 – sida 4 – # 4

4 Innehåll

5.3 5.4 5.5 6

Bas och koordinatsystem

6.1 6.2 6.3 6.4 6.5 7

8

Bas och ON-bas Koordinatsystem Basbyte . . . . . Sammanfattning Övningar . . . .

. . . . .

. . . . .

147

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

148 160 163 175 175

Geometri: linjer och plan

177

7.1 7.2 7.3 7.4 7.5 7.6

178 186 204 209 209

En linje i plan och i rummet . . . . . . . . . . . . . . . . . . . . . . . Ett plan i rummet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Area- och volymfunktion. Trippelprodukten . . . . . . . . . . . . . . . Sammanfattning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Övningar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Appendix: Bevis av egenskap (g) för vektorprodukten - den distributiva lagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Linjära avbildningar

8.1 8.2 8.3 8.4 8.5 8.6 8.7 8.8 8.9 8.10 9

Skalärprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Sammanfattning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Övningar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

215

Funktioner på rummet . . . . . . . . . . . . . . Till varje matris finns en linjär avbildning . . . . Matrisframställning av en linjär avbildning . . . Geometriska exempel på linjära avbildningar . . Mer om linjära avbildningar . . . . . . . . . . . Sammansättning och invers . . . . . . . . . . . . Varför förekommer linjära avbildningar överallt? Egenvärden och egenvektorer . . . . . . . . . . Sammanfattning . . . . . . . . . . . . . . . . . Övningar . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

Får vi gå nu, eller? Om andragradskurvor

9.1 9.2 9.3 9.4 9.5 9.6

Varför andragradskurvor – lite historia Andragradskurvor . . . . . . . . . . Klassifikation av andragradskurvor . . Och till slut: andragradsytor . . . . . Sammanfattning . . . . . . . . . . . Övningar . . . . . . . . . . . . . . .

211 215 218 226 237 248 250 255 257 262 262 265

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

266 272 279 287 290 290

10 Lösningar till alla uppgifter

291

Sakregister

341


2017-05-08 – sida 5 – # 5

Innehåll 5

Förord till läraren Denna bok innehåller teori och exempel till den första universitetskursen i linjär algebra. Det är ett standardmaterial som, vid sidan av envariabelanalys, är en grundläggande del av matematikutbildningen och som används i stort sett i nästan alla tillämpningar av matematik. Under ett antal år har texten använts i kompendieform som lärobok vid Stockholms universitet. På det sättet har den successivt förändrats efter elevers och lärares kommentarer, och inte minst vår egen upplevelse av hur den fungerar. Vad är då speciellt med denna bok? Det är framförallt två saker vi vill framhäva: ⊲ ordningsföljden av materialet ⊲ och för det andra själva framställningssättet Med den första punkten avses, att vi har ordnat vår genomgång av linjär algebra i en medveten progression från det mer abstrakta och dessutom nya materialet i kursen till det mer konkreta och halvt välkända. Det är något som låter sig göras rätt lätt i linjär algebra. Vårt första kapitel handlar sålunda om matriser. Ett av de sista om linjer. Den enkla tanken bakom detta är pedagogisk (eller kanske snarare dramaturgisk): En nybliven universitetsstudent ska möta nya begrepp och idéer redan vid starten av en av sina allra första kurser på universitet. Dessa ska förstås inte vara svåra, men helst lite spännande. Studenters beredskap för och lust till något nytt är ju som störst vid kursens start. Och vi upplever att det är viktigt att detta första möte med matematik på universitetsnivå inte är en repetition av något från gymnasiet. Annars finns det inte minst en risk att det nödvändiga arbetet med att lära sig de nya sätt att tänka och studera, som universitetsstudier i matematik generellt innebär, skjuts upp tills det är för sent eller i alla fall blir onödigt plågsamt. Vår början är avsedd att både entusiasmera och visa på att kursen kräver seriös inhämtning av definitioner och resultat. Vad kan väl då vara bättre än en ny slags fräsch räkning, som dessutom inte är alltför svår? Matrisräkning kräver ju dessutom inga förkunskaper, ingen repetition, utan ger en slags nystart av matematikstudierna. Efter matriser fortsätter vi med ännu ett nytt begrepp – ett kapitel om determinanter, huvudsakligen 3 × 3-determinanter. Vi ger både definitionen och fundamentala egenskaper för allmänna determinanter, eftersom vi tycker att det – bortsett från bevisen – inte är något som är svårt. Dessutom är det på samma pregnanta sätt som matriser, något helt nytt, och oberoende av förkunskaper. Bevisen har vi förstås tagit med, men placerat de svårare i ett appendix. De är inte en del av kursen som är ämnad att tas upp (i alla fall om man har tidsbrist). Först när dessa begrepp sitter går vi igenom lösning av ekvationssystem, och ger de vanliga kopplingarna till matriser och determinanter. Sedan fortsätter vi med vektorer, koordinatsystem och metriska egenskaper hos rummet. Vi gör det i en alltmer


2017-05-08 – sida 6 – # 6

6 Innehåll

konkret matematisk omgivning, som demonstrerar hur användbara våra nya matematiska tekniker är. Vi vill betona att vi absolut inte tycker att abstraktion i sig har ett egenvärde, och att vi enbart ser vår disposition som en hjälp till en helt konkret förståelse. Vektorrum lyser med berättigad frånvaro. Att vi tagit med mer bevis och material än vi tycker kursen ska innehålla är enbart för att ge en mer flexibel text. Samtidigt ger närvaron av bevisen en idé om hur komplicerade vissa resultat är. Det andra punkten ovan handlar först och främst om att vi har försökt att skriva en text som ligger nära vad vi upplevt våra elever behöver, alltså klar och enkel med mycket exempel. Det innebär också utförlighet i exempel och bevis på bekostnad av koncishet. Men samtidigt även det som en av våra kollegor uttryckte som sitt undervisningsmål ”To get just the right balance of theoretical material, practical examples and comic relief ...” och en annan uttryckte som ”one should not pretend that mathematics is not difficult, but it can be made enjoyable”. Det finns många första läroböcker om linjär algebra med varierande inriktning och utformning. Att bidra med ytterligare en behöver motiveras, vilket vi hoppas att vi gjort ovan. Själva innehållet i läroböckerna är oftast ungefär detsamma men anslagen mycket olika. Ytterligheterna är kanske en axiomatisk framställning av vektorrum respektive en koordinatnära och exempeldriven introduktion till analytisk geometri. Vi lutar mer åt det senare, men det här är också vårt försök att utnyttja spänningen mellan dessa två ytterligheter i pedagogiskt syfte. Vår bok har som nämnts använts under en längre tid i vår och andras undervisning i linjär algebra vid Stockholms universitet. Detta har skett med gott resultat, inte minst har detta synts i studentutvärderingar. Studenterna har uppskattat balansen mellan exempel, tillämpning och teori. De har också varit positiva till urvalet av övningar och det klara och enkla språket i boken. Vissa övningar kommer i omedelbar anslutning till teorin och är alltså spridda inne i kapitlen. Vi väljer denna väg för att uppmana eleverna att lösa vissa uppgifter i direkt anslutning till den teori som vi just presenterat. Detta förklarar också att numreringen av övningarna i slutet av kapitlen ofta inte börjar med 1. Samtliga övningar har lösningar. Vi vill tacka våra kollegor på Stockholms universitet, vars idéer präglar denna text, samt våra redaktörer på Liber, främst Simon Dalili och allra mest Benny Kullinger för hans omsorg om textens innehåll och form.

Förord till läsaren Varför linjär algebra? Jo, framför allt för att det tillsammans med differentialkalkyl är portalen till nästan alla tillämpningar av matematik – all ingenjörskonst, all naturvetenskap, all ekonomi och statistik. Möjligtvis att litteraturvetare och begrav-


2017-05-08 – sida 7 – # 7

Innehåll 7

ningsentreprenörer inte behöver det. Men utan koordinatsystem lär de senare ha svårt att hitta, och utan optiska igenkänningssystem (OCR) har de förra svårt att hantera sina textmassor. Det finns ett annat skäl också: Det är ett strålande exempel på en matematisk teori, på det som är filosofin i tillämpningar av matematik. Här har vi verkligheten och hur ska vi nu beskriva så enkla saker som lägen, vinklar, linjer, kurvor och plan i den? Sett från den synpunkten så är vinsten av att läsa denna kurs inte så mycket alla de olika tekniker, satser och idéer som förekommer i den, utan förmågan att själv göra en liknande problemanalys i andra sammanhang. Hur ska man använda denna bok? I stort sett varje kapitel är centrerat kring en idé, som återkommer och utvecklas i många skepnader. Slutresultatet av läsningen bör vara att denna idé känns rätt självklar, gärna lite banal. I kapitlet om ekvationssystem är till exempel den centrala idén att det finns en systematisk procedur – Gauss-Jordanelimination – för att lösa ett system av ekvationer. Ur detta kan man sedan dra en massa slutsatser om olika typer av ekvationssystem. En bra metod för att fånga idén är att läsa hela kapitlet, lägga märke till vilka typer av problem och tekniker som ingår och först vid en andra genomläsning läsa detaljer i exemplen och kanske de flesta bevisen. Sen är det dags att göra övningar ... Varför så mycket bevis? Matematiska påståenden kommer alltid med en argumentation om varför det är just på det sättet – det är det som är riktigt speciellt med matematik. En fysiker kan säga ”experiment har visat att ...”, men det är inget som matematiker kan tillåta sig – vi har ju inga experiment att tillgå. När det är fråga om exempel och övningar kallas argumentationen ”lösning” medan när det är frågan om satser kallas den för ”bevis”, men det är i botten samma sak. Genom att läsa bevisen och lösningarna tränar man upp sin förmåga att lösa problem. Varför så många övningar? Som någon sagt: ”Matematik är ingen åskådarsport!” De exempel som finns i boken är, fast det inte alltid kan tyckas så, det enklaste av det enkla vad det gäller tillämpningar. För att kunna använda idéerna i mer komplicerade sammanhang måste man träna så att de är självklara delar av ens mentala verktygsförråd. Övningarna är som skalor för en pianist och det är absolut nödvändigt att göra många av dem. En del är dessutom avsedda att förenkla förståelsen av idéerna. Varför så många skämt? En av våra kollegor uttryckte målet med sin undervisning så här: ”To get just the right balance of theoretical material, practical examples and comic relief ...”, och det är precis dit vi strävat.

Rikard Bøgvad och Paul Vaderlind Matematiska institutionen Stockholms universitet


2017-05-08 – sida 9 – # 9

KAPITEL 1

Matriser

Detta kapitel introducerar en ny sorts matematiska varelser kallade matriser. De kan multipliceras och adderas, och ett fruktbart sätt att se på dem är som nya slags tal. Förutom att få en god känsla för vad matriser är, så är det viktigaste under läsningen att få en flyhänt vana i att räkna med dem. Gör alltså extra många övningsuppgifter! I senare kapitel kommer vi att få se hur användbara matriser är, både för att hantera geometriska problem om linjer och plan i rummet (eller högre dimensioner) och för att lösa ekvationssystem. Ett första exempel på styrkan av det nya begreppet ges i avsnitt 1.3. Där visas att ekvationssystem, kanske med tusentals obekanta, ofta kan skrivas som matrisekvationer AX = B, som ju då har den uppenbara lösningen X = A−1 B ... I avsnitt 1.1 har vi gett ett motiverande exempel, men den som är nyfiken på vad matriser är i allmänhet, eller kanske stött på dem tidigare, kanske vill gå direkt till definitionen som finns i avsnitt 1.2. I ett appendix har vi placerat ett lite mer komplicerat bevis för sats 1.4. Den säger att matrismultiplikation är associativ, det vill säga att A(BC) = (AB)C. Beviset är nämligen både lite tekniskt och inte lika lärorikt nyttigt som många av de andra bevisen i boken. Och vi tycker att det är viktigare att koncentrera sig på vad associativitet innebär och hur man använder den. Samtidigt är det en poäng att beviset finns med för den som vill läsa det. Detta kommer vi att göra fler gånger med liknande bevis.

1.1 Piña colada - en inblick i några matematikers vardagsliv Låt oss börja dagen med att blanda tre drinkar. Egentligen är det samma drink, piña colada, men Rikard, Anna och Paul gör den på tre olika sätt. Den traditionella piña coladan är en blandning av kokosmjölk, ananasjuice och vit rom (men det finns också andra varianter) Rikard gör sin blandning i proportioner kokosmjölk : ananasjuice : rom = 0,3 : 0,55 : 0,15. För en deciliter drink tar han alltså 0,3 dl kokosmjölk, 0,55 dl ananasjuice och 0,15 dl rom. Paul föredrar en jämnare fördelning mellan juice och mjölk och blandar drinken i proportioner 0,4 : 0,4 : 0,2. Annas starkare variant blandas som 0,35 : 0,4 : 0,25.


2017-05-08 – sida 10 – # 10

10 KAPITEL 1 MATRISER

Ett litet mera kompakt sätt att skriva dessa tre varianter är att forma en så kallad matris, ett schema med tre rader och tre kolonner. Varje rad representerar de personliga preferenserna för Rikard, Paul och Anna. kolonnerna representerar ingredienserna: kokosmjölk, ananasjuice och vit rom. Matrisen A nedan beskriver alltså de tre olika blandningarna.   0, 3 0, 55 0, 15   A =  0, 4 0, 4 0, 2  0, 35 0, 4 0, 25

En sådan beskrivning är uppenbart mycket användbar. Lämpligt inplastad på ett kort, till exempel, kan man förvara den i plånboken och överlämna till sin matematiskt sinnade bartender i stället för en vag och oprecis verbal beskrivning, som ju också ofta blir allt svårare att artikulera tydligt allteftersom kvällen går. Men vad är dess värde utöver detta? Vi påstår att vi kan använda matrisen för att räkna och besvara olika frågor. Här är en sådan fråga: Hur mycket kostar var och en av drinkarna om priserna är 22, 8 och 32 kronor per deciliter för kokosmjölk, ananasjuice och rom respektive? Rikards drink kostar 0, 3 · 22 + 0, 55 · 8 + 0, 15 · 32 = 15, 8 kronor. Vi har multiplicerat talen i första raden – Rikards rad – som ger volymen av de olika ingredienserna i hans drink, med 22, 8 respektive 32, som är priset på respektive ingrediens. Detta ger kostnaden av respektive ingrediens och när vi sedan lägger ihop alla produkterna får vi totala kostnaden för drinken. På samma sätt kostar Pauls drink 0, 4 · 22 + 0, 4 · 8 + 0, 2 · 32 = 18, 4 och Annas 0, 35 · 22 + 0, 4 · 8 + 0, 25 · 32 = 18, 9 kronor. Varje uträkning följer samma mönster: summan av produkter av en rads olika volymer och priser för motsvarande ingrediens. För att få en tydlig överblick kan man sammanfatta dessa uträkningar som en sorts operation på matriser, matrismultiplikation. Först introducerar vi ”prismatrisen” B, en matris med tre rader och en kolonn,   22   B=8 32

och skriver därefter ”kostnadsmatrisen”     0, 3 0, 55 0, 15 22     C = A · B =  0, 4 0, 4 0, 2  ·  8  . 0, 35 0, 4 0, 25 32

Multiplikationen A · B innebär precis samma som uträkningarna ovan. Först räknar man summan av de tre produkterna av elementen i den första raden i A med elementen i B: 0, 3 · 22 + 0, 55 · 8 + 0, 15 · 32 = 15, 8. Sedan summan av de tre produkterna av elementen


2017-05-08 – sida 11 – # 11

1.1 PIÑA COLADA - EN INBLICK I NÅGRA MATEMATIKERS VARDAGSLIV 11

i den andra raden i A med elementen i B: 0, 4 · 22 + 0, 4 · 8 + 0, 2 · 32 = 18, 4 och slutligen samma med den sista raden i A. Resultatet skriver man som en ny matris, matrisen   15, 8   C = 18, 4 . 18, 9

Matrisen C sammanfattar alltså kostnaderna för var och en av de tre drinkarna. Den har en kolonn och tre rader och raderna representerar, precis som i matrisen A, de tre personerna: Rikard, Paul och Anna. Observera mönstret i den ovan beskrivna matrismultiplikationen: elementen i var och en av raderna i matrisen till vänster, A, multipliceras med motsvarande element i den enda kolonnen i matrisen till höger, B (en matris med en enda kolonn kallas för kolonnmatris). Eftersom detta är huvudidéen bakom matrismultiplikation så är det bra att man lägger detta på minne. Vi fortsätter med ett annat problem. Rikard, Paul and Anna festade tillsammans med några av sina vänner. Under kvällen tillverkades sju drinkar enligt Rikards recept, fem av Pauls blandningar och tio enligt Annas proportioner. Morgonen efter ställer de sig den vanliga dagenefterfrågan– var det värt det? Alltså: hur mycket av varje ingrediens gick det åt denna kväll och vad kostade alla drinkar? Återigen kommer samma uträkning att upprepas tre gånger, en gång för var och en av ingredienserna. Åtgången av respektive ingrediens var 7 · 0, 3 + 5 · 0, 4 + 10 · 0, 35 = 7, 6 dl av kokosmjölk, 7 · 0, 55 + 5 · 0, 4 + 10 · 0, 4 = 9, 85 dl av ananasjuice och 7 · 0, 15 + 5 · 0, 2 + 10 · 0, 25 = 4, 55 dl av rom. Om man beskriver antalet drinkar med hjälp av en matris D med en rad och tre kolonner, en så kallad radmatris: D = 7 5 10 så kan räkningarna ovan återigen sammanfattas som en matrisprodukt   0, 3 0, 55 0, 15   D · A = 7 5 10 ·  0, 4 0, 4 0, 2  = E, 0, 35 0, 4 0, 25

där

E = 7, 6 9, 85 4, 55 .

För att få E räknar man ut summan av produkterna av de tre elementen i D med de tre elementen i den första kolonnen i A: 7 · 0, 3 + 5 · 0, 4 + 10 · 0, 35 = 7, 6. Sedan


2017-05-08 – sida 12 – # 12

12 KAPITEL 1 MATRISER

räknar vi summan av produkterna av elementen i D med den andra kolonnen i A: 7 · 0, 55 + 5 · 0, 4 + 10 · 0, 4 = 9, 85, och slutligen summan av produkter av elementen i D med den tredje kolonnen i A. Lägg märke till att vi har precis samma mönster för multiplikationen som beskrevs tidigare: Elementen i raden (radmatrisen) till vänster, D, multipliceras med motsvarande element i var och en av kolonnerna i matrisen till höger, A. För att bestämma vad drinkarna kostade behöver vi beräkna summan 7, 6 · 22 + 9, 85·8+4, 55·32 = 391, 6 (volymen gånger priset för var och en av ingredienserna per volymsenhet). Med tanke på den tidigare matrismultiplikationen kan detta skrivas som   22   E · B = 7, 6 9, 85 4, 55 ·  8  = 7, 6 · 22 + 9, 85 · 8 + 4, 55 · 32 = 391, 6. 32

Eftersom E = D · A så är kostnaden samma som (D · A) · B. Om vi å andra sidan tar matrisen C som sammanfattar kostnaderna för var och en av de tre drinkarna så borde den totala kostnaden vara lika med D ·C. Uträkningen   15, 8   D ·C = 7 5 10 · 18, 4 = 7 · 15, 8 + 5 · 18, 4 + 10 · 18, 9 = 391, 6 18, 9

verifierar detta påstående. Matrisen C räknades ut som C = A · B. Därmed är kostnaden lika med D · (A · B). I vårt exempel gäller alltså att (D · A) · B = D · (A · B). Detta samband kallas för associativa lagen för matrismultiplikation och gäller faktiskt alltid, så länge som de ingående produkterna existerar. Stärkta med en eller flera piña colador kan vi nu klä exemplet ovan i mera teoretiska kläder. Ett varningsord bör dock tilläggas: romdrickande är hälsofarligt! Hur farligt kan man lämpligen också analysera med matriser, gärna över en bloody mary, som ju är något helt annat.

1.2 Matriser och matrisoperationer Välkommen till matrisernas magiska universum! Vi ska strax tala om vad de är, och hur man räknar med dem: det finns en addition och inte mindre än två olika multiplikationer. Vi ska se att dessa operationer uppfyller nästan alla lagar som gäller för addition och multiplikation av tal, men också att det finns nya intressanta fenomen som komplicerar livet. Man kan studera matriser och deras egenskaper bara för deras egen skull, som en generalisering av tal, och om detta finns det stora tjocka volymer. För oss kommer de att vara ett utomordentligt verktyg i allt som heter linjär algebra och dess tillämpningar. Matrisernas betydelse i den moderna matematiken kan knappast underskattas. De tillåter oss till exempel att handskas med rummet och bortom som om vi fortfarande


2017-05-08 – sida 13 – # 13

1.2 MATRISER OCH MATRISOPERATIONER 13

tultade omkring på tallinjen. Därför är matristeorin alltid en grundläggande del av de första kurserna vid högskolorna och ofta även i gymnasieutbildningen. Med hjälp av matriser kan man sammanfatta och organisera stora datamängder, matriserna hjälper oss att lösa linjära ekvationssystem, de har mängder av tillämpningar i analysen. För att inte nämna att de förfogar över ett rätt frikostigt pr-konto ... En formell definition är följande: DEFINITION 1.1

Med en matris, eller mer precist en matris av typ m × n, där m och n är två positiva heltal, menas m · n reella tal ordnade i ett rektangulärt schema med m rader och n kolonner. Utan att det gör någon riktig skillnad skulle vi också kunna betrakta komplexa matriser, dvs. matriser där de ingående talen tillåts vara komplexa, inte bara reella. För våra behov räcker det dock gott och väl om vi begränsar oss till reella matriser. Lägg märke till att alla rader innehåller lika många, n stycken, tal, liksom alla kolonner innehåller lika många, m stycken, tal. Vi har redan sett exempel på matriser av typ 3 × 3, 3 × 1 och 1 × 3. Här är några fler, tillsammans med en 1 × 1-matris. Observera hur första talet m i m × n talar om hur många rader matrisen har, medan n är antalet kolonner.     1 1 2 3     1 2 3 , 1 . 4 5 6 , 4 , 7 7 8 9 Den sista ser lite udda och fattig ut – med bara ett enda och inte ens ett speciellt glassigt tal – men den är också en riktig matris enligt definitionen: tag m = n = 1. Vi kommer att beteckna matriser med stora bokstäver A, B, C, osv. Vi kommer att jobba med matriser som är av varierande storlek och därför behöver vi effektiva sätt att beskriva dem utan att alltid kunna rita ut dem helt och hållet, som vi gjorde i exemplet ovan. Det kan vi göra så här.   a11 a12 a13 . . . a1n  a21 a22 a23 . . . a2n    Allmänt, en matris A av typ m × n beskrivs som A =  . .. .. .. . ..  .. . . .  . am1 am2 am3 . . . amn Talet ai j är alltså det talet som finns i rad i och kolonn j. Det kallas för ett element i

matrisen. För att förkorta notationen kan vi skriva matrisen ovan som A = ai j

1≤i≤m, . 1≤ j≤n

Några matriser med speciella egenskaper är så vanliga att de har egna namn. Bland dessa återfinner vi:


2017-05-08 – sida 14 – # 14

14 KAPITEL 1 MATRISER

Nollmatrisen, 0 som är en matris där alla talen är lika med noll, dvs. ai j = 0 för alla 1 ≤ i ≤ m och 1 ≤ j ≤ n. Det är uppenbart att nollmatrisen inte är unik: det finns en nollmatris för varje matristyp m × n. Kvadratiska matriser som definieras som matriser där m = n, till exempel 1 × 1, 2 × 2 och 3 × 3-matriserna   ! 1 2 3 1 2   , 4 5 6 . 1 , 4 5 7 8 9

Enhetsmatriser En : kvadratiska matriser med n rader och n kolonner och talet 1 på varje plats längs huvuddiagonalen samt talet 0 utanför huvuddiagonalen. Det finns en enhetsmatris för varje positivt heltal n. Om det inte leder till missförstånd så skriver man bara E i stället för En . Vad är nu huvuddiagonalen förresten, om vi ska vara petiga? Jo det framgår nog av följande enhetsmatris:   1 0 0   0 1 0 . 0 0 1 Om vi alltså har A = ai j 1≤i≤m, så är elementen på huvuddiagonalen i A precis elemen1≤ j≤n

ten a11 , a22 , ..., ann . Radmatris: en matris av typ 1 × n, till exempel a1 a2 a3 ... an . Kallas också i litteraturen för radvektor. b  1

b2

Kolonnmatris: en matris av typ m × 1, till exempel A =  ..  . Namnet kolonnvektor . bm

förekommer också. Två matriser, A = ai j 1≤i≤m, och B = bi j 1≤i≤r, är lika, A = B, om de för det första 1≤ j≤n

1≤ j≤k

har samma typ: m = r och n = k, och för det andra elementen på motsvarande platser i matriserna A och B är lika, dvs. ai j = bi j för alla 1 ≤ i ≤ m, 1 ≤ j ≤ n. Notera dock att alla nollmatriser – som ju allihop betecknas med samma symbol 0 – inte är identiska utan att det finns en av varje typ m × n. Det är för att göra livet typografiskt enklare: mer precist hade förstås varit att skriva 0m×n för nollmatrisen av typ m × n. Efter denna korta introduktion är vi beredda att träda in i matrisernas värld och vi börjar med att göra oss bekanta med operationer på matriser.

Addition av matriser Man kan enkelt definiera operationen addition av två matriser men detta kan enbart göras om båda matriserna har samma typ. Anta därför att A och B båda är av typ m × n.


2017-05-08 – sida 15 – # 15

1.2 MATRISER OCH MATRISOPERATIONER 15

DEFINITION 1.2

Summan A + B av matriserna A = ai j 1≤i≤m, och B = bi j 1≤i≤m, är matrisen C= 1≤ j≤n 1≤ j≤n ci j 1≤i≤m, av samma typ som A och B där ci j = ai j +bi j för alla 1 ≤ i ≤ m, 1 ≤ j ≤ n. 1≤ j≤n

Med andra ord, man adderar talen som ligger på motsvarande platser i matriserna A och B. Ett exempel klargör: För A =

! −2 5 −1, 2 och B = 2, 9 −13 0

blir A + B =

! 9 −5, 1 3, 2 7, 1 22 −π ! ! 7 −0, 1 2 −2 + 9 5 − 5, 1 −1, 2 + 3, 2 = . 10 9 −π 2, 9 + 7, 1 −13 + 22 0−π

Vi har alltså definierat en ny slags addition! Det som gör att vi verkligen kan kalla den för det prestigeladdade namnet addition är att operationen uppfyller alla de egenskaper man normalt förväntar sig av ett förskoleplus. Låt oss beskriva vilka dessa är, dvs. vad vi en gång lärde oss om addition av tal ungefär samtidigt som vi fick tillgång till stora tal i form av fickpengar, godis och serietidningar. Den andra lagen nedan till exempel säger i stort sett att ordningen i vilken vi adderar tre (eller fler) matriser inte spelar någon roll för resultatet. SATS 1.1

Anta att A, B och C är tre matriser av samma typ. Matrisaddition uppfyller följande räkneregler (i) A + B = B + A, kommutativa lagen, (ii) A + (B +C) = (A + B) +C, associativa lagen, (iii) A + 0 = A, för en nollmatris av samma typ som A.

BEVIS

Bevisen för dessa egenskaper reducerar sig till enkla tillämpningar av definitionen och motsvarande egenskaper för tal: a + b = b + a, (a + b) + c = a + (b + c) och a + 0 = a.

Multiplikation av en matris med ett tal Ungefär som när man ska bada i en kall insjö så ska vi först sticka ner tårna väldigt försiktigt i multiplikationsträsket, genom att bara multiplicera en matris med ett tal.


2017-05-08 – sida 16 – # 16

16 KAPITEL 1 MATRISER

Låt oss anta att vi har en matris A = ai j 1≤i≤m, och ett reellt tal λ . Produkten λ · A 1≤ j≤n

är en ny matris av samma typ som A i vilken varje ingående tal helt enkelt är lika med motsvarande tal i A multiplicerat med λ . Med andra ord är λ · A = λ ai j 1≤i≤m, . 1≤ j≤n

Det följer genast att för varje matris A är 1 · A = A och 0 · A = 0, där nollmatrisen i högra ledet är av samma typ som matrisen A. Det är inte svårt att visa. SATS 1.2

Följande räkneregler gäller för multiplikation av matriser med tal: (i) λ (A + B) = λ A + λ B, (ii) (λ + µ )A = λ A + µ A och (iii) (λ µ )A = λ (µ A), där A och B är matriser av samma typ och λ , µ är reella tal.

BEVIS

Vi visar bara egenskapen (iii) för A = ai j 1≤i≤m, : 1≤ j≤n (λ µ )A = (λ µ )ai j 1≤i≤m, = ... då associativa lagen gäller för multiplikation av reella 1≤ j≤n tal är (λ µ )ai j = λ (µ ai j ), vilket medför att ... = λ (µ ai j ) 1≤i≤m, = λ µ ai j 1≤i≤m, 1≤ j≤n 1≤ j≤n ! = λ µ ai j 1≤i≤m, = λ (µ A). 1≤ j≤n

Ekvationslösning Speciellt intressant är produkten med λ = −1. Matrisen (−1)A har egenskapen att den ger nollmatrisen om man adderar den till A: (−1)A + A = (−1 + 1)A = 0 · A = 0. Det kan vi använda för att lösa ekvationer. Om ! −2 5 −1 A= 2 −13 0 så är (−1)A =

! 2 −5 1 . −2 13 0


2017-05-08 – sida 17 – # 17

1.2 MATRISER OCH MATRISOPERATIONER 17

Låt sedan B=

! 1 1 1 1 1 1

och anta att vi letar efter X, som är en lösning till ekvationen X + A = B. (Vi antar förstås att alla matriser har samma typ, så att additionen är definierad.) Då kan vi hitta X = B + (−1)A, precis som om vi hade räknat med tal i stället för matriser. Det följer av att vi lägger till (−1)A till bägge sidor av ekvationen: X + A = B ⇐⇒ (X + A) + (−1)A = B + (−1)A. Ty vänsterledet här är (X + A) + (−1)A = X + (A + (−1)A) = X + 0 = X, som då är lika med högerledet: X = B + (−1)A. Alltså är ! ! 1+2 1 + (−5) 1 + 1 3 −4 2 X= = . 1 + (−2) 1 + 13 1 + 0 −1 14 1 Argumentet var helt allmänt och berodde inte på vilka matriserna var, så vi kan formulera det som en allmän princip, något som alltid är sant, en sats.

SATS 1.3

Anta att A, B, X är matriser av samma typ. Då gäller att X + A = B ⇐⇒ X = B + (−1)A. Den väsentliga egenskapen hos matrisen (−1)A i argumentet ovan var att den uppfyller att summan med A är nollmatrisen. Det skulle man kunna uttrycka som att den är den additiva inversen till matrisen A och, liksom i talaritmetiken, betecknar vi därför den med −A. Matrissubtraktionen A − B innebär, kommer vi överens om, fortsättningsvis att A + (−1)B, precis som för tal.

Multiplikation av matriser Vid sidan av multiplikationen av en matris med ett tal finns det också en mera invecklad produkt, nämligen produkten av två matriser, A · B. Det är denna som kommer att få teorin att lyfta, så det är värt att tränga igenom den lite komplicerade definitionen. (Här är ett personlighetstest: den intelligente och engagerade, men lite godtrogne läsaren – en sådan


2017-05-08 – sida 18 – # 18

18 KAPITEL 1 MATRISER

som telefonförsäljare och guldgrävare älskar – accepterar detta och får om några veckor sin belöning i kapitlet om linjära avbildningar, eller i kapitlet om linjära ekvationssystem. Den intelligente och misstrogne läsaren däremot – en fasa för telefonförsäljare och urtypen för en lyckad guldgrävare – slänger antingen miljömedvetet boken i kompostpåsen och bestämmer sig för att studera något annat, typ filmvetenskap. Eller smygtittar redan nu, fast det är mindre dramatiskt tillfredsställande på avsnitt 1.3 och sats 1.8. Det första exemplet visar hur man kan skriva system av ekvationer som matrisekvationer, medan den andra satsen visar att man kan lösa ekvationer med matriser på ungefär samma sätt som ekvationer med tal.) Dessvärre kan man inte ”multiplicera” vilka två matriser som helst. Ett visst krav på matrisernas typ måste vara uppfyllt: Om den första matrisen, A, har typ m × n så måste den andra matrisen, B, ha typ n × p. Detta säger bara att antalet kolonner i den första faktorn, matrisen A, måste vara samma som antalet rader i den andra faktorn, matrisen B. Vi kan formulera detta som att Antalet element i en rad i A är lika många som antalet element i en kolonn i B. Detta är viktigt att inse för att det innebär följande: man kan ta vilken som helst rad i A och räkna summan av produkter av tal i denna rad med talen i en godtyckligt vald kolonn i matrisen B. Titta bara på rad i i den första matrisen och kolonn j i den andra matrisen i uttrycket nedan: båda innehåller n tal.   a11 a12 a13 . . . a1n    a b b . . . b . . . a 11 12 1 j 1p  21 a22 a23 . . . a2n    . b21 b22 . . . b2 j . . . b2p   .. ..  .. ..    ..  . . . .  b31 b32 . . . b3 j . . . b3p    ·    ai1 ai2 ai3 . . . ain   . . . . . . .. .. .. .. ..  ..      .. ..  .. ..  .. .  . . .  b . n1 bn2 . . . bn j . . . bnp am1 am2 am3 . . . amn Vi kan alltså bilda summan ai1 b1 j + ai2 b2 j + ai3 b3 j + · · · + ain bn j . Den typen av uträkningar har vi redan mött i samband med drinkblandningarna i föregående avsnitt. Vi kommer att referera till en sådan summa som produkten av raden i från den första matrisen med kolonnen j från den andra matrisen. Det finns m rader i matrisen A och p kolonner i B. Vi kan därmed bilda m · p sådana produkter och vi kan skriva ci j = ai1 b1 j + ai2 b2 j + ai3 b3 j + · · · + ain bn j , för i = 1, ..., m, j = 1, ..., p. Detta kan vi komma ihåg så här: Elementet ci j (i den i:te raden och den j:te kolonnen i produkten A · B) fås som produkten av den i:te raden i den första matrisen A och den j:te kolonnen i den andra matrisen B.


2017-05-08 – sida 19 – # 19

1.2 MATRISER OCH MATRISOPERATIONER 19

På detta sätt bildar vi en ny matris, matrisen C = (ci j )1≤i≤m, som är produkten 1≤ j≤p

C = A · B. Denna definition verkar i första taget vara lite tillgjord och komplicerad men den är ytterst användbar och beter sig nästan så som man kan förvänta sig av en ”vanlig” multiplikation. Matrisprodukten C = A · B är alltså definierad enbart om antalet kolonner i matrisen A överensstämmer med antalet rader i matrisen B. Den så erhållna matrisen C ”ärver” antalet rader från A och antalet kolonner från B. EXEMPEL 1.1

Låt A =

3 −5 11 −2 0 −4

!

  2 −1 1 0   och B = 4 −7 −3 −2. 5 3 6 2

Eftersom A är av typ 2 × 3 och B är av typ 3 × 4 så existerar produkten C = A · B och matrisen C är av typ 2 × 4. Uträkningen går till på följande sätt: Bestäm en plats (i j) i matrisen C, till exempel plats (23), dvs. andra raden och tredje kolonnen. Lösning: Talet som ska skrivas in där är lika med produkten av andra raden i matrisen A och tredje kolonnen i matrisen B, alltså −2 · 1 + 0 · (−3) + (−4) · 6 = −26. Fortsätt på samma sätt med alla platser i matrisen C. Hela uträkningen ger ! 41 65 84 32 C= . −24 −10 −26 −8 Varning: Det är viktigt att observera att den så definierade multiplikationen inte uppfyller en av de viktigaste och vanligaste räknelagarna, nämligen den kommutativa lagen. Medan det för vanlig multiplikation av tal gäller att a · b = b · a så är i allmänhet inte bara A · B 6= B · A utan det händer ofta att endast den ena av de två produkterna existerar! I exemplet ovan räknade vi ut produkten C = A · B. Produkten B · A existerar ju däremot inte då antalet kolonner i B (fyra) inte är detsamma som antalet rader i A (två). Här är några enkla övningar på matrisräkning: Övning 1. Bestäm två stycken 2 × 2-matriser A och B sådana att A · B 6= B · A. (Ledtråd: Ta vilka matriser som helst, nästan.) Övning 2. Bestäm två stycken 2 × 2-matriser C och D sådana att C 6= 0 och D 6= 0 och som uppfyller att C · D = 0. (Ledtråd: Ta två matriser med mycket nollor som element.) Övning 3. För de reella talen a 6= 0, b och c, gäller att om ab = ac så är b = c. Genom att ge ett exempel, visa att motsvarande inte gäller för matriser, dvs. konstruera tre matriser, A 6= 0, B och C sådana att A · B = A ·C men B 6= C.


2017-05-08 – sida 20 – # 20

20 KAPITEL 1 MATRISER

Även om matrisprodukten inte är kommutativ så uppfyller den en rad välkända lagar: SATS 1.4

(Räknelagar för matrisprodukt) Förutsatt att produkterna nedan existerar så är (i) A · E = E · A = A; A · 0 = 0; 0 · A = 0. (ii) (A + B) ·C = A ·C + B ·C och C · (A + B) = C · A +C · B (distributiva lagar). (iii) (λ A) · B = A · (λ B) = λ (A · B). (iv) A · (B ·C) = (A · B) ·C (associativa lagen). Observera att likheten (i) säger att enhetsmatrisen E beter sig på samma sätt vid matrismultiplikation som talet 1 vid multiplikation av tal (de är multiplikativt neutrala element). Detta motiverar namnet – enhetsmatrisen. Observera också att E, som förekommer två gånger i likheten (i), inte behöver vara av samma typ båda gångerna. Till exempel, om matrisen A är av typ 3 × 4 så måste E i produkten A · E vara matrisen E4 , medan den måste vara E3 i produkten E · A. Motsvarande resonemang gäller matrisen 0 i likheten (i). Övning 4. Förklara hur! BEVIS

(i) Elementet i rad i och kolonn j i produkten A · E är detsamma som ai1 e1 j + ai2 e2 j + ai3 e3 j + · · · + ain en j ,

där matrisen A antas ha n kolonner och därmed E är en n × n-enhetsmatris. Eftersom alla ei j är lika med 0 utom e j j som är 1, så är summan ovan lika med ai j , vilket förstås är vad vi ville visa: A · E = A. På samma sätt visas att E · A = A. Likheterna A · 0 = 0 och 0 · A = 0 är uppenbara. (ii) Anta att A = ai j 1≤i≤m, , B = bi j 1≤i≤m, och C = ci j 1≤i≤n, . Eftersom an1≤ j≤n

1≤ j≤n

1≤ j≤p

talet kolonner i A, B och A + B är samma som antalet rader i C (=n) så existerar produkterna i vänstra och högra ledet. Raden i i summan A + B är lika med ai1 + bi1 ai2 + bi2 ai3 + bi3 ... ain + bin . Elementet i rad i och kolonn j i produkten (A + B) ·C är därmed lika med (ai1 + bi1 )c1 j + (ai2 + bi2 )c2 j + (ai3 + bi3 )c3 j + · · · + (ain + bin )cn j .

(1.1)

Å andra sidan, på plats (i j) i matrissumman A ·C + B ·C finns summan av det som finns på plats (i j) i A · C, dvs. ai1 c1 j + ai2 c2 j + ai3 c3 j + · · · + ain cn j och det som finns på samma plats i B ·C, alltså bi1 c1 j + bi2 c2 j + bi3 c3 j + · · · + bin cn j . Denna summa är förstås samma som uttrycket (1.1) ovan:


2017-05-08 – sida 21 – # 21

1.2 MATRISER OCH MATRISOPERATIONER 21

ai1 c1 j + ai2 c2 j + ai3 c3 j + · · · + ain cn j + bi1 c1 j + bi2 c2 j + bi3 c3 j + · · · + bin cn j = (ai1 + bi1 )c1 j + (ai2 + bi2 )c2 j + (ai3 + bi3 )c3 j + · · · + (ain + bin )cn j . och vi är klara med beviset för (A + B) · C = A · C + B · C. Den andra delen, C · (A + B) = C · A +C · B, bevisas på samma sätt. Observera i satsen beskrivs två distributiva lagar. Det räcker nämligen inte att enbart använda den ena av de två lagarna. Orsaken till detta är att produkten inte är kommutativ, så multiplikation från vänster med en matris C är inte detsamma som multiplikation från höger med C. (iii) (λ A) · B = A · (λ B) = λ (A · B). Eftersom raden i i matrisen λ A är lika med λ ai1 λ ai2 λ ai3 ... λ ain så är elementet på plats (i j) i produkten (λ A) · B lika med (λ ai1 )b1 j + (λ ai2 )b2 j + (λ ai3 )b3 j + · · · + (λ ain )b1 j = λ ai1 b1 j + ai2 b2 j + ai3 b3 j + · · · + ain b1 j , vilket är samma som finns på plats (i j) i produkten λ (A · B). Likheten A · (λ B) = λ (A · B) bevisas likadant. (iv) Medan den kommutativa lagen för matrisprodukten inte gäller i allmänhet så gäller i alla fall den associativa lagen, A · (B · C) = (A · B) · C, så fort som de inblandade produkterna existerar. Beviset för denna egenskap tillhör dessa argument som läraren helst vill hoppa över eller lämna åt studenternas självläsning: Det är varken elegant eller tilltalande, bara några mödosamma tekniska uträkningar. Alltså ingenting som skulle tjäna som argument för att matematiken är ”vacker” eller ens uthärdlig. Vi väljer därför att be läsaren om att tro på oss när vi säger att sambandet gäller och hänvisar misstrogna till beviset i appendix1 efter detta kapitel.

Vad betyder räknelagarna för den matrisälskande mänskligheten? Låt oss illustrera innehållet i räknelagarna med ett antal exempel. Men först, låt oss komma överens om att strunta i att använda multiplikationsprickar, så att AB betyder produkten A·B av de två matriserna A och B. Vidare låt oss vara överens om att så fort vi nu skriver AB så förutsätter vi också att A och B har rätt typer så att de går att multiplicera ihop. EXEMPEL 1.2

Skriv A + AB som produkten av två matriser. Lösning: Vi vet att A = AE (enligt (i)), och alltså kan vi skriva A + AB = AE + AB = A(E + B), 1 För den som inte vet vad appendix är kan förklaras att det är en matematisk variant av ”min storebror är starkare än din”, älskad av matematiklektorer, och används när man – utan eget arbete – vill få lite skjuts framåt i samtalet genom att hänvisa till starka makter bortom horisonten, eller som här i slutet av kapitlet.


2017-05-08 – sida 22 – # 22

22 KAPITEL 1 MATRISER

(den sista likheten följer ur distributiviteten (ii).) Jämför med samma problem för tal: a + ab = a(1 + b).

EXEMPEL 1.3

Förenkla (A + B)(C + D). Lösning: Distributiviteten tillämpat sammantaget tre gånger ger att (A + B)(C + D) = A(C + D) + B(C + D) = AC + AD + BC + BD. Skiljer sig resultatet från hur räkningen skulle sett ut om A, B,C, D hade varit tal? Nej! EXEMPEL 1.4

Förenkla (A + B)(A + 2B). Lösning: Distributiviteten tillämpas igen och ger att (A + B)(A + 2B) = A(A + 2B) + B(A + 2B) = AA + A(2B) + BA + B(2B) = AA + 2AB + BA + 2BB. Skiljer sig resultatet från hur räkningen skulle sett ut om A, B hade varit tal? Jo, eftersom ordningen i vilken vi multiplicerar matriser spelar roll för resultatet, dvs. i allmänhet är inte AB = BA, så kan vi inte förenkla resultatet som vi gör för tal: (a + b)(a + 2b) = a2 + 3ab + b2 . Icke-kommutativiteten ställer alltså till det. Låt oss komma överens om att An är produkten av A med sig själv n gånger, så att till exempel A3 = AAA. EXEMPEL 1.5

Kan vi nu beräkna (A + B)10 ? Ja, men bara i princip för livet innehåller så mycket annat av värde. Så här skulle vi ha börjat, med en tillämpning av distributiva lagen (A + B)10 = (A + B)(A + B)9 = A(A + B)9 + B(A + B)9 . Sedan skulle vi ha fortsatt med den distributiva lagen tillämpad på (A + B)9 , om det nu verkligen inte är något roligt på tv, (A + B)10 = A(A + B)9 + B(A + B)9 = AA(A + B)8 + AB(A + B)8 + BA(A + B)8 + BB(A + B)8 .


2017-05-08 – sida 23 – # 23

1.2 MATRISER OCH MATRISOPERATIONER 23

Vi inser att antalet termer dubblas i varje steg – slutresultatet kommer därför att innehålla 210 = 1024 termer, och det är alldeles för många för att vi ska orka räkna ut dem, eller ens skriva ut dem. Men vi kunde ha gjort det i vilket fall som helst, i princip, och det är kontentan av detta exempel. Stora tal är inte svåra bara krångliga ...

Den associativa lagen säger att det är fullt korrekt att skriva produkten av tre matriser A, B och C som A · B · C, alltså utan parenteser (så länge villkoren på antalet rader/kolonner är uppfyllda).

EXEMPEL 1.6

På hur många olika sätt kan man multiplicera ihop fyra matriser A, B,C, D i denna ordning och hur många olika matriser får man? Lösning: Notera att uttrycket produkten ABCD inte är meningsfullt utan vidare, innan vi har talat om var vi ska börja multiplicera. Vi kan till exempel först multiplicera ihop C, D och sedan multiplicera resultatet, först med B och sedan med A. Med hjälp av parenteser kan vi beskriva detta som A(B(CD)). Med lite experimenterande ser man att det dessutom finns möjligheterna (A(BC))D, A((BC)D), ((AB)C)D och (AB)(CD). Usch, vill man kanske säga. Det underbara är emellertid att den associativa lagen ger att alla dessa fyra uttryck är lika, trots att de representerar helt olika uträkningar. Till exempel ger den associativa lagen A(BC) = (AB)C multiplicerad med D att (A(BC))D = ((AB)C)D.

Det är så den associativa lagen används i allmänhet och inte bara för produkter av tre matriser – den säger då att en produkt av k matriser A1 · A2 · · · Ak är oberoende av hur man stoppar in parenteser för att ge produkten mening.

EXEMPEL 1.7

Ytterligare en aspekt av matrismultiplikation är bra att känna till. Anta att vi räknar produkten av två matriser   ! 2 −5 3 −2 1 −1   C = A·B = · 7 0 4 , 4 1 2 1 −2 3 där A är alltså den första faktorn och B är den andra. Matrisen C kommer att ha


2017-05-08 – sida 24 – # 24

24 KAPITEL 1 MATRISER

två rader och tre kolonner. Om vi av någon anledning inte är intresserade av hela matrisen C utan enbart av till exempel rad två i C, behöver vi inte utföra hela multiplikationen. Formeln för matrisprodukten medför att det räcker med att bara ”multiplicera” den andra raden i matrisen A med B (kontrollera hur man räknar elementen c21 , c22 och c23 , till exempel c21 = a21 b11 + a22 b21 + a23 b31 ):   2 −5 3   4 1 2 · 7 0 4 = 17 −24 22 . 1 −2 3

Den första raden i A är alltså inte alls involverad i uträkningen. På motsvarande sätt, om vi enbart skulle vara intresserade av en kolonn i C, till exempel den tredje kolonnen, skulle det räcka att enbart ”multiplicera” A med den tredje kolonnen i B:   ! 3 ! −5 −2 1 −1   . · 4 = 22 4 1 2 3 Det spelar då ingen roll vad som finns i de andra kolonnerna i B.

Ett viktigt exempel – ekvationssystem Låt oss introducera den för oss viktigaste tillämpningen av teorin för matriser. Betrakta tre matriser: ! ! ! −7 4 x 2 A= ,X= och B = . 12 5 y −3 Med tanke på matrisernas typ är det uppenbart att uttrycket A · X = B är matematiskt helt korrekt, dvs. att produkten är definierad. Efter uträkning av produkten i vänstra ledet får vi likheten ! ! −7x + 4y 2 = , 12x + 5y −3 vilken är detsamma som att säga att elementen på motsvarande plats ska vara lika, dvs. att ( −7x + 4y = 2 . 12x + 5y = −3 Matrisekvationen A · X = B kunde alltså tolkas som ett linjärt ekvationssystem. Detta gäller för varje matrisekvation av typ A · X = B, där X och B är två kolonnmatriser, X


2017-05-08 – sida 25 – # 25

1.2 MATRISER OCH MATRISOPERATIONER 25

är kolonnen av variabler och kolonnen B sammanfattar högra ledet i systemet. Matrisen A bildar då systemets koefficienter, rad efter rad. Omvänt, om vi betraktar det linjära ekvationssystemet   = −11  −x + 2y − 3z 2x + 5y − z + 2u = 3 ,   −7x − y + 2z + u = 0

så kan systemet skrivas i matrisform A · X = B:     x   −1 2 −3 0   −11    y  5 −1 2 ·   =  3  , 2 z 0 −7 −1 2 1 u

där matrisen A kallas för koefficientmatrisen för systemet. Matriser ger oss alltså en metod att skriva linjära ekvationssystem på ett kompakt, elegant sätt. Vårt huvudmotiv för att studera teorin för matriser är för tillfället deras tillämpningar vid lösningen av just linjära ekvationssystem. Mer om detta kommer vi att berätta i kapitel 3.

Ett exempel om sambandet mellan kanintillväxt och matrispotenser Du har troligen redan hört talas om den berömda Fibonacciföljden. Fibonacci var en italiensk matematiker i början på 1200-talet. Följden tas upp i hans bok Liber abaci som beskrivning av tillväxten i en idealiserad kaninpopulation. Den dyker ofta upp även i andra biologiska sammanhang. Det är alltså talföljden som börjar med f0 = 0 och f1 = 1, och som sedan fortsätter så att varje tal i följden är summan av de två närmast föregående. Vi har alltså f2 = f1 + f0 = 1 + 0 = 1, f3 = f2 + f1 = 1 + 1 = 2, f4 = f3 + f2 = 2 + 1 = 3, osv. Du kan lätt räkna ut att de efterföljande tio fibonaccitalen är 5, 8, 13, 21, 34, 55, 89, 144, 233 och 377. Allmänt definieras följden via en så kallad rekursionsformel: f0 = 0, f1 = 1 samt fn+1 = fn + fn−1 för alla n ≥ 1. Det tråkiga med en sådan definition är att vi inte utan vidare kan säga vad till exempel f100 är lika med. För detta behövs att vi känner till f99 , f98 , f97 , osv. Finns det en annan väg att finna f100 utan att först bestämma alla de föregående fibonaccitalen? För att se hur detta hänger ihop med matriser, låt oss titta på matrispotenser. Det är uppenbart att om A är en kvadratisk matris så existerar produkten A · A, som vi betecknar med A2 . Denna matris är återigen av samma typ som A och vi kan igen multiplicera den med A: A2 · A = A3 . Allmänt, för ett positivt heltal n ≥ 1 låter vi An beteckna produkten av n kopior av A. Om vi kompletterar detta med definitionen A0 = E så har vi


2017-05-08 – sida 26 – # 26

26 KAPITEL 1 MATRISER

en välfungerande potensräkning för kvadratiska matriser (med exponenter som är ickenegativa heltal). Det krävs bara en stunds eftertanke för att inse att potenslagarna Am · An = Am+n = An · Am och (Am )n = Amn = (An )m för m, n ≥ 0

gäller i detta fall.

! 1 1 och på matriserna av typ Som ett exempel: Titta på matrisen A = 1 0 ! ! ! ! ! ! ! fn f1 1 f2 1 f7 13 Bn = . Vi har B1 = = , B2 = = , B7 = = , fn−1 f0 0 f1 1 f6 8 osv. Försök nu att multiplicera matrisen A med Bn (och ha rekursionsformeln för fibonaccitalen i bakhuvudet): ! ! ! ! 1 1 fn fn + fn−1 fn+1 · = = = Bn+1 . A · Bn = 1 0 fn−1 fn fn Konsekvenserna av den formel som vi fick fram, Bn+1 = A · Bn , är följande: B2 = A · B1 , B3 = A · B2 = A · (A · B1 ) = (A · A) · B1 = A2 · B1 , B4 = A · B3 = A · (A2 · B1 ) = (A · A2 ) · B1 = A3 · B1 , och allmänt (vilket bör visas med induktion) Bn+1 = An ·! B1 , ! ! fn+1 1 a 11 dvs. = Bn+1 = An · B1 = An · , vilket är kolonnen i matrisen An . fn 0 a21 Om vi bara hade en enkel metod att finna formen på matrisen An så skulle talen i Fibonacciföljden, till exempel f100 , vara enkla att bestämma: f100 = elementet a11 i matrisen A99 . En sådan metod (för att finna An ) finns men just nu är det lite för tidigt för oss att fördjupa oss i detta.

Matristransponering Transponering är en lite annorlunda operation på matriser som bara involverar en matris. Om A är en m × n-matris så är den transponerade matrisen, At , en matris av typ n × m. Den fås genom att raderna och kolonnerna i A byter plats med varandra. Elementet i rad i och kolonn j i matrisen At är samma som elementet i rad j och kolonn i i A.  ! 3 −2 3 5 −9   så är At =  5 Ett exempel: om A = 0 . Första raden i A är −2 0 −3 −9 −3 första kolonnen i At , andra raden i A är andra kolonnen i At . De viktigaste egenskaperna för matristransponeringen sammanfattas i satsen nedan.


2017-05-08 – sida 27 – # 27

1.2 MATRISER OCH MATRISOPERATIONER 27

SATS 1.5

Matristransponering uppfyller följande räknelagar: (i) (At )t = A för varje matris A. (ii) (A + B)t = At + Bt om matriserna A och B har samma typ. (iii) (λ A)t = λ At för varje matris A och reellt tal λ . (iv) Om produkten A · B existerar så existerar produkten Bt · At och (A · B)t = Bt · At . (Obs: bytet av ordningen på faktorerna i produkten!)

BEVIS

(i) Om rader och kolonner i en matris byter plats med varandra två gånger efter varandra, så är det uppenbart att man får tillbaka den ursprungliga matrisen. (ii) Raden k i matrisen (A + B)t är samma som kolonnen k i A + B, som i sin tur är lika med kolonnen k i A adderad till kolonnen k i B. Den överenstämmer alltså med raden k i At adderad till raden k i Bt . Därmed är (A + B)t = At + Bt . (iii) Om vi på plats (ik) i matrisen A har talet aik så finner vi på plats (ik) i vänstra ledet talet λ aki . I det högra ledet finns på plats (ik) också talet aki multiplicerat med λ . Därför är båda matriserna lika. (iv) Antalet kolonner i Bt = antalet rader i B = antalet kolonner i A = antalet rader i At . Därmed existerar produkten Bt · At . Vidare, talet ck j i rad k, kolonn j i matrisen (A · B)t är samma som talet i rad j, kolonn k i matrisen A · B, alltså är det produkten av raden j i A och kolonnen k i B. Med andra ord är ck j lika med produkten av kolonnen j i At och raden k i Bt . Ändrar vi ordföljden i den sista meningen får vi att ck j är lika med produkten av raden k i Bt och kolonnen j i At , alltså ligger på plats (k j) i matrisprodukten Bt · At . Detta bevisar påståendet. Särskild betydelse i matristeori har matriser A som uppfyller likheten At = A. Vi noterar att detta automatiskt kräver att A är en kvadratisk matris. En matris med denna egenskap kallas för symmetrisk matris.

EXEMPEL 1.8

Om  a11 a12  A = a21 a22 a31 a32

 a13  a23  , a33


2017-05-08 – sida 28 – # 28

28 KAPITEL 1 MATRISER

så är  a11  t A = a12 a13

 a21 a31  a22 a32  . a23 a33

Matrisen A är alltså symmetrisk om och endast om ai j = a ji för alla 1 ≤ i, j ≤ 3. Ett exempel är   1 10 100   A =  10 2 1000 . 100 1000 3 Exemplet fungerar också för godtyckliga kvadratiska matriser A = ai j 1≤i≤n, . En

sådan är alltså symmetrisk om och endast om ai j = a ji för alla 1 ≤ i, j ≤ n.

1≤ j≤n

1.3 Inversa matriser Om A är en matris så är det uppenbart att matrisen B = −1 · A är den additiva inversen till A: A + B = B + A = 0. Lite mera komplex är situationen med multiplikativa inverser, alltså en matris C sådan att A ·C = C · A = E. För det första är det uppenbart att så fort A inte är kvadratisk så kan en sådan matris C inte ens finnas till. Minst en av produkterna A ·C och C · A existerar ju i så fall inte! Övning 5. Förklara varför! Därför är det rimligt att tala om vänster invers C1 till A (om C1 · A = E) och höger invers C2 till A (om A · C2 = E). I den här kursen ska vi dock inte uppmärksamma sådana situationer och behandlar endast det mest intressanta fallet då A är en kvadratisk matris, och den sökta inversen är både höger och vänster invers. Här skissar vi bara den viktigaste informationen rörande inversen. Mera teori (och de svårare bevisen) kommer senare i kursen. DEFINITION 1.3

Låt oss anta att A är en kvadratisk matris. Matrisen C kallas för inversen till A om A ·C = C · A = E. Det är uppenbart att eftersom A är kvadratisk så måste både C och E vara av samma typ som A. Därför skulle det vara naturligt att använda beteckningen A−1 för matrisen C, givet att den existerar. Men det kanske kan finnas fler matriser som fungerar som C och


2017-05-08 – sida 29 – # 29

1.3 INVERSA MATRISER 29

vilken av alla ska vi då beteckna med A−1 ? Nej, som tur är gör det inte det: inversen, om den existerar, är entydigt bestämd. SATS 1.6

Om och

A ·C = C · A = E A · D = D · A = E,

så är C = D.

BEVIS

Multiplicera båda leden i likheten A · D = E med C från vänster. Vänsterledet blir efter förenkling C(AD) = (CA)D = ED = D på grund av associativiten och att C · A = E, där E är enhetsmatrisen. Å andra sidan är högerledet i A · D = E multiplicerat med C, enbart C. Men de två produkterna är lika, så C = D. På grund av detta resultat finns det högst en invers och vi kan då beteckna den som A−1 om den finns. Observera dock att detta endast är en beteckning och inte, som i fallet 1 med talen, något som resulterat från en uträkning i stil med . Man kan inte dela med A en matris! Försök nu lösa följande två övningar. ! 1 −1 Övning 6. Låt A = . Visa att det inte finns någon invers matris till A −1 1 genom att multiplicera ihop och försöka lösa för a, b, c och d ekvationen ! ! ! a b 1 −1 1 0 · = = E. c d −1 1 0 1 ! 1 0 Övning 7. Bestäm inversen till matrisen A = . −1 1 ! x y (Ledtråd: Ansätt B = och bestäm x, y, z, t för att B ska vara invers till A.) z t Observera att definitionen säger att matrisen C är inversen till A om båda villkoren A ·C = E och C · A = E är uppfyllda. Så småningom kommer vi att visa (i kapitel 4) att det räcker med att endast ett av dessa villkor är uppfyllt: Om A är en kvadratisk matris och A · C = E så är C inversen till A (och därmed gäller även C · A = E). För tillfället har vi dock inte tillräckligt med teoretisk bakgrund för att kunna bevisa denna sats.


2017-05-08 – sida 30 – # 30

30 KAPITEL 1 MATRISER

De viktigaste egenskaperna hos inversen framgår av följande sats. SATS 1.7

Låt A och B vara inverterbara matriser, med inverser A−1 respektive B−1 . −1 (i) Då är även A−1 inverterbar och A−1 = A. −1 1 −1 = A . (ii) Om λ 6= 0 är ett reellt tal så är även λ A inverterbar och λ A λ −1 (iii) Om A · B existerar så är även A · B inverterbar och A · B = B−1 · A−1 . (Lägg märke till bytet av ordningen!) −1 t (iv) Även At är inverterbar och At = A−1 . BEVIS

(i) Eftersom A · A−1 = A−1 · A = E så är A den inversa matrisen till A−1 , dvs. −1 A = A−1 . 1 −1 1 (ii) A · λA = · λ · A−1 · A = 1 · E = E. Likadant visas att även (λ A) · λ λ −1 1 −1 1 1 A = E, vilket medför att A−1 är invers till λ A, dvs. A−1 = λ A . λ λ λ −1 −1 (iii) Vi vill visa att B · A är inversen till A · B. Uträkningarna ger B−1 · A−1 · A · B = B−1 · A−1 · A · B = B−1 · E · B = B−1 · B = E samt A · B · B−1 · A−1 = A · B · B−1 · A−1 = A · E · A−1 = A · A−1 = E (observera den flitiga användningen av den associativa lagen). Därmed är B−1 · A−1 inversen till A · B, dvs. −1 A·B = B−1 · A−1 . t t (iv) Eftersom At · A−1 = ... med tanke på sats 1.5(i) ... = A−1 · A = E t = E t t t samt A−1 · At = A · A−1 = E t = E så är A−1 en invers till At , dvs. t −1 A−1 = At .

Och vad har man inverser till? Vi kommer så småningom att gå genom metoder för att avgöra om en matris är inverterbar eller inte (i kapitel 4) och hur man kan bestämma inversen i förekommande fall. Just nu ska vi bara antyda hur betydelsefull inverterbarheten kan vara i praktiska sammanhang. Ekvationssystemet A · X = B ser ju ut som en ekvation ax = b mellan tal. Vi har infört ett sätt att skriva och en notation som gör att det ser ut som om vi handskas med vanliga tal. Kanske kan vi dra parallellen ännu längre? Hur löser vi den ekvationen i tal? Jo, genom att dela bägge leden med a. Det är ju detsamma som att multiplicera med den multiplikativa inversen a−1 till a, det tal som uppfyller a−1 a = 1. Så här gör vi: ax = b ⇐⇒ a−1 ax = a−1 b ⇐⇒ 1 · x = a−1 b ⇐⇒ x = a−1 b.


2017-05-08 – sida 31 – # 31

1.3 INVERSA MATRISER 31

Vi har utnyttjat inverser och associativitet, och inverser finns ju för matriser också och associativitet gäller, så argumentet kan kopieras. Vi återgår till ekvationssystemet skrivet i form av en matrisprodukt A · X = B. Om vi vet att matrisen A är inverterbar och kan bestämma dess invers A−1 så räcker det nu att multiplicera bägge leden från vänster med A−1 (observera att eftersom matrisprodukten inte är kommutativ så är det viktigt att man anger från vilken sida multiplikationen ska ske). Vi får alltså A−1 · (A · X) = A−1 · B.

Då matrisprodukten är associativ så blir A−1 · (A · X) = (A−1 · A) · X = E · X = X.

Därmed får vi att X = A−1 · B och systemet är löst! EXEMPEL 1.9

! 3 1 Låt A = . Med en enkel kontrollräkning kan vi verifiera att inversen till A 5 2 ! 2 −1 är A−1 = . Vi ska använda denna information till att lösa ekvationssy−5 3 ( ! ! 3x + y = 2 x 2 stemet . Med beteckningarna X = och B = kan 5x + 2y = −1 y −1

systemet skrivas i matrisform som A · X = B. Vänstermultiplikation med A−1 ger A−1 · (A · X) = A−1 · B. Då är A−1 · (A · X) = (A−1 · A) · X = E · X = X och ! ! ! 2 −1 2 5 −1 X = A ·B = · = , −5 3 −1 −13 dvs. x = 5 och y = −13.

Detta är värt att formulera som en sats.

SATS 1.8

Anta att matrisen A har en invers A−1 . Då gäller att AX = B ⇐⇒ X = A−1 B. Snälla, var försiktig med ordningen av multiplikationen här. Det är inte sant att AX = B ⇐⇒ X = BA−1 . Däremot gäller att XA = B ⇐⇒ X = BA−1 .


2017-05-08 – sida 32 – # 32

32 KAPITEL 1 MATRISER

1.4 Sammanfattning Räknefärdighet och matrisvana har varit målet med detta kapitel. I senare kapitel kommer vi att se hur man kan tillämpa matriser och matrisräkning på intressanta problem. Vi sammanfattar de viktigaste delarna av vad vi gått igenom: ⊲ Definitionen av multiplikation och addition av matriser. ⊲ De olika räkneregler som vi är vana vid från tal är oftast sanna även vid matrisräkning, så att man kan utnyttja sin tidigare räknevana. Men observera att kommutativa lagen AB = BA inte alltid är sann, så att ordningen i vilken faktorerna står i en produkt är viktigt. ⊲ Enhetsmatriser E av olika ordningar spelar en roll som neutrala element för multiplikation (AE = EA = A), och nollmatriser 0 (också av olika ordningar) är neutrala element för addition (A + 0 = A). ⊲ Kvadratiska matriser A (och bara de) kan ha unika inversa matriser A−1 sådana att A−1 A = AA−1 = E. I nästa kapitel ska vi definiera ett tal detA (determinanten för matrisen A) som hör till varje matris, och se att det finns ett enkelt kriterium för när A har invers, nämligen att det A 6= 0 (determinanten av A är skild från 0). ⊲ Ett ekvationssystem kan beskrivas som en matrismultiplikation och (ibland) lösas med hjälp av inversa matriser (se avsnitt 1.2.6). Mer om detta kommer i kapitel 3.

1.5 Övningar Övningarna 1–7 finns tidigare i texten.       1 −3 3 2 4 −3 3 2 1       8. Låt A = −1 1 0 , B = 5 −3 2  och C =  0 4 2 . 2 2 −4 1 1 0 −2 3 −1 Bestäm (i) A + B, (ii) A − B +C samt (iii) −A + 2(3B −C). 9. Bestäm matrisen X som uppfyller matrisekvationen 2A − 3X = 4B, där matriserna A och B är från förra övningen. 10. Betrakta fyra matriser: A=

! 3 −5 , B= 2 3 

 2 −1 3   D = −1 3 5 . 6 4 1

  ! 2 0 −7 4 0   , C = −2 3  och 2 −5 1 4 −7


2017-05-08 – sida 33 – # 33

1.5 ÖVNINGAR 33

Om man väljer två matriser X och Y bland dessa fyra (det kan vara en och samma matris två gånger) så kan man försöka multiplicera dessa X · Y . Hur många sådana produkter finns det? Beräkna dessa i förekommande fall. ! 1 x 11. Bestäm alla matriser A = sådana att A2 = 0. y z ! 1 a 12. a) Låt A = . Bestäm A2 , A3 och A4 . Gissa hur matrisen An ser ut och bevisa 0 1 ditt påstående med induktion. b) Definiera en följd av matriser {An }∞ genom rekursionsformeln n=1 An+1 = A2n − nB där A1 =

1 2 0 1

!

och B =

0 1 0 0

!

.

Gissa en formel för An (som funktion av n) och visa att gissningen är riktig med hjälp av induktion. (Ledtråd: Studera An för små n.) 13. Anta att A och B är två kvadratiska matriser av samma storlek. Är någon av de två formlerna (A + B)2 = A2 + 2AB + B2

och (A + B)(A − B) = A2 − B2

sann eller är båda falska? Motivera ditt svar.

14. a) Låt A, B och C vara tre lika stora kvadratiska matriser. Betrakta ”faktoriseringen” AC + ABC = AC(1 + B). Vad är det som är fel med en sådan faktorisering? Hur bör faktoriseringen av A + AB se ut? b) Hur kan man faktorisera uttrycket AB + CA, där A, B och C är tre lika stora kvadratiska matriser?   a11 a12 a13 . . . a1n  a21 a22 a23 . . . a2n    15. Låt A =  . .. .. ..  vara en matris. ..  .. . . .  . am1 am2 am3 . . . amn a) Bestäm matriser X och Y sådana att

X · A = a j1 a j2 a j3

 a1i  a2i    . . . a jn och A ·Y =  .  .  ..  ami


2017-05-08 – sida 34 – # 34

34 KAPITEL 1 MATRISER

b) Vilket blir resultatet av produkten X · A ·Y ? c) Anta att   a11 a12 a13 . . . a19 a21 a22 a23 . . . a29    A= . .. .. ..  ..  .. . . . .  a71 a72 a73 . . . a79 är en matris med 7 rader och 9 kolonner. Bestäm en matris X och en matris Y sådana att produkten X · A ·Y är en matris av typ 1 × 1 och är lika med a53 .

16. a) Visa att för varje kvadratisk matris A är matrisen A + At symmetrisk. b) Låt A och B vara symmetriska matriser och anta dessutom att A är inverterbar. Avgör om matriserna AB, AB + BA och A−1 måste vara symmetriska. 17. En kvadratisk matris A kallas skevsymmetrisk om At = −A. a) Ge ett exempel på en 3 × 3-skevsymmetrisk matris? b) Visa att för varje kvadratisk matris A är matrisen A − At skevsymmetrisk. c) Vilka tal kan finnas på huvuddiagonalen i en skevsymmetrisk matris? ! 0 −1 18. Visa att för matrisen A = gäller att A3 = E. Är matrisen A inverterbar? 1 −1

19. Anta att A är en kvadratisk matris som uppfyller sambandet A2 − 3A + E = 0. Visa att A är inverterbar. (Ledtråd: Försök finna inversen).     1 2 1 1 −1 −1     20. a) Visa att matrisen B = −2 1 0 är invers till A =  2 −1 −2. 2 1 1 −4 3 5   =4  x−y−z b) Använd del (i) till att lösa ekvationssystemet 2x − y − 2z =0 .   −4x + 3y + 5z = 3 ! a b 21. Låt A = vara en matris och anta att talet λ = ad − bc 6= 0. Låt matrisen c d ! d −b −1 B=λ . Bestäm produkterna A · B och B · A. Vilken slutsats kan vi dra −c a om matrisen A? 22. Betrakta uttrycket 4A2 + 6AB − 6BA − 9B2 . a) Anta att A och B är reella tal. Faktorisera uttrycket ovan. b) Anta att A och B är kvadratiska n × n-matriser, n ≥ 2. Faktorisera uttrycket ovan. 23. Man säger att n × n-matrisen A är konjugerad med n × n-matrisen B om det existerar en inverterbar matris P sådan att A = PBP−1 . Visa att a) om A är konjugerad med B så är B konjugerad med A, b) om A är konjugerad med B och B är konjugerad med C så är A är konjugerad med C.


LINJÄR ALGEBRA Grundkurs

RIKARD BØGVAD PAUL VADERLIND

BØGVAD VADERLIND

Denna bok erbjuder det kompletta materialet till den första kursen i linjär algebra vid universitet och tekniska högskolor. Boken behandlar matriser, determinanter, teorin för linjära ekvationssystem, vektorer, koordinatsystem, skalär och vektorprodukt, linjära avbildningar, linjer och plan i rymden samt andragradskurvor. Dessa är grundläggande för all högre matematik och framför allt för alla matematiska tillämpningar i teknik, naturvetenskap och ekonomi. Boken är skriven på ett lättsamt, omsorgsfullt och utförligt sätt. Den startar med för studenten nya begrepp, som matriser och determinanter, och landar i intrikata tillämpningar av dessa i verkligheten.

GRUNDKURS

RIKARD BØGVAD (t.h.) är professor och har som huvudsakliga forskningsintressen potentialteori och algebraisk geometri. Han har mångårig erfarenhet av att undervisa i linjär algebra. PAUL VADERLIND är universitetslektor och fördjupar sig i diskret matematik. Han har skrivit ett tjugotal böcker om problemlösning och är dessutom mångårig lagledare för det svenska olympiadlaget i matematik. Båda författarna är verksamma vid Matematiska institutionen, Stockholms universitet.

LINJÄR ALGEBRA

Best.nr 47-11244-9 Tryck.nr 47-11244-9

47112449 Linjär algebra Grund OMSLAG.indd 1

08/05/17 4:58 PM


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.