9789144108957

Page 1

STOKASTIK FÖR INGENJÖRER

J E SPER RY DÉN


Kopieringsförbud Detta verk är skyddat av upphovsrättslagen. Kopiering, utöver lärares och studenters begränsade rätt att kopiera för undervisningsändamål enligt Bonus Copyright Access kopieringsavtal är förbjuden. För information om avtalet hänvisas till utbildningsanordnarens huvudman eller Bonus Copyright Access. Vid utgivning av detta verk som e-bok, är e-boken kopieringsskyddad. Den som bryter mot lagen om upphovsrätt kan åtalas av allmän åklagare och dömas till böter eller fängelse i upp till två år samt bli skyldig att erlägga ersättning till upphovsman eller rättsinnehavare. Studentlitteratur har både digital och traditionell bok­utgivning. Studentlitteraturs trycksaker är miljöanpassade, både när det gäller papper och tryckprocess.

Art.nr 36022 ISBN 978-91-44-10895-7 Upplaga 2:1 © Författaren och Studentlitteratur 2014, 2015 www.studentlitteratur.se Studentlitteratur AB, Lund Omslagslayout: Francisco Ortega Omslagsbild: Adam Dahlstedt Printed by Graficas Cems S.L., Spain 2015


Innehåll

Innehåll

Förord

Förord

i

1

Inledning 1 Inledning 1 1.1 Matematiska modeller . . . . . 1.1 . . . .Matematiska . . . . . . . modeller . . . . . . . . .2 . . . . . . . 1.2 Några exempel . . . . . . . . . 1.2 . . . .Några . . . exempel . . . . . . . . . . . . .5 . . . . . . .

2

Data: dess karaktär och presentation 9 2 Data: dess karaktär och presentation 2.1 Data och dess ursprung . . . . 2.1 . . . .Data . . .och . . dess . . .ursprung . . . . . . . .9 . . . . 2.2 Statistiska mått . . . . . . . . 2.2 . . . .Statistiska . . . . . .mått . . . . . . . . . 12 . . . . . 2.2.1 Lägesmått . . . . . . . . . . .2.2.1 . . . . Lägesmått . . . . . . . . . . . 13 . . . . . 2.2.2 Spridningsmått . . . . . . . .2.2.2 . . . . Spridningsmått . . . . . . . . . . . 15 . . . . . 2.2.3 Samvariation . . . . . . . . .2.2.3 . . . . Samvariation . . . . . . . . . . . 17 . . . . . 2.3 Visualisering av data . . . . . 2.3 . . . .Visualisering . . . . . . . av . . data . . . . . . 21 . . . . . 2.3.1 Stolpdiagram . . . . . . . . .2.3.1 . . . . Stolpdiagram . . . . . . . . . . . 21 . . . . . 2.3.2 Histogram . . . . . . . . . . .2.3.2 . . . . Histogram . . . . . . . . . . . 21 . . . . . 2.3.3 Lådagram . . . . . . . . . . .2.3.3 . . . . Lådagram . . . . . . . . . . . 24 . . . . . 2.3.4 Multivariata metoder . . . . .2.3.4 . . . . Multivariata . . . . . . . metoder . . . 24 . . . . 2.4 Variationsbreddens variation . 2.4 . . . .Variationsbreddens . . . . . . . . . . .variation . . . 26 . . . . 2.5 R-kommandon . . . . . . . . . 2.5 . . . .R-kommandon . . . . . . . . . . . . . . . 28 . . . . . 2.6 Övningsuppgifter . . . . . . . 2.6 . . . .Övningsuppgifter . . . . . . . . . . . . . . . 30 . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

3 Sannolikheter och slumpvariabler 35 3 Sannolikheter och slumpvariabler 3.1 Frekvenskvoter . . . . . . . . 3.1 . . . .Frekvenskvoter . . . . . . . . . . . . . . . 35 . . . . . . . 3.2 Mängder, händelser och slumpvariabler . . . . händelser . . . . . . och . . slumpvariabler . 37 3.2 Mängder, 3.3 Egenskaper hos sannolikheter 3.3 . . . .Egenskaper . . . . . . hos . . .sannolikheter . . . . . 40 . . . . . 3.4 Betingade sannolikheter . . . 3.4 . . . .Betingade . . . . . .sannolikheter . . . . . . . . . 42 . . . . . . . 3.5 Oberoende händelser . . . . . 3.5 . . . .Oberoende . . . . . . händelser . . . . . . . . . 47 . . . . . . .

. . . . .

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

iii

iii

. . . . . . . . . . . . .


3.6 3.7

Sannolikheter för komplementhändelser till oberoende händelser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Övningsuppgifter . . . . . . . . . . . . . . . . . . . . . . . . .

4 Fördelningar 4.1 Diskreta fördelningar . . . . . . . . . . . . . . . . 4.1.1 Exempel på diskreta fördelningar . . . . . 4.2 Kontinuerliga fördelningar . . . . . . . . . . . . . 4.2.1 Exempel på kontinuerliga fördelningar . . 4.3 Läges- och spridningsmått för slumpvariabler . . 4.3.1 Väntevärden . . . . . . . . . . . . . . . . . 4.3.2 Varianser . . . . . . . . . . . . . . . . . . 4.3.3 Sammanställning för vanliga fördelningar 4.4 Fördelningsfunktioner . . . . . . . . . . . . . . . 4.5 Kvantiler . . . . . . . . . . . . . . . . . . . . . . . 4.6 R-kommandon . . . . . . . . . . . . . . . . . . . . 4.7 Övningsuppgifter . . . . . . . . . . . . . . . . . . 5

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

57 57 59 63 65 70 71 73 75 76 80 84 86

Funktioner av flera slumpvariabler 5.1 Funktioner av slumpvariabler, oberoende . . . . . . 5.2 Räkneregler för väntevärden och varianser . . . . . 5.2.1 Läges- och spridningsmått för medelvärdet 5.3 Några additionssatser . . . . . . . . . . . . . . . . . 5.3.1 Normalfördelningen . . . . . . . . . . . . . 5.3.2 Binomialfördelningen . . . . . . . . . . . . 5.3.3 Poissonfördelningen . . . . . . . . . . . . . 5.4 Ett centralt resultat — centrala gränsvärdessatsen . 5.5 R-kommandon: Simulering . . . . . . . . . . . . . . 5.6 Övningsuppgifter . . . . . . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

91 91 95 100 100 101 103 105 106 111 113

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

117 117 118 120 121 124 124 124 129

6 Statistikens grunder 6.1 Punktskattningar . . . . . . . . 6.2 Skattningar som slumpvariabler 6.2.1 Väntevärdesriktighet . . 6.2.2 Ytterligare egenskaper . 6.3 Data och modell . . . . . . . . . 6.3.1 Fördelningens typ . . . 6.3.2 Visuella tekniker . . . . 6.4 Skattningar av varianser . . . . iv

51 52

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


6.4.1 Sammanvägd variansskattning . . . . . . 6.4.2 Statistisk analys av olika variationskällor 6.4.3 Väntevärdesriktighet hos variansskattning Kombination av skattningar: ett exempel . . . . . Mer om Q-Q-plottar . . . . . . . . . . . . . . . . . Övningsuppgifter . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

130 130 132 133 134 135

Konfidensintervall 7.1 Inledande exempel . . . . . . . . . . . . . . . . . . 7.2 Allmänt om konfidensintervall . . . . . . . . . . . 7.3 Konfidensintervall för väntevärdet . . . . . . . . . 7.3.1 Intervall med exakt konfidensgrad . . . . 7.3.2 Intervall för stora stickprov . . . . . . . . 7.3.3 Konfidensintervallets längd . . . . . . . . 7.4 Konfidensintervall för p i binomialfördelning . . . 7.4.1 Konfidensintervallets längd . . . . . . . . 7.5 Konfidensintervall för skillnader i väntevärde . . 7.5.1 Två oberoende stickprov . . . . . . . . . . 7.5.2 Parvisa observationer — ”stickprov i par” 7.6 Konfidensintervall för skillnader i andelar . . . . 7.7 Ensidiga konfidensintervall . . . . . . . . . . . . . 7.7.1 Intervall för andel vid noll observerade . . 7.8 Övningsuppgifter . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

139 139 140 142 142 146 146 148 149 150 151 152 155 156 157 158

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

163 164 165 168 168 169 171 172 173 173 175 179 180

6.5 6.6 6.7 7

8 Regression 8.1 Inledning . . . . . . . . . . . . . . . . . . 8.2 Modell . . . . . . . . . . . . . . . . . . . 8.3 Modellens giltighet . . . . . . . . . . . . 8.3.1 Förklaringsgrad . . . . . . . . . . 8.3.2 Residualstudier . . . . . . . . . . 8.4 Användning av modellen . . . . . . . . . 8.4.1 Konfidensintervall för parameter 8.4.2 Prediktion . . . . . . . . . . . . . 8.4.3 Varning: kausalitet . . . . . . . . 8.5 Multipel regression . . . . . . . . . . . . 8.6 R-kommandon . . . . . . . . . . . . . . . 8.7 Övningsuppgifter . . . . . . . . . . . . . Tabeller © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

185 v


Lösningar

189

Något om binomialkoefficienter

211

Vidareläsning

213

Engelska benämningar: liten ordlista

215

Sakregister

vi

219

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


Kapitel 3

Kapitel 3

Sannolikheter Sannolikheter och och slumpvariablerslumpvariabler

Begreppet sannolikhet är centralt inom Begreppet stokastisksannolikhet modellering. är centralt I detta kapitel inom stokastisk mo diskuterar vi tolkning av begreppet sannolikhet diskuterar vi samt tolkning introducerar av begreppet relaterade sannolikhet sam räknelagar. Slumpvariabler presenteras räknelagar. som hastigast Slumpvariabler och behandlas presenteras utförligt som hastigas i kapitel 4. i kapitel 4.

3.1

Frekvenskvoter

3.1

Frekvenskvoter

Vi studerar här slumpmässiga försök, Vi dvs.studerar försök där här resultatet slumpmässiga i varje försök, enskilt dvs. försök där fall inte kan avgöras med säkerhet påfall förhand. inte kan Klassiska avgörasförsök med säkerhet av dennapåtyp förhand. Klass är att kasta en tärning, singla slant, snurra är attpå kasta rouletthjul en tärning, osv.singla I en tillämpning slant, snurra på roulett av mer industriell karaktär kan vi t.ex. av undersöka mer industriell om en karaktär produkt kan uppfyller vi t.ex. undersöka o en kravspecification eller ej. Vi antar en vidare kravspecification att i varje enskilt ellerförsök, ej. Vi antar utfallet vidare att i var inte påverkas av utfallen i de föregående inte försöken. påverkas av utfallen i de föregående försöken. Antag att ett enskilt försök upprepas Antag n gånger att ettmed enskilt samma försök förutsättupprepas n gånge ningar. Beteckna med A händelsen attningar. resultatet Beteckna är av en med på förhand A händelsen bestämd, att resultatet är av speciell typ: en sexsidig tärning visar speciell efter ett typ: kasten fyra sexsidig ögon, en tärning singlad visar slant efter ett kast fy visar ”Krona”, eller en komponent ärvisar defekt. ”Krona”, I varjeeller enskilt en delförsök komponent kan är A defekt. I varje antingen inträffa eller ej. Beteckna med antingen f antalet inträffa försökeller därej. A Beteckna inträffar. Kvomed f antalet för ten f /n kallas då den relativa frekvensen ten feller /n kallas frekvenskvoten. då den relativa frekvensen eller frekve

Exempel 3.1 Följande tabell redovisar Exempel utfallen3.1av Följande 10 kast med tabell en redovisar tärning. utfallen av Man är intresserad av händelsen A: ”Kastad Man är tärning intresserad visaravsex händelsen ögon”. A: ”Kastad tärning © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

35

35


3. Sannolikheter och slumpvariabler

Försök Resultat (antal ögon) Händelse A Relativ frekvens 1 5 Nej 0/1 2 6 Ja 1/2 3 2 Nej 1/3 4 3 Nej 1/4 5 4 Nej 1/5 6 4 Nej 1/6 7 1 Nej 1/7 8 6 Ja 2/8 9 5 Nej 2/9 10 1 Nej 2/10 Serien om 10 kast resulterade i frekvenskvoten 2/10 = 1/5 för händelsen A. Vad händer om vi har tålamod och genomför en längre försöksserie? I figur 3.1 nedan visas resultatet från 100 kast (i själva verket en datorsimulering).

0.5 0.45 0.4

Relativ frekvens

0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0

10

20

30

40

50

Antal delförsök

60

70

80

90

100

Figur 3.1: Relativ frekvens för 6 ögon vid 100 kast.

36

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.2. Mängder, händelser och slumpvariabler

Statistisk regelbundenhet hos frekvenskvoter Vår erfarenhet säger oss, att i många fall infinner sig en stabilitet hos frekvenskvoterna om många delförsök utförs: kasta en tärning 100 gånger, 1000 gånger osv. Det är då naturligt att införa ett tal som innebär en matematisk idealisering av frekvenskvoten f /n. Vi betecknar detta tal med P(A) och kallar det för sannolikheten för händelsen A. Frekvenskvoten f /n är ett experimentellt bestämt närmevärde på P(A). Vi kan införa följande definition: Definition 3.1 Frekvensbaserad sannolikhet: P(A) = Relativ frekvens för händelsen A efter oändligt många försök. Avslutningsvis menas med en säker händelse en händelse som vid varje försök inträffar. Då gäller att f /n = 1 för alla n och följaktligen att P(A) = 1. För en omöjlig händelse gäller P(A) = 0.

Den klassiska sannolikhetsdefinitionen Antag att ett försök kan utfalla på m möjliga sätt, varav g (antalet gynnsamma) innebär händelsen A, vilken är av intresse. Den klassiska sannolikhetsdefinitionen1 ger då sannolikheten som P(A) = g/m. Definitionen är användbar i flera sammanhang, men har en nackdel: de möjliga fallen skall ha samma sannolikhet att inträffa. Denna definition ger direkt att sannolikheten att få minst 4 ögon vid kast med en välbalanserad tärning är 3/6 = 1/2. I ett annat exempel kan betraktas ett parti om 1000 enheter, varav 0.5% anses vara felaktiga. Sannolikheten att en slumpvis vald enhet är felaktig är då (0.005 · 1000)/1000 = 0.005.

3.2

Mängder, händelser och slumpvariabler

Vi skall här ytterligare exemplifiera begreppet händelse och fokusera på hur händelser kan formuleras dels i ord, dels som en matematisk utsaga. Detta 1

Pierre-Simon Laplace (1749-1827) presenterar denna i Théorie analytique des probabilités, utgiven 1812. I inledningen till Livre II står att läsa: La probabilité d’un événement est le rapport du nombre des cas qui lui sont favorables, au nombre de tous les cas possibles.

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

37


3. Sannolikheter och slumpvariabler

synsätt är av stor betydelse i resten av kapitlet och inte minst i följande kapitel. Vi har tidigare studerat händelsen A =”Antal ögon hos kastad tärning är lika med sex”. Kanske är man i något sammanhang intresserad av en annan sannolikhet, involverande ett logiskt villkor: minst 4 ögon dyker upp i ett kast. Denna händelse, B säg, kan i ord uttryckas B =”Antal ögon hos kastad tärning är minst fyra”. Händelser kan formuleras mer kompakt om vi inför en s.k. slumpvariabel. Inför t.ex. X =”Antal ögon hos kastad tärning”. Då kan händelserna A och B ovan skrivas på formen A = {X = 6},

B = {4 ≤ X ≤ 6}

där klamrarna {} indikerar mängder. Denna matematiska formulering är nödvändig för att kunna utveckla mer allmängiltig metodik, se nästa kapitel. Exempel 3.2 Exempel på situationer där lämpliga slumpvariabler kan introduceras: Bakgrund Parti om 100 komponenter. En slumpvis vald glödlampa.

Exempel på slumpvariabel Antal felaktiga komponenter. Livslängd i timmar.

Exempel på händelser {X = 3}, {X ≤ 5} {X ≥ 5000}, {X < 1500}

Alternativt kan begreppet stokastisk variabel användas i stället för slumpvariabel. På engelska skriver man random variable.

Unioner och snitt I mängdläran studeras olika slags operationer för mängder. Betrakta två mängder A och B som hör hemma i en grundmängd S. Med snittet A ∩ B menar vi en ny mängd: de element som är gemensamma för A och B (logiskt: A och B). Med unionen A ∪ B avses mängden med element som tillhör antingen A eller B, eller bådadera. I så kallade venndiagram kan operationer på mängder illustreras, se figur 3.2. 38

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.2. Mängder, händelser och slumpvariabler

H A

H

B

S

A

B

S

Figur 3.2: Operationer för två mängder A och B, vilka här är geometriska objekt i form av cirklar med olika radier i en grundmängd, rektangeln S. Markerat i gråton, till vänster: A ∩ B; till höger: A ∪ B. Med komplementet A∗ till en mängd A avses de element som ej tillhör A. Två mängder A och B kallas oförenliga om de inte kan inträffa samtidigt: A ∩ B = ∅ (den tomma mängden). Exempel 3.3 Låt oss först studera ett fall, där grundmängden är bokstäverna i vårt alfabet, S = {A, B, C, . . . , Å, Ä, Ö}, och mängderna innehåller bokstäver:

A = {M, A, T },

B = {T, A}.

Då är A ∩ B = {T, A}, A ∪ B = {M, A, T } (ordningen av elementen är här oväsentlig vid uppräkningen). I ett annat exempel studerar vi positiva heltal, med grundmängden S = {0, 1, 2, . . .} och mängderna A = {1, 2, 3},

B = {2, 10}.

Här är A ∩ B = {2}, A ∪ B = {1, 2, 3, 10}. Ett vanligt exempel i sannolikhetslära är att mängderna utgör intervall. Antag att vi har en variabel X som tar värden x på positiva reella axeln, och betrakta mängderna (intervallen) A = {2 < x ≤ 5},

B = {3 ≤ x ≤ 7}.

Här är A ∩ B = {3 ≤ x ≤ 5}, A ∪ B = {2 < x ≤ 7}. Rita gärna en figur! © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

39


3. Sannolikheter och slumpvariabler

I föregående exempel, lägg märke till att grundmängden kan innehålla oändligt många element. Operationen med komplement illustreras i nästa exempel. Att använda sig av resonemang med komplementhändelser kommer visa sig användbart vid problemlösning. Exempel 3.4 Betrakta grundmängden S = {1, 2, 3, 4, 5} och delmängden A = {1, 2, 3}. Då gäller att A∗ = {4, 5}. Om B = {2, 3} följer att (A∩B)∗ = {1, 4, 5} (rita gärna figur!). I nästa avsnitt ska vi tillordna sannolikheter till mängder.

3.3

Egenskaper hos sannolikheter

Följande fundamentala resultat gäller för sannolikheter. Emellanåt benämnes dessa Kolmogorovs axiom2 . Händelserna betraktas i matematisk mening som mängder, och grundmängden S som innefattar alla tänkbara händelser brukar benämnas utfallsrum i samband med sannolikheter. Kolmogorovs axiom (två händelser): I För varje händelse A gäller att P(A) är ett icke-negativt tal: P(A) ≥ 0. II Sannolikheten för en säker händelse är lika med ett. III Om A och B är oförenliga händelser gäller P(A ∪ B) = P(A) + P(B). Utifrån dessa räkneregler kan ytterligare resultat härledas, t.ex. den användbara relationen P(A ∪ B) = P(A) + P(B) − P(A ∩ B),

(3.1)

som gäller även i fallet då A och B inte är oförenliga. En annan viktig regel gäller komplementhändelser. Man har att

2

P(A∗ ) = 1 − P(A)

(3.2)

Detta efter den ryske sannolikhetsteoretikern N.A. Kolmogorov (1903-1987) . En epokgörande skrift av honom publicerades 1933.

40

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.3. Egenskaper hos sannolikheter

och det går även, t.ex. genom att rita venndiagram, att visa sambandet P(A∗ ∩ B ∗ ) = 1 − P(A ∪ B).

(3.3)

Exempel 3.5 Betrakta det slumpmässiga försöket att avgöra vädertyp för morgondagen. Inför händelserna A: ”det blir regn”, B: ”det blir snö”. Man känner till sannolikheterna P(A) = 0.35, P(B) = 0.15, P(A ∩ B) = 0.10. I ord betyder händelsen A ∩ B ”regn och snö” (vilket mycket väl kan inträffa när temperaturen en dag pendlar kring 0◦ C), medan A ∪ B innebär ”regn eller snö (eller bägge delar)”. Vidare inser man innebörden av A∗ ∩ B ∗ : ”varken regn eller snö”. Med hjälp av (3.1) kan man beräkna P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = 0.35 + 0.15 − 0.10 = 0.40

och därmed även, om så önskas,

P(A∗ ∩ B ∗ ) = 1 − P(A ∪ B) = 1 − 0.40 = 0.60. Följande exempel, med problemställning av tydlig industriell karaktär, visar bl.a. hur problemformuleringar av typen ”minst en” kan lösas. Exempel 3.6 Vid studiet av en prototyp till bildskärm till en mobiltelefon betraktas två typer av händelser som innebär fel, dels A: försämrad tålighet mot repor, dels B: försämrat ytskick vilket leder till irriterande reflexer. Man har funnit att 5% har fel av typ A, 2% fel av typ B och 1% fel av bägge slagen. Alltså gäller P(A) = 0.05,

P(B) = 0.02,

P(A ∩ B) = 0.01.

Sannolikheten att en bildskärm inte har problem med reflexer ges av (3.2) P(B ∗ ) = 1 − 0.02 = 0.98

medan sannolikheten att en bildskärm har minst ett av de bägge felen följer av (3.1) P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = 0.05 + 0.02 − 0.01 = 0.06.

Avslutningsvis kan vi beräkna sannolikheten att en bildskärm är felfri med avseende på de två felen: P(A∗ ∩ B ∗ ) = 1 − P(A ∪ B) = 1 − 0.06 = 0.94.

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

41


3. Sannolikheter och slumpvariabler

Händelserna A och B kan utgöra utsagor om slumpvariabler, se exempel 3.2. Exempel 3.7 Betrakta återigen det klassiska slumpexperimentet att kasta en sexsidig, välbalanserad tärning. Antag att man är intresserad av sannolikheten att få minst 2 ögon. Vi rör oss i ett utfallsrum S = {1, 2, 3, 4, 5, 6} och inför slumpvariabeln X = ”Antal ögon vid ett kast”. Efterfrågat är sannolikheten P(A) där A = {X ≥ 2}. Eftersom samtliga utfall har samma sannolikhet ger den klassiska . sannolikhetsdefinitionen P(A) = P(X ≥ 2) = 5/6 = 0.83.

I detta avsnitt presenterades resultat för två händelser. Se uppgift 308 för generalisering av ekv. (3.1).

3.4

Betingade sannolikheter

Vi inleder med ett exempel som kan motivera en definition av s.k. betingad sannolikhet. Exempel 3.8 I en tillverkningsprocess för en viss produkt kontrolleras kvaliteten, och en produkt klassificeras, för enkelhets skull, som antingen ”duglig” eller ”defekt”. Man har data tillgängligt för dels en maskin i processen av äldre typ, dels en av nyare, se tabellen nedan. Totalt valdes 300 produkter ut slumpmässigt. Äldre maskin Ny maskin Totalt

Duglig 170 115 285

Defekt 10 5 15

Totalt 180 120 300

Vi inför händelser och resonerar kring diverse intressanta sannolikheter: A = ”Slumpvis vald produkt är duglig”, B = ”Slumpvis vald produkt är tillverkad vid äldre maskin”. Antag att en av de totalt 300 produkterna väljs slumpmässigt. Enligt den klassiska sannolikhetsdefinitionen har vi då P(A) = 285/300 = 0.95. Låt oss nu betrakta en händelse där hänsyn tas till maskintyp, och införa ett nytt skrivsätt: C = ”Slumpvis vald produkt är duglig, givet tillverkad vid äldre maskin”. 42

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.4. Betingade sannolikheter

Händelsen C involverar såväl A som B, och vi skriver C = A|B, där A|B utläses ”A, givet B”. Från tabellen kan vi finna genom avläsning på raden för ”Äldre maskin” 170 . = 0.94. P(C) = P(A|B) = 180 Om man ritar ett venndiagram och markerar händelsen C av intresse inser man att sannolikheten för händelsen P(C) = P(A|B) kan erhållas som kvoten P(A∩ B)/P(B). För vårt exempel finner man numeriskt från tabellen

och därmed

P(A ∩ B) =

170 , 300

P(B) =

180 , 300

P(A ∩ B) 170 . = = 0.94, P(B) 180 dvs. samma svar som med det första resonemanget. P(C) =

Analysen i exempel 3.8 kan motivera följande definition: Betingad sannolikhet. Den betingade sannolikheten för A, givet att händelsen B inträffat, definieras genom P(A | B) =

P(A ∩ B) . P(B)

(3.4)

Den betingade sannolikheten P(A|B) utläses ”sannolikheten för händelsen A, givet händelsen B”. Exempel 3.9 En välbalanserad tärning kastas en gång. Man får veta att ett udda antal ögon dök upp, och vill beräkna den betingade sannolikheten att fem ögon kom upp. Lämpliga händelser införs: A = ”Resultatet är fem ögon”,

B = ”Resultatet är ett udda antal ögon”.

För att använda ekv. (3.4) bestämmer vi

P(A ∩ B) = P(A) =

1 6

1 och P(B) = , 2

P(A ∩ B) 1/6 1 = = . P(B) 1/2 3 Detta resultat överensstämmer med intuitionen. P(A | B) =

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

43


3. Sannolikheter och slumpvariabler

Exempel 3.10 Två servrar, A och B, ingår i ett nätverk. Antag att händelserna A och B motsvarar att A resp. B fungerar under en hel, slumpmässigt vald arbetsdag. Från driftstatistik har man funnit följande sannolikheter: P(A) = 0.90,

P(B) = 0.85,

P(A ∩ B) = 0.80.

Nätverket fungerar så länge minst en av servrarna fungerar. Vi kan införa händelsen C = ”Nätverket fungerar” och eftersom C = A ∪ B finner vi P(C) = P(A ∪ B) = P(A) + P(B) − P(A ∩ B) = 0.95.

Antag nu att vi får en rapport om att server A är utslagen. Vilken blir sannolikheten att nätverket fungerar? Den sökta sannolikheten ges av P(C|A∗ ) =

P(B) − P(A ∩ B) 0.05 1 P(C ∩ A∗ ) = = = = 0.50. ∗ P(A ) 1 − P(A) 0.10 2

För att finna täljarens värde kan ett venndiagram med markerade händelser vara användbart. Alternativt kan följande resonemang utföras3 : C ∩ A∗ = (A ∪ B) ∩ A∗ = (A ∩ A∗ ) ∪ (B ∩ A∗ ) = (∅) ∪ (B ∩ A∗ ) = B ∩ A∗ , och eftersom P(B) = P(B ∩ A) + P(B ∩ A∗ ) följer för täljaren P(C ∩ A∗ ) = P(B) − P(A ∩ B).

Sammanfattningsvis påverkade tilläggsinformationen funktionssannolikheten, vilken reducerades betydligt i detta exempel (sjönk från 0.95 till 0.50).

Betingningskedjor och felträdsanalys Som en följd av definitionen kan man skriva betingade sannolikheter som följer (för två händelser A och B): P(A ∩ B) = P(B|A)P(A).

(3.5)

Ofta är de betingade sannolikheterna i uttryck av dessa slag kända, eller har uppskattats från data. Sannolikheterna för olika scenarier kan därför beräknas, och man talar om betingningskedjor. Vi illustrerar med ett exempel. 3

44

Användning av distributiv lag för mängdoperationer. © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.4. Betingade sannolikheter

Exempel 3.11 Vid en anläggning i en petroleumindustri kan en kedja av oönskade händelser inträffa: Ett läckage kan uppträda, vilket kan leda till antändning av gas och sedan, i värsta fall, en explosion. Vi inför följande händelser: A = Antändning av gas B = Explosion Händelserna illustreras i ett träddiagram, se figur 3.3.

B A B∗ A∗ Figur 3.3: Betingningskedja med händelser efter att läckage inträffat (exempel 3.11). A: antändning av gas; B: explosion. Med erfarenhet av liknande system kan man tilldela sannolikheter, t.ex. har man (givet ursprungshändelsen, läckage) funnit P(A) = 0.005, P(B | A) = 0.1. Det går nu att beräkna sannolikheter för i detta fall tre scenarier, t.ex. sannolikheten för antändning av gas och därpå följande explosion: P(A ∩ B) = P(B | A)P(A) = 0.005 · 0.1 = 0.0005. För två händelser A1 och A2 lyder ekv. (3.5) P(A1 ∩ A2 ) = P(A2 | A1 )P(A1 ) och vi kan även införa tre händelser A1 , A2 och A3 och erhålla uttrycket P(A1 ∩ A2 ∩ A3 ) = P(A3 |A2 ∩ A1 )P(A2 ∩ A1 )

= P(A3 |A2 ∩ A1 )P(A2 |A1 )P(A1 ).

Emellanåt talas om felträdsanalys när betingningskedjor används i tillämpningar av det slag som studerades i Exempel 3.11. Sådana är av fundamental © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

45


3. Sannolikheter och slumpvariabler

betydelse i den statistiska riskanalysen. Viktiga moment där är att identifiera riskerna (vad kan gå fel?) för att sedan tilldela dessa så realistiska sannolikheter som möjligt. Vi avslutar detta avsnitt med ett exempel, som leder till den s.k. Bayes formel. Exempel 3.12 I en industrilokal finns ett brandlarm. Det är förhållandevis pålitligt, men ibland sker falsklarm och en brand kan även missas. Vi inför händelser: B =”Brand i lokalen”, L =”Larm ljuder”. Följande sannolikheter är kända: P(B) = 0.05, P(L|B) = 0.98 (sannolikhet att larmet ljuder, givet att brand verkligen uppstått), P(L|B ∗ ) = 0.10 (sannolikhet för falsklarm). Man är intresserad av p = P(B|L), dvs. sannolikheten att en brand verkligen äger rum, givet att larmet ljuder: p = P(B|L) =

P(B ∩ L) P(L|B)P(B) = . P(L) P(L)

Observera hur täljaren skrevs om för att kunna utnyttja given information. För att beräkna sannolikheten i nämnaren kan vi tänka oss ett händelseträd, och resonemang med oförenliga händelser leder till P(L) = P(L|B)P(B)+P(L|B ∗ )P(B ∗ ) = 0.05·0.98+(1−0.05)·0.10 = 0.144. Vi kan nu räkna ut sannolikheten p: p=

0.05 · 0.98 . = 0.34, 0.144

vilket kanske inte kan uppfattas som en tillräckligt hög sannolikhet i sammanhanget. Vi kan formulera en version av Bayes formel4 : Bayes formel. Den betingade sannolikheten för B, givet att händelsen A inträffat, ges av P(B) P(A|B). (3.6) P(B | A) = P(A) 4

46

Thomas Bayes (1702-1761) har gett namn åt detta resultat. © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.5. Oberoende händelser

Bayesiansk statistik har funnit många tillämpningar inom teknik och naturvetenskap. Ett intressant exempel är algoritmer för detektion av s.k. spam i e-post. Givet att ett meddelande innehåller information av viss natur (text, symboler, avsändarnamn), vad är sannolikheten att det i själva verket är ett e-brev avsett och önskat för mottagaren?

3.5

Oberoende händelser

I många situationer gäller, att ny information inte nödvändigtvis påverkar sannolikheterna. De aktuella händelserna kan då i vardagsspråket kallas oberoende. Om man slagit en sexa med en tärning påverkas normalt inte sannolikheten att få ”Krona” vid en slantsingling stunden efter. Vi ska här se hur oberoende kan formuleras med sannolikheter. Låt oss alltså anta att informationen att B inträffat inte har någon betydelse beträffande sannolikheten för A; då gäller P(A | B) = P(A). Men enligt definitionen av betingad sannolikhet gäller P(A ∩ B) = P(A|B)P(B), och det följer då att P(A ∩ B) = P(A) · P(B). Vi sammanfattar detta resultat:

Sannolikheter för oberoende händelser. För två oberoende händelser A och B gäller att P(A ∩ B) = P(A) P(B).

Vid stokastisk modellering görs ofta antagande om oberoende. En mycket stor del av den grundläggande teorin ägnas åt oberoendefallet, vilket leder till enklare beräkningar. I kommande kapitel är oberoende ofta en viktig förutsättning. Skilj mellan oberoende och oförenliga händelser (se övningsuppgift 307). Exempel 3.13 I ett avsnitt av en gruva finns två pumpar A och B som antas fungera oberoende av varandra. Produktionen kan pågå så länge minst en pump fungerar. Vi inför händelserna A =”Pump A fungerar en slumpvis vald dag” samt B =”Pump B fungerar en slumpvis vald dag”. Från tidigare © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

47


3. Sannolikheter och slumpvariabler

driftstatistik har man funnit P(A) = 0.90, P(B) = 0.95. Vi beräknar sannolikheten för produktion en slumpvis vald dag med hjälp av ekv. (3.1) och oberoendeantagandet: P(A∪B) = P(A)+P(B)−P(A∩B) = P(A)+P(B)−P(A)P(B) = 0.995.

I samband med beräkningar med oberoendeantagande för en tillämpning av något slag får man gärna vara kritisk mot antagandet. I exempel 3.13 kanske pumparna har en benägenhet att falera vid hög belastning, och de kanske utsätts för sådan belastning vid samma tillfälle. Kanske är pumparna känsliga för väderleken: temperatur, fukt osv. och är placerade så att de utsätts för likartade förhållanden. Allmänt gäller att kunskap om förhållandena kring systemet i vid bemärkelse kan underlätta antagandena i den stokastiska modellen. Oberoendet kan generaliseras till fler än två händelser. För att A, B och C skall vara oberoende krävs att sambandet P(A ∩ B ∩ C) = P(A)P(B)P(C)

(3.7)

gäller, men därtill att händelserna A, B och C är oberoende parvis. (För ytterligare diskussion och exempel, se en utförligare bok i sannolikhetslära5 .) Exempel 3.14 Vid en produktionslinje kontrolleras tillverkade bildskärmar till mobiltelefoner med avseende på tre typer av komponenter: A, B och C. Varje bildskärm har en komponent av typ A, tre av typ B samt en av typ C. För de enskilda komponenterna anser man att följande felsannolikheter gäller vid kontrollen: Typ A 0.10

Typ B 0.05

Typ C 0.02

En bildskärm uppfyller kraven om samtliga komponenter fungerar. Antag statistiskt oberoende samtliga komponenter emellan och finn sannolikheten att en slumpvis vald bildskärm blir godkänd. Inför följande händelser för en slumpvis vald bildskärm: A = ”A-komponenten är OK”, 5

48

B = ”B-komponenterna är OK”,

Se exempelvis Stokastik av S.E. Alm och T. Britton, Exempel 2.12. © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.5. Oberoende händelser

C = ”C-komponenten är OK” Den sökta sannolikheten, p säg, ges av ekv (3.7), p = P(A ∩ B ∩ C) = P(A)P(B)P(C), där oberoendet utnyttjats. Från den givna informationen finner man P(A) = 1 − 0.10, P(B) = (1 − 0.05)3 (oberoende, B-komponenter emellan) samt P(C) = 1 − 0.02. Slutligen kan p beräknas: . p = (1 − 0.10)(1 − 0.05)3 (1 − 0.02) = 0.76. Många problem kan lösas genom att kombinera oberoendeantagande och sannolikheter för komplementhändelser och då utnyttja ekv. (3.2). Man har ofta nytta av resultatet att om A och B är oberoende händelser är även komplementhändelserna A∗ och B ∗ oberoende (visas i avsnitt 3.6), med generalisering till flera händelser. Alltså gäller P(A∗ ∩ B ∗ ) = P(A∗ )P(B ∗ ). Exempel 3.15 På ett kretskort finns n komponenter. Antag att en komponent är defekt med sannolikheten p och att olika komponenter är defekta oberoende av varandra. Om minst en komponent är defekt måste hela kretskortet kasseras. Inför, för i = 1, . . . , n, händelsen Ai =”Komponent i är defekt”, dvs. P(Ai ) = p. Inför vidare händelsen av intresse, A =”Slumpvis valt kretskort måste kasseras”. Räkningar med sannolikheter för komplementhändelser enligt ekv. (3.3) samt oberoendeantagandet ger nu P(A) = 1 − P(A∗1 ∩ A∗2 ∩ . . . ∩ A∗n ) = 1 − P(A∗1 ) · P(A∗2 ) · . . . · P(A∗n ) = 1 − 1 − P(A1 ))(1 − P(A2 )) · · · (1 − P(An ) = 1 − (1 − p)n .

Ofta är n ett på förhand givet tal, av tekniska skäl, medan p är knutet till kvalitet. Antag t.ex. att n = 200. Låt oss för olika val av p beräkna sannolikheten P(A): © F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

49


3. Sannolikheter och slumpvariabler

Med p = 0.01 följer . P(A) = 1 − (1 − 0.01)200 = 0.87. Med p = 0.001 följer . P(A) = 1 − (1 − 0.001)200 = 0.18. Andelen kretskort som är defekta har minskat med minskande p. Det är upp till beslutsfattare att finna ett lämpligt värde på p som är en kompromiss mellan tillförlitlighet och kostnad. Exempel 3.16 Vid transport av kemiskt avfall har man noterat 4 läckage vid 1040 transporter. Vid planeringen för kommande år räknar man med 320 transporter. Antag oberoende transporter emellan och beräkna sannolikheten för minst en transport med läckage. Vi inför händelsen A = ”En slumpvis vald transport sker med läckage”. Från informationen finner vi direkt en uppskattning 6 av sannolikheten p ≈ P(A) = 4/1040. Inför nu händelsen B =”Minst en transport med läckage (av 320)” med komplementhändelsen B ∗ = ”Ingen transport med läckage (av 320)”. Sökt sannolikhet är P(B), vilken ges som P(B) = 1 − P(B ∗ ) = 1 − P(A∗1 ∩ . . . ∩ A∗320 ) 320 4 . = 1 − (1 − p)320 = 1 − 1 − = 0.71, 1040 där vi utnyttjat p från känd information, P(Ai ) = p, i = 1, . . . , 320. Lägg märke till att sannolikheten för läckage är stor, även om sannolikheten i varje enskilt fall är liten. 6

En orientering om hur observationer kan användas för att skapa statistiska modeller, uppskatta sannolikheter osv., ges i kapitel 6.

50

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


3.6. Sannolikheter för komplementhändelser till oberoende händelser

3.6

Sannolikheter för komplementhändelser till oberoende händelser

Antag att A och B är oberoende händelser. Vi vill visa att A∗ och B ∗ är oberoende, dvs. P(A∗ ∩ B ∗ ) = P(A∗ )P(B ∗ ). En lämplig utgångspunkt är ekv. (3.3): P(A∗ ∩ B ∗ ) = 1 − P(A ∪ B). Med A och B oberoende följer att P(A∗ ∩ B ∗ ) = 1 − P(A ∪ B) = 1 − P(A) + P(B) − P(A ∩ B)

= 1 − P(A) − P(B) + P(A)P(B) = 1 − P(A) − P(B) 1 − P(A) = 1 − P(A) 1 − P(B) = P(A∗ )P(B ∗ ),

och beviset är klart.

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R

51


3. Sannolikheter och slumpvariabler

3.7

Övningsuppgifter

Jesper Rydén är docent i matematisk statistik och verksam som universitetslektor matematiska institutionen, Uppsala universitet. 301. Händelserna A ochvid B är oförenliga med P(A) = 0.2 och P(B) = 0.6. Bestäm P(A ∪ B).

302. Givet P(A) = 0.03, finn sannolikheten för komplementhändelsen A∗ , dvs. beräkna P(A∗ ).

STOKASTIK

FÖR INGENJÖRER

303. Händelserna A och B är oförenliga, med P(A∗ ) = 0.2 och P(B) = 0.1. Beräkna P(A ∪ B).

Många fenomen i vår omvärld är slumpmässiga – stokastiska – till 304. Sannolikheten för att händelsen A inträffar är 0.4. Motsvarande sannolikhet sinhändelsen natur. För B attärsom kunna för ge matematiska beskrivningar för 0.6.ingenjör Sannolikheten att både händelsen A och händelsen av dessa är det nödvändigt med kunskaper i sannolikhetslära. B inträffar är 0.2. Beräkna sannolikheten att varken A eller B inträffar. Detta utgör även grunden för statistisk inferens, där slutsatser kring 305. För händelserna ochdras B gäller P(A) =baserade 1/3, P(B)på = resultat 1/4 ochfrån P(A∪B) = insamlade dataAkan medatt metoder 1/2. Är händelserna A och B oberoende? sannolikhetsläran. En samlande benämning för detta område är stokastik: matematiska teorier och modeller för stokastiska fenomen. 306. För händelsen A gäller P(A) = 0.15, och följaktligen P(A∗ ) = 0.85. Är händelserna A och A∗ oberoende? I denna bok presenteras grundläggande sannolikhetslära och statistik. Den matematiska nivån hålls på så elementär nivå som möjligt och 307. Betrakta två oberoende händelser A och B med P(A) > 0, P(B) > 0. Är framställningen har gjorts med tanke på ingenjörstillämpningar. händelserna oförenliga? I varje kapitel finns rikligt med exempel där frågeställningarna ofta hargår en bakgrund någon teknisk tillämpning. avslutas med 308. Det att härledaimotsvarigheter till ekv. (3.1) Kapitlen för flera händelser. I fallet med övningsuppgifter, till vilka korta lösningar återfinns i bokens slut. tre händelser A, B och C har man uttrycket I den P(A andra upplagan tillkommit en + del nya avsnitt, exempelvis ∪B ∪ C) =harP(A) + P(B) P(C) illustreras hur statistikprogrammet R kan användas för beräkningar. − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) Nya övningsuppgifter har lagts till i samtliga kapitel. + P(A ∩ B ∩ C). Boken är lämplig för en inledande kurs i matematisk statistik för studeFör oförenliga händelser A, B och naturvetenskapliga C gäller dock det enklare sambandet rande vid ingenjörsutbildningar, utbildningar eller fristående kurser vid universitet och högskola. P(A ∪ B ∪ C) = P(A) + P(B) + P(C). Till den nya upplagan av Stokastik för ingenjörer finns en interaktiv Antag att för de vilken oförenliga A, B och Cmed gäller P(A) = 0.02, webbplats från man händelserna kan läsa boken digitalt möjlighet P(B) = 0.12, P(C) = 0.03. Beräkna sannolikheten att minst en av hänatt markera och anteckna. Här finns även övningsuppgifter som delserna inträffar. framför allt ger träning på grundläggande begrepp. Vidare finns kapitelsammanfattningar och en övningstentamen med lösningar. 309. En säljare står i färd med att försöka få förmånliga kontrakt med tre företag A, B och C. Av erfarenhet vet man att chanserna kan vara mer eller mindre goda. Beteckna med A, B och C händelserna att man lyckas få kontrakt med Andra upplagan företag A, B resp. C. Det anses känt att P(A) = 0.5, P(B) = 0.8, P(C) = 0.2. Art.nr 36022 Antag att händelserna A, B och C är oberoende och beteckna antalet erhållna kontrakt med X.

52

www.studentlitteratur.se

© F Ö R FAT TA R E N O C H S T U D E N T L I T T E R AT U R


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.