Discrete Kansrekening/Printversie

Uit Wikibooks
Naar navigatie springen Naar zoeken springen

Discrete Kansrekening

Dit boek is de praktisch ongewijzigde tekst van het overeenkomstige collegedictaat geschreven door drs. W. Nijdam en prof. dr. W.Albers van de Universiteit Twente en is met toestemming van beide auteurs hier opgenomen.

Het boek biedt een eerste kennismaking met kansrekening op universitair niveau voor wiskundestudenten.

Inhoud

0. Inleiding
   1. Algemene opmerkingen
   2. Geschiedenis
   3. Literatuur
1. Basisbegrippen
   1. Experiment en uitkomstenruimte
   2. Intuïtief kansbegrip
   3. Kans
   4. Eigenschappen van kansen
   5. Vraagstukken
2. Symmetrische kansruimten
   1. Inleiding
   2. Combinatorische kansrekening
   3. Vraagstukken
3. Voorwaardelijke kans en onafhankelijkheid
   1. Voorwaardelijke kans
   2. Onafhankelijke gebeurtenissen
   3. Samengestelde experimenten
   4. Vraagstukken
4. Stochastische variabelen
   1. Inleiding
   2. Kansverdeling
   3. Enkele bekende discrete verdelingen
   4. Vraagstukken
5. Simultane kansverdelingen
   1. Inleiding
   2. Voorwaardelijke kansverdelingen
   3. Onderling onafhankelijke stochastische variabelen
   4. Functies van stochastische variabelen
   5. Gelijkverdeelde stochastische variabelen
   6. Vraagstukken
6. Verwachtingswaarde
   1. Inleiding
   2. Verwachting van bekende discrete verdelingen
   3. Verwachting van functies van stochastische variabelen
   4. Eigenschappen van verwachtingswaarde
   5. Voorwaardelijke verwachtingswaarde
   6. Vraagstukken
7. Momenten
   1. Inleiding
   2. Variantie en standaardafwijking
   3. Variantie van bekende discrete verdelingen
   4. Covariantie en correlatie
   5. De ongelijkheid van Chebyshev
   6. De zwakke wet van de grote aantallen
   7. Vraagstukken
8. Tabellen
   1. Binomiale verdeling
   2. Poisson-verdeling
9. Register

Wikipedia Wikipedia heeft een encyclopedisch artikel over Kansrekening



Algemene opmerkingen

In natuur, techniek en samenleving treffen we veel verschijnselen aan die niet met zekerheid te voorspellen zijn, maar niettemin bepaalde wetmatigheden vertonen. Bijvoorbeeld de hoeveelheid neerslag op een bepaalde dag, het geslacht van een baby die geboren wordt, het defect raken van een auto. Deze verschijnselen kunnen we niet met zekerheid voorspellen. Toch weten we dat het in Nederland meer regent dan in Ethiopië, dat bijna de helft van de pasgeboren baby's meisjes zijn en dat een oude auto vaker defect raakt dan een nieuwe.

Kansrekening is een wiskundige theorie die zulke wetmatigheden beschrijft en bestudeert. Deze theorie is gebaseerd op enkele veronderstellingen waarvan we aannemen dat ze redelijk aansluiten bij de werkelijkheid. De juistheid van deze veronderstellingen wordt in de kansrekening echter nooit geverifieerd. De statistiek houdt zich bezig met methodes om de juistheid van veronderstellingen omtrent de werkelijkheid te verifiëren en de parameters van een probleem te "meten".

Een streng wiskundige behandeling van de kansrekening vereist het gebruik van maattheorie. In dit boek wordt geen maattheorie gebruikt, maar ligt de nadruk op een intuïtieve benadering. Kansrekening vindt toepassing in vele gebieden van wetenschap en techniek. We noemen slechts enkele voorbeelden: statistiek, statistische mechanica, operationele research, verzekeringswiskunde, econometrie, informatie- en communicatietheorie, biologie en psychologie.

Geschiedenis

De kansrekening is in de zeventiende eeuw ontstaan uit problemen in verband met het dobbelspel. Vragen van de dobbelende Chevalier DeMéré (1610-1685) werden in 1654 aanleiding tot een briefwisseling tussen Pascal (1623-1662) en Fermat (1601-1665). Een van de vragen luidde ongeveer: "Wat is waarschijnlijker: met één dobbelsteen in vier worpen minstens één zes te gooien óf met twee dobbelstenen in 24 worpen minstens één dubbelzes te gooien". De kansen op deze gebeurtenissen zijn ongeveer 0,5177 en 0,4914. Dat DeMéré door ervaring (en tot zijn verbazing) had geconstateerd dat de eerste kans groter dan een half was en de tweede kleiner dan een half, zegt wel iets over zijn hartstocht voor het dobbelen.

De frivole oorsprong van de kansrekening is nog altijd merkbaar in de moderne leerboeken en komt zeer duidelijk tot uiting in de vroegste literatuur. Het eerste boek over kansrekening werd in 1657 geschreven door Christiaan Huijgens (1629-1695): De ratiociniis in ludo aleae (Over berekeningen bij het dobbelspel). Andere boeken uit de begintijd zijn: Essai d'Analyse sur les Jeux de Hasard in 1708 door DeMontmort (1678-1719), Ars conjectandi (de kunst van het gissen (gokken?)) in 1713 door Jacob Bernoulli (1654-1705) en The Doctrine of Chances in 1718 door DeMoivre (1667-1754). Namen van anderen die in belangrijke mate hebben bijgedragen tot het ontstaan van de kansrekening, zijn Laplace (1749-1827), Gauss (1777-1855) en Poisson (1781-1840). De eerste definitie van het begrip "kans" werd gegeven door Laplace in zijn Théorie analytique des probabilités (1812). Van de zeer vele wiskundigen die de kansrekening verder hebben ontwikkeld, noemen we nog Chebyshev (1821-1894), Markov (1856-1922), Borel (1871-1956), Lévy (1886-1972), Khintchine (1895-1959), Bernstein (1878-1956), Fréchet (1878-1973), Kolmogorov (1903-1987) en Feller (1906-1970).

Literatuur

De volgende boeken bevatten ongeveer de stof die hier behandeld wordt en bovendien verdere uitbreidingen van de theorie:

  1. C.R. Heathcote, Probability, Elements of the Mathematical Theory, George Allen & Unwin Ltd., London, 1971.
  2. S.M. Ross, A First Course in Probability, 4th edition, MacMillan, New York, 1994.
  3. A.J. Stam, Inleiding tot de waarschijnlijkheidsrekening, H. Stam, Haarlem 1964.
  4. W. Feller, An Introduction to Probability Theory and Its Applications, Vol. I, Third Edition, Wiley, New York, 1968 (verkrijgbaar als paperback).




Terug naar Inhoud


1.1 Experiment en uitkomstenruimte

In de kansrekening (of waarschijnlijkheidsrekening) houden we ons bezig met (wiskundige) modellen voor het beschrijven van experimenten waarin het toeval een rol speelt. We kunnen daarbij denken aan het werpen van een dobbelsteen of het meten van de levensduur van een bepaald type gloeilamp. In deze gevallen is duidelijk welke handelingen we moeten verrichten om een uitkomst van het experiment te verkrijgen. De uitkomst zelf staat echter in het algemeen niet van te voren vast, maar pas nadat het experiment is uitgevoerd. Dergelijke experimenten noemen we stochastisch.

Definitie 1.1.1

Onder een toevalsexperiment (of stochastisch experiment) verstaan we een experiment dat, onder gelijke omstandigheden herhaald, niet noodzakelijk tot gelijke uitkomsten leidt.

Opmerking 1

In het vervolg zullen we steeds van experiment spreken als we een stochastisch experiment bedoelen.

Het uitvoeren van een experiment leidt altijd tot een resultaat: de uitkomst van het experiment. Bij het werpen van een dobbelsteen is de uitkomst het aantal geworpen ogen; de geboorte van een baby leidt tot een van de uitkomsten "jongen" of "meisje"; de uitkomst bij het meten van de levensduur van een gloeilamp is de vastgestelde levensduur, een positief reëel getal, en het lanceren van de satelliet leidt tot een van de uitkomsten "succes" of "mislukking".

Bij de uitvoering van een experiment kan de uitkomst zelf van veel belang zijn. Denk aan een spelletje dobbelen of roulette, of aan ouders die graag een zoon willen hebben. In de kansrekening gaat het echter niet om een specifieke uitkomst, maar om de mogelijke uitkomsten. Hoewel de uitkomst van een stochastisch experiment niet a-priori vaststaat, kunnen we wel vaststellen welke uitkomsten mogelijk zijn. Deze mogelijke uitkomsten horen onverbrekelijk bij het experiment en staan, in tegenstelling tot de uitkomst, ook vast voordat het experiment is uitgevoerd. De verzameling van alle mogelijke uitkomsten noemen we de uitkomstenruimte van het experiment. Deze verzameling duiden we gewoonlijk aan door S (van Engels: Sample space).

Definitie 1.1.2

De uitkomstenruimte S (S ≠ ∅) van een experiment is de verzameling van alle mogelijke uitkomsten; een element s ∈ S heet uitkomst. We spreken van een discrete uitkomstenruimte als de uitkomstenruimte eindig dan wel aftelbaar oneindig is.

Opmerking 2

We zullen ons in dit boek uitsluitend bezighouden met discrete uitkomstenruimten; vandaar de titel Discrete Kansrekening. Met de bestudering hiervan wordt een goed beeld gekregen van wat kansrekening inhoudt en een goede basis gelegd voor verdere bestudering van de algemene theorie.

Een experiment geeft aanleiding tot bepaalde gebeurtenissen. Zo kunnen we bij het werpen van een dobbelsteen spreken over de gebeurtenis dat het geworpen aantal ogen even is of de gebeurtenis dat dit aantal groter dan 3 is. De gebeurtenis "aantal ogen is even" treedt op als de uitkomst 2, 4 of 6 is. Daarom identificeren we deze gebeurtenis met de deelverzameling {2,4,6} van de uitkomstenruimte. Zo is de gebeurtenis "aantal ogen groter dan 3" identiek met de deelverzameling {4,5,6}. Algemeen zullen we gebeurtenissen opvatten als deelverzamelingen van de uitkomstenruimte.

Definitie 1.1.3

Een gebeurtenis is een deelverzameling van de uitkomstenruimte S.

We geven gebeurtenissen veelal aan met hoofdletters uit het begin van het alfabet, dus A, B, C etc.

Voorbeeld 1 (ontaarde situatie)

Een experiment met één mogelijke uitkomst u. De uitkomstenruimte is een verzameling met slechts één element: S = {u}. Er is eigenlijk geen sprake van toeval.

Voorbeeld 2 (alternatief)

We werpen een munt. Er zijn twee mogelijke uitkomsten K(ruis) en M(unt). We nemen dus als uitkomstenruimte de verzameling S = {K,M}. Een gebeurtenis is bv. {K} = "we hebben kruis geworpen"; deze gebeurtenis is praktisch niet verschillend van de uitkomst K.

Voorbeeld 3 (dobbelsteen)

We werpen een dobbelsteen; het aantal geworpen ogen is de uitkomst van het experiment. De uitkomstenruimte is dus S = {1,2,3,4,5,6}. Gebeurtenissen zijn bv. E = {2,4,6} (we gooien een even ogenaantal), D = {1,2} (we gooien minder dan 3) of A = {1,6} (we gooien 1 of 6).

Voorbeeld 4 (twee worpen met een dobbelsteen)

We werpen twee maal een dobbelsteen. Als uitkomst van dit experiment nemen we het getallenpaar bestaande uit het aantal geworpen ogen bij de eerste worp en dat bij de tweede worp. De uitkomstenruimte is S = {(1,1),...,(1,6),(2,1),...,(2,6),...,(6,6)} = {(i,j)|i = 1,2,...,6 en j = 1,2,...,6} en bevat dus 36 uitkomsten. Grafisch kan men deze uitkomstenruimte als volgt voorstellen:

NYW-DK-Sim2DiceNL.png

Figuur 1.1.1. Uitkomstenruimte bij twee worpen met een dobbelsteen.


Een gebeurtenis is bv. A = {(1,3),(2,2),(3,1)} (de som van de ogen van beide dobbelstenen is 4); in de figuur zijn de uitkomsten die tot A behoren aangegeven door "x". De gebeurtenis B dat beide worpen hetzelfde aantal ogen opleveren is B = {(1,1),(2,2),...,(6,6)}.

Voorbeeld 5

Uit een partij bestaande uit 1000 chips worden er 10 gekozen. Deze 10 chips worden elk getest en goedgekeurd of afgekeurd. De uitkomst van dit experiment is het aantal afgekeurde chips; als uitkomstenruimte nemen we: S = {0,1,...,10}. Een gebeurtenis is A = {0,1,2} (dwz. er zijn ten hoogste twee afgekeurde chips).

Voorbeeld 6

We werpen een dobbelsteen zo vaak tot voor het eerst 6 boven komt. Het aantal worpen vatten we op als uitkomst van het experiment; de uitkomstenruimte is dan S = {1,2,...}. Deze uitkomstenruimte is niet eindig, zoals in de voorgaande voorbeelden, maar aftelbaar oneindig. Een gebeurtenis is bv. A = {1,2,3,4,5} (dwz. om 6 te gooien, hoefden we niet meer dan 5 keer te werpen).

Voorbeeld 7

De levensduur van een gloeilamp kan men beschouwen als de uitkomst van een experiment. Aangezien een lamp op ieder willekeurig tijdstip defect kan raken, moeten we als uitkomstenruimte nemen S = [0,∞). Deze uitkomstenruimte is niet meer aftelbaar. Een gebeurtenis is bv. A = (1000,∞) (de lamp brandde langer dan 1000). Met zulke niet-discrete uitkomstenruimten houden we ons in dit boek niet bezig.


Aangezien gebeurtenissen gedefinieerd zijn als verzamelingen, kunnen we aan verschillende begrippen uit de verzamelingenleer een voor de kansrekening eigen interpretatie geven (de begrippen worden bekend verondersteld).

-De uitkomstenruimte S zelf, in de verzamelingenleer als universele verzameling aangeduid, is ook een gebeurtenis, die we de zekere gebeurtenis noemen; aangezien elke uitkomst in S ligt, treedt deze gebeurtenis dus altijd op.

-Ook de lege verzameling ∅ is een gebeurtenis; we noemen die de onmogelijke gebeurtenis, omdat geen enkele uitkomst element is van ∅ en deze gebeurtenis dus nooit optreedt.

-Een gebeurtenis {s} die slechts één uitkomst s bevat, een singleton, noemen we een elementaire gebeurtenis. Zo'n gebeurtenis is praktisch gesproken niet verschillend van de uitkomst s, maar formeel daarvan verschillend.

-Het complement (t.o.v. S) van A:

,

heet complementaire gebeurtenis van A, dus de gebeurtenis die optreedt als A niet optreedt.

-De vereniging A ∪ B van twee gebeurtenissen A en B is de gebeurtenis die optreedt als A optreedt of B optreedt.

-De doorsnede AB (= A ∩ B) van twee gebeurtenissen A en B is de gebeurtenis die optreedt als A en B (beide) optreden.

-Indien A ⊂ B (A is een deelverzameling van B), dan zeggen we: A impliceert B, dwz. als A optreedt, treedt ook B op.


In de kansrekening spelen gebeurtenissen die niet gelijktijdig kunnen optreden een belangrijke rol; we geven daarom de volgende definitie:

Definitie 1.1.4a

De gebeurtenissen A en B noemen we disjunct (of elkaar uitsluitend) als AB = ∅, dwz. A en B kunnen niet gelijktijdig optreden.

We kunnen deze definitie op voor de hand liggende wijze uitbreiden naar een rij gebeurtenissen, bestaande uit een aftelbaar aantal gebeurtenissen (Ai), dwz. de rij is eindig (A1,A2,...,An) of de rij is aftelbaar oneindig (A1,A2,...). In beide gevallen duiden we de rij aan met (Ai).

Definitie 1.1.4b

We spreken van een rij disjuncte (of elkaar uitsluitende) gebeurtenissen (Ai), als AiAj = ∅ voor elk mogelijk paar (i,j) waarvoor i ≠ j.


-Voor een rij gebeurtenissen (Ai) bedoelen we met (zowel in het eindige als in het aftelbaar oneindige geval) de gebeurtenis die optreedt als elk van de gebeurtenissen Ai optreedt en met de gebeurtenis die optreedt als ten minste een van de gebeurtenissen Ai optreedt.

De volgende eigenschappen van verzamelingen worden bekend geacht:

Stelling 1.1.1 (eigenschappen van gebeurtenissen)

(a)

(b)

(c) (regels van De Morgan).

Definitie 1.1.5

De rij disjuncte gebeurtenissen (Ai) noemen we een partitie van de gebeurtenis B als . Een partitie wordt ook wel aangeduid als categorisch systeem.


Voorbeeld 8

Op een school zitten 1000 leerlingen waaronder 600 meisjes. De school bestaat uit de afdelingen MAVO, HAVO en VWO. Uit deze leerlingen wordt er één gekozen. Bij dit "experiment" kunnen we de volgende gebeurtenissen omschrijven:

M treedt op als de gekozen leerling een meisje is,
J treedt op als de gekozen leerling een jongen is,
A treedt op als de gekozen leerling MAVO volgt,
B treedt op als de gekozen leerling HAVO volgt,
C treedt op als de gekozen leerling VWO volgt.

De uitkomst van het experiment is een leerling s en de uitkomstenruimte S is de verzameling van alle 1000 leerlingen. M is een deelverzameling van S, namelijk de verzameling van alle meisjes, J die van alle jongens, A die van alle MAVO-leerlingen, enz. We zien nu onder meer het volgende:

  • J = Mc;
  • A ∪ B is de verzameling van leerlingen die MAVO of HAVO volgen, dus de gebeurtenis dat de gekozen leerling MAVO of HAVO volgt;
  • AB = ∅, dus A en B sluiten elkaar uit: de gekozen leerling kan niet tegelijk MAVO en HAVO volgen;
  • A ∪ B ∪ C = S, dus A, B en C vormen een partitie van S, dwz. een opdeling van S in elkaar uitsluitende gebeurtenissen.
  • M ∪ J = S; ook M en J vormen een partitie van S.
  • MC is de verzameling van meisjes die VWO volgen, dus de gebeurtenis dat de gekozen leerling een meisje is dat VWO volgt;
  • J ∪ B is de verzameling van leerlingen die van het mannelijk geslacht zijn of HAVO volgen.



1.2 Intuitief kansbegrip

Om tot een kansbegrip te komen, bespreken we eerst een tweetal intuïtieve benaderingswijzen van het begrip kans. Als eerste baseren we ons op het ervaringsfeit dat, als een uitkomst in bv. 30% van een lange reeks waarnemingen optreedt, we dit getal van 30% als de kans van optreden van die uitkomst interpreteren (Von Mises, 1920). We beschouwen daartoe een experiment waarbij de gebeurtenis kan optreden. Voeren we het experiment maal uit, dan noemen we de fractie keren dat de gebeurtenis optreedt, het frequentiequotiënt van bij uitvoeringen van het experiment.

Definitie 1.2.1

Het frequentiequotiënt van de gebeurtenis bij herhalingen van een experiment is de fractie malen dat optreedt, dus

;

daarin is het aantal keren dat bij die herhalingen optreedt.


Voor vaste heeft het frequentiequotiënt de volgende eigenschappen.

Stelling 1.2.1 (eigenschappen van frequentiequotiënt)

Voor het frequentiequotiënt van een gebeurtenis geldt:

(a)
(b)
(c1) als en twee disjuncte gebeurtenissen zijn, is:
(c2) algemeen geldt voor aftelbaar oneindig veel disjuncte gebeurtenissen dat:
.

Voorbeeld 1

We doen het volgende experiment. We voeren achtereenvolgens 1000 worpen met een munt uit en noteren voor elke de waarde van , waarbij de gebeurtenis "kruis komt boven" is. In figuur 1.2.1 staat de grafiek van getekend voor de eerste 35 worpen en in figuur 1.2.2 voor alle 1000 worpen.

Figuur 1.2.1 Diagram van bij de eerste 35 worpen
Figuur 1.2.2 Diagram van bij de eerste 1000 worpen

Uit figuur 1.2.1. zien we dat de uitkomsten van de eerste 35 worpen waren: KMKMM KKKMK MMKKM KMMMM KKKKK MKMKK KMKKK. Ook zien we dat de frequentiequotiënten in het begin (als nog klein is) vrij sterke schommelingen vertonen; echter als eenmaal vrij groot is, vertoont niet veel variatie meer, zoals we kunnen zien in figuur 1.2.2. Het lijkt veeleer alsof met toenemende tot een limietgetal nadert.


Wat we in het voorbeeld constateerden, is geen incidenteel verschijnsel; algemeen blijkt dat, wanneer we een zeer lange serie experimenten (van hetzelfde type) uitvoeren, van welke aard ook, de frequentiequotiënten op den duur steeds minder variëren en als het ware tot een limietgetal naderen. Dit experimenteel gevonden verschijnsel heet de experimentele wet van de grote aantallen.

Intuïtief correspondeert dit denkbeeldige limietgetal met de betekenis die we gewoonlijk aan het begrip kans hechten. Het geeft immers de fractie malen aan dat een gebeurtenis optreedt in een "oneindig lange" serie herhalingen van een experiment. Toch kunnen we op deze wijze niet het begrip kans invoeren, omdat we oneindig lange series experimenten nooit kunnen uitvoeren. We zullen later het begrip kans zo invoeren dat het de bovenstaande eigenschappen heeft.

Ook op andere wijze krijgen we een intuïtieve benadering van het kansbegrip. We laten dat zien aan het volgende voorbeeld.

Voorbeeld 2

We werpen een zuivere dobbelsteen (dwz. een exacte kubus, gemaakt van een homogeen materiaal en de 6 zijden voorzien van de ogenaantallen 1 tot en met 6, zonder de gewichtsverdeling te verstoren). Op grond van de (fysische) symmetrie van de dobbelsteen zeggen we dat elk van de mogelijke uitkomsten (ogenaantallen) 1 tot en met 6 gelijke kans van optreden heeft.


Definitie 1.2.2

Een experiment met een eindig aantal uitkomsten noemen we symmetrisch, als alle uitkomsten even waarschijnlijk zijn (dwz. als er geen voorkeur van optreden is voor een van de uitkomsten).


Het idee van symmetrie is wel geschikt voor een definitie van het begrip kans. Het werd geïntroduceerd door Laplace (1749-1827).

Definitie 1.2.3 (kansdefinitie van Laplace)

In een symmetrisch experiment wordt de kans op een gebeurtenis gegeven door de fractie voor gunstige (dwz. tot behorende) uitkomsten.


Voorbeeld 3

Voor een opiniepeiling wordt willekeurig een volwassen Nederlander uitgekozen uit de gehele bevolking. Omdat er willekeurig wordt gekozen, is er sprake van symmetrie. De kans dat de gekozen persoon uit Limburg komt, kunnen we dus berekenen als


Eenvoudig is in te zien dat de kans volgens Laplace voldoet aan de voor het frequentiequotiënt genoemde eigenschappen.

Stelling 1.2.2

De kans volgens Laplace voldoet aan de eigenschappen 1.2.1.a - c.


Toch heeft de kansdefinitie van Laplace twee ernstige beperkingen. De definitie veronderstelt een eindige uitkomstenruimte, terwijl we ook experimenten in onze beschouwingen willen betrekken waarbij de uitkomstenruimte oneindig veel elementen bevat. Bovendien, al telt de uitkomstenruimte van een experiment eindig veel elementen, de veronderstelling dat iedere elementaire gebeurtenis dezelfde kans heeft, sluit zeker niet altijd aan bij de realiteit. We zoeken daarom naar een definitie van het begrip kans die meer algemeen is.

Opmerking 1

De frequentie-interpretatie van kansen is gebaseerd op een lange rij herhalingen van het experiment. Het is daarbij niet nodig dat dergelijke herhalingen werkelijk uitgevoerd worden. We denken ons in dat het experiment een groot aantal malen herhaald zou worden. Maar ook met deze ruime opvatting is de idee van herhaalbaarheid nogal eens gewrongen.

Opmerking 2

Een arts vertelt een patiënt dat de slaagkans van een operatie 80% is. Wat moeten we ons bij een dergelijke uitspraak voorstellen? Allereerst zouden we moeten weten waar een dergelijke uitspraak op gebaseerd is. Vaak is een dergelijke uitspraak niet erg gefundeerd. Beschouwen we echter de uitspraak op zichzelf en stellen we ons op het standpunt van de arts dan is een frequentie-interpretatie zeer wel denkbaar. Als de arts de operatie vele malen uitvoert, slaagt de operatie in zo'n 8 van de 10 gevallen. Stellen we ons op het standpunt van de patiënt, dan lijkt een dergelijke interpretatie niet erg zinvol. De patiënt ondergaat de operatie niet vele malen. Het is meestal een eenmalige aangelegenheid. Om toch een beeld te vormen van de betekenis van die 80%, doen we het volgende gedachte-experiment. In een kamer staat een bak met 100 knikkers, 80 witte en 20 zwarte. Er wordt op goed geluk één knikker uit de bak getrokken. Is de knikker wit, dan slaagt de operatie; is de knikker zwart, dan mislukt de operatie. Helaas wordt ons niet verteld of er een witte dan wel een zwarte knikker getrokken is.

Met een dergelijk beeld in het achterhoofd groeit, naarmate we meer voorbeelden en toepassingen tegenkomen, de operationele betekenis van de intuïtieve interpretatie van het begrip kans.


 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.



1.3 Kans

In 1933 legde de Russische wiskundige A. N. Kolmogorov (1903-1987) in zijn boekje "Grundbegriffe der Wahrscheinlichkeitsrechnung" de basis voor de moderne kansrekening. Hierdoor kwamen de in de vorige paragrafen genoemde beperkingen te vervallen. Bij deze aanpak is een willekeurige (niet-lege) verzameling als uitkomstenruimte toegestaan. Zo is bv. de verzameling van alle reële getallen toegestaan, waardoor het o.a. mogelijk is dat er oneindig veel verschillende gebeurtenissen zijn. Voor de elementaire gebeurtenissen is niet meer vereist dat ze alle "gelijkelijk mogelijk" zijn. Kolmogorov poneerde drie axioma's waaraan een kans moet voldoen. Deze drie axioma's zijn het analogon van de eigenschappen 1.2.1.a - c uit paragraaf 2, waaraan het frequentiequotiënt zowel als de kans volgens Laplace voldoet.

Definitie 1.3.1 (axioma's van Kolmogorov)

Zij S een willekeurige uitkomstenruimte. Een functie P die aan elke gebeurtenis A ⊂ S een reëel getal P(A) toevoegt, noemen we een kans op S, als P voldoet aan de volgende eisen:

(a) P(A) ≥ 0 voor elke gebeurtenis A;
(b) P(S) = 1;
(c) voor elke aftelbaar oneindige rij disjuncte gebeurtenissen (Ai) geldt:
.


Op deze drie rekenregels voor kansen berust de gehele kansrekening!

Opmerking

De axioma's van Kolmogorov zijn van toepassing op willekeurige uitkomstenruimten. In dit boek zullen we ons echter alleen met discrete uitkomstenruimten bezighouden.


In de vorige paragraaf hebben we al opgemerkt dat een kans volgens de definitie van Laplace voldoet aan de axioma's en dus terecht de naam kans verdient. Op welke andere manieren kunnen we nu een kans construeren? Voor discrete uitkomstenruimten kunnen we op natuurlijke wijze de kans p(s) = P({s}) op een elementaire gebeurtenis vastleggen door de kansfunctie p.

Definitie 1.3.2

Zij S een willekeurige (discrete) uitkomstenruimte. Een functie , die aan iedere uitkomst s een getal p(s), dat we ook kans op s noemen, toevoegt, heet kansfunctie als:

en

.

We kunnen nu bij een kansfunctie een kans definiëren, door de kans op een gebeurtenis te berekenen als de som van de kansen op de uitkomsten die tot die gebeurtenis behoren. Dat zo inderdaad een kans gedefinieerd is blijkt uit de volgende stelling.

Stelling 1.3.1

Als p een kansfunctie is op de uitkomstenruimte S, dan is de functie P, gedefinieerd voor iedere gebeurtenis A door:

een kans op S.


Bij iedere kansfunctie p op een discrete uitkomstenruimte S hoort dus een kans P op S. Omgekeerd hoort bij iedere kans P op een discrete uitkomstenruimte S een kansfunctie p op S.

Stelling 1.3.2

Als P een kans is op de uitkomstenruimte S, dan is de functie gedefinieerd door:

een kansfunctie.


Uit het voorgaande blijkt dus dat kansen P en kansfuncties p op een-eenduidige wijze bij elkaar horen.

Definitie 1.3.3

Zij S een uitkomstenruimte en P een kans op S, dan noemen we het paar (S,P) een kansruimte. Ook het paar (S,p), waarin p de bij P behorende kansfunctie is, zullen we als kansruimte aanduiden.


Voorbeeld 1 (alternatief; vervolg)

De uitkomstenruimte is S = {K,M}. We geven een willekeurige kansfunctie aan door p(K) = 1 - p(M) = p, met 0 ≤ p ≤ 1. Er zijn maar vier gebeurtenissen; de bij p behorende kans P kent daaraan de volgende kansen toe: P(∅) = 0, P({K}) = p, P({M}) = 1-p en P(S) = 1. We kunnen de kansruimte ook in een tabel geven:

K M S
1

Voorbeeld 2 (zuivere dobbelsteen; vervolg)

De uitkomstenruimte is S = {1,2,3,4,5,6}. Voor een zuivere dobbelsteen is de kans op elke uitkomst gelijk, dus p(1) = p(2) = ... = p(6) = 1/6. De bijbehorende kans P is gedefinieerd volgens Laplace, dus is bv. P(E) = 3/6 voor de gebeurtenis E = {2,4,6} (we gooien een even ogenaantal) en P(D) = 2/6 voor D = {1,2} (we gooien minder dan 3). In tabel ziet de kansruimte er als volgt uit:

1 2 3 4 5 6 totaal
1/6 1/6 1/6 1/6 1/6 1/6 1

Voorbeeld 3 (twee worpen met een dobbelsteen; vervolg)

De uitkomstenruimte is S = {(i,j)|i=1,2,...,6 en j=1,2,...,6} en voor een zuivere dobbelsteen zijn alle 36 uitkomsten even waarschijnlijk, dus is p(s) = 1/36 voor alle s ∈ S. De bijbehorende kans P is weer gedefinieerd volgens Laplace; zo heeft de gebeurtenis A = {(1,3),(2,2),(3,1)} (de som van de ogen van beide worpen is 4) een kans P(A) = 3/36 van optreden.


 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.



1.4 Eigenschappen van kansen

Uit de axioma's van Kolmogorov kunnen we enkele eigenschappen afleiden die het rekenen met kansen vereenvoudigen of overzichtelijker maken.

Stelling 1.4.1 (eigenschappen van kansen)

Omdat ∅ = ∅ ∪ ∅ ∪ ... geldt volgens axioma 1.3.1.c dat P(∅) = P(∅) + P(∅) + .... Uit deze gelijkheid volgt:

(a) P(∅) = 0.

Als A1,A2,...,An disjuncte gebeurtenissen zijn en we stellen Ak = ∅ voor k > n, dan volgt uit axioma 1.3.1.c, dat:

(b) .

Voor elke twee gebeurtenissen A en B kunnen we schrijven B = AB ∪ AcB; omdat AB en AcB disjunct zijn, volgt uit b:

(c) P(B) = P(AB) + P(AcB).

Kiezen we B = S in c, dan vinden we in het bijzonder:

(d) P(Ac) = 1 - P(A).

Is A ⊂ B dan is AB = A, zodat uit c volgt:

(e) als A ⊂ B, dan is P(A) ≤ P(B).

Tevens volgt uit c dat in het algemeen geldt:

(f) P(A∪B) = P(A) + P(AcB) = P(A) + P(B) - P(AB).

Uit f blijkt weer dat (ongelijkheid van Boole):

(g) P(A∪B) ≤ P(A) + P(B).


Opmerking 1

Eigenschap b is niet equivalent met axioma 1.3.1.c. Het voert echter te ver om hier nader op in te gaan.


Voorbeeld 1

We werpen net zolang een zuivere dobbelsteen tot we zes gooien. Hoe groot is de kans dat we meer dan drie keer moeten werpen? Als uitkomstenruimte nemen we {1,2,3,...}, waarin we de uitkomst "n keer werpen" aangeven door n, en als kansfunctie p(n) = (5/6)n-1(1/6). Laat A de gebeurtenis "meer dan drie keer werpen" zijn. De gevraagde kans is dan P(A) = p(4) + p(5) + p(6) + ... Het is nu gemakkelijker om naar het complement van A te kijken; immers P(Ac) = p(1) + p(2) + p(3) = 1/6 + 5/36 + 25/216 = 91/216, zodat P(A) = 1 - P(Ac) = 125/216. We zullen later zien dat we deze kans ook kunnen bepalen door de gevraagde gebeurtenis op te vatten als "de eerste drie worpen geen zes". Bij elke worp is de kans 5/6 dat we geen zes gooien en we zullen dan zien dat we de gevraagde kans door vermenigvuldiging van deze kansen moeten berekenen, dus als (5/6)3 = 125/216.

Voorbeeld 2

In een bepaalde stad leest 30% van de inwoners krant A, 20% krant B en 5% is geabonneerd op beide kranten. Wat is de kans dat een willekeurig gekozen inwoner tenminste een van beide kranten leest? Er geldt: P(A∪B) = P(A) + P(B) - P(AB) = 0,3 + 0,2 - 0,05 = 0,45.

Eigenschap f laat zich gemakkelijk generaliseren naar meer dan twee gebeurtenissen. Begripsmatig is deze generalisatie niet ingewikkeld, maar wel het opschrijven ervan; we zullen dit dan ook alleen expliciet doen voor drie gebeurtenissen. Door herhaald toepassen van f volgt dan:

Stelling 1.4 (algemene somregel)

Voor een drietal gebeurtenissen A, B en C geldt:

P(A∪B∪C) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC).


Voorbeeld 3 (ONS DORP)

In ONS DORP, een dorp van 8123 inwoners, is een bloeiend cultureel leven, hetgeen blijkt uit het bestaan van drie toneelverenigingen: ACHTER DE COULISSEN (A) met 42 leden, BURGERTONEEL (B) met 30 leden en de CHRISTELIJKE TONEELVERENIGING (C) met 57 leden. Hoe groot is de kans dat een willekeurig gekozen dorpsbewoner toneel speelt? Die kans is niet (42+30+57)/8123, want 10 dorpsbewoners zijn lid van A zowel als van B, 12 zijn lid van A zowel als van C, 9 van B zowel als van C en 8 zijn zelfs lid van alle drie toneelverenigingen. We vinden dus: P(A∪B∪C) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC) = (42 + 30 + 57 - 10 - 12 - 9 + 8)/8123 = 106/8123.




2.1 Inleiding

In het voorgaande hoofdstuk hebben we al gesproken over symmetrie, dwz. over situaties waarin alle uitkomsten gelijke kans hebben. Als voorbeeld zijn we het werpen van een zuivere munt of zuivere dobbelsteen tegengekomen. Symmetrie komen we vaker tegen, zoals in de belangrijke gevallen van het lukraak trekken van knikkers (loten) uit een vaas. Uiteraard kunnen er in het geval van symmetrie maar eindig veel uitkomsten zijn.

Definitie 2.1.1

Een kansruimte (S,p) noemen we symmetrisch als S eindig is en iedere uitkomst s ∈ S gelijke kans heeft.


Aangezien we in dit hoofdstuk veel over het aantal uitkomsten in een gebeurtenis zullen spreken, voeren we een aparte notatie in voor het aantal elementen van een verzameling

Definitie 2.1.2

Het aantal elementen van een verzameling A geven we aan door #A.


Omdat de som van alle kansen op uitkomsten in een uitkomstenruimte gelijk is aan 1, heeft elke uitkomst s in een symmetrische kansruimte een kans p(s) = 1/#S.

Stelling 2.1.1

In een symmetrische kansruimte (S,p) wordt de kansfunctie p gegeven door:

,

voor alle s ∈ S.


De kans P(A) op een gebeurtenis A is in een symmetrische kansruimte juist de kans volgens de definitie van Laplace. We kunnen de kans op A bepalen door te tellen hoeveel uitkomsten tot A behoren (gunstig zijn voor A) en dat aantal te delen door het totale aantal mogelijke uitkomsten.

Stelling 2.1.2 (kansdefinitie van Laplace)

In een symmetrische kansruimte wordt de kans op een gebeurtenis A gegeven door

Bewijs:


We bespreken nu enkele voorbeelden van symmetrische kansruimten.

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)

De uitkomstenruimte S bestaat uit de 36 paren (s1,s2), met si= 1,2,...,6. Omdat de dobbelsteen zuiver is en we er lukraak mee gooien, zullen alle 36 uitkomsten dezelfde kans hebben. Dit experiment beschrijven we dus met een symmetrische kansruimte; dwz. de kansfunctie p is eenvoudigweg voor alle 36 uitkomsten gelijk en wel: p(s1,s2) = 1/36. Wat is de kans dat het totaal aantal geworpen ogen gelijk is aan 4? Die gebeurtenis noemden we A, dus P(A) = #A/#S = 3/36, want 3 van de 36 uitkomsten zijn gunstig voor A.

Voorbeeld 2

Op de school van voorbeeld 7 uit par. 1.1 wordt willekeurig één leerling gekozen uit het totaal van 1000 leerlingen. Dat we willekeurig kiezen, betekent dat elke leerling dezelfde kans heeft om gekozen te worden; die kans is dus 1/1000. We hebben te maken met een symmetrische kansruimte. De gebeurtenis dat deze leerling een meisje is, duiden we aan met M; dan is P(M) = 600/1000 = 0,6.

Voorbeeld 3

Uit een spel van 52 kaarten trekken we lukraak één kaart. Er is weer symmetrie. We berekenen bv.:

P("ruiten") = aantal ruiten / totaal aantal = 13/52 = 1/4,
P("aas") = 4/52 = 1/13

en

P("ruiten" of "aas") = 16/52 = 4/13.

De laatste kans kunnen we ook berekenen met de algemene somregel, dan is:

P("ruiten" of "aas") = P("ruiten") + P("aas") - P("ruitenaas") = 13/52 + 4/52 - 1/52 = 16/52.


Voor we beslissen dat er bij een experiment sprake is van symmetrie, dienen we ons er terdege van te overtuigen dat het experiment zo is ingericht dat inderdaad alle uitkomsten even waarschijnlijk zijn. Het volgende historische voorbeeld laat zien hoe hier gemakkelijk fouten kunnen ontstaan.

Voorbeeld 4

We werpen tegelijk twee munten. De uitkomsten kunnen we voorstellen door 2×kruis, 1×kruis en 0×kruis. D'Alembert (1717-1783) stelde ten onrechte dat de bijbehorende kansruimte symmetrisch is.

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.



2.2 Combinatorische kansrekening

Veel problemen in de kansrekening kunnen worden opgelost door gebruik te maken van symmetrie, dus door de kansdefinitie van Laplace toe te passen. Het berekenen van kansen komt dan neer op het tellen van uitkomsten. Het zal duidelijk zijn dat de theorie van het tellen, de combinatoriek, een belangrijk hulpmiddel in de kansrekening is. In dit hoofdstuk zullen we een aantal belangrijke resultaten uit de combinatoriek herhalen en toepassen in de kansrekening.

Telkens blijkt goed tellen toch meer een kunst te zijn, dan op het eerste gezicht het geval lijkt. Een eerste moeilijkheid doet zich voor als er een of andere opsplitsing van het probleem is gebruikt en de vraag opduikt of we in dat het geval het totale aantal verkrijgen door optelling dan wel door vermenigvuldiging. Het antwoord luidt - uiteraard - dat het afhangt van de aard van de opsplitsing. De beide volgende stellingen geven hierover uitsluitsel.

Stelling 2.2.1 (speciale somregel)

Voor de vereniging van een collectie disjuncte verzamelingen A1,A2,...,An geldt: #(A1∪A2∪...∪An) = #A1+#A2+...+#An.

Als we het aantal elementen van elke Ai geteld hebben en de Ai's hebben onderling geen gemeenschappelijke elementen, dan hoeven we niet opnieuw te gaan tellen om het totale aantal elementen te bepalen, maar kunnen we gewoon de afzonderlijke aantallen bij elkaar optellen. We kunnen zeggen dat we moeten optellen als de verschillende mogelijkheden naast elkaar kunnen voorkomen, dus de een of de ander.

In de bovenstaande regel ligt een bron van veel fouten besloten. Er wordt nogal eens over het hoofd gezien dat geëist wordt dat de verzamelingen disjunct zijn. Is dat niet het geval, dan moeten we de algemene somregel gebruiken. Voor twee verzamelingen luidt die:

Stelling 2.2.2 (algemene somregel)

Voor een tweetal verzamelingen A en B geldt: #(A∪B) = #A + #B – #AB

Het totale aantal elementen in A en B verkrijgen we door de afzonderlijke aantallen bij elkaar optellen en te verminderen met het aantal gezamenlijke elementen; die gezamenlijke elementen zouden we anders dubbel tellen.

De algemene somregel kan, op analoge wijze als de overeenkomstige somregel voor kansen, op voor de hand liggende wijze worden uitgebreid naar meer dan twee verzamelingen. We geven alleen een voorbeeld.

Voorbeeld 1 (ONS DORP; vervolg)

In ONS DORP zijn drie toneelverenigingen, A met 42 leden, B met 30 leden en C met 57 leden. Hoeveel dorpsbewoners spelen toneel? Dat zijn er niet 30+42+57, want 10 dorpsbewoners zijn lid van A zowel als van B, 12 zijn lid van A zowel als van C, 9 van B zowel als van C en 8 zijn zelfs lid van alle drie toneelverenigingen. We vinden dus: #(A∪B∪C) = #A + #B + #C – #AB – #AC – #BC + #ABC = 106.

Voorbeeld 2

We werpen driemaal een zuivere dobbelsteen. Voor de uitkomstenruimte S geldt #S = 63 = 216. Zij A de gebeurtenis dat we tenminste één keer zes gooien. Er geldt dat A = A1∪ A2∪ A3, waarin Ai de gebeurtenis is dat de ie worp (i=1,2,3) een zes opleverde. Omdat de gebeurtenissen A1, A2 en A3 geen disjunct drietal vormen, mogen we niet de speciale somregel toepassen op dit drietal. Wel kunnen we deze regel toepassen op een partitie van A. Daartoe delen we A op in disjuncte stukken:

zodat volgt:

.

Dit antwoord kan ook verkregen worden door op te merken dat A de gebeurtenis is dat er geen zes bij de drie worpen is; dan is dus #Ac = 53 = 125 en #A = #S – #Ac = 216 – 125 = 91. We kunnen #A ook door toepassing van de algemene somregel bepalen:

.

Als een experiment bestaat uit het uitvoeren van n deelexperimenten en het aantal mogelijke uitkomsten van elk deelexperiment is onafhankelijk van het resultaat van de overige deelexperimenten, dan vinden we het totale aantal mogelijke uitkomsten door de afzonderlijke aantallen met elkaar te vermenigvuldigen. We moeten vermenigvuldigen als de verschillende mogelijkheden tegelijkertijd moeten voorkomen, dus de een en de ander.

Het kan echter ook zijn dat we iedere mogelijkheid van het ene experiment weliswaar niet kunnen combineren met alle mogelijkheden van een ander, maar wel met een gelijk aantal mogelijkheden van het andere experiment. Ook dan krijgen we het totale aantal mogelijkheden door vermenigvuldiging. De productregel zegt hierover:

Stelling 2.2.3 (productregel)

Als ieder van de n1 uitkomsten van een eerste experiment gecombineerd kan worden met een gelijk aantal uitkomsten n2 van een tweede experiment en elk van deze combinaties weer met een gelijk aantal uitkomsten n3 van een derde, etc., dan wordt het totale aantal uitkomsten gegeven door het product n1× n2× n3×... van deze aantallen.

Een toepassing van de productregel is:

Stelling 2.2.4

Voor het Cartesisch product van de verzamelingen A1,A2,...,An geldt dus volgens de productregel: #(A1× A2×...× An) = #A1× #A2× ... × #An.

Voorbeeld 3

Op een menukaart staan 3 voorgerechten, 5 hoofdgerechten en 4 nagerechten. Hoeveel menu's van 3 gangen kunnen we van de kaart samenstellen? De productregel zegt dat er 3 × 5 ×4 = 60 menu's mogelijk zijn.

Voorbeeld 4

De 3 voorgerechten op de menukaart laten zich elk combineren met 4 van de 5 hoofdgerechten en elk van deze combinaties met slechts 2 van de 4 nagerechten. Volgens de productregel zijn er dan nog 3×4×2 = 24 menu's van 3 gangen mogelijk.

De productregel maakt het mogelijk te bepalen hoeveel verschillende rangschikkingen er mogelijk zijn van een aantal onderscheidbare objecten. Een rangschikking heet permutatie en het aantal permutaties van n dingen blijkt volgens de productregel gelijk te zijn aan n! (n faculteit, het product van de getallen 1 tot en met n).

Definitie 2.2.1

Onder een permutatie van n onderscheidbare objecten verstaan we een rangschikking op volgorde van die objecten.

Voorbeeld 5

De permutaties van de cijfers 1, 2 en 3 zijn: 123, 132, 213, 231, 312 en 321.

Stelling 2.2.5

Het aantal permutaties van n onderscheidbare objecten is gelijk aan n!.

Voorbeeld 5 (vervolg)

Inderdaad bleken er 3! = 6 permutaties te zijn van de drie getallen 1, 2 en 3.

We beschouwen nu het volgende - klassieke en karakteristieke - combinatorische probleem: hoeveel verschillende resultaten zijn er mogelijk als we uit een verzameling van n onderscheidbare elementen er k kiezen? Het antwoord zal afhangen van de wijze waarop we de trekkingen verrichten, nl. met of zonder terugleggen, en van de manier waarop we tegen de resultaten aankijken, nl. geordend of ongeordend. In figuur 2.1 is dit schematisch in beeld gebracht. De volgende voorbeelden illustreren de diverse mogelijkheden.

Voorbeeld 6

Uit de 100 leden van de vereniging COMBI moet een bestuur van 3 leden gekozen worden. Het bestuur bestaat uit voorzitter, secretaris en penningmeester. Twee functies kunnen niet in één persoon verenigd zijn. We moeten dus trekkingen zonder terugleggen verrichten en het resultaat moet geordend zijn. Hoeveel besturen zijn er mogelijk? Dat zijn er 100×99×98 = 100!/(100-3)!; we kunnen het bestuur samenstellen door eerst de voorzitter te kiezen, hiervoor zijn 100 mogelijkheden, daarna de secretaris, waarvoor nog 99 mogelijkheden zijn en tenslotte de penningmeester, met nog 98 mogelijkheden. We kunnen een mogelijkheid beschrijven door de namen van de bestuursleden in volgorde van de functies te vermelden; zo'n mogelijkheid heet variatie.

Voorbeeld 7

Voor het komende lustrum kiest COMBI een feestcommissie bestaande uit 3 leden. De leden van de feestcommissie hebben geen verschillende taak. We moeten trekken zonder terugleggen, maar het resultaat hoeft niet geordend te zijn. Net als in het vorige voorbeeld kunnen we op 100!/97! een geordend drietal kiezen; echter de ordening is nu niet van belang, zodat de 3! rangschikkingen van elk zo'n drietal dezelfde commissie voorstelt. Er zijn dus mogelijkheden. We kunnen een mogelijkheid beschrijven door de namen van de drie leden te vermelden; de volgorde van de namen is niet van belang. Een mogelijkheid heet combinatie (of greep).

Voorbeeld 8

Bij COMBI moeten 3 verschillende klussen gedaan worden. Het bestuur vraagt de leden om vrijwilligers. Omdat een lid best meer dan één klus kan doen, moeten we nu trekken met terugleggen; wel moet het resultaat geordend zijn aangezien de klussen verschillen. We kiezen nu achtereen- volgens steeds een lid uit de 100 voor elk der klussen; er zijn dus 100×100×100 = 1003 mogelijkheden. We kunnen een mogelijkheid beschrijven door bij elke klus de naam te vermelden van degene die de klus uitvoert; de vermelde namen hoeven nu niet verschillend te zijn. Een mogelijkheid heet hier herhalingsvariatie.

Voorbeeld 9

Voor het lustrum bij COMBI moeten 3 biertonnen opgeschilderd worden. De feestcommissie vraagt de leden om vrijwilligers. Nu zijn de klussen niet van elkaar te onderscheiden, zodat het resultaat niet geordend hoeft te zijn; we moeten wel weer trekken met terugleggen. We beschrijven het resultaat op eenduidige wijze door voor elk van de 100 leden te vermelden hoeveel biertonnen hij zal opschilderen. We kunnen dit schematisch doen door de biertonnen voor te stellen door een o en de biertonnen voor de opgestelde leden neer te zetten; tussen de leden zetten we een streep |. Een mogelijkheid is dan bv.

1 2 3 4 5 100

hetgeen wil zeggen dat lid 1 geen bierton opschildert, evenals lid 2; nr 3 schildert één ton op, nr 4 weer geen, nr 5 schildert 2 tonnen op en de overigen geen. Elke mogelijkheid bestaat dus uit een rijtje van 3 nullen (de tonnen) en 99 enen (de scheidingsstrepen); er zijn

van zulke rijtjes. Hier heet een mogelijke uitkomst herhalingscombinatie.

De bovenstaande voorbeelden beschrijven we wel mbv. een vaasmodel. We trokken drie keer uit een vaas met 100 genummerde knikkers, de ene keer met terugleggen, de andere keer zonder terugleggen. In twee gevallen beschouwden we geordende drietallen als uitkomsten, in twee andere gevallen ongeordende. In de volgende figuur is een en ander schematisch weergegeven.

NYW-DK-TrekkingenNL.png
Figuur 2.1. Trekkingen uit een vaas.


In de voorbeelden kwamen de volgende begrippen en resultaten aan de orde.

Definitie 2.2.2

Onder een variatie van k uit n (onderscheidbare objecten) verstaan we de uitkomst van een geordende trekking zonder terugleggen van k van de n objecten.

Stelling 2.2.6

Het aantal variaties van k uit n is gelijk aan n!/(n–k)!.

Definitie 2.2.3

Onder een combinatie (of greep) van k uit n onderscheidbare objecten verstaan we de uitkomst van een ongeordende trekking zonder terugleggen van k van de n objecten.

Stelling 2.2.7

Het aantal combinaties van k uit n is gelijk aan:

.

Definitie 2.2.4

Onder een herhalingsvariatie van k uit n onderscheidbare objecten verstaan we de uitkomst van een geordende trekking met terugleggen van k van de n objecten.

Stelling 2.2.8

Het aantal herhalingsvariaties van k uit n is gelijk aan nk.

Definitie 2.2.5

Onder een herhalingscombinatie van k uit n onderscheidbare objecten verstaan we de uitkomst van een ongeordende trekking met terugleggen van k van de n objecten.

Stelling 2.2.9

Het aantal herhalingscombinaties van k uit n is gelijk aan:

.

In het volgende schema geven we een overzicht van het trekken van k elementen uit een verzameling (vaas) van n onderscheidbare elementen (knikkers).

uitkomst trekking
zonder
terugleggen
met
terugleggen
geordend variatie herhalings-
variatie
ongeordend combinatie herhalings-
combinatie


In het volgende voorbeeld hebben we het geval n=4 en k=3 helemaal uitgeschreven.

Voorbeeld 10

123
132
213
231
312
321
124
142
214
241
412
421
134
143
314
341
413
431
234
243
324
342
423
432|
24 variaties (rijtjes)


4 combinaties (hokjes)
64
herhalings─
variaties
(rijtjes)

20
herhalings─
combinaties
(hokjes)
112
121
211
113
131
311
114
141
411
221
212
122
223
232
322
224
242
422
331
313
133
332
323
233
334
343
433
441
414
144
442
424
244
443
434
344
111 222 333 444




In het vaasmodel denken we ons de trekkingen altijd aselect, dwz. bij iedere trekking hebben de resterende knikkers alle gelijke kans om getrokken te worden. We realiseren aselecte trekkingen door de vaas goed te schudden en er willekeurig (blindelings, lukraak) een knikker uit te trekken.

Definitie 2.2.6

Onder een aselecte trekking uit een populatie verstaan we een symmetrisch experiment met die populatie als uitkomstenruimte.

Aselecte trekkingen leiden in de gevallen van variaties, combinaties en herhalingsvariaties tot symmetrische kansruimten. We zullen pas in een volgend hoofdstuk, na de invoering van het begrip voorwaardelijke kans, het waarom hiervan goed kunnen inzien. Voorlopig, en dat ligt ook in de lijn van dit hoofdstuk, zullen we ons moeten beroepen op de symmetrie van de situatie. In het geval van herhalingscombinaties ontstaat geen symmetrie ondanks aselect trekken!

Stelling 2.2.10

Als we k keer aselect trekken uit een verzameling van n verschillende elementen, dan is de kansruimte in de volgende gevallen symmetrisch:

(a) trekken zonder terugleggen, geordende uitkomsten:
S={variaties}, ;
(b) trekken zonder terugleggen, ongeordende uitkomsten:
S={combinaties}, ;
(c) trekken met terugleggen, geordende uitkomsten:
S={herhalingsvariaties}, ;

De ontstane kansruimte is niet symmetrisch in geval:

(d) trekken met terugleggen, ongeordende uitkomsten.

Bewijs: De gevallen a, b en c volgen op grond van de symmetrie in de uitkomsten. In het geval d vatten we de uitkomsten op als gebeurtenissen in de kansruimte van de herhalingsvariaties. De uitkomst (k,0,...,0), dus k keer is object nummer 1 getrokken, komt dan overeen met de gebeurtenis {(1,1,...,1)} bij de herhalingsvariaties en heeft dus een kans 1/nk. De uitkomst (k-1,1,0,...,0), dus k-1 keer is object nummer 1 en 1 keer nummer2 getrokken, komt overeen met de gebeurtenis {(1,1,...,1,2),(1,1,...,1,2,1),...,(2,1,...,1)} en bevat k elementen, nl. alle herhalingsvariaties met k-1 keer een 1 en 1 keer een 2; de kans hierop is k/nk.

We geven nu enkele toepassingen.

Voorbeeld 11

We trekken lukraak achtereenvolgens (dus geordend resultaat0 zonder terugleggen k knikkers uit een vaas met n genummerde knikkers. Wat is de kans dat de eerste getrokken knikker nummer i is? De uitkomsten zijn variaties en de kansruimte is symmetrisch; #S = n!/(n–k)!. De gebeurtenis dat de eerste knikker nummer i heeft, noemen we A; A bevat alle variaties met op de 1e plaats nummer i. De uitkomsten uit A kunnen we krijgen door als eerste knikker nummer i te pakken en vervolgens nog k–1 andere, dus nog een variatie van k–1 uit n–1. A bevat dus (n–1)!/(n–k)! uitkomsten. De gevraagde kans is: P(A) = #A/#S = 1/n, hetgeen ons niet zal verbazen.

Hoe groot is de kans dat de tweede getrokken knikker nummer i is? Op dezelfde manier beredeneren we dat deze gebeurtenis, zeg B, de variaties bevat met op de tweede plaats nummer i. Dat zijn er evenveel als in A; zet nummer i alvast op de tweede plaats en vul de overige plaatsen met een variatie van k–1 uit n–1. We vinden dus P(B) = P(A) = 1/n.

Op analoge wijze vinden we dat de kans dat de knikker die als je getrokken wordt, nummer i is, steeds 1/n is.

De kans dat nummer i getrokken wordt, is P("nummer i") = P("nummer i als 1e" of "als 2e" of ... of "als ke") = = P("als 1e") + P("als 2e") + ... + P("als ke") = k/n.

Voorbeeld 12

We trekken lukraak zonder op de volgorde te letten en zonder terugleggen k knikkers uit een vaas met n genummerde knikkers. De uitkomsten zijn combinaties en de kansruimte is symmetrisch;

.
P("nummer i wordt getrokken") = ,

want de bedoelde gebeurtenis bevat de combinaties waar nummer i bij is. We krijgen die combinaties door nummer i alvast te pakken en aan te vullen met een combinatie van k–1 uit de overige n. Merk op dat deze kans dezelfde is als bij het vorige voorbeeld.

Voorbeeld 13

We trekken lukraak uit een goed geschud kaartspel een tiental kaarten. Er is dus sprake van ongeordende uitkomst en trekken zonder terugleggen. De kansruimte is symmetrisch. Wat is de kans dat bij de getrokken tien kaarten 2 azen en 3 heren zijn? We geven de situatie schematisch weer:

azen heren rest totaal
populatie 4 4 44 52
steekproef 2 3 5 10

In totaal zijn er mogelijke uitkomsten (combinaties); de genoemde gebeurtenis kan op manieren gerealiseerd worden, dus de gevraagde kans is:

.

Voorbeeld 14 (sinterklaaslootjes; enveloppe-probleem)

Met sinterklaas stoppen n mensen een briefje met hun naam in een hoge hoed. Na goed schudden trekt elk er lukraak weer een lootje uit. Hoe groot is de kans pn dat niemand z'n eigen naam trekt? (Als enveloppe-probleem: een secretaresse stopt n brieven lukraak in de reeds geadresseerde enveloppen.) Noem Ai de gebeurtenis dat nummer i z'n eigen naam trekt; dan is de gevraagde kans:

.

De kans pn verandert vanaf n = 6 à 7 niet veel meer; 1/e is dan al een goede benadering.

In een tabel:

1 2 3 4 5 6 7 ...
0 0,500 0,333 0,375 0,367 0,365 0,365 ...

Het geval van het ongeordend trekken zonder terugleggen van k knikkers uit een vaas met n knikkers, kunnen we ook beschrijven als het verdelen van de n knikkers uit de vaas in twee groepen ter grootte van k en n–k, nl. de wel getrokken k en de niet getrokken n–k. We generaliseren dit experiment door de knikkers te verdelen in m groepen met aantallen n1,n2,...,nm, waarvoor dus geldt: n1+ n2+...+ nm= n. We doen dit door de knikkers te rangschikken, hetgeen kan op n! manieren, en de eerste n1 aan groep 1 toe te wijzen, de volgende n2 aan groep 2, etc. Omdat de volgorde van de n1 knikkers in groep 1 er niet toe doet (er zijn n1! rangschikkingen) en evenzo niet voor de andere groepen, is het totaal aantal verdelingen over de m groepen, de zgn. multinomiaalcoëfficiënt.


Definitie 2.2.7

Onder de multinomiaalcoëfficiënt verstaan we het aantal manieren om n onderscheidbare objecten te verdelen in m groepen met aantallen n1,n2,...,nm, waarvoor n1+ n2+...+ nm= n.

Stelling 2.2.11

Voor de multinomiaalcoëfficiënt geldt:

De tweede schrijfwijze van de multinomiaalcoëfficiënt in deze stelling laat zien dat we de stelling ook kunnen bewijzen door de verschillende groepen achtereenvolgens te vullen met het juiste aantal knikkers.

Voorbeeld 15

Op hoeveel manieren kunnen we 30 personen verdelen over 4 groepen van resp. 6, 7, 8 en 9 personen? Dit kan op

manieren. De laatste schrijfwijze laat zien hoe de 4 groepen achtereenvolgens gevuld worden. We kunnen daarvoor ook schrijven:

daarmee suggererend dat we de gewenste verdeling tot stand brengen door steeds de overblijvende personen weg te nemen.


 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.




3.1 Voorwaardelijke kans

Het komt dikwijls voor dat over de uitkomst van een experiment tevoren al iets bekend is of iets verondersteld wordt. Als we een willekeurige voorbijganger in Amsterdam aanspreken, dan is de kans dat hij op de PVDA stemt een andere dan voor iemand uit Wassenaar. We kunnen ons het experiment zo voorstellen dat we lukraak een Nederlander aanwijzen, echter als extra voorwaarde stellen dat hij in Amsterdam moet wonen. Onder deze voorwaarde kunnen we vragen naar de kans dat hij op de PVDA stemt. Deze "kans" is niet een kans zoals we die tot nu toe kennen. Er is een nieuwe definitie nodig voor dit begrip. In het voorbeeld vragen we naar de voorwaardelijke kans dat een willekeurige Nederlander op de PVDA stemt, gegeven dat hij in Amsterdam woont. Intuïtief ligt het voor de hand om deze voorwaardelijke kans gelijk te stellen aan de kans dat een willekeurige Amsterdammer op de PVDA stemt. Als we met A de Nederlanders aangeven die op de PVDA stemmen en met B de Amsterdammers, dan is deze voorwaardelijke kans gelijk aan #AB/#B, waarbij #B het aantal Amsterdammers is en #AB het aantal daarvan dat op de PVDA stemt. We duiden deze voorwaardelijke kans aan met P(A|B); als N het totale aantal Nederlanders is, geldt:

Op deze manier kunnen we de voorwaardelijke kans uitdrukken in onvoorwaardelijke kansen. Dit intuïtieve resultaat voor deze symmetrische kansruimte gebruiken we nu als definitie van het begrip voorwaardelijke kans voor willekeurige kansruimten.

Definitie 3.1.1
Als A en B gebeurtenissen zijn en P(B) > 0, dan noemen we:

de voorwaardelijke kans op A gegeven B. We spreken ook wel van de kans op A onder de voorwaarde B.

Opmerking 1
De notatie P(A|B) voor de voorwaardelijke kans op de gebeurtenis A gegeven de gebeurtenis B is historisch bepaald, maar kan gemakkelijk verwarrend werken. Zo moeten we dit niet lezen als de kans P op de gebeurtenis (?) "A|B". Het zou logischer zijn om PB(A) te schrijven, daarmee aanduidend dat het gaat om een andere kans, nl. PB, en niet om de (onvoorwaardelijke) kans P zelf. Het heeft echter nadelen om gecompliceerde gebeurtenissen B als index aan P te hangen, zodat we de notatie P(A|B) handhaven.

Voorbeeld 1
We trekken geordend en zonder terugleggen lukraak 5 keer een knikker uit een vaas met 10 rode en 20 witte knikkers. De kans dat de eerste knikker rood is, is 1/3. De kans dat de tweede knikker rood is, is ook 1/3. Echter de voorwaardelijke kans dat de tweede knikker rood is, gegeven dat de eerste rood is, is:

P("2e rood"|"1e rood") = P("2e rood" en "1e rood")/P("1e rood") = .

Dat antwoord zal ons niet verbazen. Deze voorwaardelijke kans leiden we direct af door naar het experiment te kijken dat ontstaat als we als eerste een rode knikker getrokken hebben en vervolgens weer een knikker gaan trekken.

Voorbeeld 2
Een doos bevat twee munten, waarvan er één zuiver is, dwz. kruis en munt worden met gelijke kans geworpen, terwijl de andere aan beide zijden kruis heeft. We kiezen nu lukraak een van de munten en werpen deze. Als het resultaat van deze worp kruis is, wat is dan de kans dat de andere kant van deze munt ook kruis is? Zij A de gebeurtenis dat de uitkomst kruis is en B de gebeurtenis dat de geworpen munt aan beide zijden kruis heeft dan is P(B|A) de gevraagde voorwaardelijke kans. Nu geldt P(A) = 3/4, immers drie van de in totaal 4 zijden van de munten zijn kruis en deze zijden komen alle met gelijke kans boven. Bovendien geldt P(BA) = P(B) = 1/2, want B ⊂ A en beide munten hebben gelijke kans om getrokken te worden. Dus P(B|A) = P(BA)/P(A) = 2/3.

Uit de definitie van voorwaardelijke kans volgt eenvoudig dat voor vaste B met P(B) > 0 de voorwaardelijke kans P(W|B) een kans is op S zowel als op B, dwz. dat hij net als P voldoet aan de axioma's van Kolmogorov.

Stelling 3.1.1
Als (S,P) een kansruimte is en B een gebeurtenis met P(B) > 0, is de voorwaardelijke kans P(.|B) zowel een kans op S als op B.

Bewijs: Beschouw de bijbehorende kansfunctie pB. Daarvoor geldt: pB(s) ≥ 0, voor alle s ∈ S en:

.

Uit de definitie van voorwaardelijke kans volgt direct voor twee gebeurtenissen A en B: P(AB) = P(A)P(B|A). We kunnen deze relatie uitbreiden tot meer dan twee gebeurtenissen en krijgen dan de zgn. productregel voor kansen.

Stelling 3.1.2 (productregel)
Voor de gebeurtenissen A1,A2,...,An met P(A1A2...An–1) > 0 geldt: P(A1A2...An) = P(A1).P(A2|A1)...P(An|A1A2...An–1).

Voorbeeld 3 (vervolg voorbeeld 1)
Zij Ai de gebeurtenis dat de ie getrokken knikker rood is. Dan is: P(A1) = 1/3 en P(A2|A1) = 9/29, zodat P(A1A2) = P(A1)P(A2|A1) = 3/29. We kunnen op de volgende manier P(A2) berekenen:

.

De laatste berekening in het voorbeeld kunnen we heel algemeen formuleren. We hebben daar de kans op de gebeurtenis A2 bepaald door een opsplitsing (partitie) van A2 te bekijken. We zeggen wel dat we de totale kans op A2 berekenen via de voorwaardelijke kansen van de partitie. We bekijken nog een voorbeeld.

Voorbeeld 4
Stel dat we de fractie Nederlanders die op de PVDA stemmen willen bepalen. We kunnen daartoe het aantal Nederlanders N en het aantal #A onder hen die op de PVDA stemmen bepalen. De gevraagde fractie is dan p = #A/N. Stel dat voor elke provincie i de fractie

al bekend is; dan is:

.

In een symmetrische kansruimte met S = {alle Nederlanders} en A = {PVDA-stemmers} correspondeert deze relatie met

P(A) = ∑ P(A|provincie i).P(provincie i).

De algemene formulering luidt:

Stelling 3.1.3 (Wet van de totale kans)
Laat de (ten hoogste aftelbaar veel) gebeurtenissen A1,A2,..., met P(An) > 0 voor alle n, een partitie vormen van de uitkomstenruimte S, dan geldt:

.

In de praktijk is het dikwijls zo, dat we de voorwaardelijke kansen P(B|An) uit het model afleiden en gebruiken voor het berekenen van de onvoorwaardelijke kans P(B), die vaak niet direct uit het model volgt. In deze zin wordt de wet van de totale kans gebruikt in het volgende voorbeeld.

Voorbeeld 5
Een bedrijf bezit drie fabrieken A, B en C, waar scheerapparaten van hetzelfde type worden gemaakt. Gedurende een bepaalde periode maakte fabriek A 2000 scheerapparaten, waarvan er 200 defect waren, fabriek B maakte in die periode 5000 apparaten, waarvan er 300 defect waren en C maakte 3000 apparaten, waaronder 150 defecte. Uit de totale productie wordt lukraak een scheerapparaat gekozen; wat is de kans dat dit apparaat defect (D) is? De gegevens van die periode kunnen we op de volgende overzichtelijke manier weergeven:

fabriek
2000/10000 200/2000 200/10000
5000/10000 300/5000 300/10000
3000/10000 150/3000 150/10000
totaal 1 650/10000

De berekening in de laatste kolom laat zien hoe met behulp van de wet van de totale kans de gevraagde kans berekend wordt: P(D) = P(D|A)P(A) + P(D|B)P(B) + P(D|C)P(C) = 0,065.

Het gekozen scheerapparaat blijkt defect te zijn! Wat is de kans dat het afkomstig is van fabriek A? We vragen dus naar P(A|D), de voorwaardelijke kans dat het van A afkomstig is, gegeven dat het defect is. We berekenen:

.

In het voorbeeld is de laatste berekening een toepassing van de zgn. regel van Bayes. Terwijl de voorwaardelijke kansen op de gebeurtenis D, gegeven elk van A, B en C, bekend zijn, laat deze regel zien hoe we de "omgekeerde" voorwaardelijke kans op elk van A, B en C, gegeven D, moeten berekenen.

Stelling 3.1.4 (Regel van Bayes)
Zij B een gebeurtenis met P(B) > 0 en A1,A2,... een partitie van S met P(Ai) > 0 voor alle i, dan geldt voor iedere i:

.

Bewijs: Volgt direct uit de definitie van voorwaardelijke kans en de wet van de totale kans.

Voorbeeld 6
Een prototype van een machine om bij banken geldstukken te sorteren vertoonde nogal wat gebreken. De machine accepteerde een mengsel van guldens, rijksdaalders en vijfjes (5-guldenstukken) en telde de munten, maar maakte nogal wat fouten. Uit proeven bleek dat een vijfje soms voor een rijksdaalder of een gulden werd gehouden of andersom. Van 1000 vijfjes werden 16 als rijksdaalder en 33 als gulden gezien. van 1000 rijksdaalders werden slechts 5 als vijfje geteld, maar 71 als gulden en van 1000 guldens werden 14 als rijksdaalder gezien en 32 als vijfje. Hoe groot is de kans dat een munt werkelijk een vijfje is {5!} als de machine aangeeft een vijfje te tellen {5?}? We gaan er daarbij van uit dat 10% van de aangeboden munten vijfjes zijn en 40% rijksdaalders. We kunnen de gegevens ordelijk in de volgende tabel weergeven.


munt
2 0,10 0,951 0,0951
1 0,40 0,005 0,0020
0,5 0,50 0,032 0,0160
totaal 1,00 0,1131 =


Met de regel van Bayes berekenen we:

P(5!|5?) = P(5?|5!)P(5!)/P(5?) = 0,0951/0,1131 = 0,841.

De wet van de totale kans wordt ook wel weergegeven in een kansboom. Aan de hand van een voorbeeld zullen we dit duidelijk maken.

Voorbeeld 7 (kansboom)
We beschouwen de situatie van voorbeeld 5 en geven die op de volgende wijze weer. Deze figuur, die kansboom wordt genoemd, spreekt verder voor zich.

NYW-DK-Kansboom.jpg

Een kansboom laat zich op voor de hand liggende wijze ook gebruiken in gecompliceerdere situaties. We geven daarvan verder geen voorbeeld.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

3.2 Onafhankelijke gebeurtenissen

Als ik willekeurig een Nederlander aanwijs, zal het voor de kans dat ik iemand uit Friesland aanwijs, geen verschil maken of ik weet dat ik een vrouw zal aanwijzen. anders wordt het als ik weet dat degene die ik aanwijs, blond haar heeft. Er zijn immers relatief meer blonde Friezen dan blonde Nederlanders. Als het optreden van een gebeurtenis B geen invloed uitoefent op de kans van optreden van een andere gebeurtenis A, dus als P(A|B) = P(A), zeggen we dat A onafhankelijk is van B. Omgekeerd geldt dan ook dat het optreden van A geen invloed heeft op de kans van optreden van B, want uit P(A|B) = P(A) volgt dat ook P(B|A) = P(AB)/P(A) = P(A|B)P(B)/P(A) = P(B).

Dus als A onafhankelijk is van B, is ook B onafhankelijk van A. We zeggen daarom dat A en B (onderling) onafhankelijk zijn. Daarbij laten we vaak de toevoeging "onderling" weg, hoewel dat strikt genomen niet juist is. Omdat beide relaties P(A|B) = P(A) en P(B|A) = P(B) ook equivalent zijn met de relatie P(AB) = P(A)P(B), gebruiken we deze laatste voor de definitie.

Definitie 3.2.1
De gebeurtenissen A en B heten (onderling) onafhankelijk (afgekort o.o.) als P(AB) = P(A)P(B).

Opmerking 1
Het begrip onafhankelijk wordt nog al eens verward met het begrip disjunct. Twee disjuncte gebeurtenissen A en B, dus met AB = ∅, kunnen echter alleen dan onderling onafhankelijk zijn, als een van beide kans 0 heeft, immers dan is P(A)P(B) = 0 = P(∅) = P(AB).

Voorbeeld 1
Uit een spel van 52 speelkaarten trekken we lukraak één kaart. H is de gebeurtenis dat de getrokken kaart een hartenkaart is en B is de gebeurtenis dat de getrokken kaart een boer is. Dan geldt P(H) = 13/52 = 1/4 en P(B) = 4/52 = 1/13. Omdat HB de gebeurtenis is dat we de hartenboer trekken, is P(HB) = 1/52 = P(H).P(B). De gebeurtenissen H en B zijn dus onderling onafhankelijk.

In het voorbeeld kunnen we de onafhankelijkheid van twee gebeurtenissen aantonen. Vaak echter kennen we de kansen niet en besluiten we op andere gronden tot onderlinge onafhankelijkheid van twee gebeurtenissen. Als gevolg kunnen we dan de kans op het gelijktijdig optreden van beide gebeurtenissen berekenen als het product van de kansen op elk afzonderlijk.

Voorbeeld 2
Een apparaat bestaat uit twee componenten. A1 is de gebeurtenis dat de ene component werkt en A2 de gebeurtenis dat de tweede werkt. Het apparaat werkt slechts als beide componenten werken en we hebben goede redenen om aan te nemen dat het werken van de ene component geen invloed heeft op het werken van de andere, dwz. dat A1 en A2 o.o. zijn. Onder deze modelveronderstelling geldt voor de kans dat het apparaat werkt: P(A1A2) = P(A1).P(A2).

Voorbeeld 3 (twee worpen met een dobbelsteen; vervolg)
We werpen tweemaal achtereen een dobbelsteen. Zij A de gebeurtenis dat we de eerste keer een 5 werpen en B de gebeurtenis dat we de tweede keer een 3 of meer werpen. Als we uitgaan van een zuivere dobbelsteen, is P(A) = 1/6 en P(B) = 2/3. Gaan we ervan uit dat A en B onafhankelijk zijn, hetgeen aannemelijk lijkt omdat A betrekking heeft op de eerste worp en B op de tweede, dan volgt: P(AB) = P(A)P(B) = 1/6 × 2/3 = 1/9.

Merk op dat we in het bovenstaande twee veronderstellingen maakten tav. ons kansmodel, namelijk dat de dobbelsteen zuiver is en dat gebeurtenissen die alleen betrekking hebben op de tweede worp, onafhankelijk zijn van gebeurtenissen die alleen betrekking hebben op de eerste worp. Deze veronderstellingen samen zijn equivalent met de veronderstelling dat we met een symmetrische kansruimte van doen hebben. Immers zij Ai de gebeurtenis dat we de eerste keer i ogen gooien en Bj de gebeurtenis dat we de tweede keer j ogen gooien, dan geldt op grond van de zuiverheid van de dobbelsteen dat P(Ai) = P(Bj) = 1/6 en op grond van de onafhankelijkheid dat P(AiBj) = P(Ai).P(Bj) = 1/36. We hadden dus de kans op de gebeurtenis AB ook kunnen bepalen door de kansdefinitie van Laplace te gebruiken. De beschreven methode van berekening, die direct gebruik maakt van de onderlinge onafhankelijkheid van de beide gebeurtenissen, is echter veelal eenvoudiger.

Ook in het geval van meer dan twee gebeurtenissen willen we over onafhankelijkheid spreken. Er zijn dan verscheidene mogelijkheden.

Definitie 3.2.2
De gebeurtenissen A1,A2,... heten paarsgewijs onafhankelijk als elk tweetal onderling onafhankelijk is.

Paarsgewijze onafhankelijkheid sluit echter de mogelijkheid van een zekere afhankelijkheid tussen gebeurtenissen niet uit, zoals uit het volgende voorbeeld blijkt.

Voorbeeld 4
We werpen tweemaal achtereen een zuivere munt. De uitkomstenruimte is S = {KK,KM,MK,MM} en elk van deze uitkomsten heeft kans 4. Zij A de gebeurtenis "de eerste keer kruis", B de gebeurtenis "de tweede keer kruis" en C de gebeurtenis "beide keren hetzelfde", dus A = {KK,KM}, B = {KK,MK} en C = {KK,MM}. A, B en C zijn paarsgewijs onafhankelijk, immers P(AB) = 1/4 = P(A)P(B), P(AC) = 1/4 = P(A)P(C) en P(BC) = 1/4 = P(B)P(C). Echter P(C|AB) = 1 ≠ P(C), dus de gebeurtenis AB = {KK} (dwz. A en B samen) geeft "informatie" over C.

Om elke vorm van afhankelijkheid tussen de gebeurtenissen A, B en C uit te sluiten, zullen we dus meer moeten eisen dan paarsgewijze onafhankelijkheid. Er zal bv. ook moeten gelden dat P(A|BC) = P(A), dus dat P(ABC) = P(A)P(B)P(C). Deze laatste eis echter blijkt op zich weer niet voldoende om paarsgewijze onafhankelijkheid af te dwingen.

Voorbeeld 5 (twee worpen met een dobbelsteen; vervolg)
We werpen tweemaal een zuivere dobbelsteen. Zij A de gebeurtenis dat de eerste worp 1, 2 of 3 ogen en B de gebeurtenis dat de eerste worp 3, 4 of 5 ogen oplevert. C is de gebeurtenis dat de som van het aantal ogen 9 is, dus C = {(3,6),(4,5),(5,4),(6,3)}. P(A) = P(B) = 1/2 en P(C) = 1/9. De doorsnede ABC = {(3,6)}, dus P(ABC) = 1/36 = 1/2×1/2×1/9 = P(A)P(B)P(C), terwijl P(AB) = 1/6 ≠ 1/2 × 1/2 = P(A)P(B) P(BC) = 1/36 ≠ 1/2 × 1/9 = P(B)P(C) en P(AC) = 1/36 ≠ 1/2 × 1/9 = P(A)P(C). A, B en C zijn dus niet paarsgewijs onafhankelijk.

We noemen A, B en C daarom pas onderling onafhankelijk als voor elk tweetal én voor het drietal de kans op de doorsnede te schrijven is als het product van de afzonderlijke kansen. Voor een eindige of aftelbaar oneindige rij gebeurtenissen A1,A2,A3,... zullen we deze eis moeten opleggen aan elk tweetal, drietal, viertal, etc.

Definitie 3.2.3
De gebeurtenissen A1,A2,... heten (onderling) onafhankelijk (afgekort o.o.), als voor elke eindige deelrij , geldt:

.

Als twee gebeurtenissen A en B o.o. zijn, dan zijn ook Ac en B o.o., A en Bc en ook Ac en Bc. Soortgelijke eigenschappen kan men ook voor meer dan twee gebeurtenissen bewijzen. Als A, B, C en D o.o. zijn, dan zijn "disjuncte combinaties" zoals bv. AB en C∪D ook o.o., immers P(AB(C∪D)) = P(ABC ∪ ABD) = P(ABC) + P(ABD) - P(ABCD) = P(A)P(B)P(C) + P(A)P(B)P(D) - P(A)P(B)P(C)P(D) = P(A)P(B){[P(C) + P(D) - P(CD)} = P(AB)P(C∪D). Ook andere disjuncte combinaties, zoals AB∪C en D zijn dan o.o.

Stelling 3.2.1
Als A1,A2,... onderling onafhankelijk zijn, dan zijn ook disjuncte combinaties van deze gebeurtenissen o.o.

 


3.3 Samengestelde experimenten

Vaak bestaat een kansexperiment uit een opeenvolging van een reeks deelexperimenten, zoals bv. bij het herhaald uitvoeren van een bepaald (deel)experiment. We zullen dan de kansstructuur (dwz. de kansruimte) van elk van de deelexperimenten kennen en daaruit de kansstructuur van het totale experiment afleiden.

Voorbeeld 1
We gooien drie keer een zuivere munt. Elke worp afzonderlijk kunnen we beschrijven door een copie van de symmetrische kansruimte (S0,p0), met S0 = {K,M} en p0(K) = p0(M) = 1/2. Het totale experiment zal als uitkomstenruimte hebben: S = {KKK,KKM,KMK,MKK,KMM,MKM,MMK,MMM} en als de experimenten onafhankelijk zijn, zal het totale experiment ook symmetrisch zijn, dus p(s) = 1/8, voor alle s ∈ S. Het totale experiment is samengesteld uit drie onafhankelijke deelexperimenten (S1,p1), (S2,p2) en (S3,p3), met Si= S0 en pi= p0. Er geldt: S = S1 × S2 × S3 en p(s1,s2,s3) = p1(s1).p2(s2).p3(s3). In deze laatste relatie zien we de onafhankelijkheid van de experimenten weerspiegeld.

Wat we in het voorbeeld zien geeft ons aanleiding tot de volgende definitie.

Definitie 3.3.1
Laat voor i = 1,2,...,n de kansruimten (Si,pi) gegeven zijn. Zij S = S1× S2×....× Sn en p(s1,s2,...,sn) = p1(s1).p2(s2)...pn(sn), dan noemen we (S,p) de productruimte van de kansruimten {(Si,pi)}.

Gemakkelijk kunnen we zien dat de productruimte weer een kansruimte is.

Stelling 3.3.1
De productruimte (S,p) van de kansruimten {(Si,pi)|i=1,2,...,n} is een kansruimte.

We zullen een experiment dat bestaat uit de successievelijke uitvoering van onafhankelijke deelexperimenten (dwz. deelexperimenten die elkaar niet beïnvloeden), beschrijven door de productruimte van de kansruimten van de deelexperimenten.

Definitie 3.3.2
Laat voor i = 1,2,...,n het experiment Ei beschreven worden door de kansruimte (Si,pi). We zeggen dat het experiment E samengesteld is uit de onafhankelijke deelexperimenten E1,E2,...,En, als de kansruimte (S,p) van E de productruimte is van (S1,p1), (S2,p2), ..., (Sn,pn).

We zullen nu aantonen dat in de produkruimte de deelexperimenten inderdaad "onafhankelijk" van elkaar zijn, in die zin dat gebeurtenissen die alleen op de afzonderlijke deelexperimenten betrekking hebben o.o. zijn. Daarbij doet zich nog een formele moeilijkheid voor die we aan de hand van een voorbeeld verduidelijken.

Voorbeeld 1 (vervolg)
De gebeurtenis "de eerste worp leverde kruis op" geven we in het eerste experiment weer als de deelverzameling A = {K} van S1. In het samengestelde experiment wordt deze gebeurtenis voorgesteld door A* = {KKK,KKM,KMK,KMM}, die we ook kunnen we schrijven als: A* = {K} × {K,M} × {K,M} = A × S2× S3. De beide gebeurtenissen A en A*; zijn dus weliswaar formeel verschillende verzamelingen, maar stellen praktisch gezien dezelfde gebeurtenis voor.

Definitie 3.3.3
Laat voor i = 1,2,...,n de kansruimten (Si,pi) gegeven zijn. Bij de gebeurtenis A in (Si,pi) definiqren we de gebeurtenis A* in de productruimte door: A* = S1× ... × Si-1 × A × Si+1 × ... × Sn.

We zullen praktisch geen onderscheid maken tussen de gebeurtenis A in een deelexperiment en de gebeurtenis A* in het experiment voorgesteld door de productruimte. Zo zal in het samengestelde experiment de kans op A* gelijk zijn aan de kans op A in het deelexperiment.

Stelling 3.3.2
Laat voor i = 1,2,...,n de kansruimten (Si,pi) gegeven zijn. Zij A een gebeurtenis in (Si,pi), dan geldt in de productruimte (S,p) P(A*) = Pi(A).

Bewijs:

.


We kunnen nu laten zien dat in een experiment dat is samengesteld uit onafhankelijke deelexperimenten, gebeurtenissen die alleen betrekking hebben op de afzonderlijke deelexperimenten onderling onafhankelijk zijn.

Stelling 3.3.3
Laat voor i = 1,2,...,n de kansruimten (Si,pi) met daarin een gebeurtenis Ai gegeven zijn. Dan zijn in de productruimte de gebeurtenissen A1*,...,An* onderling onafhankelijk.

Bewijs: Voor een greep van k indices, waarvoor we voor het gemak 1,...,k nemen, geldt:

.


We zullen als belangrijke toepassing het herhaald uitvoeren van een experiment met slechts twee mogelijke uitkomsten bekijken. We kunnen daarbij denken aan het werpen van een munt, of het trekken met terug- leggen uit een dichotome populatie (dwz. een populatie die in tweeqn is gedeeld, bv. mannen en vrouwen, geslaagd en niet-geslaagd, etc.).

Definitie 3.3.4
Onder een Bernoulli-experiment (of alternatief) verstaan we een experiment met slechts twee mogelijke uitkomsten. Die uitkomsten zullen we algemeen aanduiden als succes en mislukking (Jacob Bernoulli, nagelaten werk, 1713).

Herhalen we enkele keren hetzelfde Bernoulli-experiment, zo, dat de experimenten onafhankelijk zijn, dan spreken we van Bernoulli-pogingen.

Definitie 3.3.5
Onder Bernoulli-pogingen verstaan we onderling onafhankelijke herhalingen van een Bernoulli-experiment.

We zullen steeds het onderliggende Bernoulli-experiment beschrijven door de uitkomstenruimte S0= {0,1}, waarin 0 de uitkomst "mislukking" voorstelt en 1 de uitkomst "succes", en de kansfunctie p0, gegeven door de kans op succes p = p0(1) = 1 - p0(0).

We kunnen nu op twee manieren Bernoulli-pogingen uitvoeren:

(a) een vast aantal, zeg n, keren; we moeten dan maar afwachten hoeveel keer we succes hebben.

(b) net zolang doorgaan tot we succes hebben; we moeten dan maar afwachten hoeveel experimenten we moeten doen.

In het eerste geval wordt de kansruimte gegeven door de productruimte S = {0,1}n, en p(s) = p∑s(1-p)n-∑ s. Een uitkomst beschrijven we dus door een rijtje 0'en en 1'en, en de kans op zo'n rijtje door het product van zoveel factoren p als het aantal 1'en en nog zoveel factoren (1-p) als het aantal 0'en. We noemen de gebeurtenis dat we in precies k van de deelexperimenten succes hebben, Bk; dus Bk= {s| ∑ si= k}. Alle uitkomsten die tot Bk behoren, hebben dezelfde kans pk(1-p)n-k en tot Bk behoren de uitkomsten die we krijgen door k van de n plaatsen aan te zijzen als succes. De kans op Bk wordt gegeven in de volgende stelling.

Stelling 3.3.4(binomiale formule)
De kans op precies k successen bij n Bernoulli-pogingen met succeskans p, wordt voor k = 0,1,...,n gegeven door

.

In geval b herhalen we het Bernoulli-experiment net zolang tot we succes hebben. We kunnen dit experiment beschrijven door willekeurig veel Bernoulli-pogingen en de gebeurtenis Cn dat we n pogingen moeten doen om succes te vinden, beschrijven door alle rijtjes die beginnen met n-1 keer een 0 en gevolgd door een 1, dus Cn = {s|si= 0 voor i < n en sn = 1} Aangezien de deelexperimenten o.o. zijn geldt voor de kans op Cn:

Stelling 3.3.5 (geometrische formule)
De kans gn dat bij Bernoulli-pogingen met succeskans p het eerste succes bij de n-e poging is, wordt voor n = 1,2,3,... gegeven door:

.

We kunnen ook experimenten tegenkomen die zijn samengesteld uit afhankelijke deelexperimenten. We zullen geen formele beschrijving geven van zo'n experiment in termen van de deelexperimenten. Hoe de kansruimte gekozen moet worden volgt van geval tot geval uit de beschrijving van het experiment.

We beschrijven ter vergelijking met Bernoulli-pogingen het trekken zonder terugleggen uit een dichotome populatie. We gebruiken het vaasmodel en nemen een vaas gevuld met M rode knikkers en N-M witte. We doen n trekkingen en duiden het trekken van een rode knikker aan als "succes". Een uitkomst kunnen we ook nu beschrijven door een rijtje 0'en en 1'en. Daarbij moeten we echter bedenken dat mogelijk niet elk rijtje kan voorkomen, aangezien er maximaal M 1'en en N-M 0'en ter beschikking zijn. We noemen de gebeurtenis dat we m keer succes hebben, dus dat we precies m rode knikkers trekken, Hm. We kunnen de kans op Hm berekenen: door te bedenken dat de m "successen" uit de M rode komen en de n-m "mislukkingen" uit de N-M witte. In totaal moeten we n trekkingen doen uit het totaal van N.

rode witte totaal
populatie
steekproef

Stelling 3.3.6 (hypergeometrische formule)
De kans hm op m successen bij n trekkingen zonder terugleggen uit een dichotome populatie van omvang N, waaronder M successen, wordt voor m = 0,1,...,n gegeven door:

.

Daarbij is de vanzelfsprekende veronderstelling gemaakt dat

, als k > n.

 


4.1 Inleiding

Wat kunnen we zeggen van de leeftijd van een "willekeurige" Nederlander? Om deze vraag te beantwoorden beschouwen we de symmetrische kansruimte met S = {alle Nederlanders}. Iedere Nederlander heeft een zekere leeftijd, gemeten in gehele aantallen jaren, en als we volgens dit model lukraak één Nederlander kiezen en daarvan de leeftijd bepalen, hangt het getal dat we krijgen duidelijk van het toeval af. Immers wie er gekozen wordt hangt van het toeval af, dus ook de leeftijd die gemeten wordt. De grootheid leeftijd voegt aan iedere uitkomst s een reëel getal, zeg X(s), toe; we hebben dus te maken met een functie X op S, waarvan het argument, en daarmee ook de functiewaarde, door een kansmechanisme wordt aangewezen.

Definitie 4.1.1
Als S een discrete uitkomstenruimte is, noemen we een functie X:S -> \R een (discrete) stochastische variabele (in dit boek vaak afgekort tot s.v.).

Een stochastische variabele X voegt dus aan elke uitkomst s ∈ S een reëel getal X(s) toe. In de praktijk komt dat erop neer dat we bij een experiment door het toeval een uitkomst s verkrijgen en aan die uitkomst nog een kenmerk X(s) meten. Als s een willekeurig gekozen Nederlander is, kunnen we z'n leeftijd X, z'n gewicht G, het aantal kinderen K dat hij heeft, als stochastische variabelen opvatten. We zullen s.v.-en in het algemeen aangeven met hoofdletters veelal met X, Y en Z; soms ook met hoofdletters die een aanwijzing geven over de betekenis van de s.v., G voor gewicht, K voor kindertal ed. Veel experimenten kunnen we gemakkelijk beschrijven in termen van een of meer stochastische variabelen.

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)

We werpen twee keer een dobbelsteen; S = {(s1,s2)|s1, s2= 1,2,...,6}. Het totale aantal geworpen ogen Z is een stochastische variabele, gedefinieerd door Z(s1,s2) = s1 + s2. Ook het ogenaantal X bij de eerste worp is een s.v.: X(s1,s2) = s1.

 


4.2 Kansverdeling

In het algemeen zijn we niet zozeer in de s.v. zelf (dwz. als functie) geïnteresseerd, als wel in de kansen op gebeurtenissen betreffende die s.v. Als X weer de leeftijd van een willekeurige Nederlander voorstelt, zijn we mogelijk geïnteresseerd in de kans dat de gekozen persoon 18 jaar of ouder is, dus in de kans op de gebeurtenis {s|X(s) ≥ 18}. We zullen deze gebeurtenis kort noteren als {X ≥ 18} en de kans erop als P(X ≥ 18). Op soortgelijke wijze voor andere gebeurtenissen: bv. P({s|45 < X(s) < 65}) noteren we kort als P(45 < X < 65).

Definitie 4.2.1
Als X een s.v. is en B een verzameling reële getallen, schrijven we kort {X∈B} voor de gebeurtenis {s|X(s)∈B} en P(X∈B) voor de kans op die gebeurtenis.

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)
Zie voorbeeld 1 in de vorige paragraaf. De gebeurtenis "het totale aantal geworpen ogen is 7" schrijven we als {Z=7} en de kans op die gebeurtenis als P(Z=7).

Net zoals we bij de uitkomsten van een experiment niet geïnteresseerd zijn in de specifieke uitkomst bij de uitvoering van het experiment, maar wel in de mogelijke uitkomsten en de kansen erop, zo zijn we, zoals we boven reeds zeiden, ook niet geïnteresseerd in de waarde die een s.v. in een specifiek geval aanneemt, maar wel in de mogelijke waarden en de bijbehorende kansen.

Voorbeeld 2.
X stelt weer de leeftijd van een willekeurig gekozen Nederlander voor. Het interesseert ons niet dat we bij uitvoering van het experiment meneer Janssen hebben uitgekozen en dat Janssen 53 jaar is. Wij willen weten welke waarden de s.v. X kan aannemen, dus 0 tot en met bv. 140 en wat de kans is dat X zo'n waarde aanneemt, dus hoe groot bv. P(X=53) is. We noemen die waarden met de bijbehorende kansen de (kans)verdeling van de leeftijd X.

Definitie 4.2.2
Onder het waardenbereik SX van een stochastische variabele X verstaan we de verzameling van alle mogelijke waarden die X kan aannemen. Dus SX = {X(s)|s∈S}.

De (kans)verdeling van een s.v. X wordt nu bepaald door de kansen op de verschillende waarden van X, dus door de kansen P(X=x) voor x ∈ SX.

Definitie 4.2.3
Onder de kansfunctie van een stochastische variabele X verstaan we de functie pX: SXR gedefinieerd door: pX(x) = P(X=x).

De kansfunctie van een s.v. X induceert een kans(maat) PX op het waardenbereik SX van X. Deze kansmaat duiden we aan als (kans)verdeling van X. Waar het echter niet tot verwarring aanleiding geeft, zullen we ook de kansfunctie van X wel met kansverdeling aanduiden.

Definitie 4.2.4
Onder de (kans)verdeling van een stochastische variabele X verstaan we de functie PX gedefinieerd voor B ⊂ SX door:

.

De kansverdeling PX van een s.v. X is een kans op het waardenbereik SX; dwz. de kansverdeling voldoet aan de axioma's van Kolmogorov. De structuur van een s.v. X met waardenbereik SX, kansverdeling PX en bijbehorende kansfunctie pX, is geheel analoog aan de structuur van een experiment met uitkomstenruimte S, kans P en bijbehorende kansfunctie p. Door de s.v. X wordt de kansstructuur van het experiment overgebracht van de kansruimte (S,P) met daarop de s.v. X naar de kansruimte (SX,PX). Voor zover het X betreft zijn beide beschrijvingen voor het berekenen van kansen gelijkwaardig. We zullen ons daarom voornamelijk bezighouden met s.v.-en en hun kansverdeling, meestal gegeven door de kansfunctie.

Stelling 4.2.1
De kansverdeling PX van een s.v. X is een kans op het waardenbereik SX van X.

Voorbeeld 3 (twee worpen met een dobbelsteen; vervolg)
De kansverdeling van Z wordt gegeven door de kansfunctie pZ. We berekenen eens pZ(3): pZ(3) = P(Z=3) = P({(1,2),(2,1)}) = 2/36.

Op overeenkomstige wijze kunnen we pZ(z) = P(Z=z) voor elke z bepalen; we krijgen dan de volgende tabel:

2 3 4 5 6 7 8 9 10 11 12 totaal
1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 36/36

We kunnen pZ ook in formule geven:

, voor z = 2,3,...,12.

In figuur 4.1 is de verdeling van Z in beeld gebracht.

o
o o
o o
o o
o o
o o
2 3 4 5 6 7 8 9 10 11 12
Figuur 4.1. De kansverdeling van Z.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

4.3 Enkele bekende discrete verdelingen

In deze paragraaf bespreken we enkele veel voorkomende discrete kansverdelingen. In verband met hetgeen we in de vorige paragraaf opmerkten laten we iedere verwijzing naar een onderliggende kansruimte achterwege.

Als randgeval beschouwen we de situatie dat er eigenlijk niet van toeval sprake is; de s.v. X neemt slechts één waarde aan, de verdeling van X is ontaard.

Definitie 4.3.1 (ontaarde verdeling)
De s.v. X heeft een ontaarde verdeling in het punt a, als de kansfunctie van X wordt gegeven door pX(a) = 1.

Als de s.v. X twee verschillende waarden kan aannemen, dan spreken we van een alternatieve verdeling. We zullen voor de eenvoud slechts 0 en 1 als mogelijke waarden van X beschouwen. De s.v. X geeft aan of we wel (X=1) of niet (X=0) succes hebben in een Bernoulli-experiment. We kunnen ook zeggen dat X het aantal successen is bij het experiment.

Definitie 4.3.2 (alternatieve verdeling)
De s.v. X heeft een alternatieve verdeling (ook Bernoulli-verdeling geheten) met parameter p (0 ≤ p ≤ 1), als de kansfunctie van X wordt gegeven door: pX(1) = 1 - pX(0) = p.

Als de s.v. X verschillende waarden x1,x2,...,xN kan aannemen, alle met gelijke kans, dan noemen we X uniform verdeeld. Het is het analogon van een symmetrische kansruimte.

Definitie 4.3.3 (uniforme of homogene verdeling)
De s.v. X heeft een uniforme (of homogene) verdeling op de getallen x1,x2,...,xN, als de kansfunctie van X wordt gegeven door pX(xi) = 1/N, voor i = 1,2,..,N.

Voorbeeld 1 (één aselecte trekking)
We komen nog al eens de term aselecte (lukrake, willekeurige) trekking tegen. Een aselecte trekking uit de mogelijke getallen x1,x2,...,xN kunnen we beschrijven als een uniform op die getallen verdeelde s.v.

Trekken we aselect zonder terugleggen n keer uit een dichotome populatie, dan is de kans op m successen gegeven door de hypergeometrische formule (stelling 3.3.6). Een s.v. met deze formule als kansverdeling noemen we hypergeometrisch verdeeld.

Definitie 4.3.4 (hypergeometrische verdeling)
De s.v. X heeft een hypergeometrische verdeling met parameters N, M en n (N,M,n ∈ N, 0 ≤ M ≤ N), als de kansfunctie van X wordt gegeven door:

, voor m = 0,1,..,n.

Op grond van het bovenstaande kunnen we dus zeggen:

Stelling 4.3.1
Zij X het aantal successen bij n aselecte trekkingen zonder terugleggen uit een populatie van omvang N, waarvan M successen; dan is X hypergeometrisch verdeeld met parameters N, M en n.

In de onderstaande figuur zien we de hypergeometrische verdeling met parameters 50, 20 en 12 afgebeeld.

Figuur 4.2
Hypergeometrische verdeling met parameters 50, 20, 12


Voorbeeld 2
Uit een groep studenten bestaande uit 20 meisjes en 30 jongens worden lukraak 5 studenten aangewezen. Wat is de kans dat er maar 1 jongen bij die 5 is? Het aantal meisjes bij die 5 is een s.v. X die hypergeometrisch verdeeld is, dus de gevraagde kans is:

.


Trekken we aselect met terugleggen n keer uit een dichotome populatie met succeskans p, dan bestaat het experiment dus uit n Bernoulli-pogingen en is de kans op m successen gegeven door de binomiale formule (stelling 3.3.4). Een s.v. met deze formule als kansverdeling noemen we binomiaal verdeeld.

Definitie 4.3.5 (binomiale verdeling)
De stochastische variabele X heeft een binomiale verdeling met parameters n en p (n ∈ N, n > 0, 0 ≤ p ≤ 1), als de kansfunctie van X wordt gegeven door:

, voor k = 0,1,..,n.

We spreken wel van de B(n,p)-verdeling en zeggen dat X B(n,p)-verdeeld is.

Op grond van het bovenstaande kunnen we dus zeggen:

Stelling 4.3.2
Zij X het aantal successen bij n Bernoulli-pogingen met succeskans p, dan is X binomiaal verdeeld met parameters n en p.

In de volgende figuren zien we enkele binomiale verdelingen in beeld gebracht.

Figuur 4.3. De binomiale verdeling met parameters 12 en 0,4


Figuur 4.4. De binomiale verdeling met parameters 30 en 0,4


Voorbeeld 3
Het aantal jongens X in een willekeurig gezin met 4 kinderen is B(4,1/2)-verdeeld, als we aannemen dat jongens en meisjes gemiddeld evenveel voorkomen (wat niet helemaal juist is) en dat de geboorte van een jongen en van een meisje in één gezin onderling onafhankelijk zijn (wat ook niet helemaal juist is). De kans dat in een gezin van vier kinderen alleen jongens zijn, is dan:

.


Als we n aselecte trekkingen zonder terugleggen doen uit een populatie van grote omvang N en een fractie p van de populatie heeft een bepaald kenmerk "succes", dan weten we dat het aantal successen XN in de steekproef hypergeometrisch verdeeld is. Als we de trekkingen doen met terugleggen dan is het aantal successen Y binomiaal verdeeld. Echter voor een grote populatie en een relatief kleine steekproef zal het niet veel verschil maken of we de steekproef met of zonder terugleggen nemen. De verdelingen van XN en Y zullen dus in zo'n geval veel op elkaar lijken.

Stelling 4.3.3
Zij Y binomiaal verdeeld met parameters n en p en voor N = 1,2,3,... XN hypergeometrisch verdeeld met parameters N, M = Np en n, dan geldt:

.

Voorbeeld 4
In de onderstaande tabel zien we de hypergeometrische verdeling met N = 1000, M = 200 en n = 5, en tevens de benaderende B(5,5)-verdeling.

k 0 1 2 3 4 5
hypergeom. 0,3269 0,4106 0,2051 0,0509 0,0063 0,0003
binomiaal 0,3277 0.4096 0,2048 0,0512 0,0064 0,0003

Doen we net zolang Bernoulli-pogingen tot we succes hebben, dan is volgens stelling 3.3.5 de kans dat we n pogingen moeten doen gegeven door de geometrische formule. Een s.v. met deze formule als kansverdeling noemen we geometrisch verdeeld. We kunnen zo'n s.v. opvatten als de "wachttijd" op succes.

Definitie 4.3.6 (geometrische verdeling)
De stochastische variabele X heeft een geometrische verdeling met parameter p (0 < p < 1), als de kansfunctie van X wordt gegeven door:

, voor n = 1,2,3,...


Op grond van het bovenstaande kunnen we dus zeggen:

Stelling 4.3.4
Zij X het aantal Bernoulli-pogingen met succeskans p tot en met het eerste succes, dan is X geometrisch verdeeld met parameter p.

In de volgende figuur staat de geometrische verdeling met parameter p = 0,4 afgebeeld.

Figuur 4.5. De geometrische verdeling met parameter 0,4


De geometrische verdeling kan handig beschreven worden door de overschrijdingskansen P(X > n), zoals uit de volgende stelling blijkt.

Stelling 4.3.5
Zij X geometrisch verdeeld met parameter p, dan is voor n = 0,1,2,...:

.

Voorbeeld 5
Een handelsreiziger heeft gemiddeld bij 1 op de 10 klanten succes. Hoe groot is de kans dat hij op een bepaalde dag bij de 5e klant die hij bezoekt, z'n eerste order van die dag plaatst? Het aantal klanten X die hij moet bezoeken om voor het eerst succes te hebben, is geometrisch verdeeld met parameter p = 0,1 dus P(X = 5) = (1-p)4p = 0,94 × 0,1 = 0,06561 ~ 0,066. De kans dat hij 5 of meer klanten moet bezoeken om een order te plaatsen is P(X ≥ 5) = P(X > 4) = (1-p)4 = 0,94 = 0,6561.

Voorbeeld 6
Hoe groot is de kans om in minder dan 6 worpen met een zuivere dobbelsteen zes te gooien? Het aantal worpen X benodigd om zes te gooien, is geometrisch verdeeld met parameter 1/6, dus de gevraagde kans is P(X < 6) = 1 - P(X > 5) = 1 - (1 - 1/6)5 = 0,5981 ~ 60%.

Een verdeling die niet direct uit eenvoudige experimenten voortkomt, is de Poisson-verdeling (Poisson, 1837). Deze verdeling wordt wel de verdeling van de zeldzame gebeurtenissen genoemd. Stochastische variabelen met deze kansverdeling staan vaak model voor aantallen voorvallen die in een bepaald tijdsbestek plaatsvinden, zoals het aantal binnenkomende personen in een postkantoor tussen 10 en 11 uur 's ochtends, het aantal desintegraties van atomen in een hoeveelheid radio-actieve stof binnen een zekere periode, etc. Ook de aantallen objecten die zich in een bepaald deel van de ruimte bevinden, kunnen nogal eens gemodelleerd worden met een Poisson-verdeling, zoals het aantal rode bloedlichaampjes in een bepaalde hoeveelheid bloed, het aantal bacteriën van een bepaald type in een liter slootwater, het aantal bosorchideeën op een hectare bosgrond, het aantal draadbreuken in 1000 m draad in een spinnerij etc.

Voorbeeld 7
Op een bepaald kruispunt vinden jaarlijks enkele ernstige ongevallen plaats. Gemiddeld m per jaar. Het aantal dat in een jaar plaatsvindt noemen we X. We proberen inzicht te krijgen in de kansverdeling van X. Daartoe kijken we naar de verdeling van de ongevallen (×) over de 12 maanden van het jaar:

─xx─ ─x── ──x─ ─x── ──── ──── ───x ──xx ─x── ─xx─ ──── ──x─
jan feb mrt apr mei jun jul aug sep okt nov dec

Ruwweg kunnen we zeggen dat er maanden zijn waarin geen ongeval plaats- vindt en maanden waarin wel een ongeval plaatsvindt. Beschouwen we maanden met één ongeval als "succes" en het optreden van de ongevallen als onafhankelijk, dan hebben we te maken met 12 Bernoulli-pogingen met succeskans p = m/12. Helaas zijn er maanden met twee ongevallen! We laten ons daardoor niet uit het veld slaan en kijken daarom naar de weken. Een week met één ongeval noemen we een succes en een week zonder ongeval een mislukking; we hebben te maken met 52 Bernoulli-pogingen met p = m/52. De s.v. X stelt nu ook het aantal weken voor waarin precies één ongeval plaatsvindt; X is dus met goede benadering binomiaal verdeeld met parameters n = 52 en p = m/52. Mochten er nog weken zijn met meer dan één ongeval, dan kunnen we naar de dagen kijken etc. Die benadering zal des te beter zijn naarmate n groter is. In de volgende stelling bepalen we de limiet.

Stelling 4.3.6
Zij voor n=1,2,3,... Xn B(n,μ/n)-verdeeld dan is:

.

Deze limiet is weer een keurige kansfunctie, zoals uit de volgende stelling blijkt.

Stelling 4.3.7
Er geldt:

.

De verdeling met deze kansfunctie noemen we de Poissonverdeling.

Definitie 4.3.7 (Poissonverdeling)
De stochastische variabele X heeft een Poisson-verdeling met parameter μ (μ > 0), als de kansfunctie van X wordt gegeven door:

, voor k = 0,1,2,...

In de volgende figuren zien we enkele Poissonverdelingen afgebeeld.


Figuur 4.6. De Poissonverdeling met parameter 1


Figuur 4.7. De Poissonverdeling met parameter 5


De parameter m van de Poissonverdeling geeft de intensiteit waarmee de voorvallen plaatsvinden, weer. Voor een gevaarlijk, druk kruispunt kiezen we in het kansmodel een grote waarde van m, voor een minder druk kruispunt een kleine waarde van m als we het aantal ongevallen met een Poisson-verdeling beschrijven.

Voorbeeld 8
Het aantal verzoeken X om inlichtingen bij een afdeling van een verzekeringskantoor in een uur is Poissonverdeeld met parameter μ = 2, dwz. dat over een lange periode gemiddeld 2 verzoeken per uur voorkomen. Na een advertentiecampagne is het echter veel drukker en blijkt dat μ = 10. In het geval μ = 2 is P(X ≤ 6) = 0,996; echter voor μ = 10 is P(X ≤ 6) = 0,130, waarmee het verschil tussen beide situaties duidelijk geïllustreerd wordt.

In voorbeeld 7 bleek dat een binomiale verdeling voor grote waarden van de parameter n en kleine waarden van de parameter p veel lijkt op een Poissonverdeling met parameter np. In stelling 4.3.7 is daarmee de Poissonverdeling afgeleid. De volgende stelling spreekt dit nog eens uit.

Stelling 4.3.8
Zij voor n=1,2,3,... Xn B(n,μ/n)-verdeeld en Y Poissonverdeeld met parameter μ, dan is:

.

Voorbeeld 9
Een levensverzekeringsmaatschappij verzekert het leven van 5000 mannen van 42 jaar. De kans dat een 42-jarige man komt te overlijden is 0,001. Hoe groot is de kans dat de maatschappij meer dan 4 claims moet betalen gedurende een jaar? Het aantal claims X in dat jaar is binomiaal verdeeld met parameters n = 5000 en p = 0,001. Een goede benadering van deze verdeling is de Poissonverdeling met μ = np = 5, zodat de gevraagde kans is:

daarbij heeft Y een Poissonverdeling met parameter μ = 5.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.


5.1 Inleiding

Vaak doen we meer dan één "waarneming" aan een uitkomst van een experiment, zoals het meten van leeftijd, lengte en gewicht van een willekeurig gekozen persoon. Op de kansruimte zijn dan verscheidene s.v.-en X1,X2,...,Xn (gelijktijdig) gegeven. We zullen dan iets te weten willen komen van de onderlinge relaties tussen de X'en. Als we de verdelingen van elk der s.v-en afzonderlijk kennen, is het in het algemeen niet mogelijk een kansuitspraak te doen die twee of meer van de s.v.-en betreft. Toch zijn het juist die gezamenlijke kansen die ons interesseren, want het zijn die zgn. simultane kansen die ons iets zeggen over de samenhang tussen de s.v.-en.

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)
Met Z geven we het totale aantal geworpen ogen aan en met M het maximum van de beide ogenaantallen. Duidelijk is dat er een samenhang is tussen Z en M; als bv. M = 2, dan is Z ten hoogste gelijk aan 4. De simultane kans P(Z=3 en M=2) kunnen we niet afleiden uit de kansen P(Z=3) en P(M=2).

Definitie 5.1.1
Als op de kansruimte (S,P) de s.v.-en X1,X2,...,Xn gegeven zijn, noemen we de rij X = (X1,X2,...,Xn) een stochastische vector (ook afgekort tot s.v.) met dimensie n; de s.v.-en X1,X2,...,Xn zelf noemen we de componenten van X.

De begrippen waardenbereik, kansfunctie en kansverdeling zijn geheel analoog aan het geval van één dimensie gedefinieerd.

Definitie 5.1.2
Onder het waardenbereik SX van de stochastische vector X verstaan we de verzameling van alle mogelijke waarden van X, dus SX = {X(s)|s∈S}.

In het volgende zullen we, om niet met allerlei indices te moeten werken, slechts het geval van drie s.v.-en X, Y en Z behandelen. De generalisatie naar een willekeurig aantal X1, X2, ..., Xn is meestal vanzelfsprekend.

Definitie 5.1.3
Laat X, Y en Z de componenten zijn van de stochastische vector V. Onder de simultane kansfunctie van X, Y en Z verstaan we de functie pX,Y,Z: SV -> \R gedefinieerd door: pX,Y,Z(x,y,z) = P(X=x en Y=y en Z=z).

De simultane kansfunctie induceert weer een kans(maat) PV op het waardenbereik SV van V = (X,Y,Z); deze kansmaat duiden we aan als de simultane (kans)verdeling van X, Y en Z. Waar het echter niet tot verwarring aanleiding geeft, zullen we ook de simultane kansfunctie wel met kansverdeling aanduiden.

Definitie 5.1.4
Laat X, Y en Z de componenten zijn van de stochastische vector V. Onder de simultane (kans)verdeling van X, Y en Z verstaan we de functie PX, Y en Z , gedefinieerd voor B ⊂ SV door:

,

waarin x, y en z de componenten van v zijn.

Ook geldt een analoge stelling als in één dimensie:

Stelling 5.1.2
De simultane kansverdeling PV van de s.v. V is een kans op het waardenbereik SV van V.

Voorbeeld 2 (twee worpen met een dobbelsteen; vervolg)
De simultane kansfunctie pZ,M van Z en M wordt gegeven door:

In de volgende tabel staat deze simultane kansfunctie.


2 3 4 5 6 7 8 9 10 11 12
1 1/36 1/36
2 2/36 1/36 3/36
3 2/36 2/36 1/36 5/36
4 2/36 2/36 2/36 1/36 7/36
5 2/36 2/36 2/36 2/36 1/36 9/36
6 2/36 2/36 2/36 2/36 2/36 1/36 11/36
1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 36/36

In de rechter- en ondermarge van de tabel staan de rij- resp. kolomtotalen vermeld. Deze totalen stellen juist de verdelingen (kansfuncties) pM van M en pZ van Z voor. Immers om bv. pM(3) te bepalen, bedenken we dat: pM(3) = P(M=3) = P(Z=4 en M=3 of Z=5 en M=3 of Z=6 en M=3) = P(Z=4 en M=3) + P(Z=5 en M=3) + P(Z=6 en M=3) = pZ,M(4,3) + pZ,M(5,3) + pZ,M(6,3).

Daarom noemen we in dit verband de verdelingen van M en van Z wel marginale verdelingen.

Als de simultane verdeling (kansfunctie) van een stel s.v.-en bekend is, kunnen we, zoals uit het bovenstaande blijkt, van elke gebeurtenis omtrent die s.v.-en de kans berekenen. In het bijzonder kunnen we de kansen bepalen op gebeurtenissen die alleen een deel van de s.v.-en betreffen; de daarbij behorende kansverdeling noemen we marginale verdeling.

Definitie 5.1.5a
Laat X, Y en Z de componenten zijn van de stochastische vector V. De kansfuncties pX, pY en pZ van de componenten van V noemen we in dit verband wel marginale kansfuncties.

Ook voor een deel van de componenten van een stochastische vector V spreken we van marginale verdelingen. We formuleren de definitie alleen voor de twee componenten X en Z.

Definitie 5.1.5b
Laat X, Y en Z de componenten zijn van de stochastische vector V. De simultane kansfunctie van de twee componenten X en Z noemen we in dit verband wel de marginale kansfunctie van X en Z.

In voorbeeld 2 hebben we al gezien hoe we de marginale kansfunctie van een s.v. konden berekenen uit de simultane verdeling van die s.v. en een andere. De volgende stelling formuleert dit.

Stelling 5.1.1
De marginale kansfunctie van de s.v. X kan uit de simultane kansfunctie van X, Y en Z berekend worden volgens:

,

dus door de bij x horende simultane kansen te sommeren over alle mogelijke waarden y van Y en z van Z.

We kunnen de stelling generaliseren naar de algemene situatie van het berekenen van de marginale verdeling van de m componenten van een s.v. uit de simultane verdeling van alle n (n>m) componenten. We zullen deze vanzelfsprekende generalisatie echter niet opschrijven, maar de formulering aan de lezer overlaten.

Alvorens we een voorbeeld bespreken, introduceren we eerst een generalisatie van de binomiale verdeling, nl. de multinomiale verdeling. De binomiale verdeling ontstaat onder meer wanneer we uit een vaas met twee soorten knikkers, zeg witte en zwarte, met terugleggen, lukraak n keer een knikker trekken. Het aantal getrokken witte knikkers is dan binomiaal verdeeld. Met het aantal witte ligt ook het aantal zwarte vast. Als generalisatie nemen we een vaas met bv. vijf soorten knikkers: witte, rode, gele, groene en blauwe. We trekken ook nu met terugleggen, lukraak n knikkers uit de vaas. De steekproef bevat nu van elke kleur een aantal knikkers. Die aantallen, X1,...,X5 zijn dan multinomiaal verdeeld. De parameters van deze verdeling zijn: het aantal getrokken knikkers n, het aantal mogelijke kleuren, hier 5, en de fracties knikkers p1,...,p5 van elk der kleuren in de vaas.

Definitie 5.1.6 (multinomiale verdeling)
We zeggen dat de s.v.-en X1,X2,...,Xm een multinomiale verdeling hebben met parameters n, m en p1,p2,...,pm, als het waardenbereik van de s.v. X = (X1,X2,...,Xm) gegeven wordt door: SX = {(n1,n2,...,nm)|ni geheel, ni ≥ 0 en n1+ n2+...+ nm= n} en de simultane kansverdeling van X1,X2,...,Xm bepaald wordt door:

.

Daarbij zijn n en m natuurlijke getallen en is pi ≥ 0 voor elke i = 1,2,...,m en er geldt p1+ p2+...+ pm= 1.

Voorbeeld 3 (multinomiale verdeling)
Als generalisatie van een Bernoulli-experiment beschouwen we een experiment met m verschillende uitkomsten. Als vaasmodel kunnen we denken aan een vaas met knikkers in m verschillende kleuren; de kansen op de verschillende uitkomsten noemen we p1,p2,...,pm. Er geldt natuurlijk dat p1+ p2+...+ pm = 1. We trekken n keer lukraak een knikker uit de vaas en leggen deze na de kleur vastgesteld te hebben weer terug. Met Xi geven we het aantal keren aan dat de ie uitkomst bij de n herhalingen voorkwam. De s.v.-en X1,X2,...,Xm zijn dan multinomiaal verdeeld met parameters n, m en p1,p2,...,pm.

We bepalen eens voor het geval m=3 (trinomiale verdeling) de marginale verdeling van X1. Voor n1= 0,1,...,n berekenen we:

.

We zien dat X1 een binomiale verdeling heeft met parameters n en p1.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

5.2 Voorwaardelijke kansverdelingen

Bij de simultane verdeling van twee s.v.-en X en Y kunnen we ook voorwaardelijke kansen op waarden van de ene gegeven de waarde van de andere beschouwen, dus bv. P(X=3|Y=0). Deze voorwaardelijke kans is gewoon gedefinieerd als de voorwaardelijke kans op de gebeurtenis {X=3} gegeven de gebeurtenis {Y=0}, dus indien P(Y=0) > 0, door:

.

De kansen op de verschillende waarden van X onder de voorwaarde {Y=0} duiden we dan aan als de voorwaardelijke verdeling van X gegeven Y=0. We zullen eerst eens een voorbeeld bespreken.

Voorbeeld 1
De simultane verdeling van X en Y wordt gegeven door:

, voor x = 1,2,... en y = 2,3,...

We kunnen nu voor y = 2,3,... de voorwaardelijke verdeling van X, gegeven Y=y, bepalen:

, voor x = 1,2,...

Nu is:

,

dus

, voor x = 1,2,...

Hieruit blijkt dat X onder de voorwaarde Y=y geometrisch verdeeld is met parameter 1/y.


We geven nu een algemene definitie:

Definitie 5.2.1
Laat X, Y en Z de componenten zijn van de stochastische vector V. Onder de voorwaardelijke kansfunctie van X gegeven (dat) Y=y en Z=z, verstaan we de functie: pX(.|Y=y en Z=z), gedefinieerd (mits de noemer ≠ 0) door:

pX(x|Y=y en Z=z) = P(X=x|Y=y en Z=z) = pX,Y,Z(x,y,z)/pY,Z(y,z).


Voorbeeld 2 (twee worpen met dobbelsteen; vervolg)
De voorwaardelijke verdeling van het totale ogenaantal Z gegeven dat het maximale ogenaantal M=3, kunnen we dus bepalen uit de rij m=3 in de tabel van de simultane verdeling van Z en M; deze rij staat hieronder nog eens opgeschreven.

2 3 4 5 6 7 8 9 10 11 12
3 2/36 2/36 1/36 5/36

We berekenen bv:

pZ(5|M=3) = P(Z=5|M=3) = P(Z=5 en M=3)/P(M=3)= (2/36)/(5/36) = 2/5.

We moeten dus het element in de rij (de simultane kans) delen door het getal in de marge (de marginale kans); zo krijgen we:

2 3 4 5 6 7 8 9 10 11 12 totaal
0 0 2/5 2/5 1/5 0 0 0 0 0 0 1


Voorbeeld 3 (multinomiale verdeling; vervolg)
We nemen het geval m=3 en noemen de s.v.-en weer X,Y en Z. We stellen n0 = n1+ n2 = n - n3 en p0 = p1 + p2. Voor de voorwaardelijke verdeling van X en Y, gegeven Z, dus gegeven dat Z = n3, vinden we voor n1,n2 ≥ 0:

dus ook een multinomiale verdeling (binomiale), maar met parameters n0, 2 en p1/p0 en p2/p0.

In de praktijk zullen we veelal niet de voorwaardelijke kansverdelingen uit de simultane verdeling afleiden, maar zal het experiment zijn opgebouwd uit successievelijk uitgevoerde deelexperimenten. De voorwaardelijke verdelingen leiden we dan af uit de deelexperimenten en vervolgens berekenen we uit deze voorwaardelijke verdelingen de simultane verdeling.

Voorbeeld 4
We werpen een dobbelsteen zolang tot we 6 gooien. Het aantal benodigde worpen noemen we Y. Daarna werpen we de dobbelsteen nog eens even veel keren en noteren het aantal malen X dat we 6 gooien. Het gehele experiment bestaat dus uit twee deelexperimenten. Het eerste kunnen we beschrijven door de s.v. Y die een geometrische verdeling met parameter p = 1/6 heeft. Het tweede deelexperiment is afhankelijk van het eerste; als we bij het eerste de uitkomst Y = y hebben gevonden, beschrijft de s.v. X, met voorwaardelijk gegeven Y = y een binomiale verdeling met parameters y en 1/6, het tweede. Dus:

, voor y = 1,2,...

en

, voor x = 0,1,...,y.

We kunnen nu de simultane verdeling van X en Y als volgt bepalen:

,

voor y = 1,2,... en x = 0,1,...,y.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

5.3 Onderling onafhankelijke stochastische variabelen

In het voorgaande hebben we gezien hoe we uit de simultane verdeling van een stel s.v.-en marginale verdelingen kunnen bepalen. Omgekeerd is het in het algemeen niet mogelijk de simultane verdeling van bv. een tweetal s.v.-en X en Y af te leiden uit de marginale verdeling van elk. In een speciaal geval is dit wel mogelijk en is de simultane kansfunctie van een n tal s.v.-en eenvoudig het product van de marginale kansfuncties van elk. Dit is het geval als de s.v.-en onderling onafhankelijk zijn. Dit begrip is geheel analoog aan de definitie van onafhankelijke gebeurtenissen en onderling onafhankelijke experimenten. Voor twee s.v.-en X en Y kunnen we van willekeurige gebeurtenissen {X∈B1} betreffende X en {Y∈B2} betreffende Y nagaan of ze al dan niet afhankelijk zijn. Als voor elke keuze van B1 en B2 de genoemde gebeurtenissen onafhankelijk zijn, ligt het voor de hand om X en Y onderling onafhankelijk te noemen.

Definitie 5.3.1
De s.v.-en X1,X2,...,Xn heten (onderling) onafhankelijk (afgekort tot o.o.) als de gebeurtenissen {X1∈ B1},{X2∈ B2},...,{Xn∈ Bn} onderling onafhankelijk zijn voor iedere B1⊂ SX , B2⊂ SX , ..., Bn⊂ SX . Als het n-tal niet onderling onafhankelijk is, heten ze afhankelijk.

Als de s.v.-en X en Y onderling onafhankelijk zijn kunnen we de simultane verdeling afleiden uit de marginale verdelingen van X en van Y, want de gebeurtenissen {X=x} en {Y=y} zijn voor elke x en y onafhankelijk, dus: P(X=x en Y=y) = P(X=x).P(Y=y). Algemeen geldt voor een n-tal:

Stelling 5.3.1
Als de s.v.-en X1,X2,...,Xn onderling onafhankelijk zijn, geldt:

, voor alle .

Voorbeeld 1
De s.v.-en X1,X2,...,Xn zijn o.o. en hetzelfde verdeeld als X met P(X=1) = 1 - P(X=0) = p. De simultane verdeling wordt dan gegeven door:

,

voor xi = 0 of 1 voor alle i.

Stelling 5.3.1 is ook karakteristiek voor onderling onafhankelijke s.v.-en. Omgekeerd geldt nl. ook dat een n-tal s.v.-en onderling onafhankelijk is als de simultane verdeling het product is van de marginale verdelingen van elk.

Stelling 5.3.2
De s.v.-en X1,X2,...,Xn zijn onderling onafhankelijk indien voor alle geldt:

.

Voorbeeld 2 (twee worpen met dobbelsteen; vervolg)
We noemen de uitkomst van de eerste worp X en van de tweede Y. Voor elke x = 1,2,...,6 en y = 1,2,...,6 geldt: P(X=x en Y=y) = 1/36 = P(X=x).P(Y=y); dus X en Y zijn onderling onafhankelijk.

Het totale ogenaantal Z (= X + Y) en het maximale ogenaantal M (= max(X,Y)) zijn afhankelijk, want bv. P(Z=5 en M=3) = 2/36 ≠ P(Z=5).P(M=3) = 4/36 × 5/36.

Zoals we al eerder opmerkten is de analogie tussen onafhankelijke s.v.-en en onafhankelijke experimenten opvallend; praktisch gesproken is er dan ook geen verschil en kunnen we een bepaalde situatie op beide manieren beschrijven.

Voorbeeld 3 (twee worpen met dobbelsteen; vervolg)
Beschrijven we het experiment als opgebouwd uit twee onafhankelijke deelexperimenten, dan zijn de gebeurtenissen die alleen betrekking hebben op de eerste worp onafhankelijk van gebeurtenissen betreffende de tweede worp en bijgevolg zijn X en Y onderling onafhankelijke s.v.-en.

We kunnen het experiment ook beschrijven door X en Y als o.o. s.v.-en te geven, dus door voor x,y = 1,2,...,6 te stellen dat P(X=x en Y=y) = 1/36. Het gevolg is dat de beide worpen als deelexperimenten gezien onafhankelijk zijn.

 


5.4 Functies van stochastische variabelen

Als X een (discrete) stochastische variabele is, is ook de compositie Y = gX van X en een functie g (meestal geschreven als g(X)) weer een s.v. We kunnen dat schematisch als volgt weergeven:

Zo is bv. Y = (X-3)2 een (discrete) stochastische variabele; immers Y(s) = (X(s)-3)2 bepaalt weer een functie op de uitkomstenruimte S. Ook functies van de componenten X1,X2,...,Xn van een stochastische vector, bv. X1 + X2 - X3 , 2(X1 - Xn) zijn weer s.v.-en. In het voorgaande zijn we eigenlijk al zulke functies van s.v.-en tegengekomen. Bij het twee keer werpen van een dobbelsteen is het maximale ogenaantal Z van beide worpen te schrijven als Z = max(X,Y), waarin X en Y de ogenaantallen van respectievelijk de eerste en tweede worp waren. Algemeen geldt de volgende stelling.

Stelling 5.4.1
Laat X1,X2,...,Xn s.v.-en zijn op een kansruimte (S,P) en zij

voor zekere k ≤ n, dan is ook g(X1,...,Xk) een s.v. op (S,P).

Hoe kunnen we uit de gegeven simultane kansverdeling van een n-tal s.v.-en X1,X2,...,Xn de verdeling van een functie g(X1,X2,...,Xk) van een k- tal van deze s.v.-en bepalen? Eigenlijk hebben we dit al gedaan, zoals uit het volgende voorbeeld blijkt.

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)
De simultane verdeling van het ogenaantal X van de eerste worp en van het ogenaantal Y van de tweede worp wordt voor elke x = 1,2,...,6 en y = 1,2,...,6 gegeven door: P(X=x en Y=y) = 1/36. De verdeling P(Z=z) van het totale ogenaantal Z = X + Y kunnen we als volgt bepalen; bv. voor z=5:

P(Z=5) = P(X=1 en Y=4 of X=2 en Y=3 of X=3 en Y=2 of X=4 en Y=1) =
= P(X=1 en Y=4) + P(X=2 en Y=3) + P(X=3 en Y=2) + P(X=4 en Y=1) =3/36.

Algemeen geldt:

Stelling 5.4.2
Laat X1,...,Xk s.v.-en zijn op een kansruimte (S,P) en zij

,

dan wordt de kansverdeling van Y = g(X1,...,Xk) bepaald door:

,

en

,

voor y ∈ SY.

Bewijs: We bewijzen alleen de tweede uitspraak; we stellen X = (X1,...,Xk) en x = (x1,...,xk):

Opmerking 1
We kunnen ook g zelf opvatten als s.v. op de kansruimte (SX,PX) en de theorie van hoofdstuk 2 toepassen.

In het bijzonder zullen we kijken naar de som van twee s.v.-en X en Y (gedefinieerd op dezelfde kansruimte). De resultaten laten zich gemakkelijk generaliseren naar een n-tal, maar dat zullen we niet expliciet doen.


Stelling 5.4.3
Laat X en Y een simultane verdeling hebben, dan wordt de verdeling van X + Y voor

gegeven door de kansfunctie

.

Als X en Y o.o. zijn kunnen we nog schrijven:

,

voor

Anders geschreven:

.

De beide laatste sommaties noemen we wel convolutiesommen en we duiden de verdeling pX+Y van X+Y aan als de convolutie van pX en pY.

Definitie 5.4.1
Onder de convolutie van twee kansfuncties p1 en p2, verstaan we de functie p1* p2, gedefinieerd door:

.

Stelling 5.4.4
De convolutie p1 * p2 van twee kansfuncties p1 en p2 is zelf ook een kansfunctie.

We kunnen de verdeling van de som van twee onafhankelijke s.v.-en als volgt karakteriseren:

Stelling 5.4.5
Als X en Y onafhankelijke s.v.-en zijn, is de kansverdeling pX+Y van hun som de convolutie van hun kansfuncties pX en pY; dus pX+Y = pX * pY.

In de praktijk is de convolutiesom alleen van belang als er ook daadwerkelijk "convolutie" optreedt, dwz. als (pX*pY)(z) niet slechts bepaald wordt door een of enkele toevallig van 0 verschillende summanden in de convolutiesom ∑ pX(x)p2(z-x). Daadwerkelijke convolutie doet zich bv. voor als X en Y geheelwaardige s.v.-en zijn. Overigens blijkt dan dat slechts in enkele bijzondere gevallen de convolutiesom te berekenen is.

We geven nu enkele voorbeelden van de berekening van de verdeling van functies van s.v.-en.

Voorbeeld 2
Zij X het ogenaantal bij een worp met een dobbelsteen en Y = (X-3)2. In de volgende tabel staan de relevante grootheden die benodigd zijn om de verdeling van Y te bepalen.

1 2 3 4 5 6 totaal
1/6 1/6 1/6 1/6 1/6 1/6 1
4 1 0 1 4 9

Daaruit lezen we af: SY = {0,1,4,9} en voor de kansfunctie van Y:

0 1 4 9 totaal
1/6 2/6 2/6 1/6 1

want bv. P(Y=4) = P(X=1 of X=5) = P(X=1) + P(X=5) = 2/6.

Voorbeeld 3 (multinomiale verdeling; vervolg)
We bekijken een multinomiale verdeling met parameters n, 4 en p1,p2,p3 und p4, en noemen de s.v.-en X, Y, Z en U. Wat is de verdeling van V = (X,Y,Z+U)?

en

,

dus een multinomiale verdeling met parameters n, 3 en p1,p2,p3+ p4.

Voorbeeld 4
Laat X en Y o.o. zijn en beide binomiaal verdeeld met parameters resp. m en p en n en p. Dan vinden we voor de verdeling van X+Y:

SX+Y = {x+y|x = 0,1,...,m en y = 0,1,...,n} = {0,1,...,m+n}

en

dus een binomiale verdeling met parameters m+n en p.

Als de s.v.-en X, Y en Z o.o. zijn, volgt automatisch dat ook bv. X+Y en Z2 o.o. zijn. We formuleren deze eigenschap algemeen.

Stelling 5.4.6
Laat de s.v.-en X1,X2,...,Xn onderling onafhankelijk zijn en zij g: Rk → R voor zekere k ≤ n, dan zijn ook g(X1,...,Xk), Xk+1,...,Xn o.o.

Voorbeeld 5 (drie worpen met een dobbelsteen)
We beschrijven het experiment door de o.o. s.v.-en X,Y en U, die de ogenaantallen van resp. de eerste, tweede en derde worp voorstellen. De simultane verdeling wordt dus gegeven door P(X=x en Y=y en U=u) = 1/216 voor x,y,u = 1,2,...,6.

We mogen nu concluderen dat bv. de som X + Y van de ogenaantallen van de eerste twee worpen onafhankelijk is het aantal ogen U bij de derde worp. Ook zijn bv. X en max(Y,U) o.o.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

5.5 Gelijkverdeelde stochastische variabelen

Twee s.v.-en X en Y kunnen, hoewel ze verschillend zijn en mogelijk op geheel verschillende kansruimten gedefinieerd zijn, toch dezelfde kansverdeling hebben.

Voorbeeld 1
We werpen een zuivere dobbelsteen en noemen het ogenaantal X. Als we Y = 7 - X stellen, is Y verschillend van X, maar heeft dezelfde kansverdeling als X.

Voorbeeld 2
Zij X binomiaal verdeeld met parameters n en 1/2, en stel Y = n - X; dan zijn X en Y verschillend, maar hebben dezelfde verdeling.

Definitie 5.5.1
We noemen twee stochastische variabelen of vectoren X en Y gelijkverdeeld (of isomoor) en schrijven X ~ Y, als X en Y dezelfde kansverdeling hebben, dus als SX = SY en pX = pY.

We kunnen soms handig gebruik maken van gelijkverdeelde s.v.-en. Als nl. X en Y gelijkverdeeld zijn, zijn ook X2 en Y2 of X-3 en Y-3 gelijkverdeeld. Algemeen geldt:

Stelling 5.5.1
Als X en Y gelijkverdeeld zijn, dan zijn ook g(X) en g(Y) gelijkverdeeld.

We geven een toepassing.

Voorbeeld 3
Laat X en Y o.o. zijn en beide binomiaal verdeeld met parameters resp. m en p en n en p. In de vorige paragraaf hebben we berekend dat X+Y ook binomiaal verdeeld is, maar met parameters m+n en p. We kunnen dit resultaat ook op eenvoudiger wijze verkrijgen. Laat Z1,...,Zm,Zm+1,...,Zm+n o.o. gelijkverdeelde alternatieven zijn met succeskans p, dus P(Z=1) = 1 - P(Z=0) = p. We weten al dat X ~ Z1+...+Zm en Y ~ Zm+1+...+Zm+n en dus, vanwege de onafhankelijkheid, dat (X,Y) ~ (Z1+...+Zm, Zm+1+...+Zm+n). We mogen nu concluderen dat X + Y ~ Z1+...+Zm+n, dus dat X + Y binomiaal verdeeld is met parameters m+n en p.

 



6.1 Inleiding

Werpen we een keer een zuivere dobbelsteen, dan kunnen we ons afvragen wat we als uitkomst zullen verwachten. De bedoeling is niet om de mogelijke uitkomsten met de bijbehorende kansen te noemen, maar één getal. We kunnen ook vragen welk bedrag iemand bereid is (maximaal) per worp te betalen, als hij het geworpen ogenaantal krijgt uitbetaald. Dat bedrag noemen we het verwachte ogenaantal, of de verwachting(swaarde) van het ogenaantal . Om dat verwachte ogenaantal te bepalen, herhalen we het spel. Als we onafhankelijke worpen met een zuivere dobbelsteen uitvoeren, dan zal het gemiddelde ogenaantal bij die worpen voor grote een goede indicatie geven van de verwachting. Er geldt:

,

waarin het frequentiequotiënt is van de uitkomst bij de worpen. Omdat het frequentiequotiënt als voorbeeld diende voor de kans, zullen we het verwachte ogenaantal definiëren als:

.

In ons geval van een zuivere dobbelsteen wordt dat:

De algemene definitie voor verwachtingswaarde luidt:

Definitie 6.1.1

Onder de verwachting (of verwachtingswaarde) van een s.v. verstaan we het getal

,

mits de som absoluut convergeert, dus mits

Als dit niet het geval is, dan zeggen we dat de verwachting niet bestaat.

Zoals we uit de definitie zien, is de verwachtingswaarde van een s.v. het gewogen gemiddelde van de mogelijke waarden van , met als gewichten de kansen op die waarden.

Voorbeeld 1

In een land is de volgende verdeling van het aantal kinderen over de echtparen bekend:

   ───────────────────────────────────────────────────────
      k    0      1      2      3      4        totaal
   ───────────────────────────────────────────────────────
     p(k)  0,15   0,30   0,30   0,20   0,05     1,00
    kp(k)  0      0,30   0,60   0,60   0,20     1,70 = EX
   ───────────────────────────────────────────────────────

Zij het aantal kinderen van een willekeurig echtpaar in dat land. Dan is en de kansverdeling van wordt dan juist gegeven door de bovenstaande verdeling van het aantal kinderen over de echtparen. Het gemiddeld aantal kinderen per echtpaar in dat land is dan de verwachtingswaarde van ; dus . De berekening van kan gemakkelijk in de tabel uitgevoerd worden, zoals in de onderste rij van de tabel getoond wordt.

Voorbeeld 2

We berekenen eens de verwachtingswaarde in de B(9,3)-verdeling.

        k     P(X=k)     k.P(X=k)
    ───────────────────────────────
        0     0,0260      0,0000
        1     0,1171      0,1171
        2     0,2341      0,4682
        3     0,2731      0,8193
        4     0,2049      0,8196
        5     0,1024      0,5120
        6     0,0341      0,2046
        7     0,0073      0,0511
        8     0,0009      0,0072
        9     0,0001      0,0009
    ───────────────────────────────
    totaal                3,0000

Dus , wat we ook wel heuristisch kunnen inzien.

De verwachtingswaarde van wordt ook wel aangeduid met mX of zelfs alleen met m als er geen noodzaak voor verwijzing naar bestaat. De verwachtingswaarde is een maat voor het "midden" van de verdeling van . We zeggen ook wel dat een maat is voor de "ligging" (dwz. de orde van grootte) van de waarden van .

In de volgende voorbeelden bestaat de verwachting niet.

Voorbeeld 3

We werpen een zuivere munt zolang tot we "munt" gooien. Als we keer moesten gooien, krijgen we uitbetaald. Zij de uitbetaling, dan is:

,

voor De verwachting van bestaat niet, want:

In zo'n geval zeggen we wel dat .

Voorbeeld 4

A en B werpen om de beurt een zuivere munt. Wie het eerst kruis gooit is winnaar. A begint en beiden zetten één euro in. Steeds als er "munt" wordt gegooid, wordt de inzet verdubbeld. Voor A lijkt dit aantrekkelijk: al bij de eerste worp is de kans 50% dat hij wint, dus (ga na). Als we definiëren als de winst van A, wordt de verdeling van gegeven door , voor

Dus de "gemiddelde winst van A" berekenen we als volgt:

Deze reeks convergeert niet en is dus zeker niet absoluut convergent. Dus bestaat niet. Nu divergeert "" ook niet naar .

Opmerking 1

We zullen in het vervolg steeds als we over een verwachtingswaarde spreken, er stilzwijgend van uitgaan dat deze verwachtingswaarde bestaat.

We kunnen de verwachtingswaarde van een s.v. ook als volgt berekenen.

Stelling 6.1.1

Voor de verwachting van een s.v. geldt:

;

daarbij wordt dus gesommeerd over alle mogelijke uitkomsten .

Bewijs:

.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

6.2 Verwachting van bekende discrete verdelingen

In deze paragraaf sommen we de verwachtingswaarde van enkele bekende discrete verdelingen op. Aangezien de verwachting van een s.v. X alleen afhankelijk is van de kansverdeling van X, spreken we ook wel van de verwachtingswaarde van de (bijbehorende) verdeling. We vermelden hieronder steeds de verdeling en denken ons daarbij een s.v. X met die verdeling.

Stelling 6.2.1
1.Ontaarde verdeling (in het punt a).

.

2. Alternatieve verdeling (met parameter p = pX(1)).

.

3. Uniforme verdeling (op de getallen ).

.

4. Binomiale verdeling (met parameters n en p).

5. Hypergeometrische verdeling (met parameters N, M en n).

6. Geometrische verdeling (met parameter p).

7. Poisson-verdeling (met parameter m).

We passen de bovenstaande kennis toe in een tweetal gevallen.

Voorbeeld 1
Het verwachte aantal zessen bij 25 keer werpen met een zuivere dobbelsteen is dus 25 × 1/6, want het aantal zessen X is B(25,1/6)-verdeeld.

Voorbeeld 2
Het verwachte benodigde aantal worpen om met een zuivere dobbelsteen zes te gooien is dus 6, want het benodigde aantal worpen X is geometrisch verdeeld met parameter 1/6.

 


6.3 Verwachting van functies van stochastische variabelen

Vaak moeten we de verwachting bepalen van een functie van een of meer s.v.-en. We kijken eerst eens naar een voorbeeld.

Voorbeeld 1
We werpen zolang een zuivere munt tot we "munt" gooien. De s.v. N stelt het benodigde aantal worpen voor. N is geometrisch verdeeld met parameter 1/2. Als we n worpen nodig hadden, krijgen we een bedrag 2-n uitbetaald. Noem de uitbetaling X; de uitbetaling is een functie van N, nl. X = 2-N. Voor de verwachte uitbetaling vinden we:

.

Nu is

,

dus

.

We zien dat we op vanzelfsprekende wijze kunnen schrijven:

,

waarin EX is uitgedrukt in de verdeling van N. We hoeven dan niet eerst na te gaan wat de verdeling van X is.

Wat we in het voorbeeld hebben gezien, geldt heel algemeen, en wordt verwoord in de volgende stelling.

Stelling 6.3.1
Laat X1,...,Xn s.v.-en zijn en , dan is

,

waarbij dus gesommeerd wordt over alle mogelijke waarden (x1,...,xn) van (X1,...,Xn).

Bewijs: Noem X = (X1,...,Xn) en x = (x1,...,xn). Dan geldt voor de s.v. g(X):


We hoeven dus als we de verwachting van een functie Y = g(X) van X willen bepalen, niet eerst de verdeling van Y te berekenen, maar kunnen met bovenstaande stelling Eg(X) direct via de verdeling van X bepalen.

Voorbeeld 2 (twee worpen met een dobbelsteen; vervolg)
We kunnen Z en M opvatten als functies van de ogenaantallen X en Y van resp. de eerste en tweede worp: Z = X + Y en M = \max(X,Y). We berekenen:

en

,

waarbij we bij de laatste sommatie bedenken dat er (2m-1) punten (x,y) zijn waarvoor \max(x,y) = m.

Merk op dat E(X + Y) = EX + EY; in een volgende paragraaf zullen we zien dat deze relatie algemeen geldt.

We vergelijken het resultaat met een berekening van EZ en EM via de verdelingen van Z en M:

en

.

 


6.4 Eigenschappen van verwachtingswaarde

In de vorige paragraaf hebben we in voorbeeld 2 gezien dat de verwachtingswaarde van de som van twee s.v.-en gelijk is aan de som van de verwachtingswaarden van elk. De volgende stelling laat zien dat deze relatie algemeen geldt en geeft tevens een aantal andere eigenschappen van verwachtingswaarden.

Stelling 6.4.1 (eigenschappen van verwachtingswaarde)
Laat X en Y s.v.-en zijn met een simultane verdeling, dan geldt:

(a) E(X + Y) = EX + EY,
(b) E(aX + b) = aEX + b, voor alle a,b ∈ R,
(c) als X en Y o.o. zijn, dan is EXY = EX.EY.

Bewijs:

(a)

.

(Merk op dat we hier zowel x + y als x en y opvatten als functie van (x,y) en drie keer stelling 6.3.1 toepassen.)

(b)

.

(c)

.

Met behulp van de voorgaande stelling kunnen we op eenvoudige wijze de verwachting van de binomiale verdeling en van de hypergeometrische verdeling bepalen.

Voorbeeld 1
Zij X B(n,p)-verdeeld. Bekijk n onafhankelijke alternatieven Xi met succeskans p, dus P(Xi= 1) = 1 - P(Xi= 0) = p. We stellen

,

dan hebben X en Y dezelfde verdeling en dus ook dezelfde verwachting. We vinden dan:

.

Voorbeeld 2
Zij X hypergeometrisch verdeeld met parameters M, N en n. We beschouwen een aselecte steekproef van omvang n zonder teruglegging uit een vaas met M rode en N-M witte knikkers. We definiëren Xi = 1 of 0 al naar gelang de ie trekking een rode dan wel een witte knikker oplevert. Dan vormen de (Xi) weer n alternatieven met parameter p = M/N. We stellen

,

dan hebben X en Y dezelfde verdeling en dus dezelfde verwachting. We vinden dan:

.

Merk op dat de s.v.-en X1,...,Xn in dit geval niet o.o. zijn.

 


6.5 Voorwaardelijke verwachtingswaarde

Als X en Y een simultane verdeling hebben, kunnen we, zoals we eerder zagen, spreken over de voorwaardelijke verdeling van X gegeven Y=y. Deze voorwaardelijke verdeling wordt gegeven door de kansfunctie pX( · |Y=y). Voor iedere y is dit een gewone kansfunctie, zodat we op voor de hand liggende wijze de bijbehorende verwachting kunnen uitrekenen, en wel als:

We noemen die verwachting de voorwaardelijke verwachting van X gegeven Y=y, en noteren dit als:

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)
De voorwaardelijke verdeling van het totale ogenaantal Z gegeven dat het maximale ogenaantal M=3 staat in de volgende tabel.

2 3 4 5 6 7 8 9 10 11 12 totaal
0 0 2/5 2/5 1/5 0 0 0 0 0 0 1
0 0 8/5 10/5 6/5 0 0 0 0 0 0 24/5

De verwachting van deze verdeling is berekend in de onderste rij:

De voorwaardelijke verwachting van het totale ogenaantal Z als we weten dat het maximale ogenaantal M gelijk is aan 3, is dus 24/5. Als over het maximale ogenaantal niets bekend is, verwachten we als totale ogenaantal EZ = 7. Als het maximum van de ogenaantallen echter 3 is, dan kunnen we geen hoge ogen gegooid hebben en blijkt de verwachting van het totaal ook kleiner dan 7 te zijn.

Definitie 6.5.1
Laat de s.v.-en X en Y een simultane verdeling hebben en zij P(Y=y) > 0. Onder de voorwaardelijke verwachting(swaarde) van X gegeven Y=y verstaan we het getal

,

mits de som absoluut convergeert, dus mits

Voorbeeld 2
Stel voor zekere 0 < y < 1 is P(Y=y) > 0 en is X voorwaardelijk gegeven Y=y binomiaal verdeeld met parameters n en y. Dan is E(X|Y=y) = ny.

Voorbeeld 3
Stel voor zekere 0 < y < 1 is P(Y=y) > 0 en is X voorwaardelijk gegeven Y=y geometrisch verdeeld met parameter y. Dan is E(X|Y=y) = 1/y.

Voorbeeld 4
Stel voor zekere y ∈ is P(Y=y) > 0 en is X voorwaardelijk gegeven Y=y binomiaal verdeeld met parameters y en p. Dan is E(X|Y=y) = yp.

Voorbeeld 5
Stel voor zekere y > 0 is P(Y=y) > 0 en is X voorwaardelijk gegeven Y=y Poisson-verdeeld met parameter y. Dan is E(X|Y=y) = y.


Het zal duidelijk zijn dat de voorwaardelijke verwachting van X gegeven Y=y afhankelijk is van y. In de voorbeelden 2 - 5 is dat ook duidelijk te zien. We berekenen deze afhankelijkheid ook eens in de situatie van voorbeeld 1.

Voorbeeld 6 (twee worpen met een dobbelsteen; vervolg)
In voorbeeld 1 berekenden we dat E(Z|M=3) = 24/5. Ook voor andere waarden van M kunnen we de voorwaardelijke verwachting van Z bepalen. In de volgende tabel staan de voorwaardelijke verdelingen van Z gegeven de waarden m van M en tevens de berekening van de voorwaardelijke verwachtingswaarden.

2 3 4 5 6 7 8 9 10 11 12 totaal
1 1 0 0 0 0 0 0 0 0 0 0 1
2 0 0 0 0 0 0 0 0 0 0 2
2 0 2/3 1/3 0 0 0 0 0 0 0 0 1
0 2 4/3 0 0 0 0 0 0 0 0 10/3
3 0 0 2/5 2/5 1/5 0 0 0 0 0 0 1
0 0 8/5 10/5 6/5 0 0 0 0 0 0 24/5
4 0 0 0 2/7 2/7 2/7 1/7 0 0 0 0 1
0 0 0 10/7 12/7 14/7 8/7 0 0 0 0 44/7
5 0 0 0 0 2/9 2/9 2/9 2/9 1/9 0 0 1
0 0 0 0 12/9 14/9 16/9 18/9 10/9 0 0 70/9
6 0 0 0 0 0 2/11 2/11 2/11 2/11 2/11 1/11 1
0 0 0 0 0 14/11 16/11 18/11 20/11 22/11 12/11 102/11

Hieronder staat het resultaat van de berekening samengevat:

1 2 3 4 5 6
2 10/3 24/5 44/7 70/9 102/11

De tabel laat zien hoe E(Z|M=m) afhangt van m. In formule zouden we kunnen schrijven:

We zien dus dat E(X|Y=y) afhankelijk is van y. Omdat Y een s.v. is en de (waargenomen) waarde y van Y dus door het toeval bepaald is, zal ook de waarde E(X|Y=y) door het toeval bepaald zijn. Zo zullen we in voorbeeld 6 als bij de twee worpen het maximale ogenaantal 2 is, voor de voorwaardelijke verwachting van het totale ogenaantal de waarde 10/3 vinden; is daarentegen het maximale ogenaantal 25, dan vinden we voor het voorwaardelijk verwachte ogenaantal de waarde 70/9. De voorwaardelijke verwachting E(X|Y=y) is dus op te vatten als de waarde van een s.v. die van Y afhangt. We noemen die s.v. de voorwaardelijke verwachting van X gegeven Y. In het volgende schema zien we dit in beeld gebracht; daarin duiden we de functie die aan y de waarde E(X|Y=y) toevoegt, voor het gemak even aan door g, dus g(y) = E(X|Y=y).


De s.v. goY (meestal geschreven als g(Y)) is dus de bedoelde voorwaardelijke verwachting van X gegeven Y. Het is de s.v. die bij de uitkomst s, dus als Y de waarde Y(s) aanneemt, zelf de waarde E(X|Y=Y(s)) aanneemt.

Definitie 6.5.2
Laat de s.v.-en X en Y een simultane verdeling hebben en zij P(Y=y) > 0. Onder de voorwaardelijke verwachting van X gegeven Y verstaan we de stochastische variabele E(X|Y) gedefinieerd door E(X|Y)(s) = E(X|Y=Y(s)).

We kunnen nu in de voorbeelden 2 - 5 deze s.v. E(X|Y) bepalen.

Voorbeeld 7 (vervolg van voorbeeld 2)
Omdat E(X|Y=y) = ny, volgt E(X|Y) = nY.

Voorbeeld 8 (vervolg van voorbeeld 3)
Omdat E(X|Y=y) = 1/y, volgt E(X|Y) = 1/Y.

Voorbeeld 9 (vervolg van voorbeeld 4)
Omdat E(X|Y=y) = yp, volgt E(X|Y) = Yp.

Voorbeeld 10 (vervolg van voorbeeld 5)
Omdat E(X|Y=y) = y, volgt E(X|Y) = Y.

Voorbeeld 11 (vervolg van voorbeeld 6)
Ga na dat E(Z|M) = M(3M-1)/(2M-1).

We zien in de voorbeelden duidelijk hoe E(X|Y) een functie is van Y. De verdeling van E(X|Y) volgt dan ook uit de verdeling van Y op de gebruikelijke manier. Dwz.

,

waarbij we dus sommeren over alle y die tot dezelfde waarde z = E(X|Y=y) leiden.

Voorbeeld 12 (vervolg van voorbeeld 7)
De kansverdeling van E(X|Y) wordt gegeven door: P(E(X|Y) = ny) = P(Y=y), voor y ∈ SY. Als we de kansverdeling van Y kennen, dan volgt ook die van E(X|Y).


Wat zal de verwachting E(E(X|Y)) van de voorwaardelijke verwachting E(X|Y) zijn? Die moet natuurlijk gelijk zijn aan EX. E(X|Y) is een functie van Y, dus we berekenen:

,


Uit het bovenstaande blijkt tevens dat als EX bestaat, ook E(X|Y=y) bestaat (mits P(Y=y) > 0); immers voor elke y met P(Y=y) > 0 is:


De volgende stelling vat deze resultaten samen.

Stelling 6.5.1
Laat X en Y een simultane verdeling hebben en EX bestaan, dan geldt:

(a) E(X|Y=y) bestaat voor elke y met P(Y=y) > 0
(b) E(E(X|Y)) = EX.

Voorbeeld 13 (twee worpen met een dobbelsteen; vervolg)
In voorbeeld 6 berekenden we E(Z|M=m) als functie van M. Het resultaat staat, met de bijbehorende kansverdeling, in de volgende tabel; daarin is ook de verwachting van E(Z|M) uitgerekend.

1 2 3 4 5 6 totaal
1/36 3/36 5/36 7/36 9/36 11/36 36/36
2 10/3 24/5 44/7 70/9 102/11
2/36 10/36 24/36 44/36 70/36 102/36 252/36 = 7

We zien dat inderdaad E(E(Z|M)) = 7 = EZ.

Voorbeeld 14 (vervolg van voorbeeld 9)
Stel Y is geometrisch verdeeld met parameter q, dan is: EX = E(E(X|Y)) = pEY = p/q.

Omdat de voorwaardelijke verwachting E(X|Y=y) eigenlijk een "gewone" verwachtingswaarde is, heeft hij onder andere de eigenschappen die in stelling 6.4.1 voor de verwachtingswaarde genoemd worden, dus:

Stelling 6.5.2
Laat X, Y en Z een simultane verdeling hebben. Indien P(Y=y) > 0 geldt:

(a) E(X + Z|Y=y) = E(X|Y=y) + E(Z|Y=y)
(b) E(aX + b|Y=y) = a E(X|Y=y) + b, voor alle a,b ∈ R
(c) als X en Y o.o. zijn, dan is E(X|Y=y) = EX.

Voor de voorwaardelijke verwachting geldt een analoge eigenschap als in stelling 6.4.1.c, waar bleek dat voor X1 en X2 o.o., EX1X2 = EX1.EX2. Als X en Y voorwaardelijk gegeven een gebeurtenis A onafhankelijk zijn, dan kunnen we ook de voorwaardelijke verwachting van het product van X en Y schrijven als het product van de voorwaardelijke verwachtingen, steeds gegeven A. Voor de gewone verwachting hoeft dit dan niet te gelden. De volgende voorbeelden verduidelijken we dit.

Voorbeeld 15
Laat X1 en X2 twee onafhankelijke alternatieven zijn, beide met succeskans p, dan is:

,

dus

;

echter

,

zodat

Evenzo voor X2, dus

Hoewel X1 en X2 o.o. zijn, zijn ze gegeven X1+ X2= 1 afhankelijk.


Voorbeeld 16
In een doos bevinden zich twee (oneerlijke) munten, genummerd 1 en 2, met kansen op "munt" resp. 1/3 en 2/3. We nemen lukraak een munt M uit de doos en werpen er twee keer mee. De worpen zijn van elkaar onafhankelijk. Met X1 en X2 geven we de uitkomst van resp. de eerste en tweede worp aan en wel zo dat Xi= 0 of 1 al naar gelang de uitkomst "kruis" dan wel "munt" is. Dan zijn, gegeven de munt, X1 en X2 onafhankelijk en is voor m = 1,2:

Echter

,

dus is

en

,

zodat blijkt dat

.

Dus X1 en X2 zijn afhankelijk, maar gegeven de munt M onafhankelijk.

We bespreken nu nog enkele voorbeelden waarin met voorwaardelijke verwachtingen gerekend wordt.

Voorbeeld 17
De doelman van FC DE TRAPPERS speelt na de training vaak nog wat met z'n zoontje buiten. Afhankelijk van de beschikbare tijd vuurt het knaapje enkele ballen, zeg N, af op z'n vader, die in het doel staat. We nemen aan dat N Poisson-verdeeld is met parameter μ. De doelman kan door de bank genomen een fractie p van de afgevuurde ballen tegenhouden. Het aantal gestopte ballen noemen we X. Dan is de voorwaardelijke verdeling van X gegeven N=n binomiaal met parameters n en p. Dan is dus:

,

voor x = 0,1,...,n, zodat E(X|N=n) = np en E(X|N) = Np, met verdeling

,

voor n = 0,1,...

We kunnen ook de (onvoorwaardelijke) verdeling van X bepalen:

,

voor x = 0,1,2,...; dus X heeft een Poisson-verdeling met parameter μp. Daaruit volgt direct: EX = μp en inderdaad is ook E(E(X|N)) = ENp = μp.

Als de doelman thuiskomt en tegen z'n vrouw zegt dat hij 10 ballen die het zoontje afvuurde, gestopt heeft, dan zal z'n vrouw natuurlijk vragen hoeveel het zoontje er afgevuurd heeft. We berekenen daarom de voorwaardelijke verdeling van N gegeven X=x; volgens de regel van Bayes is dat:

,
,

voor n = x,x+1,... We zien dat, gegeven het aantal gestopte ballen X=x, het aantal niet-gestopte ballen N-X (dat onder de voorwaarde X=x gelijk is aan N-x) een Poisson-verdeling heeft met parameter μ(1-p). Daaruit kunnen we weer afleiden: E(N|X=x) = E(N-x|X=x) + x = μ(1-p) + x zodat E(N|X) = X + μ(1-p) en EN = E(E(N|X)) = EX + μ(1-p) = μp + μ(1-p) = μ, hetgeen we overigens al wisten.

Voorbeeld 18
We maken een eenvoudig model om werkloosheidscijfers te behandelen. Daartoe beschouwen we de populatie S = {Nederlanders van 25 tot 65 jaar} (= uitkomstenruimte) en voeren we twee s.v.-en in, nl. N de provincie waar de betrokkene (= uitkomst) woont en X, die aangeeft of de betrokkene een volledige baan heeft (X=0), een deeltijdbaan (X = 1/2) of zonder werk is (X=1). Als kansmechanisme denken we ons een symmetrische kansruimte. Dan is:

en

en zijn op analoge wijze gedefinieerd.


Voor de provincie n kunnen we als werkloosheidscijfer hanteren en voor Nederland als geheel . Tussen de deelcijfers per provincie en het cijfer voor geheel Nederland bestaat de relatie

Het cijfer voor geheel Nederland krijgen we dus door de cijfers van de provincies gewogen te middelen, met als gewichten de relatieve aandelen van de provincies in de totale populatie.

Voorbeeld 19 (levensduur)
De s.v. L stelt de levensduur (d.i. de leeftijd bij sterven, gemeten in gehele jaren) van een mens (apparaat, onderdeel) voor. De levensduurverdeling is pL, veelal gegeven door de overlevingskansen P(L ≥ k), voor k = 0,1,2,... De verwachte levensduur (voor een mens wel levensverwachting genoemd) is EL, die we kunnen berekenen als de som van de overlevingskansen (ga na):

(De levensverwachting is eigenlijk gelijk aan EL + 0,5, aangezien leeftijden gemeten worden als volbrachte gehele jaren; we zullen daar niet verder op ingaan.)

Hoe lang zal iemand die juist 65 jaar is geworden, nog leven? We moeten dan kijken naar de voorwaardelijke verdeling van L gegeven L ≥ 65. (Let op het verschil tussen leeftijd en levensduur.) Deze verdeling wordt gegeven door de voorwaardelijke overlevingskansen,

,

voor k = 1,2,... aangeduid als leeftijdsspecifieke overlevingskansen voor een 65-jarige. De voorwaardelijke levensverwachting gegeven dat men de leeftijd van 65 jaar heeft bereikt, aangeduid als de leeftijdsspecifieke levensverwachting voor een 65-jarige, is:

Ga zelf na hoe we de overlevingskansen in een bevolking kunnen schatten.


Aangezien E(X|Y) een functie is van Y, zal het voor een andere functie van Y, zeg h(Y), niet uitmaken of we E(h(Y)X|Y) bepalen, dan wel h(Y)·E(X|Y), immers gegeven een waarde van Y is h(Y) toch constant. We kunnen dit eenvoudig als volgt laten zien:

Stelling 6.5.3
Laat X en Y s.v.-en zijn, gedefinieerd op dezelfde kansruimte en P(Y=y) > 0, dan geldt voor iedere s.v. h(Y) die een functie is van Y: E(h(Y)X|Y) = h(Y)·E(X|Y).

Voorbeeld 20
De s.v. Y is uniform verdeeld op de getallen 1/10, 2/10, ..., 10/10. Gegeven een waarde y van Y is de s.v. X geometrisch verdeeld met parameter y. Dan is

Dit resultaat krijgen we eenvoudiger en sneller door toepassing van bovenstaande stelling:

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

7.1 Inleiding

In het voorgaande hebben we ons beziggehouden met de verwachtingswaarde van een s.v. en opgemerkt dat EX een maat is om het "midden" van de verdeling van X te karakteriseren. Behalve het "midden" van de verdeling willen we ook andere aspecten van de verdeling van X karakteriseren door een of ander getal. Daartoe blijken de verwachtingswaarden van gehele machten van X, de zgn. momenten, geschikte grootheden te zijn. Deze momenten spelen ook in de voortgezette theorie een belangrijke rol.

Definitie 7.1.1
Onder het ne moment van een s.v. X verstaan we het getal EXn. Onder het ne centrale moment van X verstaan we het getal E(X-EX)n. (mits deze verwachtingswaarden bestaan).

We kunnen zeggen dat over het algemeen naast het eerste moment EX als aanduiding van de "ligging" van de verdeling van X, van de hogere momenten de centrale momenten een belangrijke rol spelen om de "vorm" van de verdeling van X te karakteriseren. Dat is ook begrijpelijk, want de "vorm" van de verdeling verandert niet als we de verdeling verschuiven, dwz. als we in plaats van X de s.v. X + b beschouwen. Het ligt dan voor de hand om naar de verdeling van X - EX te kijken, waarvan de "ligging" om 0 is.

Niet alle momenten van een s.v. hoeven te bestaan. De volgende stelling zegt daar iets over.

Stelling 7.1.1
Als van een s.v. X het ne moment bestaat, dan bestaan ook het ne centrale moment en alle lagere momenten en centrale momenten.

Bewijs: Voor k ≤ n geldt:

,

dus

.

Verder is

.

 


7.2 Variantie en standaardafwijking

Wij zullen ons, naast de "ligging" van de verdeling van X, slechts bezighouden met de "spreiding" in die verdeling. Met spreiding bedoelen we de mate waarin de waarden van X onderling nog kunnen verschillen. We spreken ook wel van de "breedte" van de verdeling, aangezien meer spreiding in de waarden van X de verdeling breder maakt, of ook wel van de "schaal" van de verdeling. Om de spreiding te meten, moeten we nagaan hoe de waarden van X nog uiteen kunnen lopen; we doen dat door te kijken naar de mate waarin de waarden van X nog kunnen afwijken van het "midden", dus van EX. Die afwijkingen worden gegeven door de s.v. |X-EX|, dus door de afstanden die X nog tot EX kan hebben. Hoewel ook de verwachtingswaarde van die afstanden, dus E|X-EX|, als maat voor spreiding in aanmerking komt, is het gebruikelijk de verwachte kwadratische afstand, dus het tweede centrale moment E(X-EX)2, als maat te nemen. Deze grootheid wordt variantie genoemd.

Definitie 7.2.1
Het tweede centrale moment van X noemen we de variantie van X en we duiden het aan door var X, dus

Omdat de variantie een kwadratische grootheid is, wordt, als X in cm is gemeten, de variantie in cm2 uitgedrukt. Dit is in de praktijk een bezwaar; dit wordt nog duidelijker als we de variantie van bv. 10X bepalen, dan blijkt dat var 10X = 100·var X; dus een schaalverandering met een factor 10 levert voor de maat van die schaal een factor 100. vandaar dat we ook vaak de wortel uit de variantie, die we standaardafwijking noemen, als maat voor spreiding zullen gebruiken.

Definitie 7.2.2
Onder de standaardafwijking (of standaarddeviatie) van een s.v. X, aangeduid doorσ σX (of: σ(X)), verstaan we de grootheid:


Voor de berekening van var X kunnen we soms handig gebruik maken van de volgende formule, die eenvoudig uit de definitie van var X volgt.

Stelling 7.2.1 (rekenformule voor variantie)
Voor de variantie van een s.v. X geldt:


Overigens is enige voorzichtigheid bij berekeningen met deze formule geboden. Behalve door rekenfouten, ontstaat ook door vroegtijdige of te grove afronding van tussenresultaten gemakkelijk een onnauwkeurige waarde voor de variantie, soms zelfs een negatieve waarde.

We laten in een voorbeeld enige berekeningen zien.

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)
In de onderstaande tabel staat de verdeling van M en zijn tevens de nodige berekeningen uitgevoerd om var M te bepalen.

1 1/36 1/36 –125/36 15625/1296 15625/46656 1/36
2 3/36 6/36 – 89/36 7921/1296 23763/46656 12/36
3 5/36 15/36 – 53/36 2809/1296 14045/46656 45/36
4 7/36 28/36 – 17/36 289/1296 2023/46656 112/36
5 9/36 45/36 19/36 361/1296 3249/46656 225/36
6 11/36 66/36 55/36 3025/1296 33275/46656 396/36
totaal 36/36 161/36 91980/46656 791/36


We zien dat: EM = 161/36 en


Met de rekenformule krijgen we eveneens:

Voor de standaardafwijking volgt dan:

We berekenen ook var Z:

2 3 4 5 6 7 8 9 10 11 12 totaal
1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 36/36
2/36 6/36 12/36 20/36 30/36 42/36 40/36 36/36 30/36 22/36 12/36 252/36
4/36 18/36 48/36 100/36 180/36 294/36 320/36 324/36 300/36 242/36 144/36 1974/36

Dus

en

Merk op dat de spreiding in Z groter is dan in M.

De volgende eigenschappen van variantie zijn van belang.

Stelling 7.2.2 (eigenschappen van variantie en standaardafwijking)
Voor de variantie van een s.v. X geldt:

(a) var X ≥ 0 en σX ≥ 0
(b) als var X = 0, dan is X ontaard (dwz. P(X=EX) = 1)
(c) var(aX + b) = a2var X en σ(aX+b) = |a| σX, voor alle a en b.

Bewijs: (c) var(aX+b) = E(aX+b - E(aX+b))2 = E(aX + b - aEX - b)2 = a2E(X-EX)2 = a2var X.

Voorbeeld 2 (twee worpen met een dobbelsteen; vervolg)
We berekenden

en

Nu is Z = X + Y, waarin X en Y, de uitkomsten van de afzonderlijke worpen, gelijk verdeeld zijn. We weten al dat de verdeling van X + Y een andere is dan van X + X = 2X; dit blijkt ook nog als we de variantie van 2X berekenen:

Vergelijk deze waarde met var Z.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

7.3 Variantie van bekende discrete verdelingen

Als vervolg op paragraaf 6.2 sommen we in deze paragraaf de varianties van enkele bekende discrete verdelingen op.

Stelling 7.3.1

1. Ontaarde verdeling.
.
2. Alternatieve verdeling (in 0 en 1; pX(1) = p).
.
3. Uniforme verdeling (op de getallen x1,x2,...,xN).
.
4. Binomiale verdeling (met parameters n en p).
.
5. Hypergeometrische verdeling (met parameters N, M en n).
.
waarin we p = M/N gesteld hebben.
6. Geometrische verdeling (met parameter p).
.
7. Poisson-verdeling (met parameter μ).
.

We zien dat de variantie van de hypergeometrische verdeling op een factor (N-n)/(N-1) na gelijk is aan de variantie van de binomiale verdeling; deze factor heet correctiefactor voor eindige populatie. Deze factor heet zo omdat bij trekkingen zonder terugleggen uit een dichotome populatie (dwz. een populatie met twee kenmerken, bv succes of mislukking) het aantal successen X bij een eindige populatie hypergeometrisch verdeeld is en bij een niet-eindige populatie (of als we trekken met terugleggen) binomiaal.

 


7.4 Covariantie en correlatie

Voor simultane verdelingen is het van belang dat we een maat hebben om de "samenhang" tussen de s.v.- en te meten. Waar we aan denken bij het begrip samenhang zullen we in een voorbeeld verduidelijken.

Voorbeeld 1 (twee worpen met een dobbelsteen; vervolg)
De simultane kansfunctie pZ,M van Z en M wordt gegeven in de volgende tabel.

2 3 4 5 6 7 8 9 10 11 12
1 1/36 1/36
2 2/36 1/36 3/36
3 2/36 2/36 1/36 5/36
4 2/36 2/36 2/36 1/36 7/36
5 2/36 2/36 2/36 2/36 1/36 9/36
6 2/36 2/36 2/36 2/36 2/36 1/36 11/36
1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 36/36

Daarin kunnen we zien dat kleine waarden voor M samengaan met kleine waarden voor Z, immers als M=1, kan alleen Z=2 voorkomen, en als M=2, zijn voor Z slechts de waarden 3 en 4 mogelijk. Grote waarden van M gaan samen met grote waarden van Z: als M=6, kan Z de waarden 7 tot en met 12 aannemen. Er is weliswaar geen eenduidig verband tussen M en Z, maar we zien dat hoe groter M is, hoe groter waarden voor Z in aanmerking komen.

Om tot een maat voor "samenhang" in de simultane verdeling van twee s.v.-en te komen, bekijken we de afwijkingen X—EX en Y—EY ten opzichte van de verwachtingen: we zien af van de "ligging" van de verdeling. Als kleine waarden van X—EX voornamelijk samengaan met kleine waarden van Y—EY en evenzo de grote waarden, spreken we van een positieve samenhang; het product van de afwijkingen (X—EX)(Y—EY) zal dan overwegend positief zijn. Gaan kleine waarden van de ene s.v. voornamelijk samen met grote waarden van de andere, dan spreken we van een negatieve samenhang en zal (X—EX)(Y—EY) overwegend negatief zijn. De verwachting E(X—EX)(Y—EY) van dit product, covariantie genaamd, zal dus bij positieve samenhang positief zijn en bij negatieve samenhang negatief en karakteriseert dus de samenhang.

Definitie 7.4.1
Onder de covariantie van twee s.v.-en X en Y verstaan we

cov(X,Y) = E((X—EX)(Y—EY)).

Voorbeeld 2 (twee worpen met een dobbelsteen; vervolg)
We berekenen de covariantie van M en Z:

.

We vinden inderdaad een positieve samenhang.

Voor de berekening van cov(X,Y) kunnen we soms handig gebruik maken van de volgende formule, die eenvoudig uit de definitie volgt.

Stelling 7.4.1 (rekenformule voor covariantie)
Voor de covariantie van twee s.v.-en X en Y geldt:

cov(X,Y) = E(XY) — EX·EY.

Voorbeeld 3 (twee worpen met een dobbelsteen; vervolg)
We berekenen de covariantie van M en Z met de rekenformule. Daartoe bepalen we eerst:

,

zodat volgt:

.

Overigens kunnen we EMZ ook handig als volgt bepalen:

,

waarin we gebruik hebben gemaakt van al eerder gemaakte berekeningen en de volgende tabel:

1 2 3 4 5 6 totaal
1/36 3/36 5/36 7/36 9/36 11/36 36/36
2 10/3 24/5 44/7 70/9 102/11
2/36 20/36 72/36 176/36 350/36 612/36 1232/36


Enkele voor de hand liggende eigenschappen van de covariantie vermelden we in de volgende stelling.

Stelling 7.4.2 (eigenschappen van covariantie)
Laat X en Y een simultane verdeling hebben en X1, X2 en Y eveneens, dan geldt:

(a) cov(X,Y) = cov(Y,X)
(b) cov(X,X) = var X
(c) cov(X1 + X2,Y) = cov(X1,Y) + cov(X2,Y)
(d) cov(aX+b,Y) = a cov(X,Y), voor alle a,b ∈ R
(e) als X en Y o.o. zijn, is cov(X,Y) = 0.

Bewijs: We bewijzen alleen e. Als X en Y o.o. zijn, is EXY = EX·EY, dus volgt het gestelde direct uit de rekenformule.

Voorbeeld 4 (twee worpen met een dobbelsteen; vervolg)
We berekenen de covariantie van M en X + Y (= Z).

.

Nu is

,

zodat

.

We vinden dus ook op deze manier dat:

.

Vergelijk met voorbeeld 2.

De laatste uitspraak van stelling 2 verdient nog enige aandacht. Het lijkt vanzelfsprekend dat cov(X,Y) = 0 als X en Y o.o. zijn en er dus geen samenhang is. Het omgekeerde is echter niet waar, dwz. uit het feit dat cov(X,Y) = 0 mogen we niet de conclusie trekken dat X en Y onafhankelijk zijn. De covariantie is nl. een maat voor "lineaire samenhang" tussen twee s.v.-en en als cov(X,Y) = 0, dan kunnen we slechts zeggen dat er geen lineaire samenhang is tussen X en Y; ze kunnen dan wel in andere zin samenhangen en dus afhankelijk zijn, zoals uit het volgende voorbeeld blijkt.

Voorbeeld 5
Kies X en Y zo dat P(X=0 en Y=±1) = P(X=±1 en Y=0) = 1/4; dan is EXY = EX = EY = 0, zodat cov(X,Y) = 0. Echter X en Y zijn afhankelijk, want P(X=1 en Y=1) = 0 ≠ P(X=1)P(Y=1) = 1/16.

Met behulp van de covariantie kunnen we een uitdrukking vinden voor de variantie van de som van een n-tal s.v.-en:

Stelling 7.4.3
Laat X1,X2,...,Xn een simultane verdeling hebben met σ(Xi) <∞, dan is:

.

In het bijzonder vinden we dus voor een tweetal s.v.-en X en Y:

var(X + Y) = var X + var Y + 2\ cov(X,Y).

Als X en Y o.o. zijn, is cov(X,Y) = 0, zodat:

var(X + Y) = var X + var Y;

de variantie van de som of van het verschil is dan de som van de varianties.

Stelling 7.4.4
Als de s.v.-en X1,X2,...,Xn paarsgewijs of onderling onafhankelijk zijn en σ(Xi) < ∞, is

We kunnen de bovenstaande relaties handig gebruiken om de variantie van de binomiale en hypergeometrische verdeling te bepalen.

Voorbeeld 6 (twee worpen met een dobbelsteen; vervolg)
We berekenen de variantie van Z = X + Y. Omdat X en Y o.o. zijn en gelijkverdeeld vinden we:

,

zoals we al eerder berekenden.

Voorbeeld 7 (variantie van de binomiale verdeling)
Zij X B(n,p)-verdeeld. Bekijk n onafhankelijke alternatieven Xi met succeskans p, dus P(Xi= 1) = 1 — P(Xi= 0) = p. We stellen Y = ∑ Xi, dan hebben X en Y dezelfde verdeling en dus ook dezelfde variantie. We vinden dan: var X = var Y = var ∑ Xi = ∑ var Xi = ∑ p(1—p) = np(1—p).

Voorbeeld 8 (variantie van de hypergeometrische verdeling)
Zij X hypergeometrisch verdeeld met parameters M, N en n. We beschouwen een aselecte steekproef van omvang n zonder teruglegging uit een vaas met M rode en N-M witte knikkers. We definiëren Xi = 1 of 0 al naar gelang de i-de trekking een rode dan wel een witte knikker oplevert. De (Xi) vormen weer n alternatieven met parameter p = M/N. We stellen Y = ∑ Xi, dan hebben X en Y dezelfde verdeling en dus dezelfde variantie. We vinden dan:

;

daarin is

voor alle i en j, aangezien de simultane verdeling van Xi en Xj voor alle i en j dezelfde is. We kunnen c direct bepalen door:

.

Dus

We kunnen c ook bepalen door te bedenken dat c niet afhankelijk is van de steekproefomvang n; dan is voor n = N, dus als we alle knikkers trekken: var X = Np(1-p) + N(N-1)c = 0.


Als cov(X,Y) = 0, noemen we X en Y ongecorreleerd; de term hangt samen met het hierna te bespreken begrip correlatie. Ook voor meer dan twee s.v.-en hanteren we de term ongecorreleerd.

Definitie 7.4.2
We noemen de s.v.-en X1,X2,...,Xn ongecorreleerd, als voor elk tweetal Xi en Xj geldt dat cov(Xi, Xj) = 0.

Het teken van de covariantie is, zoals we gezien hebben, een maat voor de "aard" van de lineaire samenhang. De grootte van de covariantie is een maat voor de "sterkte" van die lineaire samenhang, in die zin dat hoe meer de samenhang op een lineair verband lijkt hoe groter, absoluut gezien, de waarde van de covariantie is. Daarbij moeten we wel opmerken dat we de absolute grootte van de covariantie moeten zien in relatie met de spreiding; immers de covariantie E(X-EX)(Y-EY) wordt niet alleen bepaald door de samenhang, maar ook door de grootte van de afwijkingen, dus door de spreiding in de verdelingen van X en Y. Als een of beide s.v.-en in een andere schaal gaan meten, veranderd de spreiding gemeten door de standaardafwijking evenredig met de schaalverandering en eveneens de covariantie, zoals uit stelling 2 bleek. We kunnen de covariantie dus standaardiseren door te delen door de standaardafwijkingen; deze gestandaardiseerde vorm noemen we correlatiecoëfficiënt.

Definitie 7.4.3
Onder de correlatiecoëfficiënt ρ(X,Y) van twee s.v.-en X en Y verstaan we

,

mits σX en σY beide bestaan.

Voorbeeld 9 (twee worpen met een dobbelsteen; vervolg)
We berekenen de correlatiecoëfficiënt van M en Z:

M en Z zijn dus tamelijk sterk positief gecorreleerd; dat is ook wel te begrijpen, want kleine waarden voor M gaan samen met kleine waarden voor Z en grote waarden voor M met grote voor Z.

De correlatiecoëfficiënt ρ(X,Y) kan slechts waarden aannemen gelegen tussen -1 en 1 (de grenzen meegerekend); de grootte is een directe maat voor de lineaire samenhang tussen X en Y.

We vermelden enkele eigenschappen in de volgende stelling.

Stelling 7.4.5 (eigenschappen van de correlatiecoëfficiënt
Laat X en Y een simultane verdeling hebben, dan geldt:

(a) ρ(X,Y) = ρ(Y,X)
(b) ρ(aX+b,Y) = sgn(a)·ρ(X,Y), voor alle a,b ∈ R, a≠0. (hierin is sgn(a) = 1 als a > 0 en sgn(a) = —1 als a < 0);
(c) |ρ(X,Y)| ≤ 1
(d) |ρ(X,Y)| = 1, dan en slechts dan als X en Y lineair samenhangen, dwz. als P(Y=aX+b) = 1, voor zekere a≠0 en b. Het teken van r is gelijk aan het teken van a.
(e) als X en Y o.o. zijn, is ρ(X,Y) = 0.

Bewijs: We bewijzen alleen c en d. Zij volgen uit de relatie

.

Als het gelijkteken geldt, is ontaard; dus als ρ(X,Y) = ±1, is voor zekere b

,

dus voor bijna alle uitkomsten s (op een gebeurtenis met kans 0 na) hangen X en Y lineair samen.

Voorbeeld 10 (de hypergeometrische verdeling; vervolg)
We berekenen de correlatiecoëfficiënt van een tweetal X'en:

.

Hieruit blijkt dat X1 en X2 negatief samenhangen. Dat is ook begrijpelijk, want als de eerste knikker rood is (X1= 1), is de voorwaardelijke kans op een tweede rode knikker (X2= 1) kleiner dan wanneer de eerste knikker wit is (X2= 0). Verder neemt de afhankelijkheid in betekenis af als N toeneemt, overeenkomstig het feit dat bij toenemende N het verschil tussen steekproeftrekking met en zonder teruglegging aan betekenis verliest.

Voorbeeld 11 (multinomiale verdeling; vervolg)
We bekijken weer drie s.v.-en X, Y en Z, en berekenen de covariantie van het tweetal X en Y. Omdat X en Y beide binomiaal verdeeld zijn met parameters respectievelijk n en p1 en n en p2, weten we al dat EX = np1 en EY = np2. We leiden af:

.

Dus:

.

en

.

 

Heckert GNU.png Deze pagina is vrijgegeven onder de GNU Free Documentation License (GFDL) en nog niet onder CC-BY-SA. Klik hier voor meer informatie.

7.5 De ongelijkheid van Chebyshev

Dat de variantie inderdaad een maat is voor de afwijkingen van de verwachting wordt gedemonstreerd door de ongelijkheid van Chebyshev (ook ongelijkheid van Bienaymé-Chebyshev genoemd). Deze ongelijkheid is vooral van theoretisch belang en laat zien dat de kans op afwijkingen van de verwachtingswaarde begrensd wordt in evenredigheid met de variantie.

Stelling 7.5.1 (ongelijkheid van Chebyshev)
Laat X een s.v. zijn met var X < ∞, dan geldt voor iedere ε > 0:

.

Bewijs:

.

We kunnen deze ongelijkheid ook schrijven als:

,

waarin de s.v. X gestandaardiseerd is tot Z = (X-EX)/σ(X), dus met EZ = 0 en var Z = 1. Toepassing is dan blijkbaar alleen zinvol voor waarden van ε > 1, dus voor het afschatten van kansen op waarden van X die meer dan een keer de standaardafwijking van de verwachtingswaarde liggen.

Voorbeeld 1
Zij X B(100,1/5)-verdeeld, dan is EX = 20 en var X = 16. Volgens Chebyshev geldt dan: P(10 < X < 30) = P(|X-20| < 10) > 1 - 16/100 = 0,84. In werkelijkheid is deze kans (hetgeen we hier niet kunnen aantonen) ongeveer gelijk aan 0,994.

Voor praktische berekeningen heeft de ongelijkheid van Chebyshev, zoals het voorbeeld illustreert, weinig betekenis. Het belang ligt vooral in de theoretische toepassing bij het afschatten van kansen in een asymptotische situatie, zoals in de hierna volgende zwakke wet van de grote aantallen.

 


7.6 De zwakke wet van de grote aantallen

We zullen de ongelijkheid van Chebyshev gebruiken om een belangrijk resultaat uit de kansrekening, de zgn. zwakke wet van de grote aantallen, af te leiden. Deze wet laat zien dat de verdeling van het gemiddelde van een n-tal o.o. en gelijkverdeelde s.v.-en voor toenemede n meer en meer geconcentreerd wordt om de verwachtingswaarde. De wet berust op de ongelijkheid van Chebyshev en het feit dat als X1,X2,.... o.o. en gelijkverdeeld zijn:

en

.

Stelling 7.5.2 (zwakke wet van de grote aantallen)
Zij X1,X2... een rij o.o. en gelijkverdeelde s.v.- en met verwachting EX en eindige variantie σ2. Zij

,

dan geldt voor iedere ε > 0:

,


Bewijs: Zij ε > 0, dan volgt:

, als n naar ∞.


We passen de zwakke wet eens toe op de situatie uit S 1.2, waar we onafhankelijke herhalingen van een experiment beschouwden en elke keer keken of een gebeurtenis A wel of niet was opgetreden. Zij p = P(A) en Xi = 1 als A bij de i herhaling optreedt en anders 0. De s.v.-en X1, X2,... zijn dan o.o. en gelijkverdeeld met EXi= p en var Xi = p(1-p) < ∞. De som van de eerste n X'en is juist het aantal keren N(A) dat de gebeurtenis A bij de n herhalingen optreedt. Verder is:

,

juist het frequentiequotiënt fq(A) van het optreden van A bij n uitvoeringen van het experiment, zoals we dat in par.1.2 ingevoerd hebben. De wet van de grote aantallen zegt nu dat voor alle ε > 0:

,

dwz. het frequentiequotiënt van A convergeert met toenemende n in de zin van de zwakke wet naar de kans op A. Hiermee krijgt het intuïtieve uitgangspunt van het begrip kans, geformuleerd in de experimentele wet van de grote aantallen een solide basis. De theorie sluit dus, wat de wet van de grote aantallen betreft, goed aan bij de werkelijkheid (het experiment). Aangezien we de experimentele wet van de grote aantallen als uitgangspunt hebben genomen voor de opbouw van de theorie, verwachten we dat de theorie ook overigens tot praktisch bruikbare resultaten voert. De zwakke wet is uiteraard geen bewijs voor de experimentele wet; experimenteel gevonden resultaten zijn niet door de theorie te bewijzen.

 



T.1. Binomiale verdeling

In de tabel staat bij bepaalde n, p en c de kans

als X een B(n,p)-verdeling heeft.

Voor de overzichtelijkheid staan in de tabel alleen de eerste vier decimalen en zijn kansen > 0,99995 weggelaten.

–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
                                 p
 n   c   0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50   1/6  1/3
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
 2   0   9025 8100 7225 6400 5625 4900 4225 3600 3025 2500   6944 4444
         9975 9900 9775 9600 9375 9100 8775 8400 7975 7500   9722 8889

 3   0   8574 7290 6141 5120 4219 3430 2746 2160 1664 1250   5787 2963
     1   9928 9720 9392 8960 8438 7840 7183 6480 5748 5000   9