Ett utfallsrum sägs vara: diskret - om antalet utfall är ändliga eller uppräkneligt oändliga. kontinuerligt - om antalet utfall är icke uppräkneligt oändliga.
Snitt
Om vi letar efter alla element i AOCHB använder vi snitt: A∩B
Union
Om vi letar efter alla element i AELLERB använder vi union: A∪B
Komplement (not: ∗) A∗ betyder det som inte är i A. (A∗)∗=A
(A∗∪(B∩C∗))∗=A∩(B∗∪C)
Byt ut alla ∩↔∪ och A↔A∗.
De Morgans lagar A∩(B∪C)=(A∩B)∪(A∩C) A∪(B∩C)=(A∪B)∩(A∪C)
Kombinatorik
Multiplikationsprincipen
Om två åtgärder a och b kan utföras på z1 och z2 olika sätt så finns det z1z2 sätt att utföra kombinationen av båda åtgärder.
Dragning av k element ur n:
återläggning
ordning
antal sätt
med
med
nk
utan
med
(n−k)!n!
utan
utan
(kn)
Binomialkoefficienten:(kn)=(n−k)!k!n!, (uttalas: "n över k")
Sannolikhet
Klassiska sannolikhetsdefinitionen
Sannolikheten av en händelse A betecknas P(A). P(A)=antal mo¨jliga (m)antal gynsamma (g),0≤P(A)≤1,P(Ω)=1
Komplementsatsen P(A∗)=1−P(A)
Additionssatsen …för två händelser P(A∪B)=P(A)+P(B)−P(A∩B)
A∩B=∅ (disjunkta)⟹P(A∩B)=0⟹P(A∪B)=P(A)+P(B)
…för tre händelser P(A∪B∪C)=P(A)+P(B)+P(C)−P(A∩B)−P(A∩C)−P(B∩C)+P(A∩B∩C)
Likformig sannolikhet P(ωi)=m1,i=1,…,m
Betingad sannolikhet P(A∣B)=P(B)P(A∩B), (uttalas: "sannolikheten av A givet/betingat B") B agerar som ett nytt utfallsrum till A, så de gynsamma utfallen blir de utfall i A som finns i B och de möjliga utfallen är B.
Lagen om total sannolikhet
Om händelserna H1,H2,…,Hn är disjunkta (dvs H1∩H2∩⋯∩Hn=∅) OCH H1∩H2∩⋯∩Hn=Ω (dvs att för varje försök inträffar exakt en av dem) GÄLLER för varje händelse A att: P(A)=i=1∑nP(Hi)P(A∣Hi)
Bayes sats
Under samma villkor som för lagen om total sannolikhet gäller att: P(Hi∣A)=∑j=1nP(Hj)P(A∣Hj)P(Hi)P(A∣Hi)
Enklare (med endast en betingning, använd om P(B∣A) är kännt): P(A∣B)=P(B)P(B∣A)P(A)
Oberoende händelser Två händelser A och B sägs vara oberoende om: P(A∩B)=P(A)P(B).
Tre händelser A, B och C sägs vara oberoende om: P(A∩B)=P(A)P(B), P(A∩C)=P(A)P(C), P(B∩C)=P(B)P(C) och P(A∩B∩C)=P(A)P(B)P(C)
Om händelserna A1,A2,…,An är oberoende är deras komplement A1∗,A2∗,…,An∗ också oberoende.
Om händelserna A1,A2,…,An är oberoende och P(Ai)=pi så är sannolikheten att minst en inträffar: 1−(1−p1)(1−P2)…(1−Pn)
Detta leder också till att om P(Ai)=p (dvs de är lika sannolika) är sannolikheten att minst en inträffar: 1−(1−p)n
Endimensionella stokastiska variabler
Även kallat slumpvariabler. Notation: X,Y,Z, osv.
En stokastisk variabel är en funktion som definerar ett värde xi till varje möjligt utfall ωi av en händelse: X:Ω={ω1,ω2,…}→{x1,x2,…}
Det diskreta fallet
Sannolikhetsfunktionen pX(x)=P(X=x)
Den stokastiska variabeln X antar värden i en definierad mängd.
Fördelningsfunktionen FX(x)=P(X≤x)=∑i≤xpX(j)
Tvåpunktfördelning (ej med i F.S.) pX(a)=p,pX(b)=1−p
Om $a=1, b=0 sägs X vara Bernoulli-fördelad
Likformig fördelning (ej med i F.S.) pX(k)=m1,k=1,2,…,m
Förklaring: Vad är sannolikheten att vi får k när vi kastar en m-sidig tärning.
Svar: Den är alltid lika stor m1.
Förklaring: Vad är sannolikheten att vi får vi utfallet ω med slh p för först gången efter k försök.
Svar: Sannolikheten att missa 1−p alla gånger utom den sista, dvs k−1-ggr, multiplicerat med sannolikheten för ω, dvs p.
Förklaring: Vad är sannolikheten att dra k element ur n, med återläggning?
Svar: Antalet möjliga kombinationer som k kan väljas ur n, dvs (kn), multiplicerat med sannolikheten för k träffar och (n-k) missar, dvs pk(1−p)n−k.
Np= totala antalet kulor ⋅ slh att få vit kula = antalet vita kulor
Förklaring: Vad är sannolikheten att vi får k “vita” kulor när vi drar n kulor ur totalt N kulor, utan återläggning?
Svar: Använd definitionen för sannolikhet: mg
Antalet gynnsamma är (antalet sätt att välja k “vita” kulor av totalt Np vita kulor) ⋅ (antalet sätt att välja resterande (n−k) inte vita kulor ur alla andra N(1−p) kulor)
Antalet möjliga: antalet sätt att välja n kulor ur totalt N kulor.
Förklaring: Sannolikheten att en händelse sker under ett visst tidsintervall, om vi vet den genomsnittliga sannolikheten (μ) att händelsen sker under intervallet.
Det kontinuerliga fallet
Täthetsfunktionen fX(x) kallas täthetsfunktionen och används för att beräkna sannolikheten enligt: P(X∈A)=∫AfX(x)dx
Den stokastiska variabeln X antar värden i ett valt intervall.
P(a<X<b)=∫abfX(x)dx (spelar ingen roll om intervallet är slutet eller öppet)
Täthetsfunktionen fX(x)=P(X=x) beskriver sannolikheten att X antar ett visst värde x.
Notation: (X,Y),(Z,W), osv.
En stokastisk variabel är en funktion som definerar ett talpart(xi,yi) till varje möjligt utfall ωi av en händelse: (X,Y):Ω={ω1,ω2,…}→{(x1,y1),(x2,y2),…}
Det förväntade genomsnittliga värdet över ett oändligt antal försök kallas väntevärdet E(X)=μ. Väntevärdet är ett lägesmått, dvs det beskriver var massan är belägen “i genomsnitt”, delar arean under kurvan i hälften.
Det endimensionella diskreta fallet E(X)=∑kkpX(k)
Det endimensionella kontinuerliga fallet E(X)=∫−∞∞xfX(x)dx
Om en s.v. Y=g(X), dvs beror på s.v. X genom en funktion g så byts värdena x,k ut mot funktionsvärdet i formlerna ovan enligt: k→g(k),x→g(x)
Det tvådimensionella diskreta fallet E(Z)=∑j,kg(j,k)pX,Y(j,k) Z=g(X,Y)
Det tvådimensionella kontinuerliga fallet E(Z)=∫−∞∞∫−∞∞g(x,y)fX,Y(x,y)dxdy Z=g(X,Y)
Räkneregler för väntevärden Uppdelning, koefficienter och konstanter E(aX+bY+c)=aE(X)+bE(Y)+c Oberoende s.v. ger E(XY)=E(X)E(Y)
Räkneregler för spridningsmått E(aX+b)=aE(X)+b V(aX+b)=a2V(X) D(aX+b)=∣a∣D(X)
!!!Notera V(aX+bY+z)=a2V(X)+b2V(X) (se räkneregler för väntevärde) D(aX+bY+z)=(a2D(X)2+b2D(Y)2 (se standardavvikelse)
Beroendemått
Kovarians [FIFS]
Beskriver huruvida olika mätdata X,Y tenderar att avviker åt samma eller olika håll, genom att ge ett positivt respektive negativt värde. Är som variansen, men mellan X och Y istället för X ⋅ X. C(X,Y)=E[(X−μX)(Y−μY)]=E(XY)−E(X)E(Y)
Korrelationskoefficient [FIFS]
Beskriver huruvida mätdata är korrelerade där ∣ρ∣ beskriver korrelationens styrka. ρ(X,Y)=D(X)D(Y)C(X,Y),−1≤ρ≤1
I följande fall sägs X,Y vara okorrelerade: C(X,Y)=0⟹ρ(X,Y)=0
Det gäller även att: Om X,Y är oberoende, dvs E(X,Y)=E(X)E(Y), så är de även okorrelerade. Detta gäller INTE åt andra hållet, dvs: E(X,Y)=E(X)E(Y)⟹C(X,Y)=0 (C(X,Y)=0⇏E(X,Y)=E(X)E(Y))
Mer om stokastiska variabler
Standardiserad stokastisk variabel Y kallas en standardiserad s.v. om Y=σX−μ,μ=E(X),σ=D(X)
En standardiserad s.v. Y har egenskaperna: E(Y)=μ=0,D(V)=σ=1 (används i samband med normalfördelning)
Felvärden
Om vi har mätdata enligt den s.v. X så har den finns ett systematiskt fel (δ), som beskriver differensen mellan väntevärdet (μ) och det korrekta värdet (θ), samt ett slumpmässigt fel (ε), som beskriver differensen mellan mätvärdet (X) och väntevärdet (μ). Sammanfattat: ma¨tva¨rdeX=korrekt va¨rdeθ+systematiskt felδ+slumpma¨ssigt felε
Där: δ=μ−θ,God nogrannhet = litet δ ε=X−μ,God precision = litet ε
Medelvärde
Om s.v. X1,X2,…Xn är oberoende så: X=∑i=1nnXi
Där:E(X)=μ,V(X)=nσ2,D(X)=nσ
Fler räkneregler för s.v. E(X+Y)=E(X)+E(Y) V(X+Y)=V(X)+V(Y)+2C(X,Y)
Om s.v. oberoende (dvs C(X,Y)=0) V(X+Y)=V(X)+V(Y) D(X+Y)=D2(X)+D2(Y)
Stora talens lag P(∣Xn−μ∣<ε)→1,fo¨r varje ε da˚n→∞
Lagen menar att så länge vi utför tillräckligt många försök så kommer medelvärdet av försöken att närma sig väntevärdet, oavsett storlek på precisionen ε.
beskriver hur stor del av den totala slh som förbrukats t.o.m. x.
väntevärde
E(X)
μ
det förväntade värdet av en s.v. / medelvärdet
varians
V(X)
den kvadratiska medelavvikelsen från väntevärdet
standardavvikelse
D(X)
σ
den genomsnittliga avvikelsen
variationskoefficient
R(X)
den procentuella avvikelsen
kovarians
C(X,Y)
variansen mellan två olika s.v.
korrelationskoefficient
ρ(X,Y)
korrelationen mellan två s.v.
korrekt värde
θ
det korrekta värdet (ej mätvärde)
systematiskt fel
δ
skillnaden mellan väntevärdet och det korrektvärdet (μ−θ)
slumpmässigt fel
ε
skillnaden mellan mätvärdet och väntevärdet (X−μ)
frihetsgrad
f
ofta men INTE alltid: f=(n−1) (alt f=(r−1)), n/r = antalet försök/tester
Normalfördelning
Om en eller flera s.v. X är normalfördelade betecknas det som X∈N(μ,σ). fX(x)=σ2π1e−(x−μ)2/2σ2,FX(x)=σ2π1∫−∞xe−(t−μ)2/2σ2dt
Standariserad normalfördelning
För μ=0 och σ=1 får vi speciallfallet X∈N(0,1) som kallas det standardiserad normalfördelning. För detta specialfall kallas täthetsfunktionen fx(x) för φ(x), och fördelningsfunktionen FX(x) för Φ(x). φ(x)=2π1e−x2/2,Φ(x)=2π1∫−∞xe−t2/2dt
!!! Notera att dessa oftast avläses från tabeller, inte räknas ut.
Egenskaper för standardiserad normalfördelning
I och med att en standardiserad normalfördelning är symmetrisk runt y-axeln så gäller följande:
φ(−x)=φ(x)
Φ(−x)=1−Φ(x)
P(a<X<b)=Φ(b)−Φ(a) (dvs slh att X ligger emellan a och b.)
α-kvantilen
Den area under täthetsfunktionen höger om λα är lika med α. P(X>λα)=α
Enligt ovan symmetriska egenskaper gäller även:λ1−α=−λα
Formeln används oftast för att beräkna slh för att X ligger mellan −λα/2 och λα/2. P(−λα/2<X<λα/2)=1−α
Allmän normalfördelning
För det allmänna fallet kan vi utgå i den standardiserade normalfördelningen, då den är mycket enklare att räkna med. Så om X∈N(μ,σ) och Y=σx−μ∈N(0,1) gäller: fx(X)=σ1φ(σx−μ),Fx(X)=Φ(σx−μ)
Glöm inte att: μ=E(X),σ=D(X) och då även att σ2=V(X).
Linjärkombinationer av oberoende normalfördelade s.v.
Genom att vända räknereglerna för väntevärde, standardavvikelse (se tidigare avsnitt) kan vi beskriva vad som händer med normalfördelad s.v. då vi linjärtransformerar dem:
En s.v. X∈N(μ,σ): Y=aX+b∈N(aμ+b,∣a∣σ),∥a∣σ=a2σ2
TvåX∈N(μX,σX) och Y∈N(μY,σY): X+Y∈N(μx+μY,σX2+σY2) X−Y∈N(μx−μY,σX2+σY2)
!!! Observera att tecknet inte spelar roll för standardavvikelsen, precis som tidigare.
Flera s.v. X1,X2,…,Xn som alla ∈N(μi,σi) respektive: ∑1naiXi+b∈N(∑1naiμi+b,∑1nai2σi2)
Medelvärden
Om vi använder det aritmetiska medelvärdet till en s.v. enligt X=∑1nXi/n så är medelvärdet normalfördelat enligt: X∈N(μ,σ/n)
Kan ses från Centrala Gränsvärdessatsen härnäst.
Om vi har två olika medelvärden X och Y så gäller: X−Y∈N(μX−μY,σX2/nX+σY2/nY)
Centrala gränsvärdessatsen
Om X1,X2,… är en oändlig följd av oberoende och likafördelade s.v. med σ>0 så gäller för Yn=X1+⋯+Xn att: P(a<σnYn−nμ≤b)→Φ(b)−Φ(a),n→∞
Asymptotisk normafördelning
Om Zn är en oändlig följd s.v. det kan finnas talen An,Bn sådana att: P(a<BnYn−An≤b)→Φ(b)−Φ(a),n→∞
…sägs Zn vara asymptotiskt normalfördelad: Zn∈AsN(An,Bn)
!!! Detta medför även från ovan att Yn∈AsN(nμ,σn)
Det gäller då även (följer enkelt ur ovan argument) för en följd oberoende likafördelade s.v. att: (X1,X2,…,Xn)/n∈AsN(μ,σ/n)
Binomialfördelning och dess släktningar
3-4 FIFS
Punktskattning/Stickprov
Stickprovsvariabel θ∗=θ∗(X1,X2,…,Xn) är en funktion av s.v. X1,X2,…,Xn, som är fördelad enligt parametern θ.
Punktskattning θobs∗=θ∗(x1,x2,…,xn) är en funktion av mätdata x1,x2,…,xn som är ETT utfall (observation) av θ∗.
Medelfel/Standardfelet för stickprov (not: d)
När μ skattas D(Xˉ)=nσ→Dobs∗=d=ns,(för s se 8 FIFS)
Krav på bra konfidensinterval (från Binomial)(FIFS)
Slumpmässigt urval
Approximativt normalfördelad - minst 10 vardera av träffar och missar, dvs: np,n(1−p)≤10.
Oftast är parametern p ej känd och då används istället den approximerade stickprovsvariabelnp∗
Oberoende urval - utan återläggning bör urvalsstorleken ej vara större än 10% av populationen.
Oftast är parametern p ej känd och då för att beräkna standardavvikelsenσp=np(1−p) använder vi istället den approximerade stickprovsvariabelnp∗ för att approximera standardfeletσp∗=np∗(1−p∗)≈σp.
Välja metod för konfidensinterval
Vilken fördelning tillhör den okända parameterna θ?
normalfördelad ∈N(θ,D),D=nσ
Är riktiga σ känd?
JA: λ-metoden (12.1 FIFS}
NEJ: t-metoden (12.2 FIFS), använd Dobs∗=ns,s punktskattning av σ
approximativt…
…normalfördelad ∈N(θ,D)
Approximativa metoden (12.3 FIFS) => ger en approximativ signifikansnivå
…annars ((12.3 FIFS) funkar ändå, men ej N(μ,σ))? Iθ=θobs∗±d⋅λα/2, (se dmedelfel ovan)
vilken annan fördelning som helst, inklusive N(μ,θ) χ2-metoden (12.4 FIFS), använd en punktskattning av θ (t.ex. s för σ)
χ2-test
Test av given fördelning
!!! Kontrollera npi≥5. Q≤χα2(f)⇒H0 sann med konfidensnivå 1−α
(14.3 FIFS)
Om npi≥5 EJ UPPFYLLT: Gruppera enligt:
slå ihop 2 eller flera tester xi till ett test: p=∑pi x=∑xi
Räkna ut nytt np och hantera som enskilt test.
Homogenitetstest
Som ovan, men summera istället samtliga kollonner och rader. 14.3 FIFS
slh. för exakt värde på x, dvs P(x)=pX(k) alt fx(x)
slh. för värde större eller mindre än.
ex: x>m, dvs P(x>m)=1−P(x<m)=1−FX(m)
väntevärde E(X)=∫−∞∞xfX(x)dx, (se 2,3-4 FIFS)
varians V(X) (se 2,3-4 FIFS)
standardavvikelse D(X)=V(X) (se 3-4 FIFS)
maximum-likelihood-skattning [ML] av en parameter θ. (9.1 FIFS)
Anv. logaritmering! och DUFFuM (dela upp så fort som fucking möjligt)
III. Linjärkombinationer av stokastiska variabler
…med samma fördelning.
ex: X∈Bin(n1,p),Y∈Bin(n2,p),P(X+Y=x), [–> I. Fördelningar]
…räkneregler för storheter (E,V,D,C,ρ).
ex: V(X)=v1,V(Y)=v2,C(3X,Y)=?
IV. Konfidensintervall
V. Hypotesprövning α=P(H0 fo¨rkastas) även om H0 sann.
Skapa ett konfidensintervall för mothypotesen H1 med konfidensgrad 1−α.
(om H1</>θ använd nedre/högre gräns −∞/∞)
[–> IV. Konfidensintervall]