Tsjebysjevs ulikhet
Tsjebysjevs ulikhet, eller Tsjebysjevs teorem, som har fått navn etter den russiske matematikeren Pafnutij Tsjebysjev, er et resultat innen sannsynlighetsteori som gir en nedre grense for sannsynligheten av at verdien av en stokastisk variabel fra en statistisk fordeling med endelig varians ligger innenfor et område med en viss avstand fra variabelens forventning. Tilsvarende gir teoremet en øvre grense for sannsynligheten for at verdier ligger utenfor et område med samme avstand fra forventningen.
Teoremet
redigerLa X være en stokastisk variabel med forventning μ og endelig varians σ2. Da gjelder det for ethvert reelt tall k > 0 at
Bare tilfellene når k > 1 gir nyttig informasjon.
En konsekvens av teoremet er at for en hvilken som helst sannsynlighetsfordeling med forventning μ og standardavvik σ, så vil minst halvparten av verdiene ligge i intervallet (μ − √2 σ, μ + √2 σ).
Normalt gir teoremet nokså vide grenser. På den annen side kan ikke grensene angitt ved Tsjebysjevs ulikhet forbedres generelt, slik at teoremet holder for variabler av enhver fordeling. For eksempel, for en vilkårlig k > 1, vil følgende eksempel (hvor σ = 1/k) treffe grensene eksakt:
Teoremet kan være nyttig til tross for de løse grensene fordi det kan anvendes på stokastiske variabler fra en hvilken som helst fordeling, og fordi disse grensene kan beregnes uten noe mer kunnskap om fordelingen enn forventningen og variansen.
Tsjebysjevs ulikhet brukes til å bevise store talls svake lov.
Varianter
redigerEn ensidig variant med k > 0, er
Et sterkere resultat, som kan anvendes på unimodale sannsynlighetsfordelinger er Vysosjanskiï-Petunins ulikhet.
Eksempel
redigerSom en illustrasjon, anta at Wikipedia-artikler består av gjennomsnittlig 1000 bokstaver, med et standardavvik på 200 bokstaver. Av Tsjebysjevs ulikhet følger det at minst 75% av artiklene har en lengde på mellom 600 og 1400 bokstaver, ved å sette k lik 2.
Bevis
redigerMarkovs ulikhet sier at for enhver reell stokastisk variabel Y, og ethvert positivt tall a, så er P(|Y| > a) ≤ E(|Y|)/a. Tsjebysjevs ulikhet kan bevises ved å bruke Markovs ulikhet på den stokastiske variabelen Y = (X − μ)2, med a = k2.