Maximum likelihood módszer

A Wikipédiából, a szabad enciklopédiából

A maximum likelihood módszer (magyarul: legnagyobb valószínűség) a matematikai statisztika egyik leggyakrabban használt becslési eljárása mérési eredmények, minták kiértékelésére.

A maximum likelihood módszer célja, hogy adott mérési értékekhez, az ismeretlen paramétereknek olyan becslését adja meg, amely mellett az adott érték a legnagyobb valószínűséggel következik be. Az eljárás a likelihood függvény maximalizálásával történik.

Definíció[szerkesztés | forrásszöveg szerkesztése]

A maximum likelihood becslés azokban az esetekben használatos amikor az egyes mérési eredmények olyan véletlen eseményekként interpretálhatóak, amelyek egy vagy több ismeretlen paramétertől függenek. Mivel a vizsgált értékek kizárólagosan az ismeretlen paraméter(ek)től a függenek, előállíthatók ezen paraméter vagy paraméterek függvényeként. A mérést, becslést végző kutató ezt a paramétert határozza meg, így maximalizálja a mért minta által követett valószínűséget.

A maximum likelihood módszer egy X valószínűségi változóból indul ki, amelynek a sűrűség- vagy tömegfüggvénye f és q paramétertől függ.

Véletlenszerű mintavételezéskor, n független és azonos feltételek között végzett mintavétel esetén, a sűrűség- vagy tömegfüggvény a következő formula szerint faktorizálható:


f(x_1,x_2,...,x_n;q)=\prod_{i=1}^n {f_X}_i(x_i;q)

Amíg rögzített q paraméter esetén a sűrűségfüggvény tetszőleges x_1,\ldots,x_n értékkel határozható meg, fordítva járunk el, és rögzített x_1,\ldots,x_n értékekre a sűrűségfüggvényt mint a q paraméter függvényét tekintjük. Ezt nevezzük likelihood-függvénynek:


L(q)=\prod_{i=1}^n {f_X}_i(x_i;q)

A becslés a likelihood-függvény maximumának a megkeresése, azaz egy szélsőérték feladat. A számítások egyszerűsítése céljából a gyakorlatban nem az eredeti likelihood-függvényt használjuk, hanem annak a természetes alapú logaritmusát. Mivel a ln függvény szigorúan monoton növekvő függvény a szélsőérték helye nem változik és egy összeggel egyszerűbb számolni mint egy szorzattal. Ezt a függvényt gyakran nevezik loglikelihood függvénynek:


\ell(q)=\ln\left(\prod_{i=1}^n {f_X}_i(x_i;q)\right)= \sum_{i=1}^n \ln f_{X_i}(x_i;q)

Példa[szerkesztés | forrásszöveg szerkesztése]

A normális eloszlás \mathcal{N}(\mu, \sigma^2) sürűségfüggvénye \mu várhatóértékkel és \sigma^2 szórással a következő:

f\left(x ; \mu,\sigma^2\right) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp{\left(-\frac {(x-\mu)^2}{2\sigma^2} \right)}.

Tekintsük a x_1,\ldots,x_n független mérési eredményeket amelyek a feltételezés szerint ismeretlen m várhatóértékkel és s^2 ismeretlen szórással \mathcal{N}(m, s^2) normális eloszlást követnek. A következő likelihood függvénnyel kell számolnunk: q = (m,s).

L(m,s^2) = \prod_{i=1}^{n} f\left( x_{i};  m, s^2\right) = \left( \frac{1}{2\pi s^2} \right)^{n/2} \exp\left( -\frac{ \sum_{i=1}^{n}(x_i-m)^2}{2 s^2}\right)

a loglikelihood függvény pedig:

\log(L(m,s^2)) = -\tfrac{n}{2} \log(2\pi s^2) - \frac{ \sum_{i=1}^{n}(x_i-m)^2}{2 s^2}.

Források[szerkesztés | forrásszöveg szerkesztése]