Becsléselmélet

A Wikipédiából, a szabad enciklopédiából

A becsléselmélet a matematikai statisztika egyik jelentős területe, mely egy adott minta alapján a sokaságra vonatkozóan állapít meg érték(ek)et. A Regressziószámításban a Lineáris regresszió meghatározásában játszik szerepet. A hétköznapi életben korlátozott észlelési vagy mintavételezési lehetőségek esetén van jelentősége a megalapozott becsléseknek. A paraméterbecslés során valószínűségi eloszlások jellemző mennyiségeit határozzák meg, illetve műszaki területeken jellemző az alsó és felső határ vagyis a Konfidencia intervallum becslése.

A becslés folyamata[szerkesztés | forrásszöveg szerkesztése]

A becsléselmélet lényege hogy egy lehetőleg könnyen előállítható becslést nyújtson. A becslést gyakran egy optimális állapot megállapítására alkalmazzák, amely nem minden esetben lehetséges.

Valószínűség eloszlás megállapítása[szerkesztés | forrásszöveg szerkesztése]

Cramér–Rao alsó korlát alkalmazása[szerkesztés | forrásszöveg szerkesztése]

  • A Cramér–Rao alsó korlát segítségével gyenge feltételek mellett is megállapítható alsó korlát a λ paraméter torzítatlan becsléseinek szórásnégyzetére.

Becslési modell kiválasztása[szerkesztés | forrásszöveg szerkesztése]

  • Ezután a nagyszámú lehetőség közül egy becslési Modell (tudomány) alkalmazható, vagy akár ki is alakítható.

Döntéselmélet[szerkesztés | forrásszöveg szerkesztése]

A döntéselméletben a legvalószínűbb vagy legkedvezőbb lehetőségek meghatározása a cél. A lehetőségek bekövetkeztét trendek, valamint múltbeli tapasztalatok alapján becsúlik meg (összeegyeztethető a paraméterek és minták fogalmával).

Minimax elv[szerkesztés | forrásszöveg szerkesztése]

A statisztikai döntéselmélet minimax elve szerint az az optimális választás, ami minimalizálja a maximális veszteséget. Felfogható a minimális nyereség maximalizálásaként is. Legyen \vartheta \in \Theta paraméter, és legyen a \vartheta paraméter becslése \delta. Jelölje R(\theta,\delta) a rizikófüggvényt, ami rendszerint a veszteségfüggvény integrálja. A \tilde{\delta} becslés minimax, ha

\sup_\theta R(\theta,\tilde{\delta}) = \inf_\delta \sup_\theta R(\theta,\delta).

A döntéselmélet egy alternatív elmélete a Bayes-becslés használatán alapul, ami a \Pi a becsülni kívánt paraméter feltételezett a priori eloszlásának ismeretében minimalizálja az a posteriori rizikót:

\int_\Theta R(\theta,\delta)\,d\Pi(\theta).

Játékelmélet[szerkesztés | forrásszöveg szerkesztése]

A játékelmélet a matematika egyik interdiszciplináris ága, azzal a kérdéssel foglalkozik, hogy mi az optimális viselkedés olyan helyzetekben, ahol minden résztvevő döntéseinek eredményét befolyásolja a többiek lehetséges választása, vagyis a játékelmélet a stratégiai problémák elmélete. A becsléselmélet néhány játékelméleti aspektusa:

  • Például egyazon sokaságból, eltérő időpontban és/vagy módszerrel vett minták a hogyan befolyásolják egymást, és ezt a hatást hogyan lehet csökkenteni.
  • A valós életben a Statisztikai mintavétellel kapcsolatos eljárások a megfigyelő hatása révén (potenciálisan) befolyásolják a minták környezetét, és ezzel a torzítással számolni kell.
  • A becslési modell választásánál lehetséges kevert stratégia alkalmazása, tehát a modellek alkalmazását is egy függvénnyel adjuk meg.

Bayes-elmélet[szerkesztés | forrásszöveg szerkesztése]

A természettudományos kutatások során nélkülözhetetlen az induktív logika alkalmazása: a megfigyelésekből nyert adatokból kell az adott jelenséget kiváltó okra következtetni, ennek helyességét valószínűsíteni. Thomas Bayes jegyzetei alapján Richard Price (1763) majd továbbfejlesztve Pierre-Simon Laplace (1812) tettek közzé úttörőként induktív logikát alkalmazó statisztikai eljárást.

Bayes-tétel[szerkesztés | forrásszöveg szerkesztése]

A Bayes-tétel a valószínűségszámításban egy feltételes valószínűség és a fordítottja között állít fel kapcsolatot.

A tétel legegyszerűbb formájában azt állítja, hogy ha ismert az A és B események valószínűsége, és a P(B|A) feltételes valószínűség, akkor

P(A|B) = \frac{P(B | A)\, P(A)}{P(B)}\,\!

P(A)-t az A esemény a priori, P(A|B)-t az a posteriori valószínűségének is nevezik; a szokásos értelmezésben A valamiféle hipotézis, B egy megfigyelhető esemény, és tétel azt adja meg, hogyan erősíti vagy gyengíti az esemény megfigyelése a hipotézis helyességébe vetett hitünket.

A tétel hasonló formában általánosítható sűrűségfüggvényekre és valószínűségi mértékekre is.

Bayes-döntés[szerkesztés | forrásszöveg szerkesztése]

A Bayes-döntés optimális vagyis a hibavalószínűsége minimális.

Legyen a j. döntés tartománya D_j^* olyan, hogy \forall x \in D_j^*-ra P_j(x)\geq P_i(x) teljesüljön \forall i \neq j-nél. x pont akkor eleme a j. döntési tartománynak, ha x megfigyelés esetén az A=a_j hipotézis feltételes valószínűsége a legnagyobb. A D_j^*-ok páronként diszjunktaknak választhatók, például úgy, hogy nem egyértelmű esetben az alacsonyabb indexűt választják. Ekkor a döntés függvény:

G^*(X)=a_i \text{, ha } x \in D_i^*

Ezt nevezik Bayes-döntésnek, vagy maximum a posteriori döntésnek.

Bayes-statisztika[szerkesztés | forrásszöveg szerkesztése]

Bayes-tételén alapuló Bayes-statisztika átfogóbb szemléletével az 1940-es évektől kezdődően [1] egyre nagyobb teret hódít. A klasszikus statisztika követői közül többen bírálták - elsősorban a külső információk felhasználása, és szubjektív valószínűségek megjelenése miatt. A Bayes-statisztika minden fellelhető információt felhasznál, és ezeket kombinálja a meglévő mintavétel eredményével. A szubjektív benyomások egzakt kezelésére kínál megoldást. A bayes szemléletű becslésnél a becsülni kívánt paraméter nem egy rögzített érték, hanem valószínűségi változó.

A bayesi statisztika tartalmazza speciális esetként (a külső információk teljes hiánya) a klasszikus elméletet. A Bayes-tételnek az átfogalmazott formája mindenféle statisztikai modellnél alkalmazható, az összefüggés ugyanakkor áttekinthető. Éppen emiatt (egyszerűség és az egységesség) egyre szélesebb körű az alkalmazása.

Pontbecslés[szerkesztés | forrásszöveg szerkesztése]

Legkisebb négyzetek módszere[szerkesztés | forrásszöveg szerkesztése]

A Legkisebb négyzetek módszer alkalmazása nem feltételezi a sokasági eloszlás ismeretét, de azt igen, hogy formalizált összefüggésünk van a jelenség leírására, amit modellnek nevezznek. A legkisebb négyzetek módszere ennek a modellnek a paramétereit úgy határozza meg, hogy a tényleges és becsült paraméterrel illesztett modellek négyzetes eltérése, azaz az eltérések négyzetösszege minimális legyen. A módszer a tényleges megfigyelések és a (minta alapján) becsült modell négyzetes távolságát minimálja. A négyzetösszeg minimálás eszköze a szélsőérték-számítás.

Momentumok módszere[szerkesztés | forrásszöveg szerkesztése]

A Momentumok módszere általában az eloszlások paramétereinek becslésére szolgál, akkor alkalmazzák ha a minta eloszlásának sok ismeretlen paramétere van. Egy ismert típusú sokasági eloszlás paraméterei és momentumai függvényszerű kapcsolatba hozhatók egymással. A momentumok módszere olyan sokasági paramétereket keres, amelyek mellett a sokaság és a minta megfelelő paraméterei megegyeznek. Ekkor a tapasztalati momentumok a mintából kiszámíthatóak, mivel egyenlővé tehetőek a paraméterekkel kifejezett sokasági momentumokkal (k-adik), majd az említett összefüggésből következtetni lehet a sokasági paraméterekre. A módszer konzisztens becslőfüggvényeket eredményez.

M_{n}(k)=\frac{1}{n} \sum_{i=l}^n X_i^k  \approx  M_{\lambda}(k) = E_{\lambda}(X^k)

A számítás lépései: A centrális határeloszlás-tétel alapján a minta k-dik tapasztalati momentuma jó becslése az ismeretlen eloszlás k-dik momentumának. A bal oldal a mintából kiszámolható, míg a jobboldalon álló mennyiség az ismeretlen paraméter (vektor) függvénye. A módszer alapján a k=1-től kezdve annyi egyenlőséget írnak fel, ahányból az ismeretlen paraméterek egyértelműen kifejezhető, ezáltal kapható meg a becslés. Általában annyi egyenletre van szükség, ahány ismeretlen paraméter van.

Blackwellizálás[szerkesztés | forrásszöveg szerkesztése]

Rao-Blackwell-Kolmogorov tétel alkalmazása, mely módszer alkalmas torzítatlan becslés konstruálására úgy, hogy egy egyszerő torzítatlan becslést egy elégséges statisztika segítségével korrigálnak. Általában n elemő minta alapján.

Blackwellizálás lépései: 1. A becsülni kívánt paraméterre egyszerő torzítatlan becslést adnak, gyakran csak az első (néhány) mintaelem felhasználásával. Ennek jele T. Ez az egyszerő becslés sokszor indikátortól függ, mert felismerhető, hogy a becsülni kívánt paraméter valaminek a valószínűsége. Például az Ind(p) eloszlásnál p=Pp(X1=1), p2= Pp(X1=1, X2=1), p(1-p)= Pp(X1=1, X2=0). A megfelelő torzítatlan becslések: T1=I(X1=1), T2=I(X1=1, X2=1), T3=I(X1=1, X2=0). 2. Keresnek egy S (minél egyszerűbb) elégséges statisztikát. 3. Felírják a V=E(T|S) becslést. Ez a feltételes várható érték nem függ az ismeretlen paramétertől, mivel S elégséges. Másrészt ez is torzítatlan becslés, ami hatásosabb az eredeti T-nél (hogy mennyivel, az bizonytalan). V maga is valószínűségi változó, az S-nek függvénye: ha S a k értéket veszi fel, akkor V értéke E(T|S=k).

Legnagyobb valószínűség (Maximum Likelihood) módszer[szerkesztés | forrásszöveg szerkesztése]

A Legnagyobb valószínűség módszer ismert sokasági eloszlást tételez fel, és alkalmas arra hogy e sokasági eloszlás ismeretlen paraméterét (vagy paramétereit) becsülje. A likelihood függvény azt mutatja meg hogy adott (rögzített) eloszlás és különböző paraméterértékek esetén mennyire valószerű, hogy éppen a szóban forgó minta adódik a mintavétel eredményeképp. A függvény ismeretében olyan ismeretlen paramétert (paramétereket) kell keresni, amely(ek) mellett ez a függvény a maximumát veszi fel. A módszer nem eredményez minden esetben torzítatlan becslőfüggvényt, viszont mindig konzisztens és aszimptotikusan hatásos becslőfüggvényt eredményez, normális határeloszlással.

Parzen-Rosenblatt módszer[szerkesztés | forrásszöveg szerkesztése]

Tapasztalati eloszlás függvény nem deriválható, mivel a megfigyelt paraméterek általában pontszerűek. Ha azonban az adott érték körüli kicsi szórású folytonos eloszlásúnak is tekinthető (ez az eloszlás a magfüggvény). A keletkező folytonos keverék eloszlásnak a deriváltja jól közelíti a sűrűségfüggvényt.

Egy ƒ(x) sűrűségfüggvényből vett minta esetén, ahol a k(y) magfüggvény egyenesen korlátos és yk(y) határértéke 0 a végtelenben, valamint hn olyan számsorozat, ahol : \lim h_n = 0 és : \lim nh_n = \infty akkor aszimptotikusan torzítatlan, kozisztens becslést mutat a ƒ(x) minden folytonossági pontjában.


    \hat{f}_h(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big),

Intervallumbecslés[szerkesztés | forrásszöveg szerkesztése]

Konfidencia-intervallum[szerkesztés | forrásszöveg szerkesztése]

Az intervallumbecslések egyik módszere a konfidencia-intervallum használata. A konfidencia-intervallum intervallum értékű becslést ad egy paraméterre: valószínűleg ezek közé a korlátok közé esik. Ez sok esetben jobb, mint egyetlen becsült értéket adni. Az α paraméter egy előzetesen megadott értékére a becsült paraméter 1-α valószínűséggel esik az intervallumba. Ezt az 1-α szintet sokszor százalékban adják meg; például 95% tipikus. A több dimenziós megbízhatósági tartomány a konfidencia-intervallum általánosítása. Ez nemcsak a becslés hibájának felmérésére alkalmas, hanem arra is, hogy kimutassa: ha egy paramétert nem sikerült elég pontosan megbecsülni, akkor a többi paramétert is pontatlanul becsülték-e meg.

Becslések tulajdonságai[szerkesztés | forrásszöveg szerkesztése]

Kismintás mérési kritériumok[szerkesztés | forrásszöveg szerkesztése]

  • Becslés standard hibája (Se) a becslőfüggvény valamennyi lehetséges mintán felvett értékeiből számított szórásnégyzetet mintavételi szórásnégyzetnek, ennek négyzetgyökét pedig a becslőfüggvény illetve a becslés standard hibájának nevezzük.
  • A relatív hatásfok két torzítatlan becslőfüggvény szórásnégyzetét hányados formában hasonlítja össze. Megmutatja, hogy a egy becslőfüggvény szórásnégyzete hány százaléka a egy másik becslőfüggvényének.
  • Az Abszolút hatásosság esetén egy becslőfüggvény szórásnégyzetét az MVUE szórásnégyzetéhez hasonlítják.
  • Átlagos négyzetes hiba (Mean Square Error=MSE) egy mutatószám mely a szórásnégyzet és a torzítás együttes figyelembevételére alkalmas. Torzítatlan becslőfüggvények esetén az átlagos négyzetes hiba megegyezik a szórásnégyzettel.
  • A plauzibilitás egyetlen adat hitelességét (értelmezési intervallumba esését) vizsgálja.

Nagymintás mérési kritériumok[szerkesztés | forrásszöveg szerkesztése]

  • A konzisztencia azt jelenti, hogy a megfigyelések számának növelésével nő a becslés pontossága, vagyis a becsült érték körüli ingadozás-variancia csökken. Legyen egy \vartheta paraméter becslése \delta, ekkor
\lim_{n \to \infty}D^2(\delta)=0
  • Torzítatlanság: torzítatlannak nevezünk egy becslőfüggvényt, ha annak várható értéke megegyezik a becsülni kívánt sokasági jellemzővel. Egyoldali és a kétoldali ellenhipotézissel vizsgálható.
  • Aszimptotikus torzítatlanság: ha a mintanagysággal végtelenbe tartva a torzítás eltűnik, akkor azt mondjuk, hogy a megfelelő becslőfüggvény aszimptotikusan torzítatlan.
  • Torzítás mérőszáma: Bs(θ)=E(θ)-θ
  • A hatásosság azt mutatja, hogy a torzítatlan becslések között a szórás mennyire számottevő mértékű. Két egyaránt torzítatlan becslés közül az a hatásosabb, amelyre a négyzetes közép eltérés kisebb.
    • Unicitás: Hatásos becslés T1, T2 torzítatlan statisztika esetén Dθ2T1 < Dθ2T2 ∀θ∈Θ
  • Az aszimptotikus hatásosság két becslőfüggvény nagymintás varianciáinak viszonyát jelenti. Amelyik becslőfüggvénynek kisebb a varianciája, az aszimptotikusan hatásosabb, ha pedig valamely becslőfüggvénynek minden más becslőfüggvénynél kisebb a nagymintás varianciája, akkor ezt a becslőfüggvényt aszimptotikusan minimális varianciájú (hatásos) becslőfüggvénynek nevezik.

Jegyzetek[szerkesztés | forrásszöveg szerkesztése]

  1. A német tankok problémája néven ismert becslés meglepően jó eredményei adták a motivációt a Bayes-statisztika alkalmazására és továbbfejlesztésére. Részletek magyarul, angolul.

Források[szerkesztés | forrásszöveg szerkesztése]