Ocena največje verjetnosti

Kazalo:

Anonim

Ocena največje verjetnosti (VLE) je splošni model za ocenjevanje parametrov porazdelitve verjetnosti, ki je odvisna od opazovanj v vzorcu.

Z drugimi besedami, EMV maksimizira verjetnost parametrov funkcij gostote, ki so odvisne od porazdelitve verjetnosti in opazovanj v vzorcu.

Ko govorimo o oceni največje verjetnosti, moramo govoriti o funkcijo največja verjetnost. Matematično, glede na vzorec x = (x1, …, Xn) in parametri, θ = (θ1,…, Θn) potem,

Ne bodite panični! Ta simbol pomeni enako kot seštevanje vsot. V tem primeru je množenje vseh funkcij gostote odvisno od vzorčnih opazovanj (xjaz) in parametri θ.

Večja kot je vrednost L (θ | x), to je vrednost funkcije največje verjetnosti, bolj verjetni bodo vzorčni parametri.

Logaritmična funkcija EMV

Da bi našli ocene največje verjetnosti, moramo razlikovati (izpeljati) zmnožke funkcij gostote, kar pa ni najbolj udobno.

Ko naletimo na zapletene funkcije, lahko naredimo monotono preobrazbo. Z drugimi besedami, to bi bilo, kot da bi želeli Evropo pripraviti v resničnem obsegu. Morali bi ga pomanjšati, da se prilega na list papirja.

V tem primeru izvedemo monotono transformacijo z uporabo naravnih logaritmov, saj so monotone in naraščajoče funkcije. Matematično,

Lastnosti logaritmov nam omogočajo, da zgornje množenje izrazimo kot vsoto naravnih logaritmov, uporabljenih za funkcije gostote.

Torej je monotona transformacija z logaritmi preprosto "sprememba lestvice" na manjša števila.

Ocenjena vrednost parametrov, ki z logaritmi maksimizirajo verjetnost parametrov funkcije največje verjetnosti, je enakovredna ocenjeni vrednosti parametrov, ki povečajo verjetnost parametrov prvotne funkcije največje verjetnosti.

Torej, vedno se bomo ukvarjali z monotono spremembo funkcije največje verjetnosti glede na njeno lažjo izračun.

Radovednost

Ne glede na to, kako EMV se zdi zapleten in čuden, ga nenehno uporabljamo, ne da bi se tega zavedali.

Kdaj?

V vseh ocenah parametrov linearne regresije pod klasičnimi predpostavkami. Bolj znani kot navadni najmanjši kvadratki (OLS).

Z drugimi besedami, ko uporabljamo OLS, EMV uporabljamo implicitno, saj sta oba enakovredna glede skladnosti.

App

Tako kot druge metode tudi EMV temelji na ponovitvi. To pomeni, da določeno operacijo ponovimo tolikokrat, kolikor je potrebno, da najdemo največjo ali najmanjšo vrednost funkcije. Za ta postopek lahko veljajo omejitve glede končnih vrednosti parametrov. Na primer, da je rezultat večji ali enak nič ali da mora biti vsota dveh parametrov manjša od enega.

Simetrični model GARCH in njegove različne razširitve uporabljajo EMV za iskanje ocenjene vrednosti parametrov, ki poveča verjetnost parametrov funkcij gostote.