Lastnosti ocenjevalcev so lastnosti, ki jih lahko imajo in ki služijo izbiri tistih, ki so bolj sposobne dati dobre rezultate.
Za začetek z opredelitvijo koncepta ocenjevalnika bomo rekli, da je glede na kateri koli naključni vzorec (x1, x2, x3, …, Xn) ocenjevalnik predstavlja populacijo, ki je odvisna od φ parametra, ki ga ne poznamo.
Ta parameter, ki ga označujemo z grško črko fi (φ), je lahko na primer sredina katere koli naključne spremenljivke.
Matematično je enoparametrski ocenjevalnik Q odvisen od naključnih opazovanj v vzorcu (x1, x2, x3, …, Xn) in znano funkcijo (h) vzorca. Ocenjevalnik (Q) bo naključna spremenljivka, ker je odvisna od vzorca, ki vsebuje naključne spremenljivke.
Q = h (x1, x2, x3, …, Xn)
Nepristranskost ocenjevalca
Ocenjevalnik Q za φ je nepristranski ocenjevalec, če je E (Q) = φ za vse možne vrednosti φ. E (Q) določimo kot pričakovano vrednost ali pričakovanje ocenjevalca Q.
V primeru pristranskih ocenjevalcev bi bila ta pristranskost predstavljena kot:
Pristranskost (Q) = E (Q) - φ
Vidimo lahko, da je pristranskost razlika med pričakovano vrednostjo ocenjevalnika E (Q) in resnično vrednostjo parametra populacije φ.
Ocena točkeUčinkovitost ocenjevalca
Da Q1 in Q2 sta dva nepristranska ocenjevalca φ, njihov odnos s Q bo učinkovit2 ko je Var (Q1) ≤ Var (Q2) za katero koli vrednost φ, če je statistični vzorec φ strogo večji od 1, n> 1. Kjer je Var varianca in n velikost vzorca.
Intuitivno rečeno, ob predpostavki, da imamo dva ocenjevalca z nepristransko lastnostjo, lahko rečemo, da je ena (Q1) je učinkovitejši od drugega (Q2), če je spremenljivost rezultatov enega (Q1) je manj kot pri drugem (Q2). Logično je misliti, da je ena stvar, ki se bolj razlikuje od druge, manj "natančna".
Zato lahko to merilo uporabimo le za izbiro ocenjevalcev, kadar so nepristranski. V prejšnji izjavi, ko definiramo učinkovitost, že predpostavljamo, da morajo biti ocenjevalci nepristranski.
Za primerjavo ocenjevalcev, ki niso nujno nepristranski, se pravi, da obstajajo pristranskosti, je priporočljivo izračunati povprečno napako kvadratka (MSE) ocenjevalcev.
Če je Q ocenjevalnik φ, je ECM Q definiran kot:
Napaka srednjega kvadrata (MSE) izračuna povprečno razdaljo med pričakovano vrednostjo vzorčnega ocenjevalnika Q in ocenjevalca populacije. Kvadratična oblika ECM je posledica dejstva, da so napake privzeto, negativne ali presežne pozitivne glede na pričakovano vrednost. Na ta način bo ECM vedno izračunal pozitivne vrednosti.
ECM je odvisen od variance in pristranskosti (če obstaja), kar nam omogoča primerjavo dveh ocenjevalcev, če sta ena ali oba pristranska. Tisti, katerega NDE je večji, se bo razumel kot manj natančen (ima več napak) in zato manj učinkovit.
Doslednost ocenjevalca
Doslednost je asimptotična lastnost. Ta lastnost je podobna lastnosti učinkovitosti s to razliko, da doslednost meri verjetno razdaljo med vrednostjo ocenjevalnika in resnično vrednostjo parametra populacije, ko se velikost vzorca neomejeno povečuje. To neomejeno povečanje velikosti vzorca je osnova asimptotske lastnosti.
Za izvedbo asimptotske analize obstaja najmanjša dimenzija vzorca (preverite skladnost ocenjevalca, ko se vzorec poveča). Približni vzorci velikih vzorcev dobro delujejo na vzorcih približno 20 opazovanj (n = 20). Z drugimi besedami, želimo videti, kako se ocenjevalec obnaša, ko povečujemo vzorec, vendar to povečanje teži v neskončnost. Glede na to naredimo približek in je iz 20 opazovanj v vzorcu (n ≥ 20) primerna asimptotična analiza.
Matematično definiramo Q1n kot ocenjevalnik φ iz katerega koli naključnega vzorca (x1, x2, x3, …, Xn) velikosti (n). Torej lahko rečemo, da Qn je dosleden ocenjevalec φ, če:
To nam pove, da so razlike med ocenjevalcem in njegovo populacijsko vrednostjo, | Qn - φ |, morajo biti večje od nič. Za to to izrazimo v absolutni vrednosti. Verjetnost te razlike se giblje do 0 (postaja manjša in manjša), ko velikost vzorca (n) teži v neskončnost (postaja vse večji in večji).
Z drugimi besedami, vse manj verjetno je, da Qn se premakne predaleč od φ, ko se velikost vzorca poveča.