+ All Categories
Home > Documents > Capitolul 3 - Estimatori- Gauss Markov

Capitolul 3 - Estimatori- Gauss Markov

Date post: 01-Dec-2015
Category:
Upload: avram-lucia-alexandra
View: 77 times
Download: 2 times
Share this document with a friend
Description:
Capitolul 3 - Estimatori- Gauss Markov
39
LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA CAPITOLUL III - ESTIMATORI 3.1. ESTIMATORUL GAUSS-MARKOV (METODA CELOR MAI MICI PATRATE) 3.1.1.Cazul General, forma ecuaţiilor corecţiilor: În cazul măsuratorilor indirecte, valoarea mărimilor care ne interesează se obţine prin intermediul unei (unor) mărimi măsurate direct. Mărimile măsurate direct şi cele de determinat sunt funcţional dependente între ele. Se va avea în vedere un şir de măsurători de forma m o = [ m 1 0 , m 2 0 , , m n 0 ] T care sunt efectuate într-o reţea geodezică, deci nu asupra unei singure mărimi. Valorile medii ale unor mărimi sunt rezultate din măsuratori directe si X 1 , X 2 , …, X h , așadar sunt determinate indirect. Presupunem că între mărimile fizice măsurate direct şi parametrii de determinat, există urmatoarele dependente funcţionale: M i 0 =F i ( X 1 , X 2 , , X h ) ; unde: i = 1..n (3.1) Relaţia (3.1) defineşte modelul funcţional. Problema care se pune este, ca din sistemul (3.1) să deducem valorile cele mai probabile (cele mai bune) pentru . Determinarea valorilor cele mai probabile se face pe baza relației următoare : X = [ X 1 , X 2 , , X h ] T ; (3.2) Un scop important al prelucrării măsurătorilor constă în determinarea valorilor cele mai probabile care cuprind, în primul rând, parametrii Page 24 i X h X X X ,..... , 2 1
Transcript
Page 1: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

CAPITOLUL III - ESTIMATORI

3.1. ESTIMATORUL GAUSS-MARKOV (METODA CELOR MAI MICI PATRATE)

3.1.1.Cazul General, forma ecuaţiilor corecţiilor:

În cazul măsuratorilor indirecte, valoarea mărimilor care ne interesează se obţine prin intermediul

unei (unor) mărimi măsurate direct. Mărimile măsurate direct şi cele de determinat sunt funcţional

dependente între ele.

Se va avea în vedere un şir de măsurători de forma mo=[ m1

0 , m20 , …, mn

0 ]Tcare sunt efectuate într-o

reţea geodezică, deci nu asupra unei singure mărimi. Valorile medii ale unor mărimi sunt rezultate din

măsuratori directe si X1, X2, …, Xh , așadar sunt determinate indirect.

Presupunem că între mărimile fizice măsurate direct şi parametrii de determinat, există urmatoarele

dependente funcţionale:

M i0=Fi ( X1 , X 2 , … , Xh ) ;

unde: i = 1..n (3.1)

Relaţia (3.1) defineşte modelul funcţional.

Problema care se pune este, ca din sistemul (3.1) să deducem valorile cele mai probabile (cele mai bune)

pentru . Determinarea valorilor cele mai probabile se face pe baza relației următoare :

X = [ X1 , X2 , …, Xh ]T ; (3.2)

Un scop important al prelucrării măsurătorilor constă în determinarea valorilor cele mai probabile care

cuprind, în primul rând, parametrii de poziţionare ai reţelei geodezice în sistemul de coordonate

corespondent, dar şi alte mărimi care intervin în prelucrare.

Dacă valorile măsurate direct nu ar fi afectate de erori, atunci sistemul (3.1) se poate scrie:

M i0=Fi ( X1 , X 2 , … , Xh ) ;

unde: i = 1..n (3.3)

unde: n reprezintă numărul de măsuratori efectuate,iar h reprezintă numarul de necunoscute.

Se fac urmatoarele observatii:

- dacă n < h atunci, din punct de vedere matematic, sistemul este nedeterminat deoarece din punct de

vedere ‘geodezic’, numărul de măsuratori este insuficient pentru rezolvarea problemei.

Page 24

iX

hXXX ,.....,, 21

0iM

Page 2: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA - dacă n = h atunci, din punct de vedere matematic sistemul este compatibil cu solutie unică deoarece

din punct de vedere ‘geodezic’, se măsoara numai strictul necesar pentru rezolvarea problemei.

- dacă n > h atunci, din punct de vedere matematic sistemul este incompatibil deoarece din punct de

vedere ‘geodezic’, datorită erorilor de măsurare, sistemul devine incompatibil.

Astfel o caracteristică importantă a prelucrărilor măsurătorilor geodezice este reprezentată de

faptul că numărul de măsurători Mo, notat n, care intervine în calcule, este întotdeauna mult mai mare

decât numărul parametrilor X , notat h:

n >> h (3.4) În practică,măsurătorile efectuate sunt în mod inerent afectate de erori, indiferent de grija sau

priceperea operatorului , sau de condițiile bune asigurate pentru efectuarea măsurătorilor.

Datorită erorilor de măsurare, sistemul (3.1) este incompatibil, astfel încât mărimilor măsurate trebuie să

li se aplice nişte corecţii . După aplicarea acestor corecții sistemul este compatibil cu necunoscutele

.

Astfel sistemul (3.1) devine:

M i0+v i=F i( X1 , X 2 , … , Xh ) ;

i = 1..n, n>h (3.5)

unde :

v i = Mi - Mio i=1,n

X j = X j¿ + x j j=1,h (3.6)

Sistemul (3.5) este compatibil dar ,în același timp, nedeterminat deoarece avem n ecuaţii (n mărimi

cunoscute) si n+h necunoscute (n corecţii aplicate mărimilor măsurate şi h corecţii X aplicate

parametrilor determinaţi indirect). Prin urmare, în urma prelucrării se vor determina două şiruri de

corecţii: pentru măsurători şi respectiv pentru necunoscute:

v=[v1 , v2 , …, vn ]T ;

x=[ x1 , x2 , …, xu ]T .(3.7)

Valorile cele mai probabile ale corecţiilor se determină aplicând metoda celor mai mici pătrate.

3.1.2. Liniarizarea ecuaţiilor corecţiilor:

In general, relaţiile (3.3) nu sunt de formă liniară, totalitatea lor constituind aşa-zisul model

funcţional neliniarizat al compensării măsurătorilor geodezice prin metoda măsurătorilor indirecte.

Aceste relaţii depind de geometria intrinsecă a reţelei geodezice considerate, precum şi de natura şi tipul

măsurătorilor geodezice care stau la baza determinărilor

Page 25

iv

h21 X,.....,X,X

Page 3: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRAFolosind relaţiile (3.6), ecuaţiile (3.3) se pot scrie mai dezvoltat sub următoarea forma:

M 10+v1=f 1 ( X1

¿+x1 , X 2¿ + x2 , …, Xu+xh) ;

M 20+v2=f 2 ( X1

¿+x1 , X 2¿ +x2 , …, Xu

¿ +xh) ;

⋯ ⋯ ⋯ ⋯ ⋯M n

0+vn=f n (X 1¿+x1 , X2

¿ +x2 , … , Xu¿+xh ) ,

(3.8)

Compensarea devine astfel mai complicat de realizat astfel încât, pentru uşurarea calculelor de

compensare, ecuaţiile (3.8) se aproximează cu nişte ecuaţii liniare ce se obţin prin dezvoltarea în serie

Taylor, în vecinătatea unor valori , apropiate de cele adevărate.

Valorile probabile ale necunoscutelor vor fi deci:

X j = X j¿ + x j (3.9)

Corecţiile xj trebuie să fie suficient de mici, astfel ca în dezvoltarea în serie să putem neglija termenii de

ordinul 2 şi mai mari.

M i0+v i=F i ( X1

¿+x1 , X 2¿ +x2 , … , Xh

¿+xh )≃F i ( X1¿ , X 2

¿ , … , Xh¿ )+( ∂ Fi

∂ X1)¿ x1+( ∂ F i

∂ X 2)¿ x2+…+( ∂ F i

∂ Xh)¿ xh ; (3.10)

Relația (3.10) reprezintă forma liniarizată a ecuațiilor de condiție. Pentru a ușura forma de scriere vom

nota:

( ∂ Fi

∂ X1)¿=a i ; ( ∂ F i

∂ X2)¿=bi ; …; ( ∂ F i

∂ Xh)¿=hi (3.11)

f i ( X1¿ , X 2

¿ , …, Xh¿ )−Mi

0=ℓi (3.12)

Regula practică de calcul a termenului liber, li, este:

Termenul

liber=

Valoarea

calculată-

Valoarea

măsurată (3.13)

Relaţiile (3.10) vor deveni cu ajutorul notaţiilor (3.11) si (3.12):

v1=a1 x1+b1 x2+…+u1 xh+ℓ1

v2=a2 x1+b2 x2+…+u2 xh+ℓ2

⋯ vn=an x1+bn x2+…+un xh+ℓn .

(3.14)

Page 26

0iX

Page 4: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRARelaţia (3.14) poartă numele de sistemul liniar al ecuaţiilor de corecţii.

Modelul stochastic:

Vectorul mărimilor măsurate este un vector n dimensional şi, ţinând seama de relaţia :

M i0=Fi ( X1 , X 2 , … , Xh ) ; (3.15)

Rezultă că matricea de varianţă – covarianţă va avea forma:

Σll=( σ12 ρ12σ 1σ2 ρ13 σ1 σ3 ρ1 nσ 1σn

ρ21 σ2σ 1 σ22 ρ23 σ2 σ3 ρ2 nσ 2σn

ρn1σ nσ1 ρn 2 σn σ2 ρn3 σnσ 3 σ n2 ) (3.16)

În relaţia (3.16) s-au folosit notaţiile:

- σ i2

- care este varianţa măsurătorii M io

si este :

σ i2=E (εi

2 ) (3.17)

-ρij - care este coeficientul de corelaţie între mărimile M i

osi M j

o si este:

ρij=σ ij

σ i σ j si σ ij=E (εi ε j ) (3.18)

Unde: este covarianţa măsurătorilor M io

si M jo

Trebuie menţionat că în relaţiile (3.17) si (3.18) termenul ε i este definit uzual ca eroare adevărată.

Erorile adevărate sunt diferenţe între măsurătorile şi valorile lor adevarate şi se calculează cu

următoarea formulă:

ε i=M i0−M i (3.19)

În cazul măsurătorilor independente pentru si ,ceea ce înseamnă că matricea de

varianţă – covarianţă devine diagonală şi anume:

Page 27

ij

0M M

0ij ji, ji

Page 5: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Σll=(σ12 0 0 0

0 σ 22 0 0

0 0 0 σn2 ) (3.20)

Relaţia (3.20) mai poate fi scrisă şi sub următoarea formă:

Σll=σ02Qll=σ 0

2(σ 0

2

σ 12

0 0 0

0σ0

2

σ22

0 0

0 0 0σ 0

2

σ n2

) (3.21)

Ţinând cont că: pi=

σ02

σ i2

, rezultă că:

1llQP (3.22)

Dacă măsurătorile sunt independente şi de aceeaşi precizie relaţia (1.16) devine:

Σll=(σ2 0 0 00 σ 2 0 00 0 0 σ2 )=σ 2 I n ,n (3.23)

unde:

Se fac următoarele observaţii:

- fiecare măsurătoare generează câte o ecuaţie de corecţie;

- din expresiile coeficienţilor şi termenilor liberi, se observă că mărimea măsurată direct M io

, deci cea

care este afectată de erori, intervine numai în termenul liber;

- din relaţia (3.13) se deduce că eroarea termenului liber este egală cu eroarea mărimii măsurate,

deoarece mărimile X i sunt nişte constante. Rezultă deci că eroarea unei ecuaţii de corecţie este egală cu

eroarea termenului liber a acesteia, coeficienţii a i ,b i ,. . ., hi putând fi consideraţi nişte constante lipsite de

erori.

Page 28

IQll

Page 6: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA- dacă mărimile măsurate M i

o, sunt determinate cu aceiaşi precizie şi ecuaţiile sistemului liniar al

corecţiilor vor avea aceiaşi precizie. În caz contrar vom avea un sistem liniar al ecuaţiilor de corecţii

ponderat.

3.1.3. Rezolvarea sistemelor de ecuaţii liniare:

Metodele de rezolvare a sistemelor de ecuaţii liniare se împart în două grupe:

1. Metode exacte, care dau un algoritm finit pentru calculul soluţiei (de exemplu regula lui Cramer

sau metoda eliminării lui Gauss);

2. Metode iterative, care permit să găsim soluţia cu o eroare arbitrară mică (dar nenulă), sub forma

unui şir convergent de vectori Rn (unde n reprezintă numărul ecuaţiilor şi al necunoscutelor din

sistemul dat), a cărui construcţie se face printr-un proces unic, numit ‘proces de iteraţie’.

Desigur, metodele exacte nu dau soluţia numerică decât cu aproximaţie, în măsura în care rezultatul unui

calcul simplu, de exemplu rezultatul împărţirii unor numere prime între ele, nu se poate da decât cu

aproximaţie oricât de mică, dar nenulă.

Metodele iterative sunt, de regulă, simple şi comode pentru folosirea maşinilor de calcul. Dar fiecare

proces iterativ are un domeniu limitat de aplicare, deoarece un proces iterativ poate fi divergent pentru

un sistem dat, sau poate să conveargă atât de încet încât să fie practic inutilizabil.

De regulă, metodele iterative se aplică atunci când coeficienţii diagonali ai sistemului sunt mai mari

în valoare absolută decât coeficienţii nediagonali, convergenţa fiind asigurată în acest caz. Sistemele

normale, rezultate în procesul de compensare, se bucură în general de această caracteristică (mai ales în

cazul reţelelor de nivelment).

Rezolvarea sistemelor de ecuaţii normale cu un număr mare de necunoscute necesită calcule destul

de laborioase, iar erorile de calcul pot atinge valori apreciabile.

De aceea, caracteristicile şi structura ecuaţiilor normale, impun alegerea cu discernământ a celor mai

adecvate metode de rezolvare.

Vom aborda a ecuatiilor liniare prin tratarea matriciala a masuratorilor indirecte cazurile masuratorilor

de aceiasi precizie si masuratorilor poderate.

3.1.4. Tratarea matriceală a măsuratorilor indirecte.

3.1.4.1.Cazul măsuratorilor de aceiaşi precizie.

3.1.4.1.1.Normalizarea sistemului liniar al escuatiilor de corectii:

Page 29

Page 7: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRAFie sistemul liniar al ecuaţiilor de corecţii :

v i=a i x1+bi x2+. .. ..+hi xh+li , i = 1..n, n>h (3.24)

Notaţii:

A( n ,h )

=(a1 b1 h1

a2 b2 h2

an bn hn); matricea coeficienţilor sistemului de ecuaţii de corecţii,

V( n ,1 )

=(v1

v2

vn)

; vectorul corecţiilor sistemului de ecuaţii de corecţii,

x( h ,1 )

=(x1

x2

xh); vectorul corecţiilor aduse parametrilor determinaţi indirect,

L( n ,1 )

=(l1

l2

ln); vectorul termenilor liberi,

(3.25)

Cu ajutorul notaţiilor (3.25), din relaţia (3.24) rezultă că forma generală a sistemului de ecuaţii de

corecţii va fi:

V=Ax+L (3.26)

Sistemul (3.26) este nedeterminat.Acesta se poate rezolva daca se foloseste conditia data de metoda

celor mai mici pătrate:

V T V=min (3.27)

Substituind in (3.27) valorile corectiilor date de relatia (3.26)

V T V=( Ax+ L )T ( Ax+L )=min (3.28)

Efectuand derivata partiala in raport cu x:

∂|V T V|∂ xT

=0(3.29)

Page 30

Page 8: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Rezulta:

AT ( Ax+L )+ {( Ax+L )T A }=0

2 AT ( Ax+L )=0

Adica:

( AT A ) x+ AT L=0 (3.30)

Relaţia (3.30) reprezintă sistemul normal în cazul măsurătorilor indirecte de aceiasi precizie.

3.1.4.1.2.Rezolvarea sistemului normal:

Rezolvarea sistemului normal se face astfel:

Notăm:

N=AT A (3.31)

(3.31)- reprezintă matricea normală a sistemului

Cu (3.31) şi cu ajutorul relaţiei (3.30) rezultă:

LANx T1 (3.32)(3.32) reprezintă rezolvarea sistemului normal în cazul măsurătorilor indirecte de aceiaşi precizie.

3.1.4.1.3.Determinarea marimilor compensate:

Corecţiile se vor aplica mărimilor determinate indirect, mărimilor aproximative rezultând mărimile

estimate:

X i=X i¿+x i (3.33)

unde:

X i - reprezintă valori compensate

X i¿

- reprezintă valori masurate

x i- reprezintă corecţiile aplicate valorilor masurate.

Cu ajutorul valorilor determinate în relaţia (3.33) se determină vectorul rezidurilor , care se

aplică mărimilor măsurate , rezultând mărimile estimate ale acestora date de relaţia:

Page 31

LAxV

0iM iM

Page 9: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRAi

0ii vMM (3.34)

3.1.4.1.4. Calculul preciziilor în cazul măsurătorilor indirecte de aceiaşi precizie:

Evaluarea preciziilor se va face cu relaţiile:

1. Eroarea medie pătratică a unei singure măsurători:

σ 0=±√ V T Vn−h ;

(3.35)

unde:

n – reprezintă numărul de ecuaţii(numărul de măsuratori);

h – reprezintă numărul de necunoscute.

2. Erorile medii pătratice ale necunoscutelor:

σ xi=±σ0 √(Qx )ii

; (3.36)

unde Q- matricea cofactorilor:

Q=N−1(3.37)

3.1.4.2. Tratarea matriceală a măsurătorilor indirecte. Cazul măsurătorilor ponderate.

3.1.4.2.1.Normalizarea sistemului liniar al escuatiilor de corectii:

Fie sistemul liniar al ecuaţiilor de corecţii ponderat (de pondere pi):

v i=a i x1+bi x2+. .. ..+hi xh+li , → pi , i = 1..n, n>h (3.38)

Notaţii:

nnn

hn

hba

hba

hba

A 222

111

,

; matricea coeficienţilor sistemului de ecuaţii de corecţii,

n

n

v

v

v

V 2

1

1,

; vectorul corecţiilor sistemului de ecuaţii de corecţii,

(3.39)

Page 32

Page 10: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

h

h

x

x

x

x 2

1

1,

; vectorul corecţiilor aduse parametrilor determinaţi indirect,

n

n

l

l

l

L 2

1

1,

; vectorul termenilor liberi,

n

nn

p

p

p

P

0000

0000

0000

2

1

,

; matricea ponderilor sistemului ecuaţiilor de corecţii.

Folosind notaţiile (3.39), in relaţia (3.38) rezultă forma generală a sistemului de ecuaţii de corecţii:

LAxV (3.40)Sistemul (3.40) este nedeterminat.Acesta se poate rezolva dacă se folosește condiția dată de metoda

celor mai mici pătrate:

minPVV T (3.41)

Substituind în (3.41) valorile corecțiilor date de relația (3.40) rezultă:

min LAxPLAxPVV TT (3.42)

Efectuând derivata parțială în raport cu x :

0

T

T

x

PVV(3.43)

Rezultă:

0 PALAxLAxPA TT

0 LAxPALAxPA TT

Adică:

0 PLAxPAA TT(3.44)

Relaţia (3.44) reprezintă sistemul normal în cazul măsurătorilor indirecte ponderate.

3.1.4.2.2.Rezolvarea sistemului normal:

Rezolvarea sistemului normal se face astfel:

Notăm:

Page 33

Page 11: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Si (3.44) devine:

0 PLANx T

011 PLANNxN T

PLANx T1

(3.45)

Relaţia (3.45) reprezintă rezolvarea sistemului normal în cazul măsurătorilor indirecte ponderate.

3.1.4.2.3.Determinarea marimilor compensate:

Corecţiile se vor aplica mărimilor determinate indirect, mărimilor aproximative rezultând mărimile

estimate:

X i=X i¿+x i (3.46)

unde:

X i - reprezintă valori compensate

X i¿

- reprezintă valori masurate

x i- reprezintă corecţiile aplicate valorilor masurate.

Cu ajutorul valorilor determinate în relaţia (3.32) se determină vectorul rezidurilor , care se

aplică mărimilor măsurate , rezultând mărimile estimate ale acestora date de relaţia:

i0ii vMM (3.47)

3.1.4.2.3. Calculul preciziilor în cazul măsuratorilor indirecte ponderate:

Pentru evaluarea preciziilor se folosesc următoarele relaţii:

1. Eroarea medie pătratică a unitaţii de pondere:

σ 0=±√ V T PVn−h ;

(3.48)

unde:

n – reprezintă numărul de ecuaţii (numărul de măsuratori);

h – reprezintă numărul de necunoscute.

2. Erorile medii pătratice ale necunoscutelor:

Page 34

PAAN T

LAxV

0iM iM

Page 12: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRAσ xi

=±σ0 √(Qx )ii; (3.49)

unde : Q este matricea cofactorilor

Q=N−1(3.50)

3. Eroarea medie pătratică a unei funcţii de mărimi determinate indirect:

Fie funcţia , unde parametrii reprezintă mărimi determinate indirect.

Eroarea medie pătratică a acestei funcţii este:

σ F=±σ0 √QFF ; (3.51)

Unde:

QFF=f T N−1 f; (3.52)

Iar vectorul

f =( f 1

f 2

f n)

unde elementelef i=

∂ F∂ X i .

3.2. ESTIMATORI ROBUȘTI

3.2.1. Introducere şi definiţii:

Statistica robustă oferă o altfel de abordare faţă de clasicile metode de prelucrare statistice.

Scopul este de a determina estimatori care nu sunt înmod nejustificat afectaţi de micile abateri de la

ipotezele modelului.

În estimarea parametrică se presupune că observaţiile urmează un anumit model parametric

(funcţional), numit model clasic sau model ideal. În această ipoteză, au fost definite criterii de

optimalitate şi au fost construiţi estimatori optimali, constituind aşa numiţii estimatori clasici (m.c.m.p).

Modelul clasic a fost readus în discuţie în anii '50 când Tukey a evidenţiat deficienţe ale estimatorilor

clasici în cazul unor modele contaminate (alterate). Astfel aceste modele clasice se bazeaza puternic pe

ipoteze teoretice (care nu sunt des intalnite înpractica). Înparticular se presupune ca erorile (corectiile)

datelor sunt distribuite normal sau macar aproximativ, dar din nefericire atunci când avem valori

extreme îndate metodele clasice dau rezultate slabe.

Page 35

0,.....,, 21 nXXXF iX

Page 13: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Fig 3.1. Prelucrare prin metoda celor mai mici patrate: opinie generală asupra dispunerii punctelor.

Fig 3.2. Prelucrare printr-o metoda robustă: opinie clară asupra dispunerii punctelor.

Erorile grosiere deseori se dovedesc a fi valori extreme (date avand corectii cu cel putin o clasa de

măsura diferita de restul observatiilor), dar nu toate valorile extreme sunt erori grosiere.

Uneori unele date extreme sunt corecte (nu sunt afectate de erori grosolane) şi pot pot fi cele mai

importante observatii din setul de date. Insasi aceste date extreme -date care nu se încadrează în modelul

stabilit de către majoritatea datelor- sunt un concept slab definit, fără limite clare; cu toate acestea sunt

un concept util atat timp cat nu se uita că există o tranzitie continua la observaţiile obişnuite.

Rezulta ca este suficient o singura valoare grosieră (extremă) conţinuta însetul initial de date

pentru a modifica rezultatele obţinute în urma prelucrarii prin metoda celor mai mici patrate. De

exemplu, o singură valoare extrema poate face ca media de selecţie să dea rezultate complet eronate.

Dacă oricare din valorile de selecţie tind către infinit, atunci media de selecţie tinde către infinit. Spre

deosebire de media de selecţie, mediana de selecţie este mai puţin afectată de prezenţa unei valori

aberante. Spunem că mediana este rezistentă sau robustă înprezenţa valorilor aberante, în timp ce media

Page 36

Page 14: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRAde selecţie nu are această proprietate. De fapt mediana va tolera până la 50% valori aberante; spunem că

punctul său de ruptură este 50%, în timp ce punctul de ruptură al mediei de selecţie este 0%. Deşi media

de selecţie este un estimator optimal al mediei repartiţiei normale, ea poate fi substanţial suboptimală

pentru repartiţii apropiate de normală.

O reacţie comuna la acest pericol este (subiectiva sau obiectiva) respingerea datelor extreme

deşi, în principiu, datele extreme ar trebui să fie scoase temporar din model pentru o tratare separata.

Astfel putem spune ca nu întotdeauna este indicat să se respingă valorile extreme.

De ce nu este multumitor să controlam datele şi să le inlaturam valorile extreme? Sunt mai multe aspecte

care trebuie luate înconsiderare:

1. Utilizatorii, chiar şi expertii statisticieni nu controleaza intodeauna suficient de bine datele.

2. Decizia de a păstra sau de a respinge o observaţie poate să nu fie cea mai bună solutie, mai

indicat fiind să se atribuie observaţilor suspecte ponderi mai mici. De exemplu, dat fiind un set

de date normale printre care se află şi valori aberante, datele filtrate după o anumită regulă nu vor

fi neapărat normale (pot exista false respingeri, sau false reţineri) şi situaţia poate deveni chiar

mai rea decât cea iniţială (putem trage concluzii false sau se poate ca reteaua geodezica sa ajunga

la un defect de configuratie). Astfel teoria clasică nu este aplicabilă selecţiei "curăţate".

3. Poate fi dificil sau imposibil depistarea datelor extreme îndate foarte variate (distanţe, direcţii,

unghiuri zenitale-măsuratori eterogene) sau foarte structurate (multidimensionale);

4. Respingerea datelor extreme afecteaza teoria distribuţiei care ar trebui să fie modificata. În

particular deosebirile vor fi subestimate din datele curatate.

Este un fapt cunoscut că cele mai bune proceduri de detectare-respingere a valorilor aberante nu ating

performanţa celor mai bune proceduri robuste de estimare.

Page 37

Page 15: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Fig 3.3. Diferite moduri de analizare a datelor.

3.2.2. Caracteristicile estimatorilor robuşti şi măsuri ale robusteţii:

3.2.2.1. Caracteristicile unei proceduri robuste de estimare:

S-a pus aşadar problema construcţiei unor estimatori, numiţi robuşti, care să fie cât mai puţin sensibili la

anumite deviaţii de la un model ideal. Dorim ca prin cuvântul "robust" să ne referim la acele abordari

calitativ bune ce urmează să fie stabilite ale estimaţiilor parametrilor, chiar în cazul în care ipotezele

modelului metodei celor mai mici pătrate nu sunt îndeplinite.

Page 38

Page 16: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRACaracteristicile unei proceduri robuste de estimare după CASPARY (1988) sunt următoarele:

• Distributia este robusta. Adică trebuie să fie conceputa să piardă din eficienţă cât mai puţin

posibil în apropierea unui model stocastic.

• Estimarea datelor ar trebui să fie robusta adică rezultatele trebuie să fie cat mai apropiate de

valorile “adevarate” ale parametrilor, să existe efecte de rotunjire în cazul în care intre date se afla

inexactitati sau erori grosiere. Rezultatele sunt, prin urmare, cât mai puţin posibil influentate de datele

"rele"

• Modelul de estimare trebuie să fie robust, ceea ce înseamnă că parametrii estimati trebuie să se

bazeze în principal pe datele modelului conform, prin urmare şi influenţa modelului (punctelor) slabe se

va atenua.

• Estimatorul are o mare capacitate de separare, ceea ce înseamnă erorile grosiere şi punctele

slabe din model ar trebui să evidente. De exemplu, ar trebui să fie considerate "bune" observaţiile cu

corectii mici, şi "proste" atunci când sunt identificate corectii mari.

• În cele din urmă, un estimator robust ce abordezeaza un model corect şi observaţii aproape

“perfecte” trebuie ca rezultatele acestuia să fie optime, adică rezultatele să fie identice cu cele rezultate

dacă prelucrarea se realizeaza prin metoda celor mai mici patrate.

3.2.2.2. Măsuri ale robusteţii:

Deşi problema robusteţei este veche, primele abordări teoretice în domeniul statisticii robuste sunt

datorate lui Huber şi lui Hampel. Cercetările celor doi autori au condus la definirea unor concepte

fundamentale în estimarea (statistica) robustă, cele mai des utilizate fiind funcţia de influenţă şi punctul

de ruptură. De asemenea, rezultatele lor teoretice au oferit bazele estimarii robustificării metodelor

parametrice clasice.Robusteţea unui estimator se poate măsura cu ajutorul funcţiei de infulenta,

punctului de rupere, şi a funcţiei de erori.

3.2.2.2.1.Funcţia de influenţă (IF): după cum şi indică numele, este o măsură a influenţei pe care o

observaţie o are asupra parametrilor estimaţi.

În vederea obţinerii celui mai important model pentru funcţia de influenţă, se va porni de la

următorul raţionament: cele (n - 1) variabile aleatoare Xi (i = 1, 2 .... n - 1) posedă funcţia empirică de

distribuţie Fn-1. Funcţia de estimare pentru aceste (n - 1) variabile aleatoare, este

T n-1 = T (F n-1) = t n-1 (X1, X2 ..... Xn) (3.53)

Page 39

Page 17: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRAPentru acest estimator, se va adauga o altă variabilă aleatoare X cu funcţie de distribuţie x necunoscuta.

Astfel, rezultă noua funcţie de estimare:

Tn = T (Fn) = t (X1,X2 ,...,Xn) (3.54)Funcţiile empirice de distribuţie Fn sunt suma distribuţiilor individuale:

Fn=n−1

nFn−1+

1n

δx (3.55)

Acum, în termeni generali, va fi descris efectul asupra funcţiei de estimare, care este generat prin

adăugarea doar a unei observaţiei Xn. Acest efect este descris de curba de sensibilitate (sensitivity curve)

SC, care se obţine din diferenţa dintre cele două funcţii de estimare Tn şi Tn-1 şi înmulţirea cu n:

SCn−1=n(T n−Tn−1)=T ( n−1

nFn−1+

1n

δx )−T ( Fn)

1n

(3.56)

Dacă n→∞ şi 1/n este înlocuit de o valoare mică , rezulta clar din (3.56) funcţia de influenţă IF

(influence funcţion) al estimatorului T după Hampel şi alţii (1986):

IF ( x i ,T , F )=limε →∞

T (1−ε )F+εδ x )−T ( F )ε (3.57)

Această funcţie de influenţă acordă pentru un anumit estimator T ca efect o modificare infinitezimală în

datele x din estimator şi este o funcţie riguros teoretică ,dar o metodă abstractă de a se face distincţia

între estimatori. Din punct de vedere al erorilor grosiere numai funcţiile de estimare, ale căror funcţii

de influenţă sunt limitate, vor conduce la estimatori robuşti.Cu alte cuvinte, se deduce că influenţa unei

erori brute dintr-un estimator robust este limitată.

În figura de mai jos sunt reprezentate grafic funcţii de influenţă pentru estimatori tipici. Acesti

estimatori sunt: media aritmetica, mediana şi estimatorul Huber. Pentru media aritmetică a

măsurătorilor, influenţa unei erori în date este în acest caz monotonă şi nelimitată. Pentru mediană,

funcţia de influenţă este monotonă şi limitată. De asemenea, şi pentru estimatorii Huber, există o funcţie

de influenţă limitată şi monotonă.

Page 40

Page 18: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Fig 3.4. Principalele tipuri de funcţii de influenţă după Wicki F. (1999).

Modul de calcul a funcţiei de influenţă, în sine, este evaluat de exemplu de către Wicki (1999)

pentru media aritmetică:

Pentru x standardizat şi distribuit normal densitatea de probabilitate (x), precum şi funcţia de

distribuţie (x) este:

x=E (x )=T n=1n∑i=1

n

x i (3.58)

Pentru n→∞, această ecuaţie devine:

E( x )=T n=∫−∞

+∞

xϕ (x )dx=0 (3.59)

Astfel funcţia de influenţă (3.57) evidenţiază

IF ( x i ,T ,F )=limε →∞

∫ xd ((1−ε )Φ+εδ x )(u )−T (F )+∫ xϕ ( x )du

ε=

¿ limε →∞

(1−ε )∫∫ xϕ (x )dx+∫ xd δx (x )−∫ xϕ ( x )dx

ε=x

(3.60)

că influenţa unei singure observaţii care creşte liniar cu mărimea erorii, are importanta asupra estimaţiei

parametrilor, ceea ce reprezintă un semn al lipsei de robusteţe a metodei.

3.2.2.2.2. Punctul de rupere: este proporţia încare un estimator poate tolera observaţiile incorecte

inainte de a da un rezultat aberant. Cu cât punctul de rupere al unui estimator este mai mare cu atât

Page 41

Page 19: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRAacesta este considerat mai robust. În general, putem considera că punctul de rupere nu poate depăsi

valoarea de 50% deoarece dacă mai mult de jumatate din observaţii sunt alterate nu este posibilă

distingerea distribuţiei normale de distribuţia contaminată (alterată). Punctul de rupere BP este, prin

urmare, o măsură globala a robusteţii (de fiabilitate); este de multe ori primul şi cel mai important

criteriu de luat înconsiderare înainte de a intra în detalii privind proprietăţile robusteţii locale.

3.2.2.2.3. Funcţiile de erori:

Un alt parametru important este funcţia de erori, care se dovedeşte a fi un instrument just de evaluare

a estimatorilor. Pentru observaţiile compensate (valori cele mai probabile) îi, în conformitate cu

consideraţiile anterioare :

l i=li+vi . (3.61)

Unde au fost introduse corecţiile vi , având în vedere că valoarea reală a observaţiilor li , nu satisface

modelul funcţional.

Pentru a determina corecţiile vi trebuie introdusă o funcţie de estimare bine definită. Ca mărime noua

este introdusă acum eroarea unei funcţii de estimare. Funcţia de erori (vi) este definită ca fiind abaterea

unui estimator din căutarea rezultatelor optime de estimare.

Funcţii de erori comune sunt:

Funcţia de erori Gaussiană . Prin minimizarea sumei acestei funcţii de erori se ajunge (pierdere) se

reduce la metoda celor mai mici pătrate.

ς (v i )=v i2

(3.62)

Minimizarea sumei acestei funcţii de erori se reduce la întreaga clasă de Ls-norm-estimări.

ς (v i )=|v i|2

(3.63)

Aceasta duce la metoda modulelor minime (norma octoedrica).

Minimizarea sumei acestei funcţii de erori duce la estimatorul Huber

ς (v i )={ v i2 pentru|vi|<k

k⋅|v i|pentru|v i|>k (3.64)

3.2.3. Modelul estimarii robuste ale parametrilor :

3.2.3.1. Modelul stochastic:

Page 42

Page 20: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRASe presupune că erorile observaţiilor sunt distribuite în mod normal:

F(x)N(0,2) (3.65)Funcţia de distribuţie este valabilă în cazul în care măsurătorile:

-sunt lipsite de erori grosolane

-nu sunt influenţate de erori sistematice

-modelul funcţional este corect

Numai încondiţii ideale aceste ipoteze sunt valabile aşa cum au demonstrat diverse studii.

Pentru distribuţia normală sau în apropierea de distribuţia normală de la baza observaţiilor, metoda

celor mai mici pătrate furnizează cele mai bune estimări (a se vedea capitolul 3 gauss-markov),

înschimb dacă observatiile contin erori grosolane acestea duc la o distribuţie ce diferă în mod

semnificativ de distribuţia normală. Pentru observaţii distribuite normal, mai puţin riguroase, se justifica

tratarea (compensarea) cu ajutorul estimatorilor robusti.

Cei mai mulţi estimatori robuşti sunt derivaţi din (3.55) şi (3.57) consolidaţi de ipoteza distribuţiei:

F ( x )=(1−ε )G( x )+εS ( x ) (3.66)

Acest model prevede că majoritatea incertitudinilor de măsurare ale unui model de distribuţie G(x)

aparţin de distribuţia normală; pentru o mica parte a incertitudinilor de măsurare ε exista o divizie

Störver S(x), care de obicei, rămâne necunoscuta.

3.2.3.2. Derivarea funcţiei de estimare:

Vom prezenta principiul de derivare a unui estimator, făcând paralela la metoda convenţionala a

celor mai mici pătrate cu ajutorul funcţiei de erori Gaussiană după relaţia:

ς (v i )=v i2

(3.67)

Luăm un caz unidimesional al unui estimator al unor parametrii :

X=t ( X1 , X2 , .. . Xn ) (3.68)

Şi rezultă funcţia erorilor:

ς (v i )=ς ( X−X i )=( X−X i )2=v i

2(3.69)

Aceasta se numeşte funcţia erorilor a lui Gauss, ducând la minimizarea erorilor:

Page 43

Page 21: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

∑ ζ (v i )=∑i=1

n

( X−X i )2=∑

i=1

n

(v i )2→min (3.70)

Pentru a rezolva această problema se considera prima derivata zero rezultand relatiile:

∑i=1

n

2 ( X−X i)=0

Sau ∑i=1

n

( X−X i )=0

Ca soluţie, s-a introdus simpla formulă de determinare a mediei aritmetice:

X=1n∑i=1

n

X i (3.71)

În cazuri multidimensionale înconformitate cu modelul liniar clasic, cu observaţii de aceiasi precizie

Q¿=I sistemul ecuaţiilor de corecţii este liniarizat fiind de forma:

V=A X+L (3.72)

de unde se deduce pentru “i“ observaţii independente:

v i=∑i=1

n

aij x j−l j (3.73)

Rezultand forma generala a ecuatiei de corectie (gauss-markov).

La fel ca în cazul unidimensional se cere ca suma acestor corectii îmbunătăţite să tinda la minim.Pentru

a determina minimul se va calcula prima derivată a funcţiei erorilor, care va forma funcţia ψ:

ψ ( vi )=ς '( v i)=∂ ς( v i)

∂ v i(3.74)

Mărimile variabile reale din modelul liniar sunt parametri x, astfel atunci când funcţia tinde la minim

rezulta:

∑i=1

n ∂ ς( v i)∂ x j

=∑i=1

n ∂ ς(v i )∂ v i

⋅∂ v i

∂ x j

=∑i=1

n

ψ (v i )∂ v i

∂ x j

=0 (3.75)

Avand învedere V=A X+L vom avea :

∑i=1

n

ψ ( v i)a ij=0 (3.76)

În relația de mai sus introducând ai = [a1, a2 ... an] ca un rând vector din matricea A :

Page 44

Page 22: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

∑i=1

n

ψ ( v i)a i=0 (3.77)

Prin trecerea la modul de scriere matriceal sistemul de normalizare va fi:

AT ψ=0 (3.78)

în cazul în care funcţia ψ vectorială este introdusă:

ψ = [ψ (v1 )ψ (v2 ). . .. ψ (vn ) ]=0 (3.79)

În continuare se considera funcţia Gaussiană ς (v i )=v i2/2 usor modificată, urmând să se determine

prima derivata a acestei funcţii :

ψ ( vi )= v i (3.80)

Din (3.78), rezultă direct :

AT V=0 (3.81)

şi prin introducerea în modelul liniar V=A X+L , se ajunge la forma ecuaţiilor normale cunoscute :

AT ( Ax−1)=0AT AX=AT L

(3.82)

Prin acest mod de abordare, prin urmare, rezultă cazurile unidimensionale sau multidimensionale ale

formulelor cunoscute, în cazul în care este utilizată ecuaţia de erori Gaussiană.

3.2.4.Clasificarea estimatoriilor robuşti:

Estimatorii robuşti pot fi clasificati după cum urmează:

- estimatorii M sau estimatorii de probabilitate maximă.

- estimatorii L sau estimatorii de combinatie liniara de ordine statistica.

- estimatorii R sau estimatorii derivati din testul de rang.

Printre ei estimatorii M sunt cei mai flexibili şi mai uşor de a generat pentru cazurile parametrilor

multipli. Acesta este motivul pentru care sunt cei mai frecvent utilizati.

Estimatorii M sunt estimatori de parametri înrudiţi cu binecunoscutul estimator bazat pe metoda

celor mai mici pătrate, dar cu robusteţe îmbunătăţită în prezenţa erorilor grosiere prezente în date.

Cei mai cunoscuti dintre estimatorii sunt:

Page 45

Page 23: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA- Lp- -norm: ca, de exemplu, L1- pe care Laplace l-a propus să se utilizeze cu mult timp în urmă

dar care nu este stabil , poate reduce influenta valorilor extreme dar acestea au inca influenta deoarece

funcţia de influenta nu are puncte de rupere, şi L2- care, de fapt, este foarte puţin robust;

- estimatorul L1-L2 imprumuta de la estimatorul L1 capacitatea de a reduce influenta erorilor mari

şi de la estimatorul L2 proprietatea de a fi convex;

- estimatorul Huber

- estimatorul Andrews

- altele: estimatorii Geman-McClure, Tukey&Welsch .

Tab.3.1 Principalii estimatori robuşti şi funcţiile lor de erori:

Page 46

Page 24: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA3.2.5. Estimatorii M :

Estimatorii M pot reduce efectul valorilor extreme inlocuind corectiile luate la pătrat din expresia

clasică a metodei celor mai mici pătrate cu o altă funcţie de corectii, i ς(vi) unde ς(vi) este o funcţie

simetrică pozitiv definită, cu un minim unic în origine şi cu o creştere mai lentă decât pătratul.

În general, se caută prin estimatorul “M” o funcţie de estimare de n observaţii L1,L2.... Ln :

Ti = Li (Li, L2 ..... Ln), (3.83)astfel încât suma ecuaţiilor de erori să fie minimă:

∑ ς( v i)=∑i=1

n

ς( L−Li )→min (3.84)

Printr-o alegere adecvată a unei funcţii de erori ς(vi) se obţin proprietăţile dorite ale procedurii de

estimare. Pentru a evalua proprietăţile unei funcţii de erori trebuie să se determine şi să se discute funcţia

de influenţă.

Potrivit lui Hampel (1986) şi lui Borutta (1988) funcţia de influenţă de u-dimensiuni pentru

estimatorul “M” este descrisă prin relaţia:

IFi=( A , I , x , G)=−S l−1a i

T ψ ( v i) (3.85)

unde: Sl=AT YA

cu Y = diag [ E (ψ '( v1)) E (ψ '( v 2 )) .. . E (ψ ' (vn ))] .

Linia ai corespunde celor “i” observaţii Li, ce are influenţă asupra vectorului de necunoscute x.

Funcţia ψ adică prima derivată a funcţiei de erori în urma aplicării corecţiilor prin estimatorul

”M”, este proporţională cu funcţia de influenţă (Hampel, 1986). Deoarece funcţia de influenţă sau

funcţia ψ este limitată, ne va rezulta estimatorul robust. Acest lucru ne permite o evitare a discuţiei

privind proprietăţile robuste ale funcţiei de erori datorita funcţiei ψ a sa şi determinarii explicite a

funcţiei de influenţă.

Pentru o distribuţie ipotetică a probabilităţi:

F ( x ) = (1 - ε ) G ( x ) + ε S (x ) (3.86)

adică tulpina distribuţiei, G (x) ~ N(0, σ2) precum şi o abatere de la distributie S datorata unui număr

mic de valori extreme, determina o funcţie de erori continuă şi convexă, pentru care printr-o alegere

corespunzătoare a valorii lui k vor rezulta caracteristici robuste:

Page 47

Page 25: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

ςK (v i )={ 12

v i2 pentru |v i|<k

k|v i|−12

k 2 pentru |vi|≥k(3.87)

Derivata funcţiei de erori, adică funcţia ψ, ale căror proprietăţi pot fi considerate chiar cele ale funcţiei

de influenţă , este:

ψ K (v i )={ vi pentru |v i|<k|v i|⋅k pentru |v i|≥k (3.88)

Wicki (1999), a făcut legătura dintre funcţia ψ şi corecţiilor standardizate wi = vi/ σvi cu ajutorul

estimatorului BIBER dezvoltat de către acesta, care împreuna cu metoda celor mai mici pătrate a devenit

baza detectarii erorilor grosiere. În funcţie de calitatea observaţiilor pentru k va corespunde un interval

de 2,5 < k < 4 .

Fig. 3.5. Funcţia de erori ς(vi) şi prima derivată ψ a estimatorului Huber

3.2.6. Estimatorii L :

Clasa aşa-numiţilor estimatori L este definită ca o combinare liniară a ordinului statisticilor, adică

valorile măsurate sunt sortate în funcţie de mărimea lor. Pentru n variabile corespunde următorul

eşantion ordonat :

L (1) <L (2) <...<L(i) <L(n) (3.89)unde L(i) , este desemnat al “ i ”-lea, pentru ordinului statisticilor.

Page 48

Page 26: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Estimatorul L este de tip:

L=t ( L1 , L2 ,. . . Ln )=∑i=1

n

ai Li (3.90)

unde pentru suma ponerilor avem relaţia:

∑i=1

n

ai=1 (3.91)

În cazul unidimensional se deduc imediat două estimări:

• media aritmetică :

a i=1n

⇒ L=1n

(L1+ L2+. ..+Ln ) (3.92)

• estimarea Chebychev :

a i=an=12

⇒ L=( L1+Ln )

2 (3.93)

Aceste două metode de estimare nu sunt robuste, deoarece influenţa observaţiilor extreme nu este

limitată.

În schimb, vom obţine o estimare foarte robustă - mediana, folosind numai valorile medii măsurate:

n impar→ a(n+12

)=1⇒ L=L(n+12

)

n par→ a( n2

)=a(n2

+1)=12

⇒ L=12

( L(n2

)+L(n2

+1 ))(3.94)

Funcţia de influenţă a medianelor este prezentată în Figura 13.

3.2.6.1 Estimatorul Ls:

O funcţie de erori poate fi alesă în principiu ca potenţă arbitrară “s” din |vi|, estimatorul “Ls” are funcţia

de erori de forma:

ς (vi) = |vi|S (3.95)

se deduce pentru prima derivată cu ajutorul careia se va forma funcţia :

ψ ( vi )=svi|v i|s−2

(3.96)

şi pentru ecuaţiile normale:

Page 49

Page 27: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

∑i=1

n

v i|v i|s−2aij=0 (3.97)

Din (3.97) se observă că funcţia ψ este limitată numai pentru 1 <s <2 şi, prin urmare, numai în acest

domeniu, pot fi determinaţi estimatori robuşti.

Pentru s = 2 rezultă “nerobustul” estimatorul “L2”. cu formula :

ς (v i )=v i2

ψ ( vi )=2 v i(3.98)

Pentru ecuaţia normală rezultă din (3.97) vom avea:

∑i=1

n

v i aij=0 (3.99)

Relaţie care poate fi scrisa cu formulele uzuale:

AT v = 0

Sau AT A x - AT 1 = 0

(3.100)

Estimatorul “L2” corespunde cu modul de abordare a metodei celor mai mici pătrate. Funcţia ψ este o

linie dreaptă, astfel, - după cum este menţionat mai sus - nu are limită deci parametrul de estimare nu

este robust.

Ca o alternativă robustă, a fost introdus mai devreme estimatorul “L1” în geodezie (Fuchs, 1980;

Caspary, 1988; Kampmann, 1986). În acest caz funcţia ψ şi funcţia de eroare sunt :

ς (v i )=|v i|ψ ( vi )=signv i

(3.101)

Pentru estimatorul L1 avem:

∑i=1

n

ς( v i)=∑i=1

n

|v i|→ min (3.102)

Estimatorul “L1” conţine o funcţie ψ limitată şi, prin urmare, este clar robust.

3.2.6.1.1.Metoda modulelor minime (L1):

Metoda modulelor minime poate fi redusă la o aplicaţie iterativă a metodei celor mai mici pătrate astfel:

- Se impune condiţia:

Page 50

Page 28: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

∑i=1

n

|v i|→min im (3.103)

în metoda celor mai mici pătrate avem condiţia:

∑i=1

n

v i2→min im (3.104)

Dificultatea metodei modulelor minime constă în faptul că intervin calcule cu module. Pentru a elimina

acest inconvenient se poate face următorul artificiu:

-se înmulţeşte şi se împarte relaţia (3.104) cu |v i|şi vom avem:

∑i=1

n

|v i|= ∑i=1

n |v i|⋅|v i||v i|

→min im (3.105)

Sau:

∑i=1

n

|v i|= ∑i=1

n

vi2 p i→min im (3.106)

unde s-a notat :

pi=1

|v i| (3.107)

deci metoda modulelor minime a fost transformată în metoda celor mai mici pătrate.

Condiţia:

|v|=∑i=1

n

|v i|→min im (3.108)

se numeşte normă octoedrică şi nu este o funcţie liniară de argumente |v i|.

Totuşi problema găsirii minimului |v| se poate transforma astfel încât să devină o problemă de

programare convexă liniară pe porţiuni, iar determinarea celei mai bune aproximări se poate face prin

una din metodele programării liniare.Din acest motiv metoda poate fi utilizată cu succes la depistarea

erorilor mari(erori grosolane).

Problema minimalizării sumei modulelor abaterilor poate fi redusă (printr-un artificiu relativ

simplu), la aplicarea iterativă a metodei celor mai mici pătrate.

Estimatorul obţinut prin metoda minimalizării sumei are calităţile unui estimator robust. Din acest motiv

metoda poate fi utilizată cu succes la depistarea valorilor extreme (erori grosolane).

Dacă funcţia de repartiţie a abaterilor v este de forma:

Page 51

Page 29: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

f (v i )=1

2 σe−|v|/σ

(3.109)

atunci, aplicând principiul verosimilităţii maxime, cea mai bună aproximare a parametrilor va fi când:

∑i=1

n

|v i|→min im (3.110)

deci o estimare prin metoda modulelor minime.

Procedura poate fi rezumata după cum urmează :

1) Se consideră în prima iteraţie pi=1 (sau ponderea estimată apriori), se aplica metoda celor mai mici

patrate şi se deduc necunoscutele şi corecţiile v i(1)

;

2) În iteraţia a doua cu ajutorul corectiilor obţinute în urma prelucrarii ponderile sunt recalculate cu

ajutorul relatiei

pi=1

|vi(1)|;

3) O nouă prelucarea prin metoda celor mai mici patrate se realizează împreună cu noile ponderi

rezultând noi valori pentru necunoscute şi v i(2)

; Apoi, să revine la pasul 2 şi se continuă iteraţiile până

când procesul se stabilizează (se obţin aproximativ aceleaşi corecţii). Ponderile trebuie evaluate după

fiecare iteraţie pentru a fi utilizate în iteraţia următoare.

În general sunt suficiente 3-6 iteraţii

Page 52

Page 30: Capitolul 3 - Estimatori- Gauss Markov

LUCRARE DE DIPLOMĂ AVRAM LUCIA ALEXANDRA

Fig. 3.6. Funcţia de erori şi funcţia ψ pentru estimatorii L1 și L2

Page 53


Recommended