+ All Categories
Home > Documents > Probabilitati Si Statistica Eugen Paltanea

Probabilitati Si Statistica Eugen Paltanea

Date post: 26-Dec-2015
Category:
Upload: patrascu-mihai-alexandru
View: 328 times
Download: 37 times
Share this document with a friend
Description:
Probabilitati Si Statistica eugen paltanea
67
1 PROBABILIT ˘ AT ¸I S ¸I STATISTIC ˘ A Eugen P˘ alt˘ anea Curs ID - 2013 Universitatea Transilvania din Bra¸ sov
Transcript
Page 1: Probabilitati Si Statistica Eugen Paltanea

1

PROBABILITATI SI STATISTICA

Eugen Paltanea

Curs ID - 2013Universitatea Transilvania din Brasov

Page 2: Probabilitati Si Statistica Eugen Paltanea

2

Page 3: Probabilitati Si Statistica Eugen Paltanea

Cuprins

0.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50.1.1 Date istorice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50.1.2 Descrierea cursului . . . . . . . . . . . . . . . . . . . . . . . . . . . 50.1.3 Principiile de baza. Limbaj . . . . . . . . . . . . . . . . . . . . . . 5

1 Spatii masurabile. Campuri de probabilitate. Scheme clasice de proba-bilitate 71.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Corpuri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3 Spatii masurabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.4 Functii masurabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.5 Campuri de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.6 Evenimente independente, evenimente conditionate . . . . . . . . . . . . . 131.7 Scheme clasice de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . 141.8 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.9 Test 1 de evaluare/autoevaluare . . . . . . . . . . . . . . . . . . . . . . . . 221.10 Competente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2 Variabile aleatoare. Caracteristici numerice 252.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.2 Variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.3 Functia de repartitie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262.4 Variabile aleatoare discrete. Exemple clasice . . . . . . . . . . . . . . . . . 282.5 Variabile aleatoare continue. Exemple clasice . . . . . . . . . . . . . . . . . 292.6 Media. Medii de ordin superior . . . . . . . . . . . . . . . . . . . . . . . . 322.7 Dispersia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.8 Corelatia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.9 Functia caracteristica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.10 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382.11 Test 2 de evaluare/autoevaluare . . . . . . . . . . . . . . . . . . . . . . . . 452.12 Competente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3 Convergenta sirurilor de variabile aleatoare 473.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473.2 Inegalitati fundamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473.3 Tipuri de convergenta. Relatii . . . . . . . . . . . . . . . . . . . . . . . . . 483.4 Legile numerelor mari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503.5 Teorema limita centrala . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3

Page 4: Probabilitati Si Statistica Eugen Paltanea

4

3.6 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.7 Test 3 de evaluare/autoevaluare . . . . . . . . . . . . . . . . . . . . . . . . 553.8 Competente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

4 Elemente de statistica matematica 574.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574.2 Notiuni de baza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574.3 Estimatori. Proprietati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584.4 Estimatori bayesieni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604.5 Rezumat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624.6 Test 4 de evaluare/autoevaluare . . . . . . . . . . . . . . . . . . . . . . . . 644.7 Competente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

Page 5: Probabilitati Si Statistica Eugen Paltanea

5

0.1 Introducere

0.1.1 Date istorice

Teoria probabilitatilor1 si statistica matematica studiaza fenomenele aleatoare, ın scopulpredictiei sanselor de realizare a unor rezultate asteptate. Studiul se bazeaza pe modelarematematica si rationamente deductive.

Bazele teoriei probabilitatilor si statisticii (studiului matematic al ”hazardului”) au fostpuse ın secolele XVI-XVII. Astfel, Gerolamo Cardano scria ın 1526 prima carte dedicataunor concepte probabiliste: Liber de ludo aleae (”Cartea jocurilor de noroc”), publicataın 1663. Contributii majore la punerea bazelor teoriei probabilitatilor au avut matemati-cienii francezi Blaise Pascal si Pierre de Fermat (ınceputul sec. al XVII-lea). In 1657,Cristiaan Huygens publica lucrarea De ratiociniis in ludo aleae (”Asupra rationamentelorın jocurile de noroc”). Doctrina probabilitatilor se contureaza ın sec. al XVIII-lea prinlucrarile fundementale Ars conjectandi, publicata ın 1713 de Jacob Bernoulli si The Doc-trine of Chances, publicata ın 1718 de Abraham de Moivre. Un secol mai tarziu, PierreSimon Laplace publica lucrarea Theorie analytique des probabilitees, ın care evidentiazalegea erorilor (convergenta la legea normala). Teoria moderna a probabilitatilor (incluzandformalizarea axiomatica) este datorata ın buna masura matematicianului rus Andrei Niko-laevici Kolmogorov, autorul cartii Foundation of the Theory of Probability, publicata ın1950. Printre lucrarile de referinta ın domeniu ale secolului XX trebuiesc amintite TheTheory of Stochastic Processes (D.R Cox, H.D. Miller, 1965), An Introduction to Proba-bility Theory (W. Feller, 1968) si Probability and Measure (P. Billingsley, 1979). In ul-timii 60 de ani, studiul proceselor aleatoare cunoaste o dezvoltare si diversificare teoreticaexponentiala, dar si un camp foarte larg de aplicabilitate.

Scoala romaneasca de probabilitati se remarca prin numeroase contributii originale.Bazele acestei scoli se datoreaza ın principal matematicienilor C. T. Ionescu-Tulcea, Ghe-orghe Mihoc, Octav Onicescu, Ion Cuculescu, Marius Iosifescu si Constantin Tudor.

0.1.2 Descrierea cursului

Prezentul curs reprezinta o introducere ın teoria probabilitatilor si statisticii matematice.Sunt descrise si caracterizate concepte de baza ale domeniului: campuri de probabilitate,variabile aleatoare si convergenta sirurilor de variabile aleatoare, esantioane, estimatoristatistici etc. Pentru studiul acestor notiuni sunt necesare cunostinte elementare de analizamatematica si teoria masurii. Cunostintele teoretice sunt exemplificate si aplicate ın prob-leme si lucrari de laborator, menite sa familiarizeze cursantul cu rationamentele specificedomeniului si cu utilizarea unor softuri informatice.

0.1.3 Principiile de baza. Limbaj

Teoria probabilitatilor analizeaza sansele de realizare a unor evenimente ın urma uneiexperiente si este fundamentata pe urmatoarele trei principii:

1. Fiecarui eveniment rezultat ın urma unei experiente i se atribuie un numar real dinintervalul [0, 1] numit probabilitatea evenimentului.

1Etimologie: probabilitas (lat.) = credibilitate

Page 6: Probabilitati Si Statistica Eugen Paltanea

6

2. Oricare doua evenimente contrare au suma probabilitatilor egala cu 1.

3. Probabilitatea de realizare simultana a doua evenimente este egala cu produsul dinteprobabilitatea realizarii unuia dintre evenimente si probabilitatea realizarii celuilalteveniment, conditionata de realizarea primului eveniment.

In formalizarea matematica, evenimentele care pot rezulta ın urma efectuarii unei experientereprezinta submultimi ale unei multimi Ω (interpretata ca ”evenimentul sigur”). Acesteevenimente au o probabilitate de aparitie (sansa de realizare). Matematic, probabilitateaeste o masura finita, definita pe multimea evenimentelor. Astfel, limbajului probabilisticıi corespunde limbajul multimilor.

Urmatoarea schema evidentiaza dualitatea de limbaj (relativ la o anumita experienta):

• evenimentul sigur = multimea totala (de referinta): Ω;

• evenimentul imposibil = multimea vida: ∅;

• evemiment = submultime a multimii totale: A ⊂ Ω;

• realizarea unui eveniment asigura realizarea unui alt eveniment (implicatia eveni-mentelor) = incluziunea multimilor: A ⊂ B;

• evenimentul contrar (unui eveniment) = complementara unei submultimi a multimiitotale: Ac = Ω \ A;

• evenimentul realizarii a cel putin unuia dintre doua evenimente (disjunctia eveni-mentelor) = reuniunea multimilor: A ∪B;

• evenimentul realizarii simultane a doua evenimente (conjunctia evenimentelor) =intersectia multimilor: A ∩B;

Page 7: Probabilitati Si Statistica Eugen Paltanea

Unitatea de ınvatare 1

Spatii masurabile. Campuri deprobabilitate. Scheme clasice deprobabilitate

1.1 Introducere

Vom defini si caracteriza ın continuare notiunea de spatiu masurabil (camp de evenimente)si functiile masurabile, definite ıntre spatii masurabile. Notiunile respective modeleazamatematic rezultatele posibile ale unei experiente (evenimentele posibile) si corespondentelespecifice asociate unor experiente. Astfel, definim notiunile: corp, σ-corp, borelianul unuispatiu topologic, spatiu masurabil, functie masurabila si evidentiem proprietatile lor debaza. Se introduce notiunea de camp de probabilitate si se pregateste definirea conceptu-lui de variabila aleatoare. Sunt evidentiate proprietatile probabilitatii, definita ca masurafinita pe spatiul evenimentelor (σ-corpul evenimentelor). Este discutata independentaevenimentelor si notiunea de probabilitate conditionata. Exemplele elementare de campuride probabilitate discrete sunt particularizate ın modelele clasice (scheme de probabilitate),adaptate studiului unor fenomene aleatoare.

1.2 Corpuri

Notiune de corp (de multimi) reprezinta cadrul minimal de modelare matematica a setuluievenimentelor posibile rezultate ın urma unei experiente cu rezultate aleatoare.

Definitia 1.2.1. Fie Ω o multime nevida. O familie nevida C de submultimi ale lui Ω(C ⊂ P(Ω)) se numeste corp a lui Ω daca satisface proprietatile:

C1. Ac ∈ C, ∀ A ∈ C;

C2. A ∪B ∈ C, ∀ A,B ∈ C.

Definitia de mai sus are o serie de consecinte imediate.

Propozitia 1.2.1. Fie C un corp a lui Ω. Au loc proprietatile urmatoare:

C3. ∪ni=1Ai ∈ C, ∀ Ai ∈ C, i = 1, n, n ≥ 2;

7

Page 8: Probabilitati Si Statistica Eugen Paltanea

8

C4. ∩ni=1Ai ∈ C, ∀ Ai ∈ C, i = 1, n, n ≥ 2;

C5. ∅,Ω ∈ C;

C6. A \B ∈ C, ∀ A,B ∈ C.

Demonstratie. C3 se verifica prin inductie. C4 rezulta din urmatoarea relatie (De Mor-gan): ∩ni=1Ai = (∪ni=1A

ci)c si proprietatile C1 si C3. Pentru C5, consideram A ∈ C; avem

Ω = A ∪ Ac ∈ C si ∅ = A ∩ Ac ∈ C. C6 se obtine din relatia: A \B = A ∩Bc si C4.

Vom considera ın continuare intersectii de corpuri ale unei multimi fixate.

Propozitia 1.2.2. O intersectie de corpuri ale unei multimi date este un corp al aceleimultimi.

Demonstratie. Fie Ci : i ∈ I o familie de corpuri ale multimii Ω. Notam C =∩i∈ICi ⊂ P(Ω). Evident, Ω ∈ C (cf. P3), deci C 6= ∅. Daca A ∈ C, atunci A ∈ Ci, ∀ i ∈ I,de unde Ac ∈ Ci, ∀ i ∈ I (cf. C1), deci Ac ∈ C. Similar se verifica A∪B ∈ C, ∀ A,B ∈ C.Rezulta ca C este un corp a lui Ω.

Rezultatul de mai sus este util ın studiul corpurilor generate de familii de parti alemultimii totale considerate.

Definitia 1.2.2. Fie Ω 6= ∅ si M ⊂ P(Ω), M 6= ∅. Fie P = C − corp a lui Ω |M ⊂ C.Atunci multimea

C(M) =⋂C∈P

C

se numeste corpul generat de M.

Vom observa la C(M) este cel mai mic corp a lui Ω care include familia de parti M alui Ω. Ne vom referi acum la cazul corpurilor finite.

Propozitia 1.2.3. Fie Ω 6= ∅.

1. Daca M ⊂ P(Ω), M 6= ∅, este o multime finita, atunci corpul C(M) este finit.

2. Daca C este un corp finit a lui Ω, atunci exista o partitie finita ∆ = A1, A2, · · · , Ana lui Ω astfel ca

C = ∪i∈IAi : I ⊂ 1, 2, · · · , n.

Demonstratie.1. Fie multimile finite Mc = Ac : A ∈ M, M1 = M ∪Mc, M2 = ∩A∈HA : H ⊂ M1si M3 = ∪A∈G : G ⊂M2. Atunci C(M) = M3, deci este finit.2. Partitia ∆ este formata din multimile nevide A ∈ C, avand proprietatea urmatoareB ⊂ A ⇒ B = A sau B = ∅, ∀ B ∈ C.

Page 9: Probabilitati Si Statistica Eugen Paltanea

9

1.3 Spatii masurabile

Notiunea de corp (de multimi), definita ın paragraful enterior, va fi extinsa ın cele ceurmeaza la cea de σ− corp. Aceasta va permite introducerea notiunii de spatiu masurabil(camp de evenimente).

Definitia 1.3.1. Fie Ω o multime nevida. O multime nevida F ⊂ Ω se numeste σ− corpa lui Ω daca satisface urmatoarele conditii:

σ1. Ac ∈ F, ∀ A ∈ F;

σ2. daca An ∈ F, ∀n ∈ N∗ atunci ∪∞n=1An ∈ F.

Perechea (Ω,F) se numeste spatiu masurabil sau camp de evenimente.

Vom observa ca orice σ− corp F a lui Ω este un corp a lui Ω. Astfel, pentru A,B ∈ F

consideram sirul (An)n≥1 definit prin A1 = A si An = B, ∀ n ≥ 1. Conform σ1, avemA∪B = ∪∞n=1An ∈ F. Deducem ca σ-corpul F este corp. Ca urmare, proprietatile C3−C6

raman valabile ıntr-un σ-corp. Alte proprietati sunt descrise ın propozitia urmatoare.

Propozitia 1.3.1. Fie (Ω,F) un spatiu masurabil. Au loc urmatoarele proprietati:

σ3. An ∈ F, ∀n ∈ N∗ ⇒ ∩∞n=1An ∈ F;

σ4. An ∈ F, ∀n ∈ N∗ ⇒ lim supn→∞An ∈ F, lim infn→∞An ∈ F,unde lim supn→∞An = ∩∞n=1 ∪∞k=n Ak si lim infn→∞An = ∪∞n=1 ∩∞k=n Ak.

Demonstratie. σ3. Conform relatiilor lui De Morgan si Definitiei 1.3.1, avem: ∩∞n=1An =(∪∞n=1A

cn)c ∈ F.

σ4. Se aplica σ2 si P5.

Remarcam ca familiile F1 = P(Ω) si F2 = ∅,Ω reprezinta σ-corpuri (deci si corpuri)elementare ale lui Ω.

Intersectia unor σ-corpuri ale unei multimi este de asemenea un σ-corp al multimiirespective, demonstratia fiind similara celei din Propozitia 1.2.2.

Propozitia 1.3.2. Daca Fi, i ∈ I, reprezinta o familie oarecare de σ−corpuri ale multimiiΩ, atunci ∩i∈IFi reprezinta de asemenea un corp al multimii Ω.

Proprietatea de mai sus permite definirea notiunii de σ-corp generat de o multime departi (submultimi) ale unei multimi Ω.

Definitia 1.3.2. Fie Ω o multime nevida si M ⊂ P(Ω). Intersectia tuturor σ−corpurilorlui Ω care includ multimea M se numeste σ − corpul generat de M si se noteaza B(M).

Multimea B(M) este cel mai mic σ-corp a lui Ω care include pe M. Un caz particularfoarte important este cel ın care multimea M este o topologie pe spatiul Ω.

Page 10: Probabilitati Si Statistica Eugen Paltanea

10

Definitia 1.3.3. Fie (Ω,O) un spatiu topologic, unde O reprezinta topologia lui Ω (familiamultimilor deschise). Atunci σ − corpul generat de multimea O se numeste borelianulspatiului topologic (Ω,O) si se noteaza (atunci cand nu este pericol de confuzie) prin BΩ .

Topologia OR a multimii numerelor reale R este familia reuniunilor cel mult numarabilede intervale deschise disjuncte. Se poate demonstra ca borelianul BR al spatiului topologic(R,OR) contine toate tipurile de intervale si reuniunile cel mult numarabile ale acestora.Reciproc, BR coincide cu σ - corpul generat de oricare tip de intervale reale.

1.4 Functii masurabile

Descriem ın continuare functiile ”specifice” spatiilor masurabile.

Definitia 1.4.1. Fie (Ω,F) si (Ω′,F′) o pereche de spatii masurabile (campuri de eveni-mente). O functie f : Ω→ Ω′ se numeste functie masurabila daca

f−1(A) ∈ F, ∀ A ∈ F′,

unde f−1(A) = ω ∈ Ω | f(ω ∈ A.

In particular, daca Ω′ = R si F′ = BR, functia f se va numi functie reala masurabila.De remarcat faptul ca, pentru o functie reala masurabila f : Ω→ R, avem:

• f ≤ a := f−1((−∞, a]) ∈ F, ∀ a ∈ R

• f > a := f−1((a,∞)) ∈ F, ∀ a ∈ R

• a ≤ f ≤ b := f−1([a, b]) ∈ F, ∀ a, b ∈ R, a < b.

Conservarea masurabilitatii prin operatii algebrice este stabilita de propozitia urmatoare.

Propozitia 1.4.1. Fie (Ω,F) un spatiu masurabil. Daca f, g : Ω → R sunt functii realemasurabile si a ∈ R atunci functiile reale f+a, af, |f |, f+g, fg, minf, g si maxf, gsunt masurabile.

Functiie continue sunt masurabile. Astfel, are loc:

Propozitia 1.4.2. Daca (Ω,BΩ) este un spatiu masurabil, cu BΩ reprezentand borelianuldefinit de o topologie pe Ω, iar f : Ω→ R este o functie continua, atunci f este o functiereala masurabila.

Notiunea de functie reala masurabila serveste definirii notiunii de variabila aleatoare.

Page 11: Probabilitati Si Statistica Eugen Paltanea

11

1.5 Campuri de probabilitate

Notiunea de camp de probabilitate este fundamentala ın teoria probabilitatilor. Un campde probabilitate este un spatiu masurabil dotat cu o masura finita numita ”probabilitate”.

Definitia 1.5.1. Fie (Ω,F) un spatiu masurabil, cu σ − corpul F denumit ”multimeaevenimentelor”. O functie P : F → R se numeste probabilitate daca satisface urmatoareleaxiome:

P1. P(A) ≥ 0, ∀ A ∈ F;

P2. P(Ω) = 1;

P3. Pentru oricare sir de evenimente (An)n∈N∗, cu An∩Am = ∅, ∀ n 6= m, are loc relatia

P (∪∞n=1An) =∞∑n=1

P(An).

Tripletul (Ω,F,P) se numeste camp de probabilitate.

Ultima proprietate a definitiei de mai sus se refera la siruri de evenimente. In contin-uare, ne vom referi la sirurile monotone de evenimente si limitele de siruri de evenimente.

Definitia 1.5.2. Fie (An)n∈N∗ un sir de evenimente din campul de probabilitate (Ω,F,P).

1. Sirul (An)n∈N∗ se numeste monoton crescator daca An ⊂ An+1, ∀ n ≥ 1. FieA = ∪∞n=1An ∈ F. Notam limn→∞An = A si A ↑ A.

2. Sirul (An)n∈N∗ se numeste monoton descrescator daca An+1 ⊂ An, ∀ n ≥ 1. FieA = ∩∞n=1An ∈ F. Notam limn→∞An = A si A ↓ A.

3. Limita superioara a sirului (An)n∈N∗ se defineste prin

lim supn→∞

An = ∩∞n=1 ∪∞k=n Ak ∈ F.

4. Limita inferioara a sirului (An)n∈N∗ se defineste prin

lim infn→∞

An = ∪∞n=1 ∩∞k=n Ak ∈ F.

Probabilitatea are o serie de proprietati fundamentale care decurg din Definitia 1.5.1.Aceste proprietati caracterizeaza ın fapt o masura finita.

Propozitia 1.5.1. Fie (Ω,F,P) un camp de probabilitate. Au loc urmatoarele proprietati

P4. P(∅) = 0;

P5. P(A ∪B) = P(A) + P(B), ∀ A,B ∈ F, A ∩B = ∅;

P6. P(Ac) = 1− P(A), ∀ A ∈ F;

Page 12: Probabilitati Si Statistica Eugen Paltanea

12

P7. P(A \B) = P(A)− P(B), ∀ A,B ∈ F, B ⊂ A;

P8. P(A) ≤ P(B), ∀ A,B ∈ F, A ⊂ B;

P9. P(A) ∈ [0, 1], ∀ A ∈ F;

P10. (Formula lui Poincare)

P(∪ni=1Ai) =n∑k=1

(−1)k+1∑

1≤i1<i2<···<ik≤n

P(∩kj=1Aij);

P11. Daca (An)n≥1 este un sir monoton (crescator sau descrescator) de evenimente, culimn→∞An = A, atunci limn→∞ P(An) = P(A).

P12. Pentru oricare sir de evenimente (An)n∈N∗ avem

P (∪∞n=1An) ≤∞∑n=1

P(An).

Demonstratie.P4. Presupunem, prin absurd, ca P(∅) = p > 0. Consideram sirul An = ∅, n ∈ N∗.Conform [P3], P(∅) = P(∪∞n=1(An) =

∑∞n=1 P(An) =∞. Contradictie.

P5. Alegem sirul An = ∅, n ≥ 3, A1 = A si A2 = B si aplicam [P3], [P4].P6. Relatia rezulta din Ac ∪ A = Ω si proprietatile [P2], [P5].P7. Se obtine din A = B ∪ (A \B) si [P5].P8. Rezulta din proprietatea anterioara, [P7].P9. Consecinta a proprietatilor [P1], [P2] si [P8].P10. Formula se demonstreaza prin inductie matematica.P11. Presupunem An ↓ ∅. Avem A1 = ∪∞n=1 (An \ An+1), cu (Ai \ Ai+1) ∩ (Aj \ Aj+1) =∅, ∀ i 6= j. Atunci P(A1) =

∑∞n=1 P (An \ An+1). Rezulta limn→∞

∑∞k=n P (Ak \ Ak+1) = 0.

Dar∑∞

k=n P (Ak \ Ak+1) = P (∪∞n=1 (An \ An+1)) = P(An). Deci limn→∞ P(An) = 0 =P(∅).Presupunem An ↓ A. Atunci (An \ A) ↓ ∅, de unde limn→∞ P(An \ A) = 0 si obtinemlimn→∞ P(An) = P(A).Presupunem A ↑ A. Atunci Ac ↓ Ac. Rezulta limn→∞ P(Acn) = P(Ac), de unde obtinemlimn→∞ P(An) = P(A).P12. Definim sirul de evenimente (Bn)n≥1, B1 = A1, Bn = An \

(∪n−1k=1Ak

)⊂ An, ∀ n > 1.

Avem ∪nk=1Bk = ∪nk=1Ak, ∀ n ≥ 1 si Bi ∩ Bj = ∅, ∀ i 6= j. Ca urmare, conformproprietatilor [P3] si [P8], avem

P (∪∞n=1An) = P (∪∞n=1Bn) =∞∑n=1

P(Bn) ≤∞∑n=1

P(An),

ceea ce trebuia demonstrat.

Page 13: Probabilitati Si Statistica Eugen Paltanea

13

1.6 Evenimente independente, evenimente conditionate

Un fenomen important studiat de teoria probabilitatilor este cel al dependentei (respectivindependentei) evenimentelor.

Definitia 1.6.1. Fie (Ω,F,P) un camp de probabilitate. Consideram un eveniment A ∈ F,cu P(A) > 0. Pentru oricare eveniment B ∈ F numim probabilitatea lui B conditionatade (realizarea evenimentului) A marimea:

P(B|A) :=P(B ∩ A)

P(A).

Evenimentele A si B se numesc independente daca P(B|A) = P(B), adica P(A ∩ B) =P(A)P(B).Mai general, G ⊂ F se numeste familie de evenimente independente daca pentru oricareevenimente distincte A1, A2, · · · , An ∈ G avem

P (∩ni=1Ai) =n∏i=1

P(Ai).

Se constata astfel ca doua evenimente sunt independente daca probabilitatea realizariiunuia dintre acestea nu este influientata de realizarea celuilalt. Se arata cu usurinta caevenimentele contrare ale unor evenimente independente sunt de asemenea independente.Pe de alta parte, conceptul de evenimente conditionate permite considerarea sistemelorcomplete de evenimente.

Definitia 1.6.2. Evenimentele Ai, i ∈ I, unde I este o multime cel mult numrabila deindici, formeaza un sistem complet de evenimente ın campul de probabilitate (Ω,F,P)daca:

1. Ai ∩ Aj = ∅, ∀ i 6= j

2. ∪i∈IAi = Ω

3. P(Ai) > 0, ∀ i ∈ I

Propozitia 1.6.1. Fie (Ω,F,P) un camp de probabilitate, iar Ai, i ∈ I, un sistem completde evenimente. Daca A este un eveniment cu probabilitate nenula, atunci loc:

1. Formula probabilitatii totale

P(A) =∑i∈I

P(A|Ai)P(Ai)

2. Formula lui Bayes

P(Ak|A) =P(A|Ak)P(Ak)∑i∈I P(A|Ai)P(Ai)

, ∀ k ∈ I.

Page 14: Probabilitati Si Statistica Eugen Paltanea

14

Demonstratie.1. Avem

A = A ∩ Ω = A ∩ (∪i∈IAi) = ∪i∈I (A ∩ Ai) .

Deoarece evenimentele A ∩ Ai, i ∈ I sunt incompatibile doua cate doua, obtinem

P(A) =∑i∈I

P (A ∩ Ai) =∑i∈I

P (A|Ai) P (Ai) ,

deci formula probabilitatii totale este demonstrata.2. Fie k ∈ I. Conform Definitiei 1.6.1 si formulei probabilitatii totale, obtinem

P(Ak|A) =P(A ∩ Ak)

P(A)=

P(A|Ak)P(Ak)∑i∈I P(A|Ai)P(Ai)

,

deci formula lui Bayes este demonstrata.

1.7 Scheme clasice de probabilitate

Prezentam ın continuare modelele de baza de cmpuri de probabilitate (discrete).

1. Campul lui Laplace.Spatiul Ω este considerat o multime finita, iar σ−corpul F este considerat multimeaP(Ω) (multimea submultimilor lui Ω). Probabilitatea unui eveniment A ⊂ Ω sedefineste prin:

P(A) =|A||Ω|

,

unde |M | reprezintanumarul elementelor unei multimi finite M . Elementele lui Ωdetermina evenimentele elementare, echiprobabile. Astfel, pentru ω ∈ Ω, avem

P(ω) =1

n,

unde n = |Ω|.

2. Camp discret de evenimente.Consideram Ω = ωi : i ∈ I, unde multimea de indici I este cel mult numarabila.Definim F = P(Ω). Consideram o masura de probabilitate (pi)i∈I pe multimea Ω,unde pi ≥ 0, ∀ i ∈ I si

∑i∈I pi = 1. Probabilitatea unui eveniment A = ωj : j ∈ J,

cu J ⊂ I, se defineste prin

P(A) =∑j∈J

pj.

Modelele de mai sus se materializeaza concret ın scheme de probabilitate. Este vorbaexemple cu un grad mare de generalitate si utilizare frecventa ın calculul probabilitatilor.Prezentam ın continuare cele mai cunoscute scheme de probabilitate.

Page 15: Probabilitati Si Statistica Eugen Paltanea

15

1. Schema lui Bernoulli.Este un exemplu de camp Laplace. Schema modeleaza urmatoarea experienta:O urna contine c bile, dintre care a sunt albe si b sunt negre (a+b=c). Se extrageo bila, i se ınregistreaza culoarea, iar apoi se reintroduce ın urna. Se repeta aceastaexperienta de n ori. Se studiaza probabilitatea evenimentului Ak|n al aparitiei bileialbe de k ori ın cele n extrageri (cu repunerea bilei ın urna).Notam Pk|n = P

(Ak|n

)probabilitatea evenimentului mentionat. Un rationament

elementar ne conduce la formula de calcul

Pk|n = Cknp

kqn−k, k = 0, 1, · · · , n,

unde p = a/c este probabilitatea aparitiei unei bile la o extragere, iar q = b/c = 1−peste probabilitatea evenimentului contrar (aparitia unei bile negre).

Modelul este echivalent cu repetarea unei experiente (ın conditii identice) de n orisi studiul probabilitatii realizarii unui anumit eveniment de k ori (din totalul de nexperiente).

Remarcam

n∑k=0

P(Ak|n

)=

n∑k=0

Pk|n =n∑k=0

Cknp

kqn−k = (q + p)n = 1,

deci evenimentele Ak|n, k = 0, 1, · · · , n, reprezinta un sistem complet.

2. Schema multinomiala.Este o extindere a schemei lui Bernoulli.Se considera o urna continand bile de s culori, cate ai bile din culoarea i ∈ 1, 2, · · · , s.Notam

pi =ai∑sj=1 aj

probabilitatea extragerii unei bile de culoarea i ∈ 1, 2, · · · , s. Se fac n extrageri, curepunerea bilei ın urna dupa fiecare extragere. Fie (ki)i=1,s un vector de dimensiunes, cu componente naturale, avand proprietatea

∑si=1 ki = n. Notam

P(ki)i=1,s|n

probabilitatea evenimentului A(ki)i=1,s|n de extragere a exact ki bile de culoarea i,unde i = 1, 2, · · · , s, din totalul de n bile extrase. Se constata ca

P(ki)i=1,s|n =

(n

k1, k2, · · · , ks

)pk11 p

k22 · · · pkss ,

unde (n

k1, k2, · · · , ks

)=

n!

k1!k2! · · · ks!reprezinta combinarile multinomiale de n luate cate k1, k2, · · · , ks.Avem ∑

(ki)∈Ns;∑si=1 ki=n

P(ki)i=1,s|n =∑

(ki)∈Ns;∑si=1 ki=n

(n

k1, k2, · · · , ks

)pk11 p

k22 · · · pkss =

Page 16: Probabilitati Si Statistica Eugen Paltanea

16

= (p1 + p2 + · · ·+ ps)n = 1,

deci A(ki)i=1,s|n, cu (ki) ∈ Ns, astfel ca∑s

i=1 ki = n, formeaza un sistem complet deevenimente.

3. Schema lui Poisson.Reprezinta o generalizare a schemei lui Bernoulli. Se considera n urne cu bile albe sinegre, dar ın proportii diferite. Fie pi probabilitatea extragerii unei bile albe din urnai. Probabilitatea extragerii unei bile negre din urna i va fi qi = 1−pi, i = 1, 2, · · · , n.Se extrage cate o bila din fiecare urna. Se analizeaza probabilitatea evenimentuluiAk|n de a obtine exact k bile albe din cele n extrase. Notam Nn = 1, 2, · · · , n.Avem

Pk|n = P(Ak|n

)=

∑I⊂Nn; |I|=k

∏i∈I

pi∏

j∈Nn\I

qj.

Observam ca Pk|n reprezinta coeficientul lui xk al polinomului

f(x) = (p1x+ q1) (p2x+ q2) · · · (pnx+ qn) .

Evident,n∑k=0

Pk|n = f(1) = 1,

deci evenimentele Ak|n, k = 0, 1, · · · , n, reprezinta un sistem complet.

4. Schema geometrica.Schema este un exemplu de camp discret de evenimente. Astfel, se repeta continuu oexperienta, ın conditii identice, urmarindu-se de fiecare data realizarea unui anumiteveniment A. Fie P(A) = p. Consideram momentul ın care evenimentul A serealizeaza pentru prima data. Fie n ∈ N∗. Probabilitatea ca evenimentul A sa serealizeze pentru prima data ın cea de a n-a experienta este

pn = pqn−1,

unde q = 1− p. Avem

∞∑n=1

pn =∞∑n=1

pqn−1 = p∞∑k=0

qk =p

1− q= 1.

5. Schema hipergeometrica.Se considera o urna cu N bile, dintre care a bile sunt albe iar restul de b bile suntnegre (a+b = N). Se extrag n bile (fara a le repune ın urma dupa fiecare extragere).Notam pk|n probabilitatea evenimentului Ak|n de a avea exact k bile albe ıntre celen bile extrase. Presupunem n ≤ N, k ≤ a si n− k ≤ b. Atunci

pk|n =CkaC

n−kb

CnN

.

Conform unei formule combinatoriale binecunoscute, obtinem

mina,n∑k=max0,n−b

pk|n =

mina,n∑k=max0,n−b

CkaC

n−kb

CnN

= 1,

Page 17: Probabilitati Si Statistica Eugen Paltanea

17

deci Ak|n, max0, n − b ≤ k ≤ mina, n, formeaza un sistem complet de eveni-mente.

6. Schema hipergeometrica generalizata.Se considera o urna cu N bile de s culori. Fie ai numarul de bile de culoarea i, i =1, 2, · · · , s. Avem deci

∑si=1 ai = N . Se extrag, fara repunere, n bile. Consideram

vectorul (ki) ∈ Ns, cu∑s

i=1 ki = n, astfel ıncat ki ≤ ai, i = 1, 2, · · · , s. Atunciprobabilitatea extragerii a ki bile din culoarea i, pentru fiecare i ∈ 1, 2, · · · , s, este

p(ki) =Ck1a1Ck2a2· · ·Cks

as

CnN

.

Page 18: Probabilitati Si Statistica Eugen Paltanea

18

1.8 Rezumat

In teoria probabilitatilor, evenimentele rezultate ın urma unei experiente sunt interpretateca o familie de submultimi ale evenimentului sigur, multimea Ω. Multimea evenimentelorformeaza un σ − corp (borelian).

O multime nevida F ⊂ Ω se numeste σ − corp a lui Ω daca satisface urmatoareleconditii:

σ1. Ac ∈ F, ∀ A ∈ F;

σ2. daca An ∈ F, ∀n ∈ N∗ atunci ∪∞n=1An ∈ F.

Perechea (Ω,F) se numeste spatiu masurabil sau camp de evenimente.Borelianul lui Ω = R, notat BR este σ−corpul generat de multimile deschise (topologia

lui R), adica cel mai mic σ − corp a lui R care include multimile deschise. BR continetoate tipurile de intervale si este generat de oricare tip de intervale reale.

Fie (Ω,F) si (Ω′,F′) o pereche de spatii masurabile (campuri de evenimente). O functief : Ω→ Ω′ se numeste functie masurabila daca

f−1(A) ∈ F, ∀ A ∈ F′,

unde f−1(A) = ω ∈ Ω | f(ω ∈ A.In particular, daca Ω′ = R si F′ = BR, functia f se va numi functie reala masurabila.

Pentru o functie reala masurabila f : Ω→ R, avem:

• f ≤ a := f−1((−∞, a]) ∈ F, ∀ a ∈ R

• f > a := f−1((a,∞)) ∈ F, ∀ a ∈ R

• a ≤ f ≤ b := f−1([a, b]) ∈ F, ∀ a, b ∈ R, a < b.

Daca f, g : Ω → R sunt functii reale masurabile si a ∈ R atunci functiile reale f +a, af, |f |, f + g, fg, minf, g si maxf, g sunt masurabile.

Fie (Ω,F) un spatiu masurabil, cu σ − corpul F denumit ”multimea evenimentelor”.O functie P : F → R se numeste probabilitate daca satisface urmatoarele axiome:

P1. P(A) ≥ 0, ∀ A ∈ F;

P2. P(Ω) = 1;

P3. Pentru oricare sir de evenimente (An)n∈N∗ , cu An∩Am = ∅, ∀ n 6= m, are loc relatia

P (∪∞n=1An) =∞∑n=1

P(An).

Tripletul (Ω,F,P) se numeste camp de probabilitate.Probabilitatea are proprietatile:

P4. P(∅) = 0;

P5. P(A ∪B) = P(A) + P(B), ∀ A,B ∈ F, A ∩B = ∅;

Page 19: Probabilitati Si Statistica Eugen Paltanea

19

P6. P(Ac) = 1− P(A), ∀ A ∈ F;

P7. P(A \B) = P(A)− P(B), ∀ A,B ∈ F, B ⊂ A;

P8. P(A) ≤ P(B), ∀ A,B ∈ F, A ⊂ B;

P9. P(A) ∈ [0, 1], ∀ A ∈ F;

P10. (Formula lui Poincare)

P(∪ni=1Ai) =n∑k=1

(−1)k+1∑

1≤i1<i2<···<ik≤n

P(∩kj=1Aij);

P11. Daca (An)n≥1 este un sir monoton (crescator sau descrescator) de evenimente, culimn→∞An = A, atunci limn→∞ P(An) = P(A).

P12. Pentru oricare sir de evenimente (An)n∈N∗ avem

P (∪∞n=1An) ≤∞∑n=1

P(An).

Consideram un eveniment A ∈ F, cu P(A) > 0. Pentru oricare eveniment B ∈ F,numim probabilitatea lui B conditionata de (realizarea evenimentului) A marimea:

P(B|A) :=P(B ∩ A)

P(A).

Evenimentele A si B se numesc independente daca P(B|A) = P(B), adica P(A ∩ B) =P(A)P(B).Mai general, G ⊂ F se numeste familie de evenimente independente daca pentru oricareevenimente distincte A1, A2, · · · , An ∈ G avem

P (∩ni=1Ai) =n∏i=1

P(Ai).

Astfel, doua evenimente sunt independente daca probabilitatea realizarii unuia dintre aces-tea nu este influientata de realizarea celuilalt.

Evenimentele Ai, i ∈ I, unde I este o multime cel mult numrabila de indici, formeazaun sistem complet de evenimente ın campul de probabilitate (Ω,F,P) daca:

1. Ai ∩ Aj = ∅, ∀ i 6= j

2. ∪i∈IAi = Ω

3. P(Ai) > 0, ∀ i ∈ I

Daca A este un eveniment cu probabilitate nenula (neneglijabil), atunci loc:

1. Formula probabilitatii totale

P(A) =∑i∈I

P(A|Ai)P(Ai)

Page 20: Probabilitati Si Statistica Eugen Paltanea

20

2. Formula lui Bayes

P(Ak|A) =P(A|Ak)P(Ak)∑i∈I P(A|Ai)P(Ai)

, ∀ k ∈ I.

Modelele de baza de cmpuri de probabilitate discrete:

1. Campul lui Laplace.Spatiul Ω este considerat o multime finita, iar σ−corpul F este considerat multimeaP(Ω) (multimea submultimilor lui Ω). Probabilitatea unui eveniment A ⊂ Ω sedefineste prin:

P(A) =|A||Ω|

,

unde |M | reprezintanumarul elementelor unei multimi finite M . Elementele lui Ωdetermina evenimentele elementare, echiprobabile. Astfel, pentru ω ∈ Ω, avem

P(ω) =1

n,

unde n = |Ω|.

2. Camp discret de evenimente.Consideram Ω = ωi : i ∈ I, unde multimea de indici I este cel mult numarabila.Definim F = P(Ω). Consideram o masura de probabilitate (pi)i∈I pe multimea Ω,unde pi ≥ 0, ∀ i ∈ I si

∑i∈I pi = 1. Probabilitatea unui eveniment A = ωj : j ∈ J,

cu J ⊂ I, se defineste prin

P(A) =∑j∈J

pj.

Schemele de probabilitate reprezinta modele/exemple cu un grad mare de generalitateın calculul probabilitatilor.

1. Schema lui Bernoulli.Este un exemplu de camp Laplace. Schema modeleaza urmatoarea experienta:O urna contine c bile, dintre care a sunt albe si b sunt negre (a+b=c). Se extrageo bila, i se ınregistreaza culoarea, iar apoi se reintroduce ın urna. Se repeta aceastaexperienta de n ori. Se studiaza probabilitatea evenimentului Ak|n al aparitiei bileialbe de k ori din cele n extrageri (cu repunerea bilei ın urna).Notam Pk|n = P

(Ak|n

)probabilitatea evenimentului mentionat. Avem

Pk|n = Cknp

kqn−k, k = 0, 1, · · · , n,

unde p = a/c este probabilitatea aparitiei unei bile la o extragere, iar q = b/c = 1−peste probabilitatea evenimentului contrar (aparitia unei bile negre).

2. Schema multinomiala.Este o extindere a schemei lui Bernoulli.Se considera o urna continand bile de s culori, cate ai bile din culoarea i ∈ 1, 2, · · · , s.Notam

pi =ai∑sj=1 aj

Page 21: Probabilitati Si Statistica Eugen Paltanea

21

probabilitatea extragerii unei bile de culoarea i ∈ 1, 2, · · · , s. Se fac n extrageri, curepunerea bilei ın urna dupa fiecare extragere. Fie (ki)i=1,s un vector de dimensiunes, cu componente naturale, avand proprietatea

∑si=1 ki = n. Notam

P(ki)i=1,s|n

probabilitatea evenimentului A(ki)i=1,s|n de extragere a exact ki bile de culoarea i,unde i = 1, 2, · · · , s, din totalul de n bile extrase. Avem

P(ki)i=1,s|n =

(n

k1, k2, · · · , ks

)pk11 p

k22 · · · pkss ,

unde (n

k1, k2, · · · , ks

)=

n!

k1!k2! · · · ks!reprezinta combinarile multinomiale de n luate cate k1, k2, · · · , ks.

3. Schema lui Poisson.Reprezinta o generalizare a schemei lui Bernoulli. Se considera n urne cu bile albe sinegre, dar ın proportii diferite. Fie pi probabilitatea extragerii unei bile albe din urnai. Probabilitatea extragerii unei bile negre din urna i va fi qi = 1−pi, i = 1, 2, · · · , n.Se extrage cate o bila din fiecare urna. Se analizeaza probabilitatea evenimentuluiAk|n de a obtine exact k bile albe din cele n extrase. Notam Nn = 1, 2, · · · , n.Avem

Pk|n = P(Ak|n

)=

∑I⊂Nn; |I|=k

∏i∈I

pi∏

j∈Nn\I

qj.

Observam ca Pk|n reprezinta coeficientul lui xk al polinomului

f(x) = (p1x+ q1) (p2x+ q2) · · · (pnx+ qn) .

4. Schema geometrica.Schema este un exemplu de camp discret de evenimente. Astfel, se repeta continuu oexperienta, ın conditii identice, urmarindu-se de fiecare data realizarea unui anumiteveniment A. Fie P(A) = p. Consideram momentul ın care evenimentul A serealizeaza pentru prima data. Fie n ∈ N∗. Probabilitatea ca evenimentul A sa serealizeze pentru prima data ın cea de a n-a experienta este

pn = pqn−1,

unde q = 1− p.

5. Schema hipergeometrica.Se considera o urna cu N bile, dintre care a bile sunt albe iar restul de b bile suntnegre (a+b = N). Se extrag n bile (fara a le repune ın urma dupa fiecare extragere).Notam pk|n probabilitatea evenimentului Ak|n de a avea exact k bile albe ıntre celen bile extrase. Presupunem n ≤ N, k ≤ a si n− k ≤ b. Atunci

pk|n =CkaC

n−kb

CnN

.

Page 22: Probabilitati Si Statistica Eugen Paltanea

22

1.9 Test 1 de evaluare/autoevaluare

1. Definiti notiunea de evenimente conditionate. Enuntati si demonstrati formula prob-abilitatii totale.

2. Aplicati formula lui Poincare pentru n evenimente independente, echiprobabile, deprobabilitate p ∈ (0, 1).

3. Fie (Ω,F,P) un camp de probabilitate si evenimentele A,B ∈ F. Stiind ca P(A) =1/5, P(B) = 3/5 si P(A ∩B) = 1/10, sa se calculeze probabilitatile:

(a) P(A ∪B);

(b) P(A ∩B);

(c) P(A|B) = PB(A).

4. Un sportiv trage la o tinta cu 5 pusti diferite, cu probabilitatile respective de ochire:p1 = 0, 8, p2 = 0, 7, p3 = 0, 4, p4 = 0, 9 si p5 = 0, 5. Sa se calculeze:

(a) probabilitatea ca tinta sa fie nimerita de exact 3 ori;

(b) probabilitatea ca tinta sa nimerita cel putin o data.

5. Un portar apara o lovitura de la 11 metri cu probabilitatea p = 0, 3. La finalul unuimeci, se executa 5 lovituri de la 11 metri.

(a) Care este probabilitatea ca portarul respectiv sa apere exact 2 lovituri?

(b) Care este cel mai probabil numar de goluri primite?

6. Care este probabilitatea de a nimeri exact doua numere la jocul Loto 6 din 49, dacase joaca o singura varianta?

7. Un baschetbalist executa aruncari de la distanta la un panou de baschet, pana laprima reusita. Stiind ca sansa de reusita a fiecarei aruncari este de 20%, sa sedetermine probabilitatea ca sportivul sa ınscrie primul cos din a patra aruncare.Care este cel mai probabil numar de aruncari pana la prima reusita?

Page 23: Probabilitati Si Statistica Eugen Paltanea

23

1.10 Competente

• Utilizarea limbajului specific teoriei matematice a probabilitatilor.

• Utilizarea calculului probabilitatilor evenimentelor, cu aplicarea proprietatilor speci-fice si a formulelor de calcul adecvate.

• Utilizarea conceptului de evenimente conditionate, proprietatilor acestuia si for-mulelor specifice.

• Utilizarea conceptului de evenimente independente, proprietatilor acestuia si for-mulelor specifice.

• Formalizarea matematica a unor probleme concrete privind studiul unor evenimentealeatoare, ıncadrarea lor ın scheme de probabilitate (daca este cazul) si rezolvarealor ın limbajul specific teoriei probabilitatilor.

Page 24: Probabilitati Si Statistica Eugen Paltanea

24

Page 25: Probabilitati Si Statistica Eugen Paltanea

Unitatea de ınvatare 2

Variabile aleatoare. Caracteristicinumerice

2.1 Introducere

2.2 Variabile aleatoare

Variabilele aleatoare se interpreteaza ca o ”enumerare” a rezultatelor (masurabile) potentialeale unui anumit experiment. Fiecare din aceste rezultate posibile are o probabilitate de re-alizare. Definitia de mai jos formalizeaza matematic un experiment cu rezultate aleatoare,predictibile.

Definitia 2.2.1. Fie (Ω,F,P) un camp de probabilitate. O functie masurabila realaX : Ω→ R se numeste variabila aleatoare (reala).

Conform definitiei, pentru o variabila aleatoare X definita pe campul de probabilitate(Ω,F,P), avem

X ∈ I ∈ F,

pentru orice interval real I. In particular,

X ∈ (−∞, a] = X ≤ a ∈ F, ∀ a ∈ R.Probabilitatile evenimentelor descrise mai sus ofera o informatie fundamentala privindvariabila aleatoare. In fapt, cunoasterea probabilitatile evenimentelor X ≤ a, a ∈ R,ofera o informatie precisa privind distributia valorilor variabilei aleatore X. In sectiuneaurmatoare, va fi introdusa si caracterizata functia de repartitie a a unei variabile aleatoare,construita pe baza probabilitatilor mentionate.

O multime finita de variabile aleatoare definite pe acelasi camp de probabilitate vadetermina un vector aleator. Mai precis, avem urmatoarea definitie.

Definitia 2.2.2. Fie d > 1 un numar ıntreg si (Ω,F,P) un camp de probabilitate. Con-sideram borelianul BRd spatiului Rd (σ − corpul generat de topologia lui Rd). O functieX : Ω→ Rd, (F,BRd) masurabila, se numeste vector aleator.

FieXi, i = 1, 2, · · · , d, componentele scalare ale functieiX, deciX = (X1, X2, · · · , Xd).Conform definitiei de mai sus,

X1 ≤ a1, X2 ≤ a2, · · · , Xd ≤ ad ∈ F, ∀ (a1, a2, · · · , ad) ∈ Rd.

25

Page 26: Probabilitati Si Statistica Eugen Paltanea

26

2.3 Functia de repartitie

Distributia valorilor unei variabile aleatoare reale este caracterizata prin notiunea defunctie de repartitie. De regula, campul de probabilitate pe care este definita variabilaaleatoare nu este mentionat ın mod explicit.

Definitia 2.3.1. Fie (Ω,F,P) un camp de probabilitate si X : Ω→ R o variabila aleatoare.Functia reala F : R→ [0, 1], definita prin

F (x) = PX ≤ x = P(ω ∈ Ω : X(ω) ≤ x), x ∈ R,

se numeste functia de repartitie a variabilei aleatoare X.

Propozitia urmatoare grupeaza proprietatile de baza ale unei functii de repartitie.

Propozitia 2.3.1. Fie F : R → [0, 1] functia de repartitie a unei variabilei aleatoare X.Au loc urmatoarele proprietati cu caracter general.

1. F este monoton crescatoare pe R;

2. F este continua la dreapta pe multimea R (F (x+ 0) := limt↓x

F (t) = F (x), ∀ x ∈ R);

3. limx→−∞

F (x) = 0; limx→∞

F (x) = 1;

4. F (x− 0) := limt↑x

F (t) = PX < x, ∀ x ∈ R;

5. PX = x = F (x)− F (x− 0), ∀ x ∈ R;

6. Pa < X ≤ b = F (b)− F (a), ∀ a, b ∈ R, cu a < b;

7. PX > x = 1− F (x), ∀ x ∈ R.

Demonstratie. Fie (Ω,F,P) un campul de probabilitate pe care este definitavariabilaaleatoare X.1. Fie x1, x2 ∈ R, cu x1 < x2. Avem X ≤ x1 ⊂ X ≤ x2, de unde PX ≤ x1 ≤PX ≤ x2, sau F (x1) ≤ F (x2).2. Fiind monoton crescatoare pe R, functia F admite limite laterale finite pe R. Maiprecis, pentru x ∈ R, limita la stanga ın x este F (x − 0) = supt<x F (t), iar limita ladreapta ın x este F (x+ 0) = inft>x F (t). Evident,

F (x− 0) ≤ F (x) ≤ F (x+ 0), ∀ x ∈ R.

Fixam x ∈ R, arbitrar. Notam An =X ≤ x+ 1

n

∈ F, N ∈ N∗. Fie A = X ≤ x. Avem

A = ∩∞n=1An si An ↓ A. Conform Propozitiei 1.5.1, avem limn→∞ P(An) = P(A). Dar,P(A) = F (x) si limn→∞ P(An) = limn→∞ F

(x+ 1

n

)= F (x+0). Obtinem F (x+0) = F (x),

deci F este continua la dreapta ın x.3. Conform monotoniei, F admite limite finite la ∞ si −∞. Astfel, lim

x→−∞F (x) =

infx∈R

F (x) ≥ 0 si limx→∞

F (x) = supx∈R

F (x) ≤ 1. Fie Bn = X ≤ −n, CnX ≤ n, n ∈ N∗.

Avem Bn ↓ ∅, respectiv Cn ↑ Ω. Ca urmare,

limx→−∞

F (x) = limn→∞

F (−n) = limn→∞

P(Bn) = P(∅) = 0,

Page 27: Probabilitati Si Statistica Eugen Paltanea

27

respectiv

limx→∞

F (x) = limn→∞

F (n) = limn→∞

P(Cn) = P(Ω) = 1.

4. Fie x ∈ R, arbitrar, fixat. Conform proprietatilor unei functii monoton crescatoare siPropozitiei 1.5.1, avem

F (x− 0) = limt↑x

F (t) = limn→∞

F

(x− 1

n

)= lim

n→∞PX ≤ x− 1

n

)= PX < x.

5. Pentru x ∈ R, avem

PX = x = P(X ≤ x \ X < x) = PX ≤ x − PX < x = F (x)− F (x− 0).

6. Fie a, b ∈ R, a < b. Avem a < X ≤ b = X ≤ b \ X ≤ a si X ≤ a ⊂ X ≤ b.Atunci, conform Propozitiei 1.5.1,

Pa < X ≤ b = PX ≤ b − PX ≤ a = F (b)− F (a).

7. Fie x ∈ R. Avem PX > x = PX ≤ xc = 1− PX ≤ x = 1− F (x).

Din propozitia de mai sus rezulta ca, daca F este continua ın x0 ∈ R, atunci PX =x0 = 0. Mentionam ca, reciproc, orice functie F : R → [0, 1] care satisface proprietatile1-3 din Propozitia 2.3.1 este functia de repartitie a unei anumite variabile aleatoare. Douasau mai multe variabile aleatore care admit o functie de repartitie comuna vor fi denumiteidentic distribuite.

De asemenea, putem defini functia de repartitie a unui vector aleator, avand proprietatigenerale apropiate de cele ale functiei de repartitie a unei variabile aleatoare.

Definitia 2.3.2. Fie X = (X1, X2, · · · , Xd) un vector aleator. Definim functia sa derepartitie prin F : Rd → [0, 1],

F (x1, x2, · · · , xd) = PX1 ≤ x1, X2 ≤ x2, · · · , Xd ≤ xd, (x1, x2, · · · , xd) ∈ Rd.

.O notiune importanta este independenta variabilelor aleatoare, definita mai jos.

Definitia 2.3.3. Variabilele aleatoare Xi, i ∈ I, definite pe un camp de probabilitate(Ω,F,P), se numesc independente daca, pentru oricare oricare indici distincti i1, i2, · · · , indin multimea I si oricare A1, A2, · · · , An ∈ BR are loc

PXi1 ∈ A1, Xi2 ∈ A2, · · · , Xin ∈ An = PXi1 ∈ A1PXi2 ∈ A2 · · ·PXin ∈ An.

In particular, daca variabilele aleatoare X1, X2, · · · , Xn, avand, respectiv, functiile derepartitie F1, F2, · · · , Fn, sunt independente, atunci

PX1 ≤ a1, X2 ≤ a2, · · · , Xn ≤ an = F1(a1)F2(a2) · · ·Fn(an), ∀ a1, a2, · · · , an ∈ R.

Are loc urmatorul rezultat de baza privind suma a doua variabile aleatoare indepen-dente.

Page 28: Probabilitati Si Statistica Eugen Paltanea

28

Propozitia 2.3.2. Fie variabilele aleatoare independente X si Y, avand functiile de repartitieF si respectiv G. Atunci functia de repartitie a variabilei aleatoare Z = X + Y esteH = F ∗G, unde

(F ∗G)(x) =

∫ ∞−∞

F (x− t)dG(t), ∀ x ∈ R.

Variabilele aleatoare cu valori ıntr-o multime cel mult numarabila se numesc discrete.Variabilele aleatoare cu functia de repartitie derivabila, cu derivata continua, se numesccontinue. In sectiunea urmatoare vom discuta aceste tipuri particulare, dar deosebit deimportante, de variabile aleatoare. Vom ilustra cele doua tipuri de variabile aleatoare(discrete si continue) prin exemple clasice, semnificative.

2.4 Variabile aleatoare discrete. Exemple clasice

In cele ce urmeaza, definim, caracterizam si exemplificam variabilele aleatoare de tip dis-cret.

Definitia 2.4.1. Fie (Ω,F,P) un camp de probabilitate si X : Ω→ R o variabila aleatoare.X se numeste variabila aleatoare discreta daca multimea X(Ω) este cel mult numarabila.

Fie X(Ω) = xi, i ∈ I ⊂ R, unde I este o multime de indici cel mult numarabila.Notam Ai = X = xi ∈ F, i ∈ I. Remarcam ca familia de evenimente Ai, i ∈ Ireprezinta o partitie a spatiului Ω.

Pentru A ∈ F, notam prin cA : Ω → R functia caracteriatica a multimii A, definitaprin

cA(ω) =

1, ω ∈ A0, ω ∈ Ω \ A = Ac

.

Este elementar de verificat faptul ca functia caracteristica a unui eveniment este o variabilaaleatoare. Are loc urmatoarea reprezentare a variabilei aleatoare discrete X:

X =∑i∈I

xicAi .

Notuam pi = P(Ai), i ∈ I. Avem pi ≥ 0, ∀ i ∈ I si∑

i∈I pi = 1.Distributia variabilei aleatoare X se reprezinta conventional astfel:

X :

(xipi

)i∈I

.

Fie variabilele aleatoare discrete, independente, X si Y , cu distributiile

X :

(xipi

)i∈I

, Y :

(yjp′j

)j∈J

.

Atunci variabila aleatoare X + Y va avea distributia

X + Y :

(xi + yjpip′j

)(i,j)∈I×J

.

Page 29: Probabilitati Si Statistica Eugen Paltanea

29

Exemplul 2.4.1. Variabile aleatoare Bernoulli.

O variabila aleatoare Bernoulli X ia doar doua valori: valoarea 1, cu probabilitateap ∈ (0, 1) si valoarea 0, cu probabilitatea q = 1− p. Distributia lui X se reprezinta astfel:

X :

(0 1q p

).

Notam X ∈ Bin(1, p).

Exemplul 2.4.2. Variabile aleatoare binomiale.

O variabila aleatoare binomiala X, de parametrii n ∈ N∗ si p ∈ (0, 1) ia valorilek ∈ 0, 1, · · · , n cu probabilitatile pk = Ck

npkqn−k. Distributia lui X se reprezinta astfel:

X :

(0 1 2 · · · n

C0nq

n C1npq

n−1 C2np

2qn−2 · · · Cnnp

n

).

Variabila aleatoare binomiala indica numarul de realizari ale unui eveniment avand prob-abilitatea p ın n experiente identice, independente (schema binomiala - Bernoulli). NotamX ∈ Bin(n, p).

Este important de remarcat ca o variabila aleatoare binomiala de parametrii (n, p) estesuma a n variabile aleatoare Bernoulli independente, identic distribuite (de parametru p).

Exemplul 2.4.3. Variabile aleatoare Poisson.

O variabila aleatoare Poisson de parametru λ ia valoarea n cu probabilitatea λn

n!e−λ,

pentru n ∈ N, avand deci distributia:

X :

(n

λn

n!e−λ

)n∈N

.

Notam X ∈ Poiss(λ).

Exemplul 2.4.4. Variabile aleatoare geometrice.

O variabila aleatoare geometrica X de parametru p ia valoarea n cu probabilitateapqn−1, pentru n ∈ N∗, unde q = 1− p. X are distributia:

X :

(n

pqn−1

)n∈N∗

.

Notam X ∈ Geom(p). Variabila X indica numarul de experiente, independente, identice,necesar realizarii (aparitiei) unui eveniment care are probabilitatea p de realizare ın cadrulfiecarei experiente (schema geometrica).

2.5 Variabile aleatoare continue. Exemple clasice

Un tip important de variabile aleatoare sunt cele ”continue”.

Page 30: Probabilitati Si Statistica Eugen Paltanea

30

Definitia 2.5.1. Fie (Ω,F,P) un camp de probabilitate si X : Ω→ R o variabila aleatoare.X se numeste variabila aleatoare continua daca exista o functie continua f : R → [0,∞)cu proprietatea

F (x) =

∫ x

−∞f(t) dt, ∀ x ∈ R.

Functia f se numeste densitatea de probabilitate a variabilei aleatoare X (sau functia dedensitate a v.a. X).

Proprietatile densitatii unei variabile aleatoare reale sunt evidentite ın propozitia demai jos.

Propozitia 2.5.1. Fie f : R → [0,∞) functia de densitate asociata unei variabilealeatoare de tip continuu X : Ω → R. Notam F : R → [0, 1] functia sa de repartitie.Atunci:

1. F este de clasa C1 pe R, cu F ′(x) = f(x), ∀ x ∈ R;

2.∫

R f(t) dt = 1;

3. PX = x = 0, ∀ x ∈ R;

4. Pa ≤ X ≤ b =∫ baf(t) dt, ∀ [a, b] ⊂ R.

Demonstratie.1. Conform definitiei, F este o primitiva a lui f pe R.

2.∫

R f(t) dt = limx→∞

x∫−∞

f(t) dt = limx→∞

F (x) = 1.

3. F este continua pe R, deci PX = x = F (x)− F (x− 0) = 0, ∀ x ∈ R.4. Pa ≤ X ≤ b = PX ≤ b − PX < a = PX ≤ b − PX ≤ a = F (b)− F (a) =

=∫ baf(t) dt, ∀ [a, b] ⊂ R.

Fie variabilele aleatoare continue, independente, X si Y , cu densitatiile f, g : R→ [0, 1].Din Propozitia 2.3.2 se deduce ca variabila aleatoare X + Y are densitatea f ∗ g, unde

f ∗ g : R→ [0,∞), (f ∗ g)(x) =

∫Rf(x− t)g(t) dt, ∀ x ∈ R,

este convolutia densitatilor f si g.Vom prezenta ın continuare cateva exemple clasice de repartitii continue.

Exemplul 2.5.1. Distributia normala.

Este cel mai important exemplu de distributie de tip continuu. Astfel, spunem ca ovariabila aleatoare reala X are o repartitie normala (gaussiana) de parametrii 0 si 1 dacaare functia de densitate:

ϕ(t) =1√2π

e−t2

2 , ∀ t ∈ R.

Variabila normala (standard) X admite functie de repartitie:

Φ(x) =1√2π

∫ x

−∞e−

t2

2 dt, ∀ x ∈ R.

Page 31: Probabilitati Si Statistica Eugen Paltanea

31

Notam X ∈ N(0, 1). Distributia normala standard este legea limita universala, conformTeoremei limita centrala.

Generalizare. X ∈ N(µ, σ2), unde µ ∈ R, σ > 0, daca admite densitatea de probabili-tate

ϕ(t) =1

σ√

2πe−

(t−µ)2

2σ2 , ∀ t ∈ R.

Exemplul 2.5.2. Distributia exponentiala.

Variabila aleatoare X are o distributie exponentiala de parametru λ > 0, notat prinX ∈ Exp(λ), daca ia valori ın intervalul [0,∞) (deci este o variabila aleatoare pozitiva) siadmite functia de repartitie

F (x) = 1− e−λx, ∀ x ≥ 0.

Distributia exponentiala este fundamentala ın teoria fiabilitatii, caracterizand modelele detip Markov.

Exemplul 2.5.3. Distributia Gama.

Variabila aleatoare X are o distributie Gama de parametrii α, β > 0, notat prin X ∈Gama(α, β), daca ia valori ın intervalul (0,∞) si admite functia de densitate

f(x) =xα−1e−

βαΓ(α), ∀ x > 0,

unde

Γ(α) =

∫ ∞0

xα−1e−xdx

este functia lui Euler de prima speta.

In statistica, distributia de tipGam(n/2, 2), cu n ∈ N∗, notata prin χ2n, are o importanta

majora.

Exemplul 2.5.4. Distributia Beta.

Variabila aleatoare X are o distributie Beta de parametrii α, β > 0, notat prin X ∈Beta(α, β), daca ia valori ın intervalul (0, 1) si admite functia de densitate

f(x) =xα−1(1− x)β−1

B(α, β), ∀ x ∈ (0, 1),

unde

B(α, β) =

∫ 1

0

xα−1(1− x)β−1dx =Γ(α)Γ(β)

Γ(α + β)

este functia lui Euler de a doua speta.

Page 32: Probabilitati Si Statistica Eugen Paltanea

32

2.6 Media. Medii de ordin superior

Pentru o variabila aleatoare reala, media si dispersia reprezinta cele mai importante car-acteristici numerice. Astfel, media unei variabile aleatoare (daca exista) indicacea maiasteptata valoare a variabilei aleatoare.

Definitia 2.6.1. Fie (Ω,F,P) un camp de probabilitate si X : Ω→ R o variabila aleatoareavand functia de repartitie F : R→ [0, 1]. Marimea:

E(X) :=

∫ ∞−∞

x dF (x)

se numeste media lui X. Media este definita ın ipoteza ca integrala de tip Stieltjes-Riemannde mai sus este convergenta.

Calculul mediei se expliciteaza astfel:

1. pentru o variabila aleatoare X de tip discret, care ia valorile xi cu probabilitatile pi,pentru i ∈ I, media devine

E(X) =∑i∈I

xipi;

2. pentru o variabila aleatoare X de tip continuu, care admite densitatea de probabil-itate f : R→ [0,∞), media devine

E(X) :=

∫ ∞−∞

xf(x) dx.

Urmatoarea propozitie stabileste proprietatie de baza ale mediei variabilelor aleatoare.

Propozitia 2.6.1. Fie X si Y doua variabile aleatoare cu medie finita.

1. E(aX) = aE(X), ∀ a ∈ R;

2. E(X + Y ) = E(X) + E(Y );

3. daca X si Y sunt independente, atunci E(XY ) = E(X)E(Y ).

Demonstratie. Vom trata doar cazul discret. Presupunem ca X si Y au distributiile

X :

(xipi

)i∈I

, Y :

(yjp′j

)j∈J

,

unde I si J sunt multimi de indici cel mult numarabile.1. Pentru a ∈ R, avem:

E(aX) =∑i∈I

(axi)pi = a∑i∈I

xipi = aE(X).

2. Fie Aij = X = xi, Y = yj si pij = P(Aij), (i, j) ∈ I × J. Atunci∑j∈J

pij =∑j∈J

P(Aij) = P(∪j∈JAij) = PX = xi = pi, ∀ i ∈ I,

Page 33: Probabilitati Si Statistica Eugen Paltanea

33

respectiv ∑i∈I

pij =∑i∈I

P(Aij) = P(∪i∈IAij) = PY = yj = p′j, ∀ j ∈ J.

Deaoarece X + Y are distributia

X + Y :

(xi + yjpij

)(i,j)∈I×J

,

obtinem

E(X + Y ) =∑

(i,j)∈I×J

(xi + yj)pij =∑i∈I

(xi∑j∈J

pij

)+∑j∈J

(yj∑i∈I

pij

)

=∑i∈I

(xipi) +∑j∈J

(yjp′j) = E(X) + E(Y ).

3. Daca X si Y sunt independente, atunci pij = pip′j, ∀ (i, j) ∈ I × J . Rezulta

E(XY ) =∑

(i,j)∈I×J

(xiyj)pij =∑

(i,j)∈I×J

(xipi)(yjp′j)

=∑i∈I

(xipi)∑j∈J

(yjp′j) = E(X)E(Y ).

Astfel, proprietatile mediei sunt demonstrate ın cazul discret.

Fie X : Ω → R o variabila aleatoare iar ϕ : R → R o functie reala masurabila (ınparticular, ϕ continua). Functia compusa ϕ(X) := ϕ X : Ω → R este de asemenea ovariabila aleatoare definita pe Ω. Daca X admite functia de repartitie F , atunci

E(ϕ(X)) =

∫ ∞−∞

ϕ(x) dF (x),

ın ipoteza ca integrala este convergenta. In particular, ın cazul cand ϕ este o functie puteresau modului unei functii putere, obtinem mediile de ordin superior, respectiv mediileabsolute de ordin superior.

Definitia 2.6.2. Fie (Ω,F,P) un camp de probabilitate si X : Ω→ R o variabila aleatoare.

1. Media de ordin k ∈ N∗ a variabilei aleatoare X se definete prin

E(Xk)

=

∫ ∞−∞

xkdx,

daca integrala este convergenta.

2. Media absoluta de ordin k ∈ N∗ a variabilei aleatoare X se definete prin

E(|X|k

)=

∫ ∞−∞|x|kdx,

daca integrala este convergenta. Notam Lk = Lk(Ω) multimea variabilelor aleatoare(definite pe Ω) cu medie absoluta finita de ordinul k.

Page 34: Probabilitati Si Statistica Eugen Paltanea

34

Mentionam ca Lk(Ω) este un spatiu vectorial normat. Din inegalitatea lui Holder sededuc incluziunile

Lk+1(Ω) ⊂ Lk(Ω), k ∈ N∗.

In plus, daca X ∈ Lk(Ω), atunci X are medie finita de ordinele i = 1, · · · , n.

Exemplul 2.6.1. Mediile unor distributii clasice.

1. Distributia Bernoulli: X ∈ Bin(1, p) ⇒ E(X) = p.

2. Distributia binomiala: X ∈ Bin(n, p) ⇒ E(X) = np.

3. Distributia Poisson: X ∈ Poiss(λ) ⇒ E(X) = λ.

4. Distributia geometrica: X ∈ Geom(p) ⇒ E(X) = 1/p.

5. Distributia normala: X ∈ N(µ, σ2) ⇒ E(X) = µ.

6. Distributia exponentiala: X ∈ Exp(λ) ⇒ E(X) = 1/λ.

2.7 Dispersia

Dispersia unei variabile aleatoare (din spatiul L2) este un indicator al gradului de ımprastierea valorilor sale ın jurul mediei.

Definitia 2.7.1. Fie X ∈ L2(Ω), cu E(X) = µ. Marimea:

V (X) =

∫ ∞−∞

(x− µ))2 dF (x) = E[(X − E(X))2

]se numeste dispersia lui X. Marimea

σ(X) =√V (X)

se numeste abaterea medie patratica a variabilei aleatoare X.

Dispersia are urmatoarele proprietati elementare.

Propozitia 2.7.1. Fie X, Y ∈ L2(Ω).

1. V (X) ≥ 0;

2. V (X) = E(X2)− [E(X)]2 (formula de calcul a dispersiei);

3. V (aX) = a2V (X), ∀ a ∈ R;

4. daca X si Y sunt v.a. independente, atunci V (X + Y ) = V (X) + V (Y ).

Page 35: Probabilitati Si Statistica Eugen Paltanea

35

Demonstratie. Proprietatile 1 si 3 sunt evidente. Fie µ = E(X) si η = E(Y ). Formulade calcul a dispersiei se obtine astfel:

V (X) = E[(X − µ)2

]= E

(X2 − 2µX + µ2

)= E

(X2)− 2µE(X) + µ2 = E

(X2)− µ2.

Conform Propozitiei 2.6.1 si formulei demonstrate avem:

V (X + Y ) = E[(X + Y )2

]− [E(X + Y )]2 = E

(X2 + 2XY + Y 2

]− (µ+ η)2

= E(X2)+E

(Y 2)+2µη−µ2−2µη−η2 =

[E(X2)− µ2

]+[E(Y 2)− η2

]= V (X)+V (Y ).

Exemplul 2.7.1. Dispersiile unor distributii clasice.

1. Distributia Bernoulli: X ∈ Bin(1, p) ⇒ V (X) = pq.

2. Distributia binomiala: X ∈ Bin(n, p) ⇒ V (X) = npq.

3. Distributia Poisson: X ∈ Poiss(λ) ⇒ V (X) = λ.

4. Distributia geometrica: X ∈ Geom(p) ⇒ V (X) = q/p2.

5. Distributia normala: X ∈ N(µ, σ2) ⇒ V (X) = σ2.

2.8 Corelatia

Corelatia a doua variabile aleatoare este un indicator al tipului de dependenta al acestora.

Definitia 2.8.1. Fie X, Y ∈ L2(Ω). Corelatia variabilelor aleatoare X si Y se definesteprin:

λ(X, Y ) = E[X − E(X)][Y − E(Y )].

Marimea

ρ(X, Y ) =λ(X, Y )

σ(X)σ(Y )

se numeste coeficientul de corelatie al variabilelor aleatoare X si Y .

Propozitia urmatoare stabileste formula de calcul a corelatiei si o proprietate a coefi-cientului de corelatie.

Propozitia 2.8.1. Cu notatiile anterioare, avem:

1. λ(X, Y ) = E(XY )− E(X)E(Y );

2. daca X si Y sunt independente, atunci λ(X, Y ) = 0;

3. ρ(X, Y ) ∈ [−1, 1].

Page 36: Probabilitati Si Statistica Eugen Paltanea

36

Demonstratie.1. Avem

λ(X, Y ) = E (XY − µY − ηX + µη) = E(XY )− µE(Y )− ηE(X) + µη = E(XY )− µη.

2. Din inegalitateaE

[t(X − µ) + (Y − η)]2≥ 0, ∀ t ∈ R,

sauV (X)t2 + 2λ(X, Y )t+ V (Y ) ≥ 0, ∀ t ∈ R,

obtinem∆ := 4

(λ2(X, Y )− V (X)V (Y )

)≤ 0.

Rezulta |ρ(X, Y )| ≤ 1.

2.9 Functia caracteristica

Functia caracteristica asociata unei variabile aleatoare reprezinta un instrument matematicimportant. Pentru variabilele aleatoare de tip continuu, functia caracteristica reprezintatransformata Fourier a functiei de densitate. Transformarea integrala Fourier este impor-tanta ın calculul operational.

Definitia 2.9.1. Fie X o variabila aleatoare avand functia de repartitie F . Functia ϕX :R→ C , definita prin

ϕX(t) = E(eitX

)=

∫ ∞−∞

eitxdF (x), t ∈ R,

se numeste functia caracteristica a variabilei aleatoare X.

Fie X o variabila aleatoare de tip continuu, cu densitatea de probabilitate f . In acestcaz, functia sa caracteristica se reprezinta astfel

ϕX(t) =

∫ ∞−∞

eitxf(x)dx, t ∈ R,

adica ϕX reprezinta transformata Fourier a functiei f .Daca X este o variabila aleatoare discreta, cu distributia

X :

(xkpk

)k∈I

,

atunci functia sa caracteristica se calculeaza astfel

ϕX(t) =∑k∈I

eitxkpk.

Functia caracteristica prezinta o serie de proprietati pe care le vom enumera ın propozitiaurmatoare.

Page 37: Probabilitati Si Statistica Eugen Paltanea

37

Teorema 2.9.1. Fie X o variabila aleatoare avand functia de repartitie F si functia car-acteristica ϕX . Au loc urmatoarele proprietati:

1. ϕX(0) = 1;

2. ϕ(−t) = ϕX(t), ∀ t ∈ R;

3. |ϕX(t)| ≤ 1, ∀ t ∈ R;

4. ϕaX+b(t) = eibtϕX(at),∀ t ∈ R, ∀ a, b ∈ R;

5. ϕX este uniform continua (deci si continua) pe R;

6. daca X ∈ Ln, atunci ϕX este derivabila de ordinul n, cu

ϕ(n)X (t) = in

∫ ∞−∞

xneitxdF (x), t ∈ R;

7. daca X ∈ ∩∞n=1Ln, atunci ϕX este dezvoltabila ın serie Taylor ın jurul originii:

ϕX(t) =∞∑n=0

tn

n!ϕ

(n)X (0),

cu ϕ(n)X (0) = inE (Xn) , n ∈ N;

Teorema 2.9.2. (Teorema multiplicarii) Daca X1, X2, · · · , Xn sunt variabile aleatoareindependente, atunci

ϕX1+X2+···+Xn = ϕX1ϕX2 · · ·ϕXn .

Teorema 2.9.3. (Teorema de unicitate) Fie X o variabila aleatoare cu functia de repartitieF si functia caracteristica ϕX . Atunci

1.

F (x2)− F (x1) = P x1 < X ≤ x2 =1

πlimc→∞

∫ c

−c

e−itx1 − e−itx2

itϕX(t) dt, ∀ x1 < x2;

2.

F (x) =1

2πlim

y→−∞limc→∞

∫ c

−c

e−ity − e−itx

itϕX(t) dt, ∀ x ∈ R.

Exemplul 2.9.1. Functiile caracteristice ale unor distributii clasice.

1. Distributia Bernoulli: X ∈ Bin(1, p) ⇒ ϕX(t) = 1 + p (eit − 1) , t ∈ R.

2. Distributia binomiala: X ∈ Bin(n, p) ⇒ ϕX(t) = [1 + p (eit − 1)]n, t ∈ R.

3. Distributia Poisson: X ∈ Poiss(λ) ⇒ ϕX(t) = eλ(eit−1), t ∈ R.

4. Distributia geometrica: X ∈ Geom(p) ⇒ ϕX(t) = peit

peit−eit+1, t ∈ R.

5. Distributia normala: X ∈ N(µ, σ2) ⇒ ϕX(t) = eiµt−t2σ2

2 , t ∈ R.

6. Distributia exponentiala: X ∈ Exp(λ) ⇒ ϕX(t) = λλ−it , t ∈ R.

Page 38: Probabilitati Si Statistica Eugen Paltanea

38

2.10 Rezumat

Variabilele aleatoare se interpreteaza ca o ”enumerare” a rezultatelor (masurabile) potentialeale unui anumit experiment. Fiecare din aceste rezultate posibile are o probabilitate derealizare.

Fie (Ω,F,P) un camp de probabilitate. O functie masurabila reala X : Ω → R senumeste variabila aleatoare. Conform definitiei, X ∈ I ∈ F pentru orice interval real I.In particular, X ∈ (−∞, a] = X ≤ a ∈ F, ∀ a ∈ R.

O functie X : Ω → Rd, (F,BRd) masurabila, se numeste vector aleator. Fie Xi, i =1, 2, · · · , d, componentele scalare ale functiei X, deci X = (X1, X2, · · · , Xd). Atunci

X1 ≤ a1, X2 ≤ a2, · · · , Xd ≤ ad ∈ F, ∀ (a1, a2, · · · , ad) ∈ Rd.

Fie X : Ω→ R o variabila aleatoare. Functia reala F : R→ [0, 1], definita prin

F (x) = PX ≤ x = P(ω ∈ Ω|X(ω) ≤ x), x ∈ R,

se numeste functia de repartitie a variabilei aleatoare X.Functia de repartitie are urmatoarele proprietati:

1. F este monoton crescatoare pe R;

2. F este continua la dreapta pe multimea R (F (x+ 0) := limt↓x

F (t) = F (x), ∀ x ∈ R);

3. limx→−∞

F (x) = 0; limx→∞

F (x) = 1;

4. F (x− 0) := limt↑x

F (t) = PX < x, ∀ x ∈ R;

5. PX = x = F (x)− F (x− 0), ∀ x ∈ R;

6. Pa < X ≤ b = F (b)− F (a), ∀ a, b ∈ R, cu a < b;

7. PX > x = 1− F (x), ∀ x ∈ R.

Reciproc, orice functie F : R → [0, 1] care satisface proprietatile 1-3 este functia derepartitie a unei anumite variabile aleatoare. Doua sau mai multe variabile aleatore careadmit o functie de repartitie comuna vor fi denumite identic distribuite.

Variabilele aleatoare Xi, i ∈ I, se numesc independente daca, pentru oricare oricareindici distincti i1, i2, · · · , in din multimea I si oricare A1, A2, · · · , An ∈ BR are loc

PXi1 ∈ A1, Xi2 ∈ A2, · · · , Xin ∈ An = PXi1 ∈ A1PXi2 ∈ A2 · · ·PXin ∈ An.

In particular, daca variabilele aleatoare X1, X2, · · · , Xn, avand, respectiv, functiile derepartitie F1, F2, · · · , Fn, sunt independente, atunci

PX1 ≤ a1, X2 ≤ a2, · · · , Xn ≤ an = F1(a1)F2(a2) · · ·Fn(an), ∀ a1, a2, · · · , an ∈ R.

Daca variabilele aleatoare X si Y, avand functiile de repartitie F si respectiv G, suntindependente, atunci functia de repartitie a variabilei aleatoare Z = X+Y este H = F ∗G,unde

(F ∗G)(x) =

∫ ∞−∞

F (x− t)dG(t), ∀ x ∈ R.

Page 39: Probabilitati Si Statistica Eugen Paltanea

39

Variabilele aleatoare cu valori ıntr-o multime cel mult numarabila se numesc discrete.Variabilele aleatoare cu functia de repartitie derivabila, cu derivata continua, se numesccontinue.

Astfel, X se numeste variabila aleatoare discreta daca multimea X(Ω) este cel multnumarabila. Fie X(Ω) = xi, i ∈ I ⊂ R, unde I este o multime de indici cel multnumarabila. Notam pi = PX = xi, i ∈ I. Avem pi ≥ 0, ∀ i ∈ I si

∑i∈I pi = 1.

Distributia variabilei aleatoare X se reprezinta conventional astfel:

X :

(xipi

)i∈I

.

Fie variabilele aleatoare discrete, independente, X si Y , cu distributiile

X :

(xipi

)i∈I

, Y :

(yjp′j

)j∈J

.

Variabila aleatoare X + Y are distributia:

X + Y :

(xi + yjpip′j

)(i,j)∈I×J

.

Exemple de repartitii discrete:

1. Variabile aleatoare Bernoulli.O variabila aleatoare Bernoulli X ia doar doua valori: valoarea 1, cu probabilitateap ∈ (0, 1) si valoarea 0, cu probabilitatea q = 1 − p. Distributia lui X se reprezintaastfel:

X :

(0 1q p

).

Notam X ∈ Bin(1, p).

2. Variabile aleatoare binomiale.O variabila aleatoare binomiala X, de parametrii n ∈ N∗ si p ∈ (0, 1) ia valorilek ∈ 0, 1, · · · , n cu probabilitatile pk = Ck

npkqn−k. Distributia lui X se reprezinta

astfel:

X :

(0 1 2 · · · n

C0nq

n C1npq

n−1 C2np

2qn−2 · · · Cnnp

n

).

Variabila aleatoare binomiala indica numarul de realizari ale unui eveniment avandprobabilitatea p ın n experiente identice, independente (schema binomiala - Bernoulli).Notam X ∈ Bin(n, p).O variabila aleatoare binomiala de parametrii (n, p) este suma a n variabile aleatoareBernoulli independente, identic distribuite.

3. Variabile aleatoare Poisson.O variabila aleatoare Poisson de parametru λ ia valoarea n cu probabilitatea λn

n!e−λ,

pentru n ∈ N, avand deci distributia:

X :

(n

λn

n!e−λ

)n∈N

.

Notam X ∈ Poiss(λ).

Page 40: Probabilitati Si Statistica Eugen Paltanea

40

4. Variabile aleatoare geometrice.O variabila aleatoare geometrica X de parametru p ia valoarea n cu probabilitateapqn−1, pentru n ∈ N∗, unde q = 1− p. X are distributia:

X :

(n

pqn−1

)n∈N∗

.

Notam X ∈ Geom(p). Variabila X indica numarul de experiente, independente,identice, necesar realizarii pentru prima data a unui eveniment care are probabili-tatea p ın cadrul fiecarei experiente (schema geometrica).

Variabila aleatoare X se numeste continua daca exista o functie continua f : R →[0,∞) cu proprietatea

F (x) =

∫ x

−∞f(t) dt, ∀ x ∈ R.

Functia f se numeste densitatea de probabilitate a variabilei aleatoare X (sau functia dedensitate a v.a. X).

Densitatea de probabilitate are proprietatile:

1. F este de clasa C1 pe R, cu F ′(x) = f(x), ∀ x ∈ R;

2.∫

R f(t) dt = 1;

3. PX = x = 0, ∀ x ∈ R;

4. Pa ≤ X ≤ b =∫ baf(t) dt, ∀ [a, b] ⊂ R.

Daca X si Y , cu densitatiile f, g : R → [0, 1], sunt independente, atunci variabilaaleatoare X + Y are densitatea f ∗ g, unde

f ∗ g : R→ [0,∞), (f ∗ g)(x) =

∫r

f(x− t)g(t) dt, ∀ x ∈ R.

Exemple de repartitii continue:

1. Distributia normala.O variabila aleatoare reala X are o repartic tie normala (gaussiana) standard, deparametrii 0 si 1, daca are functia de densitate:

ϕ(t) =1√2π

e−t2

2 , ∀ t ∈ R.

Variabila normala standard X admite functie de repartitie:

Φ(x) =1√2π

∫ x

−∞e−

t2

2 dt, ∀ x ∈ R.

Notam X ∈ N(0, 1). Distributia normala standard este o ”lege limita” universala,conform Teoremei limita centrala.

Generalizare. X ∈ N(µ, σ2), unde µ ∈ R, σ > 0, daca admite densitatea de proba-bilitate

ϕ(t) =1

σ√

2πe−

(t−µ)2

2σ2 , ∀ t ∈ R.

Page 41: Probabilitati Si Statistica Eugen Paltanea

41

2. Distributia exponentiala.Variabila aleatoare X are o distributie exponentiala de parametru λ > 0, notatprin X ∈ Exp(λ), daca ia valori ın intervalul [0,∞) (deci este o variabila aleatoarepozitiva) si admite functia de repartitie

F (x) = 1− e−λx, ∀ x ≥ 0.

Distributia exponentiala este fundamentala ın teoria fiabilitatii, caracterizand mod-elele de tip Markov.

3. Distributia Gama.Variabila aleatoare X are o distributie Gama de parametrii α, β > 0, notat prinX ∈ Gama(α, β), daca ia valori ın intervalul (0, infty) si admite functia de densitate

f(x) =xα−1e−

βαΓ(α), ∀ x > 0,

unde

Γ(α) =

∫ ∞0

xα−1e−xdx

este functia lui Euler de prima speta.

4. Distributia Beta.Variabila aleatoare X are o distributie Beta de parametrii α, β > 0, notat prinX ∈ Beta(α, β), daca ia valori ın intervalul (0, 1) si admite functia de densitate

f(x) =xα−1(1− x)β−1

B(α, β), ∀ x ∈ (0, 1),

unde

B(α, β) =

∫ 1

0

xα−1(1− x)β−1dx =Γ(α)Γ(β)

Γ(α + β)

este functia lui Euler de a doua speta.

Fie X : Ω → R o variabila aleatoare avand functia de repartitie F : R → [0, 1].Marimea:

E(X) :=

∫ ∞−∞

x dF (x)

se numeste media luiX. Media este definita ın ipoteza ca integrala de tip Stieltjes-Riemannde mai sus este convergenta.

Calculul mediei:

1. pentru o variabila aleatoare X de tip discret, care ia valorile xi cu probabilitatile pi,pentru i ∈ I:

E(X) =∑i∈I

xipi;

2. pentru o variabila aleatoare X de tip continuu, care admite densitatea de probabil-itate f : R→ [0,∞):

E(X) :=

∫ ∞−∞

xf(x) dx.

Page 42: Probabilitati Si Statistica Eugen Paltanea

42

Media are urmatoarele proprietati:

1. E(aX) = aE(X), ∀ a ∈ R;

2. E(X + Y ) = E(X) + E(Y );

3. daca X si Y sunt independente, atunci E(XY ) = E(X)E(Y ).

Daca X admite functia de repartitie F , iar ϕ este o fuctie reala masurabila, atunci

E(ϕ(X)) =

∫ ∞−∞

ϕ(x) dF (x),

ın ipoteza ca integrala este convergenta.Definim:

1. media de ordin k ∈ N∗ a variabilei aleatoare X :

E(Xk)

=

∫ ∞−∞

xkdx,

daca integrala este convergenta.

2. media absoluta de ordin k ∈ N∗ a variabilei aleatoare X :

E(|X|k

)=

∫ ∞−∞|x|kdx,

daca integrala este convergenta. Notam Lk = Lk(Ω) multimea variabilelor aleatoare(definite pe Ω) cu medie absoluta finita de ordinul k.

Mediile unor distributii clasice.

1. Distributia Bernoulli: X ∈ Bin(1, p) ⇒ E(X) = p.

2. Distributia binomiala: X ∈ Bin(n, p) ⇒ E(X) = np.

3. Distributia Poisson: X ∈ Poiss(λ) ⇒ E(X) = λ.

4. Distributia geometrica: X ∈ Geom(p) ⇒ E(X) = 1/p.

5. Distributia normala: X ∈ N(µ, σ2) ⇒ E(X) = µ.

6. Distributia exponentiala: X ∈ Exp(λ) ⇒ E(X) = 1/λ.

• Marimea:

V (X) =

∫ ∞−∞

(x− µ))2 dF (x) = E(X − E(X))2 = E(X2)− E2(X)

se numeste dispersia lui X.

• Marimeaσ(X) =

√V (X)

se numeste abaterea medie patratica a variabilei aleatoare X.

Page 43: Probabilitati Si Statistica Eugen Paltanea

43

Dispersia are urmatoarele proprietati:

1. V (X) ≥ 0;

2. V (X) = E(X2)− [E(X)]2 (formula de calcul a dispersiei);

3. V (aX) = a2V (X), ∀ a ∈ R;

4. daca X si Y sunt v.a. independente, atunci V (X + Y ) = V (X) + V (Y ).

Dispersiile unor distributii clasice.

1. Distributia Bernoulli: X ∈ Bin(1, p) ⇒ V (X) = pq.

2. Distributia binomiala: X ∈ Bin(n, p) ⇒ V (X) = npq.

3. Distributia Poisson: X ∈ Poiss(λ) ⇒ V (X) = λ.

4. Distributia geometrica: X ∈ Geom(p) ⇒ V (X) = q/p2.

5. Distributia normala: X ∈ N(µ, σ2) ⇒ V (X) = σ2.

Corelatia a doua variabile aleatoare este un indicator al tipului de dependenta al aces-tora. Astfel, corelatia variabilelor aleatoare X si Y se defineste prin:

λ(X, Y ) = E[X − E(X)][Y − E(Y )].

Marimea

ρ(X, Y ) =λ(X, Y )

σ(X)σ(Y )

se numeste coeficientul de corelatie al variabilelor aleatoare X si Y . Formula de calcul acorelatiei λ(X, Y ) = E(XY )− E(X)E(Y ).Daca X si Y sunt v.a. independente, atunci λ(X, Y ) = 0;Avem ρ(X, Y ) ∈ [−1, 1].

Fie X o variabila aleatoare avand functia de repartitie F . Functia ϕX : R → C ,definita prin

ϕX(t) = E(eitX

)=

∫ ∞−∞

eitxdF (x), t ∈ R,

se numeste functia caracteristica a variabilei aleatoare X. Daca X are densitatea de prob-abilitate f , atunci

ϕX(t) =

∫ ∞−∞

eitxf(x)dx, t ∈ R,

adica ϕX reprezinta transformata Fourier a functiei f .Daca X este o variabila aleatoare discreta, cu distributia

X :

(xkpk

)k∈I

,

atunciϕX(t) =

∑k∈I

eitxkpk.

Page 44: Probabilitati Si Statistica Eugen Paltanea

44

Functia caracteristica are urmatoarele proprietati:

1. ϕX(0) = 1;

2. ϕ(−t) = ϕX(t), ∀ t ∈ R;

3. |ϕX(t)| ≤ 1, ∀ t ∈ R;

4. ϕaX+b(t) = eibtϕX(at),∀ t ∈ R, ∀ a, b ∈ R;

5. ϕX este uniform continua (deci si continua) pe R;

6. daca X ∈ Ln, atunci ϕX este derivabila de ordinul n, cu

ϕ(n)X (t) = in

∫ ∞−∞

xneitxdF (x), t ∈ R;

7. daca X ∈ ∩∞n=1Ln, atunci ϕX este dezvoltabila ın serie Taylor ın jurul originii:

ϕX(t) =∞∑n=0

tn

n!ϕ

(n)X (0),

cu ϕ(n)X (0) = inE (Xn) , n ∈ N;

8. (Teorema multiplicarii) Daca X1, X2, · · · , Xn sunt variabile aleatoare independente,atunci

ϕX1+X2+···+Xn = ϕX1ϕX2 · · ·ϕXn .

9. (Teorema de unicitate)

(a)

F (x2)−F (x1) = P x1 < X ≤ x2 =1

πlimc→∞

∫ c

−c

e−itx1 − e−itx2

itϕX(t) dt, ∀ x1 < x2;

(b)

F (x) =1

2πlim

y→−∞limc→∞

∫ c

−c

e−ity − e−itx

itϕX(t) dt, ∀ x ∈ R.

Functiile caracteristice ale unor distributii clasice.

1. Distributia Bernoulli: X ∈ Bin(1, p) ⇒ ϕX(t) = 1 + p (eit − 1) , t ∈ R.

2. Distributia binomiala: X ∈ Bin(n, p) ⇒ ϕX(t) = [1 + p (eit − 1)]n, t ∈ R.

3. Distributia Poisson: X ∈ Poiss(λ) ⇒ ϕX(t) = eλ(eit−1), t ∈ R.

4. Distributia geometrica: X ∈ Geom(p) ⇒ ϕX(t) = peit

peit−eit+1, t ∈ R.

5. Distributia normala: X ∈ N(µ, σ2) ⇒ ϕX(t) = eiµt−t2σ2

2 , t ∈ R.

6. Distributia exponentiala: X ∈ Exp(λ) ⇒ ϕX(t) = λλ−it , t ∈ R.

Page 45: Probabilitati Si Statistica Eugen Paltanea

45

2.11 Test 2 de evaluare/autoevaluare

1. Definiti functia de repartitie a unei variabile aleatoare si descrieti proprietatile aces-teia. Discutati cazul variabilelor aleatoare independente.

2. Calculati media, dispersia si functia caracteristica pentru o variabila aleatoare:

(a) Poisson;

(b) exponentiala;

(c) geometrica.

3. Variabila aleatoare X are distributia discreta:

X :

(1 2 3p1 p2 p3

),

unde p1, p2, p3 > 0, cu p1 +p2 +p3 = 1. Stiind ca X are media E(X) = 74

si dispersiaV (X) = 11

16, sa se determine probabilitatile p1, p2, p3.

4. Sa se determine constantele reale a si b astfel ca functia F (x) = a+ b arctgx, x ∈ R,sa fie functia de repartitie a unei variabile aleatoare X si apoi sa se calculeze E(X2).

5. Fie functia f : R→ R,

f(x) =

a√1−x2 , x ∈ (−1, 1)

0, x ∈ (−∞,−1] ∪ [1,∞).

(a) Sa se determine a > 0 astfel ıncat f sa reprezinte densitatea de probabilitate aunei variabile aleatoare X.

(b) Sa se determine media E(X) si dispersia V (X) a variabilei aleatoare X.

(c) Sa se calculeze P|X| ≤ 1

2

.

6. Timpul de asteptare ıntr-o statie de autobuz este o variabila aleatoare cu functia derepartitie

F (x) =

0, x < 0;x/2, 0 ≤ x < 1;1/2, 1 ≤ x < 2;x/4, 2 ≤ x < 4;1, x ≥ 4.

Sa se determine:

(a) probabilitatea ca o persoana sa astepte ın statie mai mult de 3 minute;

(b) probabilitatea ca o persoana sa mai astepte ın statie cel putin de 2 minute,dupa ce a asteptat 1 minut.

7. Sa se calculeze functia caracteristica a variabilei aleatoare X cu densitatea de prob-abilitate:

f(x) =

0, |x| ≥ 2;12

(1− |x|

2

), |x| < 2

.

Page 46: Probabilitati Si Statistica Eugen Paltanea

46

2.12 Competente

• Operarea cu variabile aleatoare discrete sau continue.

• Determinarea functiei de repartitie a variabilelor aleatoare si utilizarea proprietatiloraceteia pentru calculul probabilitatii unor evenimente.

• Operarea cu functia de densitate pentru variabile aleatoare de tip continuu, cu uti-lizarea proprietatilor acesteia.

• Utilizarea ın aplicatii concrete a conceptului de variabile aleatoare independente.

• Calculul mediei, dispersiei, mediilor de ordin superior ale variabilelor aleatoare detip continuu si discret.

• Utilizarea ın aplicatii a proprietatilor mediei si dispersiei.

• Calculul corelatiei si a coeficientului de corelatie a doua variabile aleatoare.

• Calculul functiei caracteristice a unei variabile aleatoare continue sau discrete.

• Operarea cu distributii clasice continue sau discrete.

• Formalizarea ın limbajul variabilelor aleatoare a unor marimi aleatoare.

• Rezolvarea de probleme care implica variabile aleatoare.

Page 47: Probabilitati Si Statistica Eugen Paltanea

Unitatea de ınvatare 3

Convergenta sirurilor de variabilealeatoare

3.1 Introducere

Studiul convergenta sirurilor de variabilelor aleatoare, ın acceptiuni specifice teoriei prob-abilitatilor, evidentiaza fenomene asimptotice utile. Un sir de variabile aleatoare poateconverge la o variabila aleatoare (distributie limita) ın sens ”tare” sau ın sens ”slab”.Convergenta frecventei de realizare a unui eveniment, ıntr-un sir de experiente identicesi independente, la probabilitatea acelui eveniment este asigurata de Legea numerelormari. Legea slaba a numerelor mari se deduce din inegalitatea lui Cebısev. Teoremalimita centrala, considerat cel mai important rezultat al teoriei probabilitatilor, stabilesteconvergenta la legea normala a distributiei normalizate a sumelor partiale ale unui sir devariabile aleatoare independente si identic distribuite. Rezultatele asimptotice mentionateau o importanta majora ın statistica matematica.

3.2 Inegalitati fundamentale

Urmatoarele inegalitati elementare joaca un rol fundamental ın teoria probabilitatilor.

Teorema 3.2.1. (Inegalitatea lui Markov) Fie X ∈ Ln(Ω), unde n ∈ N∗. Atunci

P|X| > a ≤ E (|X|n)

an, ∀ a > 0.

Demonstratie. Fie F functia de repartitie a variabilei aleatoare X ∈ Ln(Ω). Pentrua > 0, avem

E (|X|n) =

∫[−a,a]

|x|ndF (x) +

∫(−∞,−a]∪[a,∞)

|x|ndF (x) ≥ an∫

(−∞,−a]∪[a,∞)

1 dF (x)

= an[F (−a) + 1− F (a)] ≥ anP|X| > a,

de unde concluzia.

47

Page 48: Probabilitati Si Statistica Eugen Paltanea

48

Teorema 3.2.2. (Inegalitatea lui Cebısev (Chebyshev)) Fie X ∈ L2(Ω), avand mediaE(X) = µ si dispersia V (X) = σ2. Atunci

P|X − µ| > a ≤ σ2

a2, ∀ a > 0.

Demonstratie. Aplicam inegalitatea lui Markov variabilei aleatoare Z = X −µ, pentrun = 2.Inegalitatea lui Cebısev se utilizeaza la demonstrarea legii slabe a numerelor mari.

3.3 Tipuri de convergenta. Relatii

Vom defini convergenta sirurilor de variabile aleatoare, ın diverse acceptiuni. Studiulcomportarii asimptotice a sirurilor de variabile aleatoare reprezinta o preocupare majoraa teoriei probabilitatilor.

Definitia 3.3.1. Fie X o variabila aleatoare si (Xn)n≥1 un sir de variabile aleatoare defi-nite pe campul de probabilitate (Ω,F,P). Fie F functia de repartitie a variabilei aleatoareX, iar Fn functia de repartitie a variabilei aleatoare Xn, n ≥ 1. Definim urmatoareletipuri de convergenta ale sirului (Xn)n≥1 catre limita X:

1. sirul (Xn)n≥1 converge ın distributie (repartitie) la X, notat prin

Xnd→ X,

daca limn→∞

Fn (x0) = F (x0), pentru orice punct de continuitate x0 ∈ R al functiei F ;

2. sirul (Xn)n≥1 converge ın probabilitate la X, notat prin

Xnp→ X,

daca limn→∞

P |Xn −X| > ε = 0, ∀ ε > 0;

3. sirul (Xn)n≥1 converge aproape sigur la X, notat prin

Xna.s.→ X,

daca P Xn → X = 1;

4. sirul (Xn)n≥1 converge ın spatiul Lk(Ω) la X, unde k ∈ N∗, notat prin

XnLk→ X,

daca limn→∞

E(|Xn −X|k

)= 0.

Convergentele ın distributie si ın probabilitate sunt convergente slabe, ın timp ceconvergentele aproape sigura si ın Lk sunt convergente tari. Aceasta clasificare formalaeste sustinuta de urmatoarea teorema de ierarhizare a tipurilor de convergenta definiteanterior.

Page 49: Probabilitati Si Statistica Eugen Paltanea

49

Teorema 3.3.1. Fie X o variabila aleatoare si (Xn)n≥1 un sir de variabile aleatoaredefinite pe campul de probabilitate (Ω,F,P). Au loc implicatiile

1.Xn

p→ X =⇒ Xnd→ X;

2.Xn

a.s.→ X =⇒ Xnp→ X;

3.

XnLk→ X =⇒ Xn

p→ X.

Implicatiile reciproce sunt false.

Demonstratie. Vom demonstra doar primele doua implicatii.1. Presupunem Xn

p→ X. Fie x0 ∈ R un punct de continuitate al functiei F . Consideramε > 0, arbitrar. Deoarece, pentru n ≥ 1, avem

X ≤ x0 − ε \ |Xn −X| > ε ⊂ X ≤ x0 − ε \ X < Xn − ε ⊂ Xn ≤ x0 ,

obtinem

F (x0 − ε)− P |Xn −X| > ε ≤ P (X ≤ x0 − ε \ |Xn −X| > ε) ≤ Fn (x0) .

Pe baza ipotezei, limn→∞

P |Xn −X| > ε = 0. Atunci

F (x0 − ε) ≤ lim infn→∞

Fn (x0) . (3.1)

Apoi, pentru n ≥ 1, avem

Xn ≤ x0 \ |Xn −X| > ε ⊂ Xn ≤ x0 \ Xn < X − ε ⊂ X ≤ x0 + ε ,

de unde

Fn (x0)− P |Xn −X| > ε ≤ P (Xn ≤ x0 \ |Xn −X| > ε) ≤ F (x0 + ε) .

Pe baza ipotezei, rezultalim supn→∞

Fn (x0) ≤ F (x0 + ε) . (3.2)

Din (3.1), (3.2) si continuitatea lui F ın x0, obtinem limn→∞

Fn (x0) = F (x0). Deci Xnd→ X.

2. Presupunem Xna.s.→ X. Avem

ω ∈ Xn → X ⇔ ∀ ε > 0, ∃ n ≥ 1, ∀ k ≥ n : |Xn(ω)−X(ω)| < ε.

Conform ipotezei, rezulta

P(∪∞n=1 ∩∞p=0 |Xn+p −X| < ε

)= 1, ∀ ε > 0,

de undelimn→∞

P(∩∞p=0|Xn+p −X| < ε

)= 1, ∀ ε > 0.

Page 50: Probabilitati Si Statistica Eugen Paltanea

50

Cum ∩∞p=0|Xn+p −X| < ε ⊂ |Xn −X| < ε, vom deduce

limn→∞

P|Xn −X| < ε = 1, ∀ ε > 0,

sau, trecand la evenimentele contrare,

limn→∞

P|Xn −X| ≥ ε = 0, ∀ ε > 0.

Rezulta Xnp→ X.

3.4 Legile numerelor mari

Legea numerelor mari reflecta urmatoare proprietate: frecventa de aparitie a unui eveni-ment ıntr-un sir de experiente identice, independente, tinde catre probabilitatea de realizarea evenimentului ın fiecare experienta. Proprietatea a fost descrisa pentru prima data lasfarsitul sec. al XVI-lea de matematicianul italian Gerolamo Cardano (1501-1576). For-malizarea matematica (pentru variabile aleatoare binare) ca o lege a numerelor mari ise datoreaza lui Jacob Bernoulli (publicata ın lucrarea Ars conjectandi, 1713). In 1837,S.D. Poisson a descris-o sub numele de ”la Loi des grands nombres”. Contributii impor-tante la demonstrarea riguroasa si extinderea rezultatului sunt datorate lui Chebyshev(demonstrarea legii slabe a numerelor mari, 1837), Markov, Borel (demonstrarea legii taria numerelor mari, 1909), Cantelli, Kolmogorov si Khinchin.

Formalizarea Bernoulli a fenomenului observat de Cardano este urmatoarea. Sa con-sideram ca, ıntr-o experienta, un anumit eveniment A se produce cu probabilitatea p =P(A). Fie sirul (Xn)n≥1 de variabile aleatoare Bernoulli, independente si identic distribuite(iid), asociate sirului de experiente considerat, avand distributia comuna

Xn :

(0 1q p

), n ∈ N∗.

Notam Sn = X1+X2+· · ·+Xn care indica numarul de aparitii (realizari) ale evenimentuluiA ın n experiente. Frecventa de realizare a evenimentului A este deci Sn/n. Fenomenuldescris de legea numerelor mari este prin urmare

Snn→ p = E(X1).

Conergenta frecventei de aparitie a evenimentului la probabilitatea sa se poate realiza ınsensul unui tip de convergenta slab (lege slaba a numerelor mari) sau ın sensul unui tip deconvergenta tare (lege tare a numerelor mari). Rezultatul este extins la variabile aleatoarecu medie si dispersie finite.

Teorema 3.4.1. (Legea slaba a numerelor mari)Fie (Xn)n≥1 un sir de variabile aleatoare independente si identic distribuite (iid), cuE(X1) = µ si V (X1) = σ2. Notam Sn = X1 + X2 + · · · + Xn, n ∈ N∗. Atunci areloc convergenta ın probabilitate

Snn

p→ µ.

Page 51: Probabilitati Si Statistica Eugen Paltanea

51

Demonstratie. Vom interpreta µ = E(Xn), n ∈ N∗, ca o variabila aleatoare constanta,care ia valoarea µ cu probabilitatea 1. Avem E(Sn) =

∑nk=1 E(Xk) = nµ si V (Sn) =∑n

k=1 V (Xk) = nσ2. Fie ε > 0, arbitrar. Conform inegalitatii lui Chebyshev,

P∣∣∣∣Snn − µ

∣∣∣∣ > ε

= P |Sn − E(Sn)| > nε ≤ V (Sn)

n2ε2=

σ2

nε2.

Rezulta

limn→∞

P∣∣∣∣Snn − µ

∣∣∣∣ > ε

= 0.

Cum ε > 0 este arbitrar, obtinem concluzia.Mentinam ca legea slaba a numerelor poate fi formulata pentru siruri de variabile aleatoareindependente (dar neidentic distribuite) cu dispersii uniform marginite (Chebyshev), re-spectiv pentru siruri de variabile de v.a. cu proprietatea V (Sn)/n2 → 0 (Markov).Prezentam (fara) demonstratie si o versiune a legii tari a numerelor mari.

Teorema 3.4.2. (Legea tare a numerelor mari)Fie (Xn)n≥1 un sir de variabile aleatoare independente si identic distribuite (iid), dinspatiul L4 (E(|X1|4) <∞) cu E(X1) = µ. Fie Sn = X1 +X2 + · · ·+Xn, n ∈ N∗. Atunci

Snn

a.s.→ µ.

3.5 Teorema limita centrala

Teorema limita centrala, ın versiunea clasica, stabileste ca sumele partiale ”normalizate”ale unui sir de variabile aleatoare iid, cu dispersie finita, tind ın distributie catre legeanormala (gaussiana). Rezultatul admite numeroase extinderi relativ la siruri de variabilealeatoare heterogene, neindependente, supuse unor anumite conditii. De asemenea, rezul-tatul se extinde la siruri de vectori aleatori.

Prima versiune a acestei teoreme a fost formulata de Abraham de Moivre (1733) pentruvariabile aleatoare de tip Bernoulli, cu p = 1/2). Pierre-Simon Laplace generalizeazarezultatul ın lucrarea Theorie Analytique des Probabilites (1812), constatand apropiereadistributiei binomiale de distributia normala. In 1901, matematicianul rus AleksandrLyapunov a definit ın termeni generali si a demonstrat riguros teorema limita centrala.Teorema limita centrala este considerata rezultatul principal al teoriei probabilitatilor.

Enuntam pentru ınceput rezultatul datorat lui de Moivre si Laplace relativ la siruri iidde v. a. Bernoulli.

Teorema 3.5.1. (Teorema de Moivre-Laplace) Fie (Xn)n≥1 un sir de variabile aleatoareBernoulli independente si identic distribuite (iid), de parametru p, avand media comunap si dispersia comuna pq (unde q=1-p). Pentru n ∈ N∗, notam Sn =

∑nk=1Xk si

In =

k − np√npq

, k = 0, 1, · · · , n.

Atunci, pentru oricare interval [a, b] ⊂ R, are loc:

limn→∞

(sup

x∈In∩[a,b]

∣∣∣∣√2πnpq · PSn − np√

npq= x

− e−

x2

2

∣∣∣∣)

= 0

Page 52: Probabilitati Si Statistica Eugen Paltanea

52

Demonstratia se bazeaza pe aproximarea factorialului data de formula lui Stirling

n! =√

2nπ(ne

)neθn ,

unde 0 < θn < 112n, n ≥ 1. Din Teorema de Moivre-Laplace se deduce o versiune

particulara a Teoremei limita centrala. Enuntul clasic general al acestei teoreme esteprezentat ın continuare.

Teorema 3.5.2. (Teorema limita centrala) Fie (Xn)n≥1 un sir de variabile aleatoare in-dependente si identic distribuite (iid), cu E(X1) = µ si V (X1) = σ2. Consideram sirul devariabile aleatoare Sn = X1 +X2 + · · ·+Xn, n ∈ N∗. Atunci:

1.

limn→∞

Pa ≤ Sn − nµ

σ√n≤ b

=

1√2π

∫ b

a

e−x2

2 , ∀ a, b ∈ R, a < b;

2. (versiunea Lindeberg-Levy) Are loc urmatoarea convergenta ın distributie catre ovariabila aleatoare gaussiana:

√n

σ

(Snn− µ

)d→ X,

unde X ∈ N(0, 1).

Demonstratie. (schita)Consideram sirul de v. a. iid Yn = Xn−µ

σ, n ≥ 1, de medie comuna 0 si dispersie comuna 1.

Atunci, conform Teoremei 2.9.1, 7, functia caracteriatica a variabilelor aleatoare Yn estede forma

ϕYn(t) = 1− t2

2+ 0

(t2), t→ 0.

Fie

Zn =

∑nk=1 Yk√n

=Sn − nµσ√n

, n ≥ 1.

Pe baza proprietatilor functiei caracteristice (Teorema 2.9.1), obtinem

ϕZn(t) =

[ϕY1

(t√n

)]n=

[1− t2

2n+ 0

(t2

n

)]nn→∞→ e−

t2

2 .

Dar, pentru X ∈ N(0, 1), avem ϕX(t) = e−t2

2 , t ∈ R (a se vedea Exemplul 3.10.1). Con-

form teoremei de unicitate (Teorema 2.9.2) se obtine Znd→ X. Astfel, teorema limita

centrala este demonstrata.

Page 53: Probabilitati Si Statistica Eugen Paltanea

53

3.6 Rezumat

Inegalitatea lui Markov Fie X ∈ Ln(Ω), unde n ∈ N∗. Atunci

P|X| > a ≤ E (|X|n)

an, ∀ a > 0.

Inegalitatea lui Cebısev (Chebyshev) Fie X ∈ L2(Ω), avand media E(X) = µ sidispersia V (X) = σ2. Atunci

P|X − µ| > a ≤ σ2

a2, ∀ a > 0.

Definim urmatoarele tipuri de convergenta ale sirului (Xn)n≥1 catre limita X:

1. sirul (Xn)n≥1 converge ın distributie (repartitie) la X, notat prin

Xnd→ X,

daca limn→∞

Fn (x0) = F (x0), pentru orice punct de continuitate x0 ∈ R al functiei F ;

2. sirul (Xn)n≥1 converge ın probabilitate la X, notat prin

Xnp→ X,

daca limn→∞

P |Xn −X| > ε = 0, ∀ ε > 0;

3. sirul (Xn)n≥1 converge aproape sigur la X, notat prin

Xna.s.→ X,

daca P Xn → X = 1;

4. sirul (Xn)n≥1 converge ın spatiul Lk(Ω) la X, unde k ∈ N∗, notat prin

XnLk→ X,

daca limn→∞

E(|Xn −X|k

)= 0.

Au loc implicatiile

• Xnp→ X =⇒ Xn

d→ X;

• Xna.s.→ X =⇒ Xn

p→ X;

• XnLk→ X =⇒ Xn

p→ X.

Page 54: Probabilitati Si Statistica Eugen Paltanea

54

Implicatiile reciproce sunt false.Legea slaba a numerelor mari Fie (Xn)n≥1 un sir de variabile aleatoare indepen-

dente si identic distribuite (iid), cu E(X1) = µ si V (X1) = σ2. Notam Sn = X1 + X2 +· · ·+Xn, n ∈ N∗. Atunci are loc convergenta ın probabilitate

Snn

p→ µ.

Legea tare a numerelor mari Fie (Xn)n≥1 un sir de variabile aleatoare independentesi identic distribuite (iid), din spatiul L4 (E(|X1|4) < ∞) cu E(X1) = µ. Fie Sn =X1 +X2 + · · ·+Xn, n ∈ N∗. Atunci

Snn

a.s.→ µ.

Teorema limita centrala Fie (Xn)n≥1 un sir de variabile aleatoare independente siidentic distribuite (iid), cu E(X1) = µ si V (X1) = σ2. Consideram sirul de variabilealeatoare Sn = X1 +X2 + · · ·+Xn, n ∈ N∗. Atunci:

1.

limn→∞

Pa ≤ Sn − nµ

σ√n≤ b

=

1√2π

∫ b

a

e−x2

2 , ∀ a, b ∈ R, a < b;

2. (versiunea Lindeberg-Levy) Are loc urmatoarea convergenta ın distributie catre ovariabila aleatoare gaussiana:

√n

σ

(Snn− µ

)d→ X,

unde X ∈ N(0, 1).

Page 55: Probabilitati Si Statistica Eugen Paltanea

55

3.7 Test 3 de evaluare/autoevaluare

1. Sa se enunte si sa se demonstreze Legea slaba a numerelor mari.

2. Sa se enunte Teorema limita centrala, adaptata pentru variabile aleatoare de tipgeometric.

3. Sa se determine functia de repartitie a variabilei aleatoare X care admite functiacaracteristica

ϕX(t) =1

4

(1 + eit

)2.

4. Inegalitatea lui Cebısev aplicata variabilei aleatoare X, cu media E(X) = 3 si dis-persia V (X) = σ2, stabileste:

P |X − 3| ≥ 2 ≤ 0, 16.

Sa se determine σ.

5. La un concurs de biatlon, un sportiv nimereste tinta cu probabilitatea de 45. Stiind

ca sportivul executa ın concurs 25 de trageri, sa se arate ca sansa ca acesta sanimereasca tinta de cel putin 15 ori este mai mare de 85%.

6. Probabilitatea ca un monitor de calculator sa nu aiba rezolutia acceptabila este de0,1. S-au cumparat 1000 de monitoare. Care este probabilitatea ca mai mult de 100monitoare sa nu fie acceptabile? (Nota: se va utiliza aproximarea oferita de Teoremalimita centrala.)

Page 56: Probabilitati Si Statistica Eugen Paltanea

56

3.8 Competente

• Utilizarea conceptelor de convergenta ın distributie, ın probabilitate, aproape sigura.

• Utilizarea ın aplicatii a inegalitatilor lui Markov si Cebısev.

• Utilizarea Legii slabe a numerelor mari ın evaluarea probabilitatii unor evenimente.

• Utilizarea Teoremei limita centrala ın aproximarea probabilitatii unor evenimente.

Page 57: Probabilitati Si Statistica Eugen Paltanea

Unitatea de ınvatare 4

Elemente de statistica matematica

4.1 Introducere

Statistica matematica este o ramura importanta a matematicii, care utilizeaza rezultateleoferite de teoria probabilitatilor. Progresul ın societate, ın particular ın stiinta, este ade-seori datorat experimentului. Cercetatorul realizeaza o experienta si obtine o serie dedate, pe baza carora generealizeaza rezultatele experientei la o clasa de experiente sim-ilare. Acest tip de extindere se datoreaza unui rationament de tip inductiv (obtinereaunor informatii generale din analiza unor informatii particulare). Statistica analizeazadate concrete, locale, obtinute experimental, pentru a prognoza date cu caracter general,a descoperi legile care guverneaza fenomemul aleator studiat. In acelasi timp, statistica sepreocupa de verosimilitatea matematica a prognozei, masurand cu mijloace matematicegradul de ıncredere ın rezultatele generale propuse.

Prezentarea de fata are ca obiectiv familiarizarea cu cateva notiuni de baza din teoriastatisticii matematice, precum: populatie statistica, sondaj, esantion, estimator si carac-teristicile sale. Pentru simplificarea expunerii, ne vom rezuma la descrierea unor elementede statistica esantioanelor Bernoulli.

4.2 Notiuni de baza

Statistica opereaza cu notiuni specifice. Astfel, populatia statistica reprezinta multimeatuturor elementelor avute ın vedere ın cadrul unui studiu statistic. De regula, pentruo populatie mare, studiul statistic se realizeaza prin sondaj . Sondajul consta ın obser-varea (examinarea, chestionarea) unei parti a populatiei, numita esantion. Numarul ele-mentelor unui esantion (obtinut prin sondaj si examinat) se numeste volumul esantionului.De regula, volumul esantionului se stabileste (pe baza unor evaluari matematice) ast-fel ıncat sa poata furniza date generale concludente/veridice. Scopul studiului statisticeste estimarea unei proprietatii/particularitati a populatiei statistice. Functia matem-atica care realizeaza estimarea se numeste estimator. Apeland la modelul particular alesantioanelor Bernoulli, vom trece ın revista calitatile impuse unui estimator de calitate.

57

Page 58: Probabilitati Si Statistica Eugen Paltanea

58

4.3 Estimatori. Proprietati

Cel mai simplu studiu statistic se refera la analiza cazului binar: fiecare individ (element)al populatiei statistice are valoarea 1 sau 0 (raspunde cu 1 sau 0 la un chestionar). Neintereseaza proportia indivizilor cu valoarea 1 ın cadrul ıntregii populatii statistice. Ex-aminarea/chestionarea indivizilor prin sondaj se modeleaza printr-o variabila aleatoare”bservabila”, care indica numarul indivizilor care valoreaza 1 ıntr-un esantion de volumn. La o populatie ”mica”, este logic sa apelam la modelul oferit de legea hipergeometrica,ıntrucat extragerea unui esantion dintr-o populatie mica afecteaza ın mod cert proportiavalorii 1 ın cadrul populatiei nesondate. In schimb, daca volumul populatiei este ”mare”ın raport cu volumul esantionului atunci este rezonabil sa considera ca fiecare element alpopulatiei statistice se reprezinta printr-o variabila aleatoare Bernoulli X, cu distributia

X :

(0 1

1− θ θ

),

unde parametrul θ (necunoscut) reprezinta proportia valorii 1 ın populatia statistica.Astfel, PX = 1 = θ reprezinta sansa ca elementul X sa aiba valoarea 1. Evident,PX = 0 = 1 − θ reprezinta sansa ca X sa ia valoarea 0. Obiectul studiului statisticıntreprins consta ın estimarea parametrului θ, din observarea unui esantion de volum n,(X1, X2, · · · , Xn), reprezentand un vector aleator cu componentele variabile aleatoare iid,de tip Bin(1, θ). Distributia esantionului se defineste distributia comuna a v. a.X1, X2, · · · , Xn.

O statistica (sau un estimator) se defineste ca o functie a variabilelor aleatoare”observabile” (cele ale n-esantionului), deci care nu depinde de parametrii necunoscuti.

Pentru evaluarea apriorica a parametrului necunoscut θ se propune estimatorul mediaempirica , definit prin:

X =Snn, unde Sn = X1 +X2 + · · ·+Xn.

In fapt, media empirica exprima frecventa de aparitie a valorii 1, deci, intuitiv, pare aoferi o buna evaluare a parametrului θ. Descriem ın continuare proprietatile principale alemediei empirice X, ca estimator a lui θ.

1. X este un estimator fara abatere a lui θ: Eθ(X) = θ, ∀ θ ∈ (0, 1).

Demonstratie. Eθ(X) = [∑n

k=1 Eθ(Xk)] /n = (nθ)/n = θ.

2. X este unicul estimator fara abatere a lui θ, care depinde de Sn.

Demonstratie. Fie g : 0, 1, 2, · · · , n → R, astfel ıncat

θ = Eθ [g(Sn)] = θ, ∀ θ ∈ (0, 1). (4.1)

Avem

Eθ [g(Sn)] =n∑k=0

g(k)PSn = k =n∑k=0

g(k)Cknθ

k(n− θ)1−k,

Page 59: Probabilitati Si Statistica Eugen Paltanea

59

iar pe de alta parte

θ = Eθ(X) = Eθ

(Snn

)=

n∑k=0

k

nPSn = k =

n∑k=0

k

nCknθ

k(1− θ)n−k.

Atunci, conform (4.1), obtinem

n∑k=0

(g(k)− k

n

)Ckn

1− θ

)k= 0, ∀ θ ∈ (0, 1).

Rezulta ca polinomul f =∑n

k=0

(g(k)− k

n

)CknX

k este identic nul.

Prin urmare g(k) = k/n, k = 0, 1, · · · , n, deci g(Sn) = X.

3. X este estimatorul lui θ de maxima verosimilitate.

Demonstratie. Sa presupunem ca au fost observate valorile (x1, x2, · · · , xn) ∈ 0, 1n.Notam sn =

∑nn=1 xk. Probabilitatea de a observa aceste valori este θsn(1−θ)n−sn . Atunci,

cea mai verosimila valoare pe care o poate lua θ este cea care maximizeaza functia

L : [0, 1]→ [0, 1], L(u) = usn(1− u)n−sn .

Presupunem 0 < sn < n. Avem

L′(u) = L(u)sn − nuu(1− u)

.

Radacina derivatei lui L este u0 = snn

. Urmarind semnul derivatei, deducem ca L ısi atinge

maximul ın u0. Rezulta ca X = Sn/n este estimatorul de verosimilitate maxima.

4. Cand talia esantionului tinde la infinit, X converge la θ cu o rata exponentiala.

Demonstratie. Vom remarca ın primul rand ca, pe baza inegalitatii lui Chebyshev,

Xp→ θ (legea slaba numerelor mari).

Pe de alta parte, conform Teoremei limita centrala (Teorema 3.5.2),√n

θ(1− θ)(X − θ

) d→ X,

unde X ∈ N(0, 1).Faptul ca rata convergentei este exponentiala se deduce din Teorema marilor deviatii,

pe care nu o vom include ın aceasta prezentare.

5. Riscul patratic mediu al estimatorului X a lui θ converge la 0.

Page 60: Probabilitati Si Statistica Eugen Paltanea

60

Demonstratie. Riscul patratic mediu al estimatorului X este defint prin Eθ

(X − θ

)2.

Avem

(X − θ

)2= Eθ

(Snn− θ)2

=1

n2Eθ (Sn − nθ)2 =

n

n2V (X1) =

θ(1− θ)n

≤ 1

4n,

de unde Eθ

(X − θ

)2 n→∞→ 0.

6. Abaterea lui X fata de θ poate fi evaluata prin Teorema limita centrala.

Demonstratie. Fie a > 0. Pentru n ≥ 4θ(1−θ)a2 , avem a

√n√

θ(1−θ)≥ 2, de unde

Pθ|X − θ| ≥ a = P

∣∣∣∣∣ Sn − nθ√nθ(1− θ)

∣∣∣∣∣ ≥ a√n√

θ(1− θ)

≤ P

∣∣∣∣∣ Sn − nθ√nθ(1− θ)

∣∣∣∣∣ ≥ 2

≈ 1√

∫|x|≥2

e−x2

2 dx < 0, 05.

4.4 Estimatori bayesieni

Media empiricaX este o estimare judicioasa a parametrului θ ın absenta oricaror informatiisuplimentare. Dar problema se modifica ın cazul unor informatii apriorice despre θ. Dacaaceste informatii exista, mai precis, daca se cunoaste o masura de probabilitate pe [0, 1]reprezentand distributia valorilor posibile ale lui θ, atunci se va cerceta estimatorul g(Sn)a lui θ care minimizeaza riscul patratic mediu, tinand cont de aceasta distributie.

Fie D o multime numarabila din [0, 1], iar ρ : D → [0, 1] o masura de probabilitate peD, cu

∑x∈D ρ(x) = 1. Pentru o functie g definita pe 0, 1, · · · , n cu valori ın [0, 1], riscul

patratic mediu al estimatorului g(Sn) este∑θ∈D

ρ(θ)Eθ [g(Sn)− θ]2 =∑θ∈D

ρ(θ)n∑k=0

(g(k)− θ)2Cknθ

k(1− θ)n−k

=n∑k=0

Ckn

(∑θ∈D

ρ(θ)(g(k)− θ)2θk(1− θ)n−k).

Pentru k ∈ 0, 1, · · · , n, consideram functia ψk : [0, 1]→ [0,∞), definita prin

ψk(x) =∑θ∈D

ρ(θ)θk(1− θ)n−k(x− θ)2, x ∈ [0, 1].

Avemψ′k(x) = 2

∑θ∈D

ρ(θ)θk(1− θ)n−k(x− θ), x ∈ [0, 1].

Studiind semnul derivatei, deducem ca ψk atinge minimul ın punctul

xk =

∑θ∈D ρ(θ)θk+1(1− θ)n−k∑θ∈D ρ(θ)θk(1− θ)n−k

∈ [0, 1].

Page 61: Probabilitati Si Statistica Eugen Paltanea

61

Vom defini deci estimatorul bayesian a lui θ de risc patratic mediu minim:

g(Sn) =

∑θ∈D ρ(θ)θSn+1(1− θ)n−Sn∑θ∈D ρ(θ)θSn(1− θ)n−Sn

.

Similar, daca se cunoaste ”a priori” densitatea de probabilitate f a lui θ pe intervalul[0, 1], atunci estimatorul bayesian a lui θ, dependent de Sn, avand riscul patratic minim,va fi

g(Sn) =

∫ 1

0θSn+1(1− θ)n−Snf(θ)dθ∫ 1

0θSn(1− θ)n−Snf(θ)dθ

.

Page 62: Probabilitati Si Statistica Eugen Paltanea

62

4.5 Rezumat

Statistica matematica utilizeaza rezultatele oferite de teoria probabilitatilor pentru a gene-realiza rezultatele unei experient la o clasa de experiente similare. Acest tip de extindere sedatoreaza unui rationament de tip inductiv (obtinerea unor informatii generale din analizaunor informatii particulare). Statistica analizeaza date concrete, locale, obtinute exper-imental, pentru a prognoza date cu caracter general, a descoperi legile care guverneazafenomemul studiat.Notiuni specifice:

• populatia statistica reprezinta multimea tuturor elementelor avute ın vedere ıncadrul unui studiu statistic;

• sondajul reprezinta examinarea (chestionarea) unei parti a populatiei statistice, nu-mita esantion ;

• numarul elementelor unui esantion (obtinut prin sondaj si examinat) se numestevolumul esantionului ;

• scopul unui studiu statistic este estimarea unei proprietatii/particularitati a populatieistatistice. Functia matematica care realizeaza estimarea se numeste estimator ;

• o statistica (sau un estimator se definete ca o functie de variabilelor aleatoareobservabile (cele ale n-esantionului) si nu depinde de parametrii necunoscuti.

Statistica esantioanelor Bernoulli.Modelare: fiecare element al populatiei statistice se reprezinta printr-o variabila aleatoareBernoulli X, cu distributia

X :

(0 1

1− θ θ

),

Pentru evaluarea apriorica a prametrului necunoscut θ se propune estimatorul mediaempirica , definit prin:

X =Snn, unde Sn = X1 +X2 + · · ·+Xn.

Media empirica exprima frecventa de aparitie a valorii 1, deci ofera o evaluare a parametru-lui θ. Proprietatile principale ale mediei empirice X, ca estimator a lui θ.1. X este un estimator fara abatere a lui θ: Eθ(X) = θ, ∀ θ ∈ (0, 1).2. X este unicul estimator fara abatere a lui θ, care depinde de Sn.3. X este estimatorul lui θ de maxima verosimilitate4. Cand talia esantionului tinde la infinit, X converge la θ cu o rata exponentiala.5. Riscul patratic mediu al estimatorului X a lui θ converge la 0.6. Abaterea lui X fata de θ poate fi evaluata prin Teorema limita centrala.Definim estimatorul bayesian a lui θ, de risc patratic mediu minim:

g(Sn) =

∑θ∈D ρ(θ)θSn+1(1− θ)n−Sn∑θ∈D ρ(θ)θSn(1− θ)n−Sn

.

Page 63: Probabilitati Si Statistica Eugen Paltanea

63

Daca θ admite densitatea de probabilitate f pe [0, 1], atunci estimatorul bayesian a lui θeste

g(Sn) =

∫ 1

0θSn+1(1− θ)n−Snf(θ)dθ∫ 1

0θSn(1− θ)n−Snf(θ)dθ

.

Page 64: Probabilitati Si Statistica Eugen Paltanea

64

4.6 Test 4 de evaluare/autoevaluare

1. Definiti media empirica si descrieti proprietatile acestui estimator ın cazul esantioanelorBernoulli.

2. Determinati estimatorul bayesian al unui esantion Bernoulli asociat unei distributiiBeta(α, β) a parametrului de estimat θ.

3. Se observa doua variabile aleatoare Bernoulli indepedente X1 si X2, de parametruθ ∈ (0, 1). Sa se arate ca nu se poate gasi un estimator a fara abatere a lui θ

1−θ caresa depinda de X1 si X2.

4. Cu ajutorul unui n-esantion Bernoulli de parametru θ se cauta estimarea dispersieiθ(1− θ). Sa se arate ca estimatorul T = X(1−X) nu este fara abatere, dar existaun multiplu al sau avand aceasta proprietate.

Page 65: Probabilitati Si Statistica Eugen Paltanea

65

4.7 Competente

• Utilizarea limbajului specific statisticii matematice.

• Utilizarea mediei empirice ca estimator al parametrului unei populatii urmand o legeBernoulli.

• Utilizarea proprietatilor specifice unui estimator de calitate.

• Determinarea estimatorului bayesian care minimizeaza riscul patratic mediu, ın cazulunei distributii de probabilitate cunoscute.

Page 66: Probabilitati Si Statistica Eugen Paltanea

66

Page 67: Probabilitati Si Statistica Eugen Paltanea

Bibliografie

[1] G. Ciucu, C. Tudor, Probabilitati si procese stochastice, Ed. Academiei Romane, 1979(vol 1-2).

[2] I. Cuculescu, Teoria probabilitatilor, Ed. All, 1998.

[3] D. Dacunha-Castelle, M. Duflo, Probabilites et statistique, Masson, 1994 (vol 1).

[4] W. Feller, Introduction to probability theory and its applications, Wiley, New York,1968.

[5] P.G. Hoel, Introduction to mathematical statistics, Wiley, 1984.

[6] M. Iosifescu, Gh. Mihoc, R. Theodorescu, Teoria probabilitatilor si statistica matem-atica, Ed. Tehnica, 1966.

[7] O. Onicescu, Gh. Mihoc, C. Ionescu-Tulcea, Calculul probabilitatilor si aplicatii, Ed.Academiei Romane, 1965.

67


Recommended