+ All Categories
Home > Documents > 12.Statistica Descriptiva Var Calitative

12.Statistica Descriptiva Var Calitative

Date post: 02-Mar-2016
Category:
Upload: daniral
View: 36 times
Download: 0 times
Share this document with a friend

of 20

Transcript
  • Statistica descriptivaUNIVARIATAVARIABILE CALITATIVE

  • Teoria informatieiInformatia cu care opereaza stiintele biologice este caracterizata prin extrema complexitate si incertitudineDin acest punct de vedere se deosebeste fundamental de informatia cu care se opereaza n alte domenii ale stiintei.Teoria informatiei este o ramura a teoriei probabilitatilor si statisticii matematice, care preia o serie de concepte din termodinamica si din mecanica statistica, anume cele folosite pentru exprimarea dezordinii, adica entropiei.

  • Variabile calitativeTratarea cantitativa a unei variabile calitative presupune studierea unei singure variante in opozitie cu ce ramane in afara ei adica binalizarea variabileiO variabila calitativa poate fi studiata printr-o serie statistica univariataEx: alb, rosu, alb, galben,alb, verde, rosu, galben, alb, alb

    Tendinta centrala este data de F (sau 1-F)

    Dispersia F*(1-F)

  • Tratarea calitativa (specifica)Indicatori de diversitateEntropia informationala a lui Shannon - HEntropia relativa in sens statistic, regularitate si echitabilitate R(Hrel)

    Primul indice entropic Lloyd-Geraldi Al doilea indice Lloyd-Geraldi Masura (geometrica) de diversitate a lui MacIntosh - D

  • Teoria informatieiFundamentata de catre Claude Shannon ntro serie de articole ncepnd cu A Mathematical Theory of Communication aparut n 1948 n Bell Systems Technical Journalncearca sa se stabileasca o masura a surprizei pe care o resimtim atunci cnd aflam rezultatul unui experiment aleatoriu

  • Eveniment aleatoriurezultatele posibile ale unui experiment aleatoriu sunt numite evenimente, iar principalul nostru interes este estimarea probabilitatilor lor de aparitie (viitoare)Notnd cu E1, E2,... evenimentele unei familii complete si cu p1, p2,... probabilitatile respective, informatia de care dispunem cu privire la rezultatul unui experiment viitor poate fi rezumata ntr-un tabel cu doua linii:

  • n acest experiment, E1 + E2 +... este siguriar p1 + p2 + ... = 1

    Ultima relatie exprima faptul ca toate sansele sunt epuizate de evenimentele elementare considerate

    Principala problema a teoriei informatiei consta n asocierea la schema de mai sus a unei masuri a incertitudinii rezultatului.

  • Teoria probabilitatiiconsideram un eveniment (viitor) E a carui probabilitate de aparitie P(E) o estimam (acum - a priori) la valoarea p.

    Ulterior vom primi un mesaj care ne va anunta ca E a aparut

  • Teoria probabilitatiiCe putem spune despre cantitatea de informatie existenta n acest mesaj?

  • Teoria probabilitatiiConform lui Shannon, aceasta cantitate de informatie va reflecta surpriza pe care o vom resimti la primirea mesajului.Intuitiv, daca am estimat a priori ca aparitia evenimentului E este aproape sigura, cu alte cuvinte am estimat ca P(E) este apropiat de 1, nu vom fi prea surprinsi de continutul mesajuluiDimpotriva, daca am estimat o valoare mica, apropiata de 0, a lui P(E), atunci surpriza noastra la aparitia mesajului va fi mare, si cu att mai mare cu ct valoarea p =P(E) a fost mai mica.

  • Teoria probabilitatiiDaca notam cu J (E) cantitatea de informatie existenta n mesajul a aparut evenimentul Esi admitem ca surpriza pe care o resimtim la primirea mesajului nu depinde de continut, ci numai de probabilitatea de aparitie estimata a priori P(E)Vom putea echivala J (E) = I ( p) = I(P(E)),unde I este o functie reala [0, 1] [0, ) .

  • Teoria probabilitatiiEstimarile a priori ale probabilitatilor a doua evenimente independente, E si F sunt:p = P(E), q = P(F)Pe de alta parte, cantitatea de informatie continuta n mesajul a aparut evenimentul E sau F este format din doua mesaje: a aparut evenimentul E si a aparut evenimentul F

  • Teoria probabilitatiiRelatia care descrie estimarile a priori, despre producerea unuia sau a celuilalt eveniment in relatie cu rezultatul functiei probabilistice este:I ( p *q) = I ( p) + I(q) pentru orice p, q [0, 1].Revenind la cantitatea de informatie -surpriza - la primirea mesajului:I (1/2) = 1 (bit)

  • Teoria probabilitatiiFunctia aleasa de Shanon pentru descrierea celui mai simplu eveniment statistic este deci o functie logaritmica:

  • Entropia informationalaShannon in 1948 (teoria matematica a informatiei) a introdus conceptul de entropie ca masura a cantitatii de informatie transmise de o sursaFie sursa E care emite p semnale Sj (j=1,2p), fiecare semnal Sj are frecventa de aparitie Fj, nu cunoastem nimic despre regula de aparitie0Fj 1

  • Entropia informationala (2)Hp a fost denumita entropie informationala si nu simplu entropie pentru a se diferentia de entropia termodinamica (Boltzman 1898), care este o masura a gradului de dezorganizare a unui sistem inchis (principiul II al termodinamicii)Putem spune ca informatia pe care ne-o ofera efectuarea experimentului este tot una cu nedeterminarea pe care o aveam inainte de efectuare; informatia inseamna nedeterminare inlaturata

  • Entropia informationala - proprietatiHp(E)0 - - deoarece este o suma cu semn schimbat de produse negative

    Hp=0 Fj(0)=1, (Fj=0) Un experiment in care se produce un singur rezultat nu contine nici o nedeterminare, o sursa care emite continuu un singur semnal nu comunica nici o informatie

    Daca la un experiment se adauga un rezultat care in mod sigur nu se produce niciodata nedeterminarea nu se schimba Hp+1(F1,F2, Fp,0)=Hp(F1,F2, Fp)

    Hpmax

  • Entropia relativaDin ultima proprietate rezulta ca pe masura ce creste numarul de rezultate posibile ale unui experiment entropia informationala creste Pentru a compara cantitatile de informatie a doua sau mai multe experimente cu numar de rezultate posibil diferite, este nevoie de relativizarea cantitatii de informatie fata de entropia maxima, de aceea s-a introdus notiunea de entropie relativa:

  • Entropie relativaHrel este adimensionalHp este omologul dispersiei; Hrel omologul % (exprimat ca raport nu procentual)Hrel este cu atat mai mare cu cat distributia este mai apropiata de distributia uniforma, - regula echitabila este o buna masura a conceptului de echitabilitate utilizat in ecologie si notat cu RPrin Hrel putem compara doua biocenoze cu numar egal sau diferit de specii in timp ce prin Hp nu putem compara decat biocenoze cu acelasi numar de specii

  • Interpretarea ecologica a diversitatii specificeConceptul complex de biodiversitate cuprinde printre altele si componenta diversitate specifica a unei biocenoze (numarul de specii si regularitatea distributiei lor de frecvente)Interpretarea (Legendre)Numarul de specii p depinde proportional de stabilitatea sistemului ecologicRegularitatea distributiei de specii va fi invers proportionala cu activitatea biologica (transfer de energie de la un nivel trofic la altul)


Recommended