Date post: | 02-Mar-2016 |
Category: |
Documents |
Upload: | dragos-iulian |
View: | 254 times |
Download: | 1 times |
of 83
Teoria transmiterii i codificrii informaiei
Page 1 of 83
UNIVERSITATEA TITU MAIORESCU
Facultatea de INFORMATIC
Profesor univ. dr. ing. Lector univ. dr.ing.
RCUCIU CIPRIAN GRECU DAN
Curs pentru nvmntul la distan
BUCURETI 2011
Teoria transmiterii i codificrii informaiei
Page 2 of 83
UNIVERSITATEA Titu MAIORESCU BUCURETI Facultatea de Informatic nvmnt la Distan
TEORIA TRANSMITERII I CODIFICRII INFORMAIEI
Cursul Teoria transmiterii i codificrii informaiei este o disciplin care ngobleaz ntr-o form unitar concepte din teoria codurilor, teoria semnalelor aleatoare i teoria deciziilor statistice i reprezint una din disciplinele de pregtire care, pentru profilul INFORMATIC, fiind necesar pentru pregtirea studenilor i pentru obinerea creditelor transferabile prin procedurile de evaluare. Modul de prezentare a acestui material are n vedere particularitile nvmntului la distan, la care studiul individual este determinant. Pentru orice nelmuriri fa de acest material v rugm s contactai tutorele de disciplin care are datoria s v ajute oferindu-v toate explicaiile necesare.
Disciplina Teoria transmiterii i codificrii informaiei i propune urmtoarele obiective specifice:
1. nsuirea noiunilor fundamentale din teoria informaiei i din teoria codurilor redundante care stau la baza prelucrrii informaiei, n vederea protejrii acesteia mpotriva perturbaiilor de diferite tipuri.
Dobndirea deprinderilor practice privind realizarea schemelor secveniale liniare de codare i decodare pentru diferite clase de coduri cum sunt: codurile liniare i codurile ciclice.
ntocmirea algoritmilor de codare i decodare i folosirea calculatorului electronic de ctre studeni pentru modelarea canalelor de transmisiuni i a funcionrii dispozitivelor de codare i decodare.
Competenele specifice disciplinei Teoria transmiterii i codificrii informaiei se pot clasifica dup cum urmeaz:
1. Cunoatere i nelegere
Intelegerea noiunilor fundamentale cu care se opereaz n teoria transmiterii i codificrii informaiei:
Cunoasterea si inelegerea algoritmilor de codare i decodare a surselor informaionale care au aplicabilitate n domeniul informaticii;
Cunoasterea si inelegerea algoritmilor de codare i decodare a informaiilor care sunt transmise prin canalul de comunicaie.
2. Explicare i interpretare
Explicarea si interpretarea conceptelor referitoare la entropia informaional, cantitate de informaie etc;
Explicarea modalitatilor de functionare a algoritmilor specifici disciplinei.
3. Instrumental aplicative
Implementarea ntr-un limbaj de programare a algoritmilor specifici disciplinei;
Teoria transmiterii i codificrii informaiei
Page 3 of 83
Proiectarea aplicaiilor pentru rezolvarea unor probleme utiliznd instrumente specifice de structurare a datelor;
Corelarea cunotinelor teoretice cu abilitatea de a le aplica n practic;
Elaborarea unui proiect care sa scoat in eviden importana algoritmilor specifici disciplinei.
4. Atitudinale
Manifestarea unor atitudini favorabile fa de tiin i de cunoatere n general;
Formarea obinuinelor de a recurge la concepte i metode informatice de tip algoritmic specifice n abordarea unei varieti de probleme;
Exprimarea unui mod de gndire creativ n structurarea i rezolvarea problemelor.
Structura cursului este urmtoarea: Modulul 1
1. UNITATEA DE NVARE 1 - ELEMENTE DE TEORIA TRANSMITERII INFORMAIEI
2. UNITATEA DE NVARE 2 - MSURI INFORMAIONALE. Modulul 2
1. UNITATEA DE NVARE 3 - CODAREA SURSELOR INFORMAIONALE; 2. UNITATEA DE NVARE 4 - CANALE DE TRANSMITERE A INFORMAIEI Modulul 3
1. UNITATEA DE NVARE 5 - CODURI DETECTOARE I CORECTOARE DE ERORI;
2. UNITATEA DE NVARE 6 CODURI LINIARE
Este foarte important ca parcurgerea materialului sa se faca in ordinea unitilor de nvare incluse. Fiecare UI (unitate de nvare) conine, pe langa prezentarea notiunilor teoretice, exerciii rezolvate, activiti de lucru individual la care sunt prezentate i indicaii de rezolvare, exemple, i teste de autoevaluare. n plus, la sfritul fiecrei UI sunt incluse probleme propuse care testeaza cunoasterea notiunilor teoretice de catre student.
Materialul a fost elaborat astfel incat algoritmii prezentati s poat fi implementati n orice limbaj de programare. Pentru a face o alegere, limbajul de programare folosit in aplicaii va fi limbajul C/C++.
Pachet software recomandat:
Orice IDE (Integrated Development Environment) pentru limbajul C/C++ poate fi folosit, dar
pentru a face o alegere, mai puin costisitoare, de altfel gratuit, v sugerm IDE-ul numit Dev-Cpp care se poate descrca de pe site-ul http://www.bloodshed.net/dev/devcpp.html.
Bibliografia recomandat se regsete la sfritul fiecrui modul informaional.
Teoria transmiterii i codificrii informaiei
Page 4 of 83
La stabilirea notei finale se iau n
considerare
Ponderea n notare, exprimat n % {Total = 100%}
rspunsurile la examen (evaluarea final)
rspunsurile finale la lucrrile practice de laborator
testarea periodic prin teme pentru acasa
testarea continu pe parcursul semestrului
activitile gen proiecte
50%
20%
10%
10%
10%
Modalitatea de evaluare final: lucrare scris descriptiv i/sau probleme
Cerine minime pentru nota 5 Cerine minime pentru nota 10
nsuirea cunotinelor de baz
Obinerea unui procent de cel putin 45% din procentul maxim alocat
fiecarei activitati care se considera in
stabilirea notei finale.
Activitate n timpul semestrului
Rezolvarea corect i complet a subiectelor de examen
Efectuarea corecta si completa a temelor pentru acasa
Participarea activ la curs si laborator
Elaborarea unui proiect corect, complet si bine documentat
V precizm de asemenea c, din punct de vedere al verificrilor i al notrii, cu adevrat important este capacitatea pe care trebuie s o dobndii i s o probai de a rezolva toat tipologia de probleme aplicative aferente materialului teoretic prezentat n continuare. De aceea v recomandm s parcurgei cu atenie toate aplicaiile rezolvate, s rezolvai aplicaiile propuse prin testele de autoevaluare i temele de control; fii convini c examenul final apeleaz la tipurile de aplicaii prezente n seciunile menionate anterior.
Teoria transmiterii i codificrii informaiei
Page 5 of 83
MODULUL 1
MSURA CANTITATIV A INFORMAIEI
n acest modul sunt prezentate principalele noiuni cu care opereaz teoria informaiei. Notiunea de informatie a aparut mult mai tarziu decat notiunea de energie, iar legile dupa care
informatia apare, se transforma, se pastreaza, se prelucreaza si se foloseste sunt inca insuficient
studiate; abia in zilele noastre se stabilesc bazele intelegerii lor, se elucideaza metodele de studiu si
investigare.
Stabilirea notiunii generalizate de informatie pentru caracterizarea proceselor de conducere
dintr-un punct de vedere unitar,a fost un moment important in stiinta. Intocmai cum introducerea
notiunii de energie a permis sa se analizeze toate fenomenele naturii dintr-un punct de vedere unic,
independent de substratul lor fizic, tot asa,introducerea notiunii de informafie a permis studierea
dintr-un punct de vedere comun a celor mai diferite procese de comanda din natura.
Se numeste informatie orice stire care poarta in sine urma unui fapt, eveniment sau proces
oarecare.
Informatia este comunicarea (mesajul) ce aduce stiri despre fapte, evenimente, obiecte,
procese.In intelesul mai larg, in nofiunea de informatie se pot cuprinde toate stirile despre mediul
care ne inconjoara sau, mai bine zis, care se obtin, in interactiunea omului cu mediul inconjurator. A
obtine o informatie inseamna a afla lucruri ce nu se cunosteau mai inainte sau a obtine noi
cunostinte asupra unui lucru, fapt etc., despre care s-a stiut mai putin inainte.
Acest modul conine dou uniti de nvare i anume: 3. UNITATEA DE NVARE 1 - ELEMENTE DE TEORIA TRANSMITERII
INFORMAIEI 4. UNITATEA DE NVARE 2 - MSURI INFORMAIONALE.
Obiective urmrite: La sfritul parcurgerii acestor uniti de nvare, studenii: vor nelege noiunile fundamentale cu care opereaz Teoria informaiei i care se refer la:
semnal, perturbaie, mesaj, informaie, canale de transmisiuni, codificare, decodificare, probabilitatea erorii de transmisie, complexitatea dispozitivelor de prelucrare a informaiei etc.
vor ti s interpreteze i s opereze cu instrumente matematice care se refer la: modelul probabilistic al surselor discrete de informaie, definiia i proprietile cantitii de informaie: I(x;y), I(X;Y), I(x), I(x/y), I(x;y/z), informaia reciproc dintre un numr arbitrar de evenimente, Entropia i proprietile ei, etc.
vor ti s implementeze ntr-un limbaj de programare sau simulare principalele mrimi studiate.
Timpul mediu necesar nsuirii noiunilor teoretice, formrii deprinderilor de calcul i utilizrii metodelor de rezolvare a problemelor specifice teoriei informaiei este estimat la aproximativ 4-5 ore pentru fiecare unitate de nvare, ntr-un ritm de 2-3 ore pe zi.
Teoria transmiterii i codificrii informaiei
Page 6 of 83
MODULUL 1 UNITATEA DE NVARE 1
ELEMENTE DE TEORIA TRANSMITERII INFORMAIEI
1.1. Informatia generaliti.
n procesele de comanda, procesele energetice care insotesc transmiterea informatiei joaca
un rol secundar. Cantitatea de informatie si cu atat mai mult efectul ei,nu sunt determinate de
cantitatea de energie folosita pentru transmiterea infornafiei. Esenta proceselor de conducere, care se
desfasoara pe baza schimbului de informatie, consta tocmai in aceea ca miscarea si actiunea unor
mase materiale mari sau transmiterea si transformarea unor cantitati mari de energie se dirijeaza si
se controleaza cu ajutorul unor mase materiale mici si al unor cantitati reduse de energie.
n teoria informatiei, caracteristica energetica a fenomenelor trece pe plan secundar,
evidentiindu-se in mod deosebit latura informafionala a sistemului.
Asadar, notiunea de informatie este foarte larga si se poate prezenta sub cele mai variate
forme: aceasta constituie o proprietate de seama a informatiei. Prin mijloacele de telecomunicatii -
telefon,telegraf, radio - se transmit informantii. Prin intermediul vazului, auzului, precum si al
celorlalte simturi, omul primeste zilnic tot felul de informafii despre evenimentele din lumea ce il
inconjoara.
Comunicari complexe, ordine si dispozitiuni se transmit cu ajutorul telefonului, telegrafului
si radioului. Comunicari si mai complexe sunt cele transmise prin intermediul televiziunii, unde
imaginile in miscare sunt insotite de semnale audio.La toate aceste sisteme, transmiterea informatiei
este insotita de un fenomen nedorit,de adaugare la informatia transmisa a unor semnale
perturbatoare ce nu au fost produse de sursele initiale de informantii; in telefonie se distorsioneaza
semnalul de vorbire, in televiziune se deformeaza imaginea, in telegrafie apar greseli de imprimare.
Aceste exemple evidentiaza o alta proprietate de baza a informatiei: in nici un sistem fizic
informatia nu apare intr-o forma curata ci este insotita de diferite perturbatii care pot duce la greseli.
De aceea,una din problemele principale ale teoriei informatiei consta in stabilirea metodelor optime
pentru extragerea informatiei din semnalele care sunt insotite de perturbatii. Notiunea de informatie
a cucerit un loc sigur in stiinta numai atunci cand s-a gasit o masura adecvata pentru caracterizarea
ei. O alta proprietate de seama a informatiei este aceea de a putea fi masurata. Nu este suficient insa
sa se gaseasca o modalitate de masurare a informafiei: trebuie sa existe posibilitatea folosirii acestei
masuri, adica sa existe siguranta ca se pastreaza obiectul masuratorii. Tot asa, informatia care ia
nastere in cadrul unui sistem bine definit si se pastreaza in limitele sistemului respectiv, poate fi
masurata, indiferent de natura sistemului.
Problema principala a teoriei informatiei este studierea transformarii, pastrarii si transmiterii
informatiei. Analiza acestui fenomen a fost facuta pentru prima data de inginerii de telecomunicatii,
care s-au ocupat cu organizarea canalelor destinate transmiterii informatiei.
n realitate, informatia se transmite prin intermediul semnalelor care poarta stirea. Tipuri de
informatie :informatii numerice, informatii logice, de tip text, informatii multimedia:audio, imagine,
video, semnale .
Teoria transmiterii i codificrii informaiei
Page 7 of 83
1.2. Sistemul de transmitere a informatiei.
Purtatorul material al informatiei - semnalul - isi pastreaza capacitatea sa de a transmite
informatia numai in cadrul unui sistem de transmisiuni; schema bloc destul de generala a unui
sistem de transmisiuni este data in fig.1.1
Fig.1.1
Coderul din fig.1.1 executa orice prelucrare a semnalului generat de sursa. O asemenea
prelucrare poate include, de exemplu, o anumita combinatie de modulatie, comprimare de date sau
introducerea unei redundante pentru lupta cu perturbatiile.
Canalul este mediul fizic utilizat pentru transmiterea semanalului:de exemplu linia
telefonica, linia radio sau radioreleu, dispozitivul de memorie sau organismul uman. Asupra
canalului, de regula, actioneaza diferite perturbatii care in liniile de telefonie pot apare din cauza
modificarilor caracteristicii de frecventa, a convorbirilor ce se induc din alte linii, a zgomotului
termic, a impulsurilor parazite, sursa carora pot fi schemele de comutare, a bruiajului intentionat al
adversarului etc.
Decoderul executa prelucrarea semnalului de la iesirea canalului in scopul de a reproduce la
partea de receptie o copie acceptabila iesirii sursei.
Destinatarul poate fi omul sau un dispozitiv tehnic oarecare. Pentru a simplifica analiza
modelelor de surse si canale este de dorit a separa efectele legate de sursa de efectele legate de
canal.
Sarcina coderului sursei este de a reprezenta iesirea sursei cu ajutorul succesiunilor de
semnale binare, si una din problemele importante ce apar, consta in a stabili cate simboluri binare,in
unitatea de timp sunt necesare pentru reprezentarea semnalului de la iesirea unei surse date.
Sarcina coderului si decoderului canalului consta in a reproduce cat mai sigur succesiunile
binare ale datelor obtinute la iesirea decoderului canalului si una din problemele inportante ce apare
este, daca acest lucru este posibil sa se faca,si cum sa se faca.
Coderul sursei transforma mesajul de la iesirea sursei intr-o succesiune de semnale binare
sau care apartin unui alfabet finit, din care decoderul sursei restabileste mesajul initial cu o precizie
adoptata de catre destinatar. Astfel, independent de proprietatile sursei sau destinatarului, la intrarea
coderului canalului si la iesirea decoderului canalului,se formeaza o succesiune de simboluri binare
sau de simboluri care apartin unui alfabet finit. Reprezentarea informatiei de transmis sub forma
unei succesiuni binare intermediare da posibilitatea sa se calculeze si sa se construiasca dispozitive
de codificare si decodificare de canal, independent de dispozitivele corespunzatoare care se refera la
sursa. Sarcina sistemului de transmisiuni, este de a transmite mesajul de la sursa la destinatar, adica
de a reproduce mesajul de la iesirea sursei la locul indicat de destinatar. Cand spunem reproduce" nu intelegem o reproducere absolut fidela ci o reproducere care corespunde anumitor scopuri
specifice.Criteriul acceptabilitatii depinde de scopul transmisiuni. n descrierea obiectului" transmis prin sistemul de transmisie trebuie inclus si criteriul acceptabilitatii. Astfel, obiectul ce se
Teoria transmiterii i codificrii informaiei
Page 8 of 83
transmite nu determina numai proprietatile sursei, ci caracterizeaza proprietatile cuplulul sursa-destinatar". Vom numi acest obiect informatia transmisa".
1.3. Modele de surse informationale.
Ideea fractionarii mesajelor posibile la iesirea sursei intr-o multine discreta de clase are o
importanta fundamentala, intrucat conduce la enumerarea reprezentantilor claselor din intervalul de
timp dat. Multimea claselor se numeste multimea de mesaje posibile din intervalul de timp dat,
admisibile pe timpul transmisiei.Sarcina sistemului de transmisiuni consta in reproducerea mesajului
de la iesirea sursei cu o precizie adoptata de catre destinatar. Existenta criteriului de precizie permite
sa se grupeze toate mesajele posibile, in orice interval de timp, de la iesirea sursei in clase disjuncte.
Sistemul de transmisiuni indica destinatarului clasa din care face parte mesajul respectiv.
Toate sursele in teoria informatiei se modeleaza cu ajutorul proceselor sau succesiunilor
aleatorii. Cea mai simpla clasa de modele de surse este clasa surselor discrete fara memorie. La
aceste surse iesirea este o succesiune (in timp) de litere, fiecare din ele alese dintr-un alfabet dat, a1,
a2, ..., ak. Succesiunea la iesirea sursei este formata din aceste litere alese din alfabet statistic
independent si intamplator, alegere ce are la baza o repartitie oarecare de probabilitati P(a1), ...,
p(ak). n cazul unei codificari de acest tip, combinatiile de cod vor avea aceeasi lungime pentru ca
sa fie posibila decodificarea lor.
Remarcam faptul ca scrierea numerelor, in cazul transmiterii mesajelor admisinile, intr-o
forma binara nu are o importanta principala. Ele pot fi scrise in orice sistem de numeratie.Prezinta
importanta posibilitatea insasi de transformare a mesajului admisibil intr-o succesiune de simboluri
care fac parte dintr-un alfabet finit.Rationamentul prezentat permite sa se presupuna ca numarul de
mesaje admisibile sau numarul de simboluri binare, necesare pentru reprezentarea fiecarui mesaj din
multimea mesajelor posibile , poate fi luata ca o masura a cantitatii de informatie transmisa de sursa
intr-un interval de timp. Dar, dupa cum vom vedea, aceasta presupunere este justa numai intr-un
anumit caz. Numarul M de mesaje admise nu descrie complet multimea mesajelor si este necesar sa
se ia in consideratie si probabilitatile cu care sunt generate aceste mesaje admisibile.
Prima teorema a lui C. Shannon - teorema fundamentala a codificarii in lipsa zgomotelor da
tocmai o limita inferioara si una superioara pentru lungimea medie a combinatiilor de cod.
Probabilitatile p(ai) depind de caracteristicile statistice ale sursei si de procedeul de grupare a
mesajelor posibile in clase de echivalenta. In afara de aceasta, numarul mediu de sinboluri
binare,generate intr-o secunda, depinde de intervalul de timp T cu care s-a lucrat la gruparea
mesajelor in clase de echivalenta. Pentru a mari eficacitatea sistemulul de transmisiuni se cauta sa se
minimizeze numarul mediu de simboluri binare generate intr-o secunda de coderul sursei.
Unul din rezultatele principale ale teoriei transmisiunii informatiei este: in cazul unor
conditii destul de generale poate fi indicat numarul R, care, pentru fiecare cuplu sursa-destinatar,
exprima viteza de generare a informatiei pentru un criteriu de precizie adoptat. Aceasta viteza se
determina ca cel mai mic numar mediu de simboluri binare intr-o secunda, care trebuie sa se
transmita pentru ca mesajul sa poata fi reprodus in conformitate cu criteriul de precizie adoptat.
Teoria transmiterii i codificrii informaiei
Page 9 of 83
1.4. Modelul probabilistic al semnalelor.
Avand in vedere ca pentru orice fenomen din natura sau din societate aprecierile cantitative
constituie o conditie de baza a analizei stiintifice s-a cautat o modalitate pentu calculul cantitatii de
informatie si s-a stabilit o unitate de masura pentru informatia continuta intr-un semnal purtator de
informatie. La calculul cantitatii de informatie si la stabilirea unitatii de masura a informatiei se
pleaca de la o descriere probabilistica a semnalelor si se considera semnalele ca evenimente
aleatoare.
Semnalele discrete care intervin in diferite sisteme informationale, destinate transmiterii si
prelucrarii datelor, permit o tratare corespunzatoare probabilistica, iar semnalele continue, de
asemenea, permit o descriere probabilistica dupa discretizare - ceea ce se face cu ocazia observarii
cu o precizie data. Astfel, puten conchide universalitatea cantitatii de informatie obtinuta pe baza
unui model probabilistic.
Unitatea de masura a informatiei se refera numai la partea cantitativa a informatiei si
intotdeauna se face abstractie de continutul semantic al mesajului. Cauza acestei tratari unilaterale
rezida in faptul ca aparatul matematic existent deocamdata,nu ne permite efectuarea unui studiu
calitativ al informatiei. Construirea unui model probabilistic pentru semnalele discrete - utilizate in
cadrul unui sistem informational dat - presupune cunoasterea probabilitatilor cu care apar aceste
semnale in urma unui experiment. Aparitia unui semnal in cadrul unui experiment se considera ca
un eveniment.
n cazul semnalelor discrete, totdeauna se poate realiza o corespondenta biunivoca intre
semnalele posibile si intre o multime de numere naturale X - facand ca fiecarui semnal sa
corespunda un numar natural x X- si astfel multimea semnalelor discrete se poate inlocui cu o multime de numere naturale X. In continuare, prin x se intelege fie un semnal oarecare, fie numarul
natural care corespunde semnalului respectiv.
Modelul probabilistic al semnalelor X este dat prin urmatoarea repartitie a variabilei
aleatoare:
MXXX
M
xPxPxP
xxxX
...
...
21
21 (1,1)
Prin notatia se intelege probabilitatea de aparitie a evenimentului x=xk, adica
probabilitatea de aparitie a semnalului care corespunde lui xk si care face parte din multimea X
considerata. Evident:
11
K
M
K
X xP (1.2)
Probabilitatea ca rezultatul experimentului va fi un element oarecare x, se noteaza cu Px(x)
in care, prin indicele X se accentueaza ca rezultatul experimentului este un semnal din multimea
semnalelor posibile X. In cazul cand nu exista ambiguitati in privinta apartenentei lui x se poate
suprima indicele X. Experimentele cu mai multe rezultate simultane vor fi caracterizate prin
elementele unui produs de multimi si prin probabilitatile de aparitie a acestor elemente.
Atunci cnd se face referire la capacitatea unui sistem de a transmite informaii apare necesitatea de a exprima cantitatea respectiv de informaii.
O informaie este coninut ntr-un mesaj. Un mesaj reprezint o succesiune de
kX xP
Teoria transmiterii i codificrii informaiei
Page 10 of 83
simboluri convenionale. Acestea pot fi :cuvinte, sunete, cifre etc.
Fie S={s1,s2,..,sn} o muime de simboluri numite simboluri primare. Un bun exemplu de muime de simboluri primare o constitue alfabetul limbii romne. Fiecare liter constituie n acest caz un simbol primar.
Fie T={t1,t2,..,tm} o mulime de simboluri numite simboluri secundare. Un simbol secundar reprezint o combinaie de simboluri primare. Un bun exemplu de mulime de simboluri secundare este cel al mulimii tuturor cuvintelor aprinnd limbii romne.
S-ar prea c numrul cuvintelor unei limbi ar putea constitui o msur cantitativ a informaiei. ns cuvintele nu au aceeai valoare n ceea ce privete precizia ce este adugat ideii ce trebuie transmis. n consecin, cuvntul nu poate servi ca unitate de msur a informaiei.
Printr-un raionament analog se concluzioneaz c nici litera nu poate constitui unitatea de msur a informaiei. ns putem considera c informaia coninut ntr-un cuvnt trebuie s fie proporional cu numrul de litere coninute de respectivul cuvnt. Mai general, cantitatea de informaie coninut de un simbol secundar este proporional cu numrul simbolurilor primare coninute.
S considerm totalitatea simbolurilor secundare ce corespund combinaiilor posibile de u simboluri primare. Numrul acestor simboluri secundare este nu. S considerm de asemenea dou sisteme pentru care n are valorile n1 i n2. O aceeai cantitate de informaie I reprezentat n cadrul fiecruia dintre cele dou sisteme se va scrie:
= 11 = 22 (1.3)
n acest cadru se impune urmtoarea egalitate:
11 = 2
2 (1.4)
Din (1.3) i (1.4) rezult relaia:
1
log 1=
2
log 2= 0 (1.5)
Relaia (1.5) va fi satisfcut pentru toate valorile lui n numai dac ntre k i n exist relaia:
= 0 log (1.6)
Cum baza algoritmului este arbitrar, o vom alege astfel nct s rezulte:
= log (1.7)
Cantitatea de informaie se poate acum exprima prin:
= log = log (1.8) Rezult astfel o prim msur practic a informaiei: logaritmul numrului de combinaii
posibile a celor n simboluri primare pe lungimi de u simboluri.
Probabilitatea de apariie a unui simbol primar pe o poziie orecare n cuvntul de
Teoria transmiterii i codificrii informaiei
Page 11 of 83
reprezentare a informaiei, este: 1
Relaia (1.8) devine:
= log1
= log (1.9)
Relaia (1.9) constitue o expresie pentru cantitatea de informaie. Este necesar n continuare stabilirea unei uniti de msur. Drept unitate de msur a cantitii de informaie s-a luat msura alegerii celei mai simple posibile, alegerea unei posibilitii din dou egal probabile. Deci, unitatea de msur se definete pentru u=1, n=2 i p=1/2. Totodat logaritmul este considerat n baza 2. n concluzie, relaia (1.9) conduce la:
= 1 22 = 1 (1.10)
Aceast unitate informaional a cptat denumirea de bit (de la binary unit) i a fost propus n 1928 de ctre Hartley.
Se pote constata c frecvena simbolurilor primare n cadrul simbolurilor secundare nu este aceeai. Rezult c nici probabilitile de apariie a simbolurilor primare n cadrul simbolurilor secundare purttoare de informaie (n cadrul mesajului) nu sunt egale. Fiecrui simbol primar si i se poate atribui deci o probabilitate aprioric Pi. Ne ateptm astfel ca apariia unui simbol primar ce prezint o probabilitate mic s aduc mai mult informaie. Astfel rezult c dac p=1 evenimentul este sigur i log p=log 1=0, deci informaia coninut este nul.
O surs de informaie emite o multitudine de mesaje diferite de lungime u. De aceea se convine s se exprime nu cantitatea de informaie din fiecare mesaj ci cantitatea medie de informaie pe un mesaj din setul respectiv de mesaje. Cum contribuia unui simbol si din mesaj este log pi, contribuia medie a simbolurilor si din mesaj este upilogp deoarece, pentru u suficient de mare, numrul simbolurilor si n mesaj se apropie de numrul lor mediu, upi, iar contribuia total este numrul lor mediu nmulit cu contribuia fiecruia. Altfel spus, simbolul si poate s apar pe prima poziie a cuvntului sau pe cea de-a doua poziie sau pe cea de-a treia poziie sau .sau pe ultima poziie. Deci:
= 1/ + 1/+ 1/ = / = 1/ = (1.11)
Aici s-a considerat cazul cel mai simplu, cel al probabilitilor pi=1/n egale.
Informaia medie total coninut n mesajul format din u simboluri este suma contribuiilor medii a tuturor celor n simboluri:
= 1 log1 2 log2 = =1 log (1.12)
Informaia medie pe simbol se va scrie:
Teoria transmiterii i codificrii informaiei
Page 12 of 83
=
=
=1 log (1.13)
M rimea H a c p tat numele de entropie a sursei de informatie, deoarece formal, ca expresie matematic, ea este analog entropiei termodinamice a unui sistem, stabilit de Boltzmann.
Observaie: Semnificaia fizic a msurii cantitii de informaie astfel obinut este aceea c ea d num rul minim de operaii (de alegeri) necesare pentru a ridica nedeterminarea.
Exerciii rezolvate.
1. Unul din cele M mesaje, egal probabile, furnizeaz 3 bii de informaie. S de determine M.
Rezolvare: = 2 = 3, de unde rezult M=23=8 mesaje.
2. S se determine cantiatea de informaie, coninut ntr-un mesaj de 3,4,5 sau de 6 litere binare, echiprobabile.
Rezolvare: I3=log2 23=3 bii.
I4=log2 24=4 bii.
I5=log2 25=5 bii.
I6=log2 26=6 bii.
3. S se determine cantiatea de informaie furnizat de o liter dintr-un alfabet de 16, 25 i 32 de litere echiprobabile.
Rezolvare: I1=log2 16=4 bii. I2=log2 25=4,64386 bii. I3=log2 32=5 bii.
TESTE DE AUTOEVALUARE
1. S se determine cantitatea de informaie, coninut n 8 mesaje, nelegnd printr-un mesaj o succesiune de 4 semnale ternare echiprobabile.
2. S se determine cantitatea de informaie obinut prin anunarea ieirii din funciune a unui aparat de msur din cele 8 existente.
3. S se determine numrul simbolurilor dintr-un mesaj (lungimea mesajului) care conine o cantitate de informaie de 42 de bii i este format cu ajutorul a 128 de litere echiprobabile.
Teoria transmiterii i codificrii informaiei
Page 13 of 83
MODULUL 1 UNITATEA DE NVARE 2
MSURI INFORMAIONALE
2.1. Modele de surse informationale
Informatia proprie, ca si informatia reciproca se poate considera ca o variabila aleatoare
si se calculeaza valoarea sa medie. Valoarea medie a informatiei proprii pentru evenimente din
multinea X se numeste entropia lui X si se calculeaza cu formula:
(1.14)
sau mai simplu se scrie sub forma:
(1.15)
Variatia entropiei unui sistem de evenimente format din doua evenimente in functie de
repartitia de probabilitati este data in fig 1.2:
Fig.1.2 Entropia semnalului
Fie
KX
K
K
K
XxP
xPXH1
log1
xP
xPXHK
1log
1
Teoria transmiterii i codificrii informaiei
Page 14 of 83
(1.16)
atunci:
(1.17)
2.2. Informatia proprie conditionata.
Cantitatea de informatie proprie conditionata a evenimentului X=Xk ,cu conditia ca a
aparut evenimentul Y=Yi se defineste pe produsul cartezian XY si se calculeaza cu formula:
(1.18)
sau mai simplu se scrie:
(1.19)
Aceasta cantitate de informatie proprie a evenimentului X=Xk, conditionata de
evenimentul y=yi se poate interpreta ca informatia necesara pentru specificarea evenimentului
x=xk . dtupa ce a avut loc evenimentul y =yi.
Cu ajutorul relatiilor anterioare se poate exprima cantitatea de informatie reciproca ca o
diferenta intre informatia proprie si informatia proprie conditionata.
(1.20)
de unde
(1.21)
Din relatia anterioara se obtine pe baza reciprocitatii relatia:
(1.22)
In mod analog I(x;y) se poate scrie sub forma:
pp
xxX
1
21
pHp
pp
pXH
1
1log1
1log
i
k
y
x
i
k
Y
X
y
xP
y
xI
1log
i
k
x
y
xP
y
xI
1log
y
xP
xPxP
y
xP
yxI1
log1
loglog;
y
xIxIyxI ;
x
yIyIyxI ;
Teoria transmiterii i codificrii informaiei
Page 15 of 83
(1.23)
deci:
(1.24)
unde :
(1.25)
reprezinta cantitatea de informatie proprie a unui eveniment (x;y) din produsul cartezian de
evenimente xy.
Tinand seama ca:
(1.26)
rezulta ca, cantitatea de informatie proprie a unui eveniment (x,y) se poate scrie sub forma:
(1.27)
Luand mediile expresiilor din relatiile anterioare se obtine:
(1.28)
Prima relatie din sistemul de mai sus permite interpretarea lui I(X;Y). Deoarece H(X)
este nedeterminarea lui X,iar H(X/Y) este nedeterminarea lui X dupa receptionarea lui Y, rezulta
ca diferenta H(X) - H(X/Y) arata cu cat s-a micsorat nedeterminarea lui X prin observarea lui y,
adica ce cantitate de informatie se transmite despre X prin observarea lui Y. Iata motivul pentru
care cantitatea de informatie medie I(X;Y) este numita si informatia transmisa sau pe scurt
transinformatia.
yxPyPxPxPyP
yxP
xPyP
y
xPyP
xP
y
xP
yxI,
1log
1log
1log
,logloglog;
yxIyIxIyxI ,;
yxP
yxI,
1log,
y
xPyP
x
yPxPyxP ,
y
xIyIyxI
x
yIxIyxI
,
,
y
xHyHyxH
x
yHxHyxH
yxHyHxHyxI
x
yHyHyxI
y
xHxHyxI
,
,
,;
;
;
Teoria transmiterii i codificrii informaiei
Page 16 of 83
Din formula entropiei, data de catre C. Shannon in anul 1948 in lucrarea sa, rezulta ca
entropia U(X) a multimii X depinde numai de probabilitatile de aparitie a elementelor xX. Evident daca multimile X si Y au aceeasi repartitie de probabilitati atunci H(X)=H(y),insa
invers,din egalitatea entropiilor nu rezulta identitatea repartitiilor.
Proprietatea 1. H(X)>0
In adevar,suma H(X) contine termeni de forma P(x)log(1/P(x)),care sunt mai mari sau
egali cu zero pentru 0
Teoria transmiterii i codificrii informaiei
Page 17 of 83
(1.32)
Proprietetea 3.
Pentru doua multimi de semnale X si Y ,avem:
(1.33)
in care avem egalitate daca si numai daca X si Y sunt statistic independente.
Exerciii rezolvate.
Conceptia Shannon pleaca de la premiza ca orice informatie cu privire la un eveniment
este utilizata in scopul reducerii gradului de incertitudine asupra realizarii acelui eveniment. Din
punctul de vedere al destinatarului, comunicatia este o variabila aleatoare, continutul
informational fiind cu atat mai mare cu cat el se asteapta mai putin la realizarea acelui
eveniment.
Fie o sursa discreta care emite unul dintre cele q mesaje m m mq1 2, , , cu probabilitatile
de aparitie p p pq1 2, , , . Este evident ca probabilitatile satisfac relatia p p pq1 2 1 .
Continutul informational al mesajului k este notat cu I mk( ) . Pentru ca acest continut sa fie o
masura adecvata a cantitatii de informatie este necesara satisfacerea urmatoarelor proprietati :
(i) daca p p I m I mk j k j ( ) ( )
(ii) daca p I mk k 1 0( )
(iii) daca 0 1 0 p I mk k( )
(iv) (aditivitatea) daca mk si mj sunt mesaje independente
I m m I m I mk j k j( ) ( ) ( )si
O functie continua de variabila pk care satisface proprietatile (i)-(iv) este functia
logaritmica.
I mp
pkk
k( ) log log 1
Daca baza logaritmului este 2, unitatile de masura sunt biti (informationali).
Pentru cazul simplu al unei transmiteri seriale asincrone
kkk
xxx
Xk
1...
11
...21
yHxHyxH ,
Teoria transmiterii i codificrii informaiei
Page 18 of 83
se definesc
(a) rata de biti=(durata unui bit)-1
=1/T2 exprimata in biti/secunda (abreviat bps).
(b) rata de bauds=(durata minima intre doua modificari ale semnalului) =1/T1 exprimata
in bauds.
Problema 1
Se considera o trasmisie fax : 2,25106 pixeli cu 12 tonuri de gri, echiprobabile. Care este cantitatea de informatie transmisa ?
Solutie
I=nr.elemente informatie per element=
2 25 10
1
122 25 10 2 3 2 25 10 2 36 2
6
2
2 6
2, log , log , log biti
Problema 2
Un display monocolor cu 24 linii
80 caractere/linie
128 puncte/caracter
3 tonuri de gri/punct
(a) Care este cantitatea de informatie pe pixel, caracter, ecran ?
(b) Care este debitul de informatie stiind ca frecventa cadrelor este de 24 cadre/secunda ?
Solutie
(a) I 24 80 128 32log [ ]biti
(b) 1
f c
RI
I fc
[ ]bps
Problema 3
Un echipament de teletransmisie genereaza cuvinte constituite dintr-un grup de 4
impulsuri de tensiune care pot avea nivelurile 0,1,2 sau 3 volti (echiprobabile) urmate de un
impuls de pauza de nivel -1 volt. Durata tuturor impusurilor este de 1 ms.
(a) Care este debitul de informatie ?
T2
E
M
Teoria transmiterii i codificrii informaiei
Page 19 of 83
(b) Care este rata de bauds ?
Solutie
(a) RI
4 4
5 101 62
3
log, [ ]kbps
(b) rbauds baud] kbaud] 1
1010 1
3
3 [ [
Problema 4
Fie 12 monede dintre care una este falsa (mai usoara sau mai grea decat celelalte). Se
cere sa se deterrmine numarul minim de cantariri necesar depistarii monedei false si precizarii
daca ea este mai usoara sau mai grea. Se foloseste pentru cantariri o balanta fara mase marcate.
Solutie
cantitatea de informatie necesara determinarii monedei false este I1 2 21
1
12
12 log log
cantitatea de informatie necesara pentru a decide daca moneda este mai grea sau mai usoara
este I2 2 21
1
2
2 log log
cantitatea de informatie totala necesara a fi determinata I I I 1 2 2 24log
cantitatea de informatie furnizata de o cantarire (exista 3 stari ale balantei)
I3 2 21
1
3
3 log log numarul minim de cantariri I kI kk 3 24 3 3 .
sa se propuna un algoritm de depistare.
Problema 5
Sa se reia problema # 3 daca probabilitatile de aparitie a nivelurilor sunt
nivel 0: 1/2
nivel 1:1/4
nivel 2:1/8
nivel 3:1/8
Solutie
R r H
1
5 10
1
2
1
2
1
4
1
42
1
8
1
83log log log
Se reaminteste ca entropia unei surse reprezinta numarul mediu de biti/simbol si ca
entropia este maxima pentru o sursa care genereaza simboluri echiprobabile H nmax log 2 .
Teoria transmiterii i codificrii informaiei
Page 20 of 83
TESTE DE AUTOEVALUARE I TEME DE CONTROL
Testul nr. 1
Fie un alfabet format din literele A,B,C. Se cere s se calculeze: a. numrul maxim de mesaje de lungime 3 ce se pot forma cu acest alfabet; b. cantitatea de informaie coninut de un asemenea mesaj.
Testul nr. 2
S se calculeze cantitatea de informaii necesar pentru precizarea poziiei unei figuri pe tabla de ah.
Tem de control
Matricea probabilitilor reunite intrare-ieire asociat unui canal de transmisie este de forma:
4/14/1
4/14/1XYP
Se cere s se calculeze: a. entropia cmpului de la intrare; b. entropia cmpului de la ieire; c. entropia cmpurilor reunite; d. eroarea medie i echivocaia; e. transinformaia i capacitatea canalului.
BIBLIOGRAFIE RECOMANDAT LA MODULUL 1:
[1] A. Sptaru: Teoria Transmisiunii Informaiei, Ed. Didactic i Pedagogic, Bucureti,
1983. [2] A. T. Murgan, I. Spnu, I. Gavt, I. Sztojanov, V. E. Neagoe, A. Vlad: Teoria
Transmisiunii Informaiei - probleme, Ed. Didactic i Pedagogic, Bucureti, 1983
[3] I. Angheloiu, Teoria codurilor, Ed. Militar, Bucureti, 1972. [4] J.C. Moreira, P.G. Farrell, ESSENTIALS OF ERROR-CONTROL CODING, John Wiley & Sons Ltd, The Atrium, Southern Gate, Chichester, West Sussex PO19 8SQ, England,2006.
Teoria transmiterii i codificrii informaiei
Page 21 of 83
MODULUL 2 CODAREA SURSELOR INFORMAIONALE.
CANALE DE TRANSMITERE A INFORMAIEI.
Compresia datelor este un proces prin care se urmrete micorarea redundanei mesajului generat de o surs, pentru a reduce resursele necesare memorrii sau transmiterii acestui mesaj. Deoarece, de regul, pentru memorarea sau transmiterea unui mesaj se folosete, eventual ntr-o form intermediar, reprezentarea prin simboluri binare a acestuia, i pentru c cele mai multe metode de compresie folosesc metode de codare binar - binar, putem spune c obiectivul compresiei const n reducerea numrului de simboluri binare necesar pentru reprezentarea mesajului.
Dup cum irul simbolurilor emise de surs este mprit, pentru codare, n subiruri de aceeai lungime sau de lungime variabil, i dup lungimea, constant sau variabil, a cuvintelor de cod, codurile de compresie se clasific n bloc- bloc, bloc variabil, variabil bloc i variabil variabil, bloc bloc indicnd aceeai lungime pentru subirurile sursei i cuvinte de cod de lungime fix, iar variabil variabil corespunznd unor lungimi variabile ale subirurilor i ale cuvintelor de cod. Din punct de vedere al msurii n care mesajul refcut prin decompresie se aseamn cu cel original, asupra cruia s-a acionat prin procesul de compresie, distingem dou categorii de algoritmi de compresie: fr pierderi i cu pierderi.
Algoritmii de compresie cu pierderi au ca rezultat diferene relativ mici ntre mesajul rezultat prin decompresie i cel original i sunt utilizai n compresia imaginilor i a mesajelor video i audio.
n acest modul vor fi prezentate aspecte privind codificarea surselor discrete i vor fi analizai algoritmii Huffman i Shannon-Fano.
De asemenea, va fi studiat problematica, din punct de vedere matematic, canalelor de transmitere a informaiilor.
Acest modul conine dou uniti de nvare i anume: 1. UNITATEA DE NVARE 3 - CODAREA SURSELOR INFORMAIONALE; 2. UNITATEA DE NVARE 4 - CANALE DE TRANSMITERE A
INFORMAIEI Obiective urmrite:
La sfritul parcurgerii acestor uniti de nvare, studenii: vor nelege noiunile fundamentale cu care opereaz Teoria informaiei i care se
refer la: surse discret de informaie fr memorie, Codarea uniform, metodele de codare Shannon Fano i Huffman,etc.
vor ti s interpreteze i s opereze cu instrumente matematice care se refer la: coderul canalului, probabilitatea decodrii eronate la recepie, capacitatea de transmisie a canalului, calculul capacitii canalelor discrete i continue, etc.
vor ti s implementeze ntr-un limbaj de programare sau simulare algoritmii studiai i modele de canale de transmitere a informaiilor.
Timpul mediu necesar nsuirii noiunilor teoretice, formrii deprinderilor de calcul i utilizrii metodelor de rezolvare a problemelor specifice teoriei informaiei este estimat la aproximativ 4-5 ore pentru fiecare unitate de nvare, ntr-un ritm de 2-3 ore pe zi.
Teoria transmiterii i codificrii informaiei
Page 22 of 83
MODULUL 2 UNITATEA DE NVARE 3
CODAREA SURSELOR INFORMAIONALE
1.1 Codificarea surselor discrete.
In general,trecerea de la un sistem de semnale primare la un sistem de semnale secundare
se numeste codificare. Cerinta principala care se pune pentru orice codificare practic utilizabila
este ca codificarea sa fie efectuata in asa fel ca revenirea de la sistemul de semnale secundare la
cele initiale, adica decodificarea sa fie unica.
Pentru a prezenta problematicile legate de codificarea semnalelor prinare cu ajutorul
semnalelor secundare este necesar sa se precizeze forma concreta a semnalelor primare si
secundare. Se considera ca semnalele prinare sunt semnale generate de catre o sursa discreta si
fara memorie, adica semnalele apar sub o forma discreta si probabilitatea de aparitie a unui
simbol nu depinde de celelalte sinboluri anterioare.
Alfabetul sursei discrete se noteaza cu ,deci sursa produce
succesiuni de litere formate cu ajutorul literelor din alfabetul sursei, deci
pentru i=1,2,. Faptul ca sursa este fara memorie se exprima prin interdependenta statistica a
semnalelor,adica probabilitatea unei succesiuni date de n litere de sursa este
egala cu produsul probabilitatilor literelor de sursa ,deci:
(2.1)
1.2 Codificarea neuniforma.
Presupunem ca alfabetul unei surse discrete si fara memorie contine M semnale primare
sau litere notate cu care apar cu probabilitatile . Fiecare
litera a sursei trebuie sa fie codificata printr-o combinatie de semnale secundare luate din
alfabetul codului care contine D semnale .Aceste combinatii se numesc si
cuvinte de cod;cuvintele de cod care corespund semnalelor primare se noteaza cu
,iar totalitatea lor formeaza un cod, .Numarul semnalelor secundare
din cuvantul de cod care,dupa cum s-a vazut,corespunde lui ,se noteaza cu .
LaaaA ....,, 21
nuuu ,....,, 21
Aui
nn ,...,, 21
n
i
in PP1
21 ,....,,
Maaa ,....,, 21 MaPaPaP ,..,, 21
DxxxX ,..,, 21
Maaa ,..,, 21
Mccc ,..,, 21 McccC ,..,, 21
kc ka kn
Teoria transmiterii i codificrii informaiei
Page 23 of 83
Dintre toate, codurile unic decodabile prezinta un interes ,din punct de vedere
economic,acel cod care conduce la un -numarul mediu de litere de cod pe litere de sursa-cat
mai mic posibil,unde se mai numeste si lungimea mediea combinatiilor de cod:
(2.2)
Codul in care doua semnale primare distincte sunt codificate printr-o singura combinatie
de cod se numeste cod singular si in mod corespunzator codul in care toate combinatiile de cod
atribuite semnalelor primare sunt distincte se numeste cod nesingular.
Codul se numeste unic decodabile daca succesiunile cuvintelor de
cod,corespunzatoare diferitelor succesiuni de lungime finite a sursei,sunt distincte.
Fie un cuvant de cod .Sirul de litere ,unde se
numeste prefixul lui .
Cu ajutorul notiunii de prefix putem defini subclasa codurilor unic decodabile care
prezinta un interes deosebit din punct de vedere practice.
Codul in care nici un cuvant de cod nu este prefixul unui alt cuvant de cod se numeste
cod cu proprietate de prefix.Din aceasta definitie rezulta ca in cazul unui cod cu proprietate de
prefix,dintr-un cuvant de cod mai lung nu se poate obtine un cuvant de cod mai scurt prin
reducerea (suprimarea) ultinelor simboluri,motiv pentru care codurile cu proprietate de prefix se
numesc si coduri ireductibile.
Codurile cu proprietatea de prefix se mai numesc uneori si coduri instantanee, deoarece o
combinatie de cod se poate recunoaste fara nici o referinta la urmatoarea combinatie de cod. La
decodificarea unei succesiuni de cuvinte de cod dintr-un cod cu proprietatea de prefix se
inainteaza in succesiunea semnnlelor pana la identificarea primului cuvant de cod si apoi lasand
la o parte succesiunea identificata se trece la identificarea urmatoarei succesiuni si a.m.d.
Momentul cand se obtine o succesiune cu sens, arata si sfarsitul unui cuvant de cod, dat fiind
faptul ca nici un cuvant de cod nu este prefixul unui alt cuvant de cod.Relatia care exista intre
codurile cu proprietate de prefix si codurile unic decodabile se pune in evidenta prin urmatoarea
teorema:orice cod cu conditia de prefix este un cod unic decodabil.
Codurile cu proprietate de prefix permit o reprezentare geometrica foarte intuitiva si
convenabila,cu ajutorul unui graf arborescent.Fiecarui cuvant de cod ii corespunde un drum
simplu,sau nodul final de la extremitatea drumului simplu corespunzator
Este important ca in cazul unui cod cu conditia de prefix exista o corespondenta
biunivoca intre cuvintele de cod si intre nodurile finale, deci fiecarui cuvant de cod ii
corespunde un nod final si nu un nod internediar si invers, fiecarui nod final ii corespunde o
combinatie de cod.
De asenenea si codurile care nu au proprietatea de prefix pot sa fie reprezentate grafic cu
ajutorul unui graf arborescent, dar in acest caz cel putin unui cuvant de cod ii corespunde un nod
internediar.
Se observa ca in cazul unui cod D-nar,constructia grafului arborescent corespunzator este
asemanatoare, tinand cont ca din fiecare nod pomesc D arce.
n
n
kM
K
k naPn
1
kcccC ,..,, 21
imiii xxxc ,...,, 21 imii xxx ,...,, 21 mk
ic
Teoria transmiterii i codificrii informaiei
Page 24 of 83
1.3. Codarea si decodarea pe canale fara perturbatii.
In cadrul modulului 1 s-a aratat ca un sistem digital de comunicatie presupune un
codor/decodor al sursei. Rolul acestuia este de a mari eficienta transmiterii prin utilizarea unor
mesaje ct mai scurte pentru a transmite aceiasi cantitate de informatie. Aceast operatie numita
generic compresie de date
Definirea unui cod. Fie o sursa discreta fara memorie avnd alfabetul
S s s sN 1 2, ,......, (2.3)
cu probabilitatea de aparitie p s pi i
P p p pN 1 2, ,......, (2.4)
Fie alfabetul canalului
X x x xq 1 2, ,......, (2.5)
constituit dintr-un numar finit de semne (litere, caractere)
Se considera reuniunea secventelor finite de litere din alfabetul canalului:
X X n
n
*
(2.6)
Orice aplicatie S X * se numeste codarea alfabetului S prin alfabetul X
Un element s Xi* * si care corespunde lui si este un cuvnt de cod. Lungimea
cuvntului de cod, notat n s ni i* este numarul de litere cale Il formeaza. Totalitatea cuvintelor de cod constitue codul lui S cu mentiunea ca X
* poate contine si combinatii care nu
apartin codului, numite cuvinte fara sens.
Astfel, un text constituit din secvente de mesaje:
m s s sj i i ik 1 2, ,......, (2.7)
este codat prin secventele de cuvinte de cod (cu sens)
m s s sj i i ik 1 2* * *, ,......, (2.8)
Teoria transmiterii i codificrii informaiei
Page 25 of 83
Decodarea implica posibilitatea de a repara cuvintele de cod n mod unic (aplicatia
S X * sa fie injectiva). Un cod cu aceasta probabilitate se numeste regulat (nesingular). Regularitatea este o conditie necesara dar nu suficienta pentru decodare. fie de exemplu
s s1 2 10* *, si s3 01 . Codul 010 poate fi interpretat fie s s1 2
* *, fie s s3 1* *, .
Pentru a distinge fara ambiguitati un text trebuie ca fiecarui succesiune de cuvinte sa-i
corespunda o succesiune unica de litere, adica aplicatia S Xk
k
n
*
1
sa fie si ea injectiva. Un cod de acest tip este un cod unic decodabil. Conditii suficiente care sa asigure aceasta
proprietate sunt:
(a) utilizarea cuvintelor de cod de aceiasi lungime (bloc)
(b) utilizarea unui semn distinct Intre cuvintel (separator)
Exista nsa si coduri care nu necesita utilizarea unui mijloc suplimentar pentru a asigura
proprietate de unic decodabil. Aceste coduri se numesc separabile.
Alcatuirea unui cod. Teorema Kraft
Conditia necesara si suficienta pentru existenta unui cod ireductibil de N cuvinte de
lungime n n nN1 2, ,......, este ca
qni
i
N
11
(2.9)
Observatii
1. Se reaminteste ca q card X este numarul de litere din alfabetul canalului. 2. Daca numarul cuvintelor de lungime k este rk atunci conditia (1.9) devine
r qkk
k
n
11
(2.10)
cu N rkk
n
1
Teorema Mac Millan
Un cod este ireductibil daca si numai daca
n n nN1 2 ...... (2.11)
Teoria transmiterii i codificrii informaiei
Page 26 of 83
Criterii de apreciere a unui cod.
Transmiterea mesajelor presupune un cost care creste linear cu timpul. Un criteriu
convenabil de apreciere a unui cod este lungimea medie a unui cuvnt
n p ni ii
n
1
(2.12)
unde pi sunt definite prin (1.4) si ni este numarul de litere din cuvntul de cod cu indicele i.
Este evident ca se cauta ca n sa fie ct mai mic dar trebuie avut In vedere ca el este limitat inferior de entropia informationala pe simbol a alfabetului de cod
nH
q
log2 (2.13)
unde H este entropia sursei. In aceste conditii, eficienta unui cod este
H
n qlog 21 (2.14)
iar redundanta codului este
1 (2.15)
Codurile cu o eficienta egala cu unitatea si deci care au lungimea medie minima se
numesc coduri absolut optimale
Prima teorema a lui Shannon. Pentru orice sursa omogena exista un cod ireductibil
pentru care lungimea medie a cuvintelor este orct de apropiata de marginea sa inferioara.
Aceasta teorema se mai numeste si teorema codarii pe canale neperturbate. Prima
teorema a lui Shannon se refera la problema codarii cu o lungime medie posibila ct mai mica,
pe un canal neperturbat de capacitate data.
Codurile care asigura cea mai mica lungime medie posibila se numesc cvasioptimale sau
compacte.
1.4. Coduri Huffman de dispersie minim.
Acest procedeu se bazeaz pe ideea de a partiiona mulimea mesajelor sursei S = {s1, s2
,..., sN} n submulimile 0 i 1 , astfel nct suma probabilitilor mesajelor incluse n 0 s fie
ct mai apropiat de suma probabilitilor mesajelor incluse n 1.
Teoria transmiterii i codificrii informaiei
Page 27 of 83
La rndul lor, submulimile 0 i 1 pot fi partiionate n submulimile 00 i 01 ,
respectiv 10 i 11 astfel nct suma probabilitilor mesajelor incluse n cele patru submulimi
s fie ct mai apropiate posibil. Procedeul se continu n mod similar pn cnd se obin
submulimi ce conin un singur mesaj.
n felul acesta, pentru orice distribuie a sursei S ce urmeaz a fi codat se va obine un
cod compact, adic lungimi medii ale cuvintelor de cod ce nu mai pot fi micorate prin nici un alt
procedeu de codare.
Pentru ca partiiile s satisfac condiiile menionate, se procedeaz
astfel:
1). Se ordoneaz mulimea mesajelor sursei S n ordinea descresctoare a probabilitilor,
obinndu-se astfel mulimea ordonat 0={1, 2, , }, cu p(1) p(2) ... p(), cu
schimbarea eventual a indicilor mesajelor pentru realizarea ordonrii respective;
2). Se reunesc ultimele dou mesaje (de probabilitile cele mai mici) ntr-un nou mesaj,
notat cu 1, cruia i se aloc o probabilitate egal cu suma probabilitilor mesajelor componente.
Se ordoneaz din nou mesajele n ordinea descresctoare a probabilitilor, formndu-se astfel
prima surs restrns 1={1, 2, , 1, } cu p(1) p(2) ... p(1) ... . 3). Se reunesc
ultimele dou mesaje din sursa restrns 1 ntr-un nou mesaj 2, de probabilitate egal cu suma
probabilitilor mesajelor componente. Se ordoneaz mesajele n ordine descresctoare,
formndu-se astfel sursa restrns 2. n mod analog, din 2 se formeaz sursa restrns 3 i
aa mai departe, pn cnd se obine o surs restrns format numai din dou mesaje, =
{ , 1}, cu p( ) (1). De fapt, va fi 0 i 1 va fi 1 sau invers.
Din modul de formare a surselor restrnse , rezult c mulimea S a mesajelor poate fi
partiionat n dou submulimi i 1 astfel nct probabilitile p( ) i (1) sunt cele
mai apropiate posibil. La rndul lor, submulimile i 1 , pot fi partiionate n alte dou
submulimi, de probabilitile cele mai apropiate posibil. Partiionrile se continu pn se obin
submulimi care conin un singur mesaj.
4). Cuvintele de cod corespunztoare fiecrui mesaj se obin astfel:
- submulimii i se aloc simbolul "0" (sau "1");
- submulimii 1 , i se aloc simbolul "1" (sau "0");
Teoria transmiterii i codificrii informaiei
Page 28 of 83
- la fiecare partiionare se aloc arbitrar celor dou submulimi "0" sau "1", operaia continundu-
se pn se obin submulimi ce conin un singur mesaj , k={1}.
Deoarece alocarea lui "0" i "1" este arbitrar la fiecare partiionare, rezult c unei surse
S i se pot ataa o multitudine de coduri instantanee, toate, ns, avnd aceeai lungime medie a
cuvintelor de cod, care nu mai poate fi micorat prin nici un alt procedeu de codare a mesajelor
luate individual.
Dac sursa primar S poate furniza N mesaje, atunci submulimea restrns 1 , va avea
N-1 mesaje, submulimea restrns 2 va conine N-2 mesaje i aa mai departe, ultima
submulime restrns va conine N n mesaje, care sunt i 1 , adic se poate scrie:
N-n=2 => n=N-2 (2.16)
Dac submulimii i se aloc simbolul "0" i submulimii 1 simbolul "1", celor N-2
partiionri putndu-li-se aloca arbitrar "0" sau "1", rezult un total de 22 posibiliti de
codare. Dac, ns, submulimii i se aloc simbolul "1", iar submulimii 1 simbolul "0",
mai rezult 22 posibiliti de codare. Rezult, deci, c prin acest procedeu de codare se pot
realiza 22 + 22 = 21 coduri instantanee, toate avnd toate aceeai lungime medie a
cuvintelor de cod.
Prin definiie, se numete cod compact, codul care realizeaz lungimea medie minim a
cuvintelor de cod. Deoarece prin procedeul de codare Huffman se obine cea mai mic lungime
medie a cuvintelor de cod, nseamn c prin acest procedeu se obin coduri instantanee
compacte. Evident, un cod absolut optimal este i compact, reciproca nefiind totdeauna valabil.
Exemplul 3.1.
Se presupune sursa discret de informaie caracterizat de distribuia:
S : 1 2 3
0,1 0,2 0,3 4 5 6
0,15 0,05 0,2
Codarea binar Huffman a acestei surse se poate realiza astfel:
Teoria transmiterii i codificrii informaiei
Page 29 of 83
Fig. 3.2. Schema de codare pentru exemplul 3.1
Graful i cuvintele de cod corespunztoare codrii efectuate sunt date n Fig. 3.3.
Fig.3.3. Graful corespunztor codului
Codurile Huffman de dispersie minim se obin cnd la reordonarea sursei restrnse,
simbolul compus se plaseaz pe poziia cea mai de sus posibil n sursa restrns. n felul acesta
cuvntul de cod atribuit simbolului compus va avea cea mai mic lungime posibil. Cum acest
cuvnt va deveni prefix pentru simbolurile constituente, cuvintele de cod corespunztoare
acestora vor avea o lungime cu o unitate mai mare dect lungimea prefixului, deci i acestea vor
rezulta de lungime minim. Ca urmare, diferenele dintre lungimile cuvintelor de cod devin
minime, ceea ce va conduce, evident, i la o dispersie minim.
Teoria transmiterii i codificrii informaiei
Page 30 of 83
Pentru fixarea ideilor, se presupune sursa discret de informaie caracterizat de
distribuia:
S : 1 2 3
0,2 0,4 0,2 4 50,1 0,1
Pentru aceast surs se efectueaz codarea Huffman, plasnd nti mesajele sursei
restrnse pe poziiile cele mai jos posibile n list i apoi pe poziiile cele mai de sus posibile. n
primul caz rezult schema de codare din Fig. 3.4, iar graful i cuvintele de cod ca n Fig. 3.5.
Teoria transmiterii i codificrii informaiei
Page 31 of 83
Pentru acest cod, lungimea medie i dispersia sunt:
= 0,2 2 + 0,4 1 + 0,2 3 + 0,1 3 + 0,1 4 2,2 /
12 = ( )
2 = 0,22 + 1,22 + 0,82 + 1,82 +
5
=1
1,82 = 8,6
Pentru cazul n care n codarea Huffman mesajele sursei restrnse se plaseaz pe poziiile
cele mai de sus n list, se obine schema de codare din Fig. 3.6 i graful i cuvintele de cod ca n
Fig. 3.7.
Teoria transmiterii i codificrii informaiei
Page 32 of 83
Pentru acest cod, lungimea medie este, evident, aceeai, n timp ce dispersia devine:
22 = ( )
2 = 0,22 + 0,22 + 0,22 + 0,82 +
5
=1
0,82 = 1,4
Dei din punct de vedere informaional, cele dou coduri sunt identice, n practic se
prefer folosirea celor de dispersie minim, din motive de transmisie. De exemplu, dac se
dorete s se transmit mesaje ale sursei cu o vitez de 10.000 mesaje/sec., este necesar un canal
cu capacitatea de 22.000 bii/sec. Deoarece viteza de generare a biilor oscileaz n jurul valorii
de 22.000 bii/sec., funcie de succesiunea de mesaje furnizate la un moment dat, ieirea sursei
este ncrcat ntr-un buffer.
Dac, de exemplu, sursa genereaz la un moment dat iruri de mesaje 4 i 5 mai multe
secunde, pentru primul cod se genereaz 40.000 bii/sec. i n fiecare secund ar trebui un buffer
de capacitate de 18.000 bii. Cu al doilea cod se genereaz 30.000 bii /sec. i bufferul ar trebui
s aib capacitatea de 8.000 bii. Dac se transmit iruri de mesaje 2, cu primul cod se
genereaz 10.000 bii/sec. i canalul nu e folosit la capacitatea sa, rmnnd un deficit de 12.000
bii/sec, pe cnd cu al doilea cod se genereaz 20.000bii/sec, deficitul existent n exploatarea
canalului fiind numai de 2.000 bii/sec. Aadar, din motive de transmisie este mai rezonabil a se
alege al doilea cod dect primul.
1.5. Procedeul de codare binar Shannon Fano.
Acest procedeu se aplic de obicei n cazurile particulare n care probabilitile de
furnizare ale mesajelor sunt puteri ntregi pozitive ale lui (1/2), adic, de forma:
p() = (1
2)= 2 , ( ) k=1, (2.17)
unde este un numr ntreg pozitiv. Dac relaia (3.48) este satisfcut, mulimea S = {s1, s2
,..., sN} a mesajelor sursei discrete de informaie ce urmeaz a fi codat poate fi partiionat n
dou submulimi 0 i 1, astfel nct suma probabilitilor mesajelor incluse n 0 , notat cu
p(0 ), s fie egal cu suma probabilitilor mesajelor incluse n 1,, notat cu p(1 ). Sursa S fiind
totdeauna complet, se poate scrie:
p 0 = p 1
p 0 + p 1 = 1 p 0 = p 1 =
1
2= 21 (2.18)
Teoria transmiterii i codificrii informaiei
Page 33 of 83
Submulimile 0 i 1 se pot partiiona la rndul lor n 00 i 01 , respectiv n 10 i 11 ,
astfel nct suma probabilitilor mesajelor incluse n cele patru submulimi s fie aceeai, adic
se poate scrie relaia:
p 00 = p 0 1 = p 10 = p 11 =1
2
2= 22 (2.19)
Se procedeaz n mod analog pn se obin submulimi care conin un singur mesaj. Se
observ c fiecare submulime are suma probabilitilor mesajelor incluse egal cu o putere
ntreag a lui (1/2). Puterea ntreag este egal cu numrul indicilor submulimii respective Dac
submulimea conine un singur mesaj, , i are un numr de indici egal cu , atunci se poate
scrie:
= (1/2) = 2 (2.20)
de unde rezult necesitatea ca sursa S ce urmeaz a fi codat s-i furnizeze mesajele cu
probabiliti egale cu la o putere ntreag, pozitiv.
Sursa fiind complet, se poate scrie relaia (1.21):
() = 1=1 (2.21)
nlocuind (1.20) n (1.21), rezult relaia (1.22):
2 = 1=1 (2.22)
ceea ce nseamn c inegalitatea lui Kraft devine n acest caz egalitate.
Cuvintele de cod se vor obine, atunci, astfel:
1. Se atribuie simbolul "0" submulimii 0 i simbolul "1" submulimii 1 , (sau invers),
astfel c toate cuvintele corespunztoare mesajelor incluse n 0 vor ncepe cu "0" i toate
cuvintele corespunztoare mesajelor incluse n 1 , vor
ncepe cu "1" (sau invers);
2. Se aloc submulimilor 00 i 10 ca al doilea mesaj "0", iar submulimilor 01 i 11 ca
al doilea mesaj "1" (sau invers). n felul acesta, cuvintele de cod corespunztoare mesajelor
incluse n 00 vor ncepe cu 00, cuvintele de cod corespunztoare mesajelor incluse n 10 vor
ncepe cu 10 i aa mai departe, cuvintele de cod corespunztoare mesajelor induse n 11 vor
ncepe cu 11.
Teoria transmiterii i codificrii informaiei
Page 34 of 83
3. Operaia se continu n acelai mod, pn cnd n fiecare submulime rmne un singur
mesaj, cruia i va corespunde cuvntul de cod format din irul de indici ai submulimii
respective. Deoarece la fiecare partiionare n dou submulimi atribuirea mesajelor "0" i "1"
este arbitrar, rezult c prin acest procedeu se pot obine o multitudine de coduri instantanee,
dar toate absolut optimale.
n principiu, procedeul de codare descris s-ar putea aplica n general, adic i atunci cnd
relaia (1.21) nu este satisfcut. n acest caz, partiionrile n submulimi trebuie efectuate astfel
nct suma probabilitilor mesajelor incluse n submulimile respective s fie ct mai apropiate.
Atribuind simbolurile "0" i "1" ca n procedeul descris, se obin totdeauna coduri instantanee.
Cu ct sumele probabilitilor mesajelor componente ale submulimilor respective vor fi
mai apropiate, cu att lungimea medie a cuvintelor de cod va fi mai mic.
Exemplul 3.2.
Se consider sursa discret de informaie caracterizat de distribuia:
S : 1 2 3
22 22 23 4 5
23 24 6 7 8
24 24 24
Procedeul de codare binar Shannon - Fano este sintetizat n tabelul de mai jos:
Graful arborescent ataat codului astfel obinut este reprezentat n Fig. 3.8
Teoria transmiterii i codificrii informaiei
Page 35 of 83
Aplicaie
Simularea cu ajutorul programului MATLAB a algoritmului de compresie
Shannon-Fano n cadrul lucrrilor de laborator va fi pus la dispoziie o aplicaie software care
implemeneaz algoritmul de compresie Shannon-Fano. Ecranul aplicaiei este prezentat n figura urmtoare.
Teoria transmiterii i codificrii informaiei
Page 36 of 83
Exerciii rezolvate.
1. n tabelul de mai jos sunt prezentate patru coduri separabile,
mesaj A B C D
s0 00 0 0 0
s1 01 10 01 10
s2 10 110 011 110
s3 11 1110 0111 111
Folosind codul B, succesiunile s s s s3 1 0 2 se codifica 1110100110. Dupa receptinarea
primelor sase biti se poate determina ca s-a receptionat s s3 1 . Daca Insa se folosec codul C,
succesiunea s s s s3 1 0 2 se codifica 011010011. Dupa receptionarea primelor sase biti conduce la
decodarea s3 dar secventa 01 poate fi interpretata la acel moment fie care s1 fie ca, s2 fie ca s3 ,
ambiguitatea rezolvndu-se abia dupa receptia urmatorilor biti. Un cod de tip C se numeste cod
instantaneu.
Conditia necesara si suficienta ca un cod sa fie instantaneu este ca nici un cuvnt de cod
sa nu fie prefix al altui cuvnt de cod (conditia de prefix).
Se considera sursa care genereaza simbolurile :
- s0 cu probabilitatea p1 = 0,5 - s1 cu probabilitatea p2 = 0,25 - s2 cu probabilitatea p3 = 0,125 - s3 cu probabilitatea p4 = 0,125
Se cere sa se determine eficienta codurilor A, B, C si D
Rezolvare :
Entropia sursei este
H p pi ii
log log log log21
4
2 2
1
2
1
2
1
4
1
42
1
8
1
8
7
4biti
Pentru codul A lungimea medie a codului este nA 2 si
A iar
7
4
2 2
7
8
1
22log
Codurile B si C cu aceiasi lungime medie
n nB C 0 5 1 0 25 2 0 125 3 0 125 4 1 875, , , , ,
Teoria transmiterii i codificrii informaiei
Page 37 of 83
B C
B C
1 75
1 875
14
15
1
15
,
,
Codul D are nD 0 5 1 0 25 2 0125 3 1 75, , , , si
D D 1 75
1 75 21 0
2
,
, log
TESTE DE AUTOEVALUARE
Testul nr. 1
1. Se d sursa A prin urmatoarea repartiie de probabiliti:
02.002.002.004.007.007.014.014.048.0
987654321 aaaaaaaaaA
S se codifice sursa A utiliznd metoda de codificare Huffman i s se calculeze lungimea medie a cuvintelor de cod.
Testul nr. 2
2. Se d sursa A prin urmatoarea repartiie de probabiliti:
02.002.002.004.007.007.014.014.048.0
987654321 aaaaaaaaaA
S se codifice sursa A utiliznd metoda de codificare Shannon-Fano i s se calculeze lungimea medie a cuvintelor de cod.
Tem de control
Se consider o surs cu alfabetul 654321 ,,,,, ssssssS i probabilitile 2.0,1.0,25.0,3.0,1.0,05.0P :
a. s se determine un cod compact folosind algoritmul de codare Huffman, dac
alfabetul codului este 1,0X i dac alfabetul codului este 2,1,0X ; b. pentru cele dou cazuri s se calculeze lungimea medie a cuvintelor de cod i
eficiena codului.
Teoria transmiterii i codificrii informaiei
Page 38 of 83
MODULUL 2 UNITATEA DE NVARE 4
CANALE DE TRANSMITERE A INFORMAIEI
Definitie : Un canal de transmitere a informatiei este constituit din mediul de
transmitere si echipamentele care fac posibile transmiterea informatiei de la sursa la utilizator.
Mediul de transmisie : fire de cupru, fibrele optice, atmosfera, etc.
2.1.Clasificari ale canalelor
a) Dupa domeniul de valori al v.a. X si Y de la intrarea, respectiv iesirea canalului :
- continuu/continuu
- discret/continuu
- continuu/discret
- discret/discret
b) Dupa evolutia in timp a v.a. X si Y :
- continuu in timp - discret in timp
c) Dupa redundanta transmisiei :
- canal fara memorie - canal cu memorie
d) Dupa statistica trasmisiei :
- stationar - nestationar
2.1.Canale discrete de transmitere a informatiei
Aceasta sectiune priveste canalele discrete/discrete, fara memorie si stationare. Notiunile
prezentate nu depind de tipul de continuitatea in timp.
S R C A N A L S D
[X] [Y]
P
Mod DeM
Teoria transmiterii i codificrii informaiei
Page 39 of 83
2.3.1. Marimi caracteristice
Fie X , sursa de informatie care genereaza la intrarea in canal:
NxxX ,,1 (2.29)
NppP ,,1 (2.30)
si Y , sursa de informatie care modeleaza iesirea din canal (sursa de informatie pentru utilizator):
MyyY ,,1 (2.31) MqqQ ,,1 (2.32)
Din cauza perturbatiilor de pe canal, X si Y sunt, in general, diferite.
Spatiul produs:
MNNN
M
M
yxyxyx
yxyxyx
yxyxyx
YX
,,,
,,,
,,,
,
21
22212
12111
(2.33)
Matricea probabilitatilor corespunzatoare spatiului produs:
MNNN
M
M
yxpyxpyxp
yxpyxpyxp
yxpyxpyxp
YXP
,,,
,,,
,,,
,
21
22212
12111
(2.34)
Matricea de zgomot a canalului:
NMNN
M
M
xypxypxyp
xypxypxyp
xypxypxyp
XYP
21
22221
11211
(2.35)
Matricea de zgomot este stohastica:
1i
ji xyp (suma elementelor de pe orice linie este 1).
Teoria transmiterii i codificrii informaiei
Page 40 of 83
Canalele studiate sunt stationare, deci ./ ctxyp ij . Canalele sunt fara memorie, deci probabilitatea de aparitie a lui jy nu depinde decat de simbolul
generat simultan la intrarea in canal, simbolul ix pentru ij xyp / .
2.3.2. Reprezentarea grafica a transmisiei prin canalele discrete
1x 1y
2x 2y
.
My
Nx
5.2.3. Entropii caracteristice
Entropia la intrarea in canal: ii
i xpxpXH log
Entropia la iesirea din canal: ii
i ypypXH log
Entropia reunita a intrarii si iesirii: jii j
ji yxpyxpYXH ,log,,
Echivocatia: i
ji
j
ji yxpyxpYXH log,
Definitie: Echivocatia este cantitatea medie de incertitudinea care ramane asupra simbolurilor de
la intrarea in canal, atunci cand se cunosc simbolurile de la iesire.
Eroarea medie: i
ij
j
ji xypyxpXYH log,
Definitie: Eroarea medie este cantitate medie de informatie eronata, la iesirea din canal.
Informatia medie transmisa prin canal: ji
ji
i j
jiypxp
yxpyxpYXI
,log,,
Definitie: Informatia medie este cantitatea medie de informatie care se transmite corect prin
canal.
Cazuri particulare :
a) Canale cu perturbatii infinite ( X si Y sunt independente)
11 / xyp
Teoria transmiterii i codificrii informaiei
Page 41 of 83
YHXHYXH , (2.36)
XHYXH (la iesire, nu aflam nimic despre X ; incertitudinea asupra lui X ramane la fel de mare)
YHXYH (toata informatia de la iesire este eronata)
0, YXI (informatia medie transmisa prin canal este nula)
b) Canale fara perturbatii (sursele X si Y sunt identice)
YHXHYXH , (2.37)
0YXH (cunoscand iesirea din canal, nu mai exista nicio incertitudine asupra lui X )
0XYH (nu exista erori la iesirea din canal)
)(, XHYXI (informatia de la intrare se transmite integral prin canal)
c) Canale cu perturbatii finite ( X si Y sunt diferite, dar dependente statistic)
YHXHYXH , (2.38)
XHYXH (cunoscand iesirea din canal, incertitudine asupra lui X devine mai mica)
YHXYH (o parte a informatiei de la iesirea din canal este corecta)
)(, XHYXI (informatia de la intrare se transmite partial prin canal)
5.3. Capacitatea canalului discret
Definitie : Capacitatea unui canal este informatia medie maxima, care se poate transmite prin
canal :
YXICP
,max (2.39)
Observatie: maximul se ia dupa probabilitatile sursei de la intrarea in canal, pentru ca aceste
probabilitati pot fi controlate, intr-o aplicatie practica.
Teoria transmiterii i codificrii informaiei
Page 42 of 83
Unitatea de masura pentru capacitate este bit/simbol.
Definitie : Redundanta canalului este : YXICR , [bit/simbol].
Definitie : Redundanta relativa a canalului este : 1,0,1
C
YXIC .
Definitie : Randamentul sau eficienta canalului arata cat de mica este cantitatea medie de
informatie transmisa prin canal, in raport cu capacitatea canalului.
1,0,
C
YXIC
(2.40)
Observatie: redundanta si radamentul sunt marimi complementare: CC 1
Definitie : Debitul de informatie prin canal este :
YXIYXI t
,, [bit/sec], unde este
durata unui simbol.
Observatie: Debitul maxim de informatie prin canal este:
CCt .
Proprietati :
a) Capacitatea canalului este o marime nenegativa :
0C (deoarece 0, YXI ) (2.41)
b) Capacitatea canalului este mai mica sau egala cu entropia sursei de la intrare:
XHC (deoarece XHYXI , ) (2.42)
c) Capacitatea este o functie continua in raport probabilitatile XP .
2.3. Calculul capacitatii canalului discret
Date initiale : probabilitatile matricii de zgomot XYP / . Etape:
1) Aplicand Metoda multiplicatorului lui Lagrage, se calculeaza probabilitatile maxip , care
maximizeaza functia XYHYHYXI /, . 2) Capacitatea se obtine calculand XYHYHYXI /, pentru probabilitatile
obtinute.
Teoria transmiterii i codificrii informaiei
Page 43 of 83
Rezolvare:
Se construieste functia:
1/
i
ipXYHYH
Pentru a pune in evidenta probabilitatile ip in expresia lui YH , probabilitatile Q se scriu:
ii
iji
i
ij
i
jij pxypxpxypyxpq ,
Se calculeaza derivatele partiale ale lui in raport cu ip :
- derivata lui YH in raport cu ip :
j
jij
j
jij
j
ij
j j
ijj
i
j
ji
qxype
qxypxype
xype
qp
q
q
YH
p
YH
log/log
1log//
log
1
/log
1log
- derivata lui XYH / in raport cu ip :
j
ijij
i
j i
ijiij
i
xypxypp
xyppxyp
p
XYH/log/
/log//
- derivata termenului in :
i
i
i
p
p 1
Se egaleaza derivatele partiale ale lui cu zero; din rezolvarea sistemului, rezulta
probabilitatile maxip , care maximizeaza si, deci, informatia transmisa prin canal:
0/log/log/log
1
j
ijij
j
jij xypxypqxype
Nipentru ,1
Grupand termenii cu sume si constantele, se obtin ecuatiile:
ctq
xypxyp
j j
ij
ij /
log/ Nipentru ,1
Teoria transmiterii i codificrii informaiei
Page 44 of 83
Completand aceste ecuatii cu:
i
iijj pxypq / Mjpentru ,1
si
i
ip 1
se obtine un sistem cu 1MN ecuatii si acelasi numar de necunoscute, din care se pot obtine
probabilitatile maxip si max
jq , care maximizeaza informatia transmisa prin canal.
Capacitatea canalului se calculeaza cu relatia:
i j j
ij
iijq
xyppxypC
max
max/
log/
Observatii:
- acest sistem nu are, in general, o solutie analitica; cand nu exista o solutie analita, capacitatea se calculeaza cu metode numerice (algoritmului Frank-Wolfe, care este bazat
pe metoda gradientului, sau algoritmul iterativ al lui Arimoto si Blahut)
- daca alfabetele surselor de la intrarea si de la iesirea din canal au acelasi numar de simboluri si, daca, determinantul matricii de zgomot este diferit de zero, atunci sistemul
are solutie analitica
2.4. Modele de canale discrete
Aceasta sectiune cuprinde patru cazuri particulare de canale (modele), pentru care
capacitatea se poate calcula analitic.
2.4.1. Canalul uniform fata de intrare
Definitie: Fiecare linie a matricii de zgomot a canalului uniform fata de intrare este o permutare
a altei linii (pe fiecare linie gasim aceleasi probabilitati, diferit ordonate).
Exemplu:
6
1
2
1
3
12
1
6
1
3
1
/ XYP
(2.43)
Proprietati: a) Eroarea medie nu depinde de probabilitatile simbolurilor de la intrarea in canal:
Teoria transmiterii i codificrii informaiei
Page 45 of 83
ctxpctxypxypxp
xypxpxyp
xypyxpXYH
i
i
j
ijij
i
i
ij
ji
iij
ij
ji
ji
/log/
/log/
/log,/
,
,
(2.44)
b) Capacitatea canalului este:
XYHYHXYHYHYXIC
PPP/max/max,max
(2.45)
2.4.2. Canalul uniform fata de iesire
Definitie: Fiecare coloana a matricii de zgomot a canalului uniform fata de iesire este o
permutare a altei coloane (pe fiecare coloana gasim aceleasi probabilitati, diferit ordonate).
Exemplu:
3,07,0
7,03,0
5,05,0
/ XYP
(2.46)
Proprietate:
a) Daca simbolurile de la intrarea in canal sunt echiprobabile, atunci si cele de la iesire sunt echiprobabile:
.1/1/ ctN
xypN
xpxypypi
ij
i
iijj (2.47)
2.4.3. Canalul simetric
Definitie: Canalul simetric este canalul uniform atat fata de intrare cat si fata de iesire.
Exemplu:
3,05,02,0
2,03,05,0
5,02,03,0
/ XYP (2.48)
Proprietati: a) Capacitatea canalului se obtine pentru simboluri echiprobabile la intrarea in canal si este:
XYHMC /log unde M este numarul de simboluri ale sursei de la iesirea din canal (simbolurile de la iesire sunt echiprobabile, daca si cele de la intrare sunt echiprobabile).
Teoria transmiterii i codificrii informaiei
Page 46 of 83
2.4.4. Canalul slab simetric
Definitie: Canalul slab simetric este uniform fata de intrare si are suma probabilitatilor de pe
fiecare coloana constanta.
Exemplu:
6
1
2
1
3
12
1
6
1
3
1
/ XYP (2.49)
Proprietati:
a) Daca simbolurile de la intrarea in canal sunt echiprobabile, atunci si cele de la iesire sunt echiprobabile:
.1/1/ ctN
xypN
xpxypypi
ij
i
iijj (2.50)
b) Capacitatea canalului se obtine pentru simboluri echiprobabile la intrarea in canal si este:
XYHMC /log (2.51)
Observatie: Uniformitatea fata de iesire nu este indispensabila pentru a putea avea o expresie
analitica pentru capacitatea canalului. Aceasta conditie poate fi relaxata la conditia ca suma
probabilitatilor de pe coloane sa fie constanta.
2.5. Exemple de canale discrete
2.5.1. Canalul binar simetric
Matrice de zgomot:
pp
ppXYP
1
1/
(2.52)
Reprezentare grafica:
0 0
1 1
p 1-p
1-p
p
Teoria transmiterii i codificrii informaiei
Page 47 of 83
Calculul capacitatii:
XYHXYHC /1/2log
unde
pppp
xypxypXYHj
ijij
1log1log
/log//2
1
deci
ppppC 1log1log1
Cazuri particulare:
a) Canal fara perturbatii:
Matricea de zgomot:
10
01/ XYP
Reprezentare grafica: 0 0
1 1
Capacitatea este maxima : simbolbitC /1
Observatie:
Celalalt punct de maxim al capacitatii corespunde canalului inversor:
01
10/ XYP 0 0
simbolbitC /1
1 1
b) Canalul cu perturbatii infinite (foarte puternice)
H(X), C
p 1/2 1
1
Teoria transmiterii i codificrii informaiei
Page 48 of 83
Matricea de zgomot:
2/12/1
2/12/1/ XYP
Capacitatea : simbolbitC /0
2.5.2. Canalul binar cu erori si anulari
Matrice de zgomot:
qqpp
qpqpXYP
1
1/ Canalul este uniform doar fata de intrare.
Reprezentare grafica:
0X 0Y
aY
1X 1Y
Calculul capacitatii:
XYHYHC
P/max
unde
qpqpqqpp
xypxypXYHj
ijij
1log1loglog
/log//2
1
Calculul lui
YHP
max :
- se noteaza xXp 0 si xXp 11
- se exprima ii
i xpxYpYp
2
1
/00 , aYp si 1Yp ca
functii de x
- se exprima YH ca functie de x , folosind probabilitatile calculate mai sus
1-p-q
q
p
Teoria transmiterii i codificrii informaiei
Page 49 of 83
- se rezolva ecuatia
0
x
YH
- cu solutia ecuatiei de mai sus, se obtine
YHP
max
Exercitiu:
Calculul capacitatii canalului binar cu erori si anulari.
Raspuns qpqpppqqqC 1log1log1log11 .
Observatie: Capacitatea canalului devine zero pentru 2
1 qp
(se rezolva ecuatia 0
p
C
si se obtine solutia 2
1 qp
)
2.5.3. Canalul binar cu anulari
Este un caz particular al canalului binar cu erori si anulari ( 0q ).
Matricea de zgomot:
qqXYP
10
01/
(2.53)
Reprezentarea grafica:
0X 0Y
aY
1X 1Y
Capacitatea: qC 1
1-q
1-q
q
q
Teoria transmiterii i codificrii informaiei
Page 50 of 83
Exercitii rezolvate.
1. Sa se determine capacitatea unui canal binar cu zona de anulare avand graful asociat matricei de tranzitie din figura de mai jos
Solutie
Acest model descrie un canal care perturba simbolurile unei surse binare in masura in
care la receptie sa poata fi interpretate ca fiind incerte.
Metoda scalara
C H Y H Y Xp xi
max ( )( )
H Y p y p yii
i( ) ( ) log ( )
1
3
)()1()()()()( 11112211111 xpqxpxypxpxypxpxypyp
S-a utilizat formula probabilitatii totale, evenimentele x1, x2 fiind mutual exclusive.
Analog se poate scrie
p y q p x( ) ( ) ( )2 21
p y p y x p x p y x p x q p x p x q q( ) ( ) ( ) ( ) ( )3 3 1 1 3 2 2 1 2 1
H Y q p x q p x q q q p x q p x