+ All Categories
Home > Documents > Matcovschi Lanturi Sist Astept Markov

Matcovschi Lanturi Sist Astept Markov

Date post: 01-Dec-2015
Category:
Upload: una-doua
View: 210 times
Download: 3 times
Share this document with a friend
208
MIHAELA-HANAKO MATCOVSCHI LAN Ţ URI Ş I SISTEME DE A Ş TEPTARE MARKOVIENE Editura GH. ASACHI IAŞI, 2003
Transcript
Page 1: Matcovschi Lanturi Sist Astept Markov

MIHAELA-HANAKO MATCOVSCHI

LANŢURI ŞI SISTEME DE AŞTEPTARE

MARKOVIENE

Editura GH. ASACHI

IAŞI, 2003

Page 2: Matcovschi Lanturi Sist Astept Markov
Page 3: Matcovschi Lanturi Sist Astept Markov

MIHAELA-HANAKO MATCOVSCHI

LANŢURI ŞI SISTEME DE AŞTEPTARE

MARKOVIENE

Editura GH. ASACHI

IAŞI, 2003

Page 4: Matcovschi Lanturi Sist Astept Markov

Editura „GH. ASACHI” Universitatea Tehnică Iaşi Bd. D. Mangeron nr. 67 6600, Iaşi, Romania Tel: 0232 – 23.13.43 Fax: 0232 – 21.42.90 Director editură: Prof. univ. dr. ing. Mihail VOICU Redactor: Prof. Georgeta ANICULĂESEI Referenţi ştiinţifici: Prof. univ. dr. doc. ing. Alfred BRAIER Prof. univ. dr. ing. Teohari GANCIU Prof. univ. dr. ing. Octavian PĂSTRĂVANU Colecţia: Automatică şi informatică industrială

© Mihaela-Hanako MATCOVSCHI Universitatea Tehnică “Gh. Asachi” Iaşi Facultatea de Automatică şi Calculatoare Bd. D. Mangeron 53A, 6600 Iaşi E-mail: [email protected]

Descrierea CIP a Bibliotecii Naţionale a României MATCOVSCHI, MIHAELA-HANAKO Lanţuri şi sisteme de aşteptare markoviene / Matcovschi Mihaela-Hanako– Iaşi: Editura Gheorghe Asachi, 2003. Bibliogr. ISBN: 973-621-025-1 518.217

Page 5: Matcovschi Lanturi Sist Astept Markov

Cuvânt înainte În instruirea specialiştilor din ingineria sistemelor şi calculatoarelor şi din domenii conexe (telecomunicaţii, inginerie industrială, biotehnologie) ultimul deceniu s-a caracterizat printr-o deplasare a centrului de interes către noi tipuri de dinamică, necesitând o extindere adecvată a fundamentelor teoretice care să permită desfăşurarea activităţilor de modelare, analiză şi sinteză. Respectiva extindere a inclus în principal construcţii bazate pe capitole moderne de matematică cu aplicabilitate largă, deja consacrată în practică. Lanţurile Markov şi sistemele de aşteptare markoviene sunt două dintre aceste capitole care în prezent se regăsesc în conţinutul a numeroase monografii şi manuale cu orientare inginerească publicate recent de diverse edituri internaţionale. Existenţa în literatura tehnico-inginerească din România a foarte puţine materiale vizând noile arii de investigaţie din automatică a motivat autoarea acestor rânduri să elaboreze o carte concentrată asupra elementelor de bază ale teoriei aşteptării.Spiritul cărţii este specific antrenării studenţilor pe principii didactice moderne, restrângând latura pur matematică la strictul necesar şi complementând-o prin exemple şi studii demonstrative care ilustrează modul de aplicare a rezultatelor teoretice. Mai mult, o parte din aceste aplicaţii oferă comparativ soluţii analitice şi asistate de calculator, iar sub formă de anexe sunt prezentate elementele esenţiale pentru utilizarea software-ului la care se face apel (Statistics Toolbox for MATLAB şi ARENA). Maniera de dozare şi structurare a informaţiilor furnizate cititorului facilitează parcurgerea textului, creând o relativă independenţă de consultarea altor resurse bibliografice. Cititorul interesat în detalii găseşte însă în lista bibliografică numeroase recomandări pentru studii ulterioare şi/sau aprofundarea unor tematici. În dimensionarea lucrării şi fixarea principalelor repere de conţinut s-a ţinut cont de corelarea cu disciplinele de studiu proprii specializărilor de Automatică, Informatică Aplicată, Tehnologia Informaţiei, consultând planuri de învăţământ şi programe analitice disponibile de la alte universităţi din ţară şi din străinătate. Prin acest demers cartea îşi defineşte o sferă de potenţiali cititori nu numai în rândul studenţilor Facultăţii

Page 6: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi ii

de Automatică şi Calculatoare din Iaşi, pentru care este recomandată drept suport pentru cursul de Sisteme de Aşteptare şi Aplicaţii, ci are în vedere studenţi, absolvenţi şi doctoranzi din specializări înrudite, care o pot utiliza drept material pentru studiu individual. Nivelul introductiv spre mediu pentru care a fost proiectată lucrarea a obligat la o selectare foarte atentă a subiectelor nepermiţând abordarea unor problematici importante din punctul de vedere al cercetărilor actuale, dar depăşind cadrul informaţional pe care ni l-am propus. Din această categorie fac parte sistemele de aşteptare nemarkoviene, reţelele de aşteptare şi algoritmi de planificare a servirii. Acest Cuvânt înainte nu poate fi încheiat fără ca autoarea să îşi exprime gratitudinea faţă de o serie de persoane care, într-o manieră directă sau indirectă, au contribuit la definitivarea şi apariţia acestei lucrării. Aceştia sunt cei trei referenţi care au avut generozitatea de a parcurge manuscrisul şi de a formula sugestii pentru amendarea acestuia, precum şi membrii colectivului Editurii "Gh. Asachi" care au dăruit acestui manuscris lumina tiparului. Cititorii sunt rugaţi ca în urma lecturii să aducă la cunoştinţa autoarei inerentele imperfecţiuni ale materialului, şi totodată, în măsura posibilului, să propună eventuale soluţii pentru îndepărtarea acestora. Tuturor celor care vor avea bunăvoinţa de a răspunde acestei invitaţii, le sunt adresate anticipat mulţumirile cuvenite. Aprilie 2003 Autoarea

Page 7: Matcovschi Lanturi Sist Astept Markov

Cuprins Cuvânt înainte .................................................................................................................. i Cuprins........................................................................................................................... iii Simboluri şi notaţii......................................................................................................... vi Cap. 1. Introducere în teoria sistemelor de aşteptare .................................................... 1 Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică ............................ 7

2.1. Câmp de probabilitate................................................................................................... 8 2.2. Variabile aleatoare şi distribuţii de probabilitate........................................................ 10

2.2.1. Variabile aleatoare unidimensionale................................................................. 10 2.2.2. Variabile aleatoare multidimensionale.............................................................. 13 2.2.3. Funcţii de variabile aleatoare ............................................................................ 15

2.3. Caracteristici ale distribuţiilor de probabilitate .......................................................... 17 2.3.1. Valoare medie ................................................................................................... 17 2.3.2. Dispersie (varianţă) ........................................................................................... 18 2.3.3. Moment de ordin k ............................................................................................ 19 2.3.4. Covarianţă ......................................................................................................... 20

2.4. Distribuţii de probabilitate utilizate în modelarea sistemelor de aşteptare................. 21 2.4.1. Distribuţii discrete de probabilitate................................................................... 21

2.4.1.1. Distribuţia uniformă discretă ................................................................... 21 2.4.1.2. Distribuţia Bernoulli................................................................................ 22 2.4.1.3. Distribuţia binomială ............................................................................... 22 2.4.1.4. Distribuţia binomială cu exponent negativ.............................................. 23 2.4.1.5. Distribuţia geometrică ............................................................................. 24 2.4.1.6. Distribuţia Poisson .................................................................................. 25

2.4.2. Distribuţii continue de probabilitate ................................................................. 27 2.4.2.1. Distribuţia uniformă continuă ................................................................. 27 2.4.2.2. Distribuţia exponenţială .......................................................................... 27 2.4.2.3. Distribuţia gamma ................................................................................... 30 2.4.2.4. Distribuţia Erlang .................................................................................... 31 2.4.2.5. Distribuţia hiperexponenţială .................................................................. 32 2.4.2.6. Distribuţia Cox ........................................................................................ 34 2.4.2.7. Distribuţia 2χ .......................................................................................... 35

Page 8: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi iv

2.4.2.8. Distribuţia normală .................................................................................. 36 2.4.2.9. Distribuţia lognormală............................................................................. 37 2.4.2.10. Distribuţia beta ...................................................................................... 37 2.4.2.11. Distribuţia Weibull ................................................................................ 38

2.5. Generarea numerelor aleatoare ................................................................................... 41 2.6. Funcţii generatoare ..................................................................................................... 42 2.7. Legea numerelor mari. Legi limită ............................................................................. 50 2.8. Elemente de statistică matematică .............................................................................. 51

2.8.1. Estimarea parametrilor...................................................................................... 52 2.8.1.1. Estimatori statistici .................................................................................. 52 2.8.1.2. Intervale de încredere .............................................................................. 56

2.8.2. Verificarea ipotezelor statistice......................................................................... 57 Cap. 3. Lanţuri Markov................................................................................................. 63

3.1. Procese stohastice ....................................................................................................... 63 3.1.1. Noţiuni generale................................................................................................ 63 3.1.2. Procese Markov ................................................................................................ 65 3.1.3. Fluxuri de evenimente....................................................................................... 67

3.1.3.1. Fluxuri de tip Bernoulli ........................................................................... 68 3.1.3.2. Fluxuri de tip Poisson.............................................................................. 72

3.2. Lanţuri Markov în timp discret, omogene .................................................................. 76 3.2.1. Tranziţii de stare................................................................................................ 76

3.2.1.1. Ecuaţia Chapman-Kolmogorov ............................................................... 76 3.2.1.2. Durata de menţinere a unei stări .............................................................. 80

3.2.2. Analiza regimului tranzitoriu ............................................................................ 81 3.2.3. Clasificarea stărilor ........................................................................................... 85

3.2.3.1. Stări accesibile......................................................................................... 85 3.2.3.2. Stări recurente şi stări tranzitorii ............................................................. 86 3.2.3.3. Stări nul recurente şi stări pozitiv recurente ............................................ 87 3.2.3.4. Stări periodice şi stări aperiodice ............................................................ 88

3.2.4. Analiza regimului staţionar (permanent) .......................................................... 91 3.2.4.1. Lanţuri Markov ireductibile .................................................................... 91 3.2.4.2. Lanţuri Markov reductibile.................................................................... 100 3.2.4.3. Lanţuri Markov absorbante ................................................................... 102

3.3. Lanţuri Markov în timp continuu, omogene............................................................. 105 3.3.1. Tranziţii de stare.............................................................................................. 105

3.3.1.1. Ecuaţia Chapman-Kolmogorov ............................................................. 105 3.3.1.2. Durata de menţinere a unei stări ............................................................ 108 3.3.1.3. Probabilităţile tranziţiilor de stare ......................................................... 110

3.3.2. Analiza regimului tranzitoriu .......................................................................... 113 3.3.3. Clasificarea stărilor ......................................................................................... 115 3.3.4. Analiza regimului staţionar............................................................................. 116 3.3.5. Lanţuri birth-death în timp continuu............................................................... 118

Page 9: Matcovschi Lanturi Sist Astept Markov

Cuprins

v

3.4. Lanţuri Markov asociate reţelelor Petri stohastice ................................................... 120 3.4.1. Concepte de bază în teoria reţelelor Petri ....................................................... 120 3.4.2. Reţele Petri stohastice ..................................................................................... 123 3.4.3. Proprietăţi de conservare................................................................................. 123 3.4.4. Construcţia lanţului Markov asociat unei reţele Petri stohastice .................... 124 3.4.5. Evaluarea performanţelor unei reţele Petri stohastice..................................... 125 3.4.6. Reţele Petri stohastice generalizate................................................................. 130

Cap. 4. Sisteme de aşteptare markoviene ................................................................... 137

4.1. Modelarea matematică a sistemelor de aşteptare...................................................... 137 4.1.1. Notaţia lui Kendall .......................................................................................... 137 4.1.2. Dinamica unui sistem de aşteptare.................................................................. 139 4.1.3. Performanţele sistemelor de aşteptare............................................................. 141 4.1.4. Legea lui Little ................................................................................................ 142 4.1.5. Sisteme simple de aşteptare de tip markovian ................................................ 144

4.2. Sisteme de aşteptare M/M/1 ..................................................................................... 144 4.3. Sisteme de aşteptare M/M/m .................................................................................... 156 4.4. Sisteme de aşteptare M/M/∞ .................................................................................... 166 4.5. Sisteme de aşteptare M/M/1/K ................................................................................. 167 4.6. Sisteme de aşteptare M/M/m/m................................................................................ 173 4.7. Sisteme de aşteptare M/M/1/ /N ............................................................................... 175 4.8. Sisteme de aşteptare M/M/m/K/N ............................................................................ 177

Anexa 1. Simularea şi analiza sistemelor de aşteptare în MATLAB.......................... 183 Anexa 2. Simularea şi analiza sistemelor de aşteptare în ARENA ............................ 187

A2.1. Mediul de modelare ARENA 5.0 .......................................................................... 187 A2.2. Crearea modelului unui sistem de tip M/M/1 ........................................................ 190

Bibliografie ................................................................................................................. 197

Page 10: Matcovschi Lanturi Sist Astept Markov

Simboluri şi notaţii

– mulţimea numerelor reale – mulţimea numerelor naturale (inclusiv 0) – mulţimea numerelor întregi – mulţimea numerelor complexe

∈ – apartenenţă ⊂ – incluziune strictă ⊆ – incluziune cu posibilitate de egal Ω – spaţiul eşantioanelor (mulţimea tuturor

realizărilor posibile ale unui experiment) E – spaţiul evenimentelor P – funcţia de probabilitate ( ), , PΩ E – câmp de probabilitate A B∪ – uniunea evenimentelor, „A sau B” A B∩ – intersecţia evenimentelor, „A şi B” A – complementul evenimentului A, „non A”

[ | ]P A B – probabilitate de apariţie a evenimentului A condiţionată de producerea evenimentului B

X – variabilă aleatoare XF – funcţia de repartiţie a variabilei aleatoare X

Xp – densitatea de repartiţie a variabilei aleatoare discrete X

Xf – densitatea de repartiţie a variabilei aleatoare continue X

M[ ]X – valoarea medie a variabilei X Var[ ]X – dispersia variabilei X

Xσ – deviaţia standard a variabilei X [ ]k Xµ – momentul de ordin k al variabilei X [ ]k Xµ – momentul centrat de ordin k al lui X

( )X θM – funcţia generatoare de moment a variabilei aleatoare X ( )X zG – funcţia generatoare de probabilitate a variabilei discrete X

( )X ωN – funcţia caracteristică a variabilei X ( )X sL – transformata Laplace a densităţii de probabilitate a variabilei continue X

T – spaţiul parametrilor unui lanţ Markov

S – spaţiul stărilor unui lanţ Markov kX – starea unui lanţ Markov în timp discret la pasul k

( )X t – starea unui lanţ Markov în timp continuu la momentul t

ijp – probabilitatea de tranziţie din starea i în starea j a unui lanţ Markov discret şi omogen

ijp = P – matricea probabilităţilor de tranziţie într-un pas a unui lanţ Markov discret omogen

( )( ) nijn p = P – matricea probabilităţilor de

tranziţie în n paşi pentru un lanţ Markov discret şi omogen ( )j kπ – probabilitatea ca un lanţ Markov să se găsească în starea j la pasul k

( )kπ – vectorul probabilităţilor de stare la pasul k π – vectorul probabilităţilor de regim staţionar

ijq = Q – matricea ratelor tranziţiilor de stare pentru un lanţ Markov continuu omogen

( )tP – matricea funcţiilor de tranziţie de stare pentru un lanţ Markov continuu omogen

eP – matricea probabilităţilor tranziţiilor de stare pentru un lanţ Markov continuu omogen

sρ – gradul de utilizare a serverului M[ ]S – durata medie petrecută de un client într-

un sistem de aşteptare M[ ]X – lungimea medie a cozii M[ ]QX – numărul mediu de clienţi din coadă M[ ]Z – durata medie de servire a unui client M[ ]W – durata medie de aşteptare a unui client CTMC – lanţ Markov în timp continuu DTMC – lanţ Markov în timp discret EDTMC – lanţul Markov în timp discret

subordonat unui lanţ continuu SPN – reţea Petri stohastică GSPN – reţea Petri stohastică generalizată

Page 11: Matcovschi Lanturi Sist Astept Markov

Capitolul 1 Introducere

Sistemele de aşteptare (eng. queueing systems) constituie un tip de sisteme din ce în ce mai des întâlnit în ansamblul activităţilor socio-economice ale societăţii moderne, în particular vizând şi progresul tehnologic din diverse domenii. Sistemele de aşteptare constituie o submulţime a unei clase mai largi de sisteme dinamice, şi anume sistemele de tip flux (eng. flow systems), care efectuează procesarea (sau servirea) unor entităţi (sau clienţi); clienţii se deplasează sau sunt transferaţi prin mai multe canale de dimensiuni finite dintr-un punct într-altul al sistemului, aşteaptă (dacă este nevoie) şi părăsesc sistemul după ce au fost serviţi complet. Termenul generic de client nu presupune existenţa unei fiinţe umane, ci are un sens generic, putând fi un automobil (dacă ne referim, de exemplu, la fluxul de automobile într-o reţea de şosele), un apel telefonic (în cazul transmisiei mesajelor telefonice), un şasiu de automobil (pentru fluxul de fabricaţie pe o linie de asamblare a autovehiculelor), o instrucţiune (cu referire la fluxul de execuţie a unui program pe computer) şi evident o persoană (de exemplu, pentru fluxul clienţilor dintr-un supermagazin). Teoria sistemelor de aşteptare (eng. queueing theory) a apărut din necesitatea de a modela matematic şi de a putea formula o predicţie asupra comportării sistemelor de acest tip, în care sosirea şi servirea clienţii au caracter aleator. Unul dintre pionierii domeniului a fost Agner Krarup Erlang (1878–1929), un matematician danez care a publicat, în anul 1909, lucrarea The Theory of Probabilities and Telephone Conversations, pe baza unui studiu pe care l-a efectuat pentru Compania Daneză de Telefoane din Copenhaga. În onoarea sa, Comitetul Consultativ Internaţional din Telefonie (CCIT) a decis în anul 1946 ca unitatea de măsură pentru intensitatea traficului să fie denumită Erlang, deşi, din punct de vedere strict fizic această mărime este adimensională. Dintre cercetătorii de prestigiu ai acestui domeniu mai trebuie amintiţi Felix Pollaczek (1892-1981), Andrei Kolmogorov (1903-1987) şi Alexandr Hincin (1894-1959).

Agner K. Erlang

Page 12: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

2

Progresele înregistrate în teoria sistemelor de aşteptare au fost destul de lente până după cel de-al doilea război mondial, vizând în special aplicaţii ale teoriei comunicaţiilor. Perioada sa de avânt a început în 1951 când David G. Kendall (n. 1918) a introdus terminologia de bază utilizată în acest domeniu în articolul Some Problems in the Theory of Queues, publicat în Jurnalul Societăţii Regale de Statistică din Londra. Pentru prima dată, în această lucrare, Kendall utilizează termenul de queueing system şi sugerează folosirea conceptului de lanţ Markov pentru modelarea sistemelor de acest tip. În 1953 Kendall a introdus sistemul de clasificare a sistemelor de aşteptare care astăzi este unanim acceptat. La notaţia iniţială a lui Kendall au mai fost adăugate două simboluri în anul 1968 de către Alec M. Lee. Teorema lui John Little, fundamentală în teoria sistemelor de aşteptare, a fost demonstrată în 1961, deşi fusese utilizată în mod empiric timp de aproape două decenii. În paralel cu dezvoltarea teoriei, aria de aplicaţii a acesteia a cunoscut o extindere considerabilă în organizarea prestării de servicii pentru clienţi umani (oficii poştale, bănci, instituţii cu profil medical, supermagazine, rezervări de bilete), în dirijarea traficului (aerian, terestru şi maritim), în managementul resurselor sistemelor de producţie şi, nu în ultimul rând, în controlul automat al unor sisteme tehnice de mare complexitate (calculatoare şi reţele de calculatoare, sisteme flexibile de fabricaţie).

Fig. 1.1. Structura de bază a unui sistem de aşteptare.

Structura de bază a unui sistem de aşteptare este prezentată în fig. 1.1. Clienţii sosesc în sistem cu obiectivul de a fi procesaţi (de a beneficia de un anumit serviciu), după care vor părăsi sistemul. În general, un client nu este servit imediat ce a sosit, el fiind nevoit să aştepte în subsistemul Q, denumit fir de aşteptare sau coadă de aşteptare. Astfel, întotdeauna serverul (staţia de servire) S va prelua clienţii din Q (şi nu direct din exteriorul sistemului). Este uşor de observat că prezentarea la nivel descriptiv a modului de operare a unui sistem de aşteptare schiţat anterior transpune într-un cadru teoretic riguros activităţi ce se desfăşoară în numeroase sisteme reale din activitatea social-economică (incluzând şi principiile de funcţionare a unor echipamente tehnice). În acest capitol considerăm necesară expunerea noţiunilor de bază din teoria sistemelor, fără a face apel la instrumentul matematic specific acestei discipline. Câţiva dintre factorii care definesc comportarea unui sistem de aşteptare sunt prezentaţi sumar în continuare:

Procesul de sosire a clienţilor O importanţă deosebită o au frecvenţa şi modul de sosire a clienţilor. De regulă, se presupune că duratele de timp dintre sosirile clienţilor (eng. interarrival times) sunt

Server (S)

Fir de aşteptare(Q)

Sosire clienţi

Plecare clienţi

Page 13: Matcovschi Lanturi Sist Astept Markov

Cap. 1. Introducere

3

variabile aleatoare independente, identic distribuite, această ipoteză simplificând studiul analitic. În multe situaţii practice, fluxul de sosire a clienţilor este de tip Poisson, adică duratele dintre sosiri au distribuţie exponenţială. Clienţii pot sosi unul câte unul, sau în grup (de exemplu, la serviciul de control al paşapoartelor de pe un aeroport). De asemenea are importanţă comportamentul clienţilor. Odată intraţi în sistem, clienţii pot aştepta "cu răbdare" (adică toată durata necesară) până în momentul în care sunt serviţi. Uneori, clienţii pot "să-şi piardă răbdarea" (adică aşteaptă doar o anumită durată de timp) şi părăsesc sistemul înainte de servire. Durata de timp dintre sosirea unui client în sistem şi începerea servirii este denumită timp de aşteptare (eng. waiting time).

Duratele de servire a clienţilor Intervalul de timp dintre momentul în care clientul începe să fie servit şi momentul în care servirea sa este terminată este cunoscut sub numele de timp de servire (eng. service time). De regulă, se presupune că timpii de servire sunt variabile aleatoare independente, identic distribuite şi, în plus, sunt independenţi de duratele dintre sosirile clienţilor. De exemplu, timpii de servire pot fi constanţi (determinişti) sau cu distribuţie exponenţială. În unele cazuri, timpii de servire pot să depindă de lungimea cozii sau de "importanţa" clientului servit. O altă situaţie ce poate apărea este cea în care timpul de servire a unui client este diferit de timpul de blocare (eng. blocking time) al staţiei de servire, care reprezintă durata de timp dintre momentul la care începe servirea unui client şi cel la care poate începe servirea următorului client, în cazul că acest al doilea client a stat la coadă pentru a fi servit. Aceasta se explică prin faptul că activitatea serverului legată de primul client nu se încheie neaparat în momentul plecării acestuia, ci poate necesita un interval de timp suplimentar (consumat în diverse scopuri) până va prelua următorul client din firul de aşteptare. De exemplu, dacă serverul este un braţ de robot care efectuează un anumit tip de transport, după transportarea primului client robotul va trebui ca mai întâi să revină în poziţia prevăzută pentru preluarea clienţilor şi abia după aceea va putea începe transportul celui de-al doilea client.

Regulile de servire a clienţilor Cea mai des utilizată disciplină de servire a clienţilor este în ordinea sosirii (eng. First In, First Out – FIFO), dar aplicarea acesteia este frecvent încălcată în cazul clienţilor umani. În sistemele de aşteptare se întâlnesc situaţii în care clienţii sunt serviţi în ordine inversă celei de sosire (eng. Last In, First Out – LIFO) sau în ordine aleatoare (eng. Random Service). Pentru disciplina de servire LIFO un exemplu elocvent îl constituie secvenţa de executare a instrucţiunilor pe baza adresei încărcate în Program Counter (care joacă rolul serverului pentru clienţi de tip adresă), în cazul unor apeluri succesive dintr-o rutină într-alta. Adresele sunt depozitate în stivă (care joacă rolul cozii de aşteptare) începând cu apelul primei rutine până la apelul ultimei rutine şi sunt extrase în ordine inversă, prima adresă de revenire fiind ultima adresă introdusă în stivă. O altă situaţie întâlnită în practică este cea în care servirea clienţilor se face prin partajarea staţiei de servire, fiecare client fiind servit o anumită durată de timp după care

Page 14: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

4

se trece la clientul următor (eng. Round Robin). Un exemplu în acest sens îl constituie funcţionarea unui sistem de operare multitasking care afectează procesorul fiecărui client (task) pentru o anumită cuantă de timp, baleind totodată toţi clienţii din firul de aşteptare şi lăsând impresia unui progres simultan în servirea acestora. Alte tipuri de discipline de servire sunt asociate unor reguli de prioritate stabilite între mai multe categorii (clase) de clienţi. Clienţii din aceeaşi clasă sunt serviţi după regula FIFO, dar clienţii de prioritate mai mare (i) sunt serviţi înaintea celor de prioritate mai redusă (i+1). În cazul în care regula de servire se bazează pe prioritate absolută (eng. pre-emptive priority), dacă în cursul servirii clientului de prioritate i+1 apare un client de prioritate i, servirea clientului curent este întreruptă, acesta fiind trimis din nou în firul de aşteptare, şi începe servirea clientului nou sosit. Cu privire la reluarea servirii clientului de prioritate i+1 există două posibilităţi: din punctul în care a fost întreruptă servirea la sosirea noului client (eng. pre-emptive resume), sau de la începutul serviciului (eng. pre-emptive restart). Dacă în cursul servirii clientului de prioritate i+1 apare un client de prioritate i şi servirea clientului curent este continuată, clientul de prioritate i fiind servit abia după terminarea servirii clientului curent, se spune că serviciul funcţionează cu prioritate relativă (eng. non pre-emptive priority). Exemple în acest sens pot fi considerate modurile de tratare a taskurilor în condiţiile exploatării mecanismelor de servire prioritară specifice diverselor sisteme de operare. Din punct de vedere matematic, tratarea sistemelor cu priorităţi este dificilă, în afară de cazul modelelor simple (a se vedea în secţiunea 4.2 un exemplu de tratare a unui sistem de aşteptare de tip M/M/1 cu două clase de clienţi). Pentru modelele complicate studiul se poate face prin simulare. O altă clasificare a sistemelor de aşteptare se poate face după cum clienţii sunt serviţi unul câte unul sau în grup (eng. batch processing). De exemplu, un încasator, operând drept server pentru coada de la intrarea într-un muzeu, poate servi câte un singur client (încasând aceeaşi sumă de la fiecare turist singur) sau poate servi un lot de clienţi (încasând de la un turist însoţit de familie suma corespunzătoare numărului de membri ai familiei). Comportamentul clienţilor este, de asemenea, important. Se poate întâmpla ca unii clienţi să părăsească sistemul fără a fi serviţi după ce au aşteptat o vreme la coadă (eng. reneging). În situaţia în care există mai multe fire de aşteptare, clienţii pot trece de la o coadă mai lungă la alta mai scurtă (eng. jockeying). O altă situaţie întâlnită este atunci când la sosirea în sistemul de aşteptare, un client vede coada (cunoaşte numărul de clienţi din firul de aşteptare) şi renunţă să mai intre (eng. balking).

Numărul staţiilor de servire În cazul sistemelor cu mai multe servere există două tipuri de organizare a servirii: în paralel sau în serie. De regulă, în cazul organizării staţiilor de servire în paralel se presupune că staţiile au facilităţi de servire identice, astfel că un client poate fi servit la fel de bine de oricare dintre servere. Dacă un client poate selecta sau poate fi îndrumat către oricare dintre staţii, se spune că acestea sunt complet abordabile. Există posibilitatea de a avea mai multe servere, dar care sunt complet abordabile numai pentru o parte din clienţi (abordare restrictivă). De exemplu, în incinta unei agenţii de voiaj, la trei ghişee se

Page 15: Matcovschi Lanturi Sist Astept Markov

Cap. 1. Introducere

5

eliberează bilete pentru orice categorie de tren, în timp ce la un ghişeu se eliberează bilete numai pentru trenurile cu rezervare de loc. Cele trei ghişee sunt complet abordabile de către toţi clienţii, iar cel de-al patrulea ghişeu este abordabil numai de către anumiţi clienţi. Staţiile de servire în serie se întâlnesc în cazul în care sistemul este compus din mai multe subsisteme de aşteptare. Clientul trece pe rând pe la toate staţiile, aşteptând a fi servit de fiecare dintre ele.

Capacitatea sistemului de aşteptare În multe situaţii practice, capacitatea sistemului de aşteptare, adică numărul total de clienţi care se pot afla simultan în sistem (în firul de aşteptare sau în curs de servire), este finită. Dacă la sosirea unui client sistemul este complet ocupat, atunci clientului nu îi este permisă intrarea în sistem. O problemă care se pune frecvent este cea de determinare a capacităţii sistemului, astfel încât servirea clienţilor sa fie optimizată în raport cu un anumit criteriu.

Dimensiunea populaţiei din care provin clienţii Populaţia din care provin clienţii (eng. calling population) poate fi infinită, caz în care se spune că sistemul este deschis (eng. open queueing system). Dacă populaţia din care provin clienţii este finită se spune că sistemul este închis (eng. closed queueing system)

În analiza performanţelor unui sistem de aşteptare ne interesează să determinăm numărul de clienţi din firul de aşteptare sau din întregul sistem (în curs de servire sau aşteptând la coadă), durata de aşteptare a unui client, durata petrecută de un client în sistem, gradul de utilizare a fiecărui server, rata de plecare a clienţilor din sistem. Aceste mărimi sunt variabile aleatoare şi se urmăreşte caracterizarea lor completă din punct de vedere probabilistic (de exemplu, funcţie de repartiţie, valoare medie, dispersie, etc.). De asemenea pot fi evaluate performanţe specifice fiecărui sistem în parte ca de exemplu, probabilitatea ca un client să trebuiască să aştepte la coadă într-un sistem de tip M/M/1 sau probabilitatea ca un client care soseşte să găsească sistemul ocupat şi să fie rejectat pentru un sistem de tip M/M/1/K. Asemenea performanţe sunt puse în evidenţă pentru diverse sisteme simple de aşteptare în capitolul 4 al lucrării. În ultimul deceniu, teoria sistemelor de aşteptare a pătruns ca disciplină de studiu în numeroase instituţii de învăţământ universitar din Europa Occidentală, Statele Unite ale Americii, Canada, Japonia, etc. În acest context, începând cu anul universitar 2001-2002, în planul de învăţământ al Facultăţii de Automatică şi Calculatoare din Iaşi a fost introdusă disciplina Sisteme de aşteptare şi aplicaţii pentru care lucrarea de faţă poate constitui un foarte util suport de curs. În acest scop şi, totodată, pentru a facilita studiul individual bazat pe cartea de faţă, am dorit să asigurăm o cât mai mare autonomie a conţinutului informaţional de aşa manieră încât lectura să nu necesite apelarea la alte texte. Drept urmare am considerat oportună crearea unui fundament solid pentru abordarea cunoaşterii de tip probabilistic care să preceadă tratarea problematicii propriu-zise a lanţurilor şi sistemelor de aşteptare

Page 16: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

6

markoviene. De asemenea, am găsit de cuviinţă să sprijinim înţelegerea suportului matematic specific domeniului prin accentuarea aspectelor intuitive puse în evidenţă de un număr mare de exemple bogat ilustrate grafic. Din aceleaşi raţiuni, de a pune la dispoziţia cititorului o lucrare uşor de parcurs, cartea nu a fost concepută ca un material exhaustiv asupra domeniului sistemelor de aşteptare, ci s-a preferat aprofundarea numai anumitor subiecte cotate ca esenţiale pentru a oferi un punct de start unor posibile investigaţii viitoare. Astfel, cunoştinţele furnizate prin această lucrare permit abordarea facilă a unor tematici avansate cum ar fi reţelele de aşteptare, politici de rutare şi dispecerizare, care nu fac obiectul prezentei tratări. În elaborarea textului am ţinut cont de modul de organizare şi gradul de complexitate a informaţiilor puse la dispoziţie de manuale şi studii monografice din literatura anglo-americană şi rusească dedicate unei tematici similare. Deopotrivă de utilă am considerat şi consultarea mai multor site-uri web cu orientare didactică pe problematica sistemelor de aşteptare. Toate aceste demersuri au contribuit la o selectare cât mai judicioasă a noţiunilor şi rezultatelor discutate, precum şi la realizarea unui mod cât mai flexibil de articulare a acestor elemente.

Page 17: Matcovschi Lanturi Sist Astept Markov

Capitolul 2 Elemente de teoria probabilităţilor

şi statistică matematică

How dare we speak of the laws of chance? Is not chance the antithesis of all law?

Bertrand Russell În modelarea sistemelor de aşteptare fenomenele aleatoare joacă un rol determinant. Practic toate sistemele de aşteptare din lumea reală sunt influenţate de mărimi de intrare aleatoare, necontrolabile, astfel încât ieşirile lor au, de asemenea, caracter aleator. Din acest motiv, teoria probabilităţilor reprezintă instrumentul matematic fundamental în studiul sistemelor de aşteptare. Bazele teoriei probabilităţilor au fost puse in secolul al XVII-lea, prin corespondenţa purtată de doi mari matematicieni francezi, Blaise Pascal (1632-1662) şi Pierre de Fermat (1601-1662), asupra unor probleme pe care cavalerul de Méré – om de spirit şi amator de jocuri de noroc – i le-a prezentat lui Pascal în 1654. Lor li s-a alăturat curând Christiaan Huygens (1629-1695) care s-a deplasat la Paris special pentru a discuta aceste probleme. Odată stârnit interesul de lucrările lui Pascal, Fermat şi Huygens, teoria probabilităţilor a cunoscut o dezvoltare vertiginoasă. Jacques Bernoulli (1654-1705) A fost cel care a dat prima formă a legii numerelor mari. Abraham de Moivre (1665-1754) a făcut primele observaţii asupra legii normale, care va fi studiată apoi temeinic de Johann Carl Friedrich Gauss (1777-1855). Prin lucrările lui Pierre Simon Laplace (1749-1827) teoria probabilităţilor a luat o mare răspândire. În secolul XIX, Pafnuty L. Cebîşev (1821.1894), Alexandr M. Lyapunov (1857-1918) şi Andrei A. Markov (1856-1922) au adus contribuţii importante inaugurând studiul variabilelor aleatoare dependente. În această perioadă, sfera aplicaţiilor teoriei probabilităţilor s-a extins considerabil, cuprinzând şi ştiinţele naturale, în special fizica. Perioada modernă începe cu axiomatizarea acestei discipline de către A. N. Kolmogorov (1903-1987) în deceniul al treilea al secolului XX din considerente de ordin practic; aplicaţiile din ce în ce mai importante ale teoriei probabilităţilor în fizică, biologie, economie, inginerie şi alte domenii variate ale ştiinţei, aveau nevoie de un instrument

Page 18: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 8

matematic abstract, general, cu noţiuni de bază bine precizate. În afară de puternica dezvoltare teoretică, s-au extins continuu şi domeniile de aplicabilitate ale teoriei probabilităţilor şi statisticii matematice, unele dintre acestea conturându-se ca teorii de sine-stătătoare, cum ar fi teoria informaţiei, teoria fiabilităţii şi teoria sistemelor de aşteptare (Mihoc şi Mihu, 1980).

2.1. Câmp de probabilitate

Un concept de bază în teoria probabilităţilor îl reprezintă cel de experiment. Atunci când se creează un model matematic care descrie (probabilistic) un experiment din „lumea reală”, se pun în evidenţă următoarele trei elemente: (i) mulţimea tuturor rezultatelor (realizărilor) posibile ale experimentului, (ii) o grupare a acestor rezultate în clase (evenimente) şi (iii) frecvenţa relativă de apariţie a claselor atunci când experimentul este reluat (în mod independent) de mai multe ori. Mulţimea Ω a tuturor realizărilor posibile ale unui experiment se numeşte spaţiul eşantioanelor acelui experiment (eng. sample space). Un eveniment reprezintă o submulţime a spaţiului Ω . Mulţimea Ω reprezintă evenimentul sigur, iar mulţimea vidă ∅ corespunde evenimentului imposibil. Operaţiile elementare cu evenimente corespund operaţiilor cu mulţimi, şi anume (fig. 2.1.1.a – c):

− uniunea evenimentelor, „A sau B”: sauA B A Bω ω ω∪ = ∈Ω ∈ ∈ ; (2.1.1)

− intersecţia evenimentelor, „A şi B”: şiA B A Bω ω ω∩ = ∈Ω ∈ ∈ ; (2.1.2)

− complementul evenimentului A, „non A”: A A Aω ω= ∈Ω ∉ =Ω− . (2.1.3)

a. b. c. d. Fig. 2.1.1. Ilustrare grafică a operaţiilor elementare cu evenimente.

Dacă A B∩ =∅ se spune că evenimentele A şi B sunt mutual exclusive (disjuncte) (nu pot apărea simultan). O mulţime de evenimente 1 2, , , nA A A… (fig. 2.1.1.d) formează un sistem complet de evenimente dacă sunt disjuncte, i jA A∩ =∅ , i j≠ , şi acoperă spaţiul Ω ,

iiA∪ =Ω (se realizează cu certitudine unul şi numai unul dintre acestea).

Fiecărui eveniment i se poate asocia probabilitatea sa de apariţie în urma unui experiment, care reprezintă valoarea limitei frecvenţei relative de apariţie a acestuia:

Page 19: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

9

[ ] lim AN

NP AN→∞

= , (2.1.4)

unde AN este numărul de apariţii a evenimentului A în urma efectuării unui număr N de experimente. Pe baza noţiunilor introduse mai sus se poate enunţa următoarea definiţie.

Tripletul ( ), , PΩ E se numeşte câmp de probabilitate dacă: E este o familie nevidă de submulţimi ale spaţiului eşantioanelor Ω , numită spaţiul

evenimentelor, cu proprietăţile: - dacă A∈E , atunci şi A∈E ; - dacă 1 2, ,...A A ∈E , atunci şi ii

A∪ ∈E .

P este o funcţie :P →E , numită probabilitate, astfel încât: - [ ] 0,P A A≥ ∀ ∈E ; - [ ] 1P Ω = ; - dacă 1 2,A A ∈E sunt evenimente disjuncte, atunci [ ]1 2 1 2[ ] [ ]P A A P A P A∪ = + .

Cele trei condiţii pe care le satisface funcţia de probabilitate poartă denumirea de axiomele lui Kolmogorov (Mihoc şi Mihu, 1980). Pe baza acestora se pot demonstra următoarele proprietăţi ale probabilităţii:

- 0 [ ] 1P A≤ ≤ ; [ ] 1P Ω = ; [ ] 0P ∅ = ; - [ ] 1 [ ]P A P A= − ;

- dacă 1 2, ,...A A ∈E sunt evenimente disjuncte, atunci [ ]i ii i

P A P A = ∑∪ ;

- [ ] [ ] [ ] [ ]P A B P A P B P A B∪ = + − ∩ ; - dacă A B⊆ atunci [ ] [ ]P A P B≤ .

Probabilitatea de apariţie a evenimentului A în ipoteza că s-a produs evenimentul B (fig. 2.1.2), denumită probabilitate condiţională, este dată de:

[ ][ | ][ ]

P A BP A BP B∩

= , (2.1.5)

de unde se obţine [ ] [ | ] [ ]P A B P A B P B∩ = ⋅ . (2.1.6) Se spune că două evenimente A şi B sunt independente dacă şi numai dacă

[ ] [ ] [ ]P A B P A P B∩ = ⋅ (ceea ce înseamnă că [ | ] [ ]P A B P A= , adică probabilitatea de apariţie a evenimentului A nu este influenţată de apariţia evenimentului B). Legea probabilităţii totale. Dacă 1 2, , , nA A A… este un sistem complet de evenimente atunci

1

[ ] [ | ] [ ]n

i ii

P B P B A P A=

=∑ . (2.1.7)

Page 20: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 10

Importanţa legii probabilităţii totale constă în posibilitatea rezolvării unei probleme complexe prin divizarea acesteia în mai multe probleme simple (fig. 2.1.3).

Fig. 2.1.3. Ilustrarea grafică a legii probabilităţii totale.

Formula lui Bayes. Dacă 1 2, , , nA A A… este un sistem complet de evenimente şi B un eveniment pentru care [ ] 0P B ≠ , atunci

1

[ ] [ | ] [ ][ | ][ ] [ | ] [ ]

k k kk n

i ii

P A B P B A P AP A BP B P B A P A

=

∩= =

∑. (2.1.8)

2.2. Variabile aleatoare şi distribuţii de probabilitate

2.2.1. Variabile aleatoare unidimensionale O variabilă aleatoare (eng. random variable) (reală) X asociază un număr real ( )X ω fiecărei realizări posibile ω a unui experiment. Astfel, o variabilă aleatoare X reprezintă o funcţie definită pe spaţiul eşantioanelor Ω cu valori în mulţimea numerelor reale , :X Ω→ . Pentru consistenţa definiţiei se impune ca mulţimea ( )X xω ω∈Ω ≤ , notată şi [ ]X x≤ , să reprezinte un eveniment (să aparţină spaţiului evenimentelor E ) pentru orice x∈ . Mulţimea valorilor pe care le poate lua variabila aleatoare X,

( ) ( ) ,X x X xω ωΩ = ∈ = ∈Ω , poate fi finită sau numărabilă, caz în care se spune că variabila aleatoare este discretă. O variabilă aleatoare pentru care mulţimea valorilor posibile este un interval al dreptei reale (nu neapărat mărginit) este numită continuă. Se numeşte funcţia de repartiţie (sau de distribuţie) (eng. cumulative distribution function - cdf) a variabilei aleatoare X (oarecare) aplicaţia definită prin relaţia: : [0, 1]F → , ( ) [ ]F x P X x= ≤ . (2.2.1) Funcţia de repartiţie a unei variabile aleatoare X are următoarele proprietăţi:

− ( ) lim ( ) 0, ( ) lim ( ) 1x x

F F x F F x→−∞ →+∞

−∞ = = +∞ = = ;

Page 21: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

11

− este monoton crescătoare pe : 1 2 1 2( ) ( )x x F x F x≤ ⇒ ≤ ; − este continuă la dreapta în orice punct x∈ , lim ( ) ( )

xF F x

ξξ

↓= ;

− 1 2 2 1[ ] ( ) ( ), [ ] 1 ( )P x X x F x F x P X x F x< ≤ = − > = − . Pentru o variabilă aleatoare discretă, care ia valoarea ix cu probabilitatea ip ,

1,2,i = … , notată 1 2

1 2

n

n

x x xX

p p p

=

… …… …

, se defineşte densitatea de probabilitate, (eng.

probability density function – pdf) prin relaţia:

: [0, 1]p → , , dacă ,

( ) [ ]0, dacă .

i i

i

p x xp x P X x

x x=

= = = ≠ (2.2.2)

Relaţia de legătură dintre funcţia de repartiţie şi densitatea sa de probabilitate este: ( ) ( )

y xF x p y

= ∑ . (2.2.3)

Dacă numărul de valori pe care le poate lua X este finit (n), expresia funcţiei sale de repartiţie este:

1

1 21

2 31 2

11 2 1

, ( , ),0, [ , ),, [ , ),

( )

, [ , ),, [ , ).1

n nn

n

x xx x xpx x xp p

F x

x x xp p px x

−−

∈ −∞ ∈ ∈+= ∈+ + +

∈ ∞

…………

(2.2.4)

Din punct de vedere grafic, F(x) este o funcţie scară, cu n+1 trepte crescătoare, dintre care prima are valoarea 0, iar ultima – valoarea 1.

Exemplul 2.2.1. Pentru ilustrarea celor afirmate anterior, considerăm cazul unei variabile aleatoare care ia trei valori distincte, adică particularizarea n = 3 în formula funcţiei de repartiţie. În reprezentarea grafică din fig. 2.2.1(b) se observă efectul cumulativ al funcţiei de repartiţie, care este o funcţie scară cu 4 valori: 0, 1p , 1 2p p+ şi

1 2 3 1p p p+ + = (prezentând salturile 1p , 2p , 3p , corespunzătoare probabilităţilor reprezentate grafic în fig. 2.2.1(a)). Având în vedere definiţia funcţiei F, sunt evidente următoarele trei proprietăţi ale acesteia: 1. F este monoton crescătoare - deoarece cu cât valoarea x considerată este mai mare, cu atât este mai mare şi valoarea funcţiei. 2. lim ( ) 0

xF x

→−∞= - deoarece pentru valori extrem de mici ale lui x, ne plasăm cu

certitudine în intervalul 1( , )x−∞ . 3. lim ( ) 1

xF x

→∞= - deoarece pentru valori extrem de mari ale lui x, ne plasăm cu

certitudine în intervalul 3[ , )x ∞ .

Page 22: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 12

(a) (b)

Fig. 2.2.1. Reprezentarea grafică a (a) densităţii de probabilitate şi a (b) funcţiei de repartiţie pentru o variabilă aleatoare discretă.

Exemple de variabile aleatoare discrete: starea la un moment dat a unui server cu posibilităţi de defectare (I – idle, W – working, D – down); numărul X de clienţi dintr-un fir de aşteptare de capacitate 10 ( 0,1,2, ,10X ∈ … ); numărul Y de clienţi care au intrat într-un sistem de aşteptare într-un interval de timp de lungime t (Y ∈ ).

Dacă pentru o variabilă aleatoare continuă X există o funcţie :f +→ , cu un număr finit de puncte de discontinuitate de prima speţă, ce satisface relaţia (fig. 2.2.2):

( ) ( )x

F x f dξ ξ−∞

= ∫ , x∈ , (2.2.5)

atunci funcţia f se numeşte densitate de probabilitate a variabilei X. Dacă funcţia f este continuă într-un punct x∈ , atunci funcţia de repartiţie F este derivabilă în x şi

( )( ) dF xf xdx

= . (2.2.6)

(a) (b)

Fig. 2.2.2. Reprezentarea grafică a (a) densităţii de probabilitate şi a (b) funcţiei de repartiţie pentru o variabilă aleatoare continuă.

Page 23: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

13

Proprietăţile densităţii de probabilitate rezultă din cele ale funcţiei de repartiţie:

( ) 0,f x x≥ ∀ ∈ , ( ) 1f x dx+∞

−∞

=∫ ;

[ ] ( ) ( ) ( )b

a

P a X b F b F a f dτ τ< ≤ = − = ∫ .

Exemple de variabile aleatoare continue: timpul cât un server se găseşte în starea D (defect); timpul dintre sosirile a doi clienţi consecutivi într-un fir de aşteptare, timpul de servire a unui client de către sever, momentul sosirii într-un magazin a primului client dintr-o anumită zi.

Observaţie. Din modul de definire a funcţiei de repartiţie F a variabilei aleatoare X reiese că F are un caracter cumulativ, care se exprimă în mod diferit pentru X de tip discret (de tip sumă) şi pentru X de tip continuu (de tip integral).

2.2.2. Variabile aleatoare multidimensionale În practică, unui anumit experiment îi pot fi asociate foarte multe variabile aleatoare, se aleg însă numai acelea care au relevanţă din punctul de vedere al aspectelor studiate. suntem adeseori puşi în situaţia de a lua în considerare simultan două sau mai multe variabile aleatoare. Dacă X şi Y sunt două variabile aleatoare reale definite peste acelaşi câmp de probabilitate, atunci perechea ( ),Z X Y= este un vector aleator bidimensional, fiind definit

prin 2:Z Ω→ , ( )( ) ( ), ( )Z X Yω ω ω= . În general, dacă 1 2, ,..., mX X X sunt variabile aleatoare reale, ( )1 2, ,..., mZ X X X= se numeşte vector aleator m-dimensional.

Exemplu de variabilă aleatoare bidimensională: Pentru o linie de fabricaţie cu două maşini, variabilele unidimensionale X1 şi X2 desemnează numărul de piese din depozitul care precede fiecare dintre maşini. Starea liniei de fabricaţie poate fi caracterizată de variabila bidimensională ( )1 2,Z X X= .

Se numeşte funcţia de repartiţie a vectorului aleator bidimensional ( ),Z X Y= aplicaţia 2

, : [0, 1]X YF → , , ( , ) [ , ]X YF x y P X x Y y= ≤ ≤ , ,x y∀ ∈ , (2.2.7)

unde [ , ] [ ] [ ]X x Y y X x Y y≤ ≤ = ≤ ∩ ≤ (fig. 2.2.3).

Densitatea de probabilitate (eng. joint density distribution function) a vectorului aleator bidimensional ( ),Z X Y= este derivata a doua parţială mixtă (dacă există) a funcţiei sale de repartiţie:

Page 24: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 14

2

,,

( , )( , ) X Y

X YF x y

f x yx y

∂=

∂ ∂. (2.2.8)

Relaţia de legătură dintre funcţia de repartiţie şi densitatea de probabilitate ale unei variabile aleatoare bidimensionale continue este:

, ,( , ) ( , )yx

X Y X YF x y f d dξ η ξ η−∞ −∞

= ∫ ∫ . (2.2.9)

Densitatea de probabilitate bidimensională , ( , )X Yf x y are proprietăţile:

, ( , ) 0, ,X Yf x y x y≥ ∈ ; , ( , ) 1X Yf x y dx dy+∞ +∞

−∞ −∞

=∫ ∫ .

Densităţile (marginale) de probabilitate ale variabilelor aleatoare unidimensionale X şi Y sunt date de:

( ) ( , )Xf x f x dη η+∞

−∞

= ∫ , respectiv, ( ) ( , )Yf y f y dξ ξ+∞

−∞

= ∫ . (2.2.10)

Două variabile aleatoare X şi Y sunt independente dacă şi numai dacă evenimentele [ ]X x≤ şi [ ]Y y≤ sunt independente pentru orice ,x y∈ , deci dacă şi numai dacă , ( , ) ( ) ( )X Y X YF x y F x F y= ⋅ ⇔ , ( , ) ( ) ( )X Y X Yf x y f x f y= ⋅ . (2.2.11)

Exemplul 2.2.2. Se realizează un experiment ce constă în a măsura momentul sosirii primului client într-un magazin în două zile consecutive (considerând drept moment 0 momentul deschiderii magazinului). Se consideră variabila aleatoare bidimensională

( , )Z X Y= şi presupunem că densitatea sa de probabilitate este de forma 2 ( )

,e , pentru 0 şi 0( , )

0 , în rest

x y

X Yx yf x y

λλ − + ≥ ≥=

cu 0λ > . Densităţile marginale de probabilitate ale variabilelor X şi Y sunt:

2 ( )

0

e e , pentru 0( )

0 , pentru 0

x x

Xd x

f x

x

λ η λλ η λ∞

− + −= ≥=

<

respectiv,

2 ( )

0

e e , pentru 0( )

0 , pentru 0

y y

Yd y

f y

y

λ ξ λλ ξ λ∞

− + −= ≥=

<

Se observă că , ( , ) ( ) ( )X Y X Yf x y f x f y= , deci variabilele aleatoare X şi Y sunt independente (adică momentul de timp la care intră primul client în magazin într-o

Fig. 2.2.3. Ilustrare a definiţiei

funcţiei de repartiţie pentru un vector aleator bidimensional.

Page 25: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

15

anumită zi nu depinde de momentul la care a intrat primul client în acelaşi magazin în ziua precedentă). Considerând funcţiile marginale de repartiţie ( ) 1 e x

XF x λ−= − , pentru 0x ≥ , şi ( ) 1 e y

YF y λ−= − , pentru 0y ≥ , funcţia de repartiţie a variabilei Z rezultă de forma

( )( ), ( , ) ( ) ( ) 1 e 1 ex yX Y X YF x y F x F y λ λ− −= ⋅ = − − , pentru 0 şi 0x y≥ ≥ .

Considerăm două variabile aleatoare X şi Y. Ştiind că Y y= , se poate determina repartiţia condiţională de probabilitate a variabilei X de forma:

, ,

0 0

,, ,

0

2

,

( , ) ( , )[ , ]( | ) lim lim[ ] ( ) ( )

( , )( , ) ( , )lim

( ) ( ) ( )

( , )( | ) ( | )

( )

X Y X YX y y Y Y

X YX Y X Y

y Y Y Y

X Y

X XY

F x y y F x yP X x y Y y yF x Y yP y Y y y F y y F y

F x yF x y y F x y y yy F y y F y f y

F x yx yf x Y y F x Y y

x f y

∆ → ∆ →

∆ →

+ ∆ −≤ ≤ ≤ + ∆= = = =

≤ ≤ + ∆ + ∆ −∂

+ ∆ − ∆ ∂= ⋅ = ⇒∆ + ∆ −

∂∂ ∂ ∂⇒ = = = =∂

, ( , ).

( )X Y

Y

f x yf y

=

(2.2.12)

Trecerea de la cazul bidimensional la cel multidimensional se face în mod natural.

2.2.3. Funcţii de variabile aleatoare Presupunem că X este o variabilă aleatoare (cu valori reale) pentru care funcţia de repartiţie şi densitatea de probabilitate sunt notate ( )XF x , respectiv ( )Xf x . Dacă :g → este o funcţie cunoscută, atunci ( )Y g X= (fig. 2.2.4) este o variabilă aleatoare a cărei funcţie de repartiţie, notată ( )YF y , este dată de

( ) [ ] [ ( ) ]YF y P Y y P g X y= ≤ = ≤ , y∈ . (2.2.13)

Fig. 2.2.4. Ilustrarea grafică a unei funcţii de o variabilă aleatoare.

Page 26: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 16

Exemplul 2.2.3. Fie X o variabilă aleatoare continuă pentru care densitatea de probabilitate şi funcţia de repartiţie, notate Xf , respectiv XF , sunt continue pe .

Considerând variabila 2( )Y g X X= = , se observă că Y poate lua numai valori pozitive, astfel că funcţia sa de repartiţie are proprietatea ( ) 0YF y = pentru 0y ≤ . Dacă 0y > , atunci

( ) ( )2( ) [ ] [ ] [ ]Y X XF y P Y y P X y P y X y F y F y= ≤ = ≤ = − ≤ ≤ = − − . Prin derivare, se obţine densitatea de probabilitate a lui Y sub forma

( ) ( )[ ]

0 , pentru 0,( ) 1 , pentru 0.

2Y

X X

yf y

f y f y yy

≤= − − >

De exemplu, X ar putea reprezenta eroarea de măsură într-un anumit experiment fizic, iar Y ar reprezenta, în acest caz, eroarea pătratică de măsură.

În mod asemănător se pot introduce funcţiile de mai multe variabile aleatoare.

Exemplul 2.2.4. Fie variabilele aleatoare independente 1 2, , , nX X X… ; funcţia de

repartiţie a variabilei iX este notată , 1,iF i n= . Considerând variabilele aleatoare 1 2max , , , nY X X X= … şi 1 2min , , , nZ X X X= … , funcţiile lor de repartiţie sunt

date de: [ ] [ ]

[ ] [ ] [ ]1 2 1 2

1 2 1 2

( ) max , , , , , ,

( ) ( ) ( ), ,Y n n

n n

F y P X X X y P X y X y X y

P X y P X y P X y F y F y F y y

= ≤ = ≤ ≤ ≤ =

= ≤ ≤ ≤ = ∈

… …… …

respectiv, [ ] [ ]

[ ] [ ] [ ] [ ][ ][ ] [ ]

1 2 1 2

1 2 1 2

1 2

( ) min , , , 1 min , , ,

1 , , , 11 1 ( ) 1 ( ) 1 ( ) , .

Z n n

n n

n

F z P X X X z P X X X z

P X z X z X z P X z P X z P X yF z F z F z z

= ≤ = − > =

= − > > > = − > > > =

= − − − − ∈

… …… ……

Fie ( )Y g X= . Natura funcţiei g determină modul de calcul efectiv al funcţiei de repartiţie ( )YF y . De exemplu, dacă g este funcţie strict crescătoare şi surjectivă pe atunci

( )1( ) ( )Y XF y F g y−= , (2.2.14)

deoarece 1( ) ( )g X y X g y−≤ ⇔ ≤ . Dacă funcţia g este derivabilă, densitatea de probabilitate a variabilei Y, ( )Yf y , poate fi calculată cu ajutorul formulei:

( )( )| ( ) |

X iY

i i

f xf yg x

=′∑ , (2.2.15)

unde 1 2, ,...x x reprezintă rădăcinile ecuaţiei ( )y g x= şi ( )ig x′ notează valoarea derivatei ( )dg x dx în punctul ix x= (presupunând că ( ) 0ig x′ ≠ pentru toţi ix ).

Page 27: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

17

În general, funcţia de repartiţie ( )YF y poate fi determinată prin evaluarea integralei:

( )

( ) ( )Y XS yF y f x dx= ∫ , (2.2.16)

unde ( )S y este mulţimea punctelor | ( )x g x y≤ . Complexitatea calculului acestei integrale depinde de complexitatea domeniului ( )S y , care, la rândul său, depinde de complexitatea funcţiei ( )g ⋅ .

Relaţiile de mai sus se pot extinde în mod natural la cazul funcţiilor care depind de mai multe variabile aleatoare. În particular, dacă ( , )Z g X Y= este o funcţie de două variabile aleatoare, atunci ,( )

( ) ( , )Z X YS zF z f x y dx dy= ∫ , (2.2.17)

unde , ( , )X Yf x y este densitatea de probabilitate a vectorului aleator bidimensional ( ),X Y şi ( ) ( , ) | ( , )S z x y g x y z= ≤ .

Exemplul 2.2.5. Dacă X şi Y sunt variabile aleatoare independente ( , ( , ) ( ) ( )X Y X Yf x y f x f y= ) şi Z X Y= + , densitatea de probabilitate ( ) ( )Z Zf z dF z dz= este dată de:

( ) ( ) ( )Z X Yf z f f z dτ τ τ∞

−∞

= −∫ .

Acest rezultat se poate extinde la suma a n variabile aleatoare independente.

2.3. Caracteristici ale distribuţiilor de probabilitate

2.3.1. Valoare medie

Pentru variabila aleatoare discretă 1 2

1 2

x xX

p p

=

……

, care ia valorile 1 2, ,...x x ∈ , cu

probabilităţile 1 2, ,...p p , se defineşte valoarea medie (eng. mean value sau mathematical expectation) prin relaţia:

M[ ]not

i i Xi

X x p m= =∑ , (2.3.1)

dacă seria de mai sus este absolut convergentă, | |i ii

x p < +∞∑ .

Analog, valoarea medie a unei variabile aleatoare continue X având densitatea de probabilitate f, este definită prin relaţia:

M[ ] ( )not

XX x f x dx m+∞

−∞

= =∫ , (2.3.2)

dacă integrala din membrul doi este convergentă.

Page 28: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 18

Valoarea medie caracterizează variabila aleatoare X cu privire la modul de grupare a valorilor pe care le poate lua X.

Dacă X şi Y sunt variabile aleatoare având valori medii finite, atunci

M[ ] M[ ], ,M[ ] M[ ] M[ ],M[ ] M[ ] M[ ], dacă şi sunt independente.

cX c X cX Y X YX Y X Y X Y

= ∀ ∈+ = +⋅ = ⋅

(2.3.3)

Dacă 1 2

1 2

x xX

p p

=

……

este o variabilă discretă, şi 1 2

1 2( )

z zZ g X

q q

= =

……

, unde

( )i iz g x= , 1,2,i = … , atunci valoarea medie a variabilei aleatoare Z este dată de:

M[ ] ( )j j i ij i

Z z q g x p= =∑ ∑ . (2.3.4)

În cazul în care X este o variabilă aleatoare continuă având densitatea de probabilitate ( )f x , valoarea medie a variabilei aleatoare ( )Z g X= (cu densitatea de probabilitate h) este

dată de relaţia:

M[ ] ( ) ( ) ( )Z zh z dz g x f x dx∞ ∞

−∞ −∞

= =∫ ∫ . (2.3.5)

O relaţie similară se poate demonstra şi în cazul în care ( , )Z g X Y= (cu densitatea de probabilitate h), depinde de variabila aleatoare bidimensională ( , )X Y a cărei densitate de probabilitate este , ( , )X Yf x y

,M[ ] ( ) ( , ) ( , )X YZ zh z dz g x y f x y dxdy∞ ∞ ∞

−∞ −∞ −∞

= =∫ ∫ ∫ . (2.3.6)

Rezultatele prezentate mai sus pentru cazul funcţiilor de o variabilă aleatoare uni- sau bidimensională pot fi extinse şi la cazul în funcţiilor de variabile aleatoare multidimensionale (continue sau discrete). Deci, media unei variabile aleatoare Z care depinde de una sau mai multe variabile aleatoare poate fi determinată în funcţie de densitatea sa de probabilitate h sau utilizând funcţia de definiţie şi densitatea de probabilitate a variabilei uni- sau multidimensionale de care depinde Z. Prin particularizarea dependenţei ( )Z g X= se introduc noi caracteristici ale variabilelor aleatoare, după cum urmează.

2.3.2. Dispersie (varianţă) Dispersia (varianţa) (eng. variance) variabilei aleatoare X care are valoarea medie Xm este dată de:

2 2Var[ ] M ( )not

X XX X m σ = − = , (2.3.7)

dacă există valoarea medie a variabilei 2( )XX m− . Se observă că Var[ ] 0X ≥ . De asemenea, Var[ ] 0X = dacă şi numai dacă X m≡ (sau mai exact [ ] 1P X m= = ). Dispersia

Page 29: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

19

caracterizează o variabilă aleatoare X cu privire la modul de împrăştiere a valorilor pe care le poate lua aceasta. Numărul Var[ ]X Xσ = se numeşte deviaţie standard (eng. standard deviation), având aceeaşi unitate de măsură ca şi valorile individuale ale variabilei X. Coeficientul de variaţie (eng. coefficient of variation) al unei variabile X pentru care 0Xm ≠ este definit prin

X X XC mσ= , fiind adimensional.

Dispersia unei variabile aleatoare discrete 1 2

1 2

n

n

x x xX

p p p

=

… …… …

este:

( )2Var[ ] i X ii

X x m p= −∑ . (2.3.8)

Dispersia unei variabile aleatoare continue X având densitatea de probabilitate f este:

( )2Var[ ] ( )XX x m f x dx+∞

−∞

= −∫ . (2.3.9)

Se pot demonstra următoarele proprietăţi:

( )

[ ]

22

2

2

Var[ ] M[ ] M[ ] ,

Var[ ] Var[ ], ,

Var[ ] Var[ ], ,

Var[ ] Var[ ] Var[ ], dacă şi sunt independente.

1| | , , 0 (inegaltatea lui Cebîşev).X X

X X X

cX c X c

c X X c

X Y X Y X Y

P X m k k kk

σ

= −

= ∀ ∈

+ = ∀ ∈

+ = +

− ≥ ≤ ∈ >

(2.3.10)

Observaţie. Calculul mediei şi al dispersiei pune şi el în evidenţă trecerea de la exprimarea cumulativă de tip sumă – specifică pentru cazul discret – la exprimarea cumulativă de tip integral – specifică pentru cazul continuu.

2.3.3. Moment de ordin k

Se numeşte moment de ordin k (eng. k-th moment) al variabilei aleatoare X media variabilei kX , [ ] M[ ]k

k X Xµ = , pentru 1,2,k = … , (2.3.11)

dacă această valoare medie există. Pentru o variabilă aleatoare discretă X care ia valorile 1 2, ,...x x , cu probabilităţile

1 2, ,...p p , se obţine

[ ] kk i i

iX x pµ =∑ , (2.3.12)

iar pentru o variabilă aleatoare continuă X cu densitatea de probabilitate f ,

[ ] ( )kk X x f x dxµ

+∞

−∞

= ∫ . (2.3.13)

Page 30: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 20

Se numeşte moment centrat de ordin k (eng. k-th centered moment) al variabilei aleatoare X care are valoarea medie Xm , media variabilei ( )k

XX m− (dacă această valoare medie există)

( )[ ] M kk XX X mµ = − , 1,2,k = … . (2.3.14)

Pentru o variabilă aleatoare discretă X se obţine:

( )[ ] kk i X i

iX x m pµ = −∑ . (2.3.15)

iar pentru o variabilă aleatoare continuă X:

( )[ ] ( )kk XX x m f x dxµ

+∞

−∞

= −∫ . (2.3.16)

Se observă că 1 [ ] 0Xµ = şi că 2[ ] Var[ ]X Xµ = .

2.3.4. Covarianţă Se numeşte covarianţă (eng. covariance) a variabilelor aleatoare X şi Y (peste acelaşi câmp de probabilitate), ale căror valori medii sunt Xm , respectiv Ym , numărul (dacă acesta există)

[ ]Cov[ , ] M ( )( )X YX Y X m Y m= − − . (2.3.17)

Sunt satisfăcute următoarele proprietăţi:

Cov[ , ] Cov[ , ], Cov[ , ] Var[ ],Cov[ , ] M[ ] M[ ]M[ ],Cov[ , ] 0, dacă şi sunt independente,Cov[ , ] Cov[ , ] Cov[ , ],Var[ ] Var[ ] Var[ ] 2Cov[ , ].

X Y Y X X X XX Y XY X YX Y X YX Y Z X Z Y ZX Y X Y X Y

= == −=

+ = ++ = + +

(2.3.18)

Se spune că variabilele aleatoare X şi Y sunt necorelate dacă Cov[ , ] 0X Y = . O definiţie echivalentă o reprezintă condiţia M[ ] M[ ]M[ ]XY X Y= . În consecinţă, dacă două variabile aleatoare sunt independente, atunci sunt şi necorelate. Reciproca acestei afirmaţii nu este întotdeauna adevărată.

Dacă între variabilele X şi Y există o relaţie liniară, de forma Y aX= unde 0a ≠ este o constantă, atunci

21Cov[ , ] Var[ ] Var[ ] Cov [ , ] Var[ ]Var[ ]X Y a X Y X Y X Ya

= = ⇒ = . (2.3.19)

Pe baza inegalităţii ( )2 2 2M[ ] M[ ]M[ ]XY X Y≤ rezultă că, pentru două variabile aleatoare oarecare are loc 20 Cov [ , ] Var[ ]Var[ ]X Y X Y≤ ≤ . (2.3.20)

Page 31: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

21

Coeficientul de corelaţie (eng. correlation coefficient) a două variabile aleatoare X şi Y ale căror deviaţii standard sunt Var[ ] 0X Xσ = ≠ , respectiv Var[ ] 0Y Yσ = ≠ , este definit prin:

,Cov[ , ]

X YX Y

X Yρσ σ

= . (2.3.21)

Coeficientul de corelaţie a două variabile aleatoare este subunitar, ,1 1X Yρ− ≤ ≤ . De asemenea

,

1, dacă Y= cu 0,0 , dacă Y şi sunt necorelate,1 , dacă Y= cu 0.

X Y

aX aX

aX aρ

− <= >

(2.3.22)

O valoare pozitivă a lui ,X Yρ înseamnă că variabilele aleatoare X şi Y prezintă variaţii în acelaşi sens. O valoare negativă a lui ,X Yρ înseamnă că variabilele aleatoare X şi Y prezintă variaţii în sensuri contrare. Dacă modulul coeficientului de corelaţie | ,X Yρ | are o valoare apropiată de 1, înseamnă că între variabilele aleatoare X şi Y există a puternică dependenţă de factură liniară. Dacă modulul coeficientului de corelaţie | ,X Yρ | are o valoare apropiată de 0, înseamnă că dependenţa de factură liniară între variabilele aleatoare X şi Y este redusă (fără ca aceasta să excludă posibilitatea unei dependenţe de factură neliniară). Dacă modulul coeficientului de corelaţie | ,X Yρ | are exact valoarea 1, înseamnă că între variabilele aleatoare X şi Y există o dependenţă liniară strictă.

2.4. Distribuţii de probabilitate utilizate în modelarea sistemelor de aşteptare

2.4.1. Distribuţii discrete de probabilitate 2.4.1.1. Distribuţia uniformă discretă Variabila aleatoare X definită pe un spaţiu cu n elemente 1 2 , , , nω ω ωΩ = … , astfel încât

( )iX iω = , 1,i n= , este uniform distribuită, ( )dX nU∼ , dacă are densitatea de repartiţie:

1( ) [ ] , 1, 2,...,p k P X k k nn

= = = ∈ . (2.4.1)

Funcţia de repartiţie corespunzătoare este (vezi fig. 2.4.1 pentru 5n = ):

0 , ( ,1),1 , [1, 2),2 , [2,3),

( )

( 1) , [ 1, ),1 , [ , ).

xn xn x

F x

n n x n nx n

∈ −∞ ∈ ∈

= − ∈ −

∈ ∞

……… (2.4.2)

Page 32: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 22

Media şi dispersia unei variabile ( )X ndU∼ sunt egale cu M[ ] ( 1) 2X n= + , respectiv 2Var[ ] ( 1) 12X n= − .

-1 0 1 2 3 4 5 6 70

0.05

0.1

0.15

0.2

0.25Densitatea de probabilitate X ∈ Unifd(5)

n

pdf X =

P[X

=n]

-1 0 1 2 3 4 5 6 7

0

0.2

0.4

0.6

0.8

1

Functia de repartitie X ∈ Unifd(5)

ncd

f X = P

[X≤n

]

(a) (b) Fig. 2.4.1. Reprezentarea grafică (a) a densităţii de probabilitate şi

(b) a funcţiei de repartiţie corespunzătoare distribuţiei uniforme (5)dU .

2.4.1.2. Distribuţia Bernoulli Distribuţia Bernoulli este asociată unui experiment de extragere a unui element dintr-o populaţie infinită în ipoteza că există numai două rezultate posibile în urma unei încercări: succes (reprezentat simbolic prin numărul 1), cu probabilitatea p, 0 1p< < , sau eşec (reprezentat simbolic prin numărul 0), cu probabilitatea 1q p= − . Un asemenea experiment poartă numele de experiment Bernoulli. O variabilă aleatoare de tip Bernoulli ia numai două valori, 0, 1X ∈ , cu densitatea de probabilitate:

1 , 0,

( ) [ ], 1.

p kp k P X k

p k− =

= = = = (2.4.3)

Media şi dispersia variabilei X sunt egale cu M[ ]X p= , respectiv Var[ ] (1 )X p p= − .

2.4.1.3. Distribuţia binomială Considerăm variabila aleatoare X ce reprezintă numărul de succese obţinute în urma efectuării a n experimente de tip Bernoulli, mutual independente, în cazul în care probabilitatea de succes este aceeaşi în fiecare încercare ( 0 1p< < ). Densitatea de repartiţie a variabilei aleatoare discrete 0,1, 2,...,X n∈ este

( ) [ ] (1 )k k n knp k P X k C p p −= = = − , 0,1, 2,...,k n∈ , (2.4.4)

unde !!( )!

kn

nCk n k

=−

, pentru 0 k n≤ ≤ , reprezintă numărul combinărilor de n elemente luate

câte k. Se verifică uşor că

Page 33: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

23

[ ]0 0

( ) (1 ) (1 ) 1n n

nk k n kn

k kp k C p p p p−

= =

= − = + − =∑ ∑ , (2.4.5)

ceea ce arată că relaţia (2.4.4.) defineşte o densitate de probabilitate. Media şi varianţa unei variabile aleatoare cu distribuţie binomială cu parametrii n şi p,

( , )X n pBin∼ , sunt egale cu M[ ]X np= , respectiv Var[ ] (1 )X np p= − . Jacques Bernoulli a introdus aceasta distribuţie în anul 1713 (Ars Conjectandi). Înaintea sa, Blaise Pascal considerase cazul particular 1/ 2p = .

Exemplul 2.4.1. Dacă se inspectează loturi de câte 30n = piese asamblate pe o linie de fabricaţie, variabila aleatoare X ce reprezintă numărul de piese defecte găsite în lot are distribuţie binomială. Considerăm că probabilitatea ca o piesă oarecare să fie defectă este 0,05p = . Probabilitatea ca în lot să fie mai puţin de 3 piese defecte este:

2 230

300 0

0 30 1 29 2 28

[ 2] ( ) (1 )

30! 30! 30!(0,05) (0,95) (0,05) (0,95) (0,05) (0,95)0!30! 1!29! 2!28!0, 2146 0,3389 0,2586 0,8122.

k k k

k kP X p k C p p −

= =

≤ = = − =

= + + =

= + + =

∑ ∑

Numărul mediu de piese defecte dintr-un lot este M[ ] 30 0,05 1,5X np= = ⋅ = ,

iar dispersia variabilei X: Var[ ] (1 ) 30 0,05 0,95 1, 425X np p= − = ⋅ ⋅ = .

Exemplul 2.4.2. Într-un canal de comunicaţii, probabilitate de transmisie corectă a unui bit este (0,1)p∈ . Se utilizează un cod care poate tolera până la un număr de e biţi eronaţi într-un cuvânt de n biţi. Notând cu X numărul de erori dintr-un cuvânt, probabilitatea de transmisie corectă a unui cuvânt este dată de

0[ ] (1 )

ek n k kn

kP X e C p p−

=

≤ = −∑ .

Dacă 0e = , atunci erorile nu sunt tolerate.

2.4.1.4. Distribuţia binomială cu exponent negativ Se efectuează experimente de tip Bernoulli, mutual independente, până la cea de-a n-a obţinere a unui succes. Dacă probabilitatea de succes este aceeaşi în fiecare încercare ( 0 1p< < ), atunci numărul , 1, X n n∈ + … de încercări efectuate în total are distribuţie binomială cu exponent negativ cu parametrii n şi p, ( , )X n pNBin∼ , densitatea sa de probabilitate fiind: 1

1( ) [ ] (1 )n n k nkp k P X k C p p− −−= = = − , k n≥ . (2.4.6)

Page 34: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 24

Media şi varianţa unei variabilei aleatoare ( , )X n pNBin∼ sunt M[ ]X n p= , respectiv 2Var[ ] (1 )X n p p= − .

2.4.1.5. Distribuţia geometrică Considerăm variabila aleatoare discretă X ce reprezintă numărul de experimente de tip Bernoulli efectuate până la obţinerea primului succes (inclusiv). Dacă probabilitatea de succes este aceeaşi în fiecare încercare ( 0 1p< < ), atunci numărul 1, 2, X ∈ … de încercări efectuate în total are distribuţie geometrică de parametru p, ( )X pdG∼ , densitatea sa de probabilitate fiind: 1( ) [ ] (1 )kp k P X k p p −= = = − , 1, 2, k∈ … . (2.4.7) Probabilitatea ca până la primul succes să fie necesare mai mult de n încercări este

1

1 1[ ] [ ] (1 ) (1 )k n

k n k nP X n P X k p p p

∞ ∞−

= + = +

> = = = − = −∑ ∑ , 1, 2, n∈ … , (2.4.8)

astfel că funcţia de repartiţie a variabilei X este ( ) [ ] 1 (1 )nF n P X n p= ≤ = − − , 1, 2, n∈ … . (2.4.9) Media şi varianţa unei variabile aleatoare ( )X pdG∼ cu sunt egale cu M[ ] 1X p= , respectiv 2Var[ ] 1X p= .

Exemplul 2.4.3. În exemplul 2.4.1, numărul Y de piese inspectate până când se găseşte prima piesă defectă dintr-un lot are distribuţie geometrică de parametru

0,05p = . Valoarea medie a lui Y este M[ ] 1 1 0,05 20Y p= = = .

Exemplul 2.4.4. Considerăm un procesor care funcţionează după următorul principiu: fiecărui task sosit i se alocă un interval de timp constant T pentru servire. Probabilitatea ca servirea unui task să fie terminată într-un interval de timp T este p, astfel că probabilitatea ca să mai fie necesare alte calcule este 1q p= − . Dacă după trecerea duratei T servirea unui anumit task nu a fost terminată, atunci acesta este trimis din nou în bufferul care precede procesorul (fig. 2.4.2). Taskurile sunt servite în ordinea sosirii (a intrării în buffer).

Fig. 2.4.2. Reprezentare schematică a sistemului de calcul din Exemplul 2.4.4.

sosire task

buffer procesor

task servit complet

Page 35: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

25

În aceste ipoteze, numărul X de intervale de timp necesare pentru servirea completă a unui task are o distribuţie geometrică, având densitatea de probabilitate

1( ) [ ] (1 )kp k P X k p p −= = = − , 1, 2, k∈ … .

În multe situaţii se doreşte contorizarea numărului de experimente (independente, de tip Bernoulli) eşuate care au fost efectuate înaintea obţinerii primului succes. Notând cu Y acest număr, se observă că 0,1,2,...Y ∈ şi că variabila 1X Y= + are o distribuţie geometrică. Se spune că Y are o distribuţie geometrică modificată, ( )Y pmG∼ , fiind specificată prin densitatea de probabilitate: ( ) [ ] (1 )k

Yp k P Y k p p= = = − , 0,1,2, k∈ … , (2.4.10)

şi funcţia de repartiţie: 1( ) [ ] 1 (1 )nF n P Y n p += ≤ = − − , 0,1, 2, n∈ … . (2.4.11) Media şi varianţa unei variabile aleatoare ( )mX pG∼ sunt egale cu M[ ] (1 )X p p= − , respectiv 2Var[ ] (1 )X p p= − . Distribuţia geometrică este singura distribuţie discretă de probabilitate care are proprietatea de lipsă a memoriei (eng. memoryless property):

[ ][ | ][ ]

[ ] (1 ) (1 ) [ ].[ ] (1 )

n mn

m

P X n m X mP X n m X mP X m

P X n m p p P X nP X m p

+

> + ∩ >> + > = =

>

> + −= = = − = >

> −

(2.4.12)

Interpretarea acestei relaţii este următoarea: dacă au avut loc m experimente în care nu s-a obţinut succesul, atunci probabilitatea ca până la primul succes să mai fie nevoie de cel puţin încă n experimente este egală cu probabilitatea ca într-o secvenţă nouă de experimente să fie nevoie de mai mult de n încercări până la primul succes. Explicaţia constă în faptul că experimente efectuate în trecut nu au nici o influenţă asupra experimentelor viitoare, acestea fiind mutual independente.

2.4.1.6. Distribuţia Poisson O distribuţie discretă de probabilitate frecvent întâlnită în teoria sistemelor de aşteptare este distribuţia Poisson. Aceasta caracterizează o variabilă aleatoare discretă X ce poate lua valori în mulţimea numerelor naturale cu probabilitatea

( ) [ ] e ,!

k

p k P X k kk

λλ −= = = ∈ , 0λ > . (2.4.13)

Relaţia (2.4.13) defineşte într-adevăr o densitate de probabilitate deoarece

0 0

( ) e e e 1!

k

k k

p kk

λ λ λλ∞ ∞− −

= =

= = =∑ ∑ . (2.4.14)

Page 36: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 26

Atât media cât şi varianţa unei variabile aleatoare X cu distribuţie Poisson de parametru 0λ > , ( )X λP∼ , sunt egale cu λ , M[ ]X λ= , Var[ ]X λ= . Una dintre cele mai importante proprietăţi ale distribuţiei Poisson este următoarea. Suma a două sau mai multe variabile aleatoare independente cu distribuţii Poisson este distribuită Poisson, cu parametrul egal cu suma parametrilor individuali ai distribuţiilor sumate (vezi şi secţiunea 2.6.1): 1 1 2 2 1 2 1 2 1 2( ), ( ), şi independente ( )X X X X Z X Xλ λ λ λ⇒ = + +P P P∼ ∼ ∼ , (2.4.15)

deoarece

1 2

1 2 1 2

1 21 2 1 2

0 0

( ) ( )1 21 2

0

[ ] [ ] [ ] e e! ( )!

( )1 e e .! !

k n kn n

k knn

k k n kn

k

P X X n P X k P X n kk n k

Cn n

λ λ

λ λ λ λ

λ λ

λ λλ λ

−− −

= =

− + − +−

=

+ = = = = − = =−

+= =

∑ ∑

∑ (2.4.16)

Dacă ( , )Y n pBin∼ este o variabilă binomială de parametri p şi n, atunci, pentru

20n ≥ şi 0,05p ≤ , densitatea de distribuţie şi funcţia de repartiţie a lui Y pot fi aproximate prin cele corespunzătoare distribuţiei Poisson de parametru npλ = (fig. 2.4.3).

0 1 2 3 4 5 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45Densitatea de probabilitate

n

pdf X =

P[X

=n]

X ∈ Bin(20, 0.05)X ∈ Poiss(1)

0 1 2 3 4 5 6

0

0.2

0.4

0.6

0.8

1

Functia de repartitie

n

cdf X =

P[X≤n

]

X ∈ Bin(20, 0.05)X ∈ Poiss(1)

(a) (b)

Fig. 2.4.3. Reprezentarea grafică comparativă (a) a densităţilor de probabilitate şi (b) a funcţiilor de repartiţie corespunzătoare distribuţiilor (20,0.05)Bin şi (1)P .

Distribuţia Poisson este utilizată pentru a modela rezultatul unui experiment ce implică numărarea apariţiilor unor evenimente aleatoare intr-un interval de timp (de exemplu numărul de persoane care intră într-un magazin într-o oră). Dacă duratele de timp dintre apariţiile a două evenimente aleatoare independente consecutive are o distribuţie exponenţială, atunci numărul de evenimente dintr-un interval de timp fixat are o repartiţie Poisson (şi reciproc).

Page 37: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

27

2.4.2. Distribuţii continue de probabilitate 2.4.2.1. Distribuţia uniformă continuă Funcţia de densitate de probabilitate a unei variabile aleatoare continue X uniform distribuite în intervalul [ , ]a b , , ,a b a b∈ < , este

0 , pentru ( , ) ( , ),

( ) 1 , pentru [ , ].

t a bf t

t a bb a

∈ −∞ ∪ +∞=

∈ −

(2.4.17)

Funcţia de repartiţie corespunzătoare are forma (vezi fig. 2.4.4. pentru 1a = şi 6b = ):

0 ,

( ) ,

1 ,

t at aF t a t bb a

t b

< −= ≤ ≤ −

>

(2.4.18)

Valoarea medie a unei variabile aleatoare continue cu distribuţie uniformă de parametri a şi b, ( , )X a bU∼ , este M[ ] ( ) 2X a b= + , iar dispersia 2Var[ ] ( ) 12X b a= − .

0 1 2 3 4 5 6 7 80

0.05

0.1

0.15

0.2

0.25

t

f(t)

PDF - distr. uniforma U(1, 6)

0 1 2 3 4 5 6 7 8

0

0.2

0.4

0.6

0.8

1

1.2

t

F(t)

CDF - distr. uniforma U(1, 6)

(a) (b)

Fig. 2.4.4. Reprezentarea grafică (a) a densităţii de probabilitate şi (b) a funcţiei de repartiţie pentru o variabilă cu distribuţie uniformă continuă, (1,6)X U∼ .

2.4.2.2. Distribuţia exponenţială Legea de distribuţie exponenţială cu parametrul 0λ > caracterizează o variabilă aleatoare X (ce poate lua numai valori reale nenegative, X +∈ ) a cărei densitate de probabilitate este de forma:

0 , pentru 0,

( )e , pentru 0,t

tf t

tλλ −

<=

≥ (2.4.19)

funcţia sa de repartiţie fiind – vezi fig. 2.4.5:

0 , pentru 0,

( ) [ ]1 e , pentru 0.t

tF t P X t

tλ−

<= ≤ =

− ≥ (2.4.20)

Page 38: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 28

Deoarece valoarea medie a unei variabile aleatoare cu distribuţie exponenţială de parametru λ , ( )X λE∼ , este M[ ] 1X λ= , parametrul λ poartă denumirea de rată a distribuţiei exponenţiale. Dispersia variabilei aleatoare X este 2Var[ ] 1X λ= . Coeficientul de variaţie a unei variabile aleatoare cu distribuţie exponenţială este 1, astfel încât acest coeficient este o măsură a deviaţiei faţă de o distribuţie exponenţială.

Importanţa distribuţiei exponenţiale constă în faptul că aceasta posedă proprietatea de „lipsă de memorie” (eng. memoryless property), denumită şi proprietate Markov, exprimată matematic prin relaţia (fig. 2.4.6) [ | ] [ ], , 0P X s t X s P X t t s≤ + > = ≤ ∀ ≥ , (2.4.21) care rezultă din

( )

[ , ][ | ] 1 [ | ] 1[ ]

[ ] e1 1 1 e [ ], , 0.[ ] e

t st

s

P X s t X sP X s t X s P X s t X sP X s

P X s t P X t t sP X s

λλ

λ

− +−

> + >≤ + > = − > + > = − =

>

> += − = − = − = ≤ ∀ ≥

>

(2.4.22)

0 1 2 3 4 5 6 7 80

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

t

f(t)

PDF - distr. exponentiala E(λ)

λ1 = 1λ2 = 1.5λ3 = 0.5

0 1 2 3 4 5 6 7 8

0

0.2

0.4

0.6

0.8

1

1.2

t

F(t)

CDF - distr. exponentiala E(λ)

λ1 = 1λ2 = 1.5λ3 = 0.5

(a) (b)

Fig. 2.4.5. Reprezentarea grafică a (a) densităţii de probabilitate şi a (b) funcţiei de repartiţie pentru o variabilă cu distribuţie exponenţială, ( )X λE∼ .

Interpretarea acestei proprietăţi este următoarea: fie X o variabilă aleatoare distribuită exponenţial care reprezintă, de exemplu, timpul de servire a unui client de către un server. Presupunem că servirea clientului începe la momentul 0 0t = . Dacă la momentul 0s > nu a fost terminată servirea clientului, atunci probabilitatea ca servirea clientului să fie terminată până la momentul s t+ este egală cu probabilitatea ca timpul total de servire sa fie mai mic decât t. Altfel spus, timpul de servire rezidual are distribuţie exponenţială cu aceeaşi rată ca şi timpul de servire total.

Se poate demonstra că distribuţia exponenţială este singura distribuţie continuă de probabilitate care are proprietatea Markov. Dacă X este o variabilă aleatoare continuă cu valori nenegative (ceea ce implică ( ) 0, 0F x x= ≤ ) a cărei distribuţie are proprietatea de lipsă a memoriei, atunci funcţia sa de repartiţie F este de tip exponenţial. Pentru , 0t t∆ > , rezultă

Page 39: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

29

[ ] [ ]

[ ] [ ]0 0

[ ][ | ] [ ] [ ][ ]

( ) ( ) ( )( ) ( ) ( ) 1 ( ) 1 ( )

( ) ( ) ( )lim 1 ( ) lim ( ) (0) 1 ( ) .t t

P t X t tP X t t X t P X t P X tP X t

F t t F t F tF t t F t F t F t F tt t

F t t F t F tF t F t F F tt t∆ → ∆ →

< ≤ + ∆≤ + ∆ > = ≤ ∆ ⇔ = ≤ ∆ ⇔

>+∆ − ∆

⇔ +∆ − = ∆ − ⇔ = − ⇒∆ ∆

+∆ − ∆ ′ ′⇒ = − ⇒ = −∆ ∆

(2.4.23)

Considerând ( ) 1 ( )R t F t= − şi notând (0) (0)F fλ ′= = , din (2.4.23) rezultă că funcţia R satisface ecuaţia diferenţială ( ) ( )R t R tλ′ = , 0t > . (2.4.24)

Deoarece (0) 1 (0) 1R F= − = , din (2.4.24) se obţine ( ) e tR t λ−= , 0t > , astfel că funcţia de repartiţie a variabilei X este de formă exponenţială, ( ) 1 e tF t λ−= − , 0t > .

0 1 2 3 4 5 6 7 8 9 100

0.2

0.4

0.6

0.8

1

1.2

t

F(t)

λ = 0.5

P[ X ≤ t]P[ X ≤ t | X > 2]

Fig. 2.4.6. Ilustrarea grafică a proprietăţii de „lipsă a memoriei”

pentru o variabilă distribuită exponenţial, (0.5)X E∼ .

O altă proprietate fundamentală a distribuţiei exponenţiale este reprezentată de legătura cu distribuţia discretă Poisson. Dacă duratele dintre două apariţii consecutive ale unui acelaşi tip de eveniment sunt variabile independente cu distribuţie exponenţială de rată λ , atunci numărul de evenimente care apar într-un intr-un interval de timp [0, t), 0t > , are distribuţie Poisson de parametru tλ , şi reciproc. Această proprietate va fi detaliată în capitolul 3.

Dacă 1 2, ,..., ( )nX X X λE∼ sunt variabile aleatoare independente distribuite exponenţial cu aceeaşi rată λ , atunci variabila 1 2min , ,..., nZ X X X= este distribuită exponenţial cu rata nλ , ( )Z nλE∼ , deoarece

[ ]

[ ][ ] [ ]1 2

1 2

( ) min , , ,

1 1 ( ) 1 ( ) 1 ( ) 1 e , 0.Z n

n tn

F t P X X X t

F t F t F t tλ−

= ≤ =

= − − − − = − ∀ ≥

… (2.4.25)

Funcţia de repartiţie a variabilei 1 2max , , , nY X X X= … este dată de

[ ] ( )1 2 1 2( ) max , , , ( ) ( ) ( ) 1 e , 0nt

Y n nF t P X X X t F t F t F t tλ−= ≤ = = − ∀ ≥… … . (2.4.26)

Page 40: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 30

Distribuţia exponenţială este utilizată pentru a modela procese care „nu au memorie”, de exemplu duratele dintre sosirile clienţilor într-un sistem (eng. interarrival times), timpii de aşteptare (dacă probabilitatea de a mai aştepta încă un interval de timp este independentă de timpul de aşteptare scurs deja), duratele convorbirilor telefonice, timpul de viaţă al componentelor electronice.

Exemplul 2.4.5. Se consideră un sistem de măsură constând din trei senzori ce funcţionează în paralel, duratele lor de viaţă (exprimate în zile), notate iX , 1, 2,3i∈ , având distribuţie exponenţială de parametru 0,001λ = . Notând cu Z durata de viaţă a sistemului de măsură, probabilitatea ca acesta să funcţioneze cel puţin 1000 zile este

[ ] ( )310001 2 3[ 1000] max , , 1000 1 (1000) 1 1 e 0,74742ZP Z P X X X F λ−> = > = − = − − = .

2.4.2.3. Distribuţia gamma Legea de distribuţie gamma cu parametrii , , , 0α β α β∈ > , caracterizează o variabilă aleatoare X (ce poate lua numai valori reale nenegative, X +∈ ) a cărei densitate de probabilitate este de forma:

1

0 , pentru 0,( ) 1 e , pentru 0,

( )

t

tf t

t tα βαβ α

−−

≤=

> Γ

cu , , , 0α β α β∈ > , (2.4.27)

unde funcţia specială Gamma este definită prin relaţia

1

0

( ) e xx dxααΓ∞

− −= ∫ , 0α > . (2.4.28)

Parametrul α reprezintă parametrul de formă (eng. shape parameter) al distribuţiei gama, iar β este parametrul de scalare (eng. scale parameter) al acesteia. Influenţa valorilor acestor parametri asupra graficului densităţii de probabilitate este ilustrată în fig. 2.4.7. Distribuţia gamma reprezintă corespondentul continuu al distribuţiei binomiale cu exponent negativ.

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2PDF - distributia Gamma (α , β)

x

f(x)

α =0.75, β =0.5α =1, β =1α =1.5, β =1α =2, β =1α =2, β =2

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

0

0.2

0.4

0.6

0.8

1

CDF - distributia Gamma (α , β)

x

F(x)

α =0.75, β =0.5α =1, β =1α =1.5, β =1α =2, β =1α =2, β =2

(a) (b)

Fig. 2.4.7. Reprezentarea grafică a (a) densităţii de probabilitate şi a (b) funcţiei de repartiţie pentru o variabilă cu distribuţie gamma, ( , )X α βG∼ .

Page 41: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

31

O variabilă aleatoare cu distribuţie gamma de parametri α şi β , ( , )X α βG∼ are media M[ ]X αβ= şi dispersia 2Var[ ]X αβ= . Pentru 1α = şi 1β λ= se obţine distribuţia exponenţială, astfel încât are loc relaţia

( ) (1,1 )λ λ=E G . Distribuţia gamma este utilizată deseori pentru a modela duratele de timp necesare pentru a îndeplini un anumit serviciu (durate de prelucrare sau durate de reparare a unui server) ca şi duratele de viaţă ale unor resurse.

2.4.2.4. Distribuţia Erlang Pentru , 1, 2,3,n nα = ∈ … , şi notând 1 0β λ= > , se obţine distribuţia Erlang de ordin n şi

parametru λ , notată ( , )n λEr . Deoarece ( )( ) 1 !n n= −Γ pentru *n∈ , densitatea de probabilitate a unei variabile aleatoare ( , )X n λEr∼ este

( )

1

0 , pentru 0( )

e , pentru 01 !

nn t

tf t

t tn

λλ − −

≤= > −

cu *n∈ , 0λ > . (2.4.29)

(a)

0 2 4 6 8 10 120

0.2

0.4

0.6

0.8

1

PDF - distributia Erlang (n, λ)

x

f(x)

n =1, λ =1n =2, λ =1n =3, λ =1n =4, λ =1n =5, λ =1

0 1 2 3 4 5 6 7 8 9 10

0

0.2

0.4

0.6

0.8

1

PDF - distributia Erlang (n, λ)

x

f(x)

n =0.5, λ =1n =2, λ =2n =2, λ =1n =2, λ =0.5n =4, λ =1

(b)

0 2 4 6 8 10 120

0.2

0.4

0.6

0.8

1

CDF - distributia Erlang (n, λ)

x

F(x)

n =1, λ =1n =2, λ =1n =3, λ =1n =4, λ =1n =5, λ =1

0 1 2 3 4 5 6 7 8 9 10

0

0.2

0.4

0.6

0.8

1

CDF - distributia Erlang (n, λ)

x

F(x)

n =0.5, λ =1n =2, λ =2n =2, λ =1n =2, λ =0.5n =4, λ =1

Fig. 2.4.8. Reprezentarea grafică (a) a densităţii de probabilitate şi (b) a funcţiei de

repartiţie pentru o variabilă cu distribuţie Erlang, ( , )X n λEr∼ .

Page 42: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 32

Funcţia de repartiţie corespunzătoare este – vezi fig. 2.4.8:

1

0

0 , pentru 0( ) ( )1 e , pentru 0.

!

knt

k

tF t t t

kλλ−

=

≤= − >

∑ (2.4.30)

Valoarea medie a unei variabile aleatoare ( , )X n λEr∼ este M[ ]X n λ= , iar dispersia 2Var[ ]X n λ= .

Distribuţia exponenţială se obţine drept un caz particular al distribuţiei Erlang (corespunzătoare rangului 1n = ), ( ) (1, )λ λ=E Er . Legătura dintre cele două distribuţii este mai profundă, datorită faptului că, dacă 1 2, ,..., ( )nX X X λE∼ sunt variabile aleatoare independente distribuite exponenţial cu aceeaşi rată λ , atunci variabila 1 2 ... nZ X X X= + + + are distribuţie Erlang de ordin n şi parametru λ , ( , )Z n λEr∼ , fapt ce va fi demonstrat în secţiunea 2.6.2.

Exemplul 2.4.6. Pentru testarea calităţii pieselor produse pe o linie de fabricaţie se aplică consecutiv trei teste, durata fiecărui test (Ti, i = 1, 2, 3) având distribuţie exponenţială de medie 5µ = s. O piesă este supusă la cele trei teste, fiind eliberată după terminarea celui de-al treilea. Timpul total de verificare a unei piese, 1 2 3T T T T= + + , are distribuţie Erlang de ordin 3n = şi parametru (rată) 1 0,2λ µ= = s-1. Media şi dispersia lui T sunt M[ ] 15X n nλ µ= = = s, respectiv 2 2Var[ ] 75X n nλ µ= = = s2.

Fig. 2.4.9. Ilustrare grafică a duratelor corespunzătoare testelor din Exemplul 2.4.6.

Exemplul 2.4.7. Durata de execuţie X a unui program de către CPU, măsurată în minute, are o distribuţie Erlang de ordin 4n = şi parametru 0,5λ = . Probabilitatea ca execuţia unui program să dureze mai mult de 1 minut este

2 33

0[ 1] 1 (1) 1 e 1 1 e 0,99824

! 2 6

k

kP X F

kλ λλ λ λλ− −

=

> = − = − = − + + + =

∑ .

2.4.2.5. Distribuţia hiperexponenţială O variabilă aleatoare X are distribuţie hiperexponenţială dacă X este, cu probabilitatea ip ,

1, 2, ,i n= … ( 1 2, , , (0,1)np p p ∈… , 1 2 1np p p+ + + =… ), o variabilă aleatoare iX cu distribuţie exponenţială de rată iλ , 0iλ > , [ ]i iP X X p= = (fig. 2.4.10). Utilizând proprietăţile probabilităţilor condiţionate, se obţine densitatea de probabilitate a unei variabile

T1 T2 T3

T = T1 + T2+ T3( ), 1,3

(3, )

iT i

T

λ

λ

=

E

Er

Page 43: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

33

aleatoare X cu distribuţie hiperexponenţială de parametri 1 2, , , np p p… , şi 1 2, , , nλ λ λ… ,

1 2 1 2( , , , ; , , , )n nX p p p λ λ λH∼ … … , având expresia:

1

0 , pentru 0,( )

e , pentru 0.in

ti i

i

tf t

p tλλ −

=

<= ≥∑

(2.4.31)

Valoarea medie şi momentul de ordinul 2 corespunzătoare unei variabile aleatoare

1 2 1 2( , , , ; , , , )n nX p p p λ λ λH∼ … … sunt 1

M[ ]n

i

i i

pXλ=

=∑ , respectiv 22 2

1[ ] M[ ] 2

ni

i i

pX Xµλ=

= = ∑ ,

astfel încât dispersia sa are expresia 2

21 1

Var[ ] 2n n

i i

i i ii

p pXλλ= =

= −

∑ ∑ .

Fig. 2.4.10. Reprezentarea grafică a unui proces cu n faze: (a) secvenţiale (distribuţie Erlang) şi (b) alternante (distribuţie hiperexponenţială).

0 1 2 3 4 5 6 70

0.2

0.4

0.6

0.8

1

1.2

1.4

x

f(x)

Comparatie PDF

p1 = 0.7; p2= 0.3

λ1 = 0.8; λ2= 1.25

Hiper(p1,p2; λ1,λ2)Expo(λ1)Expo(λ2)

0 1 2 3 4 5 6 7

0

0.2

0.4

0.6

0.8

1

x

f(x)

Comparatie CDF

p1 = 0.7; p2= 0.3

λ1 = 0.8; λ2= 1.25

Hiper(p1,p2; λ1,λ2)Expo(λ1)Expo(λ2)

(a) (b)

Fig. 2.4.11. Reprezentarea grafică (a) a densităţii de probabilitate şi (b) a funcţiei de repartiţie corespunzătoare distribuţiei hiperexponenţiale 1 2 1 2( , ; , )p p λ λH ,

comparativ cu cele ale distribuţiilor exponenţiale 1( )λE şi 2( )λE .

1 2 n

λ λ λ p1

p2

pn

1

λ1

2

λ2

n

λn

(b) (a)

Page 44: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 34

Exemplul 2.4.8. Se consideră instrucţiunea (I) if B then S1 else S2

Fie 1X şi 2X variabilele ce reprezintă timpii de execuţie a secvenţei de instrucţiuni S1, respectiv S2, având distribuţie exponenţială de medie 20 µs (1 µs = 10-6 s), respectiv 40 µs. Probabilitatea ca variabila booleană B să aibă valoarea 1 (TRUE) este 0,70p = . Variabila aleatoare X care reprezintă timpul de execuţie al instrucţiunii (I), cu proprietatea 1[ ]P X X p= = şi 2[ ] 1P X X p= = − , are distribuţie hiperexponenţială de parametri 1p p= , 2 1p p= − , şi 1 1 20λ = µs-1, 2 1 40λ = µs-1. Timpul mediu de execuţie a instrucţiunii (I) este

1 2M[ ] M[ ] (1 ) M[ ] 0,7 20 0,3 40 26 sX p X p X µ= + − = ⋅ + ⋅ = .

2.4.2.6. Distribuţia Cox O variabilă aleatoare X are o distribuţie Cox de ordinul n dacă trece prin cel mult n faze exponenţiale (fig. 2.4.12). Rata fazei k este , 1,k k nλ = . După terminarea fazei k, cu probabilitatea kp , începe faza următoare, 1k + . Evident, 0np = (fig. 2.4.12). Parametrii

distribuţiei Cox sunt ratele fazelor exponenţiale 0kλ > , 1,k n= , şi probabilităţile (0,1)kp ∈ ,

1, 1k n= − .

Fig. 2.4.12. Reprezentarea grafică a unui proces de tip Cox cu n faze.

Importanţa distribuţiei Cox constă în faptul că orice distribuţie arbitrară poate fi aproximată oricât de bine printr-o distribuţie Cox.

Exemplul 2.4.9. Se consideră secvenţa de program (SP) S1 if B then S2 Fie 1X şi 2X variabilele aleatoare independente ce reprezintă timpii de execuţie a secvenţei de instrucţiuni S1, respectiv S2 (fig. 2.4.13), ambele având distribuţii exponenţiale de rată 1 20λ = µs-1. Probabilitatea ca variabila booleană B să aibă valoarea 1 (TRUE) este 0,70p = . Variabila aleatoare X care reprezintă timpul de execuţie a secvenţei (SP) are o distribuţie de tip Cox cu 2 faze, ale cărei proprietăţi dorim să le studiem.

1 2 n

λ2 λ1 λn p1

1-p1

p2 pn-1

1-p2 1-pn-1

n-1

λn-1

1

Page 45: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

35

Fig. 2.4.13. Reprezentarea grafică a variabilei de tip Cox cu 2 faze

din Exemplul 2.4.9. Fie Y variabila aleatoare ce reprezintă valoarea de adevăr a condiţiei B, având densitatea de probabilitate specificată prin [ 1]P Y p= = şi [ 0] 1P Y p= = − . Utilizând formula probabilităţii totale, funcţia de repartiţie a variabilei X (timpul de execuţie a secvenţei (SP)) este dată de

( ) [ ] [ | 0] [ 0] [ | 1] [ 1]XF t P X t P X t Y P Y P X t Y P Y= ≤ = ≤ = ⋅ = + ≤ = ⋅ = . Se observă că, dacă 0Y = , atunci 1X X= , având o distribuţie exponenţială de rată λ . Dacă 1Y = , atunci 1 2X X X= + , având o distribuţie Erlang de ordinul 2n = şi rată λ . Ţinând cont de aceste observaţii, rezultă că

( ) ( )1 1 2

( ) (1 ) ( ) ( ) (1 ) 1 e 1 1 et tX X X XF t p F t pF t p p tλ λλ− −

+ = − + = − − + − + , pentru 0t ≥ .

Densitatea de probabilitate a variabilei X este

1 1 2

2( ) (1 ) ( ) ( ) (1 ) e et tX X X Xf t p f t pf t p p tλ λλ λ− −

+= − + = − + , pentru 0t ≥ .

În mod analog se poate determina valoarea medie a lui X. Deoarece M[ | 0] 1X Y λ= = şi M[ | 1] 2X Y λ= = , se obţine în final

( )

M[ ] M[ | 0] [ 0] M[ | 1] [ 1]1 2 1 1 0,7 20 34 s.

X X Y P Y X Y P Yp p p µ

λ λ λ

= = ⋅ = + = ⋅ = =− +

= + = = + ⋅ =

2.4.2.7. Distribuţia 2χ

Distribuţia 2χ se obţine din distribuţia gamma prin fixarea parametrilor 2nα = , cu n ∗∈ , şi 2β = , astfel încât densitatea de probabilitate corespunzătoare are expresia

( )2

2 2

2

0 , pentru 0

1( ) e , pentru 02

2

n t

n

t

f t t tnΓ

− −

≤= >

cu n ∗∈ . (2.4.32)

Parametrul întreg n ∗∈ reprezintă numărul gradelor de libertate ale distribuţiei. Valoarea medie a unei variabile aleatoare 2 ( )X n∼ χ este M[ ]X n= , iar dispersia acesteia este Var[ ] 2X n= .

S1 S2

λ λ p

1-p 1

X1 X2

X

Page 46: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 36

2.4.2.8. Distribuţia normală Funcţia de densitate de probabilitate a unei variabile aleatoare continue ce are o distribuţie normală de parametri µ şi σ , ( , )X µ σN∼ , cu µ∈ , 0σ > , este

( )2

21( ) exp ,

22tf t tµσσ π

−= − ∈

. (2.4.33)

Expresia analitică a funcţiei de repartiţie corespunzătoare, ( ) ( )x

F t f t dt−∞

= ∫ , t∈ , nu

poate fi determinată, astfel că valorile numerice ale acesteia sunt tabelate, pentru diferite perechi de parametri (Mihoc şi Micu, 1980). Valoarea medie a unei variabile aleatoare ( , )X µ σN∼ este M[ ]X µ= , iar dispersia acesteia este 2Var[ ]X σ= (deviaţia standard fiind egală cu σ ) (fig. 2.4.14).

-5 -4 -3 -2 -1 0 1 2 3 4 50

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9PDF - distributia Normala (µ, σ)

x

f(x)

µ =0, σ =1µ =-2, σ =1µ =2, σ =1µ =0, σ =0.5µ =0, σ =2

-5 -4 -3 -2 -1 0 1 2 3 4 5

0

0.2

0.4

0.6

0.8

1

CDF - distributia Normala (µ, σ)

x

F(x)

µ =0, σ =1µ =-2, σ =1µ =2, σ =1µ =0, σ =0.5µ =0, σ =2

(a) (b)

Fig. 2.4.14. Reprezentarea grafică (a) a densităţii de probabilitate şi (b) a funcţiei de repartiţie pentru o variabilă cu distribuţie normală, ( , )X µ σN∼ .

Această distribuţie este utilizată în mod empiric în cazul în care graficul densităţii de probabilitate a unei variabile aleatoare pare a fi simetric faţă de valoarea medie a variabilei. Deoarece o variabilă cu această distribuţie poate lua ca valoare orice număr real, NU se recomandă a utiliza această distribuţie pentru a modela variabile aleatoare pozitive, de tipul timpilor de aşteptare sau de servire în sistemele de aşteptare.

Distribuţia normală standard are parametrii 0µ = şi 1σ = . Dacă variabila X este standard normal distribuită, (0,1)X N∼ , atunci Z Xσ µ= + are media µ şi abaterea medie pătratică σ , ( , )Z µ σN∼ . Invers, dacă Z este variabilă aleatoare normal distribuită de medie

µ şi deviaţie standard σ , atunci variabila ( )1X Z µσ

= − este standard normal distribuită,

(0,1)X N∼ (vezi Exemplul 2.6.1). Dacă 1 2, , , nX X X… sunt variabile aleatoare independente, normal distribuite,

( , )i i iX µ σN∼ , 1,i n= , atunci 1 2 nY X X X= + + +… are, de asemenea, distribuţie normală,

( , )Y µ σN∼ , de medie 1 2 nµ µ µ µ= + + +… şi dispersie 2 2 2 21 2 nσ σ σ σ= + + +… (vezi

Page 47: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

37

paragraful 2.6). De asemenea, dacă 1 2, , , (0,1)nX X X N… ∼ sunt n variabile aleatoare

independente, atunci 2 2 21 2 nZ X X X= + + +… are distribuţie 2χ cu n grade de libertate,

2 ( )Z n∼ χ (vezi Exemplul 2.6.1). Deoarece numeroase experimente fizice au drept rezultat variabile aleatoare ce iau numai valori pozitive (în timp ce o variabilă normal distribuită poate lua şi valori negative), pentru modelarea acestora a fost introdusă distribuţia normală trunchiată (eng. truncated normal density) a cărei densitate de probabilitate este de forma:

( )2

2

0 , pentru 0,

( ) 1 exp , pentru 0,22

t

f t tt

µσασ π

< = − − ≥

(2.4.34)

unde parametrul α , definit prin

( )2

20

1 exp22

t dtµα

σσ π

∞ −= −

∫ , (2.4.35)

are rolul de a asigura îndeplinirea condiţiei ( ) 1f t dt∞

∆−∞

=∫ , necesară pentru ca funcţia f∆ să

reprezinte o densitate de probabilitate pentru o variabilă aleatoare. Se observă că 1 (0)Fα = − , unde F reprezintă funcţia de repartiţie corespunzătoare distribuţiei normale ( , )µ σN , a cărei densitate de probabilitate este (2.4.33) (ceea ce implică 0 1α< < ).

2.4.2.9. Distribuţia lognormală Funcţia de densitate de probabilitate a unei variabile aleatoare continue X cu distribuţie lognormală este

( )2

2

0 , pentru 0,( ) ln1 exp , pentru 0,

22

tf t t t

σσ π

≤= − − >

cu , , 0σ µ σ∈ > . (2.4.36)

Media şi dispersia variabilei aleatoare X sunt 2

M[ ] exp2

X σµ = +

, respectiv

( ) ( )2 2Var[ ] exp 2 2 exp 2X µ σ µ σ= + − + .

2.4.2.10. Distribuţia beta Densitatea de probabilitate a unei variabile aleatoare continue X (care ia valori în intervalul [0, 1]) având o distribuţie de tip beta este

( ) ( ) 111 1 , pentru 0 1,,( )

0 , în rest,

t t tf t

βα

α β−− − ≤ ≤=

Β cu , , , 0α β α β∈ > , (2.4.37)

Page 48: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 38

unde

( ) ( )1

11

0

, 1t t dtβαα βΒ −−= −∫ (2.4.38)

este funcţia specială Beta. Media şi dispersia unei variabile cu distribuţie beta de parametri α şi β ,

( , )X α βB∼ , sunt M[ ]X αα β

=+

, respectiv ( ) ( )2Var[ ]

1X αβ

α β α β=

+ + +.

Deoarece graficul densităţii sale de probabilitate are diferite forme (fig. 2.4.15) funcţie de valorile parametrilor reali pozitivi α şi β , această distribuţie este deseori utilizată pentru a modela diferite fenomene aleatoare pe baza unor date incomplete. Pentru că o variabilă aleatoare cu distribuţie beta poate lua valori numai in intervalul [0, 1] , setul de date X cuprinse într-un interval [ , ]a b este mai întâi scalat prin transformarea ( )Y a b a X= + − . Distribuţia beta este deseori utilizată pentru a modela proporţii aleatoare, cum ar fi proporţia de piese defecte dintr-un lot. Pentru 1α β= = se obţine distribuţia uniformă pe intervalul [0,1] .

0 0.2 0.4 0.6 0.8 10

0.5

1

1.5

2

2.5

3

PDF - distributia Beta(α , β)

α =0.5, β =0.5α =0.75, β =0.75α =1, β =1α =1.5, β =1.5α =4, β =4

0 0.2 0.4 0.6 0.8 1

0

0.2

0.4

0.6

0.8

1

CDF - distributia Beta(α , β)

α =0.5, β =0.5α =0.75, β =0.75α =1, β =1α =1.5, β =1.5α =4, β =4

(a) (b)

Fig. 2.4.15. Reprezentarea grafică (a) a densităţii de probabilitate şi (b) a funcţiei de repartiţie pentru o variabilă cu distribuţie beta, ( , )X α βB∼ .

2.4.2.11. Distribuţia Weibull O variabilă aleatoare continuă cu distribuţie Weibull are funcţia densitate de probabilitate dată de

1

0 , pentru 0,( )

e , pentru 0,t

tf t

t tββ ααβ − −

≤=

> cu , , , 0α β α β∈ > , (2.4.39)

şi funcţia de repartiţie

0 , pentru 0,

( )1 e , pentru 0.t

tF t

tβα−

≤=

− > (2.4.40)

Page 49: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

39

Media şi dispersia unei variabile aleatoare X cu distribuţie Weibull, ( , )X α βW∼ ,

sunt egale cu 1 1M[ ] 1X βα

βΓ

− = +

, respectiv 222 1Var[ ] 1 1X βα

β βΓ Γ

− = + − +

, unde

Γ este funcţia specială Gamma (2.4.28). Distribuţia Weibull (fig. 2.4.16) este deseori utilizată pentru a modela timpii de viaţă ai unor resurse. Dacă un sistem este compus din mai multe subsisteme care se pot defecta în mod independent, atunci timpii dintre două defectări consecutive în sistem poate fi aproximat printr-o distribuţie Weibull. Această distribuţie este de asemenea utilizată pentru a modela timpi de servire care sunt centraţi spre stânga (în apropiere de 0).

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

0.5

1

1.5PDF - distributia Weibull (α , β)

x

f(x)

α =1, β =0.5α =1, β =1α =1, β =2α =1.5, β =1α =1.5, β =2

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

0

0.2

0.4

0.6

0.8

1

CDF - distributia Weibull (α , β)

x

F(x)

α =1, β =0.5α =1, β =1α =1, β =2α =1.5, β =1α =1.5, β =2

(a) (b)

Fig. 2.4.16. Reprezentarea grafică (a) a densităţii de probabilitate şi (b) a funcţiei de repartiţie pentru o variabilă cu distribuţie Weibull, ( , )X α βW∼ .

Exemplul 2.4.10. Timpul de viaţă X, exprimat în ore, al unei componente electronice are o distribuţie Weibull pentru care 2β = . Se observă că 15% dintre componentele care au funcţionat 90 h se defectează în următoarele 10 h. Pe baza acestor informaţii se doreşte determinarea parametrului α al distribuţiei variabilei X şi valoarea medie a timpului de viaţă al componentelor. Formalizarea matematică a enunţului anterior conduce la relaţia

[ 100 | 90] 0,15P X X≤ > = .

Funcţia de repartiţie corespunzătoare lui X fiind 2

( ) 1 e , 0tF t tα−= − > , rezultă 2 2

2

(90) (100)

(90)

[90 100] (100) (90) e e[ 100 | 90][ 90] 1 (90) e

P X F FP X XP X F

α α

α

− −

< ≤ − −≤ > = = =

> −.

Rezolvând ecuaţia satisfăcută de parametrul α se obţine 8100 10000

19008100

e e ln 0,850,15 e 0,85 0,000085541900e

α αα

α α− −

−−

−= ⇒ = ⇒ = − = .

Timpul mediu de viaţă este ( )M[ ] 1,5 95,823X α= =Γ h.

Page 50: Matcovschi Lanturi Sist Astept Markov

Tabel 2.4.1. Distribuţii uzuale de probabilitate Numele

distribuţiei Simbol Densitate de probabilitate Parametri Valoare medie Varianţă Domeniul valorilor

variabilei aleatoare Uniformă discretă ( )d NU 1( ) , 1,2,...,f n n N

N= ∈ N ∗∈

12

N + 2 112

N − 1,2,...,X N∈

Geometrică ( )d pG ( ) 1( ) 1 ,nf n p p n− ∗= − ∈ (0,1)p∈ 1 p

p− 2

1 pp− X ∗∈

Poisson ( )λP ( ) e ,!

n

f n nn

λλ − ∗= ∈ 0λ > λ λ X ∗∈

Binomială ( , )N pBin ( ) (1 )k k N kNf k C p p −= − , 0,1, 2,...,k N∈

(0,1)p∈ , N ∗∈

Np

1Np

p− 0,1,2,...,X N∈

Uniformă continuă ( , )a bU 1( )f x

b a=

−, [ , ]x a b∈ ,a b∈ ,

a b< 2a b+

2( )12

b a− [ , ]X a b∈

Exponenţială ( )λE ( ) e , 0xf x xλλ −= ≥ 0λ > 1λ

2

[0, )X ∈ +∞

Normală ( , )µ σN ( )2

221( ) e ,2

x

f x xµσ

σ π

−−

= ∈ µ∈ ,

0σ > µ 2σ X ∈

Gamma ( , )α βG 11( ) e( )

x

f x xα βαβ α

−−=

Γ, 0x ≥ , 0α β > αβ 2αβ [0, )X ∈ +∞

Erlang ( , )k βEr ( )

11( ) e1 !

xk

kf x xk

β

β

−−=

−, 0x ≥ k ∗∈ ,

0β > kβ 2kβ [0, )X ∈ +∞

2χ 2 ( )νχ ( )2

2 22

1( ) e2 2

x

f x xν

ν ν

− −=

Γ, 0x ≥ ν ∗∈ ν 2ν [0, )X ∈ +∞

Beta ( , )α βB ( ) ( ) 111( ) 1,

f x x x αβ

β α−−= −

Β, [0,1]x∈ , 0α β >

βα β+

( )( )

2

1αβ α βα β

−++ +

[0,1]X ∈

Page 51: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

41

Tabelul 2.4.1 prezintă sumar câteva dintre distribuţiile de probabilitate frecvent întâlnite în problemele de modelare a sistemelor dinamice cu evenimente discrete, împreună cu caracteristicile numerice ale acestora.

2.5. Generarea numerelor aleatoare

O importanţă deosebită în studiul prin simulare al sistemelor în care intervin variabile aleatoare o are generarea de numere aleatoare care să respecte o distribuţie de probabilitate impusă. La baza generatoarelor de numere aleatoare implementate în diverse medii de simulare (Sinclair, 2002) stă metoda transformatei inverse (eng. inverse transform method) ce utilizează următorul rezultat.

Teorema 2.5.1. Fie X o variabilă aleatoare continuă a cărei densitate de probabilitate Xf are valori nenule pe o submulţime ⊆I (adică ( ) 0Xf x > pentru x∈I şi ( ) 0Xf x =

pentru x∉I ). Dacă :g →I este o funcţie monotonă şi diferenţiabilă pe I , atunci ( )Y g X= este o variabilă aleatoare continuă a cărei densitate de probabilitate este dată de

1 1( ) ( ) ( ) , pentru ( ),

( )0 , în rest,

XY

f g y g y y gf y

− − ′ ∈ =

I (2.5.1)

unde 1g− este inversa, unic determinată, a funcţiei g, iar 1( )g− ′ este derivata acesteia.

Pentru a demonstra această teoremă, considerăm că g este monoton crescătoare pe I . Funcţia de repartiţie a variabilei ( )Y g X= este

1 1( ) [ ] [ ( ) ] [ ( )] ( )Y XF y P Y y P g X y P X g y F g y− − = ≤ = ≤ = ≤ = (2.5.2)

pentru ( )y g∈ I . Prin derivare în raport cu y se obţine densitatea de probabilitate Yf .

Exemplul 2.5.1. Considerăm g ca fiind funcţia de repartiţie : [0,1]F → a unei variabile aleatoare continue X cu densitatea de probabilitate ( ) ( ),f x F x x′= ∈ . Aplicând teorema 2.5.1 pentru variabila ( )Y F X= , se obţine funcţia de repartiţie

( )1( ) ( )YF y F F y y−= = , pentru ( ) [0,1]y F∈ = . Densitatea de probabilitate a lui Y

este 1 , pentru [0,1],

( )0 , în rest.Y

yf y

∈=

Rezultă astfel că Y este uniform distribuită în intervalul [0, 1]. Pentru generarea numerelor aleatoare care să respecte o distribuţie de probabilitate impusă, teorema precedentă se aplică în sensul următor: dacă X este o variabilă uniform distribuită în intervalul [0, 1], F reprezintă o funcţie de repartiţie de tip continuu, diferenţiabilă pe (densitatea de probabilitate corespunzătoare fiind f F ′= ) şi 1g F −= , atunci densitatea de probabilitate a variabilei 1( )Y F X−= este

Page 52: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 42

[ ]( ) ( ) ( ) ( ) ( ), pentruY Xf y f F y F y F y f y y ′ ′= = = ∈

. (2.5.3)

Această metodă poate fi aplicată pentru acele distribuţii de probabilitate pentru care funcţia inversă de repartiţie 1F − poate fi exprimată în formă analitică (de exemplu, pentru distribuţia exponenţială sau Weibull). În cazul distribuţiilor pentru care acest lucru nu este posibil (de exemplu, distribuţia normală) se aplică alte metode de generare (Sinclair, 2002).

Exemplul 2.5.2. Fie X o variabilă uniform distribuită în intervalul [0, 1] şi :[0,1)g → , ( )1( ) ln 1g x xλ−= − − , cu 0λ > . Variabila ( )Y g X= ia numai valori

strict pozitive, astfel că ( ) 0YF y = , pentru 0y ≤ . Pentru 0y > , se obţine

( ) ( )( )

1( ) [ ] [ ln 1 ] [ln 1 ]

[ 1 e ] [ 1 e ] (1 e ).Y

y y yX

F y P Y y P X y P X y

P X P X Fλ λ λ

λ λ−

− − −

= ≤ = − − ≤ = − ≥ − =

= − ≥ = ≤ − = −

Deoarece (0,1)X ∈U , ( )XF x x= pentru 0 1x≤ ≤ . Funcţia de repartiţie a lui Y este

( ) 1 e yYF y λ−= − , pentru 0y > .

Deci variabila ( )Y g X= are distribuţie exponenţială de parametru λ , ( )Y λE∼ .

Un caz particular de aplicare a teoremei 2.5.1 este cel al funcţiilor liniare, ( )g x ax b= + , cu ,a b∗∈ ∈ . Densitatea de probabilitate a variabilei Y aX b= + este

1 , pentru ,

( ) | |0 , în rest,

XY

y bf y a bf y a a

− ∈ + =

I (2.5.4)

unde I reprezintă intervalul pe care ( ) 0f x ≠ .

Exemplul 2.5.3. Fie ( )X λ∈E şi Y rX= , cu 0r > . Deoarece ( ) 0Xf x = pentru

0x < şi ( ) e xXf x λλ −= pentru 0x ≥ , densitatea de probabilitate a lui Y este

0 , pentru 0,( )

e , pentru 0.yY r

yf y

yr

λλ −

<=

Rezultă astfel că Y are distribuţie exponenţială de parametru rλ .

2.6. Funcţii generatoare

Fiind dată o variabilă aleatoare cu valori reale X, eXθ (θ ∈ ) reprezintă o altă variabilă aleatoare a cărei valoare medie, M eXθ , dacă există, este o funcţie de parametrul real θ . Funcţia generatoare de moment (eng. moment generating function – MGF) corespunzătoare unei variabile aleatoare X este definită prin ( ) M eX

Xθθ = M . (2.6.1)

Page 53: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

43

Pentru o anumită variabilă aleatoare X se poate întâmpla ca media M eXθ să nu existe pentru orice valoare a parametrului real θ , dar, în general, există un interval de numere reale pentru care funcţia ( )X θM este definită. Definiţia MGF poate fi extinsă şi la cazul variabilelor aleatoare multidimensionale.

Dacă variabila aleatoare X este discretă, 1 2

1 2

n

n

x x xX

p p p

=

… …… …

, atunci

( ) jxX j

je pθθ =∑M , (2.6.2)

iar dacă X este variabilă aleatoare continuă având densitatea de probabilitate f, se obţine

( ) ( )xX e f x dxθθ

−∞

= ∫M . (2.6.3)

Utilitatea funcţiei generatoare de moment rezultă din următoarele proprietăţi:

Teorema 2.6.1. Dacă pentru două variabile aleatoare X şi Y, ( ) ( )X Yθ θ=M M pentru toate valorile parametrului θ , atunci variabilele X şi Y au aceeaşi repartiţie de probabilitate,

( ) ( ),X YF t F t t= ∀ ∈ .

Teorema 2.6.2. Dacă între variabilele X şi Y există o relaţie liniară de forma Y aX b= + , ,a b∈ , 0a ≠ , atunci ( ) e ( )b

Y X aθθ θ=M M . (2.6.4)

Demonstraţia acestei teoreme se bazează pe proprietatea de liniaritate a valorii medii: ( )( ) M e M e M e e e M e e ( )Y aX b b aX b Xa b

Y X aθ θ θ θ θ θ θθ θ+= = = = = M M . (2.6.5)

Teorema 2.6.3. Fie 1 2, , , nX X X… variabile aleatoare mutual independente şi

1 2 nZ X X X= + + +… . Dacă ( )iX θM există pentru orice 1,i n= , atunci există ( )Z θM şi

1 2

( ) ( ) ( ) ( )nZ X X Xθ θ θ θ=M M M M… . (2.6.6)

Relaţia (2.6.6) rezultă din:

1 2( )

1 1 1( ) M e M e M e ( )n i i

i

n n nX X X X X

Z Xi i i

θ θ θθ θ+ + +

= = =

= = = =

∏ ∏ ∏M M… . (2.6.7)

Pentru a justifica denumirea de funcţie generatoare de moment dată lui ( )X θM , să observăm că prin dezvoltarea în serie de puteri a exponenţialei eXθ se obţine

2 2

e 12! !

k kX X XX

kθ θ θθ= + + + + +… … , (2.6.8)

astfel încât

[ ]

[ ] [ ] [ ]

2 2

2 2

0

( ) M e M 12! !

M M1 M M .2! ! !

k kX

X

k k kk

k

X XXk

X XX Xk k

θ θ θθ θ

θ θ θθ∞

=

= = + + + + + =

= + + + + + = ∑

M … …

… … (2.6.9)

Page 54: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 44

Rezultă că, în dezvoltarea în serie de puteri a funcţiei ( )X θM , coeficientul lui !k kθ reprezintă momentul de ordinul k al variabilei X. În consecinţă, acest moment poate fi calculat prin derivarea de k ori a funcţiei ( )X θM

[ ]0

[ ] Mk

k Xk k

dX Xd θ

µθ =

= =M , 1,2,k = … . (2.6.10)

Se observă că [ ]0M (0) 1XX = =M .

Exemplul 2.6.1. Ilustrăm în continuare modul de utilizare a funcţiei generatoare de moment pentru studierea proprietăţilor distribuţiei normale. Pentru o variabilă continuă cu distribuţie normală standard (0,1)X N∼ , aplicarea relaţiei (2.6.3) conduce la:

( )22 2 2

2 2 2 21 1( ) ( ) e e e e2 2

xxx x

X e f x dx e dx dxθθ θ

θ θθπ π

∞ ∞ ∞ −− −

−∞ −∞ −∞

= = = =∫ ∫ ∫M .

Momentul de ordinul k al lui X poate fi calculat cu ajutorul relaţiei (2.6.10), şi anume:

0

(2 )!, dacă 2 ,[ ] 2 !

0 , dacă 2 1,

kX m

k k

m k mdX md k mθ

µθ =

== = = +

M cu m∈ .

O variabilă aleatoare Y cu distribuţie normală de medie µ şi deviaţie standard σ , ( , )Y µ σN∼ , poate fi scrisă sub forma Y Xσ µ= + , cu (0,1)X N∼ . Aplicând

teorema 2.6.2 se obţine funcţia generatoare de moment a lui Y sub forma: 2 2

( ) e ( ) exp2Y X

µθ σ θθ σθ µθ = = +

M M .

Considerând 1X şi 2X două variabile aleatoare independente, normal distribuite, ( , )i i iX µ σN∼ , 1,2i = , atunci funcţia generatoare de moment a variabilei 1 2Z X X= +

poate fi determinată cu ajutorul teoremei 2.6.3

( )( )

1 2

2 2 2 21 2

1 2

2 2 21 2

1 2

( ) ( ) ( ) exp exp2 2

exp ,2

Z X Xσ θ σ θθ θ θ µ θ µ θ

σ σ θµ µ θ

= ⋅ = + + = +

= + +

M M M

de unde rezultă că Z are, de asemenea, distribuţie normală, ( , )Z µ σN∼ , de medie

1 2µ µ µ= + şi dispersie 2 2 21 2σ σ σ= + . Acest rezultat poate fi generalizat pentru cazul

unei sume de n variabile aleatoare independente, normal distribuite.

Fie X o variabilă aleatoare discretă cu valori numere întregi nenegative, X ∈ , având densitatea de probabilitate [ ]kp P X k= = , k∈ . Funcţia generatoare de probabilitate (eng. probability generating function – PGF) este definită prin relaţia

20 1 2

0( ) (ln ) M X k k

X X k kk

z z z p z p p z p z p z∞

=

= = = = + + + + + ∑G M … … . (2.6.11)

Page 55: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

45

Deoarece 0

1kk

p∞

=

=∑ , seria de puteri (2.6.11) este convergentă pentru toate numerele

complexe z∈ pentru care | | 1z ≤ . Pentru | | 1z < seria de puteri poate fi derivată termen cu termen obţinându-se:

( ) ( ) !( )( )!

knotk n kX

X nkn k

d z nz p zn kdz

∞−

=

= =−∑G

G . (2.6.12)

Scriind relaţia (2.6.12) pentru 0z = , se obţine

( ) ( )1(0) ! (0)!

k kX k k Xk p p

k= ⇒ =G G , (2.6.13)

ceea ce justifică denumirea de funcţie generatoare de probabilitate dată lui ( )X zG . În particular, pentru 1z = şi 1k = , apoi 2k = , din relaţia (2.6.12) rezultă [ ]M (1)XX ′= G , respectiv [ ]2M (1) (1)X XX ′ ′′= +G G . (2.6.14)

Funcţiile generatoare de probabilitate corespunzătoare câtorva dintre distribuţiile discrete detaliate în secţiunea 2.4.1 sunt prezentate în continuare:

pentru o variabilă discretă cu distribuţie uniformă ( )dX nU∼ :

0 0

1 1( )n n

k k

k kz z z

n n= =

= =∑ ∑G ; (2.6.15)

pentru o variabilă cu distribuţie Bernoulli de parametru p: 0 1 1( ) 1z qz pz p pz= + = − +G ; (2.6.16)

pentru o variabilă cu distribuţie binomială ( , )X n pBin∼ :

[ ]0

( ) (1 ) (1 )n

nk k n k kn

kz C p p z pz p−

=

= − = + −∑G ; (2.6.17)

pentru o variabilă cu distribuţie geometrică ( )X pdG∼ :

1

1 0( ) (1 ) (1 )

1 (1 )k k k k

k k

pzz p p z pz p zz p

∞ ∞−

= =

= − = − =− −∑ ∑G ; (2.6.18)

pentru o variabilă cu distribuţie geometrică modificată ( )X pmG∼ :

0 0

( ) (1 ) (1 )1 (1 )

k k k k

k k

pz p p z p p zz p

∞ ∞

= =

= − = − =− −∑ ∑G ; (2.6.19)

pentru o variabilă cu distribuţie Poisson ( )X λP∼ :

( 1)

0 0

( )( ) e e e e e! !

k kk z z

k k

zz zk k

λ λ λ λ λλ λ∞ ∞− − − −

= =

= = = =∑ ∑G . (2.6.20)

Din teorema 2.6.1 rezultă că, dacă două variabile aleatoare discrete X şi Y au aceeaşi funcţie generatoare de probabilitate, ( ) ( )X Yz z=G G , atunci variabilele X şi Y au aceeaşi densitate de probabilitate.

Page 56: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 46

Aplicând teorema 2.6.3 se poate demonstra că, dacă 1 2, , , nX X X… sunt variabile aleatoare mutual independente (cu valori numere întregi nenegative) ale căror funcţii generatoare de probabilitate sunt notate, respectiv,

1 2( ), ( )X Xz zG G , …, ( )

nX zG , şi

1 2 nZ X X X= + + +… , atunci

1 2

( ) ( ) ( ) ( )nZ X X Xz z z z=G G G G… . (2.6.21)

Exemplul 2.6.2. Ilustrăm în continuare modul de aplicare al relaţiei (2.6.14) pentru a determina media şi dispersia unei variabile discrete cu distribuţie Poisson, ( )X λP∼ . Prin derivarea funcţiei generatoare (2.6.20) se obţine:

( 1)( ) e zX z λλ −′ =G şi 2 ( 1)( ) e z

X z λλ −′′ =G . Rezultă că

[ ]M (1)XX λ′= =G şi [ ]2 2M (1) (1)X XX λ λ′ ′′= + = +G G , deci

[ ] ( )22 2 2Var[ ] M M[ ]X X X λ λ λ λ= − = + − = .

Exemplul 2.6.3. Relaţia (2.6.21) poate fi utilizată pentru a determina distribuţia de probabilitate a unei sume de variabile aleatoare discrete, mutual independente, cu valori numere întregi nenegative, 1 2, , , mX X X… , după cum urmează: (i) dacă variabila iX are repartiţie binomială de parametri in ∗∈ şi (0,1)p∈ ,

( , )i iX n p∈Bin , pentru 1,i m= , atunci 1 2 nZ X X X= + + +… are repartiţie binomială de parametri 1 2 mn n n+ + +… şi p, deoarece

[ ] [ ] [ ][ ]

1 2

1 2

1 21 2

( ) ( ) ( ) ( )

(1 ) (1 ) (1 )

(1 ) ( , );

n

m

m

Z X X X

n n n

n n nm

z z z z

pz p pz p pz p

pz p Z n n n p+ + +

= ⋅ ⋅ ⋅ =

= + − + − + − =

= + − ⇒ + + +Bin

G G G G

∼ …

(ii) dacă variabila iX are repartiţie Poisson de parametru 0iλ > , ( )i iX λP∼ , pentru

1,i m= , atunci 1 2 nZ X X X= + + +… are repartiţie Poisson de parametru 1 2 mλ λ λ+ + +… , deoarece

1 2

1 2

1 2

(1 )(1 ) (1 )

( )(1 )1 2

( ) ( ) ( ) ( )

e e e

e ( ).

n

m

m

Z X X X

zz z

zm

z z z z

Z

λλ λ

λ λ λ λ λ λ

− −− − − −

− + + + −

= ⋅ ⋅ ⋅ =

= =

= ⇒ + + +P

G G G G

…∼ …

Funcţia caracteristică (eng. characteristic function) a unei variabile aleatoare continue X cu densitatea de probabilitate f este definită prin

( ) ( ) M e e ( )i X i xX X i f x dxω ωω ω

∞− −

−∞

= − = = ∫N M , (2.6.22)

unde i reprezintă unitatea imaginară ( 2 1i = − ) iar τ ∈ .

Page 57: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

47

Deoarece | e | 1i xω = , funcţia caracteristică există pentru orice variabilă aleatoare continuă X care admite densitate de probabilitate. Funcţia caracteristică reprezintă transformata Fourier a densităţii de probabilitate f. Ţinând cont de exemplul 2.6.1, funcţia caracteristică corespunzătoare unei variabile cu

distribuţie normală de probabilitate ( , )X µ σN∼ este 2 2

( ) exp2X

σ ωω µω = +

N .

Dacă X este o variabilă aleatoare continuă cu valori pozitive având densitatea de probabilitate f, atunci transformata Laplace (unilaterală) a densităţii de probabilitate a variabilei X este definită prin

0

( ) ( ) e ( )sxX Xs s f x dx

∞−= − = ∫L M , Re 0s > . (2.6.23)

Transformatele Laplace ale densităţilor de probabilitate corespunzătoare câtorva dintre distribuţiile continue detaliate în secţiunea 2.4.2 sunt prezentate în continuare:

pentru o variabilă continuă cu distribuţie uniformă ( , )X a bU∼ , 0 a b≤ < :

( )

0

e e e( ) e ( )b sx as bs

sx

a

s f x dx dxb a s b a

∞ − − −− −= = =

− −∫ ∫L ; (2.6.24)

pentru o variabilă continuă cu distribuţie exponenţială ( )X λE∼ :

( )

0 0

( ) e e ( )esx x s xX s dx s dx

s sλ λλ λλ λ

λ λ

∞ ∞− − − += = + =

+ +∫ ∫L ; (2.6.25)

pentru o variabilă cu distribuţie hiperexponenţială 1 2 1 2( , , , ; , , , )n nX p p p λ λ λH∼ … … :

1 10

( ) e e in n

xsx i iX i i

ii i

ps p dxs

λ λλ

λ

∞−−

= =

= =+∑ ∑∫L ; (2.6.26)

pentru o variabilă continuă cu distribuţie Erlang ( , )X n λEr∼ :

( ) ( )1

0

( ) e e1 !

nnsx n x

X s x dxn s

λλ λλ

∞− − −= =

− +∫L ; (2.6.27)

pentru o variabilă continuă cu distribuţie gamma ( , )X α βG∼ :

( ) ( )

111

0 0

1

0

( )

1 11 1( ) e e e( ) ( 1) ( )

1 1e ;1 ( ) 1

sx xsxX

y

s ss x dx x dxs

y dys s

βαα β β

α α

αα α

α

β ββ ββ α β α

β α βΓ

Γ Γ

Γ

+∞ ∞ −− −− −

∞− −

+ + = = = +

= =+ +

∫ ∫

L

(2.6.28)

pentru o variabilă continuă cu distribuţie de tip Cox cu n faze (fig. 2.4.12):

1 2 11 1

( ) (1 )in

jX i i

ji js p p p p

sλλ−

= =

= −+∑ ∏L … . (2.6.29)

Page 58: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 48

Aplicând teorema 2.6.3 se poate demonstra că, dacă 1 2, , , nX X X… sunt variabile aleatoare mutual independente (cu valori pozitive) pentru care funcţiile caracteristice sunt

1 2( ), ( )X Xω ωN N , …, respectiv, ( )

nX ωN , iar transformatele Laplace ale densităţilor lor de

probabilitate sunt1 2( ), ( )X Xs sL L , …, respectiv, ( )

nX sL , şi 1 2 nZ X X X= + + +… , atunci

1 2

( ) ( ) ( ) ( )nZ X X Xω ω ω ω=N N N N… , (2.6.30)

1 2

( ) ( ) ( ) ( )nZ X X Xs s s s=L L L L… . (2.6.31)

Proprietatea exprimată prin relaţia (2.6.10) se poate aplica pentru funcţia caracteristică corespunzătoare unei variabile aleatoare X:

[ ]0

[ ] M ( )k

k k Xk k

dX X id τ

µτ =

= = −N , 1,2,k = … , (2.6.32)

ca şi pentru transformata Laplace a densităţii de probabilitate a unei variabile continue cu valori pozitive:

[ ]0

[ ] M ( 1)k

k k Xk k

s

dX Xds

µ=

= = −L , 1,2,k = … . (2.6.33)

Exemplul 2.6.4. Fie X o variabilă aleatoare cu distribuţie exponenţială de parametru 0λ > , având densitatea de probabilitate ( ) e tf t λλ −= , pentru 0t ≥ , a cărei transformată

Laplace este

( )X ssλλ

=+

L .

Valoarea medie a variabilei X este

[ ]( )2

0 0

1M ( 1) ( 1)X

s s

dXds s

λλλ= =

−= − = − =+

L .

De asemenea, se pot determina

[ ]( )

22

2 3 20 0

2 2M X

s s

dXds s

λλλ= =

= = =+

L

şi [ ] ( )22

2 2 22 1 1Var[ ] M M[ ]X X Xλ λ λ

= − = − = .

Momentul de ordinul k al variabilei X este

[ ]( )

21

0 0

! ![ ] M ( 1)k

k Xk k k k

s s

d k kX Xds s

λµλλ +

= =

= = − = =+

L .

Exemplul 2.6.5. Aplicăm relaţia (2.6.31) pentru variabilele aleatoare independente distribuite exponenţial cu aceeaşi rată λ , 1 2, ,..., ( )nX X X λE∼ . Transformata Laplace a densităţii de probabilitate a variabilei 1 2 ... nZ X X X= + + + este

Page 59: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

49

( )1 1

( ) ( )i

n n n

Z Xi i

s ss sλ λλ λ= =

= = =+ +∏ ∏L L .

Utilizând transformata Laplace inversă pentru ( )Z sL , densitatea de probabilitate a variabilei Z are expresia

( )1( ) e

1 !

nn t

Zf t tn

λλ − −=−

, pentru 0t ≥ .

Rezultă că variabila 1 2 ... nZ X X X= + + + are distribuţie Erlang de ordin n şi parametru λ , ( , )Z n λEr∼ .

Exemplul 2.6.6. Proprietatea pusă în evidenţă în exemplul 2.6.5 este un caz particular al următoarei proprietăţi cu caracter mai general. Dacă 1 2, ,..., nX X X sunt variabile aleatoare independente, identic distribuite după o distribuţie gamma de parametri α şi β , ( , )iX α βG∼ , 1,i n= , atunci 1 2 ... ( , )nZ X X X nα β= + + + G∼ . Demonstraţia acestei proprietăţi este imediată, ţinând cont de relaţiile (2.6.28) şi (2.6.31):

( ) ( )1 1

1 1( ) ( )1 1i

n n

Z X ni i

s ss sα αβ β= =

= = =+ +

∏ ∏L L .

Exemplul 2.6.7. Aplicăm relaţia (2.6.31) pentru două variabile aleatoare independente, 1 2,X X , având distribuţii exponenţiale de rate 1λ , respectiv 2λ ,

1 1( )X λE∼ , 2 2( )X λE∼ , cu 1 2λ λ≠ . Transformata Laplace a densităţii de probabilitate a variabilei 1 2Z X X= + este

1 11 2 1 2

1 2 2 1 1 2

1 1( ) ( ) ( )Z X Xs s ss s s sλ λ λ λλ λ λ λ λ λ

= = = − + + − + + L L L .

Utilizând transformata Laplace inversă pentru ( )Z sL , densitatea de probabilitate a variabilei Z are expresia

( )1 21 2

2 1

( ) e et tZf t λ λλ λ

λ λ− −= −

−, pentru 0t ≥ ,

iar funcţia sa de repartiţie este 1 22 1

2 1 2 1

( ) 1 e et tZF t λ λλ λ

λ λ λ λ− −= − +

− −, pentru 0t ≥ .

Se spune că variabila 1 2Z X X= + are distribuţie hipoexponenţială de ordin 2 şi parametri 1λ şi 2λ , 1 2( , )Z λ λHypo∼ . Definiţia distribuţiei hipoexponenţiale se poate extinde la cazul sumei de n variabile aleatoare mutual independente, având distribuţii exponenţiale de rate diferite două câte două. Figura 2.6.1 reprezintă grafic densitatea de probabilitate şi funcţia de repartiţie pentru o variabilă cu distribuţie hipoexponeniţală (1,2)Hypo comparativ cu funcţiile corespunzătoare variabilelor cu distribuţie exponenţială (1)E , (2)E .

Page 60: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 50

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

x

f(x)

PDF - distr. hipoexponentiala HYPO(λ1, λ2)

HYPO: λ1 = 1, λ2 = 2EXPO:λ1 = 1EXPO:λ2 = 2

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

0

0.2

0.4

0.6

0.8

1

x

F(x)

CDF - distr. hipoexponentiala HYPO(λ1, λ2)

HYPO: λ1 = 1, λ2 = 2EXPO:λ1 = 1EXPO:λ2 = 2

(a) (b)

Fig. 2.6.1. Reprezentarea grafică comparativă (a) a densităţilor de probabilitate şi (b) a funcţiilor de repartiţie corespunzătoare distribuţiilor (1,2)Hypo şi (1)E , (2)E .

2.7. Legea numerelor mari. Legi limită

Există mai multe legi ale numerelor mari care stabilesc legătura dintre frecvenţa de apariţie a unui eveniment şi probabilitate, utilizate pentru a justifica rezultatele obţinute prin simulare şi a evalua erorile de estimare. Două dintre aceste legi sunt prezentate în continuare (Mihoc şi Mihu, 1980).

Teorema lui Bernoulli. Fie α numărul de apariţii ale unui eveniment A în n experimente independente şi p probabilitatea de apariţie a lui A în fiecare dintre aceste experienţe. Dacă nf este frecvenţa relativă definită prin egalitatea nf nα= , atunci şirul de variabile aleatoare n nf ∈ converge în probabilitate la p, adică pentru orice 0ε > are loc

[ ]lim | | 0nnP f p ε

→∞− ≥ = . (2.7.1)

Din punct de vedere practic, această teoremă arată că probabilitatea de apariţie a evenimentului A poate fi aproximată oricât de bine prin frecvenţa relativă determinată experimental atunci când numărul n de experimente efectuate este suficient de mare.

Legea numerelor mari. Fie variabilele aleatoare independente 1 2, ,..., nX X X , având

aceeaşi distribuţie de probabilitate, cu valoarea medie M[ ]kXµ = şi dispersia 2 Var[ ]kXσ = (finite). Considerând variabila aleatoare 1 2 ...n nS X X X= + + + , pentru orice 0ε > este satisfăcută relaţia:

lim 0nn

SPn

µ ε→∞

− ≥ = . (2.7.2)

Din punct de vedere practic, această lege arată că valoarea medie µ a unei variabile aleatoare X poate fi aproximată oricât de bine prin media aritmetică a unui număr n suficient de mare de realizări (experimentale) ale acesteia, 1 2, ,..., nX X X .

Page 61: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

51

2.8. Elemente de statistică matematică

Distribuţiile de probabilitate discutate în secţiunile precedente pot furniza probabilităţile de apariţie a diferitor evenimente de interes, atât timp cât tipul şi parametrii distribuţiilor lor sunt cunoscute. În practică, de multe ori trebuie urmată o cale inversă: pentru anumite fenomene aleatoare trebuie obţinute informaţii privind tipul distribuţiilor şi parametrii acestora pe baza unor date culese direct din sistemul investigat. Statistica matematică furnizează suportul pentru analizarea şi interpretarea unor asemenea date (Mihoc şi Mihu, 1980).

În limbaj matematic, orice mulţime de elemente care formează obiectul unei analize statistice poartă denumirea de populaţie statistică (eng. population), iar elementele constitutive ale unei populaţii statistice se numesc unităţi statistice sau indivizi. Numărul tuturor indivizilor dintr-o populaţie statistică se numeşte efectivul total al acelei populaţii sau volumul populaţiei. Volumul unei populaţii statistice poate fi finit sau infinit. Analiza statistică poate avea în vedere una sau mai multe caracteristici (trăsături) comune tuturor indivizilor ce alcătuiesc populaţia statistică. O caracteristică se numeşte cantitativă dacă se poate măsura. În caz contrar, caracteristica se numeşte calitativă.

Informaţiile privind valorile unei caracteristici nu se culeg de la întreaga populaţie, ci se consideră la întâmplare o submulţime finită a populaţiei. Această submulţime şi, implicit, valorile corespunzătoare caracteristicii studiate poartă denumirea de eşantion sau selecţie. Procedeul de extragere a unui eşantion dintr-o populaţie statistică se numeşte sondaj. Metodele de inferenţă statistică permit estimarea unei caracteristici a întregii populaţii pe baza datelor colecţionate într-un eşantion.

Intuitiv, putem afirma că valoarea estimată (estimator) este cu atât mai apropiată de valoarea reală cu cât dimensiunea eşantionului investigat este mai mare; cele două valori coincid perfect dacă eşantionul cuprinde întreaga populaţie. De asemenea, indiferent de dimensiunea eşantionului investigat, acesta trebuie să fie reprezentativ pentru populaţia din care provine. Aceste două aspecte conduc la proprietăţile de consistenţă şi nedeviere ale unui estimator.

Studiul următoarelor domenii constituie subiectului statisticii matematice: 1. Estimatori statistici. Diferite eşantioane ale aceleiaşi populaţii vor furniza estimatori

distincţi. Se poate pune problema determinării distribuţiei statistice a acestor estimatori. Dacă tipul distribuţiei (normală, exponenţială, etc.) populaţiei studiate este cunoscut, se poate pune problema estimării parametrilor necunoscuţi ai populaţiei. În acelaşi timp, trebuie precizat nivelul de încredere în aceşti estimatori.

2. Teste statistice. În cazul în care tipul distribuţiei populaţiei studiate este necunoscut, atunci se pot efectua teste pentru a verifica dacă această distribuţie este de un anumit tip. De asemenea, în loc de a estima anumite proprietăţi ale populaţiei, se pot testa diferite ipoteze privind proprietăţile funcţiei de distribuţie a populaţiei.

Page 62: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 52

2.8.1. Estimarea parametrilor 2.8.1.1. Estimatori statistici Presupunem că o anumită populaţie X are o distribuţie complet specificată cu excepţia valorii unui anumit parametru θ (ca, de exemplu, valoarea medie sau dispersia populaţiei). Estimarea acestui parametru se va baza pe o colecţie 1 2, ,..., nx x x de realizări ale unui experiment statistic. Fiecare valoare ix obţinută experimental reprezintă, de fapt, o realizare a unei variabile aleatoare iX . Mulţimea variabilelor aleatoare 1 2, ,..., nX X X se numeşte eşantion (eng. sample) de lungime n al populaţiei X cu distribuţia ( )F x , dacă sunt mutual independente şi au aceeaşi funcţie de repartiţie, ( ) ( )

iXF x F x= , pentru orice valori ale lui i şi x.

O funcţie 1 2ˆ ˆ ( , ,..., )nX X XΘ = Θ utilizată pentru a estima valoarea parametrului θ al

populaţiei se numeşte estimator (eng. estimator), iar o valoare a acesteia, 1 2ˆ ˆ( , ,..., )nx x xθ θ= ,

calculată pe baza realizărilor 1 2, ,..., nx x x ale unui experiment statistic reprezintă o estimare a lui θ . Funcţia 1 2

ˆ ˆ ( , ,..., )nX X XΘ = Θ reprezintă un estimator nedeviat (eng. unbiased estimator) al parametrului θ dacă media sa coincide cu valoarea adevărată a lui θ : 1 2

ˆM[ ( , ,..., )]nX X X θΘ = . (2.8.1)

Valoarea medie empirică (eng. sample mean) sau speranţa matematică a eşantionului

1 2, ,..., nX X X , definită prin relaţia

1

1 n

ii

X Xn =

= ∑ , (2.8.2)

reprezintă un estimator nedeviat al valorii medii a populaţiei M[ ]Xµ = , dacă aceasta din urmă există, deoarece:

1 1 1

1 1 1 1M[ ] M M[ ] M[ ] M[ ] M[ ]n n n

i ii i i

X X X X n X Xn n n n

µ= = =

= = = = = =

∑ ∑ ∑ . (2.8.3)

De asemenea, se poate calcula dispersia valorii medii a eşantionului (în ipoteza că dispersia populaţiei există şi este finită) ţinând cont de independenţa variabilelor

1 2, ,..., nX X X ,

2 21 1 1

Var[ ]1 1 1Var[ ] Var Var[ ] Var[ ]n n n

i ii i i

XX X X Xn nn n= = =

= = = =

∑ ∑ ∑ . (2.8.4)

Relaţia precedentă arată că precizia valorii medii pe eşantion X ca estimator al valorii medii µ a populaţiei creşte odată cu creşterea dimensiunii n a eşantionului, dacă dispersia populaţiei, Var[ ]X , este finită.

Se poate demonstra (Mihoc şi Mihu, 1980) că funcţia

21 2

1

1ˆ ( , ,..., ) ( )n

n ii

X X X X Xn =

Θ = −∑ (2.8.5)

Page 63: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

53

constituie un estimator deviat al dispersiei populaţiei. Pe de altă parte, dispersia empirică a eşantionului 1 2, ,..., nX X X , definită prin relaţia

2 2

1

1 ( )1

n

ii

S X Xn =

= −− ∑ , (2.8.6)

constituie un estimator nedeviat al dispersiei populaţiei, 2 Var[ ]Xσ = , dacă aceasta din urmă există. Estimatorii (2.8.5) şi (2.8.6) diferă foarte puţin atunci când lungimea eşantionului este suficient de mare. Formula (2.8.6) se poate aplica atunci când populaţia investigată este infinită. Pentru o populaţie finită de mărime N, un estimator nedeviat al dispersiei este reprezentat de:

2 2

1

11( )

1

n

ii

NS X Xn =

−= −

− ∑ . (2.8.7)

Se spune că Θ este un estimator consistent (eng. consistent estimator) al parametrului θ dacă pentru orice 0ε > este satisfăcută relaţia: ˆlim [| | ] 1

nP θ ε

→∞Θ− < = , (2.8.8)

adică valoarea estimatorului Θ tinde în probabilitate către valoarea parametrului θ atunci când dimensiunea eşantionului tinde la infinit. Se poate demonstra (Mihoc şi Mihu, 1980) că valoarea medie pe un eşantion (2.8.2) este un estimator consistent al valori medii a populaţiei M[ ]Xµ = . Un alt mod de analiză a valorilor colecţionate într-un set de realizări 1 2, ,..., nx x x

corespunzătoare unei populaţii X constă în construirea funcţiei empirice de repartiţie ˆ ( )F x . Pentru orice x∈ , fie xk numărul de valori (din totalul de n valori înregistrate) care sunt mai mici sau egale cu x. Funcţia empirică de repartiţie (eng. empirical distribution function) este definită prin ˆ ( ) xF x k n= . (2.8.9)

Se poate demonstra (Mihoc şi Mihu, 1980) că funcţia ˆ ( )F x (2.8.9) este un estimator consistent al funcţiei de repartiţie a populaţiei, ( )F x . De asemenea, pentru un eşantion 1 2, ,..., nX X X se pot defini momentele empirice (eng. empirical moment) şi momentele centrate empirice prin formulele

1

1 nk

k ii

m Xn =

= ∑ , pentru 1k = sau 3k ≥ , (2.8.10)

respectiv

1

1 ( )n

kk i

im X X

n =

= −∑ , pentru 3k ≥ . (2.8.11)

Page 64: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 54

Observaţie. Momentul empiric de ordinul 1 reprezintă valoarea medie empirică, 1m X= . Pentru momentul centrat empiric de ordinul 2k = (dispersia empirică) se utilizează

una dintre relaţiile (2.8.6) şi (2.8.7), în funcţie de dimensiunea populaţiei investigate, 2

2m S= .

Momentele empirice stau la baza aşa-numitei metode a momentelor (eng. method of moments) pentru estimarea unuia sau mai multor parametri ai distribuţiei populaţiei X pe baza unui eşantion de lungime n, 1 2, ,..., nX X X . Această metodă constă în egalarea primelor câteva momente empirice ale eşantionului cu momentele corespunzătoare ale populaţiei astfel încât să se obţină un număr de ecuaţii egal cu numărul parametrilor care trebuie estimaţi. Valorile estimate, obţinute prin rezolvarea acestui sistem de ecuaţii, reprezintă, în general, estimatori consistenţi ai parametrilor.

Exemplul 2.8.1. Considerăm un sistem de calcul pentru care X reprezintă necesarul de memorie centrală corespunzător executării unei secvenţe de instrucţiuni (job), exprimat ca fracţie din totalul de memorie a sistemului. Se presupune că densitatea de probabilitate a lui X este de forma

( 1) , 0 1,( )

0, în rest,

kk x xf x

+ < <=

0k ≥ .

Dacă 0k = , necesarul de memorie are o distribuţie uniformă. Se doreşte estimarea parametrului k pe baza unui eşantion de lungime n. Fiind vorba de estimarea unui singur parametru, este suficient să considerăm numai momentul de ordinul 1 (valoarea medie) a eşantionului, 1m X= , şi, respectiv, a populaţiei,

112

1 00

1 1[ ] ( 1)2 2

k kk kX x k x dx xk k

µ ++ += + = =+ +∫ .

Egalând cele două valori medii, 1[ ]X Xµ = , se obţine valoarea estimată a parametrului k sub forma

2 1ˆ1Xk

X−=

−.

O altă metodă frecvent folosită pentru estimarea parametrilor distribuţiei unei populaţii o constituie metoda verosimilităţii maxime (eng. method of maximum-likelihood) ce furnizează estimatori care, de regulă, sunt consistenţi şi, în anumite condiţii de regularitate, sunt cei mai eficienţi în sens asimptotic (adică, atunci când lungimea eşantionului n tinde la infinit). Principiul care stă la baza acestei metode este de a alege, pe baza eşantionului

1 2, ,..., nX X X , ca estimator al unui parametru θ acea valoare a cărei probabilitate de apariţie este mai mare. Funcţia de verosimilitate (eng. likelihood function) este, de fapt, densitatea de probabilitate a vectorului aleator 1 2( , , , )nX X X… . Pentru o distribuţie discretă de probabilitate, funcţia de verosimilitate reprezintă probabilitatea de apariţie a evenimentului

1 1 2 2[ , , , ]n nX x X x X x= = =… :

Page 65: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

55

1 1 2 21

( ) [ , , , ] ( | )i

n

n n X ii

L P X x X x X x p x=

= = = = =∏…θ θ , (2.8.12)

unde 1 2( , , , )kθ θ θ= …θ este vectorul parametrilor ce trebuie estimaţi. Similar, pentru o distribuţie continuă de probabilitate, funcţia de verosimilitate este

1 1 2 21

( ) [ , , , ] ( | )i

n

n n X ii

L P X x X x X x f x=

= = = = =∏…θ θ . (2.8.13)

În anumite condiţii de regularitate, funcţia de verosimilitate ( )L θ admite maxim, estimatorul de verosimilitate maximă a lui θ fiind soluţia sistemului de ecuaţii

( ) 0, 1,2, ,i

L i kθ

∂ = =∂

…θ . (2.8.14)

Se poate întâmpla ca soluţia sistemului (2.8.14) să nu poată fi dedusă analitic (ca, de exemplu, în situaţia în care se doreşte estimarea simultană a parametrilor α şi β ai unei distribuţii de tip gamma). În alte cazuri, soluţia acestui sistem nu este unică. De asemenea, soluţia sistemului (2.8.14) poate să nu aparţină spaţiului parametrilor, astfel încât trebuie aplicată o metodă de maximizare cu restricţii a funcţiei ( )L θ .

Exemplul 2.8.2. Se doreşte estimarea ratei de sosire a apelurilor într-o celulă a unui sistem de comunicaţii mobile, pe baza unui eşantion 1 1 2 2, , , n nX x X x X x= = =… , unde

iX notează numărul de apeluri înregistrate pe oră în perioada i de observaţie. Considerând că numărul de apeluri pe oră, X, are o distribuţie Poisson de parametru λ , densitatea de probabilitate este de forma

( | ) e!x

Xp xx

λ λλ −= .

Funcţia de verosimilitate este

1

1 21 1

1( ) ( | ) e e! ! ! !

niii

i

n n x xnX i

i ni iL p x

x x x xλ λλλ λ λ =− −

= =

∑= = =∏ ∏ …,

prin logaritmarea căreia se obţine

( )1 21

ln ( ) ln ! ! ! ln( )n

n ii

L x x x n xλ λ λ=

= − − +

∑… .

Maximizarea funcţiei ( )L λ este echivalentă cu maximizarea logaritmului său, ln ( )L λ , ceea ce conduce la

1 1

ln ( ) 1 10 0n n

i ii i

d L n x xd n

λ λλ λ = =

= ⇔ − + = ⇒ =∑ ∑ .

Rezultă că estimatorul de verosimilitate maximă al ratei de sosire a apelurilor (cu distribuţie Poisson) este chiar media eşantionului considerat:

1

1ˆn

ii

X Xn

Λ=

= =∑ .

Page 66: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 56

Exemplul 2.8.3. Durata de execuţie a unei secvenţe de instrucţiuni, X, are distribuţie exponenţială de rată λ . Se doreşte estimarea ratei λ pe baza unui eşantion

1 1 2 2, , , n nX x X x X x= = =… . Densitatea de probabilitate a duratei X fiind ( | ) e x

Xf x λλ λ −= , funcţia de verosimilitate este dată de

1

1 1( ) ( | ) e e

nii i

i

n nxx n

X ii i

L f x λλλ λ λ λ =−−

= =

∑= = =∏ ∏ .

Prin derivarea acesteia rezultă

1 11

1

( ) e en n

i ii in

x xn ni

i

dL n xd

λ λλ λ λλ

= =− −−

=

∑ ∑= − ∑ .

Rezolvarea ecuaţiei 0dL dλ = conduce la 1

nii

n xλ=

= ∑ , astfel că estimatorul de

verosimilitate maximă al ratei λ a distribuţiei exponenţiale este de forma:

1

1ˆn

ii

nX

=

= =

∑,

fiind în concordanţă cu relaţia teoretică 1 M[ ]Xλ = .

2.8.1.2. Intervale de încredere Metodele de estimare a parametrilor prezentate anterior conduc la estimatori punctuali (eng. point estimate) ai parametrului investigat. Un estimator punctual θ coincide rareori cu parametrul estimat θ . Pentru un estimator Θ apare astfel problema determinării aşa-numitului interval de încredere (eng. confidence interval), în care, cu o probabilitate suficient de mare, se găseşte valoarea adevărată a parametrului estimat. Dacă, pentru 0 1γ< < , estimatorul Θ satisface condiţia ˆ ˆ[ ]P ε θ ε γ1 2Θ − < < Θ+ = , cu 1 2, 0ε ε > , (2.8.15)

se spune că intervalul ˆ ˆ, )ε ε1 2(Θ− Θ+ este un interval de 100γ % încredere pentru parametrul θ . Valoarea γ se numeşte coeficient de încredere (eng. confidence coefficient). Relaţia (2.8.15) are următoarea semnificaţie. Valoarea estimată θ pe baza unui set de valori

1 2, ,..., nx x x , poate să fie conţinută sau nu în intervalul ˆ ˆ, )θ ε θ ε1 2( − + , astfel că probabilitatea ˆ ˆ[ ]P θ ε θ θ ε1 2− < < + are valoarea 1 sau, respectiv, 0. Atunci când estimatorul Θ este

considerat ca funcţie de variabilele aleatoare 1 2, , , nX X X… , capetele intervalului ˆ ˆ, )ε ε1 2(Θ− Θ+ sunt variabile aleatoare şi are sens să afirmăm că probabilitatea ca intervalul

(aleator) ˆ ˆ, )ε ε1 2(Θ− Θ+ să conţină valoarea adevărată θ este γ . Dacă se repetă de un număr suficient de mare de ori, N, procesul de culegere a datelor experimentale şi cel de estimare a parametrului θ pe baza acestor date, atunci în Nγ din cazuri valoarea θ va fi conţinută în intervalul ˆ ˆ, )θ ε θ ε1 2( − + .

Page 67: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

57

O metodă simplă de obţinere a intervalului de încredere pentru un estimator nedeviat constă în aplicarea inegalităţii lui Cebîşev sub forma

ˆVar[ ]ˆ ˆ[ ] 1P ε θ ε

ε 2ΘΘ− < < Θ+ ≥ − , pentru 0ε > , (2.8.16)

cu condiţia ca dispersia estimatorului ˆVar[ ]Θ să fie cunoscută (sau să poată fi estimată).

Exemplul 2.8.4. Fie X o populaţie a cărei dispersie 2Var[ ]X σ= este cunoscută. Se doreşte estimarea valorii medii a populaţiei, θ µ= , utilizând estimatorul ˆ XΘ = , adică media pe un eşantion. Dacă lungimea eşantionului utilizat pentru estimare este n, atunci, conform relaţiei (2.8.4), 2ˆVar[ ] nσΘ = . Din (2.8.16), se obţine

2[ ] 1P X X

nσε θ εε 2− < < + ≥ − .

Pentru 0ε > fixat, putem determina un interval de încredere de nivel arbitrar de apropiat de 1 prin alegerea unei valori suficient de mare a lui n (prin colectarea unui eşantion suficient de mare).

2.8.2. Verificarea ipotezelor statistice În multe situaţii practice trebuie luate decizii asupra unei populaţii X pe baza informaţiei (limitate) conţinute într-un eşantion. Pentru aceasta, de regulă se formulează o ipoteză asupra naturii populaţiei studiate. O asemenea ipoteză, care poate fi adevărată sau falsă, se numeşte ipoteză statistică (eng. statistical hypothesis). Procedurile matematice care ne permit să decidem dacă respingem sau acceptăm o anumită ipoteză statistică, pe baza informaţiilor conţinute într-un eşantion, poartă denumirea de teste statistice (eng. statistical tests).

Procedura generală de testare este următoarea: se formulează aşa-numita ipoteză nulă (eng. null hypothesis), H0, care reprezintă, practic, o aserţiune despre distribuţia de probabilitate a populaţiei investigate. Ipoteza contrară se numeşte ipoteză alternativă (eng. alternate hypothesis), H1. Testul statistic se bazează pe un eşantion 1 2, ,..., nX X X de lungime n al populaţiei X. Procedura de testare statistică constă în împărţirea spaţiului de selecţie (al tuturor valorilor posibile ale n-uplului 1 2( , ,..., )nX X X ) în două regiuni, 0( )R H şi 1( )R H . Dacă n-uplul de selecţie 1 2( , , , )nx x x… se găseşte în 1( )R H , atunci ipoteza nulă H0 este respinsă. Pe de altă parte, dacă 1 2( , , , )nx x x… se găseşte în 0( )R H , atunci ipoteza nulă H0 este nu poate fi rejectată. Regiunea 0( )R H poartă denumirea de regiune de acceptare (eng. acceptance region), iar 1( )R H poartă denumirea de regiune de rejecţie sau critică (eng. rejection region).

În procesul de verificare a ipotezelor statistice se pot comite două tipuri de erori. O eroare de tipul I apare atunci când ipoteza nulă este adevărată, dar n-uplul de selecţie

1 2( , , , )nx x x… se găseşte în 1( )R H , astfel încât ipoteza H0 este respinsă. Probabilitatea de

Page 68: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 58

apariţie a acestei categorii de erori se notează cu α , 1 2 1 0[( , , , ) ( ) | ]nP x x x R H Hα = ∈… , şi reprezintă nivelul de semnificaţie (eng. level of significance) a testului statistic efectuat. Similar, o eroare de tipul II apare atunci când ipoteza nulă este falsă, dar n-uplul de selecţie

1 2( , , , )nx x x… se găseşte în 0( )R H , astfel încât ipoteza H0 este acceptată. Probabilitatea de apariţie a erorilor de tipul II se notează cu β , 1 2 0 1[( , , , ) ( ) | ]nP x x x R H Hβ = ∈… . Valoarea 1 β− reprezintă puterea (eng. power) testului statistic efectuat. Atunci când un test statistic este efectuat de un număr mare de ori, în 100 %α din cazuri ipoteza 0H va fi rejectată, deşi aceasta este adevărată, iar în 100 %β din cazuri, ipoteza 0H va fi acceptată, deşi aceasta este falsă. O eroare de tipul I sau II conduce la o concluzie greşită, astfel încât asemenea erori trebuie reduse. Fixând lungimea n a eşantionului, reducerea erorilor de un anumit tip conduce la creşterea erorilor de celălalt tip. Impunând α (de regulă 0,01 sau 0,05), valoarea lui β rezultă ca o consecinţă şi invers. Nu se poate afirma care din aceste probabilităţi trebuie să fie mai mică, neexistând o regulă în această privinţă. Singura modalitate de reducere simultană a erorilor de ambele tipuri este mărirea numărului n de măsurători ale căror rezultate se utilizează pentru testarea ipotezei. Testele statistice pot fi parametrice şi neparametrice. În cazul în care ipoteza nulă presupune adevărată egalitatea 0θ θ= şi se pune problema verificării inegalităţii dintre valoarea estimată şi cea adevărată a parametrului, pentru ipoteza alternativă 1H sunt posibile trei formulări: 1 0:H θ θ≠ (test bilateral), 1 0:H θ θ> (test unilateral stânga) şi 1 0:H θ θ< (test unilateral dreapta) (fig. 2.8.1).

(a) (b) (c)

Fig. 2.8.1. Reprezentarea grafică a unui test: (a) bilateral, (b) unilateral stânga şi (c) unilateral dreapta.

În verificarea ipotezelor statistice apar două cazuri distincte. Presupunând cunoscut tipul distribuţiei de probabilitate a populaţiei X, fie unul sau mai mulţi parametri ai acesteia trebuie estimaţi, fie trebuie verificată o relaţie între aceşti parametri. Pentru aceasta, există teste specializate care privesc valoarea medie sau dispersia populaţiei. O altă situaţie este aceea în care distribuţia de probabilitate a populaţiei investigate este necunoscută şi se pune problema concordanţei (eng. goodness of fit) dintre repartiţia empirică F şi o repartiţie teoretică postulată 0F .

Page 69: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

59

Pentru o populaţie cu distribuţie continuă de probabilitate cel mai des utilizat test de acest tip este testul Kolmogorov-Smirnov (Bolch et al., 1998). Pentru aplicarea acestuia, pe baza valorilor colecţionate într-un eşantion 1 2, ,..., nx x x , se calculează mai întâi funcţia

empirică de repartiţie ˆ ( )nF x conform relaţiei (2.8.9). O măsură logică a deviaţiei repartiţiei

empirice de la cea teoretică o constituie 0ˆ( ) | ( ) ( ) |n nd x F x F x= − . Statistica testului reprezintă

distanţa maximă dintre funcţia de repartiţie empirică şi cea teoretică: 0

ˆsup ( ) sup | ( ) ( ) |n n nx x

D d x F x F x= = − . (2.8.17)

Avantajul oferit de testul Kolmogorov-Smirnov constă în aceea că distribuţia statisticii nD depinde numai de lungimea n a eşantionului utilizat, fiind independentă de repartiţia

teoretică 0F . În funcţie de nivelul de semnificaţie α impus pentru acest test, valorile critice ale statisticii nD , notate ;nd α , sunt tabelate. Ipoteza nulă 0H este rejectată cu nivelul de semnificaţie α dacă valoarea calculată a statisticii nD depăşeşte valoarea critică ;nd α .

Exemplul 2.8.5. Se doreşte verificarea experimentală (în mediul Matlab) a afirmaţiei următoare: dacă 1 2 3, , ( )X X X λE∼ sunt variabile aleatoare independente distribuite exponenţial cu aceeaşi rată 2λ = , atunci variabila 1 2 3Z X X X= + + are distribuţie Erlang de ordin 3n = şi parametru 2λ = , (3,2)Z Er∼ .

(a)

0 0.5 1 1.5 2 2.5 30

1

2

3

4

5

6Histograma setului de date X1

(b)

0 0.5 1 1.5 2 2.5 30

0.5

1

1.5

2

2.5

3

3.5

4

4.5

5Histograma setului de date X2

(c)

0 0.5 1 1.5 2 2.5 3 3.5 40

1

2

3

4

5

6

7

8

9

10Histograma setului de date X3

(d)

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

1

2

3

4

5

6Histograma setului de date Z = X1 + X2 + X3

Fig. 2.8.2. Histogramele unor realizări de lungime 100n = corespunzătoare

variabilelor: (a) 1X , (b) 2X , (c) 3X şi (d) Z .

Page 70: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 60

Pentru verificarea afirmaţiei din enunţ se utilizează testul Kolmogorov-Smirnov, considerând ipoteza nulă 0H : funcţia (teoretică) de repartiţie a lui Z este

( )2 20 ( ) 1 1 2 4 2 e xF x x x −= − + + , pentru 0x > . Efectuăm un test bilateral, considerând

ipoteza alternativă 1 0ˆ: ( ) ( )H F x F x≠ , şi nivelul de semnificaţie 0,05α = .

Mai întâi lucrăm cu eşantioane de lungime 100n = . Figura 2.8.2 prezintă histogramele realizărilor corespunzătoare variabilelor (a) 1X , (b) 2X , (c) 3X şi (d) Z . Funcţia Matlab kstest returnează valoarea statisticii testului 100 0,0815D = şi valoarea critică 100; 0,1340d α = , astfel încât ipoteza 0H nu este rejectată. Figura 2.8.3 ilustrează comparaţia grafică dintre funcţiile empirice şi teoretice (a) de densitate de probabilitate şi, respectiv, (b) de repartiţie.

(a)

0 0.5 1 1.5 2 2.5 3 3.5 4

0

0.2

0.4

0.6

0.8

1

1.2

1.4Comparatie PDF empiric vs. Erlang(3, λ)

x

f(x)

λ = 2

PDF empiricPDF Erlang(3, λ)

(b)

0 0.5 1 1.5 2 2.5 3 3.5 4

0

0.2

0.4

0.6

0.8

1

Comparatie CDF empiric vs. Erlang(3, λ)

x

F(x)

λ = 2

CDF empiricCDF Erlang(3, λ)

Fig. 2.8.3. Comparaţia grafică dintre funcţiile empirice şi teoretice: (a) de densitate de

probabilitate şi (b) de repartiţie, pentru un eşantion de lungime 100n = . Repetăm testul pentru eşantioane de lungime 10.000n = , pentru care funcţia Matlab kstest returnează valoarea statisticii testului 10000 0,0059D = şi valoarea critică

10000; 0,0136d α = , astfel încât ipoteza 0H nu este rejectată. Figura 2.8.4 prezintă comparaţia grafică dintre funcţiile empirice şi teoretice: (a) de densitate de probabilitate şi, respectiv, (b) de repartiţie.

(a)

0 1 2 3 4 5 6 7 8

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7Comparatie PDF empiric vs. Erlang(3, λ)

x

f(x)

λ = 2

PDF empiricPDF Erlang(3, λ)

(b)

0 1 2 3 4 5 6 7 8

0

0.2

0.4

0.6

0.8

1

Comparatie CDF empiric vs. Erlang(3, λ)

x

F(x)

λ = 2

CDF empiricCDF Erlang(3, λ)

Fig. 2.8.4. Comparaţia grafică dintre funcţiile empirice şi teoretice: (a) de densitate de

probabilitate şi (b) de repartiţie, pentru un eşantion de lungime 10.000n = .

Page 71: Matcovschi Lanturi Sist Astept Markov

Cap. 2. Elemente de teoria probabilităţilor şi statistică matematică

61

Metodele grafice de verificare a concordanţei dintre repartiţia empirică F şi o repartiţie teoretică postulată 0F se bazează pe conceptul de transformare a datelor astfel încât prin reprezentarea grafică a punctelor generate să se obţină aproximativ o dreaptă. În cazul în care punctele obţinute nu sunt coliniare, populaţia investigată nu are repartiţia 0F . Considerăm mai întâi cazul testării unei distribuţii exponenţiale: 0 ( ) 1 e , 0tF t tλ−= − ≥ , (2.8.18)

pentru care este satisfăcută relaţia: [ ]0 01 ( ) e ln 1 ( )tF t F t tλ λ−− = ⇔ − − = . (2.8.19)

Dacă pentru toate valorile din eşantionul selectat, 1 2, , , nx x x… , punctele de coordonate

( )ˆ, ln[1 ( )]i ix F x− − sunt plasate pe o dreaptă (d) ce trece prin originea sistemului de

coordonate, atunci populaţia studiată are distribuţie exponenţială a cărei rată λ este egală cu panta dreptei (d).

Un test similar se poate efectua pentru o distribuţie de tip Weibull, caz în care se obţine relaţia:

[ ] 0 0( ) 1 e ln ln 1 ( ) ln lntF t F t tβα β α−= − ⇔ − − = + . (2.8.20)

Dacă pentru toate valorile din eşantionul selectat, 1 2, , , nx x x… , punctele de coordonate

( )ˆln( ), ln ln[1 ( )]i ix F x− − sunt plasate pe o dreaptă (d), atunci populaţia studiată are

distribuţie Weibull pentru care parametrul α este egal cu ordonata punctului de intersecţie cu axa ordonatelor, iar parametrul β este egal cu panta dreptei (d).

Exemplul 2.8.6. Ilustrăm în continuare utilizarea testului Kolmogorov-Smirnov şi a celor două teste grafice în cazul generării unui set de numere aleatoare cu distribuţie exponenţială prin metoda transformatei inverse (vezi paragraful 2.5). Pentru aceasta, generăm mai întâi un eşantion X de lungime 1.000n = de numere uniform distribuite în intervalul [0, 1] (fig. 2.8.5.(a)), căruia îi aplicăm funcţia :[0,1)g → ,

( )( ) 2 ln 1g x x= − − , obţinând eşantionul Y (fig. 2.8.5.(b)).

(a)

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

0

5

10

15

20

25

30

35

40

45

50Histograma setului de date X

N =1000

(b)

0 2 4 6 8 10 120

20

40

60

80

100

120

140

160

180

200Histograma setului de date Y = G(X)

N =1000

Fig. 2.8.5. Histograma unei realizări de lungime 1.000n = corespunzătoare

variabilei: (a) X şi, respectiv, (b) ( )Y g X= .

Page 72: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 62

Pentru testul Kolmogorov-Smirnov, considerăm ipoteza nulă: 0H : funcţia de

repartiţie a lui Y este 1 0.50 ( ) ( ) 1 e xF x g x− −= = − , pentru 0x > . Efectuăm un test

bilateral, astfel încât ipoteza alternativă este 1 0ˆ: ( ) ( )H F x F x≠ , considerând nivelul de

semnificaţie 0,05α = . Funcţia Matlab kstest returnează valoarea statisticii testului 1000 0,0275D = şi valoarea critică 1000; 0,0428d α = , astfel încât ipoteza 0H nu este rejectată. Figura 2.8.6 prezintă comparaţia grafică dintre funcţiile empirice şi teoretice: (a) de densitate de probabilitate şi, respectiv, (b) de repartiţie.

(a)

0 2 4 6 8 10 120

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5Comparatie PDF empirica vs. teoretica

λ = 0.5

x

f(x)

N = 1000

PDF empiricaPDF Expo(λ)

(b)

0 2 4 6 8 10 120

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Comparatie CDF empirica vs. teoretica

x

F(x)

λ = 0.5N = 1000

CDF empiricaCDF Expo(λ)

Fig. 2.8.6. Comparaţia grafică dintre funcţiile empirice şi teoretice: (a) de densitate de

probabilitate şi (b) de repartiţie, pentru un eşantion de lungime 1.000n = . Figura 2.8.5 ilustrează aplicarea metodei grafice de verificare a concordanţei dintre distribuţia empirică a setului de date ( )Y g X= şi (a) o distribuţie exponenţială, respectiv, (b) o distribuţie Weibull. Se observă că ipoteza distribuţiei exponenţiale a acestui set de date poate fi acceptată, în timp ce ipoteza distribuţiei Weibull poate fi rejectată.

(a)

0 2 4 6 8 10 12

0

1

2

3

4

5

6

7Test grafic - distributie exponentiala

x

-ln[ 1

-Fe(

x) ]

(b)

-1 -0.5 0 0.5 1 1.5 2 2.5-2

-1.5

-1

-0.5

0

0.5

1

1.5

2Test grafic - distributie Weibull

ln(x)

ln[

-ln[ 1

-Fe(

x) ]

]

Fig. 2.8.7. Ilustrarea metodei grafice de verificare a concordanţei dintre distribuţia

empirică a setului de date ( )Y g X= şi: (a) o distribuţie exponenţială, respectiv, (b) o distribuţie Weibull.

Page 73: Matcovschi Lanturi Sist Astept Markov

Capitolul 3 Lanţuri Markov

„Though this be madness, yet there is method in’t.” William Shakespeare, Hamlet

Procesele Markov reprezintă un tip particular de procese stohastice, a căror proprietate caracteristică este aceea că nu au memorie. Evoluţia viitoare a unui proces Markov este influenţată numai de starea curentă a acestuia. Dacă procesul Markov poate avea numai un număr finit sau numărabil de stări, atunci este denumit lanţ. Lanţurile Markov constituie cel mai important exemplu de proces stohastic, studiul matematic al proceselor stohastice putând fi privit ca o generalizare într-un sens sau altul a teoriei lanţurilor Markov. Acestea au fost introduse în matematică în anul 1907 de către Andrei Andreevici Markov (1856-1922), profesor la universitatea din Sankt Petersburg. Lucrările sale au lansat practic teoria proceselor stohastice. În 1923 Norbert Wiener a fost primul care a tratat riguros matematic procesele Markov continue. Teoria generală a fost fundamentată în anii 1930 de către Andrei Kolmogorov. Deşi la momentul respectiv Markov a găsit puţine aplicaţii practice ale teoriei ce îi poartă numele, astăzi sunt întâlnite aplicaţii în cele mai variate domenii, de la tehnologie şi ştiinţe fizice, până la biologie şi sociologie.

3.1. Procese stohastice

3.1.1. Noţiuni generale Un proces stohastic X (eng. stochastic process) reprezintă o familie de variabile aleatoare definite pe un câmp de probabilitate ( ), , PΩ E indexate după un parametru t∈T (care, de regulă, are semnificaţia de timp), :X Ω× →T . Pentru t∈T fixat, ( , )X t ω este o variabilă aleatoare, ( ) :X t Ω→ , numită eşantion (eng. sample) al procesului stohastic. Pentru ω Ω∈

Andrei A. Markov

Page 74: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 64

fixat se obţine o funcţie definită pe T , numită realizare sau traiectorie (eng. sample path) a procesului stohastic. Mulţimea tuturor valorilor posibile ale unui proces stohastic,

( , ) ,X t tω ω Ω= ∈ ∈S T , se numeşte spaţiul stărilor (eng. state space) procesului respectiv. Procesele stohastice pot fi clasificate după natura discretă sau continuă a spaţiului stărilor şi a spaţiului parametrilor. Procesele stohastice pentru care spaţiul stărilor este discret (mulţime finită sau numărabilă) se numesc lanţuri (eng. chain). Dacă mulţimea T pe care este definită variabila temporală t este discretă se spune că procesul stohastic este discret în timp (eng. discrete-time stochastic process); în acest caz se consideră =0,1,2,...⊆T iar procesul stohastic (denumit şi secvenţă stohastică) este notat kX , 0,1, 2,...k = . Un proces stohastic pentru care +=T este referit drept proces stohastic continuu în timp (eng. continuous-time stochastic process). În studiul unui proces stohastic X prezintă interes atât distribuţii dependente de timp (probabilitatea ca, pentru un anumit t fixat, variabila aleatoare ( )X t să ia valori într-o anumită submulţime a spaţiului stărilor S ), cât şi distribuţii staţionare (probabilitatea ca variabila aleatoare ( )X t să ia valori într-o anumită submulţime a spaţiului stărilor S pentru valori foarte mari ale parametrului t) asociate procesului. Pentru o anumită stare fixată x∈S a procesului, este studiată probabilitatea ca procesul să ajungă vreodată în acea stare, ca şi momentul la care va ajunge prima dată în x pornind dintr-o anumită stare iniţială. De asemenea, un alt aspect examinat este relaţia care există între variabilele aleatoare ( )X s şi

( )X t la două momente diferite de timp s şi t. În principiu, pentru a caracteriza un proces stohastic trebuie precizate funcţiile de repartiţie ale tuturor variabilelor aleatoare care definesc procesul. Considerând un n-uplu

1 2( , , , ) nnt t t ∈… T , se defineşte vectorul aleator ( )1 2( ), ( ), , ( )nX t X t X t… , a cărui funcţie de

repartiţie, 1 2 1 2 1 1 2 2( , , , ; , , , ) [ ( ) , ( ) , , ( ) ]X n n n nF t t t x x x P X t x X t x X t x= ≤ ≤ ≤… … … , (3.1.1)

definită pentru 1 2( , , , ) nnx x x ∈… , reprezintă caracteristica statistică de ordinul n (eng. n-th

order distribution) a procesului stohastic X. O caracterizare completă a unui proces stohastic necesită cunoaşterea caracteristicilor sale statistice de orice ordin n ∗∈ şi pentru toate combinaţiile posibile 1 2( , , , ) n

nt t t ∈… T . Caracteristica statistică de ordinul 1, denumită uneori şi funcţia de repartiţie a procesului stohastic X, reprezintă practic o familie de funcţii indexate după parametrul t∈T . Pentru fiecare t∈T , aceasta este egală cu funcţia de repartiţie a variabilei aleatoare ( )X t , ( )( , ) ( ) [ ( ) ], ,X X tF t x F x P X t x x t= = ≤ ∈ ∈T . (3.1.2)

Similar se defineşte densitatea de probabilitate a procesului stohastic X ca reprezentând densitatea de probabilitate a variabilei aleatoare ( )X t , pentru orice t∈T . Valoarea medie a unui proces stohastic X este funcţia ( )Xm t care, pentru fiecare moment t∈T , reprezintă valoarea medie a variabilei aleatoare ( )X t : : , ( ) [ ( )],X Xm m t M X t t→ = ∈T T . (3.1.3)

Page 75: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

65

Distribuţia staţionară de probabilitate a procesului stohastic X este definită prin ( ) lim [ ( ) ],

tF x P X t x x

→∞= ≤ ∈ , (3.1.4)

dacă această limită există. Funcţia de autocorelaţie a procesului stohastic X este funcţia de două argumente

( , )XR t t′ egală cu covarianţa variabilelor aleatoare ( )X t şi ( )X t′ (vezi secţiunea 2.3.4)

: , ( , ) Cov[ ( ), ( )], ,X XR R t t X t X t t t′ ′ ′× → = ∈T T T . (3.1.5)

Un proces stohastic X pentru care caracteristicile statistice de orice ordin rămân nemodificate printr-o translaţie în timp 1 2 1 2 1 2 1 2( , , , ; , , , ) ( , , , ; , , , )X n n X n nF t t t x x x F t t t x x xτ τ τ= + + +… … … … , (3.1.6)

se numeşte staţionar (eng. stationary process). Dacă un proces stohastic este staţionar, atunci funcţia sa de repartiţie şi, implicit, densitatea de probabilitate, sunt independente de timp. De asemenea, pentru un proces stohastic staţionar, valoarea medie este constantă iar funcţia de corelaţie depinde numai de diferenţa dintre argumentele sale, ( , ) ( )X XR t t R τ′ = , cu t tτ ′= − , fiind o funcţie pară, ( ) ( )X XR Rτ τ= − (Voicu, 1980).

Un proces stohastic staţionar se numeşte ergodic (eng. ergodic) în cazul în care toate caracteristicile sale statistice (de orice ordin) pot fi determinate pe baza unei singure realizări (pe o durată de timp infinit de lungă). Orice realizare pe o durată de timp suficient de mare a unui proces stohastic staţionar şi ergodic poate fi utilizată pentru caracterizarea procesului însuşi (Voicu, 1980).

3.1.2. Procese Markov Se spune că un proces stohastic X este un proces de tip Markov (eng. Markov process) dacă posedă proprietatea de lipsă a memoriei (denumită şi proprietate Markov): pentru orice

0 1 1k kt t t t +< < < <… , distribuţia de probabilitate a variabilei 1( )kX t + condiţională de valorile variabilelor 0( )X t , 1( )X t , …, ( )kX t , depinde numai de ( )kX t :

1 1 1 0 0 1[ ( ) | ( ) , , ( ) , ( ) ] [ ( ) | ( ) ]k k k k k kP X t x X t x X t x X t x P X t x X t x+ +≤ = = = = ≤ =… .(3.1.7)

În numeroase cazuri distribuţia condiţională ce intervine în (3.1.7) este independentă de valorile absolute ale momentelor de timp kt şi 1kt + , depinzând numai de diferenţa dintre acestea: 1 1[ ( ) | ( ) ] [ ( ) | (0) ]k k k k k kP X t x X t x P X t t x X x+ +≤ = = − ≤ = . (3.1.8)

În această situaţie se spune că procesul Markov este omogen în timp (eng. time-homogeneous). Trebuie de asemenea remarcat faptul că staţionaritatea distribuţiei condiţionale nu implică staţionaritatea procesului Markov.

Relaţia (3.1.7) se aplică proceselor pentru care spaţiul stărilor este continuu. În cele ce urmează o atenţie deosebită va fi acordată proceselor Markov cu spaţiul stărilor de tip discret, procese denumite lanţuri Markov (eng. Markov chain), pentru care relaţia (3.1.7) se scrie în forma:

Page 76: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 66

1 1 1 1 0 0

1 1

[ ( ) | ( ) , , ( ) , ( ) ][ ( ) | ( ) ].

k k k k

k k k k

P X t x X t x X t x X t xP X t x X t x

+ +

+ +

= = = = =

= = =

… (3.1.9)

În cazul lanţurilor Markov în timp discret, tranziţiile de stare pot avea loc numai la momentele 0,1, 2, , ,k… … , astfel încât asemenea lanţuri sunt caracterizate prin relaţia: 1 1 1 1 0 0 1 1[ | , , , ] [ | ]k k k k k k k kP X x X x X x X x P X x X x+ + + += = = = = = =… . (3.1.10)

Conceptual, ideea ca starea prezentă a unui sistem să reflecte întreaga istorie a sistemului nu reprezintă o constrângere extremă. De exemplu, lanţul ce descrie un joc de şah (în care se poate asocia o anumită probabilitate mutării următoare) posedă proprietatea Markov. Starea curentă de pe tabla de şah reflectă întreaga istorie a jocului, iar probabilitatea de a face o anumită mutare (deci, de a avea loc o tranziţie într-o nouă stare) depinde numai de starea curentă. Trebuie, de asemenea, subliniat faptul că proprietatea de lipsă a memoriei are două aspecte importante: (M1) Toate informaţiile despre stările trecute sunt irelevante (lipsă de memorie a stărilor – no state memory needed). (M2) Nu contează de cât timp se află sistemul în starea curentă (lipsă de memorie a „vârstei” stărilor – no state age memory needed). Condiţia (M2) reprezintă o restricţie impusă variabilelor aleatoare ce specifică duratele de timp dintre două tranziţii de stare succesive, care trebuie să posede proprietatea de lipsă a memoriei. Pentru procesele în timp discret, condiţia (M2) are drept consecinţă faptul că duratele de timp pe care le petrece lanţul în fiecare stare au distribuţie geometrică. Pentru procesele în timp continuu, aceste durate au distribuţie exponenţială.

Exemplul 3.1.1. Se consideră lanţul discret în timp definit prin relaţia 1 1k k kX X X+ −= − , având spaţiul stărilor , 2, 1,0,1,2, = − −S … … . Starea iniţială a

lanţului este precizată prin probabilităţile: 0[ 0] 0,5P X = = , 0[ 1] 0,5P X = = ,

1[ 0] 0,5P X = = , 1[ 1] 0,5P X = = . Caracterul aleator al acestui proces este dat numai de incertitudinea asupra stării iniţiale; odată ce aceasta este precizată, evoluţia procesului are caracter determinist. Două traiectorii de stare posibile ale acestui proces sunt:

1 : 0,0,0,0,0,0,0,0,ω … , 2 : 1,0, 1, 1,0,1,1,0,ω − − … . Din relaţia de definiţie a lanţului rezultă că starea 1kX + depinde nu numai de kX ci şi de 1kX − , deci acest lanţ nu posedă proprietatea Markov. La această concluzie se poate ajunge şi observând că au loc relaţiile 2 1 0[ 0 | 0, 0] 1P X X X= = = = şi

2 1 0[ 0 | 0, 1] 0P X X X= = = = , cele două probabilităţi depinzând de valoarea lui 0X . Definind vectorul aleator [ , ]T

k k kZ X Y= , cu 1k kY X −= , se poate genera lanţul vectorial

11

1

1 1 1 11 0 1 0

k kk k

k k

X XZ Z

Y Y+

++

− − = = = ,

care posedă proprietatea Markov, deoarece informaţia despre starea curentă, [ , ]T

k k kz x y= , este suficientă pentru a determina starea următoare, 1 1 1[ , ]Tk k kz x y+ + += .

Page 77: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

67

Are loc relaţia: 1 1[ , ] | [ , ] 1T T

k k k k k k kP Z x y x Z x y+ −= − = = , această probabilitate fiind independentă de stările trecute 1 0, ,kZ Z− … .

Procesele de tip semi-Markov reprezintă o extindere a noţiunii de proces Markov prin relaxarea condiţiei (M2), astfel încât duratele de timp dintre două tranziţii de stare consecutive pot avea o distribuţie arbitrară de probabilitate. Condiţia (M1) se păstrează, astfel încât, probabilitatea de a trece într-o nouă stare depinde numai de starea curentă, fiind independentă de stările trecute.

3.1.3. Fluxuri de evenimente Un flux de evenimente (eng. flow of events) este un şir de evenimente omogene (ca natură) care apar unul după celălalt la momente de timp aleatoare. Pentru o anumită realizare a unui astfel de flux de evenimente se poate construi imaginea grafică din fig. 3.1.1, în care 1Y , 2Y , …,

kY , …, reprezintă momentele de timp la care apar evenimentele. Fluxul de evenimente poate fi privit ca un şir de variabile aleatoare de forma 1 1Y T= , 2 1 2Y Y T= + ,

3 2 3 1 2 2Y Y T T T T= + = + + , …, 1 1 2k k k kY Y T T T T−= + = + + +… , …

Fig. 3.1.1. Reprezentarea grafică a unei realizări a unui flux de evenimente.

Pentru un flux staţionar de evenimente, probabilitatea de a se produce un anumit număr de evenimente într-un interval de timp 0 0[ , ]t t τ+ depinde numai de lungimea intervalului, τ , şi nu depinde de situarea acestui interval pe axa timpului. Un flux de evenimente se numeşte ordinar dacă probabilitatea apariţiei a două sau mai multe evenimente într-un interval de timp elementar t∆ este neglijabilă în raport cu probabilitatea apariţiei unui singur eveniment în acest interval elementar. Altfel spus, într-un flux ordinar probabilitatea apariţiei simultane a două sau mai multe evenimente este nulă. Din acest motiv, un flux ordinar de evenimente poate fi interpretat ca un proces stohastic în care

( )X t are semnificaţia numărului de evenimente ce au apărut până la momentul t. ( )X t este incrementat cu o unitate la fiecare moment 1Y , 2Y , …, kY , …, când apar evenimentele fluxului. Pentru o realizare a procesului stohastic ( )X t se poate utiliza o reprezentare grafică de tipul celei schiţate în fig. 3.1.2. Proprietatea Markov (3.1.7) pentru un flux ordinar de evenimente are semnificaţia că probabilitatea de apariţie a unui anumit număr de evenimente într-un interval de timp arbitrar

0 1Y 2Y 3Y

T2

1kY − kY 1kY +

t

T3 Tk+1τ

0t

T1 Tk

Page 78: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 68

de lungime τ nu depinde de numărul de evenimente produse în oricare alte intervale de timp. Cu alte cuvinte, absenţa memoriei înseamnă că evenimentele ce alcătuiesc fluxul apar la momente de timp independente.

Fig. 3.1.2. Reprezentarea grafică a unei realizări a fluxului ordinar ( )X t .

Un flux de evenimente se numeşte elementar (eng. elementary flow) dacă este staţionar, ordinar şi fără memorie.

3.1.3.1. Fluxuri de tip Bernoulli Fie un flux ordinar de evenimente, în timp discret, pentru care probabilitatea de apariţie a unui eveniment la un moment oarecare k este aceeaşi pentru orice k∈ . Se consideră variabila aleatoare kX pentru care evenimentul [ 1]kX = are semnificaţia de apariţie a unui eveniment la momentul k, iar [ 0]kX = înseamnă că la momentul k nu s-a produs nici un eveniment. Notând cu p ( 0 1p< < ) probabilitatea de apariţie a unui eveniment la un moment oarecare, variabilele aleatoare 0X , 1X , …, kX , …, sunt independente şi au distribuţie Bernoulli de parametru p . Procesul stohastic | 0,1, 2, kX k = … este denumit flux de evenimente de tip Bernoulli (proces Bernoulli). Presupunem că un proces Bernoulli a fost urmărit timp de n paşi şi au fost înregistrate valorile experimentale ale variabilelor 0 1 1, , , nX X X −… . Viitorul acestui proces este reflectat de variabilele aleatoare 1, ,n nX X + … , care sunt atât mutual independente, cât şi independente de trecutul procesului, 0 1 1, , , nX X X −… . Secvenţa de variabile 1, ,n nX X + … formează, de asemenea, un proces Bernoulli. Aceasta înseamnă că, pentru un proces Bernoulli, nu are importanţă momentul la care începe observarea acestuia.

Se notează cu kY momentul apariţiei celui de-al k-lea eveniment în fluxul Bernoulli studiat (cu convenţia 0 0Y = ) şi cu kT , 1k k kT Y Y −= − , 1,2,k = … , duratele dintre apariţiile a două evenimente consecutive. Ţinând cont de definiţia distribuţiei geometrice şi de faptul că aceasta este lipsită de memorie, rezultă că variabilele aleatoare kT , 1,2,k = … , au distribuţie

0 1Y 2Y 3Y

1

1kY − kY t

2

k-1

( )X t

3

k

Page 79: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

69

geometrică de parametru p. Durata medie dintre apariţiile a două evenimente consecutive este dată de M[ ] 1kT p= , iar dispersia acestor durate este 2Var[ ] (1 )X p p= − . Variabila aleatoare kY , 1,2,k = … , reprezintă suma a k variabile independente identic distribuite după o distribuţie geometrică de parametru p, 1 2k kY T T T= + + +… , având astfel proprietăţile:

1 2M[ ] M[ ] M[ ] M[ ]k kkY T T Tp

= + + + =… , (3.1.11)

1 2(1 )Var[ ] Var[ ] Var[ ] Var[ ]k k

k pY T T Tp−

= + + + =… . (3.1.12)

Densitatea sa de probabilitate este: 1

1( ) [ ] (1 )k

k k m kY k mp m P Y m C p p− −

−= = = − , , 1,m k k= + …, (3.1.13)

distribuţia lui kY fiind cunoscută sub numele de distribuţie Pascal de ordinul k.

Unui flux Bernoulli | 0,1, 2, kX k = … i se poate asocia procesul stohastic dat de sumele parţiale | 0,1, 2, kN k = … , unde 0 1k kN X X X= + + +… reprezintă numărul de evenimente care au apărut până la momentul k inclusiv. Pe baza relaţiei de recurenţă

1k k kN N X−= + se poate demonstra că kN este un lanţ Markov în timp discret (adică este fără memorie), deoarece sunt satisfăcute relaţiile: 1[ | ] [ 0] 1k k kP N n N k P X p−= = = = = − , k ∗∀ ∈ , (3.1.14)

1[ | 1] [ 1]k k kP N n N n P X p−= = − = = = , k ∗∀ ∈ . (3.1.15)

Variabila aleatoare kN are distribuţie binomială de parametri k şi p, ( , )kN k pBin∼ , procesul stohastic kN fiind denumit proces binomial. Figura 3.1.3 arată reprezentările grafice ale proceselor kX şi kN corespunzătoare unei realizări a unui proces Bernoulli de parametru 0.25p = .

0 2 4 6 8 10 12 14 16 18 200

0.2

0.4

0.6

0.8

1

Proces Bernoulli, p =0.25

k

Xk

0 2 4 6 8 10 12 14 16 18 20

0

1

2

3

4

5

6Numar de evenimente

k

Nk

p =0.25

Fig. 3.1.3. Reprezentarea grafică a unei realizări a unui flux Bernoulli.

Exemplul 3.1.2. Se consideră transmiterea unui pachet de 30 de mesaje. Pentru fiecare mesaj, probabilitatea de transmitere eronată este p. Sunt suportate cel mult 5

Page 80: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 70

erori de transmisie; la producerea celei de-a şasea erori, transmiterea pachetului este sistată. Erorile de transmisie pot fi modelate ca un proces Bernoulli de parametru p. Variabila kY corespunde mesajului la transmiterea căruia s-a produs cea de-a k eroare,

1,2,k = … . Numărul de mesaje transmise este 6min ,30Z Y= , 6,7, 30Z ∈ … . Variabila aleatoare 6Y are distribuţie Pascal de ordinul 6,

6

5 6 66 1( ) [ ] (1 )m

Y mp m P Y m C p p −−= = = − , 6,7,m = … ,

astfel încât densitatea de probabilitate a lui Z este dată de relaţiile: 5 6 6

1( ) [ ] (1 )mZ mp m P Z m C p p −

−= = = − , 6,7, , 29m = … , 29 29

5 6 61

6 6(30) [ 30] 1 ( ) 1 (1 )m

Z Z mm m

p P Z p m C p p −−

= =

= = = − = − −∑ ∑ .

Fie un flux de evenimente de tip Bernoulli, pentru care probabilitatea de apariţie a unui eveniment la un moment oarecare este p. Acest flux se scindează (eng. split) în modul următor: de câte ori apare un eveniment, acesta se reţine (cu probabilitatea q), formând fluxul de evenimente Y, sau se renunţă la el (cu probabilitatea 1 q− ), formând fluxul de evenimente Z (fig. 3.1.3). Fluxurile Y şi Z obţinute în acest mod sunt, de asemenea, fluxuri de tip Bernoulli, de parametri pq şi, respectiv, (1 )p q− . În fig. 3.1.4 sunt reprezentate grafic o realizare a unui flux Bernoulli ( )X t de parametru 0, 25p = , şi realizările corespunzătoare proceselor Y şi Z obţinute prin separarea lui X pentru 0,75q = .

0 2 4 6 8 10 12 14 16 18 200

0.2

0.4

0.6

0.8

1

Flux initial, Bernoulli, p = 0.25

X [k

]

0 2 4 6 8 10 12 14 16 18 200

0.2

0.4

0.6

0.8

1

Flux Y, p*q = 0.1875

Y [k

]

0 2 4 6 8 10 12 14 16 18 200

0.2

0.4

0.6

0.8

1

Flux Z, p*(1-q) = 0.0625

Z [k

]

k

Fig. 3.1.4. Reprezentarea grafică a separării unui flux Bernoulli ( )X t .

Page 81: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

71

Situaţia opusă este cea în care două fluxuri independente de tip Bernoulli, Y şi Z, de parametri p şi, respectiv, q, sunt combinate (eng. merge) pentru a forma un nou flux X. Un eveniment este înregistrat în fluxul X dacă şi numai dacă apare un eveniment în cel puţin unul din fluxurile Y şi Z, ceea ce se întâmplă cu probabilitatea 1 (1 )(1 )r p q p q pq= − − − = + − . Fluxul rezultat astfel, X, este de tip Bernoulli de parametru r p q pq= + − . În fig. 3.1.5 sunt reprezentate grafic câte o realizare a fluxurilor Bernoulli ( )Y t , de parametru 0, 25p = , şi ( )Z t , de parametru 0,10q = , precum şi fluxul X rezultat prin combinarea acestora.

0 2 4 6 8 10 12 14 16 18 200

0.2

0.4

0.6

0.8

1

Flux Y, Bernoulli, p = 0.25

Y [k

]

0 2 4 6 8 10 12 14 16 18 200

0.2

0.4

0.6

0.8

1

Flux Z, Bernoulli, q = 0.1

Z [k

]

0 2 4 6 8 10 12 14 16 18 200

0.2

0.4

0.6

0.8

1

Flux rezultat, r = p+q-p*q = 0.325

X [k

]

k

Fig. 3.1.5. Reprezentarea grafică a combinării a două fluxuri Bernoulli ( )Y t şi ( )Z t .

Cele două operaţii de separare şi combinare a fluxurilor Bernoulli apar frecvent în practică. De exemplu, două maşini ale unui centru de prelucrare sunt alimentate de pe un flux comun de piese, din care se separă aleator piesele trimise la fiecare maşină. Invers, o maşină poate fi alimentată din mai multe fluxuri de piese, care sunt combinate în unul singur pentru a fi prelucrate. O generalizare a fluxurilor de tip Bernoulli se obţine în cazul în care se renunţă la ipoteza că probabilitatea de apariţie a unui eveniment este aceeaşi în orice moment. Fluxul ordinar de evenimente în care variabilele aleatoare 0X , 1X , …, kX , …, sunt independente,

kX având distribuţie Bernoulli de parametru kp ( 0 1kp< < ), se numeşte flux Bernoulli neomogen (eng. non-homogeneous Bernoulli process).

Page 82: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 72

3.1.3.2. Fluxuri de tip Poisson Fluxurile de evenimente de tip Poisson reprezintă echivalentul în timp continuu al fluxurilor de tip Bernoulli din timp discret. Considerăm un flux de evenimente care evoluează în timp continuu, în sensul că este posibilă apariţia unui eveniment în orice moment t. Notăm cu ( )N t numărul de evenimente ce au apărut de la momentul iniţial 0 0t = până la momentul 0t ≥ inclusiv. Fluxul de evenimente este de tip Poisson (proces Poisson) cu rată λ ( 0λ > ) dacă îndeplineşte următoarele condiţii:

(P1) Probabilitatea de apariţie a unui număr de k evenimente într-un interval de timp ( , ]s s t+ , ( , ) [ ( ) ( ) ]P k t P N s t N s k= + − = , este independentă de poziţionarea intervalului pe axă, depinzând numai de lungimea acestuia (procesul este omogen în timp).

(P2) Numărul de evenimente care apar într-un interval oarecare de timp este independent de numărul de evenimente care apar în orice alt interval de timp, dacă cele două intervale sunt disjuncte.

(P3) Probabilităţile ( , )P k t satisfac: (0, ) 1 ( )P t t o tλ= − + , 1(1, ) ( )P t t o tλ= + , 0t∀ > ,

unde ( )o t şi 1( )o t sunt funcţii de t pentru care

0

( )lim 0t

o tt→

= , 10

( )lim 0t

o tt→

= .

Proprietatea (P1) este similară presupunerii că probabilitatea p de apariţie a unui eveniment într-un flux Bernoulli este constantă în timp. Cea de-a doua proprietate (P2) este analogă proprietăţii de independenţă a variabilelor 0X , 1X , …, kX , …, pentru un proces Bernoulli. Proprietatea (P3) este esenţială, afirmând că probabilitatea apariţiei a două sau mai multe evenimente într-un interval de timp de lungime t, cu t foarte mic, este practic nulă, fiind dată de 11 (0, ) (1, ) ( ) ( )P t P t o t o t− − = − − .

0

5

10

02

46

8

0

0.2

0.4

0.6

0.8

1

Timp [t]

Densitatea de probabilitate pentru N(t)

Numar de evenimente [k]

P[N

(t) =

k]

λ = 1

Fig. 3.1.6. Reprezentarea grafică a densităţii de probabilitate pentru

un proces Poisson de rată 1λ = .

Page 83: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

73

Pe baza proprietăţilor (P1) – (P2) se poate determina densitatea de probabilitate a numărului de evenimente ( )N t care au loc într-un flux Poisson într-un interval de timp de lungime 0t ≥ , care are expresia:

[ ] ( )( , ) ( ) e , 0, 0,1, 2,!

kttP k t P N t k t k

kλλ −= = = ∀ ≥ ∀ = … . (3.1.16)

Fig.3.1.6 furnizează reprezentarea grafică a densităţii de probabilitate pentru un proces Poisson de rată 1λ = . Pentru un moment 0t ≥ fixat, valoarea medie şi dispersia variabilei aleatoare ( )N t sunt egale cu [ ]M ( )N t tλ= , respectiv [ ]Var ( )N t tλ= . În fig. 3.1.7 se reprezintă grafic o realizare a unui proces Poisson de rată 1λ = .

0 1 2 3 4 5 6 7 8 9 100

0.2

0.4

0.6

0.8

1

Aparitie evenimente

Timp [t]

Y1 Y2 Y3 Y4 Y5 Y6 Y7 Y8

λ =1

0 1 2 3 4 5 6 7 8 9 10

0

1

2

3

4

5

6

7

8

9Numar de evenimente

Timp [t]

N(t)

λ =1

Fig. 3.1.7. Reprezentarea grafică a unei realizări a unui proces Poisson de rată 1λ = .

Se notează cu kY momentul apariţiei evenimentului k în fluxul Poisson studiat (cu convenţia 0 0Y = ) şi cu 1k k kT Y Y −= − , 1,2,k = … , duratele dintre apariţiile a două evenimente consecutive (eng. interevent times). Variabilele aleatoare independente 1T , 2T , …, au distribuţie exponenţială de rată λ , [ ] 1 e , 0t

kP T t tλ−≤ = − ∀ ≥ , k ∗∀ ∈ , (3.1.17)

valoarea medie [ ]M 1kT λ= şi dispersia [ ] 2Var 1kT λ= . Momentul producerii evenimentului k, 1k kY T T= + +… , 1,2,k = … , are distribuţie Erlang de ordin k şi parametru λ , ( , )kY k λEr∼ , densitatea sa de probabilitate fiind

( )

1( ) e , 0

1 !k

k kt

Ytf t t

kλλ −

−= ∀ ≥−

, 1,2,k = … , (3.1.18)

valoarea medie [ ]M kY k λ= şi dispersia [ ] 2Var kY k λ= .

Exemplul 3.1.3. Sosirea mesajelor de e-mail este modelată printr-un proces Poisson de rată 0,2λ = mesaje pe oră. Probabilitatea ca pe parcursul unei ore să nu sosească nici un mesaj este [ ](0,1) (1) 0 e 0,819P P N λ−= = = = , iar probabilitatea ca în acelaşi interval de timp să sosească un mesaj este [ ](1,1) (1) 1 e 0,164P P N λλ −= = = = .

Page 84: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 74

Probabilitatea ca pe parcursul unei zile (24 de ore) să nu sosească nici un mesaj este [ ] 24(0, 24) (24) 0 e 0,008294P P N λ−= = = = .

Se consideră un flux X de evenimente de tip Poisson de rată 0λ > care se scindează în modul următor: de câte ori apare un eveniment, acesta se reţine (cu probabilitatea q), formând fluxul de evenimente Y, sau se renunţă la el (cu probabilitatea 1 q− ), formând fluxul de evenimente Z. Fluxurile Y şi Z obţinute în acest mod sunt, de asemenea, fluxuri de tip Poisson, de rate qλ şi, respectiv, (1 )q λ− .

Exemplul 3.1.4. Presupunem că sosirea clienţilor unui sistem de aşteptare este modelată printr-un flux Poisson de rată 5λ = clienţi pe minut. Durata de timp T dintre sosirile a doi clienţi consecutivi are distribuţie exponenţială de rată λ . Probabilitatea ca intervalul de timp dintre două sosiri succesive să fie mai mic decât 10 secunde este

( )[ 1 6] 1 exp 1 6 0,565P T λ≤ = − − ⋅ = . Probabilitatea ca într-un interval de 2 minute să aibă loc exact 10 sosiri este

[ ]10

2(2 )(2,10) (2) 10 e 0,12510!

P P N λλ −= = = = .

Probabilitatea ca într-un interval de 1 minut să sosească cel puţin 2 clienţi poate fi calculată prin relaţia

[ ] [ ] [ ] (1) 2 1 (1) 0 (1) 1 1 (1 )e 0,959P N P N P N λλ −≥ = − = + = = − + = , sau din probabilitatea ca momentul 2Y al sosirii celui de-al doilea client (începând de la momentul curent) – care are distribuţie Erlang, 2 (2, )Y λEr∼ – să fie mai mic decât 1:

[ ]1

20

( )1 1 e 1 (1 )e 0,959!

k

kP Y

kλ λλ λ− −

=

≤ = − = − + =∑ .

În continuare, presupunem că fiecare client, independent de ceilalţi clienţi, solicită un serviciu de tip A, cu probabilitatea 0, 4q = , sau de tip B, cu probabilitatea

1 0,6p q= − = . În aceste condiţii, sosirea clienţilor care solicită serviciul A reprezintă un flux Poisson de rată 2A qλ λ= = clienţi pe minut, iar a celor ce solicită serviciul B este un flux Poisson de rată 3B pλ λ= = clienţi pe minut, cele două fluxuri fiind independente. Probabilitatea ca durata AT dintre sosirile a doi clienţi care solicită serviciul de tip A să fie mai mare decât 1 minut este dată de:

[ 1] e 0,135AAP T λ−> = = .

Dacă se pune problema de a determina probabilitatea ca într-un minut să sosească exact 3 clienţi care solicită serviciul A şi 2 clienţi care solicită serviciul B, se ţine cont de faptul că cele două fluxuri Poisson sunt independente şi se obţine:

3 2[ (1) 3, (1) 2] [ (1) 3] [ (1) 2] e e 0,0404

3! 2!A BA B

A B A BP N N P N P N λ λλ λ− −= = = = ⋅ = = = .

Page 85: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

75

Considerăm două fluxuri Poisson independente, 1X şi 2X , de rate 1 2, 0λ λ > . Combinăm cele două procese într-unul singur, notat X , înregistrând fiecare moment de timp la care are loc un eveniment. Fluxul X rezultat în acest mod este un flux Poisson de rată

1 2λ λ+ . Probabilitatea ca următorul eveniment din fluxul X să provină din fluxul 1X este

1 1 2( )λ λ λ+ , iar probabilitatea ca acest eveniment să provină din 2X este 2 1 2( )λ λ λ+ .

Exemplul 3.1.5. La un server de e-mail sosesc mesaje de două tipuri: mesaje scurte cu rata 1 20λ = de mesaje pe oră, şi mesaje lungi cu rata 2 15λ = mesaje pe oră. Modelând procesele de sosire a celor două tipuri de mesaje ca procese independente de tip Poisson, procesul de sosire a unui mesaj oarecare la server reprezintă un proces Poisson de rată 1 2 35λ λ λ= + = mesaje pe oră (deci 35 60λ = mesaje pe minut). Durata de timp T dintre sosirile a două mesaje succesive are distribuţie exponenţială de rată λ . Probabilitatea ca între sosirile a două mesaje să treacă mai puţin de 1 minut este

( )[ 1] 1 exp 35 60 0,442P T ≤ = − − = . Probabilitatea ca într-un interval oarecare de 10 minute să existe mai mult de 4 mesaje lungi este

[ ] [ ] 23 3

1022 2

0 0

(10 )(10) 4 1 (10) 1 e 0,2424!

k

k kP N P N k

kλλ −

= =

≥ = − = = − =∑ ∑ .

La un moment oarecare, probabilitatea ca următorul mesaj care va sosi la server să fie un mesaj scurt este 1 1 0,571p λ λ= = , iar probabilitatea ca următorul mesaj să fie lung este 2 2 0, 429p λ λ= = . Dacă se pune problema determinării probabilităţii ca din următoarele 5 mesaje, exact 2 să fie scurte, se poate observa mai întâi că variabila X care reprezintă numărul de mesaje scurte din următoarele 5 sosite are distribuţie binomială de parametri 5 şi 2p ,

2(5, )X pBin∼ , astfel că 2 2 35 2 2[ 2] (1 ) 0, 257P X C p p= = − = .

Dacă dintr-un flux de evenimente de tip Poisson de rată λ se iau în considerare primul, şi apoi fiecare al k-lea eveniment (celelalte evenimente neglijându-se), duratele de timp dintre apariţiile a două evenimente succesive din noul flux au distribuţie Erlang de ordin k şi rată λ . Un asemenea flux de evenimente poartă denumirea de flux Erlang de ordinul k. O generalizare a fluxurilor de tip Poisson se obţine în cazul în care rata de apariţie a evenimentelor este dependentă de timp, ( )tλ . Un astfel de flux se numeşte flux Poisson neomogen (eng. non-homogeneous Poisson process). Pentru un flux Poisson neomogen, numărul ( )N t de evenimente care au avut loc de la momentul iniţial 0 0t = până la momentul

0t > inclusiv are distribuţie Poisson de parametru 0

( ) ( )t

t dν λ τ τ= ∫ .

Page 86: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 76

3.2. Lanţuri Markov în timp discret, omogene

3.2.1. Tranziţii de stare 3.2.1.1. Ecuaţia Chapman-Kolmogorov Un lanţ Markov în timp discret (eng. discrete-time Markov chain – DTMC) (sau, pe scurt, lanţ discret) este caracterizat de o mulţime cel mult numărabilă de stări, notată 1, 2,... ∗= ⊆S , stări observate la momentele de timp discret = 0,1,2,... ⊆T . Starea lanţului la un moment oarecare k∈T este notată kX , la momentul iniţial 0 0t = fiind 0X . Proprietatea caracteristică a lanţurilor Markov în timp discret este precizată prin condiţia (3.1.10): [ ] [ ]1 1 1 1 0 0 1 1, ,...,k k k k k k k k k kP X x X x X x X x P X x X x+ + − − + += = = = = = = . (3.2.1)

În general, probabilitatea de tranziţie a lanţului din starea i în starea j depinde de momentul k la care are loc tranziţia, fiind notată [ ]1( )ij k kp k P X j X i+= = = , , ,i j k∀ ∈ ∀ ∈S T . (3.2.2)

Evident că probabilităţile tranziţiilor de stare la momentul k satisfac 0 ( ) 1ijp k≤ ≤ . De asemenea, pentru orice stare i şi orice moment k are loc relaţia ( ) 1ij

jp k

=∑S

. (3.2.3)

Probabilităţile ( )ijp k (3.2.2) se referă la tranziţii de stare care au loc într-un singur pas în timp (la momentul k lanţul este în starea i, iar la momentul 1k + în starea j). O extensie naturală este de a considera tranziţii de stare care au loc în n paşi, cu 1, 2,n = … . Se introduc astfel probabilităţile de tranziţie de stare în n paşi [ ]( , )ij k n kp k k n P X j X i++ = = = , , ,i j k∀ ∈ ∀ ∈S T . (3.2.4)

Fig. 3.2.1. Evoluţia stărilor unui lanţ Markov în timp discret.

Pentru a ajunge din starea i (ocupată la momentul k) în starea j (la momentul k n+ ), la momentul k m+ (cu 0 m n≤ ≤ ) lanţul s-a aflat într-o stare r (fig. 3.2.1). Utilizând legea probabilităţii totale se obţine: [ ] [ ]( , ) ,ij k n k m k k m k

rp k k n P X j X r X i P X r X i+ + +

+ = = = = ⋅ = =∑S

. (3.2.5)

Proprietatea de lipsă a memoriei lanţului Markov (3.2.1) conduce la

i r j

m paşi n-m paşi

n paşi

Page 87: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

77

[ ] [ ], ( , )k n k m k k n k m rjP X j X r X i P X j X r p k m k n+ + + += = = = = = = + + , (3.2.6)

astfel că relaţia (3.2.5) devine: ( , ) ( , ) ( , )ij ir rj

rp k k n p k k m p k m k n

+ = + + +∑S

, , , , , 0i j k m n∀ ∈ ∀ ≥S . (3.2.7)

Relaţia (3.2.7) reprezintă ecuaţia Chapman-Kolmogorov pentru lanţuri Markov în timp discret. Se observă că aceasta poate fi scrisă convenabil în formă matriceală dacă pentru orice , 0k n ≥ se introduce matricea ( , )k k n+P având ca elemente probabilităţile

( , )ijp k k n+ ,

( , ) ( , )ijk k n p k k n+ = + P , , 1, 2,i j = … . (3.2.8)

Cu această notaţie, ecuaţia Chapman-Kolmogorov (3.2.7) este echivalentă cu ( , ) ( , ) ( , )k k n k k m k m k n+ = + ⋅ + +P P P , , , 0k m n∀ ≥ . (3.2.9) Dacă probabilităţile tranziţiilor de stare sunt independente de momentul la care are loc tranziţia, atunci lanţul Markov în timp discret este omogen (eng. homogeneous DTMC). În acest caz se utilizează notaţia [ ] 1 , , , 1, 2,...ij k kp P X j X i k i j+= = = ∀ ∈ ∈ =ST (3.2.10)

(tranziţia din starea i în starea j are loc cu aceeaşi probabilitate, indiferent de momentul de timp la care se face observaţia). Pentru lanţuri Markov omogene în timp discret, probabilitatea tranziţiei din starea i în starea j în n paşi este, de asemenea, independentă de k, fiind notată [ ]( ) , 1, 2,...n

ij k n kp P X j X i n+= = = = .

Ecuaţia Chapman-Kolmogorov (3.2.7) pentru lanţuri Markov omogene în timp discret se scrie în forma ( ) ( ) ( ) , 0n m n m

ij ir rjr

p p p m n−

= ≤ ≤∑S

. (3.2.11)

Considerând matricea probabilităţilor de tranziţie într-un pas (eng. one-step transition probabilities matrix) [ ], , 1,2,...ijp i j= =P , şi cea a probabilităţilor de tranziţie în n paşi,

( )( ) [ ], , 1, 2,...nijn p i j= =P , 1, 2,n = … , forma matriceală a ecuaţiei Chapman-Kolmogorov

(3.2.9) pentru lanţuri omogene este ( ) ( ) ( ), , ,n m n m m n m n∗= ⋅ − ∈ ≤P P P . (3.2.12) În particular, pentru 1m n= − , se obţine ( ) ( 1) (1) ( 1)n n n= − ⋅ = − ⋅P P P P P , (3.2.13) astfel că, prin inducţie matematică completă, rezultă ( ) , 1, 2,...nn n= =P P . (3.2.14) Relaţia (3.2.3) arată că matricea P a probabilităţilor de tranziţie într-un pas are proprietatea că suma elementelor de pe fiecare linie este egală cu 1, 1ijj

p∈

=∑ S, i∀ ∈S . O

matrice cu elemente nenegative care satisface această proprietate se numeşte matrice stohastică. Se poate demonstra cu uşurinţă că produsul a două matrice stohastice este de asemenea o matrice stohastică.

Page 88: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 78

Dacă spaţiul stărilor lanţului Markov investigat este finit dimensional, având un număr de s elemente ( 1,2, , s ∗= ⊂S … ), matricea P este pătratică, cu s linii şi s coloane. În cazul în care spaţiul stărilor este numărabil ( ∗=S ), P este infinit dimensională.

Exemplul 3.2.1. Se consideră o maşină care poate fi în stare de funcţionare (stare reprezentată prin 1) sau defectă (stare reprezentată prin 2). Starea maşinii este testată la fiecare oră, momente de timp indexate după parametrul 0,1, 2,k = … , şi se formează secvenţa stohastică kX , unde kX reprezintă starea maşinii la momentul k. Presupunem că, dacă maşina este în stare de funcţionare la un moment dat, probabilitatea ca să se defecteze în următoarea oră este α , iar dacă maşina este defectă probabilitatea de a fi reparată pe parcursul următoarei ore este β , cu , (0,1)α β ∈ . Se obţine astfel lanţul Markov omogen în timp discret pentru care probabilităţile de tranziţie de stare sunt:

12p α= , 11 1p α= − , 21p β= , 22 1p β= − , iar matricea probabilităţilor tranziţiilor de stare este

11

α αβ β− = −

P .

Diagrama probabilităţilor tranziţiilor de stare corespunzătoare lanţului Markov studiat este prezentată în fig. 3.2.2. Aceasta este un graf orientat în care fiecare nod corespunde unei stări a lanţului, iar arcul orientat de la i la j este etichetat cu probabilitatea tranziţiei din starea i în starea j, pij. Precizăm faptul că pe diagrama probabilităţilor tranziţiilor de stare se reprezintă numai elementele nenule ale matricei P.

Fig. 3.2.2. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.1. Prin inducţie matematică se poate demonstra că matricea probabilităţilor tranziţiilor de stare în k paşi are forma

(1 ) (1 )

( )(1 ) (1 )

k k

kk k

k

β α α β α α α βα β α β

β β α β α β α βα β α β

+ − − − − − + + = =

− − − + − − + +

P P .

Deoarece prin ipoteză avem , (0,1)α β ∈ , este satisfăcută condiţia |1 | 1α β− − < (condiţie ce poate fi violată numai dacă 0α β= = sau 1α β= = ). Cu această

1 α− 1 2

α

1 β−

β

Page 89: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

79

observaţie, rezultă că la limită, pentru k →∞ , cele două linii ale matricei ( )kP coincid cu vectorul [ ]( ) ( )β α β α α β+ + , proprietate ce este detaliată în secţiunea 3.2.4. Pentru a modela fenomenul de îmbătrânire a maşinii, probabilităţile tranziţiilor de stare se modifică după cum urmează:

12 ( ) 1 kp k γ= − , 11( ) kp k γ= , unde 0 1γ< < , astfel încât probabilitatea de defectare a maşinii creşte pe măsură ce k (durata de viaţă a maşinii) creşte, tinzând la 1 pentru k →∞ . Lanţul Markov obţinut în acest mod nu mai este omogen.

Exemplul 3.2.2. Un sistem de calcul constă din două procesoare identice (2 servere) care lucrează în paralel. Starea sistemului este testată la momentele de timp discret

0,1, 2,k = … . Funcţionarea sistemului este descrisă prin următoarele condiţii: În intervalul ( , 1)k k + cel mult un task poate fi trimis în sistem şi aceasta are loc cu probabilitatea (0,1)α ∈ , independentă de k. Dacă ambele procesoare sunt ocupate atunci task-ul trimis este pierdut (nu există fir de aşteptare). Dacă vreunul dintre procesoare este liber, acesta preia task-ul nou primit. Dacă un procesor este ocupat la momentul k, atunci probabilitatea ca acesta să termine servirea taskului în intervalul ( , 1)k k + este (0,1)β ∈ , independentă de k. Dacă terminarea unui task şi sosirea altuia au loc în acelaşi interval de timp, se presupune că terminarea taskului precede sosirea următorului task, astfel încât acesta poate fi preluat de unul dintre procesoare. Considerăm că starea sistemului de calcul la momentul k este descrisă de variabila aleatoare kX ce reprezintă numărul de taskuri procesate de sistem. Lanţul Markov are trei stări: starea 1 – ambele procesoare sunt libere, starea 2 – unul dintre procesoare lucrează, starea 3 – ambele procesoare lucrează. Diagrama probabilităţilor tranziţiilor de stare este prezentată în fig. 3.2.3, matricea probabilităţilor de tranziţie fiind [ ]ijp=P , , 1,3i j = .

Fig. 3.2.3. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.2. Condiţiile impuse funcţionării sistemului conduc la următoarele expresii pentru elementele matricei P:

1 2 3

11p 12p

22p

23p33p

32p21p

31p

Page 90: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 80

( )( ) ( )

( ) ( )( ) ( ) ( )

11 12 13

21 22 2322 2

31 32 33

1 , , 0,(1 ), 1 1 , 1 ,

1 , 2 1 1 , 1 2 1 .

p p pp p p

p p p

α αβ α α β αβ β α

β α β α β αβ β αβ β

= − = == − = − − + = −

= − = − − + = − + −

De exemplu, probabilitatea 32p se determină în modul următor. Tranziţia din starea 3 în 2 poate avea loc dacă apare unul dintre evenimentele: procesorul 1 termină de servit un task, procesorul 2 nu termină şi nu soseşte nici un nou task (cu probabilitatea

(1 )(1 )β β α− − ); sau procesorul 2 termină de servit un task, procesorul 1 nu termină şi nu soseşte nici un nou task (cu probabilitatea (1 )(1 )β β α− − ); sau ambele procesoare termină de servit câte un task şi soseşte un nou task (cu probabilitatea 2β α ).

Observaţie: Modelarea sub formă de lanţ Markov a unui sistem a cărui evoluţie este pilotată de evenimente este concentrată pe determinarea probabilităţilor tranziţiilor de stare şi nu interesează evenimentul care a produs această tranziţie. Comportarea stohastică a sistemului este compact descrisă prin matricea probabilităţilor tranziţiilor de stare P. Informaţia structurală conţinută în descrierea pilotată de evenimente se pierde. Acest fapt a fost pus în evidenţă în Exemplul 3.2.2: probabilitatea p32 nu furnizează nici o informaţie asupra evenimentului care a determinat tranziţia sistemului din starea 3 în starea 2. În funcţie de scopul modelării sistemului, se va utiliza descrierea compactă, sub formă de lanţ Markov, sau descrierea pilotată de evenimente, utilizând eventual formalismul reţelelor Petri.

3.2.1.2. Durata de menţinere a unei stări Dacă la pasul k un lanţ Markov omogen se găseşte în starea i, probabilitatea ca la pasul 1k + să se găsească în aceeaşi stare este iip , iar probabilitatea de a o părăsi este 1 iip− . Se notează cu iT variabila aleatoare ce reprezintă numărul de paşi (în timp) cât lanţul rămâne în starea i odată ce a ajuns în această stare, denumită durata de menţinere a stării i (eng. state holding time). Pe baza lipsei de memorie a lanţului Markov, se poate determina densitatea de probabilitate a variabilei iT . Mai întâi se observă că are loc

1 1

1 1 1 1

1 1 1

1 1

[ ] [ , , , | ][ | , , , ] [ , , | ][ | ] [ , , | ]

(1 ) [ , , | ].

i k n k n k k

k n k n k k k n k k

k n k n k n k k

ii k n k k

P T n P X i X i X i X iP X i X i X i X i P X i X i X iP X i X i P X i X i X i

p P X i X i X i

+ + − +

+ + − + + − +

+ + − + − +

+ − +

= = ≠ = = = == ≠ = = = ⋅ = = = =

= ≠ = ⋅ = = = == − ⋅ = = =

…… …

……

(3.2.15)

Similar se calculează 1 1

1 2 2 1

1 2 2 1

2 1

[ , , | ][ | , , ] [ , , , | ][ | ] [ , , , | ]

[ , , , | ].

k n k k

k n k n k k n k k

k n k n k n k k

ii k n k k

P X i X i X iP X i X i X i P X i X i X iP X i X i P X i X i X ip P X i X i X i

+ − +

+ − + − + − +

+ − + − + − +

+ − +

= = = == = = = ⋅ = = = =

= = = ⋅ = = = == ⋅ = = =

…… …

……

(3.2.16)

Prin inducţie matematică se demonstrează că 1

1 1[ , , | ] nk n k k iiP X i X i X i p −+ − += = = =… , n ∗∈ . (3.2.17)

Page 91: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

81

Rezultă că densitatea de probabilitate a variabilei iT are expresia

1[ ] (1 ) ni ii iiP T n p p −= = − , 1, 2,n = … , i∈S , (3.2.18)

deci durata iT de menţinere a stării i are distribuţie geometrică de parametru 1 iip− . Distribuţia geometrică având proprietatea de lipsă a memoriei, la fiecare pas starea următoare a lanţului este determinată numai pe baza stării curente. Dacă 1iip ≠ rezultă 1 0iip− > , adică probabilitatea de a părăsi starea i este nenulă. În acest caz, durata medie de menţinere a stării i este M[ ] 1 (1 )i iiT p= − . Dispersia variabilei iT este 2Var[ ] (1 )i ii iiT p p= − .

3.2.2. Analiza regimului tranzitoriu Analiza regimului tranzitoriu al unui lanţ Markov are drept obiectiv determinarea probabilităţii ca la un moment dat lanţul să se găsească într-o anumită stare dacă starea iniţială a lanţului este cunoscută. În acest scop se definesc probabilităţile de stare (eng. state probabilities) în modul următor. Probabilitatea ca lanţul Markov să se găsească în starea j la un moment oarecare k este notată [ ]( )j kk P X jπ = = , j∈S , k∈T . (3.2.19)

Cu ajutorul probabilităţilor de stare (3.2.19) se formează vectorul probabilităţilor de stare (eng. state probability vector) [ ]1 2( ) ( ), ( ),k k kπ ππ = … , k∈T . (3.2.20)

Vectorul linie ( )kπ furnizează densitatea de probabilitate a stării kX a lanţului. Dimensiunea acestui vector este dată de numărul de stări ale lanţului Markov studiat. Dacă mulţimea stărilor lanţului este numărabilă ( ∗=S ), acest vector este infinit dimensional. Aşa cum se va observa în continuare, un lanţ Markov este complet specificat dacă, în afară de spaţiul stărilor S şi de matricea probabilităţilor tranziţiilor de stare, se precizează şi vectorul probabilităţilor de stare la momentul iniţial, [ ]1 2(0) (0), (0),π ππ = … , adică distribuţia de probabilitate a stării iniţiale 0X a lanţului. Relaţia de legătură dintre distribuţiile stărilor lanţului la două momente consecutive,

kX şi 1kX + , constituie baza analizei regimului tranzitoriu a unui lanţ Markov omogen în timp discret. Aplicarea legii probabilităţii totale conduce la

[ ] [ ] [ ]1 1( 1)

( ), , .

j k k k ki

ij ii

k P X j P X j X i P X i

p k j k

π

π

+ +∈

+ = = = = = = =

= ∈ ∈

∑S

S

S (3.2.21)

Această relaţie poate fi scrisă în forma matriceală ( 1) ( ) , 0,1, 2,k k kπ π+ = ⋅ =P … . (3.2.22) Prin inducţie matematică se demonstrează că ( ) (0) , 0,1, 2,kk kπ π= ⋅ =P … , (3.2.23)

Page 92: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 82

relaţie care arată că distribuţia stării kX a lanţului Markov la un moment oarecare este unic determinată de distribuţia stării iniţiale şi de probabilităţile de tranziţie într-un singur pas. Studierea regimului tranzitoriu al unui lanţ Markov în timp discret pe baza ecuaţiei (3.2.23) este laborioasă dacă se doreşte mai mult decât determinarea primelor câteva iteraţii, necesitând calcularea puterilor matricei P. În acest scop, în continuare este prezentat un procedeu bazat pe utilizarea funcţiei generatoare de probabilitate corespunzătoare variabilei aleatoare multidimensionale ce reprezintă evoluţia stărilor lanţului, a cărei densitate de probabilitate este reprezentată de vectorii (0)π , (1)π , (2)π , …,

0

( ) ( )k

kz z k

=

= ∑Π π , | | 1z < . (3.2.24)

Multiplicând ecuaţia (3.2.22) cu 1kz + şi sumând apoi relaţiile corespunzătoare valorilor 0,1, 2,k = … , se obţine

1 1

0 0 1 0( 1) ( ) ( ) ( )k k k k

k k k kz k z k z k z z k

∞ ∞ ∞ ∞+ +

= = = =

+ = ⋅ ⇔ = ⋅

∑ ∑ ∑ ∑P Pπ π π π , (3.2.25)

care conduce la ( ) (0) ( )z z z− = ⋅PΠ π Π . (3.2.26) Rezolvând această ecuaţie matriceală în raport cu ( )zΠ rezultă

[ ] 1( ) (0)z z −= ⋅ −I PΠ π , (3.2.27)

unde I este matricea unitate cu aceeaşi dimensiune ca şi matricea P. Utilizând apoi formulele de inversiune, pe baza expresiei lui ( )zΠ se poate determina ( )kπ , 1,2,k = … .

Exemplul 3.2.3. Revenim la Exemplul 3.2.1, considerând 1 4α = şi 1 2β = . Matricea probabilităţilor tranziţiilor de stare este

3 4 1 41 2 1 2 =

P .

Pentru tranziţiile de stare ce au loc în k paşi, matricea probabilităţilor corespunzătoare este

( ) ( )( ) ( )

2 1 1 1 1 13 3 4 3 3 4( )2 2 1 1 2 13 3 4 3 3 4

k k

kk k

k

+ − = =

− +

P P , 0k ≥ .

Dacă la momentul iniţial maşina era în stare de funcţionare, probabilităţile ca după 2 ore, respectiv 3 ore, să fie în aceeaşi stare sunt date de

( )2

2 0 112 1 1 11[ 1| 1] (2)3 3 4 16

P X X p= = = = + = ,

( )33 0 112 1 1 43[ 1| 1] (3)3 3 4 64

P X X p= = = = + = .

Page 93: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

83

Dacă repartiţia stării iniţiale a maşinii este precizată prin [ ](0) 1 3 2 3π = , vectorul probabilităţilor de stare după k ore de funcţionare este

( ) ( )2 1 1 1 1 1( ) (0)3 3 4 3 3 4

k kkk = ⋅ = − +

Pπ π .

De exemplu, după 2 ore de funcţionare a maşinii, repartiţia de probabilitate a stării maşinii este

( ) ( )2 22 1 1 1 2 1 31 17(2)3 3 4 3 3 4 48 48

π = − + = .

De asemenea, se observă că la limită, pentru k →∞ , cele două linii ale matricei ( )kP coincid cu limita vectorului ( )kπ , fiind egale cu [ ]2 3 1 3π = . Se poate verifica

această afirmaţie şi pentru alte distribuţii ale stării iniţiale, de fiecare dată obţinându-se aceeaşi limită pentru vectorul ( )kπ . Expresia vectorului ( )kπ poate fi determinată şi utilizând funcţia generatoare de probabilitate. Pentru aceasta, se calculează mai întâi matricele

( ) 1

3 11 2(2 )14 4(1 )(4 )1 1 2 4 31

2 2

z z z zz z

z z z zz z

− − − − = ⇒ − = − − − − −

I P I P ,

şi apoi

[ ] [ ]1 1( ) (0) 2(2 ) 8 53(1 )(4 )

z z z zz z

−= ⋅ − = + −− −

I PΠ π .

Descompunând componentele lui ( )zΠ în fracţii simple 2 1 1 1 1 1 1 1( )3 1 3 1 (1 4) 3 1 3 1 (1 4)

zz z z z

= ⋅ − ⋅ ⋅ + ⋅ − − ⋅ − − ⋅ Π ,

se obţine în final

( ) ( )2 1 1 1 1 1( )3 3 4 3 3 4

k kk = − +

π .

Notând cu 1T şi 2T duratele de menţinere a stărilor 1, respectiv 2, variabila 1T are distribuţie geometrică de parametru α , iar 2T are distribuţie geometrică de parametru β , expresiile densităţilor de probabilitate ale acestor variabile fiind:

( ) 11 1

1 11 111 3[ ] (1 ) (1 )4 4

nn nP T n p p α α

−− −= = − = − = , 1, 2,n = … ,

( )1 12 22 22

1[ ] (1 ) (1 )2

nn nP T n p p β β− −= = − = − = , 1, 2,n = … .

Pentru maşina modelată, durata medie de funcţionare fără defectare este 1M[ ] 1 4T α= = ore, iar durata medie a unei reparaţii este 2M[ ] 1 2T β= = ore.

Figura 3.2.4 prezintă grafic evoluţia stării maşinii modelate prin acest lanţ Markov obţinută prin simulare în Matlab pe o durată de 100 de ore.

Page 94: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 84

0 10 20 30 40 50 60 70 80 90 1000.5

1

2

2.5Evolutia starilor lantului Markov

k

X(k

)

Fig. 3.2.4. Reprezentarea grafică a evoluţiei stării maşinii pe o durată de 100 ore.

Exemplul 3.2.4. Revenim la sistemul de calcul din Exemplul 3.2.2, considerând valorile numerice 0,5α = şi 0,7β = , pentru care matricea probabilităţilor tranziţiilor de stare este

0,5 0,5 00,35 0,5 0,15

0,245 0, 455 0,3

=

P .

Presupunem că la momentul iniţial ambele procesoare erau libere, starea iniţială a sistemului fiind modelată prin vectorul [ ](0) 1 0 0=π . Probabilitatea ca ambele procesoare să fie libere la pasul 3k = este 1(3)π , adică primul element al vectorului

[ ]3(3) (0) 0, 4058 0,4966 0,0976= ⋅ =Pπ π . Pentru a determina probabilitatea ca nici un task să nu se termine în cel de-al treilea interval de timp se consideră

3

31

[nici un task nu se termină la 3]

[nici un task nu se termină la 3 | ] (3).jj

P k

P k X j π=

= =

= = =∑

Observând că au loc relaţiile 3[nici un task nu se termină la 3 | 1] 1P k X= = = ,

3[nici un task nu se termină la 3 | 2] 1P k X β= = = − , 2

3[nici un task nu se termină la 3 | 3] (1 )P k X β= = = − , se obţine

21 2 3[nici un task nu se termină la 3] (3) (1 ) (3) (1 ) (3) 0,5636P k π β π β π= = + − + − = .

Probabilitatea ca procesoarele să rămână libere la momentele 1k = şi 2k = este dată de

1 2 2 1 1 11 1[ 1, 1] [ 1| 1] [ 1] (1)P X X P X X P X p π= = = = = ⋅ = = ⋅ . Vectorul probabilităţilor de stare la momentul 1k = fiind

[ ](1) (0) 0,5 0,5 0= ⋅ =Pπ π ,

Page 95: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

85

rezultă că 1(1) 0,5π = , astfel că în final obţinem

1 2[ 1, 1] 0, 25P X X= = = . Durata 1T cât ambele procesoare sunt libere are distribuţie geometrică de parametru 0,5. Valoarea medie a acestei variabile este M[ ] 2iT = . Figura 3.2.5 prezintă grafic evoluţia stării sistemului de calcul, obţinută prin simulare pe o durată de 50 de unităţi de timp.

0 5 10 15 20 25 30 35 40 45 500.5

1

2

3

3.5Evolutia starilor lantului Markov

k

X(k

)

Fig. 3.2.5. Reprezentarea grafică a evoluţiei stării sistemului de calcul

pe o durată de 50 unităţi de timp.

3.2.3. Clasificarea stărilor 3.2.3.1. Stări accesibile O stare j∈S a unui lanţ Markov este accesibilă (eng. reachable) din starea i dacă există n ∗∈ astfel încât [ ]( ) 0n

ij k n kp P X j X i+= = = > (3.2.28)

(probabilitate ca procesul să ajungă din starea i în starea j într-un număr finit de paşi este nenulă). Interpretarea grafică a acestei condiţii este aceea că pe diagrama probabilităţilor tranziţiilor de stare corespunzătoare lanţului Markov există un drum de la nodul i la nodul j format din n arce. O submulţime cS ⊆ S de stări a unui lanţ Markov este închisă (eng. closed set) dacă

0, ,ij c cp i S j S= ∀ ∈ ∀ ∈ −S . (3.2.29)

Pe diagrama probabilităţilor tranziţiilor de stare a lanţului Markov nu există nici un drum de la o stare oarecare ci S∈ la o stare cj S∈ −S . O stare i∈S se numeşte absorbantă (eng. absorbing state) dacă mulţimea i este închisă. Condiţia 0, ,ijp j j i= ∀ ∈ ≠S , este echivalentă cu 1iip = . Odată ajuns in starea i, lanţul nu mai părăseşte această stare. O mulţime închisă de stări cS ⊆ S este ireductibilă (eng. irreducible) dacă oricare două stări , ci j S∈ sunt mutual accesibile.

Page 96: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 86

Un lanţ Markov este ireductibil dacă mulţimea stărilor S este ireductibilă. În acest caz, pe diagrama probabilităţilor tranziţiilor de stare a lanţului există un drum între oricare două stări ale acestuia. Dacă un lanţ Markov nu este ireductibil se spune că acesta este reductibil (eng. reducible). În această situaţie, există cel puţin o mulţime închisă de stări care nu este ireductibilă.

3.2.3.2. Stări recurente şi stări tranzitorii Timpul de evoluţie (transfer) din starea i în starea j (eng. hitting time) 0min 0 : , , , ,ij kT k X i X j i j i j= > = = ∈ ≠S , (3.2.30)

reprezintă primul moment de timp la care procesul ajunge în starea j dacă la momentul iniţial era în starea i. În cazul în care i j= , 0min 0 : , ,ii kT k X i X i i= > = = ∈S , (3.2.31)

se numeşte timp de recurenţă (eng. recurrence time) corespunzător stării i∈S . Timpul de recurenţă iiT este o variabilă aleatoare discretă ce poate lua valorile 1,2,3,… cu probabilităţile [ ]( )k

i iiP T kρ = = , 1,2,k = … . Probabilitatea ca lanţul aflat la momentul iniţial în starea 0X i= să mai revină vreodată în această stare este dată de

[ ] ( )

1

ki ii i

kP Tρ ρ

=

= < ∞ =∑ . (3.2.32)

O stare i∈S se numeşte recurentă (eng. recurrent state) dacă 1iρ = . În cazul în care 1iρ < starea i se numeşte tranzitorie (eng. transient state). Dacă starea iniţială a procesului

0X i= este recurentă, procesul va reveni cu siguranţă în această stare la un moment 0k > . Într-o stare tranzitorie lanţul ar putea să mai ajungă din nou, cu probabilitatea 0 1iρ< < , dar cu probabilitatea 1 0iρ− > lanţul nu va mai ajunge niciodată în acea stare. Orice stare absorbantă este recurentă. În legătură cu clasificarea stărilor unui lanţ Markov în stări recurente şi tranzitorii, enunţăm în continuare, fără demonstraţie, următoarele teoreme (Cassandras, 1993).

Teorema 3.2.1. Dacă un lanţ Markov are un număr finit de stări, atunci cel puţin una dintre ele este recurentă.

Teorema 3.2.2. Dacă i este o stare recurentă şi j este accesibilă din i, atunci starea j este recurentă.

Teorema 3.2.3. Dacă cS ⊆ S este o mulţime închisă ireductibilă de stări, atunci fiecare stare din cS este recurentă.

Page 97: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

87

Exemplul 3.2.5. Pentru lanţul Markov prezentat în Exemplul 3.2.1, starea 1 este accesibilă din starea 2 ( 12 0p α= > ) şi starea 2 este accesibilă din starea 1( 21 0p β= > ), astfel încât mulţimea stărilor, 1,2=S , este închisă şi ireductibilă. Acest lanţ Markov este ireductibil. Similar, se poate verifica faptul că lanţul Markov din Exemplul 3.2.2 este, de asemenea, ireductibil. Conform teoremei 3.2.3, ambele lanţuri au numai stări recurente.

3.2.3.3. Stări nul recurente şi stări pozitiv recurente Fie i o stare recurentă a unui lanţ Markov. Timpul mediu de recurenţă (eng. mean recurrence time) corespunzător stării i∈S este media variabilei aleatoare iiT ,

[ ] ( )

1M k

i ii ik

M T kρ∞

=

= =∑ . (3.2.33)

Starea recurentă i se numeşte pozitiv recurentă (eng. positive recurrent state) dacă timpul mediu de recurenţă corespunzător este finit, iM < ∞ . În cazul în care iM = ∞ starea i se numeşte nul recurentă (eng. null recurrent state). O stare nul recurentă nu este tranzitorie, pentru că probabilitatea procesului de a reveni în această stare dacă este 1, dar timpul mediu de recurenţă este infinit. Cu privire la stările recurente ale unui lanţ Markov, enunţăm în continuare fără demonstraţie, următoarele teoreme (Cassandras, 1993).

Teorema 3.2.4. Dacă i este o stare pozitiv recurentă şi j este accesibilă din i, atunci starea j este pozitiv recurentă.

Teorema 3.2.5. Dacă cS ⊆ S este o mulţime închisă ireductibilă de stări, atunci toate stările din cS sunt pozitiv recurente, sau toate stările din cS sunt nul recurente, sau toate stările din cS sunt tranzitorii.

Teorema 3.2.6. Dacă cS ⊆ S este o mulţime finită închisă ireductibilă de stări, atunci toate stările din cS sunt pozitiv recurente.

Exemplul 3.2.6. Se consideră lanţul Markov având matricea probabilităţilor tranziţiilor de stare:

0.5 0.5 0 0 00.3 0 0.3 0 0.40 0 0 1 00 0 0.5 0.5 00 0 0 0 1

=

P .

Pornind de la matricea P se obţine diagrama probabilităţilor tranziţiilor de stare din fig. 3.2.6. Acest lanţ Markov este reductibil. Există două submulţimi închise şi ireductibile de

Page 98: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 88

stări, 1 3, 4S = şi 2 5S = . Stările 1 şi 2 sunt tranzitorii, stările 3 şi 4 sunt pozitiv recurente, starea 5 este absorbantă (deci este şi recurentă).

Fig. 3.2.6. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.6.

Exemplul 3.2.7. Toate stările lanţului Markov cu un număr infinit de stări, ∗=S , având diagrama probabilităţilor tranziţiilor de stare din fig. 3.2.7, sunt nul recurente.

Fig. 3.2.7. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.7.

3.2.3.4. Stări periodice şi stări aperiodice Pentru o stare i∈S cel mai mare divizor comun id al momentelor de timp 0k > pentru care

( ) 0kiip > se numeşte perioada stării i, ( )cmmdc 0 0k

i iid k p= > > . O stare i se numeşte periodică (eng. periodic state) dacă 2id ≥ . În cazul în care 1id = , starea i se numeşte aperiodică (eng. aperiodic state). Se observă că o stare i pentru care 0iip > este aperiodică. În legătură cu periodicitatea stărilor unui lanţ Markov, enunţăm în continuare, fără a demonstra, următoarea teoremă (Cassandras, 1993).

Teorema 3.2.7. Toate stările unui lanţ Markov ireductibil au aceeaşi perioadă.

Dacă pentru o stare a unui lanţ Markov ireductibil 1id = atunci toate stările acestuia sunt aperiodice şi lanţul se numeşte aperiodic. Dacă una dintre stările unui lanţ ireductibil are perioada 2id ≥ , atunci toate stările acestuia au aceeaşi perioadă şi lanţul se numeşte periodic.

1 2 3

0.5 0.5

0.5 1

0.5

0.3

0.3 0.4

5

4

1

1 2 31

1 2

5 4

1 3 1 4

1 2 2 3 3 4

1 5

Page 99: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

89

Figura 3.2.8 prezintă sumar clasificarea stărilor unui lanţ Markov în timp discret.

Fig. 3.2.8. Clasificarea stărilor unui lanţ Markov în timp discret.

Exemplul 3.2.8. Se consideră lanţul Markov din fig. 3.2.9.

Fig. 3.2.9. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.8. Se poate observa că au loc relaţiile:

33

n =P I , 3 1n+ =P P , 3 2 2

0 0 11 0 00 1 0

n T+ = = =

P P P , n∈ ,

unde 3I notează matricea unitate de ordinul 3, iar TP reprezintă transpusa matricei P. Toate stările acestui lanţ sunt periodice de perioadă 3d = deoarece cel mai mare divizor comun al elementelor mulţimii ( ) 0 | 0 3,6,9, k

iik p> > = … este 3, pentru 1,2,3i = . Lanţul Markov fiind ireductibil, se verifică afirmaţia din teorema 3.2.7, şi

anume că toate stările lanţului au aceeaşi perioadă.

1 2

3

1 1

1

0 1 00 0 11 0 0

=

P

Stare i∈S

tranzitorie recurentă

nul recurentă pozitiv recurentă

periodică aperiodică

1iρ =

iM < ∞

1id =

1iρ <

Page 100: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 90

Exemplul 3.2.9. Se consideră lanţul Markov din fig. 3.2.10.

Fig. 3.2.10. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.9. Se poate observa că au loc relaţiile:

2 1

0 1 2 1 21 0 01 0 0

n+ = =

P P , 2 2

1 0 00 1 2 1 20 1 2 1 2

n = =

P P , n ∗∈ .

Pentru orice 1,2,3i = , cel mai mare divizor comun al elementelor mulţimii ( ) 0 | 0 2,4,6, kiik p> > = … este 2, astfel că toate stările lanţului sunt periodice de

perioadă 2d = . Afirmaţia din teorema 3.2.7 este astfel verificată.

Exemplul 3.2.10. Se consideră lanţul Markov din fig. 3.2.11.

Fig. 3.2.11. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.10. Se poate observa că pentru orice 1,2,3i = este satisfăcută relaţia 0iip ≠ , astfel că 1 este element al mulţimii ( ) 0 | 0k

iik p> > , perioada corespunzătoare stării i fiind egală cu 1. Rezultă astfel că toate stările lanţului Markov din fig. 3.2.11 sunt aperiodice.

1 2

3

0 1 2 1 21 0 01 0 0

=

P

1 2

11 2 1

1 2

3

1 2

1 2 1 2 00 1 2 1 2

1 2 0 1 2

=

P

1 2

1 2

1 2 1 2

1 2

Page 101: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

91

3.2.4. Analiza regimului staţionar (permanent) Dacă pentru o stare i a unui lanţ Markov există limita [ ]lim ( ) limi i kk k

k P X iπ π→∞ →∞

= = = , (3.2.34)

aceasta se numeşte probabilitate de regim staţionar (permanent) (eng. steady-state probability, stationary state probability) corespunzătoare stării i. Dacă probabilităţile de regim staţionar există pentru toate stările unui lanţ, atunci se poate construi vectorul probabilităţilor de regim staţionar (eng. stationary state probability vector), [ ]1 2 3lim ( ) , , ,

kk π π ππ π

→∞= = … , care satisface

ecuaţia obţinută prin trecere la limită pentru k →∞ în relaţia de recurenţă (3.2.22),

( 1) ( )k

k kπ π π π→∞

+ = ⋅ ⇒ = ⋅P P . (3.2.35) O condiţie necesară pentru existenţa vectorului π este să existe limita pentru k →∞ a şirului de matrice k

k∈P , lim kk→∞

P . În plus, această limită trebuie să fie independentă de

distribuţia de probabilitate a stării iniţiale a lanţului, (0)π . Existenţa vectorului probabilităţilor de regim staţionar nu este garantată pentru orice lanţ Markov. În continuare vom discuta separat (în funcţie de natura stărilor lanţului Markov investigat) condiţiile în care, pentru orice stare i∈S a unui lanţ, limitele iπ există şi reprezintă efectiv o repartiţie de probabilitate de stare, adică satisfac condiţia 1ii

π∈

=∑ S.

3.2.4.1. Lanţuri Markov ireductibile O primă concluzie importantă care se desprinde din teorema 3.2.7 este aceea că dacă un lanţ Markov ireductibil conţine stări periodice, atunci toate stările au aceeaşi perioadă şi nu există vectorul lim ( )

kkπ π

→∞= (vezi lanţurile Markov din Exemplele 3.2.8 şi 3.2.9, lanţuri ireductibile

periodice şi pentru care nu există limita pentru k →∞ a şirului de matrice kk∈P ).

Enunţăm în continuare, fără demonstraţie, următoarele teoreme (Cassandras, 1993).

Teorema 3.2.8. Într-un lanţ Markov ireductibil şi aperiodic există întotdeauna limita lim ( )k

kπ π→∞

= şi aceasta este independentă de distribuţia de probabilitate a stării iniţiale (0)π .

Observaţie. Această teoremă nu garantează că elementele vectorului π satisfac condiţia 1ii

π∈

=∑ S!

Teorema 3.2.9. Pentru un lanţ Markov ireductibil şi aperiodic ce constă numai din stări tranzitorii sau nul recurente este satisfăcută relaţia lim ( ) 0,i ik

k iπ π→∞

= = ∀ ∈S , (3.2.36)

şi deci nu există o distribuţie de probabilitate de stare de regim staţionar.

Teorema 3.2.10. Într-un lanţ Markov ireductibil şi aperiodic, ce constă numai din stări pozitiv recurente, există şi este unic vectorul distribuţiei de probabilitate a stării în regim

Page 102: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 92

staţionar, [ ]1 2 3, , ,π π ππ = … , ale cărui elemente 0iπ > satisfac

1lim ( ) ,i ik ik i

Mπ π

→∞= = ∀ ∈S , (3.2.37)

unde iM este timpul mediu de recurenţă corespunzător stării i∈S . Vectorul π se determină rezolvând sistemul de ecuaţii liniare

,

1.ii

π∈

= ⋅ =∑

P

S

π π (3.2.38)

Relaţia (3.2.38) arată că vectorul π este vector propriu la stânga al matricei P, corespunzător valorii proprii 1 şi, în plus, pentru un lanţ care satisface ipoteza teoremei 3.2.10, π este singurul vector de repartiţie a stării iniţiale pentru care lanţul considerat este un proces staţionar (considerând (0)π π= rezultă ( ) , 1k kπ π= ∀ ≥ ). Această proprietate justifică denumirea de distribuţie staţionară de probabilitate a stării lanţului Markov dată vectorului π în acest caz.

Pentru rezolvarea pe calculator a sistemului de ecuaţii (3.2.38) în cazul în care lanţul Markov studiat are un număr finit s de stări, se notează cu E matricea pătratică ( s s× ) şi cu e vectorul linie (1 s× ) care au toate elementele egale cu 1. Cu aceste notaţii (3.2.38) devine 1( ) ( )−⋅ − + = ⇒ = ⋅ − +I P E e e I P Eπ π . (3.2.39)

Stările aperiodice pozitiv recurente ale unui lanţ Markov se numesc stări ergodice (eng. ergodic states). Un lanţ ireductibil ce constă numai din stări ergodice se numeşte lanţ ergodic (eng. ergodic chain). Un caz particular de lanţ ergodic este cel în care există 0N > astfel încât matricea NP are numai elemente strict pozitive. Un asemenea lanţ este numit lanţ regulat (eng. regular chain). Semnificaţia condiţiei ( ) 0, ,N

ijp i j> ∀ ∈S este aceea că într-un lanţ regulat este posibil să se ajungă dintr-o stare oarecare i în oricare altă stare j în exact N paşi. Pentru un lanţ Markov regulat, şirul de matrice k

k∈P converge către o matrice stohastică lim k

k→∞=W P , care are proprietatea că toate liniile sale coincid cu vectorul

probabilităţilor de stare în regim permanent, T= ⋅W e π (Grinstead and Snell, 1998). Matricea W satisface relaţiile 2⋅ = ⋅ = =W P P W W W . Matricea fundamentală a unui lanţ regulat,

,ij i jz

∈= Z

S, este definită de relaţia

( ) 1−= − +Z I P W , (3.2.40)

unde I notează matricea unitate. Matricea Z poate fi utilizată pentru a determina valorile ijm , , ,i j i j∈ ≠S , care reprezintă valoarea medie a primului moment în care procesul, aflat la

momentul iniţial în starea i, ajunge în starea j, (eng. mean first passage time)

jj ijij

j

z zm

π−

= , , ,i j i j∈ ≠S . (3.2.41)

Page 103: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

93

Prin definiţie 0iim = . Cu aceste elemente se formează matricea ,ij i j

m∈

= MS

(eng.

mean first passage matrix).

Exemplul 3.2.11. Revenim la lanţul Markov studiat în Exemplul 3.2.1, care modelează o maşină cu două stări. Pentru 0 1α< < şi 0 1β< < , toate elementele matricei P sunt nenule, lanţul fiind regulat. De asemenea, deoarece |1 | 1α β− − < , rezultă că

(1 ) (1 )

lim lim(1 ) (1 )

k k

kk kk k

β α α β α α α β β αα β α β α β α β

β αβ β α β α β α βα β α βα β α β

→∞ →∞

+ − − − − − + + + + = = =

− − − + − − + + + +

W P .

Vectorul probabilităţilor de stare în regim permanent se determină prin rezolvarea sistemului de ecuaţii (3.2.38), care conduce la

[ ] [ ] 11 2 1 2 1 2

1 221 2

1 ,, 0,1

1, .1,

βα α ππ π π π απ βπ α ββ β

π π αππ π α β

− = = ⋅ − = + ⇒ ⇒− + = =+ = +

Se observă că fiecare linie a matricei W coincide cu vectorul repartiţiei staţionare de stare [ ]( ) ( )β α β α α βπ = + + . Această proprietate a fost pusă în evidenţă şi în Exemplul 3.2.3 pentru cazul particular 1 4α = şi 1 2β = . Expresia vectorului π are următoarea semnificaţie fizică: oricare ar fi fost starea iniţială a maşinii, după o durată de funcţionare suficient de mare, cu probabilitatea 1π maşina va fi în stare de funcţionare, iar cu probabilitatea 2π maşina va fi defectă. Mediile duratelor de recurenţă ale celor două stări sunt

11

1M α βπ β

+= = , 22

1M α βπ α

+= = .

Matricea fundamentală a acestui lanţ Markov este

( )( )

( )( )

( )( ) ( )

2

2 21

2

2 2

1

1

α α βαβ β αα β α β

β α β α αβ βα β α β

+ −+ + + + = − + = + − + +

+ +

Z I P W .

Utilizând relaţiile (3.2.41) se obţin valorile 12 1m α= şi 21 1m β= . Dacă la un moment dat maşina este în stare de funcţionare (starea 1) atunci, în medie, după un număr de 1α ore se va defecta, iar dacă la un moment dat maşina este defectă, atunci, în medie, după un număr de 1 β ore va fi din nou în stare de funcţionare. Acest rezultat este în concordanţă cu cel obţinut în Exemplul 3.2.3. Lanţul Markov studiat având numai două stări, durata medie de ocupare a stării i coincide cu valoarea medie a primului moment în care procesul, aflat la momentul iniţial în starea i, trece în starea j i≠ , 1 12M[ ]T m= şi 2 21M[ ]T m= .

Page 104: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 94

Din punct de vedere practic, teorema 3.2.10 permite caracterizarea comportamentului de regim staţionar al sistemelor modelate sub formă de lanţ Markov în timp discret. Cerinţele impuse în enunţul acestei teoreme, ca lanţul să fie ireductibil, aperiodic, şi cu stări pozitiv recurente, nu sunt foarte restrictive, fiind satisfăcute de majoritatea sistemelor fizice. De asemenea, această teoremă furnizează suportul necesar proiectării sistemelor astfel încât, în regimul staţionar de funcţionare, probabilitatea ca sistemul să se găsească într-o anumită stare să satisfacă anumite condiţii uzuale.

Exemplul 3.2.12. Similar situaţiei din Exemplul 3.2.1, se consideră o maşină cu două stări şi anume: în stare de funcţionare (1) sau defectă (2), modelată prin lanţul Markov din fig. 3.2.12. Presupunem că în etapa de proiectare putem controla un singur parametru β ( 0 1β< < ) care influenţează durata de reparare a maşinii în cazul când aceasta este defectă, deci influenţează probabilitatea tranziţiei de stare din 2 în 1. Se doreşte determinarea valorilor parametrului β pentru care, după un timp suficient de lung de funcţionare, probabilitatea ca maşina să fie defectă să aibă o valoare mai mică decât 25%.

Fig. 3.2.12. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.12. Lanţul Markov considerat în acest exemplu constituie un caz particular al celui din Exemplul 3.2.1, obţinut pentru 1 4α = . Utilizând rezultatele prezentate în Exemplul 3.2.11, lanţul Markov din fig. 3.2.12 este regulat, probabilităţile de stare staţionară fiind

1 4 (1 4 )π β β= + şi 2 1 (1 4 )π β= + . Impunând condiţia 2 0,25π < rezultă restricţia 0,75β > . Ţinând cont de faptul că parametrul β reprezintă o probabilitate, 0 1β< < ,

în final se obţine 0,75 1β< < . De asemenea, se observă că probabilitatea 2π nu poate fi redusă sub valoarea de 20%.

Exemplul 3.2.13. Următorul exemplu este un caz particular al modelului Ehrenfest utilizat pentru a explica difuzia gazelor (Grinstead and Snell, 1998). Se consideră două urne care conţin în total 4 bile. La fiecare pas se alege aleator una dintre bile, aceasta fiind mutată dintr-o urnă în cealaltă. Reprezentând starea procesului stohastic studiat prin numărul de bile din prima urnă, se obţine modelul de tip lanţ Markov în timp discret cu 5 stări (starea 1 – nici o bilă în prima urnă, …, starea 5 – 4 bile în prima urnă) având matricea probabilităţilor tranziţiilor de stare

3 4 1 2

1 4

1 β−

β

Page 105: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

95

0 1 0 0 01 4 0 3 4 0 00 1 2 0 1 2 00 0 3 4 0 1 40 0 0 1 0

=

P .

Pe diagrama probabilităţilor tranziţiilor de stare prezentată în fig. 3.2.13, se observă că, dacă la momentul iniţial lanţul se află în starea 1, atunci după un număr impar de paşi se va găsi în starea 2 sau 4, iar după un număr par de paşi se va găsi în starea 1, 3 sau 5. Toate stările lanţului sunt periodice de perioadă 2. Acesta este un exemplu de lanţ ireductibil care nu este regulat.

Fig. 3.2.13. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.13. În fig. 3.2.14 sunt reprezentate grafic elementele matricelor kP , pentru 1,8k = .

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P1

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P2

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P3

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P4

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P5

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P6

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P7

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Matricea P8

Stare finala

Sta

re in

itial

a

Fig. 3.2.14. Reprezentări grafice ale elementelor matricelor kP pentru 1,8k = .

Pentru valori foarte mari ale lui n, puterile matricei P sunt de forma:

3 4

1 2

1 4

3 4 5

1 2 3 4 1

1 4 1 21

Page 106: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 96

2

1 8 0 3 4 0 1 80 1 2 0 1 2 0

1 8 0 3 4 0 1 80 1 2 0 1 2 0

1 8 0 3 4 0 1 8

n

=

P , 2 1

0 1 2 0 1 2 01 8 0 3 4 0 1 80 1 2 0 1 2 0

1 8 0 3 4 0 1 80 1 2 0 1 2 0

n+

=

P ,

astfel încât nu există limita pentru k →∞ a şirului de matrice kk∈P . Vectorul

probabilităţilor de stare staţionară nu există pentru acest lanţ. Cu toate acestea, sistemul de ecuaţii (3.2.38) admite ca soluţie vectorul

[ ]1 16 1 4 3 8 1 4 1 16=v , care este vector propriu la stânga al matricei P, corespunzător valorii proprii 1. Semnificaţia acestui vector este evidentă atunci când se consideră v drept vector al probabilităţii de stare la momentul iniţial, (0)π = v . În această situaţie, aplicând relaţia de recurenţă (3.2.22) rezultă (1) (0)π π= = =vP v , …, ( ) (0)kπ π= =v , …. Dacă distribuţia de probabilitate a stării iniţiale este dată de vectorul v, atunci pentru o durată suficient de mare de evoluţie a procesului, 1 16 din timp procesul îl va petrece în starea 1 (nici o bilă în prima urnă), 1 4 în starea 2, 3 8 în starea 3, 1 4 în starea 4 şi 1 16 în starea 5. Figura 3.2.15 prezintă grafic evoluţia stării lanţului Markov în cazul (0)π = v , obţinută prin simulare pe o durată de 100 de paşi.

0 10 20 30 40 50 60 70 80 90 1000.5

1

2

3

4

5

5.5Evolutia starilor lantului Markov

k

X(k

)

Fig. 3.2.15. Reprezentarea grafică a evoluţiei stării lanţului Markov

din Exemplul 3.2.13.

Exemplul 3.2.14. (Lanţ birth-death în timp discret) Se consideră lanţul Markov în timp discret cu număr infinit de stări ( ∗=S ) având diagrama probabilităţilor tranziţiilor de stare din fig. 3.2.16. Tranziţiile au loc numai între stări adiacente: din starea i în starea 1i + cu probabilitatea 1 p− , tranziţii referite drept „naştere”, şi din starea i în starea 1i − cu probabilitatea p, tranziţii referite drept „moarte”. Starea 1i = rămâne nemodificată cu probabilitatea p. Un asemenea lanţ Markov este denumit lanţ naştere-moarte (eng. birth-death) în timp discret. Considerând (0,1)p∈ , lanţul Markov studiat este ireductibil şi aperiodic ( 00 0p p= > ).

Page 107: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

97

Fig. 3.2.16. Diagrama probabilităţilor tranziţiilor de stare pentru

un lanţ birth-death în timp discret. Să studiem mai întâi efectul pe care îl are valoarea probabilităţii p asupra naturii acestui lanţ Markov. Dacă la un moment dat lanţul este în starea 1, revenirea în această stare poate avea loc după un singur pas, cu probabilitatea p, sau, cu probabilitatea 1 p− , după o secvenţă de paşi, ce constă dintr-o tranziţie în starea 2 şi apoi revenirea în starea 1 după un număr finit de paşi. Fie 11T timpul de recurenţă al stării 1 şi 21T timpul de evoluţie a lanţului din starea 2 în starea 1. Se observă că

[ ] [ ]1 11 21(1 )P T p p P Tρ = < ∞ = + − < ∞ . Fie [ ]2 21q P T= < ∞ şi 2m > o stare fixată a lanţului. Pentru orice stare 2, , 1i m= −… fie [ ]1( )i i imq m P T T= < , probabilitatea ca pornind din starea i, lanţul să treacă prin starea 1 înainte de a ajunge în starea m. De pe diagrama probabilităţilor tranziţiilor de stare rezultă că

1 1( ) ( ) (1 ) ( )i i iq m pq m p q m− += + − , deoarece pornind din starea i, vizitarea stării 1 înaintea stării m poate surveni în două moduri: trecând prin starea 1i − , cu probabilitatea p, sau prin starea 1i + , cu probabilitatea 1 p− . Relaţia precedentă poate fi adusă la forma echivalentă

[ ]1 1( ) ( ) ( ) ( )1i i i i

pq m q m q m q mp+ −− = −

−, 2, , 1i m= −… ,

care, cu (1 )p pβ = − , conduce la [ ] [ ]1

1 1 2 1( ) ( ) ( ) ( ) ( ) ( )ii i i iq m q m q m q m q m q mβ β −+ −− = − = = −… , 1, , 1i m= −… ,

astfel încât se obţine

[ ]

[ ]

1 1 11

1 2 11 1 1

11

1 2 11

( ) ( ) ( ) ( )

( ) ( ) ( ) ( ) .

m m mi

i ii i i

mi

mi

q m q m q m q m

q m q m q m q m

β

β

− − −−

+= = =

−−

=

− = − ⇔

⇔ − = −

∑ ∑ ∑

Deoarece 1( ) [ ] 0m m mmq m P T T= < = şi 1 11 1( ) [ ] 1mq m P T T= < = , în final avem

1

2 11

1

11 , pentru 1,11( ) 1

11 , pentru 1.1

m

mi

i

q m

m

β ββ

β β

−−

=

− − ≠ −= − = − = −∑

Pentru a ajunge din starea 2 în starea 3 este necesar cel puţin un pas, adică 231 T≤ . Pentru a ajunge din starea 2 în starea 4 lanţul trebuie să treacă mai întâi prin starea 3,

1 p−

p

1 2 3 i-1 i i+1

p

1 p− 1 p− 1 p−

p p p

Page 108: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 98

deci 23 24T T< . Repetând acest raţionament pentru a compara duratele 2iT şi 2 jT , cu i j m< ≤ , se obţine 2 2i jT T< . Din şirul de inegalităţi

23 24 21 mT T T≤ < < <… , urmează că 2 2mT m≥ − , 3,4,m = … , deci 2mT →∞ atunci când m →∞ . Ţinând cont de definiţiile lui 2q şi 2 ( )q m , rezultă

[ ] [ ]2 21 21 2 2lim lim ( )mm mq P T P T T q m

→∞ →∞= < ∞ = < = .

Sunt posibile următoarele situaţii: (a) dacă 0 1 2p< < (condiţie echivalentă cu 0 1β< < ) se obţine

2 (1 ) 1q p pβ= = − < şi 1 2(1 ) 2 1p p q pρ = + − = < , ceea ce arată că starea 1 este tranzitorie; (b) dacă 1 2p = (condiţie echivalentă cu 1β = ) se obţine

2 1q = şi 1 2(1 ) 1p p qρ = + − = , ceea ce arată că starea 1 este recurentă; pentru 1 2p = se poate demonstra că starea 1 este nul recurentă; (c) dacă 1 2 1p< < (condiţie echivalentă cu 1β > ) se obţine

2 1q = şi 1 2(1 ) 1p p qρ = + − = , ceea ce arată că starea 1 este recurentă; spre deosebire de cazul (b), în acest caz starea 1 este pozitiv recurentă. Aplicând teorema 3.2.5 rezultă în final că pentru 0 1 2p< < toate stările lanţului sunt tranzitorii, pentru 1 2p = toate stările lanţului sunt nul recurente, iar pentru 1 2 1p< < toate stările sunt pozitiv recurente. Trecem în continuare la analiza regimului staţionar al acestui lanţ birth-death. Matricea probabilităţilor tranziţiilor de stare are forma

1 0 0 00 1 0 0

0 0 1 00 0 0 1

p pp p

p pp p

− −

= − −

P

…………

.

Sistemul de ecuaţii liniare π π= ⋅P conduce la 1 1 2

1 1(1 ) , 2,3,i i i

p pp p i

π π ππ π π− +

= += − + = …

Din prima ecuaţie rezultă

2 11 p

pπ π−= ,

iar din cea de-a doua se obţine relaţia de recurenţă

1 11 1 , 2,3,i i i

p ip p

π π π+ −−= − = … .

Prin inducţie matematică se poate demonstra că

Page 109: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

99

111

i iπ πβ −= , 2,3,i = … ,

unde (1 ) 0p pβ = − > . Condiţia suplimentară 1

1iiπ∞

==∑ conduce la

1

11

11i

i

π

β

−=

=

∑, 1

11

1 11i i

ii

πβ

β

− ∞

−=

= ⋅

∑, 2,3,i = … .

În cele trei cazuri distincte puse în evidenţă în discuţia asupra naturii stărilor acestui lanţ se ajunge la următoarele concluzii: (a) dacă 0 1 2p< < (condiţie echivalentă cu 0 1β< < , deci 1 1β > ) se obţine

0iπ = , 1,2,3,i = … ,

ceea ce arată că, de fapt, condiţia 1

1iiπ∞

==∑ nu poate fi satisfăcută. Toate stările

lanţului fiind tranzitorii, nu există o distribuţie staţionară de stare; (b) dacă 1 2p = (condiţie echivalentă cu 1β = ), ca şi în cazul (a) se obţine

0iπ = , 1,2,3,i = … ,

ceea ce arată că, de fapt, condiţia 1

1iiπ∞

==∑ nu poate fi satisfăcută, deci nu există

o distribuţie staţionară de stare, confirmând faptul că toate stările lanţului sunt nul recurente; (c) dacă 1 2 1p< < (condiţie echivalentă cu 1β > , deci 0 1 1β< < ) se obţine

12 111 p

β−= − = ,

12 1 11 i

i ip pp p

βπβ

−− −− = =

, 2,3,i = … ,

acesta fiind singurul caz în care distribuţia staţionară de stare există, confirmând faptul că toate stările lanţului sunt pozitiv recurente. Se poate observa, de asemenea, că

0,50,5

lim 0ipp

π→>

= , în concordanţă cu rezultatul obţinut la punctul (b).

Exemplul 3.2.15. Un flux de evenimente de tip Bernoulli reprezintă un lanţ Markov în timp discret, ireductibil, având diagrama probabilităţilor tranziţiilor de stare din fig. 3.2.17, în care starea i corespunde apariţiei unui număr de 1i − evenimente.

Fig. 3.2.17. Diagrama probabilităţilor tranziţiilor de stare pentru un flux Bernoulli. Matricea probabilităţilor tranziţiilor de stare are forma

1 p−

1 2 3 i-1 i i+1

p 1 p−

1 p− 1 p− 1 p− 1 p− p p p

Page 110: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 100

1 0 00 1 00 0 10 0 0 1

p pp p

p pp

− −

= − −

P

…………

.

Pentru 0 1p< < este satisfăcută relaţia 1 1iip p= − ≠ , 1,2,i = … , deci acest lanţ este ireductibil şi aperiodic. De asemenea se observă că odată ce lanţul a părăsit starea i nu mai este posibilă revenirea la această stare, deci toate stările lanţului sunt tranzitorii. Din teorema 3.2.9 rezultă că lim ( ) 0, 1,2,i ik

k iπ π→∞

= = = … şi nu există o

distribuţie staţionară de stare. Durata iT de menţinere a stării i (adică durata dintre apariţiile evenimentelor cu indicii 1i − şi i din flux) are distribuţie geometrică de parametru 1 iip p− = , deci M[ ] 1 (1 ) 1i iiT p p= − = şi 2 2Var[ ] (1 ) (1 )i ii iiT p p p p= − = − , în concordanţă cu rezultatele prezentate în secţiunea 3.1.3.

3.2.4.2. Lanţuri Markov reductibile Evoluţia pe termen lung a unui lanţ Markov reductibil este predictibilă. Dacă lanţul se află la momentul iniţial în una dintre stările tranzitorii, lanţul va intra la un moment dat în una din submulţimile închise de stări şi va rămâne acolo. Dacă lanţul are mai mult de 2 submulţimi închise de stări, problema care se pune este în care dintre ele va intra şi cu ce probabilitate.

Fig. 3.2.18. Ilustrarea grafică a tranziţiei dintr-o stare tranzitorie într-o mulţime închisă de

stări: (a) într-un singur pas, respectiv (b) în mai mulţi paşi. Fie T mulţimea stărilor tranzitorii ale unui lanţ Markov şi cS o mulţime închisă de stări. Presupunem că la momentul iniţial lanţul se află într-o stare tranzitorie, 0X i= ∈T . Probabilitatea ca lanţul să ajungă din starea iniţială într-o stare din mulţimea închisă cS este

[ ]0( ) , 0i c k cS P X S k X iρ = ∈ > = . (3.2.42)

i

j

cS

T

(a)

i

j

cS

T

(b)

r k = 1

k = 1

Page 111: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

101

Din starea iniţială 0X i= ∈T poate ajunge în cS într-un singur pas (fig. 3.2.18.(a)) dacă are loc evenimentul [ ]1 0cX S X i∈ = , a cărui probabilitate de apariţie este

[ ] [ ]1 0 1 0c c

c ijj S j S

P X S X i P X j X i p∈ ∈

∈ = = = = =∑ ∑ , (3.2.43)

sau din mai mulţi paşi (fig. 3.2.18.(b)), dacă are loc evenimentul [ ]1 0, , 1k cX X S k X i∈ ∈ > =T , a cărui probabilitate de apariţie este

[ ] [ ]

[ ] [ ]

[ ]

1 0 1 0

1 0 1 0

1

, , 1 şi , 1

, 1 ,

, 1 ( ) .

k c k cr

k cr

k c ir r c irr r

P X X S k X i P X r X S k X i

P X S k X r X i P X r X i

P X S k X r p S pρ

∈ ∈

∈ ∈ > = = = ∈ > = =

= ∈ > = = = = =

= ∈ > = =

∑ ∑

T

T

T T

T

(3.2.44)

Rezultă astfel sistemul de ecuaţii liniare ( ) ( ) ,

c

i c ij r c irj S r

S p S p iρ ρ∈ ∈

= + ∈∑ ∑T

T . (3.2.45)

În principiu, prin rezolvarea acestui sistem se pot determinare probabilităţile ( )i cSρ pentru toate stările tranzitorii i∈T ale lanţului. Trebuie menţionat faptul că, dacă mulţimea stărilor tranzitorii este infinită, s-ar putea ca soluţia acestui sistem să nu fie unică. Dacă T este finită, atunci soluţia este unic determinată.

Exemplul 3.2.16. Revenim la lanţul Markov studiat în Exemplul 3.2.6, cu diagrama probabilităţilor tranziţiilor de stare din fig. 3.2.6 şi matricea probabilităţilor tranziţiilor de stare

0.5 0.5 0 0 00.3 0 0.3 0 0.40 0 0 1 00 0 0.5 0.5 00 0 0 0 1

=

P .

Stările tranzitorii ale lanţului sunt 1,2=T , iar submulţimile închise şi ireductibile de stări 1 3, 4S = şi 2 5S = . Pentru mulţimea 1S sistemul de ecuaţii liniare (3.2.45) devine

4 2

1 1 1 1 13 1 1 1 1 1 11 2 1 12

4 22 1 23 1 1 21

2 1 2 1 23 1

1 1 1 1 2 1

2 1 1 1

( ) ( ) ,( ) ( ) ( ) ,( ) ( ) ,

( ) ( ) ,

( ) 0,5 ( ) 0,5 ( ),( ) 0,3 0,3 ( ),

j r rj r

j r rj r

S p S pS S p S pS p S p

S p S p

S S SS S

ρ ρρ ρ ρρ ρ

ρ ρ

ρ ρ ρρ ρ

= =

= =

= + = + ⇒ ⇒ = + = +

= +⇒ = +

∑ ∑

∑ ∑

a cărui soluţie este 1 1 2 1( ) ( ) 3 7S Sρ ρ= = .

Page 112: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 102

Procedând analog pentru mulţimea 2S se obţine 2

1 2 15 2 11 2 1 2 11 2 2 121

22 2 25 1 2 21

2 2 25 2 21

1 2 1 2 2 2

2 1 1 2

( ) ( ) ,( ) ( ) ( ) ,( ) ( ) ,

( ) ( ) ,

( ) 0,5 ( ) 0,5 ( ),( ) 0,4 0,3 ( ),

r rr

r rr

S p S pS S p S pS p S p

S p S p

S S SS S

ρ ρρ ρ ρρ ρ

ρ ρ

ρ ρ ρρ ρ

=

=

= + = + ⇒ ⇒ = + = +

= +⇒ = +

a cărui soluţie este 1 2 2 2( ) ( ) 4 7S Sρ ρ= = . Aceste valori puteau fi determinate şi din condiţiile 1 1 1 2( ) ( ) 1S Sρ ρ+ = şi 2 1 2 2( ) ( ) 1S Sρ ρ+ = , care exprimă faptul că din starea 1, respectiv 2, lanţul va fi absorbit cu siguranţă în una şi numai una dintre cele două mulţimi închise şi ireductibile 1 3, 4S = şi 2 5S = .

3.2.4.3. Lanţuri Markov absorbante Un lanţ Markov în care stările tranzitorii sunt mutual accesibile şi toate stările recurente sunt absorbante se numeşte lanţ absorbant (eng. absorbing chain). Pentru un lanţ Markov absorbant, oricare ar fi starea iniţială, probabilitatea ca lanţul să ajungă într-o stare absorbantă este 1 (se spune că procesul este absorbit). Pentru un lanţ absorbant nu există o distribuţie staţionară de stare. Particularizând relaţia (3.2.42) pentru i∈T o stare tranzitorie a unui lanţ absorbant şi cS j= o stare absorbantă, [ ]0( ) , 0i kj P X j k X iρ = = > = reprezintă probabilitatea de absorbţie (eng. absorption probability) din starea i în starea j. Aceste probabilităţi pot fi determinate prin rezolvarea sistemului (3.2.45) sau, pentru lanţuri finite, în modul prezentat în continuare. Considerăm un lanţ Markov absorbant cu n stări, dintre care t sunt tranzitorii, restul de r n t= − stări fiind absorbante. Se renumerotează stările lanţului astfel încât primele t stări sunt tranzitorii, 1, 2, , t=T … , iar ultimele r stări sunt absorbante, 1, 2, ,t t n= + +A … . Prin acest procedeu, matricea probabilităţilor de tranziţie se poate aduce la forma canonică

r

=

Q RP O I , (3.2.46)

unde: Q este matricea pătratică t t× a probabilităţilor de tranziţie între două stări tranzitorii, şi are proprietatea lim k

tk→∞=Q O cu tO matricea nulă t t× ;

R este matricea t r× a probabilităţilor de tranziţie dintr-o stare tranzitorie într-o stare absorbantă; O este matricea nulă r t× ; rI este matricea unitate r r× , corespunzătoare stărilor absorbante. Se defineşte matricea fundamentală (eng. fundamental matrix)

, 1,ij i j tn

== N a lanţului,

( ) 1

1

kt

k

∞−

=

= − =∑N I Q Q . (3.2.47)

Page 113: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

103

Dacă la momentul iniţial lanţul se găseşte în starea tranzitorie i∈T , atunci numărul mediu de vizite în starea tranzitorie j∈T înainte ca procesul să fie absorbit este dat de elementul ijn , , 1,i j t= , al matricei fundamentale N. Numărul mediu de paşi în care procesul va fi absorbit din starea tranzitorie i (eng. time to absorption) este dat de

1

t

i ijj

nτ=

=∑ , i∈T . (3.2.48)

Vectorul coloană [ ]1 2, , , Ttτ τ ττ = … poate fi calculat matriceal

τ = ⋅N c , (3.2.49)

unde c este vectorul coloană cu t elemente egale cu 1, [ ]1,1, ,1 T=c … . Fie , ,ijh i j∈T , probabilitatea ca procesul aflat la momentul iniţial în starea tranzitorie i să ajungă în starea tranzitorie j înainte de a fi absorbit (eng. hitting probability). Matricea

, 1,ij i j th

== H este dată de

( ) 1dg−= − ⋅H N I N , (3.2.50)

unde dg ijn= N este matricea pătratică t t× ce are pe diagonala principală elementele

diagonalei matricei N ( ii iin n= , 1,i t= ) şi 0 în rest ( 0, , 1, ,ijn i j t i j= = ≠ ). Pentru 0X i= ∈T , probabilitatea de absorbţie în starea s∈A se notează

[ ]0, 0is kb P X s k X i= = > = , i∈T , s∈A . (3.2.51)

Matricea probabilităţilor de absorbţie [ ]isb=B este dată de

= ⋅B N R . (3.2.52) Matricea lim k

k→∞=W P are forma

t

r

=

O BW O I . (3.2.53)

Exemplul 3.2.17. Se consideră lanţul Markov cu diagrama probabilităţilor tranziţiilor de stare din fig. 3.2.19 şi matricea probabilităţilor tranziţiilor de stare

0 0 1 01 0 0 0

0 1 0 00 0 0 1 00 0 0 0 1

p pp p

p p

− −

= −

P , 0 1p< < .

Stările lanţului au fost numerotate astfel încât matricea P să fie în forma canonică. În fig. 3.2.20 sunt reprezentate grafic puterilor kP ale matricei probabilităţilor tranziţiilor de stare pentru 1, 2,3,5,7, 20k∈ şi 1 2p = . Aspectul grafic al matricei 20P sugerează că, dacă la momentul iniţial lanţul se află în una dintre stările tranzitorii, probabilitatea ca după 20 de paşi să se găsească tot într-o stare tranzitorie este practic nulă.

Page 114: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 104

Fig. 3.2.19. Diagrama probabilităţilor tranziţiilor de stare pentru

lanţul Markov din Exemplul 3.2.17.

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Reprezentare grafica a matricei P1

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Reprezentare grafica a matricei P2

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Reprezentare grafica a matricei P3

Stare finalaS

tare

initi

ala

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Reprezentare grafica a matricei P5

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Reprezentare grafica a matricei P7

Stare finala

Sta

re in

itial

a

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5

1

2

3

4

5

Reprezentare grafica a matricei P20

Stare finala

Sta

re in

itial

a

Fig. 3.2.20. Reprezentări grafice ale puterilor kP ale matricei probabilităţilor

tranziţiilor de stare pentru 1, 2,3,5,7, 20k∈ . Fig. 3.2.21 prezintă grafic evoluţia stării lanţului Markov studiat, obţinută prin simulare pe o durată de 10 paşi. Se observă că, în ambele cazuri, pornind din starea iniţială 2, după 4 paşi lanţul a fost absorbit în starea 4, respectiv 5.

0 1 2 3 4 5 6 7 8 9 100.5

1

2

3

4

5

5.5Evolutia starilor lantului Markov

k

X(k

)

0 1 2 3 4 5 6 7 8 9 100.5

1

2

3

4

5

5.5Evolutia starilor lantului Markov

k

X(k

)

Fig. 3.2.21. Reprezentări grafice ale evoluţiei stării lanţului Markov

din Exemplul 3.2.17.

1 p−

4 1 21

1 p−

p

3 5

1 p−

p p

1

Page 115: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

105

Pentru 1 2p = , se obţin următoarele valori numerice: [ ]3 4 3 Tτ = şi 3 2 1 1 21 2 1

1 2 1 3 2

=

N , 1 3 1 2 1 32 3 1 2 2 31 3 1 2 1 3

=

H , 3 4 1 41 2 1 21 4 3 4

=

B ,

aceste matrice fiind reprezentate grafic în fig. 3.2.22.

0

0.5

1

1.5

1 2 3

1

2

3

Numarul mediu de vizite - N

Stare vizitata

Sta

re in

itial

a

0.1

0.2

0.3

0.4

0.5

0.6

1 2 3

1

2

3

Probabilitati de vizitare - H

Stare vizitata

Sta

re in

itial

a

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.5 1 1.5 2 2.5

1

2

3

Probabilitati de absorbtie - B

Stare absorbanta

Sta

re in

itial

a

Fig. 3.2.22. Reprezentări grafice ale matricelor N, H şi B corespunzătoare

lanţului Markov din Exemplul 3.2.17.

3.3. Lanţuri Markov în timp continuu, omogene

3.3.1. Tranziţii de stare 3.3.1.1. Ecuaţia Chapman-Kolmogorov Lanţurile Markov în timp continuu (sau, simplu, lanţuri continue) sunt diferite de cele în timp discret prin însăşi natura spaţiului parametrilor. O consecinţă importantă este aceea că, prin definiţie, lanţurile continue sunt aperiodice, deoarece timpul dintre două tranziţii succesive de stare are distribuţie exponenţială, făcând astfel imposibilă existenţa unei periodicităţi. O altă deosebire fundamentală este aceea că abordarea uzuală a lanţurilor continue se bazează pe ratele de apariţie a tranziţiilor de stare şi nu pe probabilităţile asociate acestora. Un lanţ Markov în timp continuu (eng. continuous time Markov chain – CTMC) reprezintă un proces stohastic X având o mulţime finită ( 1, 2,..., n ∗= ⊂S ) sau numărabilă

de stări ( ∗=S ). Starea acestui proces este observată la momentele de timp (continuu) [ )= 0,+t +∈ ∞ =T , la momentul iniţial 0 0t = fiind (0)X . Pentru lanţurile Markov în timp

continuu proprietatea caracteristică (de lipsă a memoriei) este precizată prin condiţia (3.1.9),

1 1 1 1 0 0

1 1

[ ( ) | ( ) , , ( ) , ( ) ][ ( ) | ( ) ],

k k k k

k k k k

P X t x X t x X t x X t xP X t x X t x

+ +

+ +

= = = = =

= = =

… (3.3.1)

pentru orice 0 1 1k kt t t t +< < < <… . Dacă starea curentă kx este cunoscută, valoarea pe care o va lua 1( )kX t + depinde numai de kx , fiind independentă de „istoria” stărilor trecute. Pentru oricare două stări ,i j∈S şi momente de timp 0 s t≤ ≤ , se defineşte funcţia de tranziţie de stare (eng. state transition function) prin relaţia:

Page 116: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 106

[ ]( , ) ( ) ( )ijp s t P X t j X s i= = = . (3.3.2)

Fig. 3.3.1. Evoluţia stărilor unui lanţ Markov în timp continuu.

Funcţiile de tranziţie de stare satisfac versiunea în timp continuu a ecuaţiei Chapman-Kolmogorov în timp discret (3.2.7). Pentru a scrie această ecuaţie, considerăm două stări i şi j; pentru a ajunge din starea i (ocupată la momentul s) în starea j (la momentul t), la momentul u (cu 0 s u t≤ ≤ ≤ ) lanţul s-a aflat într-o stare r (fig. 3.3.1). Utilizând legea probabilităţii totale se obţine [ ] [ ]( , ) ( ) ( ) , ( ) ( ) ( )ij

rp s t P X t j X u r X s i P X u r X s i

= = = = = =∑S

. (3.3.3)

Proprietatea de lipsă a memoriei (3.3.1) conduce la [ ] [ ]( ) ( ) , ( ) ( ) ( ) ( , )rjP X t j X u r X s i P X t j X u r p u t= = = = = = = (3.3.4)

astfel că relaţia (3.3.3) devine: ( , ) ( , ) ( , )ij ir rj

rp s t p s u p u t

= ∑S

, , , 0i j s u t∀ ∈ ≤ ≤ ≤S . (3.3.5)

Relaţia (3.3.5) reprezintă ecuaţia Chapman-Kolmogorov pentru lanţuri Markov în timp continuu. Pentru a o scrie în formă matriceală se defineşte matricea ( , )s tP având ca elemente probabilităţile ( , )ijp s t ,

( , ) ( , )ijs t p s t= P , ,i j∈S , 0 s t≤ ≤ , (3.3.6)

matrice stohastică cu proprietatea ( , )s s =P I (matricea unitate). Forma matriceală a ecuaţiei Chapman-Kolmogorov (3.3.5) este ( , ) ( , ) ( , )s t s u u t= ⋅P P P , 0 s u t≤ ≤ ≤ . (3.3.7) Considerăm momentele de timp 0 s t t t≤ ≤ < + ∆ , cu 0t∆ > . Ecuaţia Chapman-Kolmogorov (3.3.7) devine

[ ]

( , ) ( , ) ( , )( , ) ( , ) ( , ) ( , )

s t t s t t t ts t t s t s t t t t

+ = ⋅ + ⇔⇔ + − = ⋅ + −

P P PP P P P I

∆ ∆∆ ∆

(3.3.8)

şi conduce la

[ ] [ ]0 0

1 1lim ( , ) ( , ) ( , ) lim ( , )t t

s t t s t s t t t tt t→ →

+ − = ⋅ + −P P P P I∆ ∆

∆ ∆∆ ∆

, (3.3.9)

în ipoteza că ambele limite implicate în relaţia (3.3.9) există. Se observă că în membrul stâng al relaţiei (3.3.9) intervine derivata parţială în raport cu t

[ ]0

( , )( , ) 1lim ( , ) ( , ) ij

t

p s ts t s t t s tt t t→

∂ ∂ = + − = ∂ ∂

P P P∆

∆∆

. (3.3.10)

i r j

s u t

Page 117: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

107

Limita din membrul drept al relaţiei (3.3.9) defineşte matricea ratelor tranziţiilor de stare (eng. transition rate matrix)

[ ]0

1( ) lim ( , )t

t t t tt→

= + −Q P I∆

∆∆

, 0t ≥ , (3.3.11)

denumită şi generator infinitezimal al matricei ( , )s tP . După cum se va observa în continuare, un lanţ Markov în timp continuu este complet specificat prin matricea ratelor tranziţiilor de stare ( )tQ . Relaţia (3.3.9) conduce la ecuaţia diferenţială matriceală

( , ) ( , ) ( )s t s t tt

∂ = ⋅∂

P P Q , 0 s t≤ ≤ , (3.3.12)

referită drept ecuaţia Chapman-Kolmogorov cu orizont înainte (la dreapta) (eng. forward Chapman-Kolmogorov equation) a lanţurilor Markov în timp continuu. Într-o manieră similară, considerând momentele de timp 0 s s s t≤ < + ∆ ≤ , cu 0s∆ > , pentru a scrie relaţia (3.3.7), se obţine ecuaţia Chapman-Kolmogorov cu orizont înapoi (la stânga) (eng. backward Chapman-Kolmogorov equation) a lanţurilor Markov în timp continuu

( , ) ( ) ( , )s t s s ts

∂ = ⋅∂

P Q P , 0 s t≤ ≤ . (3.3.13)

În anumite condiţii satisfăcute de matricea ( )tQ , soluţia ecuaţiei (3.3.12), care satisface condiţia ( , )s s =P I , este dată de

( , ) exp ( )t

s

s t dτ τ

= ∫P Q , 0 s t≤ ≤ . (3.3.14)

Reamintim faptul că exponenţiala unei matrice (funcţie matriceală) A este definită prin

[ ] 2 31 1exp e2! 3!

= = + + + +AA I A A A … . (3.3.15)

În continuare ne limităm la studiul lanţurilor Markov omogene în timp continuu, pentru care funcţiile de tranziţie de stare ( , )ijp s t , 0 s t≤ ≤ , sunt independente de valorile absolute ale momentelor de timp s şi t, depinzând numai de diferenţa t s− , ( , ) (0, )ij ijp s t p t s= − , 0 s t≤ ≤ , ,i j∀ ∈S . (3.3.16)

Pentru lanţuri Markov omogene, funcţiile de tranziţie de stare depind de un singur parametru, fiind definite prin [ ]( ) ( ) ( )ijp t P X s t j X s i= + = = , , 0s t∀ ≥ , ,i j∀ ∈S . (3.3.17)

Matricea definită prin relaţia (3.3.6) este, de asemenea, independentă de s, fiind notată ( ) ( )ijt p t= P , ,i j∈S , 0t ≥ . (3.3.18)

Matricea ( )tP are proprietăţile (0) =P I şi ( ) 1ijjp t

∈=∑ S

, pentru orice i∈S şi 0t ≥ ( ( )tP

este matrice stohastică). Pentru lanţuri omogene, ecuaţia Chapman-Kolmogorov (3.3.7) devine ( ) ( ) ( ), , 0s t s t s t+ = ⋅ ∀ ≥P P P . (3.3.19)

Page 118: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 108

Funcţiile de tranziţie de stare sunt rareori utilizate în mod direct. De regulă, un lanţ Markov omogen în timp continuu este caracterizat prin ratele tranziţiilor de stare (eng. state transition rates), matricea ratelor tranziţiilor de stare (3.3.11) fiind independentă de t,

[ ] [ ]0 0 0

( )1 1lim ( ) lim ( ) (0)t t t

d tt tt t dt→ → =

= − = − = PQ P I P P∆ ∆

∆ ∆∆ ∆

. (3.3.20)

Componentele (constante) ale matricei ijq= Q , definite prin

0

( ), ,ij

ijt

dp tq i j

dt=

= ∈S , (3.3.21)

satisfac 0ij

jq

=∑S

, i∀ ∈S , (3.3.22)

deoarece matricea ( )tP este stohastică, ( ) 1ijjp t

∈=∑ S

, i∀ ∈S , 0t∀ ≥ .

Dacă este posibilă trecerea instantanee din starea i în starea j, j i≠ , atunci 0ijq > ; în caz contrar are loc 0ijq = . În particular, pentru i j= , relaţia (3.3.21) devine

[ ]00

( ) 1 ( ) ,iiii ii ii

tt

dp t dq q p t idt dt ==

= ⇔ − = − ∈S . (3.3.23)

Deoarece [ ]1 ( )iip t− reprezintă probabilitatea ca lanţul să părăsească starea i într-un interval de lungime t, rezultă că iiq− este rata instantanee cu care lanţul părăseşte starea i. Ecuaţiile Chapman-Kolmogorov la dreapta (3.3.12) şi la stânga (3.3.13) conduc la

( ) ( ) ( )d t t tdt

= ⋅ = ⋅P P Q Q P , 0t ≥ , (3.3.24)

care arată că matricea Q comută cu ( )tP . Ecuaţia diferenţială (3.2.24) cu condiţia iniţială (0) =P I admite soluţie unică

( )( ) exp , 0t t t= ≥P Q , (3.3.25)

unde ( )exp tQ notează exponenţiala (3.3.15) a funcţiei matriceale tQ ,

( )2 3

2 3

0exp

! 1! 2! 3!

kk

k

t t t ttk

=

= = + + + +∑Q Q I Q Q Q … . (3.3.26)

3.3.1.2. Durata de menţinere a unei stări Pentru un lanţ Markov omogen în timp continuu presupunem că tranziţiile de stare au loc la momentele de timp 1 2 10 k kY Y Y Y +< < < < < <… … , secvenţa stărilor prin care trece procesul fiind notată 1 2 1, , , , ,k kX X X X +… … (fig. 3.3.2). Fie i∈S o stare oarecare a lanţului. Presupunem că la momentul kY are loc tranziţia în starea i, iar la momentul 1kY + tranziţia din starea i. Durata 1( ) k kT i Y Y+= − cât lanţul rămâne în starea i după ce a ajuns în această stare se numeşte durată de menţinere a stării i (eng. state holding time sau sojourn time).

Page 119: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

109

Proprietatea fundamentală a lanţurilor Markov omogene în timp continuu este aceea că pentru fiecare stare i∈S a lanţului, durata de menţinere a stării i este o variabilă aleatoare continuă cu distribuţie exponenţială, adică , ( ) 0i i∀ ∈ ∃Λ >S astfel încât [ ] ( )( ) 1 e , 0i tP T i t t−Λ≤ = − ∀ ≥ , (3.3.27) unde parametrul ( )iΛ depinde, în general, de starea i. Această proprietate este o consecinţă directă a proprietăţii de lipsă a memoriei (3.3.1). Presupunem că procesul ajunge în starea i la momentul 0t∗ ≥ şi până la momentul t s∗ + , 0s > , nu a avut loc nici o tranziţie de stare (deci

( )T i s> ). Considerăm probabilitatea condiţionată

(3.3.1)

[ ( ) | ( ) ] [ ( ) | ( ) , pentru ]

[ ( ) | ( ) ] [ ( ) ].

P T i s t T i s P T i s t X u i t u t s

P T i s t X t s i P V i t

∗ ∗

> + > = > + = ≤ ≤ + =

= > + + = = > (3.3.28)

Relaţia (3.3.28) arată că distribuţia de probabilitate a variabilei aleatoare ( )T i nu are memorie. În secţiunea 2.4.2.2 am demonstrat că singura distribuţie continuă care are această proprietate este distribuţia exponenţială, astfel că relaţia (3.3.27) este satisfăcută. Media variabilei aleatoare ( )T i este [ ]M ( ) 1 ( )T i i= Λ . În plus, ( )T i este independentă de starea în care va trece procesul la tranziţia din starea i (nu depinde de următoarea stare vizitată). Pentru legătura dintre parametrul ( )iΛ şi ratele ,ijq j∈S , ale tranziţiilor din starea i, în aceleaşi condiţii în care a fost dedusă relaţia (3.3.28), se obţine

( ) ( )

0

( )( ) [ ( ) ] e ( )e

( ) ( ), .

i t i tiiii

iiii

t

dp tp t P T i t idt

dp tq i idt

−Λ −Λ

=

= > = ⇒ = −Λ ⇒

⇒ = = −Λ ∈S (3.3.29)

Rata ( ) 0iΛ > a distribuţiei exponenţiale a duratei de menţinere a stării i pentru un lanţ Markov omogen în timp continuu este deci

(3.3.22)

( ) ii ijj i

i q q≠

Λ = − = ∑ . (3.3.30)

Fig. 3.3.2. Ilustrare grafică a duratelor de menţinere a stărilor

pentru un lanţ Markov omogen în timp continuu.

1X kX

2X

1Y kY 1kY +0

( )kT X

2Y

2( )T X

1( )T X

t

( )X t

Page 120: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 110

3.3.1.3. Probabilităţile tranziţiilor de stare Pentru un lanţ Markov omogen în timp continuu considerăm un moment la care starea curentă este ( )X t i= . Rata de apariţie a unei tranziţii instantanee din starea i în starea j, j i≠ , este

ijq , iar rata de apariţie a unei tranziţii instantanee din starea i (în oricare altă stare) este iiq− . Probabilitatea apariţiei unei tranziţii din starea i în starea j, j i≠ , este dată de

[ ][ ]

[ ]

0

0

lim ( ) ( ) , ( )

( ) , ( ) ( )lim , , , ,

( ) ( )

ij t

ij ij

t ii ikk i

P P X t t j X t t i X t i

q qP X t t j X t t i X t ii j i j

P X t t i X t i q q

∆ →

∆ →

= + ∆ = + ∆ ≠ = =

+ ∆ = + ∆ ≠ == = = ∈ ≠

+ ∆ ≠ = − ∑S

(3.3.31)

şi este independentă de timpul pe care procesul l-a petrecut în starea i. Prin definiţie, 0iiP = . Se observă că, aşa cum era de aşteptat, probabilităţile tranziţiilor de stare satisfac relaţia 1,ij

jP i

= ∈∑S

S . (3.3.32)

Probabilităţile tranziţiilor de stare Pij definesc un lanţ Markov în timp discret intim legat de lanţul continuu (eng. embedded discrete time Markov chain – EDTMC, sau jump chain). Lanţul discret are aceleaşi stări ca şi lanţul continuu căruia îi corespunde şi dictează secvenţa de stări vizitate, fiind independent de durata petrecută de lanţul continuu în fiecare stare. Probabilităţile tranziţiilor de stare ale lanţului EDTMC sunt date de relaţia (3.3.31); matricea probabilităţilor tranziţiilor de stare este

12 13

21 23

31 32

00

0e

P PP PP P

=

P

………

. (3.3.33)

Facem precizarea că, pentru lanţul discret obţinut în acest mod, parametrul k nu are semnificaţia de timp, ci reprezintă indicele tranziţiei de stare care are loc în lanţul continuu. Faptul că toate elementele de pe diagonala principală a matricei eP sunt nule arată că nu orice lanţ discret poate constitui un lanţ discret subordonat unui lanţ continuu. Concluzia finală care se desprinde din cele prezentate până acum este următoarea:

Există două moduri echivalente de a preciza un lanţ Markov omogen în timp continuu:

1. prin specificarea matricei ratelor tranziţiilor de stare, [ ], , 1, 2,ijq i j= =Q … ; pe baza matricei Q se pot determina parametrii distribuţiilor exponenţiale ale duratele de ocupare a stărilor, ( ) 0iΛ > (3.3.30), şi lanţul EDTMC corespunzător, având matricea probabilităţilor tranziţiilor de stare eP (3.3.33);

2. prin specificarea matricei [ ], , 1,2,eijP i j= =P … a lanţului Markov în timp discret (ce

dictează secvenţa tranziţiilor de stare ale lanţului continuu) şi a parametrilor distribuţiilor exponenţiale ale duratelor de ocupare a stărilor, ( ), 1, 2,i iΛ = … ; pe baza acestora se poate determina matricea ratelor tranziţiilor de stare [ ]ijq=Q a lanţului continuu prin relaţiile:

Page 121: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

111

(3.3.30)

( ),iiq i i= −Λ ∈S , (3.3.34)

(3.3.31)

( ), , ,ij ijq P i i j i j= ⋅Λ ∈ ≠S . (3.3.35)

Exemplul 3.3.1. Se consideră un server care poate fi în stare de funcţionare sau defectă. Rata de defectare a serverului este λ . Durata de reparare a acestuia are distribuţie exponenţială de rată µ . Lanţul Markov în timp continuu, omogen, care modelează comportarea acestui server are două stări: 1 – serverul funcţionează şi 2 – serverul este defect. Ratele tranziţiilor de stare sunt 12q λ= şi 21q µ= . Elementele diagonalei principale a matricei Q se determină din condiţia (3.3.22), care conduce la

11 12q q λ= − = − şi 22 21q q µ= − = − .

(a) (b)

Fig. 3.3.3. (a) Lanţul Markov continuu şi (b) cel discret studiate în Exemplul 3.3.1. Fig. 3.3.3.(a) prezintă diagrama ratelor tranziţiilor de stare pentru lanţul Markov în timp continuu, complet specificat prin matricea Q. Aceasta este un graf orientat având stările lanţului drept noduri. Pentru i j≠ , arcul orientat de la i la j este etichetat cu rata 0ijq > a tranziţiei din starea i în starea j.

0 2 4 6 8 10 12 14 16 18 200.5

1

2

2.5Evolutia starilor lantului Markov continuu

Timp t

Sta

re X

(t)

λ = 1, µ = 2

Semnificatie stari: 1 - Working ; 2 - Down

Fig. 3.3.4. Evoluţia stărilor lanţului Markov continuu din Exemplul 3.3.1

pentru 1λ = s-1 şi 2µ = s-1.

1 2

1

1 0 11 0

e =

P

1 2

λ

µ λ λµ µ−

= − Q

Page 122: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 112

Lanţul Markov în timp discret subordonat celui în timp continuu este prezentat în fig. 3.3.3.(b). Lanţul continuu este complet specificat prin matricea eP şi ratele distribuţiilor exponenţiale ale duratelor de menţinere a stărilor, (1) λΛ = şi (2) µΛ = . Fig. 3.3.4 prezintă o evoluţie posibilă a stărilor lanţului Markov continuu, obţinută prin simulare pe o durată de 20 s pentru 1λ = s-1 şi 2µ = s-1.

Exemplul 3.3.2. Un sistem de fabricaţie este constituit din două maşini identice care sunt deservite de un singur mecanic de întreţinere. Ori de câte ori una dintre maşini se defectează, durata de reparaţie a acesteia are o distribuţie exponenţială de rată µ . După ce o maşină a fost reparată, durata de funcţionare fără defectare are o distribuţie exponenţială de rată λ . Pentru lanţul Markov în timp continuu care modelează acest sistem considerăm stările: 1 – ambele maşini funcţionează, 2 – o singură maşină funcţionează şi 3 – ambele maşini sunt defecte. Dacă ambele maşini funcţionează (starea 1) oricare dintre acestea se poate defecta (independent de cealaltă maşină), astfel că rata tranziţiei din starea 1 în starea 2 este

12 2q λ= . Atunci când lanţul se găseşte în starea 2, maşina defectă poate intra în funcţiune (apare o tranziţie din 2 în 1, cu rata 21q µ= ) sau se poate defecta şi cea de a doua maşină (apare o tranziţie din 2 în 3 cu rata 23q λ= ). Din starea 3 singura tranziţie posibilă este în starea 2 (cu rata 32q µ= ) atunci când se termină repararea uneia dintre maşini. Elementele diagonalei principale a matricei Q se determină din condiţia (3.3.22). Diagrama tranziţiilor de stare şi matricea Q corespunzătoare acestui lanţ sunt prezentate în fig. 3.3.5.(a).

(a) (b)

Fig. 3.3.5. (a) Lanţul Markov continuu şi (b) cel discret studiate în Exemplul 3.3.1. Fig. 3.3.5. (b) prezintă lanţul Markov discret subordonat lanţului continuu din fig. 3.3.5.(a). Lanţul continuu este complet specificat prin matricea eP a probabilităţilor tranziţiilor de stare corespunzătoare lanţului discret, ale cărei elemente se determină cu relaţia (3.3.31), şi prin ratele distribuţiilor exponenţiale ale duratelor de ocupare a stărilor, determinate cu ajutorul relaţiei (3.3.30), (1) 2λΛ = , (2) λ µΛ = + , (3) µΛ = .

0 1 0( ) 0 ( )

0 1 0

e µ λ µ λ λ µ = + +

P

1 2

1

1

3

( )λ λ µ+

( )µ λ µ+

2 2 0( )

0

λ λµ λ µ λ

µ µ

− = − + −

Q

1 2

µ

3

λ

µ

Page 123: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

113

Fig. 3.3.6 prezintă o evoluţie posibilă a stărilor lanţului Markov continuu, obţinută prin simulare pe o durată de 20 s pentru 1λ = s-1 şi 2µ = s-1.

0 2 4 6 8 10 12 14 16 18 200.5

1

2

3

3.5Evolutia starilor lantului Markov continuu

Timp t

Sta

re X

(t)

λ = 1, µ = 2

Fig. 3.3.6. Evoluţia stărilor lanţului Markov continuu din Exemplul 3.3.2

pentru 1λ = s-1 şi 2µ = s-1.

3.3.2. Analiza regimului tranzitoriu Ca şi în cazul lanţurilor Markov în timp discret, unul din obiectivele principale în analiza unui lanţ Markov în timp continuu este determinarea probabilităţii ca lanţul să se găsească într-o anumită stare la un moment dat. Se definesc probabilităţile de stare: [ ]( ) ( ) , 0,i t P X t i t iπ = = ≥ ∀ ∈S , (3.3.36)

cu ajutorul cărora se formează vectorul probabilităţilor de stare (eng. state probability vector) [ ]1 2( ) ( ), ( ),t t tπ π= …π , 0t ≥ . (3.3.37) Elementele vectorului linie ( )tπ furnizează distribuţia de probabilitate a stării ( )X t a lanţului la momentul t. Fie [ ]1 2(0) (0), (0),π ππ = … distribuţia de probabilitate a stării la momentul iniţial 0 0t = . Aplicând legea probabilităţii totale se obţine

[ ] [ ] [ ]( ) ( ) ( ) (0) (0)

(0) ( ), ,

ji

i iji

t P X t j P X t j X i P X i

p t j

π

π∈

= = = = = = =

= ∀ ∈

∑S

S

S (3.3.38)

relaţie ce poate fi scrisă în forma matriceală ( ) (0) ( ), 0t t t= ⋅ ≥Pπ π . (3.3.39) Ţinând cont de expresia (3.3.25) a matricei ( )tP , rezultă ( )( ) (0) exp , 0t t t= ⋅ ≥Qπ π . (3.3.40)

Această relaţie arată că, în principiu, se poate determina distribuţia de probabilitate a stării lanţului la orice moment 0t ≥ dacă se cunoaşte matricea ratelor tranziţiilor de stare Q şi distribuţia stării iniţiale (0)π .

Page 124: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 114

Prin derivare în raport cu t, din relaţia (3.3.5) se obţine ecuaţia diferenţială

( ) ( ) , 0d t t tdt

= ⋅ ≥Qππ , (3.3.41)

satisfăcută de vectorul probabilităţilor de stare. Se poate observa asemănarea cu ecuaţia Chapman-Kolmogorov la dreapta (3.3.24)1 satisfăcută de ( )tP .

Pentru fiecare stare i∈S a unui lanţ Markov omogen în timp continuu se consideră

0

( ) ( ) , 0t

i iL t d tπ τ τ= ≥∫ . (3.3.42)

Se poate demonstra că ( )iL t reprezintă media timpului cumulat petrecut de lanţul continuu în starea i pe intervalul de timp [0, ]t . Definind vectorul 1 2( ) [ ( ), ( ), ]t L t L t=L … şi integrând în ambii membri ai relaţiei (3.3.41) de la 0 la t se obţine ecuaţia diferenţială

( ) ( ) (0), 0d t t tdt

π= ⋅ + ≥L L Q , (3.3.43)

a cărei soluţie satisface condiţia ( )[ ]( ) (0) exp , 0t t t⋅ = ⋅ − ≥L Q Q Iπ . (3.3.44)

În practică este util a scrie pe componente ecuaţia matriceală (3.3.41)

( )

( ) ( )jjj j ij i

i j

d tq t q t

dtπ

π π≠

= +∑ , j∈S . (3.3.45)

Această relaţie poate fi interpretată ca o ecuaţie de bilanţ a „fluxului de probabilitate” pentru fiecare nod (stare) a lanţului Markov. Interpretând valoarea ( )j tπ ca nivel al „fluidului de probabilitate” care se găseşte în nodul j, luând valori între 0 (nodul este gol) şi 1 (nodul este plin) la momentul t, rata tranziţiei ijq reprezintă rata cu care acest fluid este transferat din nodul i în nodul j (fig. 3.3.7). Debitul de „fluid” transferat din i în j este dat de ( )ij iq tπ , iar

debitul total care intră în nodul j este ( ) ( ) ( )inj ij ii jQ t q tπ

≠=∑ . Similar, debitul total de „fluid”

care iese din nodul j este ( ) ( ) ( ) ( )outj jr j jj jr jQ t q t q tπ π

≠= = −∑ . Ecuaţia de bilanţ a debitelor

este ( ) ( )( ) ( ) ( )in outdj j jdt t Q t Q tπ = − , adică tocmai ecuaţia (3.3.45). Cu ajutorul acestei

interpretări, pentru fiecare nod al unui lanţ Markov în timp continuu se poate scrie ecuaţia (3.3.45) inspectând diagrama ratelor tranziţiilor de stare.

Fig. 3.3.7. Bilanţul „fluxului de probabilitate” pentru starea j.

i

j

rijq jrq

Page 125: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

115

Exemplul 3.3.3. Pentru lanţul Markov prezentat în Exemplul 3.3.1, fie [ ]1 2( ) ( ) ( )t t tπ π=π vectorul probabilităţilor de stare la momentul 0t ≥ . Sistemul de

ecuaţii diferenţiale (3.3.41) se scrie în forma 1

1 2

21 2

( ) ( ) ( ),( ) ( )

( ) ( ) ( ).

d t t td t dtt

d tdt t tdt

π λπ µπ

π λπ µπ

= − += ⋅ ⇔ = −

Qππ

Pentru condiţia iniţială [ ]1 2(0) (0) (0)π π=π , soluţia acestui sistem este:

( )1 21

( )1 22

(0) (0)( ) e ,( ) (0) exp( )

(0) (0)( ) e .

t

t

tt t

t

λ µ

λ µ

λπ µπµπλ µ λ µ

λπ µπλπλ µ λ µ

− +

− +

− = + + += ⋅ ⇒ − = − + +

Qπ π

Se observă că există limita [ ]lim ( ) ( ) ( )t

t µ λ µ λ λ µ→∞

= + +π a cărei semnificaţie este

detaliată în secţiunea 3.3.4. Pentru valorile numerice 1λ = s-1, 2µ = s-1 şi (0) [1 0]=π se obţin expresiile

31

2 1( ) e3 3

ttπ −= + , 32

1 1( ) e3 3

ttπ −= − ,

ale căror reprezentări grafice sunt prezentate în fig. 3.3.8.

0 0.5 1 1.5 2 2.5 30

1Probabilitatile de stare

t

π (t)

λ = 1, µ = 2

π1(t)π2(t)

1/3

2/3

Fig. 3.3.8. Reprezentarea grafică a probabilităţilor de stare 1( )tπ şi 2 ( )tπ .

3.3.3. Clasificarea stărilor Stările unui lanţ Markov în timp continuu se clasifică în acelaşi mod ca şi stările unui lanţ în timp discret, cu deosebirea că, pentru un lanţ continuu, nu are sens noţiunea de stare periodică/aperiodică. O stare j∈S a unui lanţ Markov în timp continuu este accesibilă (eng. reachable) din starea i dacă există 0t > astfel încât [ ]( ) ( ) (0) 0ijp t P X t j X i= = = > (3.3.46)

(probabilitate ca procesul să ajungă din starea i în starea j într-un timp finit este nenulă).

Page 126: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 116

Interpretarea grafică a acestei condiţii este aceea că pe diagrama tranziţiilor de stare corespunzătoare lanţului Markov există un drum de la nodul i la nodul j. Un lanţ Markov continuu este ireductibil (eng. ireducible) dacă oricare două stări ale lui sunt mutual accesibile. O stare i∈S este absorbantă (eng. absorbing state) dacă 0ijq = pentru orice j∈S , astfel că, odată ce procesul a ajuns în această stare, nu o mai părăseşte.

3.3.4. Analiza regimului staţionar Similar cazului lanţurilor Markov în timp discret, dacă pentru o stare i∈S a unui lanţ Markov în timp continuu există limita [ ]lim ( ) lim ( )i it t

t P X t iπ π→∞ →∞

= = = , (3.3.47)

aceasta se numeşte probabilitate de regim staţionar (permanent) (eng. steady-state probability, stationary state probability). Dacă probabilitatea de regim staţionar există pentru toate stările unui lanţ, atunci se poate construi vectorul probabilităţilor de regim staţionar (eng. stationary state probability vector), [ ]1 2 3lim ( ) , , ,

kk π π ππ π

→∞= = … . În acest caz, se observă că pentru t →∞ , derivata

( ) 0d t dtπ → , deoarece pentru t suficient de mare, ( )tπ nu mai depinde de t. Cu această observaţie, prin trecere la limită în ecuaţia diferenţială (3.3.41) se obţine ecuaţia matriceală algebrică π ⋅ =Q 0 , (3.4.48) unde 0 notează vectorul linie cu toate elementele nule. Analiza comportamentului de regim permanent al unui lanţ Markov omogen în timp continuu este similară cu cea prezentată în cazul lanţurilor omogene în timp discret. Conceptele de ireductibilitate şi recurenţă rămân valabile şi în această situaţie. Enunţăm în continuare, fără demonstraţie, cel mai important rezultat în acest sens (Cassandras, 1993), echivalent teoremei 3.2.10 din cazul lanţurilor discrete.

Teorema 3.3.1. Într-un lanţ Markov omogen în timp continuu, ireductibil, ce constă numai din stări pozitiv recurente, există şi este unic vectorul distribuţiei de probabilitate a stării în regim staţionar, [ ]1 2 3, , ,π π ππ = … . Acest vector este independent de distribuţia de probabilitate a stării iniţiale şi se determină rezolvând sistemul de ecuaţii liniare

,

1.ii

π∈

⋅ = =∑

Q 0

S

π (3.3.49)

Scrierea pe componente a relaţiei (3.3.41)1 sub forma ij i jj j

i jq qπ π

= −∑ , j∈S , (3.3.50)

arată că, în regim staţionar, „fluxul de probabilitate” care intră în nodul j, ( )inj ij ii jQ q π

≠=∑ ,

este egal cu „fluxul de probabilitate” ( )outj jr j jj jr jQ q qπ π

≠= = −∑ care iese din nodul j.

Page 127: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

117

Ca şi în cazul discret, pentru un lanţ continuu ireductibil cu un număr finit de stări, distribuţia staţionară de stare este unic determinată prin (3.3.49). În scopul rezolvării pe calculator a sistemului de ecuaţii (3.3.49) pentru un lanţ Markov cu s stări, se notează cu E matricea pătratică ( s s× )şi cu e vectorul linie (1 s× ) care au toate elementele egale cu 1. Cu aceste notaţii se obţine 1( ) ( )−⋅ + = ⇒ = ⋅ +Q E e e Q Eπ π . (3.3.51) Fie un lanţ Markov omogen în timp continuu având matricea ratelor tranziţiilor de stare [ ]ijq=Q , pentru care există distribuţia de probabilitate a stării în regim staţionar,

[ ]1 2 3, , ,π π ππ = … . Pentru fiecare stare i∈S a lanţului continuu, durata de menţinere a stării i, notată ( )T i , are distribuţie exponenţială de parametru ( ) iii qΛ = − , valoarea sa medie fiind

[ ]M ( ) 1 ( )T i i= Λ . Considerăm lanţul discret subordonat lanţului continuu, precizat prin

matricea [ ]eijP=P a probabilităţilor tranziţiilor de stare. Se notează cu 1 2, ,e e eπ ππ = …

vectorul distribuţiei staţionare de stare a lanţului discret. Între vectorii distribuţiilor staţionare de stare corespunzători celor două lanţuri există relaţia

[ ][ ]

M ( )M ( )

e ei i ii

i e ej j jj

j j

T i qT j q

π πππ π

∈ ∈

= =∑ ∑S S

, i∈S . (3.3.52)

Dacă privim eiπ ca frecvenţă relativă cu care starea i apare într-o evoluţia de stare a lanţului

discret (aflat în regim staţionar), putem interpreta probabilitatea iπ ca fracţia de timp pe care lanţul continuu îl petrece în starea i în regim staţionar. Relaţia (3.3.52) conduce la

e i iii

j jjj

qq

πππ

=∑S

, i∈S . (3.3.53)

Exemplul 3.3.4. Revenim la lanţul Markov în timp continuu din fig. 3.3.3.(a) care modelează un server cu două stări. Distribuţia staţionară a stării lanţului 1 2[ ]π ππ = se determină prin rezolvarea sistemului de ecuaţii (3.3.49), care conduce la

1 2 1

1 2 2

0, ( ) ,1, ( ) ,

λπ µπ π µ λ µπ π π λ λ µ− + = = +

⇒ + = = +

rezultat care este în concordanţă cu cel prezentat în Exemplul 3.3.3. Deşi lanţul Markov în timp discret din fig. 3.3.3.(b), subordonat celui în timp continuu, este periodic, există un vector de probabilitate de stare 1 2[ ]e e eπ ππ = care satisface sistemul de ecuaţii (3.2.38)

1 2 1

1 2 2

, 1 2,

1, 1 2.

e e e

e e e

π π π

π π π

= = ⇒ + = =

Relaţiile (3.3.52) şi (3.3.53) pot fi verificate cu uşurinţă.

Page 128: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 118

3.3.5. Lanţuri birth-death în timp continuu Lanţurile birth-death în timp continuu reprezintă un tip particular de lanţ Markov omogen în timp continuu frecvent întâlnit în studiul sistemelor de aşteptare. Într-un lanţ birth-death sunt permise numai tranziţiile între stări adiacente. Diagrama ratelor tranziţiilor de stare corespunzătoare unui asemenea lanţ este prezentată în fig. 3.3.9. Facem observaţia că stările lanţului sunt notate 0,1, 2,… , în concordanţă cu semnificaţia atribuită acestora în modelarea sistemelor de aşteptare, şi anume de număr de clienţi prezenţi în sistem.

Fig. 3.3.9. Diagrama tranziţiilor de stare pentru un lanţ birth-death continuu.

Rata tranziţiei din starea i în starea 1i + este , 1 0i i iq λ+ = > , 0,1,i = … , iar cea a tranziţiei din starea i în starea 1i − este , 1 0i i iq µ− = > , 1,2,i = … . Matricea ratelor de tranziţie are forma:

0 0

1 1 1 1

2 2 2 2

3 3 3 3

0 0 0( ) 0 0

0 ( ) 00 0 ( )

λ λµ λ µ λ

µ λ µ λµ λ µ λ

− − +

= − + − +

Q

…………

. (3.3.54)

Analiza regimului tranzitoriu al unui lanţ birth-death conduce la soluţii analitice explicite numai în unele cazuri particulare. Notând cu 0 ( )tπ , 1( )tπ , 2 ( )tπ , … probabilităţile de stare, ecuaţiile diferenţiale (3.3.45) satisfăcute de acestea pot fi scrise direct, exploatând structura particulară a lanţului:

00 0 1 1

( ) ( ) ( )d t t tdtπ λ π µ π= − + , (3.3.55)

1 1 1 1( ) ( ) ( ) ( ) ( )i

i i i i i i id t t t t

dtπ λ µ π λ π µ π− − + += − + + + , 1,2,i = … . (3.3.56)

Considerăm în continuare cazul unui flux Poisson de evenimente, care reprezintă un lanţ de tip pure birth (adică 0iµ = pentru orice 1,2,i = … ). Starea lanţului la momentul 0t ≥ reprezintă numărul de evenimente ( )N t care au avut loc în fluxul Poisson în intervalul de timp [0, ]t . În plus, condiţia (P3) impusă unui asemenea flux de evenimente arată că ratele tranziţiilor de stare sunt constante, 0iλ λ= > , pentru orice 0,1, 2,i = … . În această situaţie ecuaţiile (3.3.55) şi (3.3.56) devin

00

( ) ( )d t tdtπ λπ= − , (3.3.57)

0 1 2 i-1 i i+1

1λ 1iλ − iλ

2µ iµ 1iµ +

Page 129: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

119

1( ) ( ) ( )i

i id t t t

dtπ λπ λπ −= − + , 1,2,i = … . (3.3.58)

Considerând 0 (0) 1π = (şi, implicit, (0) 0iπ = , 1,2,i = … ), soluţia ecuaţiei (3.3.57) este

0 ( ) e tt λπ −= , 0t ≥ . (3.3.59)

Pentru 1i = , din (3.3.58) rezultă

11

( ) ( ) e td t tdt

λπ λπ λ −= − + . (3.3.60)

Impunând condiţia iniţială 1(0) 0π = , soluţia acestei ecuaţii este

1( ) e tt t λπ λ −= , 0t ≥ . (3.3.61)

Prin inducţie matematică completă se poate demonstra că

( )( ) e!

it

itt

iλλπ −= , 0t ≥ . (3.3.62)

Ţinând cont că [ ]( ) ( )i t P N t iπ = = , se observă că relaţia (3.3.62) coincide cu (3.1.16). Analiza regimului staţionar al unui lanţ birth-death stă la baza teoriei elementare a sistemelor de aşteptare. Presupunând că există distribuţia staţionară de stare lim ( )

ttπ π

→∞= , din

(3.3.50) rezultă 0 0 1 1 0λ π µ π− + = , (3.3.63)

1 1 1 1( ) 0i i i i i i iλ µ π λ π µ π− − + +− + + + = , 1,2,i = … . (3.3.64)

Rezolvând ecuaţia (3.3.63) în raport cu 1π şi scriind apoi (3.3.64) pentru 1i = , se obţine

01 0

1

λπ πµ

= , 0 12 0

1 2

λ λπ πµ µ

= . (3.3.65)

Prin inducţie matematică completă se poate demonstra că soluţia generală a ecuaţiei (3.3.64) este de forma

0 10

1

ii

i

λ λπ πµ µ

−=……

, 1,2,i = … . (3.3.66)

Impunând condiţia 0

1iiπ∞

==∑ , se obţine probabilitatea

1

01 0 1

1 1i

j

i j j

λπ

µ

−∞

= = +

+ =

∑∏ . (3.3.67)

Seria care intervine în relaţia (3.3.67) este convergentă dacă şi numai dacă

0 0, : 1i

ii i i λ

µ∗∃ ∈ ∀ ≥ < , (3.3.68)

caz în care se obţine

11

01 0 1

1i

j

i j j

λπ

µ

−−∞

= = +

= + ∑∏ . (3.3.69)

Aceste relaţii vor fi exploatate în capitolul 4, la studiul sistemelor de aşteptare markoviene.

Page 130: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

120

3.4. Lanţuri Markov asociate reţelelor Petri stohastice

Dinamica unui sistem de aşteptare este pilotată de evenimentele de sosire a clienţilor în sistem şi de plecare a acestora din sistem. Un model de tip lanţ Markov descrie compact comportarea stohastică a sistemului, fără a permite evidenţierea evenimentelor care determină producerea tranziţiilor de stare. De asemenea, în unele situaţii, dimensiunea spaţiului stărilor unui model de tip lanţ Markov poate deveni foarte mare făcând dificilă punerea în evidenţă a tranziţiilor de stare. Atunci când este modelat un sistem complex care prezintă structuri repetitive, generarea modelului de tip lanţ Markov poate fi uşurată prin utilizarea formalismului reţelelor Petri. Un alt avantaj adus de modelarea cu reţele Petri a sistemelor cu evenimente discrete constă în includerea în model a fenomenelor de sincronizare şi concurenţă, ca şi a priorităţilor care există între diferite clase de clienţi. Dacă investigarea analitică a performanţelor unui sistem de aşteptare complex poate fi anevoioasă, chiar imposibilă, prin simularea comportării acestuia utilizând modelul de tip reţea Petri corespunzător (utilizând, evident, un software adecvat) performanţele sistemului pot fi determinate numeric. Reţele Petri au fost introduse de către Carl Adam Petri în 1962 (Petri, 1962). Extinderea capacităţii lor de modelare a avut în vedere includerea în model a informaţiilor temporale. Dintre diversele tipuri de reţele Petri existente la ora actuală (Păstrăvanu, 1996), (Păstrăvanu et al., 2002), prezentăm în continuare sumar numai reţelele Petri stohastice şi cele stohastice generalizate, frecvent utilizate în studiul sistemelor de aşteptare.

3.4.1. Concepte de bază în teoria reţelelor Petri O reţea Petri (eng. Petri net) se compune dintr-un tip particular de graf orientat notat N şi o stare iniţială 0M , denumită marcaj iniţial (eng. initial marking). Graful N al reţelei Petri este orientat, ponderat şi bipartit, constând din două tipuri de noduri, denumite poziţii (eng. place) şi respectiv tranziţii (eng. transition); arcele orientate (eng. arc) unesc fie o poziţie cu o tranziţie, fie o tranziţie cu o poziţie. Nu există arce care să conecteze două poziţii între ele, sau două tranziţii între ele. Ca simbolizare grafică, poziţiile se reprezintă prin cercuri, iar tranziţiile prin bare sau dreptunghiuri. Arcele sunt etichetate cu ponderile lor (eng. weight) (valori întregi, pozitive); un arc cu ponderea k poate fi privit ca o mulţime de k arce paralele cu pondere unitară. Etichetele pentru pondere unitară se omit în reprezentările grafice uzuale. Un marcaj sau o stare atribuie fiecărei poziţii un număr întreg mai mare sau egal cu 0. Dacă un marcaj atribuie poziţiei p întregul 0k ≥ , se spune că p este marcată cu k jetoane (eng. token). Din punct de vedere grafic, în cercul corespunzător poziţiei p se vor plasa k discuri. Orice marcaj M este un vector coloană m-dimensional, unde m notează numărul total al poziţiilor. Componenta i a vectorului 1 2[ ( ) ( ) ( )]T

mM p M p M p=M … , notată ( )iM p , reprezintă numărul de jetoane din poziţia pi. Din motive de concizie a scrierii, un marcaj va fi, de asemenea, reprezentat prin m-uplul 1 2( ( ), ( ), , ( ))mM p M p M p=M … . Definiţia riguroasă a unei reţele Petri este următoarea.

Page 131: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

121

O reţea Petri este un cvintuplu, ( )0, , , ,P T F W M=PN în care: • 1 2, , , mP p p p= … este mulţimea poziţiilor sau locaţiilor (finită); • 1 2, , , nT t t t= … este mulţimea tranziţiilor (finită); • ( ) ( )F P T T P⊆ × ×∪ este mulţimea arcelor; • : 1, 2,3,W F → … este funcţia de ponderare a arcelor; • 0 : 0,1,2,3,M P → … este funcţia de marcaj iniţial.

În problemele de modelare ce utilizează conceptele de condiţii şi evenimente, poziţiile reprezintă condiţii şi tranziţiile reprezintă evenimente. O tranziţie (eveniment) posedă un număr de poziţii de intrare şi ieşire, care reprezintă pre-condiţii şi respectiv post-condiţii pentru evenimentul în cauză. Prezenţa unui jeton într-o poziţie trebuie înţeleasă ca valoare logică „adevărat” pentru condiţia asociată respectivei poziţii.

Marcajul unei reţele Petri are semnificaţia de stare a reţelei şi se poate modifica în conformitate cu următorul procedeu denumit regula tranziţiei (validare şi executare).

a) Se spune că o tranziţie t este validată (eng. enabled) dacă fiecare poziţie de intrare (predecesor) p a lui t este marcată cu cel puţin ( , )W p t jetoane, unde ( , )W p t notează ponderea arcului de la p la t.

b) O tranziţie validată poate sau nu să fie executată sau declanşată (eng. fired), după cum evenimentul asociat tranziţiei are sau nu loc.

c) Executarea unei tranziţii validate îndepărtează ( , )W p t jetoane din fiecare poziţie de intrare (predecesor) p a lui t şi adaugă ( , )W t p jetoane la fiecare poziţie de ieşire (succesor) p a lui t, unde ( , )W t p este ponderea arcului de la t la p.

O tranziţie fără nici o poziţie de intrare se numeşte tranziţie sursă (eng. source). O tranziţie fără nici o poziţie de ieşire se numeşte tranziţie receptor (eng. sink). Modul de operare al acestor tranziţii este următorul:

a) O tranziţie sursă este necondiţionat validată (fără a fi obligatoriu ca să se execute); executarea ei produce jetoane.

b) Executarea unei tranziţii receptor consumă jetoane, fără a produce jetoane. Dacă o poziţie p este atât poziţie de intrare, cât şi de ieşire pentru o tranziţie t, atunci p şi t formează o buclă autonomă (eng. self-loop). O reţea Petri care nu conţine bucle autonome se numeşte pură (eng. pure). Pentru regula de validare a unei tranziţii prezentată mai sus s-a presupus că fiecare poziţie are capacitate infinită. În modelarea sistemelor fizice este firesc a considera o limită superioară a numărului de jetoane pe care îl poate conţine fiecare poziţie, asociind fiecărei poziţii p capacitatea sa (eng. capacity), notată K(p), definită ca numărul maxim de jetoane ce pot fi conţinute în p. O astfel de reţea se numeşte cu capacitate finită. Într-o reţea cu capacitate finită, pentru validarea unei tranziţii t este necesară următoarea condiţie suplimentară: numărul de jetoane în fiecare poziţie de ieşire p a lui t nu poate să depăşească capacitatea poziţiei respective, K(p), atunci când t s-ar executa.

Pe parcursul dezvoltării teoriei reţelelor Petri, pentru a extinde capacitatea lor de modelare, au fost introduse noi elemente care au avut drept efect modificarea regulii de

Page 132: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

122

validare şi executare a tranziţiilor. Un arc inhibitor conectează o poziţie la o tranziţie şi are rolul de a inversa logica de validare şi executarea a acesteia. Tranziţia respectivă este validată numai dacă numărul de jetoane din poziţia de intrare a arcului inhibitor este strict mai mic decât ponderea arcului. Arcul inhibitor se reprezintă grafic printr-un segment ce conectează cele două noduri, având un mic cerc la capătul dinspre tranziţia inhibată. În unele modele de tip reţea Petri două sau mai multe tranziţii modelează evenimente dintre care unul şi numai unul se poate produce la un moment dat (evenimente în conflict). Implicit se consideră că probabilităţile de apariţie a acestor evenimente sunt egale. În cazul în care această presupunere nu este în conformitate cu sistemul fizic modelat, probabilităţile de apariţie a evenimentelor în conflict pot fi asignate în mod explicit ca probabilităţi de executare a tranziţiilor care modelează evenimentele respective. De asemenea, atunci când se doreşte a impune modul de alegere a tranziţiei care urmează a fi executată dintre două sau mai multe tranziţii validate simultan se poate utiliza o reţea Petri cu priorităţi care constă dintr-o reţea Petri obişnuită şi o relaţie de ordine parţială între tranziţiile reţelei.

Pentru o reţea Petri N cu un marcaj iniţial M0, urmărind executarea secvenţială a tranziţiilor, se pot determina marcajele succesive ale reţelei. Aceste marcaje poartă denumirea de marcaje accesibile (eng. reachable marking) din M0. Mulţimea tuturor marcajelor accesibile din marcajul iniţial M0 se notează prin R(M0). Se spune că o reţea Petri cu capacitate nelimitată este k-mărginită, sau, în limbaj prescurtat, mărginită (eng. bounded), dacă numărul de jetoane din fiecare poziţie nu depăşeşte un număr finit k pentru orice marcaj accesibil din marcajul iniţial M0. Procesul de modificare a marcajului (stării) reţelei poate fi descris într-o manieră sintetică printr-un arbore sau printr-un graf, ce poartă denumirea de arbore, respectiv, graf de accesibilitate (eng. reachability tree/graph).

Topologia unei reţele Petri pure N (în care nu există bucle autonome), cu n tranziţii şi m poziţii, poate fi descrisă compact prin matricea de incidenţă (eng. incidence matrix) a reţelei, o matrice [ ]ija=A de dimensiune n m× , ale cărei elemente sunt numere întregi:

; 1,..., , 1,...,ij ij ija a a i n j m+ −= − = = , (3.4.1)

unde: • ( , )ij i ja W t p+ = este ponderea arcului de la tranziţia ti, către poziţia sa de ieşire pj;

• ( , )ij j ia W p t− = este ponderea arcului către tranziţia ti, de la poziţia sa de intrare pj.

Forma matriceală a relaţiei (3.4.1) este + −= −A A A , unde matricele [ ]ija+ +=A şi [ ]ija− −=A sunt referite drept matrice de incidenţă de ieşire, respectiv matrice de incidenţă de intrare. Fie o reţea Petri N, a cărei topologie este descrisă prin matricea de incidenţă

n m×∈A . Un vector m–dimensional >≠y 0 , cu elementele numere întregi se numeşte invariant P al reţelei dacă =Ay 0 . Un vector n–dimensional x >≠ 0, cu elementele numere întregi, se numeşte invariant T al reţelei dacă T =A x 0 . Este evident faptul că pentru o reţea Petri pot exista mai mulţi invarianţi P şi/sau mai mulţi invarianţi T. Mulţimea poziţiilor reţelei N care corespund elementelor nenule ale unui invariant P, notat y, se numeşte suportul

Page 133: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

123

invariantului y. Mulţimea tranziţiilor reţelei N care corespund elementelor nenule ale unui invariant T, notat x, se numeşte suportul invariantului x.

3.4.2. Reţele Petri stohastice O reţea Petri se numeşte stohastică (eng. stochastic Petri net – SPN) dacă fiecărei tranziţii ti îi este asociată o variabilă aleatoare Ti cu distribuţie exponenţială, care exprimă întârzierea din momentul validării până la executarea tranziţiei ti. Dacă la un moment dat într-o reţea Petri stohastică mai multe tranziţii sunt simultan validate, se va executa mai întâi acea tranziţie care posedă întârzierea cea mai scurtă. Prin urmare, într-o reţea Petri stohastică, nu are sens asignarea de probabilităţi sau priorităţi de executare pentru tranziţiile aflate în conflict. Conflictele se rezolvă în mod natural, prin generarea duratelor corespunzătoare tuturor tranziţiilor validate la momentul respectiv şi selectarea acelei tranziţii căreia îi corespunde cea mai mică durată. Într-o reţea Petri stohastică rata de executare a unei tranziţii t poate fi dependentă de marcaj în sensul următor. Dacă rata distribuţiei exponenţiale asociată tranziţiei t este λ , atunci la un moment oarecare la care tranziţia respectivă este q-validată, durata de executare a lui t se generează după o distribuţie exponenţială de rată qλ . Acest mecanism se utilizează, de exemplu, atunci când numărul de jetoane din poziţiile de intrare a lui t (adică ordinul de validare al lui t) reprezintă numărul de servere identice în paralel aflate în curs de servire a clienţilor, în ipoteza că duratele de servire pentru toate serverele au aceeaşi distribuţie de rată λ (eng. single-server versus multiple-server semantics).

3.4.3. Proprietăţi de conservare Pentru studiul unei SPN, metodele de analiză a lanţurilor Markov complementează metodele generale de analiză a reţelelor Petri. Rezultatele bazate pe invarianţii de tip P sau T valabile pentru reţelele cu temporizare P sau T pot fi extinse la cazul reţelelor Petri stohastice, pentru care se poate vorbi despre conservarea marcajului mediu şi despre frecvenţa medie de executare a tranziţiilor în regim permanent. Se consideră o reţea Petri stohastică pură şi mărginită (N, M0) cu n tranziţii şi m poziţii, a cărei topologie este descrisă de matricea de incidenţă [ ]ija=A de dimensiune n m× . Marcajul ( )tM al reţelei N la momentul 0t ≥ este un vector aleator de dimensiune m; componenta i a acestui vector reprezintă numărul de jetoane din poziţia ip , 1,i m= , la acel

moment; marcajul iniţial al reţelei este 0 (0)=M M . Fie 1 2( ) [ ( ) ( ) ... ( )]Tnt u t u t u t=u vectorul

a cărui componentă ( )ju t , 1,j n= , este variabila aleatoare discretă ce reprezintă numărul de

executări ale tranziţiei jt , 1,j n= , în intervalul de timp [0, )t . În orice moment 0t ≥ vectorii ( )tM şi ( )tu sunt legaţi prin relaţia temporală:

0( ) ( ), 0Tt t t= + ⋅ ≥M M A u , (3.4.2)

astfel că valorile medii ale celor doi vectori aleatori consideraţi satisfac relaţia: 0M[ ( )] M[ ( )]Tt t= + ⋅M M A u , 0t∀ ≥ . (3.4.3)

Page 134: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

124

Dacă vectorul m∈y , >≠y 0 , este un invariant P al reţelei ( ⋅ =A y 0 ), atunci vectorul marcajului mediu M[ ( )]tM satisface

0M[ ( )] ( constant)T Tt ⋅ = ⋅ =M y M y , 0t∀ ≥ . (3.4.4) Considerând că procesul stohastic de marcaj este ergodic şi staţionar, adică ( )tM converge către aceeaşi limită finită 1 2[ ( ) ( ) ( )]T

mM p M p M p∗ ∗ ∗ ∗=M … atât în medie temporală cât şi în medie probabilistică, atunci ∗M se numeşte vector de marcaj mediu în regim permanent şi verifică relaţia 0

T T∗ ⋅ = ⋅M y M y . (3.4.5)

Această relaţie arată că suma ponderată a marcajelor medii din poziţiile corespunzătoare suportului unui invariant P este egală cu suma ponderată a marcajelor iniţiale din acele poziţii. Considerând că procesul stohastic de executare a tranziţiilor este ergodic, adică ( )tu converge către aceeaşi limită finită

1 2[ ]

m

Tu u u∗ ∗ ∗ ∗=u … atât în medie temporală cât şi în

medie probabilistică, atunci ∗u se numeşte vector al frecvenţelor medii de executare a tranziţiilor în regim permanent şi verifică relaţia T ∗⋅ =A u 0 . (3.4.6) Scriind relaţia (3.4.6) în forma ( ) ( )T T+ ∗ − ∗⋅ = ⋅A u A u , aceasta exprimă conservarea fluxului de jetoane într-o reţea Petri stohastică mărginită: în regim permanent, fluxul de jetoane care intră în orice poziţie este egal cu fluxul de jetoane care iese din acea poziţie. În aceeaşi ipoteză de ergodicitate pentru procesele de marcaj şi de executare a tranziţiilor, formula lui Little furnizează timpul mediu de staţionare a unui jeton într-o poziţie

ip , 1,i m= , notat ( )id p∗ , ca raportul dintre marcajul mediu al acelei poziţii în regim permanent şi suma ponderată a frecvenţelor medii de executare a tranziţiilor de intrare în pi,

( )( )( )

ii T

i

M pd p∗

∗+ ∗=

⋅A u, (3.4.7)

unde i+A reprezintă coloana i a matricei de incidenţă de intrare +A .

3.4.4. Construcţia lanţului Markov asociat unei reţele Petri stohastice Deoarece distribuţiile exponenţiale ce caracterizează întârzierile în executarea tranziţiilor nu au memorie, evoluţia marcajului unei reţele Petri stohastice reprezintă un proces Markov omogen. Este demonstrat faptul că graful de accesibilitate al unei reţele Petri stohastice mărginite este izomorf cu un lanţ Markov în timp continuu omogen (Murata, 1989). Lanţul Markov în timp continuu asociat unei reţele Petri stohastice mărginite (N, M0) (pentru care ratele de executare a tranziţiilor sunt dependente sau nu de marcajul poziţiilor predecesor) se obţine din graful de accesibilitate al acesteia în modul următor:

se consideră mulţimea marcajelor accesibile din M0, notată R(M0), ca fiind spaţiul stărilor lanţului Markov, 0( )R= MS , şi fie s cardinalul lui R(M0);

Page 135: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

125

pentru i j≠ , rata tranziţiei din starea Mi în starea Mj este dată de ij kq λ′= , unde kλ′ este frecvenţa de executare a tranziţiei tk ce transformă marcajul Mi în marcajul Mj. Ca o generalizare, qij se defineşte ca fiind:

1 2 1 2

, executarea tranziţiei transformă marcajul în marcajul ,

..., executarea tranziţiilor , ... transformă marcajul în marcajul ,

0 , nu există nici o

k ki j

k k k kij

i j

tM M

t tq M M

λ

λ λ

′ ′+ +=

tranziţie care să transforme marcajul în marcajul ;i jM M

(3.4.8)

pentru i j= , rata qii se determină din relaţia:

1 1

0s s

ij ii ijj j

j i

q q q= =

= ⇒ = −∑ ∑ . (3.4.9)

Dacă reţeaua Petri stohastică (N, M0) este mărginită şi reversibilă, adică 0 0( ), ( )R R∈ ∀ ∈M M M M (ceea ce implică faptul că graful de accesibilitate al reţelei este

tare conex), atunci ea generează un lanţ Markov ergodic. Notând [ ]ijq=Q matricea ratelor de tranziţie (de dimensiune s s× ) a lanţului Markov, distribuţia staţionară de stare a lanţului poate fi determinată prin rezolvarea sistemului de ecuaţii liniare:

1

0,

1,s

ii

π

π

=

⋅ = =∑

Q (3.4.10)

în care [ ]1 2 s , ... π π π=π este vectorul probabilităţilor de regim staţionar, iπ fiind

probabilitatea ca reţeaua Petri să fie în starea Mi, 1,i s= .

3.4.5. Evaluarea performanţelor unei reţele Petri stohastice Utilizând notaţiile introduse mai sus, performanţele de regim permanent ale unei reţele Petri stohastice (N, M0) mărginite şi reversibile, pot fi evaluate după cum urmează (Murata, 1989), (David et Alla, 1992):

(i) probabilitatea îndeplinirii unei anumite condiţii particulare reprezentată printr-o submulţime B de marcaje accesibile din M0, B ⊂ R(M0), ce au o anumită proprietate:

i

iM B

P B π∈

= ∑ ; (3.4.11)

(ii) valoarea medie a numărului de jetoane ( )iM p∗ dintr-o poziţie pi care este k-mărginită:

1

( ) ( , )k

in

M p n P B i n∗

=

= ∑ , (3.4.12)

unde ( , )B i n este o submulţime din R(M0) în care numărul de jetoane din poziţia pi este n;

Page 136: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

126

(iii) numărul mediu de executări ale tranziţiei tj în unitatea de timp:

i j

j i jM B

u π λ∗

′= ∑ , (3.4.13)

unde Bj este setul stărilor (marcajelor) din R(M0) pentru care tranziţia tj este validată, iπ este probabilitatea ca reţeaua Petri să fie în starea Mi, jλ′ este frecvenţa de

executare a tranziţiei tj din marcajul Mi; (iv) gradul mediu de utilizare a tranziţiei tj:

i j

jj i

M B iiqλ

ρ π∈

′ = −

∑ , (3.4.14)

unde Bj este setul stărilor (marcajelor) din R(M0) pentru care tranziţia tj este validată, iπ este probabilitatea ca reţeaua Petri să fie în starea Mi, jλ′ este frecvenţa de

executare a tranziţiei tj din marcajul Mi, iiq− reprezintă suma de frecvenţe (rate) de executări ale tranziţiilor validate în starea Mi.

Exemplul 3.4.1. Se consideră reţeaua Petri stohastică prezentată în fig. 3.4.1 (Murata, 1989). Tranziţia t2 se execută cu o rată dependentă de marcajul poziţiei predecesor, adică 2 2m λ , unde m2 notează marcajul curent al poziţiei p2. Ratele de executare corespunzătoare tranziţiilor t1, t3, t4 şi t5, notate 1λ , 3λ , 4λ şi, respectiv, 5λ , sunt independente de marcajul poziţiilor predecesor având următoarele valori numerice:

1 5 0.5λ λ= = s-1 şi 2 3 4 1λ λ λ= = = s-1.

Fig. 3.4.1. Reţeaua Petri stohastică studiată în Exemplul 3.4.1.

Ilustrăm în continuare evaluarea performanţelor de regim permanent ale reţelei Petri stohastice. Fig. 3.4.2 prezintă arborele de accesibilitate corespunzător acesteia, determinat cu ajutorul pachetului de programe Petri Net Toolbox pentru Matlab (Păstrăvanu et al., 2002), în mod automat, pe baza topologiei şi marcajului iniţial al reţelei.

Page 137: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

127

Fig. 3.4.2. Arborele de accesibilitate al reţelei Petri stohastice din fig. 3.4.1. Considerând marcajele M0, M1, …, M5, din fig 3.4.2 drept stări ale lanţului Markov asociat reţelei şi aplicând algoritmul prezentat în secţiunea 3.4.4 rezultă lanţul Markov în timp continuu din fig. 3.4.3.

Fig. 3.4.3. Lanţul Markov asociat reţelei Petri stohastice din fig. 3.4.1.

Matricea ratelor de tranziţie de stare are forma:

1 3 5 1 5 3

2 1 2 3 5 1 5 3

4 1 3 4 5 1 5 3

2 2

4 2 2 4

4 4

0 0 00 0

0 00 2 0 2 0 00 0 00 0 0 0

λ λ λ λ λ λλ λ λ λ λ λ λ λλ λ λ λ λ λ λ λ

λ λλ λ λ λ

λ λ

− − − + − − − − +

− − − − + = −

− −

Q .

Ţinând cont de valorile numerice din enunţ, rezultă:

M0 M1 M3

M5 M2 M4

1 5λ λ+ 1 5λ λ+

22λ2λ

1 5λ λ+

3λ 3λ4λ4λ

Page 138: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

128

2 1 1 0 0 01 3 0 1 1 01 0 3 0 1 10 2 0 2 0 00 1 1 0 2 00 0 1 0 0 1

− −

− = −

− −

Q .

Distribuţia stării lanţului în regim permanent, [ ]0 1 2 3 4 5π π π π π π=π , soluţie a sistemului de ecuaţii (3.4.10), este 0 1 2 4 5 2 /11π π π π π= = = = = şi 3 1/11π = . Pe baza acestora pot fi evaluate următoarele performanţe ale reţelei:

numărul mediu de jetoane în unitatea de timp din fiecare poziţie a reţelei: se calculează aplicând relaţia (3.4.12). De exemplu, în poziţia p1 se pot afla: 2 jetoane în marcajul M0, 1 jeton în marcajul M1 şi 1 jeton în marcajul M2, astfel că se obţine

1 0 1 28( ) 2 0,727311

M p π π π∗ = + + = = .

Un raţionament similar conduce la

2 1 3 46( ) 2 0,545511

M p π π π∗ = + + = = , 3 2 4 58( ) 2 0,727311

M p π π π∗ = + + = = ,

4 2 4 58( ) 2 0,727311

M p π π π∗ = + + = = .

Vectorul de marcaj mediu în regimul permanent de funcţionare a reţelei este [ ]8 11 6 11 8 11 8 11 T∗ =M ;

numărul mediu de executări în unitatea de timp pentru fiecare tranziţie a reţelei: se calculează aplicând relaţia (3.4.13). De exemplu, tranziţia t2 se execută cu rata 2λ din marcajele M1 şi M4, şi cu rata 22λ din marcajul M3, astfel că rata sa medie de executare este

2 2 1 2 3 2 462 0,5455

11u λ π λ π λ π∗ = + + = = .

Analog se calculează

1 1 0 1 1 1 23 0,2727

11u λ π λ π λ π∗ = + + = = , 3 3 0 3 1 3 2

6 0,545511

u λ π λ π λ π∗ = + + = = ,

4 4 2 4 4 4 56 0,5455

11u λ π λ π λ π∗ = + + = = , 5 5 0 5 1 5 2

3 0, 272711

u λ π λ π λ π∗ = + + = = .

Vectorul frecvenţelor medii de executare a tranziţiilor în regimul permanent de funcţionare a reţelei este

[ ]3 11 6 11 6 11 6 11 3 11 T∗ =u ; gradul mediu de utilizare al fiecărei tranziţii din reţea: se calculează aplicând

relaţia (3.4.14). Notând elementele diagonalei principale a matricei Q prin

00 1 3 5( )q λ λ λ= − + + , 11 1 2 3 5( )q λ λ λ λ= − + + + , 22 1 3 4 5( )q λ λ λ λ= − + + + ,

33 22q λ= − , 44 2 4( )q λ λ= − + , 55 4q λ= − , rezultă următoarele valori:

Page 139: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

129

1 1 11 0 1 2

00 11 22

7 0,10666q q q

λ λ λρ π π π= + + = =− − −

,

2 2 22 1 3 4

11 33 44

2 8 0,242433q q q

λ λ λρ π π π= + + = =− − −

,

3 3 33 0 1 2

00 11 22

7 0,212133q q q

λ λ λρ π π π= + + = =− − −

,

4 4 44 2 4 5

22 44 55

1 0,3333q q q

λ λ λρ π π π= + + = =− − −

,

5 5 55 0 1 2

00 11 22

7 0,10666q q q

λ λ λρ π π π= + + = =− − −

;

timpul mediu de staţionare a unui jeton într-o poziţie: se calculează aplicând formula lui Little (3.4.7). Matricea de incidenţă care descrie topologia reţelei este

1 0 0 0 0 1 0 0 1 1 0 00 1 0 0 1 0 0 0 1 1 0 0

,1 0 0 0 0 0 1 1 1 0 1 10 0 1 1 1 0 0 0 1 0 1 11 0 0 0 0 1 0 0 1 1 0 0

− +

− −

= = ⇒ = − − − −

A A A .

Duratele medii de staţionare a unui jeton în fiecare poziţie a reţelei au valorile

11

1

( ) 2( )3( )T

M pd p∗

∗+ ∗= =

⋅A u, 2

22

( )( ) 1( )TM pd p

∗∗

+ ∗= =⋅A u

,

33

3

( ) 4( )3( )T

M pd p∗

∗+ ∗= =

⋅A u, 4

44

( ) 4( )3( )T

M pd p∗

∗+ ∗= =

⋅A u.

Legea de conservare a marcajului mediu (3.4.8) este de asemenea verificată. Se observă că vectorii [ ]1 1 1 1 0 T=y şi [ ]2 1 1 0 1 T=y sunt invarianţi P ai reţelei ( >≠y 0 , ⋅ =A y 0 ) şi că vectorul marcajului mediu în regim permanent satisface relaţia

1 0 1 2T T∗ ⋅ = ⋅ =M y M y , 2 0 2 2T T∗ = =M y M y .

De asemenea, vectorul ∗u al frecvenţelor medii de executare a tranziţiilor în regim permanent satisface (3.4.9)

T ∗⋅ =A u 0 . Rezultatele obţinute analitic pot fi comparate cu cele obţinute prin simularea dinamicii reţelei pe o durată de 30.000 s în mediul Petri Net Toolbox. Indicatorii globali obţinuţi sunt prezentaţi în fig. 3.4.4, separat pentru (a) tranziţiile şi, respectiv, (b) poziţiile reţelei. Numărul mediu de jetoane în unitatea de timp din fiecare poziţie a reţelei este precizat de indicatorul Queue Length. Numărul mediu de executări în unitatea de timp pentru fiecare tranziţie a reţelei este precizat de indicatorul Service Rate. Gradul de utilizare al fiecărei tranziţii din reţea este precizat de indicatorul Utilization.

Page 140: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

130

(a)

(b)

Fig. 3.4.4. Indicatorii globali de performanţă referitori la: (a) tranziţiile şi (b) poziţiile reţelei Petri din fig. 3.4.1, corespunzători unei durate de funcţionare de 30.000 s.

3.4.6. Reţele Petri stohastice generalizate Reţelele Petri stohastice generalizate (eng. generalized stochastic Petri net – GSPN) au fost introduse pentru a extinde capacitatea de modelare a reţelelor stohastice. Într-o GSPN, în afară de tranziţii cu temporizare de tip exponenţial există şi tranziţii netemporizate (imediate). Tranziţiile imediate modelează evenimente a căror apariţie are loc instantaneu. În cazul în

Page 141: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

131

care două sau mai multe tranziţii imediate sunt în conflict, acestora le pot fi asignate probabilităţile de apariţie a evenimentelor pe care le modelează. În plus, între tranziţii netemporizate se pot impune priorităţi de executare. O GSPN poate conţine, de asemenea, arce inhibitoare având rolul de a inversa logica de validare şi executare a unor tranziţii. Dacă într-o reţea Petri stohastică generalizată pentru un anumit marcaj sunt validate atât tranziţii imediate cât şi tranziţii temporizate, se execută numai tranziţiile imediate. Dacă mai multe tranziţii imediate sunt în conflict, numai una dintre ele se execută, în conformitate cu probabilităţile sau priorităţile asignate acestora. Un marcaj al unei GSPN pentru care cel puţin o tranziţie netemporizată este validată se numeşte marcaj invizibil (eng. vanishing marking). Marcajele pentru care sunt validate numai tranziţii temporizate se numesc marcaje tangibile (eng. tangible markings). O reţea stohastică generalizată, ce conţine atât marcaje tangibile cât şi marcaje invizibile este, de asemenea, izomorfă cu un lanţ Markov continuu care se obţine în acelaşi mod ca şi în cazul unei reţele Petri stohastice. Eliminând din acest lanţ Markov marcajele invizibile şi tranziţiile netemporizate se obţine lanţul Markov redus pentru care probabilităţile staţionare de stare există dacă reţeaua este mărginită şi reversibilă. Aceste condiţii restrictive sunt numai suficiente, nu şi necesare, putând fi încălcate în cazul în care modelarea unui sistem sub formă de GSPN se realizează pornind de la lanţul Markov corespunzător şi impunând pentru acesta condiţiile de stabilitate (de regim permanent).

Exemplul 3.4.2. (Sistem de aşteptare M/M/1/2). Fie un sistem de fabricaţie compus dintr-o maşină M (server) şi un depozit D (fir de aşteptare), capacitatea sistemului (maşină + depozit) fiind limitată la două piese (clienţi) (fig. 3.4.5). Dacă există loc liber în depozit, piesele intră în depozitul D după un proces Poisson cu rata λ . Ori de câte ori maşina M este liberă şi există o piesă în depozit, aceasta este preluată imediat pe maşină. Durata de prelucrare a pieselor pe maşina M are distribuţie exponenţială cu rata µ . La momentul iniţial depozitul este gol şi maşina este neutilizată.

Fig. 3.4.5. Reprezentare schematică a sistemului de fabricaţie din Exemplul 3.4.2.

Reţeaua Petri stohastică generalizată ce descrie funcţionarea acestui sistem este prezentată în fig. 3.4.6.(a), în care sunt modelate explicit cele două situaţii în care se poate găsi o piesă (client) în sistem, anume aşteptând în depozit (poziţia p1) sau în curs de prelucrare (servire) (poziţia p2). Tranziţiile t1 şi t3 modelează procesele de sosire şi, respectiv, de servire a clienţilor, fiind temporizate, duratele de timp asignate lor având distribuţie exponenţială de rată λ, respectiv µ. Tranziţia t2, care modelează trecerea unei

sosire piese

depozit (D)

maşină (M)

plecare piese

2 piese

Page 142: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

132

piese din depozit pe maşină, nu este temporizată. Reţeaua stohastică din fig. 3.4.6.(b), în care ambele tranziţii sunt temporizate, reprezintă un model compact al aceluiaşi sistem.

(a) (b) Fig. 3.4.6. Reţelele Petri: (a) generalizată stohastică şi (b) stohastică

ce modelează sistemul de fabricaţie din fig. 3.4.5. Fig. 3.4.7 prezintă arborii de accesibilitate corespunzători celor două reţele Petri din fig. 3.4.6, obţinuţi cu ajutorul pachetului de programe Petri Net Toolbox pentru Matlab (Păstrăvanu et al., 2002). Pentru reţeaua stohastică generalizată marcajele M1 şi M2 sunt invizibile, tranziţia imediată t2 fiind validată. Prin eliminarea acestor marcaje, lanţul Markov asociat reţelei va avea trei stări, corespunzătoare marcajelor M0, M3 şi M4.

(a) (b)

Fig. 3.4.7. Arborii de accesibilitate ai reţelelor din: (a) fig. 3.4.6.(a) şi (b) fig. 3.4.6.(b).

Considerând că starea sistemului de fabricaţie este indicată de numărul de clienţi prezenţi în sistem, marcajul M0 corespunde stării notată „0” – nici o piesă în sistem, marcajul M3 corespunde stării „1” – o singură piesă în sistem (în curs de prelucrare), iar marcajul M4 corespunde stării „2” – două piese în sistem (una în curs de prelucrare şi una în depozit). Tranziţiile din „0” în „1” şi din „1” în „2” au loc cu rata λ (rata de sosire a clienţilor în sistem), iar tranziţiile din „2” în „1” şi din „1” în „0” au loc cu rata µ (rata de servire). Lanţul Markov corespunzător este prezentat în fig. 3.4.8.

Page 143: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

133

Fig. 3.4.8. Lanţul Markov asociat reţelelor Petri din fig. 3.4.6.

La acelaşi lanţ Markov se ajunge şi analizând reţeaua stohastică din fig. 3.4.6.(b), cele trei stări ale lanţului Markov (cu aceeaşi semnificaţie fizică de mai sus) având drept corespondent marcajele M0, M1 şi M2. Matricea ratelor de tranziţie de stare corespunzătoare lanţului Markov din fig. 3.4.4 este

( )0

0

λ λµ λ µ λ

µ µ

− = − + −

Q .

Distribuţia staţionară de probabilitate de stare, [ ]0 1 2π π π=π , se determină din condiţia (3.4.10)

( )

( )( )

120

1 00 1 2 2

2 0

1 ,,

,1,

.

π λ µ λ µ

π λ µ ππ π π

π λ µ π

− = + + ⋅ = ⇒ = + + =

=

Q 0π

Pentru valorile numerice 1λ = s-1 şi 2µ = s-1, rezultă 0 4 7π = , 1 2 7π = şi 2 1 7π = , cu semnificaţia de fracţie de timp pe care sistemul (funcţionând în regim

staţionar) îl petrecere în fiecare dintre cele trei stări. Pe baza probabilităţilor de stare corespunzătoare regimului staţionar al sistemului se pot calcula performanţele de regim permanent ale reţelei Petri stohastice generalizate din fig. 3.4.6.(a), şi anume:

numărul mediu de jetoane în unitatea de timp din fiecare poziţie a reţelei: se calculează aplicând relaţia (3.4.12), luând însă în considerare numai marcajele tangibile. De exemplu, în poziţia p1 se pot afla: 0 jetoane în marcajul M0, 0 jetoane în marcajul M3 şi 1 jeton în marcajul M4. Se obţin valorile:

1 0 1 21( ) 0 0 0,14297

M p π π π∗ = + + = = , 2 1 1 23( ) 0 0, 42867

M p π π π∗ = + + = = ,

3 1 1 24( ) 0 0 0,57147

M p π π π∗ = + + = = , 4 0 1 210( ) 2 0 1, 42867

M p π π π∗ = + + = = .

Vectorul de marcaj mediu în regimul permanent de funcţionare a reţelei este [ ]1 7 3 7 4 7 10 7 T∗ =M ;

numărul mediu de executări în unitatea de timp pentru fiecare tranziţie a reţelei: pentru tranziţiile temporizate se aplică relaţia (3.4.13), luând însă în considerare numai marcajele tangibile. De exemplu, tranziţia t1 se execută cu rata λ din marcajele M0 şi M3, astfel că rata sa medie de executare este

0 1 2

λ λ

µµ

Page 144: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

134

1 0 16 0,85717

u λπ λπ∗ = + = = .

Analog, pentru tranziţia t3 se obţine

3 1 26 0,85717

u µπ µπ∗ = + = = .

Pentru tranziţia imediată t2, din modul în care a fost construit lanţul Markov pe baza grafului de accesibilitate se observă că va avea aceeaşi rată de executare ca şi tranziţia t3, astfel că 2 3u u∗ ∗= . Vectorul frecvenţelor medii de executare a tranziţiilor în regimul permanent de funcţionare a reţelei este

[ ]6 7 6 7 6 7 T∗ =u ; gradul mediu de utilizare al fiecărei tranziţii din reţea: se calculează aplicând

relaţia (3.4.14). Elementele diagonalei principale a matricei ratelor tranziţiilor sunt 00 1q λ= − = − , 11 ( ) 3q λ µ= − + = − , 22 2q µ= − = − ,

33 22q λ= − , 44 2 4( )q λ λ= − + , 55 4q λ= − , Pentru tranziţiile temporizate din reţea rezultă următoarele valori:

1 1 11 0 1 2

00 11 22

7 0,10666q q q

λ λ λρ π π π= + + = =− − −

,

3 3 33 0 1 2

00 11 22

7 0,212133q q q

λ λ λρ π π π= + + = =− − −

;

timpul mediu de staţionare a unui jeton într-o poziţie: se calculează aplicând formula lui Little (3.4.7). Matricea de incidenţă care descrie topologia reţelei este

0 0 0 1 1 0 0 0 1 0 0 11 0 1 0 , 0 1 0 0 1 1 1 00 1 0 0 0 0 1 1 0 1 1 1

− +

− = = ⇒ = − − −

A A A .

Duratele medii de staţionare a unui jeton în fiecare poziţie a reţelei au valorile

11

1

( ) 1( )6( )T

M pd p∗

∗+ ∗= =

⋅A u, 2

22

( ) 1( )2( )T

M pd p∗

∗+ ∗= =

⋅A u,

33

3

( ) 2( )3( )T

M pd p∗

∗+ ∗= =

⋅A u, 4

44

( ) 5( )3( )T

M pd p∗

∗+ ∗= =

⋅A u.

Legea de conservare a marcajului mediu (3.4.8) este de asemenea verificată. Se observă că vectorii [ ]1 0 1 1 0 T=y şi [ ]2 1 1 0 1 T=y sunt invarianţi P ai reţelei ( >≠y 0 , ⋅ =A y 0 ) şi că vectorul marcajului mediu în regim permanent satisface relaţia

1 0 1 1T T∗ ⋅ = ⋅ =M y M y , 2 0 2 2T T∗ ⋅ = ⋅ =M y M y .

De asemenea, vectorul ∗u al frecvenţelor medii de executare a tranziţiilor în regim permanent satisface (3.4.9)

T ∗⋅ =A u 0 .

Page 145: Matcovschi Lanturi Sist Astept Markov

Cap. 3. Lanţuri Markov

135

(a)

(b)

Fig. 3.4.9. Indicatorii globali pentru: (a) tranziţiile şi (b) poziţiile reţelei Petri din fig. 3.4.6.(a).

Performanţele de regim permanent ale reţelei Petri pot fi puse în corespondenţă cu performanţele sistemului de fabricaţie modelat, după cum urmează:

numărul mediu de piese aflate în depozit în unitatea de timp (numărul mediu de clienţi din firul de aşteptare) este 1( ) 1 7M p∗ = piese;

numărul mediu de piese prelucrate pe maşină în unitatea de timp (numărul mediu de clienţi serviţi) este 2( ) 3 7M p∗ = piese. Această valoare reprezintă, de asemenea, gradul de utilizare a maşinii (serverului);

frecvenţa reală de sosire a pieselor în sistem (rata efectivă de sosire a clienţilor) este 1 6 7u∗ = s-1;

Page 146: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

136

frecvenţa reală de prelucrare a pieselor pe maşina M (rata de plecare a clienţilor): este 3 6 7u∗ = s-1, fiind egală cu frecvenţa reală de sosire a pieselor;

timpul mediu de aşteptare pentru o piesă este 1( ) 1 6d p∗ = s;

timpul mediu de prelucrare a unei piese este 2( ) 1 2d p∗ = s. Aşa cum era de aşteptat, această durată egală cu valoarea medie a variabilei aleatoare cu distribuţie exponenţială de rată 2µ = s-1 ce reprezintă durata de prelucrare a unei piese.

Prin simularea în mediul Petri Net Toolbox a funcţionării sistemului de fabricaţie pe o durată de 25.000 s se obţin indicatorii globali prezentaţi în fig. 3.4.9 pentru tranziţiile şi poziţiile reţelei stohastice generalizate din fig. 3.4.2.(a). Cititorul este invitat să pună în corespondenţă rezultatele determinate analitic cu cele obţinute prin simulare. În Exemplul 4.5.1 din secţiunea 4.5, pentru acest sistem de fabricaţie (privit ca sistem de aşteptare de tip M/M/1/2), sunt comparate performanţele teoretice cu cele obţinute prin simularea bazată pe modelul de tip reţea Petri stohastică corespunzător.

Page 147: Matcovschi Lanturi Sist Astept Markov

Capitolul 4 Sisteme de aşteptare markoviene

„Ah, ‘All things come to those who wait.’ They come, but often come too late.”

Marie Curie

4.1. Modelarea matematică a sistemelor de aşteptare

4.1.1. Notaţia lui Kendall În capitolul 1 au fost prezentaţi, fără a intra în detalii de factură matematică, factorii care influenţează comportarea unui sistem de aşteptare. În continuare, sunt formalizate matematic elementele caracteristice ale unui sistem de aşteptare având schema de bază din fig. 4.1.1.

Fig. 4.1.1. Schema unui sistem simplu de aşteptare.

Un sistem de aşteptare este complet specificat dacă sunt precizate următoarele elemente:

1. modelele stohastice ale proceselor de sosire şi de servire a clienţilor; 2. parametrii structurali ai sistemului: numărul de servere, m, capacitarea firului de

aşteptare (cozii) (inclusiv clientul/clienţii aflaţi în curs de servire), K, şi mărimea populaţiei din care provin clienţii (eng. calling population), p;

3. regulile de operare a sistemului: condiţiile în care clienţii care sosesc sunt acceptaţi în sistem, servirea preferenţială (după priorităţi) a diferitelor clase de clienţi, ordinea servirii clienţilor (FIFO – First In First Out, LIFO – Last In First Out, RS – Random Service).

Server Fir de aşteptare

(coadă)

( )B t( )A t Sosire

clienţi Plecare clienţi ( )λ

( )µ

Page 148: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

138

Procesului de sosire a clienţilor îi este asociată secvenţa stohastică 1 2 , , T T … , unde kT reprezintă intervalul de timp dintre sosirea clientului 1k − şi a clientului k. Se presupune că variabilele aleatoare 1 2 , , T T … sunt independente, identic distribuite, astfel că există o singură distribuţie de probabilitate [ ]( ) , 0A t P T t t= ≤ ≥ , (4.1.1)

care descrie complet secvenţa aleatoare. Rata medie de sosire a clienţilor (eng. average arrival rate) este dată de

1 0M[ ]T

λ = > . (4.1.2)

În mod asemănător, procesului de plecare a unui client îi este asociată secvenţa stohastică 1 2 , , Z Z … , unde kZ reprezintă durata de servire a clientului k. Se presupune că variabilele aleatoare 1 2 , , Z Z … sunt independente, identic distribuite, astfel că există o singură distribuţie de probabilitate [ ]( ) , 0B t P Z t t= ≤ ≥ , (4.1.3)

care descrie complet secvenţa aleatoare. Rata medie de servire a clienţilor (eng. average service rate) este dată de

1 0M[ ]Z

µ = > (4.1.4)

şi, împreună cu rata de sosire a clienţilor, joacă un rol deosebit de important în teoria sistemelor de aşteptare.

Pentru a descrie compact un sistem de aşteptare, în anul 1953 David G. Kendall a introdus notaţia de forma A / B / m, căreia i-au mai fost adăugate două simboluri, K şi p, în anul 1968 de către Alec M. Lee. Astăzi, descriptorul

A / B / m / K / p este unanim acceptat pentru caracterizarea unui sistem de aşteptare şi este denumit notaţia lui Kendall. Semnificaţia simbolurilor care intervin este următoarea:

− A şi B precizează distribuţiile de probabilitate ale duratelor dintre sosiri şi ale duratelor de servire şi au următoarele valori:

M – distribuţie markoviană (exponenţială) de probabilitate, Ek – distribuţie Erlang de ordinul k, Hk – distribuţie hiperexponenţială de ordinul k, Ck – distribuţie Cox de ordinul k, G – distribuţie generală (oarecare) de probabilitate, D – durate deterministe (constante);

− m reprezintă numărul de servere din sistem; − K reprezintă capacitatea firului de aşteptare (inclusiv clienţii în curs de servire); − p este dimensiunea populaţiei din care provin clienţii.

În sistemele elementare de aşteptare se consideră că poate sosi un singur client la un moment dat şi există o singură clasă de clienţi pentru care regula de servire este FIFO. Implicit atât capacitatea firului de aşteptare cât şi populaţia din care provin clienţii sunt infinite şi în

Page 149: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

139

această situaţie nu mai este necesară specificarea lor, parametrii K şi p fiind precizaţi numai în cazul în care au valori finite. Dacă p este finit, se spune că sistemul de aşteptare este închis (eng. closed queueing system); în caz contrar sistemul este deschis (eng. open queueing system). Exemple:

M / M / 1 notează un sistem de aşteptare cu un singur server şi capacitate infinită. Duratele dintre sosirile consecutive ale clienţilor şi duratele de servire au distribuţii exponenţiale, ( ) 1 e tA t λ−= − şi ( ) 1 e tB t µ−= − , unde parametrii

, 0λ µ > reprezintă rata de sosire şi, respectiv, rata de servire, a clienţilor. M / E3 / 1 / 10 notează un sistem de aşteptare cu un singur server şi capacitate egală cu 10

(în sistem se pot afla cel mult 10 clienţi simultan, 9 clienţi în firul de aşteptare şi unul în curs de servire). Duratele dintre sosirile consecutive ale clienţilor au distribuţii exponenţiale. Duratele de servire au distribuţie Erlang de ordinul 3.

M / D / 1 / / 100 notează un sistem de aşteptare închis, cu un singur server, capacitate infinită, populaţia de clienţi are 100 elemente. Duratele dintre sosirile consecutive ale clienţilor au distribuţii exponenţiale. Duratele de servire sunt constante.

Cele mai simple sisteme de aşteptare sunt cele de tip markovian, în care duratele de timp dintre două sosiri consecutive în sistem şi duratele de servire ale clienţilor au repartiţii exponenţiale de probabilitate. Asemenea sisteme de aşteptare pot fi modelate ca lanţuri Markov de tip birth-death. Reamintim faptul că în ipoteza că duratele de timp dintre două sosiri consecutive au distribuţii exponenţiale, fluxul de sosire a clienţilor în sistem este de tip Poisson.

4.1.2. Dinamica unui sistem de aşteptare Dinamica sistemului de aşteptare este pilotată de evenimentele de sosire şi de plecare a clienţilor. Considerăm sistemul simplu de aşteptare din fig. 4.1.1, de tip G/G/1 având disciplina de servire de tip FIFO. Fie kY momentul sosirii în sistem a clientului k şi kD momentul plecării acestuia, 1,2,k = … (fig. 4.1.2).

Fig. 4.1.2. Ilustrare grafică a duratelor de interes pentru clientul k.

Durata petrecută de clientul k în sistem (eng. system time), k k kS D Y= − , (4.1.5)

0 t kY kD1kD −

kW kZ

început servire kS

plecare sosire

Page 150: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

140

are două componente: durata de aşteptare (eng. waiting time), kW , şi durata de servire (eng. service time), kZ ,

k k kS W Z= + , (4.1.6)

astfel încât din relaţiile (4.1.5) şi (4.1.6) se obţine k k k kD Y W Z= + + . (4.1.7)

Fig. 4.1.3. Exemplu de traiectorie de stare a unui sistem de aşteptare.

Pe traiectoria de stare a sistemului de aşteptare prezentată în fig. 4.1.3 se observă că, la sosirea clientului k, sunt posibile două situaţii:

1. dacă nu există clienţi în sistem, atunci clientul curent este servit imediat, 0kW = . Aceasta se întâmplă atunci când clientul 1k − a părăsit sistemul înaintea sosirii clientului k, adică 1k kD Y− ≤ (cu convenţia 0 0D = ). Aşadar, are loc echivalenţa

1 0 0k k kD A W− − ≤ ⇔ = ; (4.1.8)

2. dacă există clienţi în sistem, servirea celui de-al k-lea client începe atunci când clientul 1k − părăseşte sistemul, astfel încât

1 10k k k k kD Y W D Y− −− > ⇔ = − . (4.1.9)

1T 2T 3T 4T

1

2

( )X t

1Z 2Z 3Z

5T

4Z 5Z

2W 3W 5W

t

1

2

3

4

5

t

( )aN t

( )dN t1S

2S

3S

4S

5S

(a)

(b)

Page 151: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

141

Din relaţiile (4.1.8) şi (4.1.9) rezultă 1max 0, , 1,2,k k kW D Y k−= − = … . (4.1.10)

Deoarece pentru clientul 1k − relaţia (4.1.7) se scrie 1 1 1 1k k k kD Y W Z− − − −= + + , 1,2,k = … , (4.1.11)

şi 1k k kY Y T−− = (cu convenţia 0 0 0 0Y W Z= = = ), expresia din (4.1.10) poate fi adusă la forma

1 1max 0, , 1, 2,k k k kW W Z T k− −= + − = … , (4.1.12)

referită drept ecuaţia lui Lindley, de recurenţă a duratelor de aşteptare. Pentru duratele totale petrecute de clienţi în sistem se obţine formula de recurenţă 1max 0, , 1,2,k k k k k kS Z W Z S T k−= + = + − = … . (4.1.13)

Similar, pentru momentele la care clienţii părăsesc sistemul există relaţia

1

1

max 0,max , , 1,2,

k k k k k k k k

k k k

D Y W Z Y Z D YZ Y D k

= + + = + + − =

= + = … (4.1.14)

Ecuaţiile (4.1.12) – (4.1.14) au caracter general, nu depind de legea de distribuţie a duratelor dintre sosirile clienţilor şi nici de cea a duratelor de servire. Aceste ecuaţii pot fi utilizate pentru simularea oricărui sistem simplu de aşteptare.

4.1.3. Performanţele sistemelor de aşteptare Secvenţa stohastică a duratelor de aşteptare 1 2 , , W W … furnizează informaţii cu privire la performanţele sistemului de aşteptare. Distribuţia de probabilitate a lui kW , [ ]kP W t≤ , depinde, în general, de k. În continuare presupunem că pentru k →∞ există o distribuţie staţionară de probabilitate a duratelor de aşteptare, [ ]P W t≤ , astfel încât: [ ] [ ]lim kk

P W t P W t→∞

≤ = ≤ . (4.1.15)

Dacă această limită există, atunci variabila aleatoare W descrie durata de aşteptare a unui client în regimul staţionar de funcţionare a sistemului. Intuitiv, după un timp suficient de mare de funcţionare a sistemului de aşteptare, duratele de aşteptare a clienţilor sunt identice din punct de vedere statistic, fiind descrise de repartiţia [ ]P W t≤ . Valoarea medie M[ ]W reprezintă durata medie de aşteptare (eng. mean waiting time) a unui client în regimul staţionar de funcţionare a sistemului. Similar, se presupune că pentru duratele petrecute de clienţi în sistem există o distribuţie staţionară de probabilitate [ ] [ ]lim kk

P S t P S t→∞

≤ = ≤ . (4.1.16)

Valoarea M[ ]S reprezintă durata medie petrecută de un client în sistem (eng. mean system time) în regimul staţionar de funcţionare a sistemului de aşteptare. Fie ( ) 0,1,2, X t ∈ … variabila aleatoare ce descrie numărul total de clienţi din sistem (lungimea cozii – eng. queue length) la momentul 0t ≥ . Se presupune că există distribuţia staţionară

[ ] [ ]lim ( ) , 0,1, 2,not

ntP X t n P X n nπ

→∞= = = = = … . (4.1.17)

Page 152: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

142

Valoarea M[ ]X reprezintă numărul mediu de clienţi din sistem (lungimea medie a cozii – eng. average queue length) în regimul staţionar de funcţionare a sistemului de aşteptare.

În analiza regimului staţionar al unui sistem de aşteptare, performanţele care interesează de cele mai multe ori sunt:

• durata medie de aşteptare a unui client, M[ ]W , • durata medie petrecută de un client în sistem, M[ ]S , • numărul mediu de clienţi din sistem, M[ ]X ,

care trebuie menţinute la valori cât mai mici, ca şi • gradul de utilizare a serverului (eng. utilization), adică fracţia de timp cât serverul

este ocupat, • rata cu care clienţii părăsesc sistemul după ce au fost serviţi (eng. throughput),

care este de dorit să aibă valori cât mai mari. Se poate observa că rata cu care clienţii părăsesc sistemul nu poate depăşi rata de sosire a clienţilor în sistem. În plus, dacă sistemul de aşteptare ajunge în regim staţionar, cele două rate trebuie să fie egale. Pentru un sistem simplu de aşteptare de tip G/G/1, cu un singur server cu disciplina de servire de tip FIFO, având rata de sosire a clienţilor λ şi durata medie de servire M[ ] 1Z µ= , gradul de utilizare a serverului este

M[ ]s Z λρ λµ

= = . (4.1.18)

Deoarece serverul poate servi efectiv cel mult 1 client în unitatea de timp, condiţia ca sistemul de aşteptare să ajungă să funcţioneze în regim permanent (denumită şi condiţie de echilibru a sistemului) este 1sρ λ µ< ⇔ < . (4.1.19)

Pentru un sistem simplu de aşteptare de tip G/G/m, cu m servere identice, cu disciplina de servire de tip FIFO, având rata de sosire a clienţilor λ şi durata medie de servire pentru fiecare server M[ ] 1Z µ= , gradul de utilizare a fiecărui server este

M[ ]s

Zm m

λ λρµ

= = . (4.1.20)

Condiţia ca sistemul de aşteptare de tip G/G/m, cu m servere identice, să ajungă să funcţioneze în regim permanent este 1s mρ λ µ< ⇔ < . (4.1.21)

4.1.4. Legea lui Little Legea lui Little precizează că (Cassandras, 1993), într-un sistem de aşteptare aflat în regim staţionar, numărul mediu de clienţi din sistem este proporţional cu durata medie petrecută de un client în sistem, constanta de proporţionalitate fiind rata medie de sosire a clienţilor în sistem: [ ] [ ]M MX Sλ= . (4.1.22)

Page 153: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

143

Această lege este fundamentală în analiza sistemelor de aşteptare. Ea poate fi aplicată oricărui sistem, indiferent de tipul proceselor de sosire şi de servire a clienţilor (singura condiţie impusă acestor procese este de a fi staţionare) şi indiferent de regulile de operare a sistemului. De asemenea, legea lui Little poate fi aplicată reţelelor de aşteptare cu configuraţie arbitrară, ca şi oricărui subsistem al unui reţele de aşteptare.

La baza justificării legii lui Little stă reprezentarea grafică din fig. 4.1.3.(a), o traiectorie de stare a unui sistem de aşteptare, în care ( )aN t şi ( )dN t reprezintă numărul de clienţi care au intrat în, respectiv, au plecat din sistem până la momentul t. Numărul de clienţi din sistem la momentul t este ( ) ( ) ( )a dX t N t N t= − . (4.1.23) Aria din plan, ( )U t , cuprinsă între cele două curbe corespunzătoare realizărilor proceselor

( )aN t şi ( )dN t corespunde timpului total (cumulat) petrecut de clienţi în sistem, astfel încât timpul mediu petrecut de un client în sistem până la momentul t are expresia

( )( )( )a

U tS tN t

= (4.1.24)

şi numărul mediu de clienţi din sistem

( )( ) U tX tt

= . (4.1.25)

Pe de altă parte, rata de sosire a clienţilor din sistem este dată de

( )( ) aN ttt

λ = . (4.1.26)

Din relaţiile (4.1.24) – (4.1.26) rezultă ( ) ( ) ( )X t t S tλ= . (4.1.27) În ipoteza că sistemul ajunge să funcţioneze în regim permanent, există limitele lim ( )

ttλ λ

→∞= , (4.1.28)

lim ( ) M[ ]t

S t S→∞

= , (4.1.29)

egale cu rata medie de sosire a clienţilor în sistem, respectiv, durata medie petrecută de un client în sistem. În acest caz există şi limita lim ( ) M[ ]

tX t X

→∞= , (4.1.30)

ce reprezintă numărul mediu de clienţi din sistem (lungimea medie a cozii). Legea lui Little a fost utilizată în mod intuitiv pentru analiza sistemelor de aşteptare cu mult timp înainte de a fi demonstrată riguros în anul 1961 de către John Little.

Legea lui Little poate fi aplicată şi considerând numărul mediu de clienţi din firul de aşteptare (în loc de întregul sistem), notat M[ ]QX , şi durata medie de aşteptare (în locul duratei medii petrecute în sistem), notată M[ ]W , conducând la M[ ] M[ ]QX Wλ= . (4.1.31)

Page 154: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

144

4.1.5. Sisteme simple de aşteptare de tip markovian Considerăm un sistem de aşteptare simplu (fig. 4.1.1) în care duratele dintre sosirile a doi clienţi consecutivi în sistem şi duratele de servire a clienţilor au distribuţii exponenţiale. Asemenea sisteme de aşteptare pot fi modelate ca lanţuri Markov de tip birth-death pentru care starea lanţului (sistemului de aşteptare) este reprezentată de numărul de clienţi din firul de aşteptare (fig. 4.1.4).

Fig. 4.1.4. Modelul de tip lanţ birth-death al unui sistem de aşteptare markovian.

Performanţele de regim permanent ale sistemelor de aşteptare pot fi evaluate pe baza distribuţiei staţionare a numărului de clienţi din sistem, [ ]n P X nπ = = , 0,1,n = … . Reamintim faptul că, din analiza prezentată în secţiunea 3.3.5, condiţia ca această distribuţie de probabilitate să existe (sistemul să fie stabil) este dată de (3.3.68)

0 0, : 1n

nn n n λ

µ∗∃ ∈ ∀ ≥ < , (4.1.32)

caz în care se obţine

1

0 1 10

1 1 21 n

n n

λ λ λπµ µ µ

−∞−

=

= + ∑ …

…, (4.1.33)

0 10

1

nn

n

λ λπ πµ µ

−=……

, 1, 2,n = … . (4.1.34)

4.2. Sisteme de aşteptare M/M/1

Un sistem de aşteptare de tip M/M/1 este caracterizat prin: − capacitate infinită a firului de aşteptare: K = ∞ ; − un singur server: 1m = ; − disciplina de servire a clienţilor este cea implicită: FIFO; − fluxul de sosire a clienţilor în sistem este de tip Poisson, duratele dintre sosirile

clienţilor în sistem sunt variabile aleatoare independente identic distribuite (i.i.d.) cu distribuţie exponenţială de rată 0λ > :

[ ] 1 e , 0tP T t tλ−≤ = − ≥ , [ ] 1M Tλ

⇒ = ; (4.2.1)

− duratele de servire a clienţilor sunt variabile aleatoare i.i.d. cu distribuţie exponenţială de rată 0µ > :

0 1 2 i-1 i i+1

1λ 1iλ − iλ

2µ iµ 1iµ +

Page 155: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

145

[ ] 1 e , 0tP Z t tµ−≤ = − ≥ , [ ] 1M Zµ

⇒ = . (4.2.2)

Modelul de tip lanţ birth-death al unui sistem de aşteptare de tip M/M/1 este reprezentat în fig. 4.2.1.

Fig. 4.2.1. Lanţul birth-death corespunzător unui sistem de aşteptare M/M/1.

Condiţia (4.1.32) ca sistemul de aşteptare de tip M/M/1 să fie stabil devine

0 1 0λ λ µµ

< < ⇔ < < . (4.2.3)

Notând intensitatea traficului (eng. traffic intensity) în sistem cu ρ λ µ= , condiţia de stabilitate a sistemului este 0 1ρ< < . În acest caz probabilităţile de stare în regim staţionar au expresiile

[ ]1 1 1

01 1

10 1 1 11

nn

n nP X λπ ρ ρ

µ ρ

− − −∞ ∞

= =

= = = + = + = = − − ∑ ∑ , (4.2.4)

[ ] ( )0 1n

nn P X n λπ π ρ ρ

µ = = = = −

, 1, 2,n = … . (4.2.5)

Aceste relaţii arată că numărul de clienţi din sistem X are distribuţie geometrică modificată de parametru 1 ρ− (vezi 2.4.1.5). Pe baza semnificaţiei fizice a probabilităţilor , 0,1,n nπ = … , rezultă următoarele performanţe de regim staţionar pentru sistemul de aşteptare de tip M/M/1.

Gradul de utilizare a serverului Acesta poate fi calculat observând că serverul este utilizat ori de câte ori există cel puţin un client în sistem, astfel încât gradul său de utilizare este egal cu 01 1sρ π ρ= − = < . (4.2.6)

Rata de plecare a clienţilor din sistem Un client poate părăsi sistemul atunci când există cel puţin un client în sistem; rata de plecare a clienţilor este dată de ( )01µ π µρ λ− = = , (4.2.7)

fiind egală cu rata de sosire a clienţilor în sistem.

λ

µ

0 1 2 n-1 n n+1

λ λ λ

µ µ µ

Page 156: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

146

Numărul mediu de clienţi din sistem Distribuţia de probabilitate a numărului de clienţi din sistemul M/M/1 în regim staţionar este dată de relaţiile (4.2.4) şi (4.2.5). Valoarea medie corespunzătoare este

[ ] ( )0 0

M 1 nn

n nX n nπ ρ ρ

∞ ∞

= =

= = −∑ ∑ . (4.2.8)

Suma seriei din relaţia (4.2.8) se calculează observând că este satisfăcută relaţia:

1

0 1 0

1n n n

n n n

d n nd

ρ ρ ρρ ρ

∞ ∞ ∞−

= = =

= =

∑ ∑ ∑ , (4.2.9)

astfel că

( )2

0 0

1 1 11 1

d dtn n

n nnρ ρ

ρ ρ ρ

∞ ∞

= =

= ⇒ =− −

∑ ∑ . (4.2.10)

Din (4.2.8) şi (4.2.10) rezultă că numărul mediu de clienţi din sistemul de aşteptare de tip M/M/1 este

[ ]M1

X ρρ

=−

. (4.2.11)

Numărul mediu de clienţi din firul de aşteptare Numărul mediu de clienţi din firul de aşteptare se obţine scăzând din numărul mediu de clienţi din sistem ( M[ ]X ) numărul mediu de clienţi aflaţi în curs de servire, adică ρ ,

[ ]2

M[ ] M1 1QX X ρ ρρ ρ

ρ ρ= − = − =

− −. (4.2.12)

Durata medie petrecută de un client în sistem Indiferent de disciplina de servire, durata medie petrecută de un client în sistemul de tip M/M/1 se obţine aplicând legea lui Little (4.1.22):

[ ] [ ]( ) ( )

1 1 1M M1 1

S X ρλ λ ρ µ ρ µ λ

= = = =− − −

. (4.2.13)

0 0.2 0.4 0.6 0.8 10

5

10

15

20Durata medie petrecuta de un client in sistemul M/M/1

Gradul de utilizare a serverului ( ρ )

M[ S

]

1 / µ

µ = 1

Fig. 4.2.2. Reprezentarea grafică a dependenţei duratei medii petrecute de un client într-un

sistem de aşteptare de tip M/M/1 în funcţie de gradul de utilizare a serverului.

Page 157: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

147

Se observă că 1

lim M[ ]Xρ

= +∞ şi 1

lim M[ ]Sρ

= +∞ . Interpretarea fizică a acestor relaţii

conduce la concluzia că, încercarea de a creşte gradul de utilizare a serverului ( 1ρ ) conduce la creşterea numărului mediu de clienţi din sistem. La sosirea unui nou client acesta găseşte un număr foarte mare de clienţi aşteptând în coadă, astfel încât creşte si timpul petrecut de acesta în sistem. Fig. 4.2.2 reprezintă grafic dependenţa duratei medii M[ ]S în funcţie de gradul de utilizare a serverului pentru 1µ = .

Durata medie de aşteptare Numai în cazul în care disciplina de servire a clienţilor este FIFO, durata medie petrecută de un client în firul de aşteptare poate fi calculată ca diferenţa dintre durata medie petrecută de un client în sistem şi durata medie de servire:

[ ] [ ] [ ]( ) ( ) ( )

21M M M1 1

W S Z ρ ρ λλ ρ µ λ ρ µ µ λ

= − = − = =− − −

. (4.2.14)

Se observă că, aşa cum era de aşteptat, 1

lim M[ ]Wρ

= +∞ .

Probabilitatea de aşteptare la coadă Probabilitatea ca un client care soseşte în sistem să găsească serverul ocupat şi să aştepte la coadă (eng. queueing probability) este [ ] 01 1QP P X π ρ= ≥ = − = . (4.2.15) De asemenea, se poate demonstra că distribuţia de probabilitate a duratei petrecute de un client în sistem este exponenţială de parametru (1 )µ ρ µ λ− = − :

[ ] ( )1 e , 0tP S t tµ λ− −≤ = − ≥ , (4.2.16) iar distribuţia de probabilitate a duratei de aşteptare este dată de: [ ] ( )e , 0tP W t tµ λρ − −> = ≥ . (4.2.17)

Exemplul 4.2.1. Se consideră un server la care sosesc taskuri după un proces Poisson de rată 1λ = min-1. Se doreşte determinarea valorii ratei µ de servire a taskurilor astfel încât durata medie de aşteptare pentru fiecare task să nu depăşească 0,5 min. Considerând un model de tip M/M/1 pentru acest sistem de aşteptare, impunem condiţia M[ ] 1 2W ≤ . Din relaţia (4.2.14) se obţine

( )( ) 21 1 1 2 2 0

1 2 2sistemul este stabil 1

µ µ µ µµ µ µ

µ

≤ ⇒ − ≥ ⇒ − − ≥ − ⇒ ≥⇒ >

.

Pentru 2µ = min-1, gradul de utilizare a serverului este 0,5ρ = . Numărul mediu de taskuri din bufferul care precede serverul este 2M[ ] (1 ) 0,5QX ρ ρ= − = . Durata medie de aşteptare în buffer este [ ]M 0,5W = min. Distribuţia de probabilitate a duratei de aşteptare este dată de

[ ] 0,5e , 0tP W t t−> = ≥ ,

Page 158: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

148

având reprezentarea grafică din fig. 4.2.3. Probabilitatea ca un task să aştepte mai mult de 0,5 min până la începutul servirii este

[ ] 0,50,5 0,5e 0,3033P W −> = = .

0 1 2 3 4 5 6 70

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5Durata de asteptare

t

P[W

< t]

λ =1, µ =2

Fig. 4.2.3. Reprezentare grafică a distribuţiei duratei de aşteptare a unui task

pentru sistemul de aşteptare M/M/1 cu 1λ = min-1 şi 2µ = min-1. În continuare sunt prezentate trei metode de simulare numerică a sistemului de aşteptare de tip M/M/1.

0 5 10 15 20 25 30 35 40 45 500

5

10

15

20

25

30

35

40

45

50

Timp

Num

ar d

e cl

ient

i

Sistem M/M/1

λ = 1, µ = 2

# IN# OUT

Fig. 4.2.4. Numărul de taskuri sosite la server şi numărul de taskuri servite într-un

sistemul de aşteptare M/M/1 cu 1λ = min-1 şi 2µ = min-1. Prima metodă utilizată se bazează pe implementarea în Matlab a relaţiilor prezentate în paragraful 4.1.2. Programul Matlab utilizat în acest scop este prezentat în Anexa 1. Fig. 4.2.4 prezintă numărului de taskuri sosite la server vs. numărul de taskuri servite pentru 1λ = min-1 şi 2µ = min-1 pe o durată de 50 min. Simulând funcţionarea sistemului pe o durată de 20.000 min se obţin valorile de 19.996 taskuri servite complet, de 0,4825 min pentru durata medie de aşteptare, de 0,4952 min pentru durata medie de servire şi de 0,9777 min pentru durata medie petrecută de un task în sistem.

Page 159: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

149

A doua metodă de simulare se bazează pe modelarea sistemului prin reţeaua Petri stohastică generalizată (GSPN) din fig. 4.2.5 şi simularea în mediul Petri Net Toolbox pentru Matlab.

Fig. 4.2.5. Modelul de tip GSPN al unui sistem de aşteptare de tip M/M/1.

(a)

(b)

Fig. 4.2.6. Indicatorii globali pentru: (a) tranziţiile şi (b) poziţiile reţelei Petri din fig. 4.2.4 corespunzători unei durate de simulare de 20.000 min.

Tranziţiile denumite Sosire şi Servire sunt temporizate, fiindu-le asignate durate de timp cu distribuţie exponenţială de rată 1λ = min-1 şi, respectiv, 2µ = min-1, şi

Page 160: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

150

modelează cele două procese stohastice de sosire şi de servire a clienţilor. Tranziţia denumită In este netemporizată, corespunzând evenimentului de scoatere a unui client (task) din firul de aşteptare Q şi începerea servirii acestuia. Poziţiile denumite Q, SW şi SI modelează firul de aşteptare (bufferul), operaţia de servire şi respectiv, disponibilitatea serverului (a resursei). Marcajul iniţial al reţelei are semnificaţia că, la momentul iniţial, nu există nici un client (task) în sistem. Prin simularea funcţionării reţelei pe o durată de 20.000 min se obţin indicatorii globali prezentaţi în fig. 4.2.6 pentru tranziţiile şi poziţiile acestei reţele Petri stohastice generalizate. Se observă că au fost servite 20.018 taskuri în total. Rata de sosire a clienţilor în sistem este egală cu rata de plecare din sistem, având valoarea de 1,0009 min-1 (indicatorul Arrival Rate pentru toate poziţiile, egal cu indicatorul Service Rate pentru toate tranziţiile modelului). Numărul mediu de clienţi din firul de aşteptare este 0,504 (indicatorul Queue Length pentru poziţia Q), iar gradul de utilizare a serverului este 0,501 (indicatorul Queue Length pentru poziţia SW). Durata medie de aşteptare este de 0,503 min (indicatorul Waiting Time pentru poziţia Q) şi durata medie de servire este de 0,501 min (indicatorul Waiting Time pentru poziţia SW). Cea de a treia metodă utilizată pentru simularea sistemului de aşteptare M/M/1 cu

1λ = min-1 şi 2µ = min-1 utilizează mediul Arena. Modul de construire a modelului din fig. 4.2.7 este prezentat sumar în Anexa 2. Fig. 4.2.7 prezintă şi rezultatele obţinute la sfârşitul simulării funcţionării sistemului pe durata de 50 min.

Fig. 4.2.7. Modelul utilizat în mediul Arena pentru simularea unui sistem de aşteptare

de tip M/M/1 şi rezultatele obţinute prin simulare pe o durată de 50 min.

Page 161: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

151

Fig. 4.2.8. Rezultate obţinute prin simularea în mediul Arena a unui sistem

de aşteptare de tip M/M/1 pe o durată de 20.000 min. Ca şi în cazurile precedente, funcţionarea sistemului a fost simulată şi pe durata de 20.000 min, situaţie în care au fost servite complet un număr de 19.852 taskuri. Durata medie de aşteptare în coadă este de 0,497 min, numărul mediu de clienţi din coadă este 0,491, iar gradul de utilizare a serverului 0,497 (fig. 4.2.8). Se poate observa că rezultatele obţinute prin cele trei metode de simulare a sistemului M/M/1 au fost foarte apropiate de rezultatele teoretice.

Exemplul 4.2.2. Viteza de transmitere a datelor într-un sistem de comunicaţii este 1.200C = biţi/s. Fluxul de sosire a mesajelor în sistem este de tip Poisson de rată λ .

Un mesaj constă din L biţi, lungimea mesajului fiind o variabilă aleatoare cu distribuţie exponenţială de medie M[ ] 600L = biţi. Se pune problema determinării valorii maxime a ratei de sosire a mesajelor λ astfel încât durata medie de aşteptare corespunzătoare unui mesaj să fie cel mult 1 s. Modelăm sistemul de comunicaţii ca sistem de aşteptare de tip M/M/1, pentru care serverul este reprezentat de linia de comunicaţii, durata medie de servire a unui client (mesaj) fiind M[ ] M[ ] 0,5S L C= = s. Rata medie de servire a clienţilor (mesajelor) este 1 M[ ] 2Sµ = = mesaje/s. În ipoteza că gradul de utilizare a serverului satisface relaţia

1 22

λ λρ λµ

= = < ⇔ < ,

durata medie de aşteptare a unui client (mesaj) este

[ ]( )

M2(2 )

W λ λµ µ λ λ

= =− −

.

Impunând condiţia M[ ] 1W ≤ s se obţine 4 3λ ≤ mesaje/s.

Page 162: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

152

Sistem de aşteptare M/M/1 cu două clase de clienţi Se consideră un sistem de aşteptare de tip M/M/1 care serveşte două clase de clienţi. Sosirea clienţilor de tipul 1 are loc după un proces Poisson de rată 1λ , iar a clienţilor de tipul 2 după un proces Poisson de rată 2λ . Cele două procese de sosire a clienţilor sunt independente. Pentru ambele tipuri de clienţi, durata de servire are distribuţie exponenţială de medie 1 µ . Presupunem că 1 2 1ρ ρ+ < , (4.2.18)

unde

ii

λρµ

= , 1,2i = , (4.2.19)

reprezintă gradul de ocupare a serverului datorită clienţilor de tipul i. Clienţii de tipul 1 (cu prioritate de nivel 1) sunt serviţi cu prioritate faţă de clienţii de tipul 2(cu prioritate de nivel 2). În continuare sunt studiate două tipuri de reguli de prioritate: prioritate absolută, cu reluarea servirii clientului de tipul 2 din punctul în care a fost întreruptă servirea la sosirea clientului de tipul 1, şi prioritate relativă. A. Prioritate absolută Considerăm clienţii de tipul 1 ca având prioritate absolută de servire faţă de clienţii de tipul 2. Dacă în cursul servirii clientului de tipul 2 apare un client de tipul 1, servirea clientului curent este întreruptă, acesta fiind trimis din nou în firul de aşteptare, şi începe servirea clientului nou sosit. Clienţii de tipul 1 sunt serviţi în ordinea sosirii. Atunci când în sistem nu mai există nici un client de tipul 1 este reluată servirea clientului de tipul 2 din punctul în care a fost întreruptă la sosirea clientului de tipul 1 (eng. pre-emptive resume priority). Fie variabilele aleatoare iX şi iS care reprezintă numărul de clienţi de tipul i din sistem, respectiv durata petrecută în sistem de un client de tipul i. În continuare vom determina valorile medii M[ ]iX şi M[ ]iS pentru 1,2i = . Pentru clienţii de tipul 1, clienţii de tipul 2 nu există. Din relaţia (4.2.11) rezultă imediat

[ ] 11

1M

1X ρ

ρ=

−. (4.2.20)

Legea lui Little pentru clienţii de tipul 1 se scrie sub forma

[ ] [ ]( )1 1

1 1 1

1 1 1M M1

S Xλ µ ρ µ λ

= = =− −

. (4.2.21)

Deoarece pentru clienţii de tipul 2 durata de servire neîntreruptă ca şi durata reziduală de servire (rămasă până la terminarea servirii din punctul în care a fost întreruptă la sosirea unui client de tipul 1) au distribuţie exponenţială de medie 1 µ , numărul total de clienţi din sistem (de ambele tipuri) nu depinde de ordinea în care aceştia sunt serviţi. Din punctul de vedere al numărului total de clienţi, sistemul de aşteptare se comportă ca şi cum clienţii ar fi serviţi în ordinea sosirii (cu rata 1 2λ λ λ= + ), indiferent de priorităţi. Rezultă că

Page 163: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

153

[ ] [ ] 1 21 2

1 2M M

1X X ρ ρ

ρ ρ+

+ =− −

. (4.2.22)

Din relaţiile (4.2.20) şi (4.2.22) se obţine

[ ]( ) ( )

1 2 1 22

1 2 1 1 1 2M

1 1 1 1X ρ ρ ρ ρ

ρ ρ ρ ρ ρ ρ+

= − =− − − − − −

. (4.2.23)

Aplicarea legii lui Little pentru clienţii de tipul 2 conduce la

[ ] [ ]( )( )2 2

2 1 1 2

1 1M M1 1

S Xλ µ ρ ρ ρ

= =− − −

. (4.2.24)

B. Prioritate relativă Considerăm în continuare cazul în care clienţii de tipul 1 au prioritate relativă de servire faţă de clienţii de tipul 2. Dacă în cursul servirii unui client de prioritate 2 apare un client de prioritate 1, servirea clientului curent este continuată, clientul de prioritate 2 fiind servit abia după terminarea servirii clientului curent (eng. non pre-emptive priority). Cu acelaşi notaţii ca la punctul A, durata totală petrecută de un client de tipul 1 în sistemul de aşteptare este

[ ] [ ]1 1 21 1 1M MS X ρµ µ µ

= + + , (4.2.25)

relaţie care exprimă faptul că un client de tipul 1 nou sosit trebuie să aştepte servirea clienţilor de acelaşi tip sosiţi înaintea sa, sau terminarea servirii unui client de tipul 2. Probabilitate ca un client de tipul 2 să găsească serverul ocupat de un client de tipul 2 este egală cu fracţia de timp cât serverul este ocupat cu servirea unui client de tipul 2, adică 2ρ . Aplicarea legii lui Little pentru clienţii de tipul 1 este [ ] [ ]1 1 1M MX Sλ= , (4.2.26)

care împreună cu (4.2.25) conduce la

[ ] [ ] [ ] ( )1 21 1 1 1 1 2 1

1

1M M M

1X X X

ρ ρρ ρ ρ ρ

ρ+

= + + ⇒ =−

, (4.2.27)

astfel că

[ ]( )

21

1

1M1

S ρµ ρ

+=

−. (4.2.28)

Relaţia (4.2.22) este satisfăcută şi în cazul în care clienţii de tipul 1 au prioritate relativă de servire. Rezultă că numărul mediu de clienţi de tipul 2 din sistemul de aşteptare este

[ ] ( ) ( )[ ]( )( )2 1 1 21 21 2

21 2 1 1 1 2

1 11M

1 1 1 1X

ρ ρ ρ ρρ ρρ ρρ ρ ρ ρ ρ ρ

− − −++= − =

− − − − − −. (4.2.29)

Aplicarea legii lui Little pentru clienţii de tipul 2 conduce la

[ ] [ ] ( )( )( )

1 1 22 2

2 1 1 2

1 11M M1 1

S Xρ ρ ρ

λ µ ρ ρ ρ− − −

= =− − −

. (4.2.30)

Page 164: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

154

Pentru ambele tipuri de priorităţi analizate mai sus, durata medie de aşteptare a unui client de fiecare nivel de prioritate se determină utilizând relaţiile

[ ] [ ]1 11M MW Sµ

= − , respectiv [ ] [ ]2 21M MW Sµ

= − . (4.2.31)

Numărul mediu de clienţi de fiecare tip care se găsesc în firul de aşteptare este [ ]1 1 1M MQX X ρ = − , respectiv [ ]2 2 2M MQX X ρ = − . (4.2.32)

Exemplul 4.2.3. Se consideră un sistem de aşteptare de tip M/M/1 care serveşte două clase de clienţi ce sosesc după două procese Poisson independente, cei de tipul 1 cu rata 1 0, 2λ = s-1, iar cei de tipul 2 cu rata 2 0,6λ = s-1. Pentru ambele tipuri de clienţi, duratele de servire au distribuţie exponenţială de rată 1µ = s-1. Gradul de ocupare a serverului datorită clienţilor de tipul 1 este 1 0,2ρ = , iar datorită clienţilor de tipul 2 este 2 0,6ρ = . În cazul în care clienţii sunt serviţi în ordinea sosirii indiferent de priorităţi, durata medie petrecută de un client în sistem este

[ ] 1M 51 0,2 0,6

S = =− −

s.

Dacă servirea clienţilor de tipul 1 se realizează cu prioritate absolută faţă cea a clienţilor de tipul 2 se obţine

[ ]10, 2M 0,25

1 0,2X = =

− clienţi, [ ]1

1M 1, 251 0,2

S = =−

s,

[ ]( )( )2

0,6M 3,751 0, 2 1 0,8

X = =− −

clienţi, [ ]( )( )2

1M 6,251 0, 2 1 0,8

S = =− −

s.

În situaţia servirii clienţilor de tipul 1 cu prioritate relativă faţă de clienţii de tipul 2 duratele petrecute în sistem de clienţii de cele două tipuri sunt

[ ] ( )1

0,2 1 0,8M 0,45

1 0,2X

+= =

− clienţi, [ ]1

1 0,6M 21 0,2

S += =

− s,

[ ] ( )[ ]( )( )2

0,6 1 0,2 1 0,8M 3,6

1 0, 2 1 0,8X

− −= =

− − clienţi, [ ] ( )

( )( )21 0, 2 1 0,2 0,6

M 61 0, 2 1 0,2 0,6

S− − −

= =− − −

s.

Fig. 4.2.9 prezintă modelul de tip reţea Petri stohastică generalizată utilizat pentru simularea funcţionării sistemului de aşteptare de tip M/M/1 cu prioritate relativă în servirea clienţilor de tipul 1 faţă de cea a clienţilor de tipul 2. Duratele asignate tranziţiilor temporizate Sosire1 şi Sosire2 au distribuţii exponenţiale de rate 1 0, 2λ = şi, respectiv, 2 0,6λ = , iar cele asignate tranziţiilor Servire1 şi Servire 2 au distribuţii

Page 165: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

155

exponenţiale de rată 1µ = . Arcul inhibitor ce conectează poziţia Q1 (corespunzătoare firului de aşteptare pentru clienţii de tipul 1) la tranziţia In2 (corespunzătoare evenimentului de începere a servirii unui client de tipul 2) modelează prioritatea relativă a clienţilor de tipul 1 faţă de clienţii de tipul 2.

Fig. 4.2.9. Modelul de tip GSPN al unui sistem de aşteptare de tip M/M/1

cu două tipuri de clienţi cu prioritate relativă de servire. Fig. 4.2.10 prezintă indicatorii globali pentru poziţiile reţelei Petri din fig. 4.2.9 corespunzători simulării în mediul Petri Net Toolbox a servirii unui număr total de 10.000 de clienţi. Aceste rezultate numerice pot fi puse cu uşurinţă în corespondenţă cu rezultatele teoretice prezentate mai sus.

Fig. 4.2.10. Indicatorii globali pentru poziţiile reţelei Petri din fig. 4.2.9 corespunzători simulării servirii unui număr total de 10.000 de clienţi.

Page 166: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

156

4.3. Sisteme de aşteptare M/M/m

Un sistem de aşteptare de tip M/M/m (fig. 4.3.1) este caracterizat prin: − capacitate infinită a firului de aşteptare: K = ∞ ; − fluxul de sosire a clienţilor în sistem este de tip Poisson, duratele dintre sosirile

clienţilor în sistem sunt variabile aleatoare independente identic distribuite (i.i.d.) cu distribuţie exponenţială de rată 0λ > :

[ ] 1 e , 0tP T t tλ−≤ = − ≥ , [ ] 1M Tλ

⇒ = ; (4.3.1)

− un număr de m servere identice; − pentru fiecare server în parte, duratele de servire a clienţilor sunt variabile

aleatoare i.i.d. cu distribuţie exponenţială de rată 0µ > :

[ ] 1 e , 0tP Z t tµ−≤ = − ≥ , [ ] 1M Zµ

⇒ = ; (4.3.2)

− disciplina de servire a clienţilor este cea implicită: FIFO.

Fig. 4.3.1. Schema unui sistem de aşteptare de tip M/M/m.

La sosirea unui client în sistem, dacă există servere libere, clientul respectiv poate fi servit de oricare dintre servere. Dacă toate serverele sunt ocupate, atunci clientul aşteaptă la coadă. Se observă că rata efectivă de servire a sistemului depinde de numărul n de clienţi aflaţi în sistem. Dacă în sistem sunt mai puţini clienţi decât servere, n m< , atunci fiecare client este în curs de servire, astfel încât rata servirii este egală cu nµ . Dacă numărul de clienţi din sistem depăşeşte numărul de servere, n m≥ , atunci toate cele m servere sunt ocupate şi n m− clienţi aşteaptă la coadă, rata efectivă de servire fiind mµ . Modelul de tip lanţ birth-death al sistemului de aşteptare de tip M/M/m este reprezentat în fig. 4.3.2. Cu notaţiile utilizate în fig. 4.1.4 pentru un lanţ birth-death general, în cazul sistemului de aşteptare de tip M/M/m ratele corespunzătoare „naşterilor” sunt date de nλ λ= , 0,1,2,n = … , (4.3.3)

iar ratele corespunzătoare „morţilor” sunt

Fir de aşteptare

Sosire clienţi

λ

m servere identice

µ

µ

Plecare clienţi

Page 167: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

157

, dacă 1 ,

min( , ), dacă .n

n n mn m

m n mµ

µ µµ

< <= = ≥

(4.3.4)

Condiţia (4.1.32) ca sistemul de aşteptare de tip M/M/m să fie stabil devine

0 1 0 mmλ λ µµ

< < ⇔ < < , (4.3.5)

adică rata sosirilor trebuie să fie mai mică decât rata maximă de servire.

Fig. 4.3.2. Lanţul birth-death corespunzător unui sistem de aşteptare M/M/m.

Pentru a determina distribuţia staţionară de stare a sistemului M/M/m, calculăm mai întâi suma seriei care intervine în expresia (4.1.33) a probabilităţii 0π :

[ ]

1110 1 1

1 11 211

1 1

1 1(2 ) ( ) (2 ) ( 1)

1 11 .! ( 1)!

n mn mmn

n n n mnn m pm

n p

n m m

n m m

λ λ λ λ λ λσµ µ µ µ µ µ µ µ µ µ

λ λ λµ µ µ

− +−∞ − ∞−

= = =

−− ∞

= =

= + = + + = −

= + + −

∑ ∑ ∑

∑ ∑

…… … …

(4.3.6)

Cu notaţia

not

mλρµ

= , (4.3.7)

relaţia (4.3.5) devine 0 1ρ< < , astfel încât (4.3.6) conduce la

1 11 1

1 1 1

1

0

( ) ( ) ( ) ( )1 1! ( 1)! ! ( 1)! 1

( ) ( ) 1 .! ! 1

n m n mm mp

n p n

n mm

n

m m m mn m n m

m mn m

ρ ρ ρ ρ ρσ ρρ

ρ ρρ

− −− ∞ −

= = =

=

= + + = + + =− − −

= +−

∑ ∑ ∑

∑ (4.3.8)

Din relaţiile (4.1.33) şi (4.3.8) rezultă că probabilitatea staţionară 0π are expresia:

[ ]11

10

0

( ) ( ) 10! ! 1

n mm

n

m mP Xn mρ ρπ σ

ρ

−−−

=

= = = = + −

∑ . (4.3.9)

λ

µ

0 1 2

λ

m+1

λ

m-2 m-1 m

λ λ

( 1)m µ− mµ

Page 168: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

158

Pentru calcularea probabilităţilor nπ , 1, 2,n = … , se disting două cazuri. Dacă n m< se obţine

[ ] 0 0 0 01 ( ) ,

(2 ) ( ) ! ! !1,2, , 1,

nn n nn

nm mP X n

n n n nn m

λ λ ρπ π π π ρ πµ µ µ µ

= = = = = =

= −…

(4.3.10)

iar dacă n m≥

[ ]

[ ]

11 11

0 0

0

( )(2 ) ( 1) ( 1)!

, , 1, .!

n mm mn m

n

mn

mP X nm m m

m n m mm

λ λ ρπ π ρ πµ µ µ µ

ρ π

− +− −− + = = = = = − −

= = +

(4.3.11)

Relaţiile (4.3.9) – (4.3.11) precizează distribuţia staţionară a numărului de clienţi din sistemul de aşteptare M/M/m. Pe baza acestei distribuţii pot fi evaluate performanţele sistemului de aşteptare după cum urmează.

Gradul de utilizare a unui server Fie B variabila aleatoare care reprezintă numărul de servere ocupate din sistem,

0,1, , B m∈ … . Valoarea medie a acestei variabile se calculează ţinând cont că, în cazul în care sunt cel puţin m clienţi în sistem, numărul maxim de servere ocupate din sistem este m, fiind

1

0M[ ] [ ]

m

nn

B n mP X mπ−

=

= + ≥∑ , (4.3.12)

unde

0[ ]! 1

m m

nn m

mP X mm

ρπ πρ

=

≥ = =−∑ . (4.3.13)

Rezultă că

1

00

1

02

1 12

01

1

00

( ) ( ) 1M[ ]! ! 1

( ) ( )( 1)! ! 1

( ) ( ) ( )1! ( 1)! ( 1)! 1

( ) ( ) 1 .! ! 1

n mm

n

n mm

n

j m mm

j

j mm

j

m mB n mn m

m m mmn m

m m mmj m m

m mm mj m

ρ ρ πρ

ρ ρρ πρ

ρ ρ ρ ρρ πρ

ρ ρ λρ π ρρ µ

=

=

− −−

=

=

= + = −

= + + = − −

= + + + = − − −

= + ⋅ = = −

(4.3.14)

Gradul de utilizare a unui server este M[ ]s B mρ ρ= = .

Rata de plecare a clienţilor din sistem Dacă sistemul de aşteptare M/M/m este stabil, atunci rata de plecare a clienţilor din sistem este egală cu rata de sosire a clienţilor, λ .

Page 169: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

159

Numărul mediu de clienţi din sistem Numărul mediu de clienţi din sistemul de aşteptare M/M/m în regim staţionar este

[ ]1

00 0

M! !

n n m nm

nn n n m

m mX n n nn mρ ρπ π

∞ − ∞

= = =

= = +

∑ ∑ ∑ . (4.3.15)

Printr-un raţionament similar celui aplicat pentru calcularea gradului de utilizare a unui server se ajunge la formula

[ ] 02( )M

! (1 )

mmX mmρ ρρ π

ρ= +

−. (4.3.16)

Aşa cum era de aşteptat, au loc relaţiile 0

lim M[ ] 0Xρ

= şi 1

lim M[ ]Xρ

= ∞ .

Durata medie petrecută de un client în sistem Durata medie petrecută de un client în sistemul de aşteptare de tip M/M/m se obţine aplicând legea lui Little (4.1.22):

[ ] [ ] 02

02

1 1 ( )M M! (1 )

1 1 ( ) .! (1 )

m

m

mS X mm

mm m

ρ ρρ πλ λ ρ

πρµ µ ρ

= = + = −

= +−

(4.3.17)

Probabilitatea de aşteptare la coadă Probabilitatea ca un client care soseşte în sistem să găsească toate serverele ocupate şi să trebuiască să aştepte la coadă este

[ ] 0( )! 1

m

Q nn m

mP P X mm

πρπρ

=

= ≥ = =−∑ . (4.3.18)

Relaţia (4.3.18) poartă denumirea de formula C a lui Erlang. Această formulă este utilizată în telefonie pentru a determina numărul m de linii telefonice necesare astfel încât, cunoscând rata medie λ de sosire a apelurilor telefonice şi durata medie 1 µ a unui apel, probabilitatea ca un client să aştepte la coadă, QP ,să nu depăşească o anumită valoare impusă.

Numărul mediu de clienţi din firul de aşteptare Numărul mediu de clienţi din firul de aşteptare se obţine scăzând din numărul mediu de clienţi din sistem ( M[ ]X ) numărul mediu de clienţi aflaţi în curs de servire, adică mρ ,

[ ] 02( )M[ ] M

! 1(1 )

m

Q QmX X m Pmρ ρ ρρ π

ρρ= − = =

−−. (4.3.19)

Durata medie de aşteptare Durata medie de aşteptare poate fi calculată ca diferenţa dintre durata medie petrecută de un client în sistem M[ ]S şi durata medie de servire 1 µ , sau aplicând formula lui Little (4.1.31):

Page 170: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

160

1 1 1M[ ] M[ ]1Q Q QW X P P

λ λ ρ µ λ= = =

− −. (4.3.20)

De asemenea, se poate demonstra că distribuţia de probabilitate a duratei de aşteptare a unui client este [ ] ( )e , 0m t

QP W t P tµ λ− −> = ≥ . (4.3.21)

Exemplul 4.3.1. La un server (S) sosesc job-uri după un proces Poisson de rată λ iar durata de servire are distribuţie exponenţială de rată µ . S-au luat în considerare trei variante de îmbunătăţire a performanţelor serviciului desfăşurat de acest server în sensul micşorării duratei medii petrecute de un job în sistem, şi anume: 1. înlocuirea serverului (S) cu unul mai performant (S1), având rata de servire dublă faţă de (S), 1 2µ µ= – fig. 4.3.3.(a); 2. adăugarea unui al doilea server identic cu (S), având rata de servire µ , fiecare cu firul său de aşteptare, şi împărţirea job-urilor în mod egal între cele două servere identice, rata de sosire a job-urilor la fiecare server fiind 2λ – fig. 4.3.3.(b); 3. adăugarea unui al doilea server identic cu (S), având rata de servire µ , şi utilizarea unui singur fir de aşteptare comun pentru cele două servere – fig. 4.3.3.(c).

(a) (b)

(c)

Fig. 4.3.3. Cele trei variante considerate în Exemplul 4.3.1. 1. Sistemul considerat în varianta 1 este de tip M/M/1 cu rata de sosire a clienţilor

1λ λ= , rata de servire 1 2µ µ= şi gradul de utilizare 1 (2 )not

ρ λ µ ρ= = . Durata medie petrecută de un client în sistem este

( ) ( )11 1

1 1 11 2 1 2

Sµ ρ µ ρ µ λ

= = =− − −

.

µ

Varianta 3

µ

λ

2λ µ

Varianta 2

2λ µ

λλ 2µ

Varianta 1

Page 171: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

161

2. În varianta 2 este vorba de două sisteme de tip M/M/1, pentru fiecare dintre acestea rata de sosire a clienţilor este 2 2λ λ= , rata de servire 2µ µ= şi gradul de utilizare 2 2 2 (2 )ρ λ µ λ µ ρ= = = . Durata medie petrecută de un client în oricare dintre cele două sisteme este

( ) ( )2 12 2

1 1 2 21 1 2

S Sµ ρ µ ρ µ λ

= = = =− − −

.

3. În varianta 3 se obţine un sistem de aşteptare de tip M/M/2 cu rata de sosire a clienţilor 3λ λ= , rata de servire pentru fiecare server 3µ µ= şi gradul de utilizare al unui server egal cu 3 (2 )ρ λ µ ρ= = . Durata medie petrecută de un client în sistemul M/M/2 este

33 3 3

1 , pentru 1,1 1 1 1

12 (1 ) 2 (1 ) , pentru 1.2 (1 )

Q QS P Pρ

µµ µ ρ µ µ ρ ρ

µ ρ

= + = + ≈ − − ≈ −

Se constată că varianta 1, de alegere a unui singur server cu rata dublă de servire a clienţilor, este cea mai bună. În varianta 2, durata petrecută de un job în sistem este dublă faţă de varianta 1. De asemenea, când cele două servere au fire de aşteptare separate este posibil ca unul dintre servere să nu lucreze în timp ce în firul de aşteptare al celuilalt server se găsesc job-uri. În varianta 3, cel de-al doilea server nu aduce nici o îmbunătăţire în cazul în care rata de sosire a clienţilor este foarte mică; fiecare job este preluat direct de către server atunci când soseşte. În plus, durata efectivă de servire (1 λ ) este dublă faţă de varianta 1 (1 (2 )µ ). Se observă că, în această variantă, dacă rata de sosire a clienţilor este mare şi 1ρ ≈ , durata medie petrecută de un job în sistem este aproximativ egală cu cea din varianta 1. Două servere lente care au un fir de aşteptare comun, sunt la fel de eficiente ca şi un singur server de două ori mai rapid.

Exemplul 4.3.2. Un centru de primire a apelurilor telefonice este modelat ca sistem de aşteptare de tip M/M/m. Cunoscând că se primesc în medie 40 de apeluri pe oră şi durata medie a unui apel este de 3 min, se doreşte determinarea numărului de operatori m astfel încât probabilitatea ca un client să aştepte mai mult de 2 min să fie mai mică decât 5%. Alegând ca unitate de măsură pentru timp minutul [min], rata medie de sosire a apelurilor (clienţilor) este 2 3λ = min-1, iar rata medie de servire este 1 3µ = min-1. Impunând condiţia (4.3.5) de stabilitate a sistemului, se obţine

2 33 3

mm mλ µ< ⇔ < ⇒ ≥ ,

adică sunt necesari cel puţin 3 operatori.

Page 172: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

162

Pentru 3m = , rezultă (3 ) 2 3ρ λ µ= = şi 4 9QP = . Aplicând relaţia (4.3.21), probabilitatea ca un client să aştepte mai mult de 2t = min este

[ ] ( )2 3 2 342 e e 0,228 0,059QP W P µ λ− − −> = = = > ,

astfel încât valoarea 3m = nu convine. Considerăm în continuare cazul 4m = , pentru care (4 ) 1 2ρ λ µ= = şi 4 23QP = . Din relaţia (4.3.21) rezultă

[ ] ( )2 4 4 342 e e 0,042 0,0523QP W P µ λ− − −> = = = < .

Testând şi valoarea 5m = se obţine 2 5ρ = , 4 67QP = şi

[ ] ( )5 141 e e 0,0220 0,0567QP W P µ λ− − −> = = = < ,

[ ] ( )2 5 242 e e 0,0081 0,0567QP W P µ λ− − −> = = = < .

Condiţia impusă prin enunţ este satisfăcută pentru 4m = , deci este suficient să se utilizeze 4 operatori pentru preluarea apelurilor. Crescând numărul de operatori la 5, probabilitatea ca un client să aştepte mai mult de 1 min este redusă sub 5%, iar probabilitatea ca un client să aştepte mai mult de 2 min este redusă sub 1%.

Exemplul 4.3.3. (Sistem de aşteptare M/M/2 cu servere eterogene). O variantă a unui sistem de aşteptare de tip M/M/2 este cea în care cele două servere din sistem au rate diferite de servire a clienţilor. Structura unui asemenea sistem este prezentată în fig. 4.3.4, în care, fără a restrânge generalitatea, s-a presupus că 1 2µ µ> . Clienţii aşteaptă servirea în firul de aşteptare comun celor două servere. Atunci când ambele servere sunt disponibile, un client nou sosit este preluat de serverul mai rapid, S1. Serverul mai lent, S2, preia un client din coadă numai dacă S1 este ocupat.

Fig. 4.3.4. Schema unui sistem de aşteptare de tip M/M/2 cu servere eterogene.

Starea sistemului este precizată prin perechea ordonată 1 2( , )n n în care 1 0n ≥ notează numărul de clienţi din firul de aşteptare, inclusiv clientul aflat, eventual, în curs

λ 1µ

1 2µ µ> 1n

2n

Q

S1

S2

Page 173: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

163

de servire la serverul S1, iar 2 0,1n ∈ notează numărul de clienţi de la serverul S2. Diagrama ratelor tranziţiilor de stare corespunzătoare lanţului Markov ce modelează acest sistem este prezentată în fig. 4.3.5.

Fig. 4.3.5. Lanţul Markov corespunzător unui sistem de aşteptare

de tip M/M/2 cu servere eterogene. Notând cu 1 2( , )n nπ probabilitatea ca, în regim permanent de funcţionare, sistemul să se găsească în starea 1 2( , )n n , ecuaţiile de bilanţ al fluxului de probabilitate sunt următoarele:

1 2

1 2

2 1

1 2 1 2

1 2 1 2

(0,0) (1,0) (0,1),( ) (1,0) (1,1) (0,0),( ) (0,1) (1,1),

( ) (1,1) ( ) (2,1) (0,1) (1,0),( ) ( ,1) ( ) ( 1,1) ( 1,1), 1.n n n n

λπ µ π µ πλ µ π µ π λπλ µ π µ π

λ µ µ π µ µ π λπ λπλ µ µ π µ µ π λπ

= ++ = ++ =

+ + = + + ++ + = + + + − >

Intensitatea traficului de clienţi din sistem este

1 2

λρµ µ

=+

.

Cu această notaţie, din ecuaţiile de bilanţ rezultă

2

1

2

1 2

1

1 2

(0,1) (0,0),1 21(1,0) (0,0),

1 2( )(1,1) (0,0),

1 2

( ,1) ( 1,1) ( 1,1) (1,1), 1.nn n n n

ρ λπ πρ µρ λπ πρ µλ λ µρπ π

ρ µ µλπ π ρπ ρ π

µ µ−

=+

+=

++

=+

= − = − = >+

Condiţia de normare

1(0,0) (0,1) (1,0) ( ,1) 1

nnπ π π π

=

+ + + =∑ ,

λ

1,00,0

λ

1,10,1

2µ λ

1 2µ µ+

2,1

λ

1 2µ µ+

3,1

Page 174: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

164

conduce la relaţia 1

12 1

11 (0,0) (1,1) 11 2 1 2

n

n

ρ λ ρ λ π ρ πρ µ ρ µ

∞−

=

++ + + = + +

∑ ,

echivalentă cu 2

2 1 1 2

( )1 11 (0,0) (0,0) 11 2 1 2 1 1 2

λ λ µρ λ ρ λ ρπ πρ µ ρ µ ρ ρ µ µ

+++ + + = + + − +

,

de unde rezultă 1

2

1 2

( )(0,0) 1(1 )(1 2 )λ λ µπ

µ µ ρ ρ

− +

= + − + .

Numărul mediu de clienţi din sistem este dat de

[ ]1

1 1

12

1

M (1,0) (0,1) ( 1) ( ,1)

(1,0) (0,1) ( ,1) ( ,1)

(1,1)1 (0,0) (1,1) 1 (0,0) ,(1 )

n

n n

n

n

X n n

n n n

n

π π π

π π π π

ππ π ρ πρ

=

∞ ∞

= =

∞−

=

= + + + =

= + + + =

= − + = − +−

∑ ∑

şi poate fi pus sub forma

[ ] 21M

(1 )X

Fρ=

−,

unde 1 2

2

(1 2 ) 1( ) 1

F µ µ ρλ λ µ ρ

+= +

+ −.

Fig. 4.3.6. Modelul de tip GSPN al unui sistem de aşteptare de tip M/M/2

cu servere eterogene.

Page 175: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

165

Fig. 4.3.6 prezintă modelul de tip reţea Petri stohastică generalizată corespunzător sistemului de aşteptare de tip M/M/2 cu servere eterogene având parametrii 0,8λ = s-1,

1 2µ = s-1 şi 2 1µ = s-1. Tranziţiile Sosire, Servire1 şi Servire2 sunt temporizate cu durate de distribuţie exponenţială cu ratele λ , 1µ şi, respectiv, 2µ . Tranziţia netemporizată In1 are prioritate în executare faţă de tranziţia netemporizată In2, aceste două tranziţii modelând începerea servirii unui client de către serverul 1, respectiv serverul 2. Pentru valorile numerice impuse, utilizând formulele analitice deduse mai sus, se obţine 0, 2667ρ = , (0,0) 0,6096π = , (1,1) 0,0763π = şi M[ ] 0,5323X = . Fig. 4.3.7 prezintă indicatorii globali pentru poziţiile reţelei Petri din fig. 4.3.6 corespunzători simulării în mediul Petri Net Toolbox a servirii unui număr total de 10.000 de clienţi. Numărul mediu de clienţi din sistem este dat de suma indicatorilor Queue Length pentru poziţiile Q, S1W şi S2W, ce modelează firul de aşteptare, utilizarea serverului 1 şi, respectiv, a serverului 2. Se observă că se obţine valoarea 0,5314, foarte apropiată de valoarea teoretică. De asemenea, se poate determina durata de aşteptare a unui client în coadă (dată de indicatorul Waiting Time pentru poziţia Q) ca şi numărul total de clienţi serviţi de fiecare server în parte (indicatorii Arrival Sum pentru poziţiile S1W şi S2W).

Fig. 4.3.7. Indicatorii globali pentru poziţiile reţelei Petri din fig. 4.3.5 corespunzători simulării servirii unui număr total de 10.000 de clienţi.

Page 176: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

166

4.4. Sisteme de aşteptare M/M/∞

Sistemul de aşteptare de tip M/M/∞ poate fi privit ca un caz particular de sistem M/M/m corespunzător lui m = ∞ , adică un sistem cu un număr infinit de servere identice. În acest sistem clienţii nu trebuie să aştepte la coadă, fiind preluaţi imediat după sosire de către un server. Evident că în realitate nu există sisteme care să aibă un număr infinit de servere. Sistemul de tip M/M/∞ este utilizat pentru a modela acele sisteme fizice în care clienţii nu aşteaptă niciodată, ca de exemplu sistemele de transmitere a mesajelor electronice, sistemele de fabricaţie în care există benzi transportoare în continuă mişcare sau sistemele cu autoservire (eng. self service system). Fluxul de sosire a clienţilor în sistem este de tip Poisson, duratele dintre sosirile clienţilor în sistem sunt variabile aleatoare independente identic distribuite (i.i.d.) cu distribuţie exponenţială de rată 0λ > :

[ ] 1 e , 0tP T t tλ−≤ = − ≥ , [ ] 1M Tλ

⇒ = . (4.4.1)

Pentru fiecare server în parte, duratele de servire a clienţilor sunt variabile aleatoare i.i.d. cu distribuţie exponenţială de rată 0µ > :

[ ] 1 e , 0tP Z t tµ−≤ = − ≥ , [ ] 1M Zµ

⇒ = . (4.4.2)

Diagrama ratelor tranziţiilor de stare pentru modelul de tip lanţ birth-death al sistemului de aşteptare de tip M/M/∞ este reprezentat în fig. 4.4.1, având parametrii nλ λ= , 0,1,2,n = … , (4.4.3)

n nµ µ= , 1, 2,3,n = … . (4.4.4)

Fig. 4.4.1. Lanţul birth-death corespunzător unui sistem de aşteptare M/M/∞.

Pentru a determina distribuţia staţionară de stare a sistemului M/M/∞, calculăm mai întâi suma (4.3.6):

( )1 0

1 e(2 ) ( ) !

nn

n nn nρλ µλσ

µ µ µ

∞ ∞

= =

= + = =∑ ∑…, (4.4.5)

unde

not λρ

µ= . (4.4.6)

λ

µ

0 1 2

λ

2µ ( 1)n µ+

n+1

λ

n-1 n

λ

Page 177: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

167

Facem precizarea că, pentru sistemul de tip M/M/∞, parametrul ρ NU reprezintă intensitatea traficului în sistem. Distribuţia staţionară de probabilitate de stare a sistemului M/M/∞ se obţine din relaţiile (4.3.9) şi (4.3.10), fiind dată de

[ ] e , 0,1,2,!

n

n P X n nn

ρρπ −= = = = … (4.4.7)

În continuare sunt discutate performanţele sistemului de aşteptare M/M/∞.

Gradul de utilizare a sistemului Gradul de utilizare a sistemului de tip M/M/∞ este egal cu 01 1 es

ρρ π −= − = − . (4.4.8)

Rata de plecare a clienţilor din sistem Rata de plecare a clienţilor din sistem este egală cu rata de sosire, λ , care poate lua valori arbitrar de mari.

Numărul mediu de clienţi din sistem Relaţia (4.4.7) arată că numărul de clienţi din sistemul M/M/∞ are distribuţie Poisson de parametru ρ , astfel că valoarea sa medie este

M[ ]X λρµ

= = . (4.4.9)

Evident că, pentru sistemul de tip M/M/∞ numărul de clienţi din sistem reprezintă de fapt numărul de servere ocupate.

Durata medie petrecută de un client în sistem Aplicând legea lui Little (4.1.22) se obţine

[ ] [ ]1 1 1M MS X λλ λ µ µ

= = = . (4.4.10)

Acest rezultat era de aşteptat, fiecare client care soseşte în sistem este imediat preluat de un server, astfel încât durata petrecută în sistem este egală cu durata de servire.

4.5. Sisteme de aşteptare M/M/1/K

Într-un sistem de aşteptare de tip M/M/1/K (fig. 4.5.1) există un singur server pentru care duratele de servire a clienţilor sunt variabile aleatoare independente cu distribuţie exponenţială de rată 0µ > . Numărul de clienţi care se pot găsi simultan în sistem este limitat la K, un client în curs de servire şi 1K − clienţi în firul de aşteptare.

Page 178: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

168

Fig. 4.5.1. Schema unui sistem de aşteptare M/M/1/K.

Procesul de sosire a clienţilor este de tip Poisson de rată 0λ > . Atunci când în sistem se găsesc deja K clienţi, nu mai este permisă intrarea unor noi clienţi în sistem. În momentul în care numărul de clienţi din sistem devine 1K − este permisă intrarea unui nou client în sistem. Se spune că procesul Poisson de sosire a clienţilor este întrerupt (eng. interrupted Poisson process). Datorită faptului că un proces Poisson nu are memorie, structura markoviană a diagramei ratelor tranziţiilor de stare se păstrează. „Oprirea” procesului de sosire a clienţilor funcţionează numai pentru sosirile de tip Poisson.

Lanţul birth death care modelează un sistem de aşteptare de tip M/M/1/K este prezentat în fig. 4.5.2, având parametrii

, pentru 0,1,2, , 1,

0, pentru ,nn Kn K

λλ

= −= ≥

… (4.5.1)

, pentru 1,2, , ,

0, pentru .nn Kn K

µµ

== >

… (4.5.2)

Fig. 4.5.2. Lanţul birth-death corespunzător unui sistem de aşteptare M/M/1/K.

Aplicând relaţia (4.1.33) se obţine

11

0 1 10 1

1 01 2

1[ 0] 11

nK Kn

Kn nn

P X λ λ λ λ ρπµ µ µ µ ρ

−−−

+= =

− = = = + = = − ∑ ∑…

…, (4.5.3)

unde

0not λρ

µ= > . (4.5.4)

Suma din (4.5.3) fiind finită, spre deosebire de cazul sistemelor de tip M/M/1, pentru sistemele de tip M/M/1/K nu apare problema convergenţei seriei care intervine în expresia lui

Kλπ

µλ (1 )Kλ π−

0(1 )µ π−

K

clienţi rejectaţi

λ

µ

0 1 2 K-2 K-1 K

λ λ λ

µ µ µ

Page 179: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

169

0π , astfel încât ρ poate lua orice valoare. De asemenea, menţionăm faptul că parametrul ρ (4.5.4) NU reprezintă intensitatea traficului în sistemul de aşteptare M/M/1/K. Din relaţia (4.1.34) rezultă că

0 10 1

1

1[ ] , 1,2, ,1

nnn K

nP X n n Kλ λ ρπ π ρ

µ µ ρ−

+

−= = = = =

−… ……

. (4.5.5)

Facem observaţia că pentru 1ρ < şi K →∞ se obţine sistemul M/M/1. Pe baza distribuţiei staţionare de probabilitate a stării sistemului de aşteptare de tip M/M/1/K se pot calcula performanţele acestuia.

Gradul de utilizare a serverului Gradul de utilizare a serverului este dat de

0 1 11 11 1

1 1

K

s K Kρ ρρ π ρ

ρ ρ+ +

− −= − = − =

− −. (4.5.6)

Spre deosebire de sistemul M/M/1, în afară de ratele λ şi µ , gradul de utilizare a serverului din sistemul M/M/1/K depinde şi de capacitatea K a sistemului.

Rata de plecare a clienţilor din sistem Un client poate părăsi sistemul atunci când există cel puţin un client în sistem; rata de plecare a clienţilor este dată de

( )0 1 11 11

1 1

K K

K Kρ ρµ π µρ λρ ρ+ +

− −− = =

− −, (4.5.7)

fiind mai mică decât rata λ de sosire a clienţilor în sistem, deoarece există clienţi al căror acces în sistem este blocat.

Probabilitatea de blocare Cea mai importantă măsură a performanţelor unui sistem de aşteptare de tip M/M/1/K este probabilitatea ca un client care soseşte să găsească sistemul ocupat şi să fie rejectat, denumită probabilitate de blocare (eng. blocking probability). Datorită lipsei de memorie a procesului Poisson de sosire a clienţilor probabilitatea de blocare este egală cu probabilitatea ca în sistem să se găsească K clienţi

( ) 111

K

B K KP ρπ ρρ += = −

−. (4.5.8)

Se observă că, aşa cum era de aşteptat, pentru 1ρ < şi K →∞ (caz în care se obţine sistemul M/M/1), probabilitatea de blocare a unui client tinde la zero, 0BP → . De asemenea, are loc relaţia 0(1 ) (1 )BPλ µ π− = − , (4.5.9)

relaţie care reprezintă bilanţul fluxului de clienţi din sistem. Rata efectivă de intrare a clienţilor în sistem, (1 )BPλ − , este egală cu rata de plecare a clienţilor din sistem, 0(1 )µ π− .

Page 180: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

170

În problemele de proiectare a sistemelor de aşteptare formula (4.5.8) este utilizată pentru a determina capacitatea K a unui sistem astfel încât probabilitatea de blocare a clienţilor să fie mai mică decât o valoare impusă.

Numărul mediu de clienţi din sistem Numărul mediu de clienţi din sistemul de aşteptare M/M/1/K este

10 1

1M[ ]1

K Kn

n Kn n

X n nρπ ρρ +

= =

−= =

−∑ ∑ . (4.5.10)

Cu notaţia

1

Knotn

nnσ ρ

=

= ∑ , (4.5.11)

se constată că are loc relaţia

2 2 3 1

2 1 1

2 2 ( 1)

1 ,1

K K K

KK K K

K K K

K K

σ ρσ ρ ρ ρ ρ ρ ρ ρ

ρρ ρ ρ ρ ρ ρρ

+

+ +

− = + + + − − − − − − =

−= + + + − = −

… …

… (4.5.12)

de unde rezultă

11 1

KKKρ ρσ ρ

ρ ρ −

= − − − . (4.5.13)

Înlocuind această expresie în (4.5.10), numărul mediu de clienţi din sistemul M/M/1/K este

11M[ ]11

KK

KX Kρ ρ ρρρ +

−= − −−

. (4.5.14)

Numărul mediu de clienţi din firul de aşteptare Numărul mediu de clienţi din firul de aşteptare se obţine scăzând din numărul mediu de clienţi din sistem ( M[ ]X ) numărul mediu de clienţi aflaţi în curs de servire, adică gradul de utilizare a serverului, 01 π− ,

[ ] 0 1 1

21

1

1 1M[ ] M (1 )11 1

1 .11

K KK

Q K K

KK

K

X X K

K

ρ ρ ρπ ρ ρρρ ρ

ρ ρ ρρρ

+ +

−+

− −= − − = − − = −− −

−= − −−

(4.5.15)

Durata medie petrecută de un client în sistem Durata medie petrecută de un client în sistemul de aşteptare de tip M/M/1/K se obţine prin aplicarea legii lui Little (4.1.22) utilizând rata efectivă de sosire a clienţilor în sistem,

( )0(1 ) 1BPλ µ π− = − ,

Page 181: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

171

[ ] [ ]( )

[ ]0

1

1

1 1M M M(1 ) 1

1 1 1 1 .1(1 ) 1 1

B

K K KK

K K K

S X XP

KK

λ µ π

ρ ρ ρ ρρρ µ ρλ ρ ρ ρ

+

+

= = =− −

− −= − = − − 1−− − −

(4.5.16)

Durata medie de aşteptare Durata medie de aşteptare poate fi calculată ca diferenţa dintre durata medie petrecută de un client în sistem M[ ]S şi durata medie de servire 1 µ sau aplicând formula lui Little (4.1.31) şi utilizând rata efectivă de sosire a clienţilor în sistem, ( )0(1 ) 1BPλ µ π− = − ,

[ ] [ ] 1M MW Sµ

= − . (4.5.17)

Exemplul 4.5.1. În Exemplul 3.4.2 a fost studiat un sistem de fabricaţie modelat ca sistem de aşteptare de tip M/M/1/2, performanţele acestuia fiind calculate pe baza performanţelor reţelei Petri stohastice corespunzătoare. În continuare ne propunem să comparăm rezultatele obţinute în Exemplul 3.4.2 cu cele care se obţin aplicând teoria generală a sistemelor de capacitate finită M/M/1/K pentru 2K = . Diagrama ratelor tranziţiilor de stare este prezentată în fig. 3.4.8, iar distribuţia staţionară de probabilitate de stare, [ ]0 1 2π π π=π , este dată de

( ) ( ) ( )12 2

0 1 0 2 01 , ,π λ µ λ µ π λ µ π π λ µ π−

= + + = = .

Pentru valorile numerice 1λ = s-1 şi 2µ = s-1, rezultă 1 2ρ λ µ= = , 0 4 7π = , 1 2 7π = şi 2 1 7π = .

Performanţe caracteristice sistemului de fabricaţie sunt următoarele:

gradul de utilizare al maşinii (serverului): 01 3 7π− = ; frecvenţa reală de sosire a pieselor în sistem: 2(1 ) 6 7λ π− = s-1; frecvenţa reală de prelucrare a pieselor pe maşina M: 0(1 ) 6 7µ π− = s-1, fiind

egală cu frecvenţa reală de sosire a pieselor; numărul mediu de piese aflate în sistem: 1 2[ ] 2 4 7M X π π= + = piese; numărul mediu de piese aflate în depozit:

0[ ] M[ ] (1 ) 4 7 3 7 1 7QM X X π= − − = − = piese; timpul mediu petrecut de o piesă în sistem:

2

[ ] 2[ ](1 ) 3M XM S

λ π= =

− s.

Aceste performanţe pot fi comparate cu rezultatele obţinute prin simularea în mediul Petri Net Toolbox a funcţionării sistemului de fabricaţie (modelat prin reţeaua Petri stohastică generalizată din fig. 3.4.6.(a)) pe o durată de 25.000 s.

Page 182: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

172

Exemplul 4.5.2. Se doreşte proiectarea unei celule de fabricaţie ce constă dintr-o singură maşină şi un depozit de capacitate finită ce precede maşina (pentru stocarea pieselor brute trimise spre prelucrare). Procesul de sosire a pieselor brute este considerat de tip Poisson de rată 1λ = piesă/h. Durata de prelucrare a unei piese are distribuţie exponenţială de rată µ . În aceste ipoteze, celula de fabricaţie poate fi modelată ca sistem de aşteptare de tip M/M/1/K. Pentru determinarea parametrilor µ şi K ai sistemului avem trei posibilităţi de alegere a maşinii (serverului): 1. maşina M1 cu rata de prelucrare 1 0,5µ = piese/h şi preţul de 100 $; 2. maşina M2 cu rata de prelucrare 2 1,2µ = piese/h şi preţul de 300 $; 3. maşina M3 cu rata de prelucrare 3 2µ = piese/h şi preţul de 500 $. În plus, fiecare spaţiu de depozitare costă 80 $. Scopul proiectării celulei este ca probabilitatea de rejecţie (blocare) a unei piese trimise spre prelucrare să fie mai mică decât 10% şi, în acelaşi timp, de a alege o combinaţie a parametrilor µ şi K astfel încât costul total să fie minimizat. Considerând 1ρ λ µ µ= = , condiţia ca probabilitatea de blocare a accesului unui client în sistemul de capacitate K să fie mai mică decât 10% se scrie în forma

( ) 1( ) 1 0,101

K

B KP K ρρρ += − <

−.

1. Pentru maşina M1 se obţine 1 2ρ = şi

11

2 1( ) 0,10 10 2 2 1 282 1

KK K K

B KP K ++= < ⇔ ⋅ < − ⇔ <−

.

Ţinând cont că K este număr natural (reprezintă capacitatea sistemului) condiţia precedentă nu poate fi îndeplinită. Maşina M1 nu poate satisface cerinţele impuse. 2. Pentru maşina M2 se obţine 2 5 6ρ = şi

1 11 15 6( ) 0,10 10 5 6 5 3 6,7,

56 5

KKK K K

B K KP K K+ ++ +

= < ⇔ ⋅ < − ⇔ > ⇒ = − … .

Se poate observa că (5) 10,07%BP = (valoare foarte apropiată de valoarea de 10% impusă în enunţ) şi (6) 7,74%BP = . Pentru 5K = , costul total al celulei este 4 80 300 620⋅ + = $. Pentru 6K = , costul total al celulei este 5 80 300 700⋅ + = $. 3. Pentru maşina M3 se obţine 3 1 2ρ = şi

111( ) 0,10 2 11 3, 4,

2 1K

B KP K K++= < ⇔ > ⇒ =−

… .

Se poate observa că (2) 14, 29%BP = (valoare prea mare faţă de valoarea impusă în enunţ) şi (3) 6,67%BP = . Pentru 3K = , costul total al celulei este 2 80 500 660⋅ + = $.

Page 183: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

173

Soluţia optimă este de a alege maşina M3 şi capacitatea celulei 3K = , pentru care costul total este de 660 $. Dacă se acceptă un uşor compromis în ceea ce priveşte valoarea probabilităţii de blocare, poate fi aleasă maşina M2 şi capacitatea celulei 5K = , pentru care costul total este de 620 $.

4.6. Sisteme de aşteptare M/M/m/m

Acest sistem de aşteptare constă din m servere identice fără fir de aşteptare (fig. 4.6.1).

Fig. 4.6.1. Schema unui sistem de aşteptare de tip M/M/m/m.

Pentru toate serverele, duratele de servire a clienţilor au distribuţie exponenţială de rată 0µ > . Procesul de sosire a clienţilor este de tip Poisson de rată 0λ > . Ca şi în cazul sistemului de aşteptare de tip M/M/1/K, dacă un client soseşte atunci când toate cele m servere sunt ocupate, clientul este rejectat, procesul Poisson de sosire a clienţilor fiind întrerupt.

Lanţul birth-death care modelează un sistem de aşteptare de tip M/M/m/m este prezentat în fig. 4.6.2, având parametrii

, pentru 0,1, 2, , 1,

0, pentru ,nn mn m

λλ

= −= ≥

… (4.6.1)

, pentru 1, 2, , ,

0, pentru .nn n m

n mµ

µ=

= >

… (4.6.2)

Fig. 4.6.2. Lanţul birth-death corespunzător unui sistem de aşteptare M/M/m/m.

λ

µ

0 1 2 m-2 m-1 m

λ λ λ

2µ ( 1)m µ− mµ

clienţi rejectaţi

λ

m servere identice

µ

µmλπ

(1 )mλ π−

Page 184: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

174

Aplicând relaţia (4.1.33) se obţine

1 11

0 1 10

1 0 01 2

1[ 0] 1! !

n nm m mn

n n nnP X

n nλ λ λ λ ρπµ µ µ µ

− −−−

= = =

= = = + = =

∑ ∑ ∑……

, (4.6.3)

unde

0not λρ

µ= > . (4.6.4)

Suma din (4.6.3) fiind finită, nici pentru sistemele de tip M/M/m/m nu apare problema convergenţei seriei care intervine în expresia lui 0π , astfel încât ρ poate lua orice valoare. Din relaţia (4.1.34) rezultă că

1

0 10

01[ ] , 1, 2, ,

! !

n nmn

nnn

P X n n mn n

λ λ ρ ρπ πµ µ

−−

=

= = = = =

∑… …

…. (4.6.5)

Pentru sistemul de tip M/M/m/m indicatorii de performanţă pot fi determinaţi în mod asemănător cu cei ai sistemelor prezentate anterior. Cel mai important dintre indicatori este probabilitatea de blocare, care este prezentat în continuare.

Probabilitatea de blocare Ca şi pentru sistemul de tip M/M/1/K, probabilitatea ca un client care soseşte să găsească toate serverele din sistem ocupate şi să fie rejectat este egală cu probabilitatea ca în sistem să se găsească m clienţi,

1

0! !

m nm

B mn

Pm nρ ρπ

=

= =

∑ . (4.6.6)

Relaţia (4.6.6) este denumită formula B a lui Erlang şi este frecvent utilizată în telefonie. Fiind cunoscute frecvenţa medie de sosire a apelurilor şi durata medie a unui apel, formula B a lui Erlang poate fi utilizată pentru a determina numărul de linii telefonice necesare pentru ca probabilitatea de blocare a unui apel să fie mai mică decât o valoare impusă. Calcularea numerică a valorii probabilităţii de blocare ridică probleme pentru valori mari ale lui m, fiind necesară găsirea unui algoritm recursiv stabil. Considerând valoarea BP ca funcţie de numărul de servere, m, se observă că

1

0

( 1, )( 1, )!( , ) ( 1, ) ( 1, )1

! !

mB

BB n mm

B B

n

P mP mm mP m P m m P m

mn m

ρ ρρρ ρρ ρ ρ ρ ρρ ρ−

=

−−

= = =− + −++∑

. (4.6.7)

Ţinând cont că (0) 1BP = , relaţia (4.6.7) poate fi utilizată pentru a calcula probabilitatea de blocare chiar şi pentru valori mici ale lui m. Fig. 4.6.3 prezintă variaţia probabilităţii de blocare funcţie de numărul de servere din sistem pentru diferite valori ale lui ρ .

Page 185: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

175

0 5 10 15 20 25 30 35 40 45 500

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1Sistem de asteptare M/M/m/m

Numar de servere - m

Pro

babi

litat

ea d

e bl

ocar

e P

B (m, ρ

)

ρ = 1.5 ρ = 15 ρ = 50

ρ = 100

ρ = 150

Fig. 4.6.3. Reprezentarea grafică a probabilităţii de blocare funcţie de numărul de servere

pentru un sistem de tip M/M/m/m pentru diferite valori ale lui ρ . O problemă asemănătoare intervine în cazul aplicării formulei C a lui Erlang (4.3.18) pentru sisteme de tip M/M/m. Notând cu ρ gradul de utilizare a unui server în cazul sistemului M/M/m, probabilitatea ca un client să aştepte la coadă este

1

0

( )( 1, )!( , ) .

1 ( 1, )( ) ( )(1 )! !

m

BQ n mm

B

n

mP m mmP m

P m mm mn m

ρρ ρρρ ρ ρρ ρρ

=

−= =

− + −− +∑

(4.6.8)

Pentru aplicarea relaţiei (4.6.8) se calculează mai întâi ( 1, )BP m mρ− aplicând relaţia de recurenţă (4.6.7).

4.7. Sisteme de aşteptare M/M/1/ /N

Conform notaţiei lui Kendall, un sistem de aşteptare de tip M/M/1/ /N constă dintr-un singur server cu durata de servire cu distribuţie exponenţială de rată µ şi un fir de aşteptare de capacitate infinită, dar accesul în sistem este permis numai unei populaţii finite de N clienţi. După ce un client a fost servit, după o durată cu distribuţie exponenţială de rată λ , clientul se întoarce din nou în sistemul de aşteptare, independent de ceilalţi clienţi. Fig. 4.7.1 prezintă schema bloc a sistemului de tip M/M/1/ /N. Cele N servere identice cu durate de servire exponenţiale de rată λ modelează procesul de sosire a clienţilor. Lanţul birth-death care modelează sistemul de aşteptare de tip M/M/1/ /N este prezentat în fig. 4.7.2, având parametrii

( ) , pentru 0,1, 2, , 1,

0 , pentru ,nN n n N

n Nλ

λ− = −

= ≥

… (4.7.1)

, pentru 1,2, , ,

0, pentru .nn Nn N

µµ

== >

… (4.7.2)

Page 186: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

176

Fig. 4.7.1. Schema unui sistem de aşteptare de tip M/M/1/ /N.

Fig. 4.7.2. Lanţul birth-death corespunzător unui sistem de aşteptare M/M/1/ /N.

Aplicând relaţia (4.1.33) se obţine

[ ][ ] [ ] 1 1

01 0

( 1) ( 1) ![ 0] 1( )!

N Nn

nn n

N N N n NP XN n

λ λ λπ ρ

µ

− −

= =

− − + = = = + = −

∑ ∑…

, (4.7.3)

unde

0not

ρ λ µ= > . (4.7.4) Suma din (4.7.3) fiind finită, pentru sistemele de tip M/M/1/ /N nu apare problema convergenţei seriei care intervine în expresia lui 0π , astfel încât ρ poate lua orice valoare. Din relaţia (4.1.34) rezultă că

[ ][ ] [ ]0 0

( 1) ( 1) ![ ] , 1,2, ,( )!

nn n

N N N n NP X n n NN n

λ λ λπ π ρ π

µ− − +

= = = = =−

…… . (4.7.5)

Pe baza distribuţiei staţionare de probabilitate a stării sistemului de aşteptare de tip M/M/1/K se pot calcula performanţele acestuia. Gradul de utilizare a serverului este dat de

01 π− . Rata de plecare a clienţilor din sistem, egală cu rata efectivă de sosire în sistem, este

0(1 )µ π− . Unul dintre cei mai importanţi indicatori de performanţă pentru sistemul M/M/1/ /N este durata medie de răspuns a sistemului, indicator prezentat în continuare.

µ

0 1 2 N-2 N-1 N

( 1)N λ− 2λ λ

µ µ µ

N servere identice

λ

λ

µ

(S)

(SW)

Page 187: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

177

Durata medie de răspuns a sistemului M/M/1/ /N Timpul de răspuns al sistemului (eng. response time) este o variabilă aleatoare R definită ca intervalul de timp dintre momentul sosirii unui client în firul de aşteptare şi momentul în care servirea clientului este terminată. Valoarea medie M[ ]R poate fi calculată utilizând legea lui Little o dată pentru sistemul (S) format din firul de aşteptare şi server (fig. 4.7.1): 0M[ ] (1 ) M[ ]X Rµ π= − , (4.7.6)

şi apoi pentru sistemul (SW) format din cele N servere ce modelează procesul de sosire a clienţilor:

01M[ ] (1 )N X µ πλ

− = − . (4.7.7)

În relaţia (4.7.6), X notează numărul de clienţi din (S), astfel încât în (SW) se găsesc N X− clienţi. Adunând membru cu membru cele două relaţii precedente, se obţine

0 00

1 1(1 ) (1 ) M[ ] M[ ](1 )

NN R Rµ π µ πλ µ π λ

= − + − ⇒ = −−

. (4.7.8)

Acest rezultat este utilizat în modelarea reţelelor de calculatoare în care există un număr de N staţii de lucru (terminale), µ este rata de procesare a cererilor de către server, iar 1 λ este „durata medie de gândire” al utilizatorului unui terminal. Dacă λ şi µ sunt cunoscute, relaţia (4.7.8) poate fi utilizată pentru a determina numărul maxim de clienţi N pentru care durata medie de răspuns a sistemului nu depăşeşte o valoare impusă maxT :

max max0

1M[ ](1 )

NR t tµ π λ

< ⇒ < +−

. (4.7.9)

4.8. Sisteme de aşteptare M/M/m/K/N

Un sistem de aşteptare de tip M/M/m/K/N constă din m servere identice cu durata de servire cu distribuţie exponenţială de rată µ , un fir de aşteptare de capacitate limitată K, accesul în sistem fiind permis unei populaţii finite de N clienţi. După ce un client a fost servit, după o durată cu distribuţie exponenţială de rată λ , clientul se întoarce din nou în sistemul de aşteptare, independent de ceilalţi clienţi. Evident, capacitatea sistemului este cel puţin egală cu numărul de servere din sistem, astfel că K m≥ . Dacă N K≥ , atunci se poate întâmpla ca unuia sau mai multor clienţi să le fie blocat accesul în firul de aşteptare dacă în sistem se găsesc K clienţi. Acest sistem de aşteptare este cel mai general dintre sistemele markoviene simple, toate sistemele prezentate anterior se pot obţine drept cazuri particulare ale acestuia pentru

1m = , K →∞ sau N →∞ . Analiza sistemului de aşteptare de tip M/M/m/K/N este greoaie pe cazul general, motiv pentru care prezentăm în continuare numai modelul de tip lanţ birth-death al acestuia (fig. 4.8.1). Considerând N K m≥ ≥ , ratele „naşterilor” sunt date de

( ) , pentru 0,1, , 1, 0 , pentru ,nN n n K

n Kλ

λ− = −

= ≥

… (4.8.1)

Page 188: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

178

iar ratele „morţilor” sunt

, pentru 1,2, , ,, pentru 1, , ,

0 , pentru .n

n n mm n m K

n K

µµ µ

== = + >

…… (4.8.2)

Fig. 4.8.1. Lanţul birth-death corespunzător unui sistem de aşteptare M/M/m/K/N.

Cu notaţia ρ λ µ= , distribuţia staţionară de probabilitate de stare este dată de

0

0

, pentru 1, 2, , 1,! , pentru , 1, , ,!

n nN

n n m n nN

C n mnC m n m m Km

π ρπ

π ρ−

= −=

= +

… (4.8.3)

unde

111

1 10

1

( 1)!1( )!

n mm Kn n m mN N

n n m

N mC CN n m

ρπ ρ ρ−− +−

− −

= =

− + = + + − ∑ ∑ . (4.8.4)

Exemplul 4.8.1. Se consideră un sistem de aşteptare markovian cu un server, două locaţii în firul de aşteptare şi o populaţie de 4 clienţi. Duratele de servire a clienţilor au distribuţie exponenţială de rată µ . După terminarea servirii, clienţii se întorc în firul de aşteptare după trecerea unei durate de timp cu distribuţie exponenţială de rată λ . Acest sistem de aşteptare este de tip M/M/1/3/4. Diagrama ratelor tranziţiilor de stare este prezentată în fig. 4.8.2. Ecuaţiile de bilanţ al fluxului de clienţi în regim staţionar sunt:

1 00 12

1 0 2 2 1 03

2 3 3 2 0

4 ,4 ,(3 ) 4 , 3 12 ,2 , 2 24 ,

π ρπλπ µπλ µ π λπ µπ π ρπ ρ πλπ µπ π ρπ ρ π

== + = + ⇒ = =

= = =

unde ρ λ µ= . Impunând condiţia 0 1 2 3 1π π π π+ + + = , se obţine

( ) 12 30 1 4 12 24π ρ ρ ρ

−= + + + .

µ

0 1 2

( 1)N λ−

m-2 m-1 m

( 2)N m λ− + ( 1)N m λ− +

( 1)m µ− mµ

K-2 K-1

( 2)N K λ− + ( 1)N K λ− +

mµ mµ

K

Page 189: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

179

Fig. 4.8.2. Diagrama ratelor tranziţiilor de stare pentru

un sistem de aşteptare de tip M/M/1/3/4. Pentru valorile numerice 2λ = s-1 şi 1µ = s-1, se obţine 2ρ = , 0 0,004π = ,

1 0,0321π = , 2 0,1928π = şi 3 0,7711π = . Gradul de utilizare a serverului este 01 0,996π− = . Rata de plecare a clienţilor este

0(1 ) 0,996µ π− = s-1, egală cu rata efectivă de sosire a clienţilor în sistem. Numărul mediu de clienţi din firul de aşteptare este 2 3M[ ] 1 2 1,7349QX π π= ⋅ + ⋅ = , iar numărul mediu de clienţi din sistem este 0M[ ] M[ ] (1 ) 2,7309QX X π= + − = . Pentru sistemul de tip M/M/1/3/4 procesul de sosire a clienţilor nu mai este un proces de tip Poisson. Un client care doreşte să intre în firul de aşteptare „vede” sistemul în starea j cu probabilitatea

( )( )3 3

0 0

j jj jj

i i i ii i

λ µ πλ ππ

λ π λ µ π

∗∗∗

∗ ∗= =

= =∑ ∑

, 0,1, 2,3j = ,

unde jλ∗ este rata cu care clientul încearcă să intre în sistem, ca în cazul sistemului

M/M/1/ /N, 0 4λ λ∗ = , 1 3λ λ∗ = , 2 2λ λ∗ = , 3λ λ∗ = . Se obţin valorile

0 0 00 3

0 1 2 30

4 0,01274 3 2

i ii

λ π ρππρπ ρπ ρπ ρπλ π

∗∗

∗=

= = =+ + +∑

,

1 1 11 3

0 1 2 30

3 0,07594 3 2

i ii

λ π ρππρπ ρπ ρπ ρπλ π

∗∗

∗=

= = =+ + +∑

,

2 2 22 3

0 1 2 30

2 0,30384 3 2

i ii

λ π ρππρπ ρπ ρπ ρπλ π

∗∗

∗=

= = =+ + +∑

,

3 3 33 3

0 1 2 30

0,60764 3 2

i ii

λ π ρππρπ ρπ ρπ ρπλ π

∗∗

∗=

= = =+ + +∑

.

Probabilitatea de blocare a unui client este 3π∗ .

Rezultatele teoretice prezentate anterior pot fi verificate prin modelarea acestui sistem ca reţea Petri stohastică generalizată şi simularea acesteia în mediul Petri Net Toolbox. Fig. 4.8.3 prezintă modelul GSPN corespunzător sistemului de aşteptare M/M/1/3/4.

µ

0 1 2

µ

3

µ

Page 190: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

180

Fig. 4.8.3. Reţeaua Petri stohastică generalizată ce modelează

sistemul de aşteptare de tip M/M/1/3/4 din Exemplul 4.8.1. Tranziţia Try are temporizare exponenţială de rată 2λ = , rata de executare fiind dependentă de marcajul poziţiei N care modelează populaţia din care provin clienţii. La fiecare executare a tranziţiei Try, un jeton este trimis în poziţia C ce modelează clienţii care încearcă să intre în sistem. Tranziţia netemporizată Start corespunde începerii servirii unui client. Tranziţia Service are temporizare exponenţială de rată 1µ = , executarea acesteia corespunzând servirii unui client. Poziţiile SW şi SI modelează cele două stări ale serverului, în curs de servire a unui client şi, respectiv, disponibil. Poziţia notată Q modelează firul de aşteptare. Poziţia K marcată cu 3 jetoane corespunde capacităţii finite a sistemului de aşteptare. Arcul care conectează poziţia K la tranziţia netemporizată Block are rolul de a inhiba executarea acestei tranziţii atât timp cât poziţia K conţine jetoane, forţând executarea tranziţiei netemporizate In. Tranziţia Block se execută numai în situaţia în care poziţia C conţine un jeton (un client doreşte să intre în sistem) şi în poziţia K nu sunt jetoane (nu mai este nici un loc liber în sistem). Indicatorii globali obţinuţi prin simulare pe o durată de timp corespunzătoare servirii a 20.000 clienţi de către server (executarea tranziţiei Service de 20.000 de ori) sunt prezentate în fig. 4.8.4 separat pentru tranziţiile şi poziţiile reţelei Petri din fig. 4.8.3. Gradul de utilizare a serverului este dat de numărul mediu de jetoane din poziţia SW (indicatorul Queue Length) având valoarea 0,9956. Rata de plecare a clienţilor în sistem este dată de rata de executare a tranziţiei Service (indicatorul Service Rate) având valoarea 0,9928. Numărul mediu de clienţi din firul de aşteptare corespunde indicatorului Queue Length pentru poziţia Q, cu valoarea de 1,7369. Probabilitatea de blocare a accesului unui client în sistem este dată de raportul dintre numărul de clienţi care au fost rejectaţi (indicatorul Service Sum pentru tranziţia Block, cu valoarea de

Page 191: Matcovschi Lanturi Sist Astept Markov

Cap. 4. Sisteme de aşteptare markoviene

181

50.871) şi numărul total de clienţi care au dorit să intre în sistem (indicatorul Service Sum pentru tranziţia Try, cu valoarea de 30.870). Se obţine astfel probabilitatea de blocare egală cu 0,6068. Se poate observa că valorile obţinute prin simulare au avut foarte apropiate de cele teoretice.

(a)

(b)

Fig. 4.8.4. Indicatorii globali pentru (a) tranziţiile şi (b) poziţiile reţelei Petri din fig. 4.8.3.

Deoarece studiul teoretic al unui sistem de aşteptare de tip M/M/m/K/N este anevoios, făcând practic imposibilă analizarea influenţei pe care o au parametrii sistemului asupra performanţelor acestuia, se impune utilizarea simulării ca instrument

Page 192: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

182

de lucru. Pentru aceasta considerăm numărul de jetoane din poziţiile K şi N ca parametri ai modelului de tip reţea Petri din fig. 3.4.3 şi utilizăm opţiunea Design a mediului Petri Net Toolbox pentru Matlab. Fig. 3.4.5 şi 3.4.6 prezintă dependenţa duratei de aşteptare a unui client (indicatorul Waiting Time corespunzător poziţiei Q), respectiv a probabilităţii de blocare, în funcţie de capacitatea sistemului K (parametrul x) şi populaţia N (parametrul y) pentru sistemul de aşteptare de tip M/M/m/K/N, pentru K şi N variind de la 1 la 10.

Fig. 4.8.5. Reprezentarea grafică a dependenţei indicatorului Waiting Time

corespunzător poziţiei Q în funcţie de capacitatea sistemului K şi populaţia N.

0

5

10

02

46

8100

0.2

0.4

0.6

0.8

1

Parameter y [N]

Blocking Probability [PB]

Parameter x [K]

PB

Fig. 4.8.6. Reprezentarea grafică a dependenţei probabilităţii de blocare QP

în funcţie de capacitatea sistemului K şi populaţia N.

Page 193: Matcovschi Lanturi Sist Astept Markov

Anexa 1 Simularea şi analiza sistemelor de aşteptare

în MATLAB Pachetul de programe Statistics Toolbox 3 (MathWorks, 2000b) reprezintă o colecţie de funcţii MATLAB (MathWorks, 2000a) ce facilitează generarea secvenţelor de numere aleatoare, prelucrarea numerică a datelor statistice, proiectarea experimentelor şi controlul proceselor stohastice. Acest toolbox cuprinde, în afară de funcţii de sine stătătoare, ce pot fi utilizate în mod direct, şi interfeţe grafice cu utilizatorul. Pentru simularea experimentelor statistice este permisă manipularea atât a distribuţiilor continue de probabilitate, cât şi a celor discrete. Pentru fiecare din cele 20 de distribuţii implementate în MATLAB (tabel A1.1), sunt disponibile câte cinci funcţii:

funcţia de densitate de probabilitate (…pdf); funcţia de repartiţie (…cdf); generator de numere aleatoare (…rnd); valoarea medie şi dispersia (varianţa) ca funcţii de parametrii distribuţiei (…stat); inversa funcţiei de repartiţie (utilizată în testarea ipotezelor statistice) (…inv).

Tabel A1.1. Distribuţii de probabilitate implementate în Statistics Toolbox.

Discrete Continue uniformă (unid…) uniformă (unif…) Rayleigh (rayl…) Poisson (poiss…) exponenţială (exp…) 2χ (chi2…) geometrică (geo…) normală (norm…) 2χ necentrală (ncx2…) hipergeometrică (hyge…) lognormală (logn…) F (f…) binomială (bino…) beta (beta…) F necentrală (ncf…) binomială negativă (nbin…) gamma (gamma…) t (Student) (t…) Weibull (weib…) t necentrală (nct…)

De asemenea, pentru unele dintre distribuţiile de probabilitate, şi anume distribuţiile beta, binomială, exponenţială, gamma, normală, Poisson, uniformă şi Weibull, sunt implementate funcţii ce permit estimarea parametrilor şi a intervalelor de încredere pe baza unui set de date experimentale (…fit).

Page 194: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

184

Următoarele funcţii sunt utile în ceea ce priveşte analiza statistică a unui set de date: • mean – care returnează valoarea medie a eşantionului; • trimmean –returnează valoarea medie a eşantionului calculată excluzând valorile extreme; • mad – returnează valoarea medie a modulelor abaterilor de la valoarea medie a

eşantionului (eng. mean absolute deviation); • median – returnează mediana setului de date (dacă se aşează în ordine crescătoare valorile

dintr-un set de date, atunci mediana reprezintă valoarea centrală, pentru care valorile mai mari sau mai mici decât ea apar cu frecvenţe egale);

• var – returnează dispersia empirică; • std – returnează deviaţia standard empirică (rădăcina pătrată a dispersiei empirice); • moment – returnează momentele centrate empirice, cu observaţia că primul moment

centrat este nul, cel de-al doilea este dispersia empirică, calculată prin relaţia (2.8.7), restul momentelor centrate fiind calculate cu formula (2.8.11);

• range – returnează diferenţa dintre valorile maximă şi minimă a eşantionului.

Pentru reprezentarea grafică a datelor obţinute experimental, pachetul de programe Statistics Toolbox oferă funcţiile hist şi histc, ca şi bar şi barh, care pot fi utilizate pentru vizualizarea histogramelor. Reprezentarea grafică a funcţiei de repartiţie empirice corespunzătoare unui set de date poate fi realizată cu ajutorul funcţiei cdfplot. Această funcţie returnează de asemenea o structură MATLAB ale cărei câmpuri reprezintă valorile minimă, maximă, medie şi mediană a setului de date primit ca argument.

Funcţia kstest poate fi utilizată pentru verificarea concordanţei dintre repartiţia empirică de probabilitate a unui set de date şi o distribuţie teoretică prin utilizarea testului Kolmogorov-Smirnov. Pot fi efectuate atât teste bilaterale cât şi unilaterale. Această funcţie permite specificarea nivelului de semnificaţie α al testului şi returnează atât statistica testului cât şi valoarea critică corespunzătoare lungimii eşantionului analizat. Pentru testul Kolmogorov-Smirnov de comparare a distribuţiilor de probabilitate a două seturi de date este disponibilă funcţia kstest2. Dacă se doreşte verificarea concordanţei dintre repartiţia empirică de probabilitate a unui set de date şi o distribuţie normală, testele Liliefors şi Jarque-Bera sunt implementate în MATLAB prin funcţiile lilietest şi, respectiv, jbtest. Prezentăm în continuare programul MATLAB de simulare şi analiză a unui sistem de aşteptare de tip M/M/1 în care sunt utilizate câteva dintre funcţiile prezentate mai sus. Rezultatele obţinute în acest mod sunt analizate în Exemplul 4.2.1. % Simularea si analiza unui sistem de asteptare de tip M/M/1 clear all; close all; clc; % SIMULAREA SISTEMULUI % Parametrii sistemului de asteptare: lam = input('Rata medie de sosire a clientilor: ') % 1; miu = input('Rata medie de servire a clientilor: ') % 2; ncust = input('Numar de clienti pentru simulare: '); ro = lam/miu; % Intensitatea traficului de clienti din sistem % Verificarea stabilitatii sistemului

Page 195: Matcovschi Lanturi Sist Astept Markov

Anexa 1. Simularea şi analiza sistemelor de aşteptare în MATLAB

185

if (ro >= 1) disp('Sistemul nu este stabil!!!'); return end % Initializare vectori Y = zeros(ncust,1); % Y = momentele de timp la care clientii sosesc D = zeros(ncust,1); % D = momentele de timp la care clientii pleaca % Generarea duratelor dintre sosiri, conform unui proces Poisson: T = exprnd(1/lam, ncust, 1); % Duratele dintre sosiri consecutive, % cu distributie exponentiala de rata lam Y = cumsum(T); % Momentele de timp la care sosesc clientii % Generarea duratelor de servire pentru fiecare client: Z = exprnd(1/miu, ncust, 1); % Z = duratele de servire pentru toti clientii % cu distributie exponentiala de rata miu % Calcularea momentului la care pleaca fiecare client: D(1) = Y(1)+Z(1); % Momentul plecarii primului client for k=2:ncust D(k) = Z(k) + max(Y(k), D(k-1)); % utilizare formula (4.1.14) end S = D - Y; % Duratele petrecute in sistem de fiecare client W = S - Z; % Duratele de asteptare pentru fiecare client % ANALIZA SISTEMULUI % Calcularea numarului de clienti din sistem X = zeros(2*ncust, 1); X(1) = 1; [Time, Index] = sort([Y; D]); for k= 2:2*ncust, if (Index(k)> ncust), X(k) = X(k-1)-1; else X(k) = X(k-1)+1; end end % Reprezentarea grafica a numarului de clienti din sistem figure stairs([0; Time], [0; X]) axis([0 Time(end) -0.1 max(X)+0.1]) title('Sistem de asteptare M/M/1') xlabel('Timp'); ylabel('Numar de clienti in sistem - X') % Reprezentarea grafica a momentelor de sosire si plecare pentru primii 25 de clienti Y = [0; Y]; D = [0; D]; m = min(25, ncust); n = 0:m-1;

Page 196: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

186

figure subplot(2,1,1); stairs(Y(1:m),n,'b'); hold on stairs(D(1:m),n,'-.r') set(gca, 'xlim', [0, max(Y(m), D(m))]) xlabel('Timp'); ylabel('Numar de clienti') title('Sistem de asteptare M/M/1') legend('# IN', '# OUT', 4) gtext(strcat('\lambda = ', num2str(lam), ', \mu = ', num2str(miu))) subplot(2,1,2) stairs([0; Time(1:2*m)], [0; X(1:2*m)]) axis([0 Time(2*m) -0.1 max(X(1:2*m))+0.1]) title('Sistem de asteptare M/M/1') xlabel('Timp'); ylabel('Numar de clienti in sistem - X') disp(['Numar mediu de clienti in sistem = ', num2str(mean(X)), ' (empiric), '... num2str(ro/(1-ro)), ' (teoretic)']); % Analiza duratelor de servire mean_Z = mean(Z); disp(['Durata medie de servire = ', num2str(mean_Z), ' (empiric), '... num2str(1/miu), ' (teoretic)']); % Analiza duratelor de asteptare mean_W = mean(W); disp(['Durata medie de asteptare = ', num2str(mean_W), ' (empiric),'... num2str(lam/miu/(miu-lam)), ' (teoretic)']); pas= max(W)/m; edge = 0: pas:max(W); teor_cdf = 1-ro*exp(-(miu-lam)*edge); figure cdfplot(W); hold on plot(edge, teor_cdf, '-.r') title('Durata de asteptare') legend('CDF empirica', 'CDF teoretica', 4) v=axis; v(1,1) = 0; v(1,4) = 1.1; axis(v) gtext(strcat('\lambda = ', num2str(lam), ', \mu = ', num2str(miu))) % Analiza duratelor petrecute in sistem mean_S = mean(S); disp(['Durata medie petrecuta in sistem = ', num2str(mean_S), ' (empiric), '... num2str(1/(miu-lam)), ' (teoretic)']); pas= max(S)/m; edge = 0: pas:max(S); teor_cdf = expcdf(edge, 1/(miu-lam)); figure cdfplot(S); hold on plot(edge, teor_cdf, '-.r') title('Durata petrecuta in sistem') legend('CDF empirica', 'CDF teoretica', 4) gtext(strcat('\lambda = ', num2str(lam), ', \mu = ', num2str(miu)))

Page 197: Matcovschi Lanturi Sist Astept Markov

Anexa 2 Simularea şi analiza sistemelor de aşteptare în

ARENA

A2.1. Mediul de modelare Arena 5.0

Mediul Arena 5.0 este o aplicaţie de tip Microsoft Windows destinată modelării, simulării şi analizei sistemelor de aşteptare. Interfaţa sa grafică este prezentată în fig. A2.1.

Fig. A2.1. Interfaţa grafică a mediului ARENA.

Model Window Flowchart view

Model Window Spreadsheet view

Project Bar

Status Bar

Toolbars

Page 198: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

188

Modul de organizare al interfeţei grafice a mediului ARENA (meniuri, ferestre, căsuţe de dialog, etc.) este tipic aplicaţiilor MS Windows. În plus, mediul ARENA este compatibil cu alte software-uri dezvoltate pe platformă Windows, cum ar fi procesoare de text, manipulatoarele de tabele, astfel încât, atunci când este necesar, obiectele create în ARENA pot fi combinate cu obiecte create în alte software-uri (Kelton et al., 2002). Fereastra destinată creării modelului (Model Window) cuprinde două regiuni: fereastra Flowchart View (perspectiva mnemonică) conţine toate reprezentările graficele aferente modelului, incluzând schema logică a procesului şi animaţia ataşată acestuia, şi fereastra Spreadsheet View (perspectiva tabelară, de dialog) situată în partea de jos, în care sunt afişaţi parametrii modelului şi care permite editarea acestora. În partea dreaptă a interfeţei grafice a mediului Arena este localizată fereastra Projects Bar ce conţine panourile(casetele) cu principalele tipuri de obiecte cu care se lucrează:

• Basic Process (Procese de bază), Advanced Process (Procese avansate) şi Advanced Transfer (Transfer avansat): Conţin modulele utilizate în modelare pentru definirae proceselor.

• Reports (Rapoarte): Conţine rapoartele rezultatelor obţinute prin simulare. • Navigate: Permite afişarea diferitelor porţiuni ale unui model, incluzând un arbore

ierarhizat de navigare printre submodelele unui model organizat ierarhic. În funcţie de cerinţele proiectului de simulare, pot fi ataşate şi alte panouri la modelul curent, dintre care amintim caseta Advanced Transfer (Transfer avansat), care conţine multe opţiuni privind mişcarea entităţilor, şi casetele Blocks (Blocuri) şi Elements (Elemente) care oferă un acces total la limbajul de simulare SIMAN, limbaj ce stă la bazele creării mediului de simulare Arena (Pegden et al., 1990). Blocurile de construcţie pentru modelele Arena sunt denumite module (modules). Acestea sunt obiecte mnemonice sau de date care definesc procesul ce trebuie simulat şi sunt alese din casetele din Project Bar. Modulele sunt astfel de două feluri de bază: mnemonice (de tip flowchart) şi de date (de tip data). Modulele mnemonice descriu procesele dinamice din model. Ele pot fi privite ca fiind nişte noduri prin care trec entităţile. Pentru a introduce în model o instanţă a unui modul mnemonic de un anumit tip, se va trage acel modul, din fereastra Project Bar, în fereastra model, perspectiva mnemonică. În caseta Basic Process, tipurile de module mnemonice disponibile sunt Create, Dispose, Process, Decide, Batch, Separate, Assign, şi Record; şi alte casete prezintă multe alte tipuri de module mnemonice. Fiecare tip de modul mnemonic din caseta Basic Process are o formă distinctivă, care sugerează ceea ce realizează modulul. O metodă prin care se poate edita un modul de acest fel este realizarea unui dublu-clic pe acesta, odată ce a fost dispus în fereastra model, perspectiva mnemonică, pentru a afişa cutia de dialog corespunzătoare. O altă metodă prin care se poate edita modulele mnemonice este selectarea unui tip de modul, fie în Project Bar, fie în fereastra model, perspectiva mnemonică, şi astfel o linie a unui tabel de date va apărea, în perspectiva tabelară, pentru fiecare modul în parte, linie în care se pot edita intrările pentru modulul respectiv. Această metodă oferă o vizualizare compactă a tuturor instanţelor pentru modulele mnemonice de acelaşi tip din modelul în cauză, ceea ce este foarte avantajos în cazul modelelor de dimensiuni mari, unde pot exista multe astfel de instanţe.

Page 199: Matcovschi Lanturi Sist Astept Markov

Anexa 1. Simularea şi analiza sistemelor de aşteptare în ARENA

189

Modulele de date definesc caracteristicile diferitelor elemente ale procesului, cum ar fi entităţile, resursele şi cozile de aşteptare. De asemenea, ele pot seta variabile şi alte tipuri de valori numerice şi expresii ce fac referire la model în ansamblu. Pictogramele din Project Bar, pentru modulele de date, arată ca nişte mici tabele. În caseta Basic Process există următoarele module: Entity, Queue, Resource, Variable, Schedule şi Set (alte casete conţin tipuri adiţionale de module de date). Entităţile nu parcurg aceste module, iar acestea nu sunt introduse în fereastra model; de fapt, într-un model, modulele de date există „în spatele scenei” pentru a defini diferite tipuri de valori, expresii şi condiţii. Pentru a edita un astfel de modul, se face doar clic pe pictograma corespunzătoare din Project Bar, acţiune care va duce la apariţia tabelului de date, aferent tipului modulului, în fereastra model, perspectiva tabelară. Acesta se poate edita sau se poate extinde prin dublu-clic acolo unde este indicată adăugarea de linii de tabel adiţionale. Spre deosebire de modulele mnemonice, aceste module nu permit decât o singură instanţiere pentru un model; însă, pot exista mai multe linii în tabelul corespunzător tipului de modul, fiecare linie reprezentând un obiect separat al acelui tip (spre exemplu, dacă un model are trei cozi de aşteptare diferite, modulul de date Queue va afişa trei linii în tabelul său, câte una pentru fiecare coadă). Modulele mnemonice şi de date dintr-un model sunt legate prin numele obiectelor comune (cozi, tipuri de entităţi, resurse, variabile). Mediul ARENA păstrează liste interne ale numelor asignate acestor tipuri de obiecte, odată ce acestea sunt create, iar, în cele ce urmează, prezintă liste de tip pull-down, ale acestor nume, în următoarele câmpuri ce necesită completarea, din cadrul cutiilor de dialog, atât pentru modulele mnemonice, cât şi pentru cele de date. Această facilitate ajută la buna gestionare a numelor obiectelor (şi protejează utilizatorul de erori, cum ar fi atribuirea aceluiaşi nume pentru două obiecte diferite sau a două nume diferite pentru acelaşi obiect).

Tabel A2.1. Distribuţii de probabilitate disponibile în mediul de simulare ARENA. Distribuţia Abreviere Parametri Beta BETA BE Beta, Alpha Continuă(Continuous) CONT CP CumP 1 ,Val 1 , . . . CumP n ,Val n Discretă (Discrete) DISC DP CumP 1 ,Val 1 , . . . CumP n ,Val n Erlang ERLA ER ExpoMean, k Exponenţială(Exponential) CONT EX Mean Gamma DISC GA Beta, Alpha Johnson ERLA JO Gamma, Delta, Lambda, Xi Lognormală(Lognormal) EXPO RL LogMean, LogStd Normală(Normal) GAMM RN Mean, StdDev Poisson JOHN PO Mean Triunghiulară(Triangular) LOGN TR Min, Mode, Max Uniformă (Uniform) NORM UN Min, Max Weibull POIS WE Beta, Alpha

Page 200: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

190

Mediul ARENA conţine un set de funcţii interne pentru generarea de variabile aleatoare folosind cele mai uzuale distribuţii de probabilitate. Aceste distribuţii apar în meniurile de tip pull-down pentru multe din modulele ARENA, acolo unde este posibilă folosirea lor. Fiecare dintre distribuţiile Arena are asociată una sau mai multe valori parametrice. Aceste valori trebuie să fie specificate pentru a defini în întregime distribuţia. Numărul, semnificaţia şi ordinea valorilor parametrice depind de tipul distribuţiei. Un sumar al distribuţiilor folosite de mediul de simulare ARENA (în ordine alfabetică şi cu prescurtarea folosită) şi a valorilor parametrice este prezentat în tabelul A2.1.

A2.2. Crearea modelului unui sistem de aşteptare de tip M/M/1

Această secţiune prezintă modul de realizare a modelului utilizat în paragraful 4.2. pentru simulare a unui sistem de aşteptare de tip M/M/1. După deschiderea unei noi ferestre de tip model (comanda File/New) se ataşează panoul Basic Process (comanda File/Template Panel/Attach), dacă acesta nu este deschis deja. Modelul care se va crea în continuare are nevoie de o instanţă a fiecăruia din următoarele module: Create, Process şi Dispose. Pentru a adăuga o instanţă a unui modul la model, se va trage (drag and drop) icon-ul corespunzător modulului, din panoul Project Bar, în fereastra grafică a modelului. Dacă este setată opţiunea Object/Auto-Connect şi modulele sunt aduse în fereastra model în ordinea dată mai sus (fără a deselecta modulele după ce au fost aduse), Arena va conecta modulele in ordinea corectă; dacă este selectată opţiunea Object/SmartConnect, conexiunile vor fi orientate orizontal şi vertical (fig. A2.2). Dacă nu sunt setate cele două opţiuni privind conectarea, este necesară conectarea manuală a acestora. În acest caz, se va folosi butonul Connect pornind de la punctul de ieşire a unui modul ( ) până la cel de intrare a următorului ( ). În timpul animaţiei, entităţile folosite se vor deplasa de-a lungul acestor conexiuni dacă este setată opţiunea Object/Animate Connections, arătând astfel că acestea se deplasează de la un modul la altul. În orice caz, această deplasare se face în timp de simulare zero.

Fig. A2.2. Prima etapă în crearea modelului unui sistem de aşteptare de tip M/M/1.

A2.2.1. Modulul Create Prin dublu clic pe modulul Create se va deschide caseta de dialog corespunzătoare (fig. A2.3). Se va schimba, în primul rând, numele acestei instanţe, a modulului Create, din cel cu care a fost denumită iniţial, Create 1, în Sosire client şi, de asemenea, se va schimba în Entity Type, tipul iniţial (Entity 1) în Client. În zona de dialog Time Between Arrivals, se va accepta presetarea Random (Expo) pentru câmpul Type, setând valoarea 1 în câmpul Value, şi

Page 201: Matcovschi Lanturi Sist Astept Markov

Anexa 1. Simularea şi analiza sistemelor de aşteptare în ARENA

191

se va selecta, din lista existentă, Minutes ca unitate de măsură în câmpul Units. Se vor accepta valorile presetate din cele trei câmpuri aflate în rândul de la sfârşitul casetei de dialog şi se va face clic pe OK pentru a salva setările făcute.

Fig. A2.3. Setarea parametrilor modulului Create.

A2.2.2. Modulul Entity Data După ce tipul entităţilor din sistem a fost definit (opţiunea Entity Type din modulul Create), se poate edita parametrii acestor entităţi. De exemplu, pentru a modifica modul de animaţie a entităţilor din tipul predefinit Report (dosar - ) în Blue Ball (minge albastră - ) se selectează (clic simplu) modulul Entity Data din Project Bar pentru a-l afişa în persepectiva tabelară. Se face clic pe Initial Picture pentru a desfăşura lista cu opţiuni disponibile şi se alege din listă Picture.Blue Ball (fig. A2.4).

Fig. A2.4. Setarea parametrilor modulului Entity Data.

A2.2.3. Modulul Process În caseta de dialog a modulului Process, se setează următoarele atribute (fig. A2.5):

Name – Servire Action – Seize Delay Release Delay Type – Expression Units – Minutes Expression – EXPO(0.5)

Deoarece în câmpul Action s-a editat Seize Delay Release (alocarea unei resurse), este necesar a face clic pe butonul Add pentru a defini această resursă. Aceasta duce la apariţia casetei de dialog secundare Resources în care se setează următorii parametri:

Type – Resource Resource Name – Server Quantity – 1

Page 202: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

192

Fig. A2.5. Setarea parametrilor modulului Process.

A2.2.4. Modulele Resource şi Queue Data Odată ce a fost definit modulul Process, modelul realizat are atât o resursă (Resource) cât şi o coadă (Queue) care sunt introduse automat. Pentru a se seta cele două module, se va face clic pe reprezentările lor în Project Bar. Astfel, după ce se va face clic pe modulul Resource , se vor putea seta în fereastra spreadsheet caracteristicile acestuia (fig. A2.6), cum ar fi Capacity (capacitatea), care se setează pe Fixed Capacity, sau Name, care a fost deja setat în caseta pentru Process. Restul caracteristicilor vor fi lăsate la valorile implicite.

Fig. A2.6. Setarea parametrilor modulului Resource.

În ceea ce priveşte modulul Queue, se procedează la fel ca la modulul Resource, pentru a seta caracteristicile sale (fig. A2.7). Putem seta disciplina de servire a clienţilor în câmpul Type (se va lăsa opţiunea implicită First In First Out).

Fig. A2.7. Setarea parametrilor modulului Queue.

Page 203: Matcovschi Lanturi Sist Astept Markov

Anexa 1. Simularea şi analiza sistemelor de aşteptare în ARENA

193

A2.2.5. Animarea resurselor Chiar dacă animarea resursei nu este necesară pentru a avea loc simularea, aceasta este totuşi utilă pentru înţelegerea procesului, permiţând vizualizarea stării resursei (pentru resursa din acest model doar stările liber – Idle – şi ocupat – Busy), cât şi transformarea entităţilor din proces. Se face clic pe butonul Resource ( ) din bara de butoane Animate pentru a deschide fereastra de dialog Resource Picture Placement (fig. A2.8). Pentru a asocia resursei în cauză o anumită pictogramă, se va folosi lista de tip drop-down în câmpul Identifier şi se va alege numele resursei, Server. În lista de pictograme din stânga ferestrei de dialog, se selectează opţiunea Inactive şi se apasă apoi butonul Delete din stânga; la fel pentru Failed.

Fig. A2.8. Setarea parametrilor modulului Queue.

În pasul următor, pictograma pentru resursă arată ca un pătrat roşu pentru ambele opţiuni rămase (Idle şi Busy) şi de aceea va trebui schimbată pentru o vizualizare cât mai reală a procesului. Acest lucru se realizează prin apelarea la librăriile ARENA care conţin majoritatea pictogramelor necesare. Acestea se pot găsi prin apăsarea butonului Open din dreapta ferestrei de dialog şi au extensia .plb. Se va deschide Machine.plb pentru a vedea

galeria unde se va căuta şi se va alege , apoi se selectează în stânga opţiunea Idle, după care se face clic pe butonul << pentru a copia această pictogramă în dreapta, în interiorul căsuţei Idle, în locul pătratul roşu care era înainte. La fel pentru opţiunea Busy se selectează

pictograma . La sfârşit se va selecta şi opţiunea Seize Area, pentru ca obiectul (cel ales ca entitate de procesare) să apară şi el în animaţie.

A2.2.6. Modulul Dispose Ultimul modulul introdus în model este Dispose. Singura schimbare care se va face în caseta sa de dialog (fig. A2.9) va fi în câmpul Name unde se introduce Plecare client.

Page 204: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

194

Fig. A2.9. Setarea parametrilor modulului Dispose.

A2.2.7. Realizarea graficelor dinamice Ultimul pas în realizarea modelului este realizarea unei reprezentări grafice dinamice care facilitează analiza modelului. Astfel, se va face clic pe butonul Plot din bara de butoane Animate pentru a vizualiza caseta de dialog Plot şi se vor face setările ca mai jos (fig. A2.10): Expressions (se va introduce prin intermediul unei casete secundare de dialog care se accesează prin butonul Add)

Expression – NQ(Servire.Queue) Maximum – 10 Time Range – 50 Refresh - Full – selectat Border - Bouding Box – selectat X-Labels – gol Fill Area – selectat

Fig. A2.10. Setarea parametrilor reprezentării grafice.

În ceea ce priveşte valoarea maximă pentru y este posibil să trebuiască setată din nou, după ce se va realiza o primă simulare, deoarece deocamdată nu se cunoaşte. După realizarea setărilor de mai sus se va apăsa butonul OK, fapt care va face cursorul mouse-ului să apară sub formă de cruce, ceea ce înseamnă că trebuie stabilită aria în care va apărea graficul în fereastra modelului (se setează un colţ al ariei printr-un clic şi colţul opus prin alt clic). În mod simular se poate introduce în model graficul dinamic al gradului de utilizare a serverului.

Page 205: Matcovschi Lanturi Sist Astept Markov

Anexa 1. Simularea şi analiza sistemelor de aşteptare în ARENA

195

A2.2.8. Adăugarea comentariilor Pentru a adăuga comentarii se apasă butonul Text (A) din bara Draw, care va deschide o casetă de dialog, numită Text String (fig. A2.11) în care este introdus textul dorit (pentru a scrie linie nouă – Ctrl+Enter). Se poate seta şi culoarea textului cu butonul Text Color (A ). În final se obţine modelul prezentat în fig. 4.2.7.

Fig. A2.11. Caseta de dialog Text String pentru introducerea comentariilor.

A2.2.9. Caseta de dialog Run/Setup Pentru a stabili condiţiile pentru executarea simulării, se va folosi meniul de opţiuni Run/Setup, care conţine etichete care controlează diferite aspecte privind executarea simulării. Va fi necesară editarea câtorva dintre acestea.

Fig. A2.12. Setarea parametrilor experimentului de simulare.

Prima este Project Parameters, unde se va da un nume proiectului realizat (Project Title), numele celui care la realizat (Analyst Name) şi se va stabili care statistici vor fi colectate şi vor apărea în raportul simulării (se va selecta Entities, Resources, Queues, şi Processes). Cealaltă etichetă care va fi editată va fi Replication Parameters (fig. A2.12).

Page 206: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi

196

Câmpurile din tabloul Replication Parameters controlează un număr de aspecte privind rularea simulării. Astfel se poate stabili perioada replicării(Length of Replication) pentru entităţile create de modulul Create (în cazul de faţă 50) şi ca unitate de timp minutele. Se poate stabili, de asemenea, numărul de ore de muncă pe zi (24 presetat – ca pentru 3 schimburi; 16 în cazul lucrului doar în două schimburi), în câmpul Hours per Day. În câmpul Base Time Units se va stabili unitatea de timp la care se vor raporta toate statisticile care se referă la ieşirile numerice bazate pe timp (în minute) obţinute în urma simulării. În Terminating Condation se pot introduce reguli complexe după care va avea loc finalizarea replicării (în cazul în discuţie, finalizarea va avea loc totuşi după 60 de minute). La final, pentru a executa simularea, se va face clic pe butonul Go ( ) din bara Standard (sau utilizând comanda Run/Go sau tasta funcţională F5). Prima dată când este simulat modelul, ARENA verifică corectitudinea acestuia (dacă există erori). Dacă există, erorile vor fi anunţate şi se oferă indicaţii privind tratarea lor. Dacă nu există erori în model, este apoi lansată în execuţie simularea. Animaţia simulării va avea loc cu o viteză ce poate fi setată din meniul Run/Setup – Speed. În orice caz, vor putea fi observate entităţile de tip Client sosind şi plecând din sistem, animaţia resursei privind starea (Idle sau Busy), numărul de clienţi din firul de aşteptare al resursei (odată cu intrarea şi ieşirea pieselor în/din ea), ceasul de simulare din bara de Stare a ferestrei ARENA, şi graficele dinamice.

A2.2.10. Vizualizarea rezultatelor simulării Reluând simularea pentru o durată mare de timp (20.000 minute), cu viteză de animaţie foarte mare (pentru ca simularea să nu dureze foarte mult) se pot obţine rezultate semnificative din punctul de vedere al funcţionării sistemului în regim permanent. La sfârşitul simulării se deschide o casetă de dialog, oferind posibilitatea de a vizualiza sau nu rezultatele numerice ale simulării. Dacă se doreşte vizualizarea acestor rezultate se face clic pe butonul Yes, ceea ce duce la deschiderea de către Arena a unei ferestre separate de tip rapoarte (Reports). În panoul Project Bar este afişată caseta Reports, care prezintă o listă a rapoartelor ce pot fi vizualizate, cum ar fi Category Overview (Sumar al categoriilor) , Category by Replication (Categorii în funcţie de replicării), şi Resources (Resurse). Prin accesarea fiecărui astfel de raport, se va deschide o fereastră de tip raport, separată. ARENA deschide automat raportul Category Overview care oferă accesul la majoritatea rezultatelor. Celelalte rapoarte aflate în Project Bar repetă multe din aceste rezultate, dar oferă mai multe detalii.

Page 207: Matcovschi Lanturi Sist Astept Markov

Bibliografie ARENA Home Page: www.arenasimulation.com/support/. Bolch, G., Greiner, S., de Meer, H. and Trivedi, K. (1998). Queueing Networks and Markov

Chains: Modeling and Performance Evaluation with Computer Science Applications, John Wiley and Sons, New York.

Cassandras, C.G. (1993). Discrete Event Systems: Modeling and Performance Analysis, R.D. Irwin, Inc., and Aksen Associates, Inc., Boston.

David, R. et Alla, H. (1992). Du Grafcet aux réseaux de Petri (2e édition), Hermes, Paris. Desrochers, A.A. and Al-Jaar, R.Y. (1993). Petri Nets for Automated Manufacturing Systems:

Modeling, Control and Performance Analysis, Rensselaer Polytechnic Institute. Ganciu, T. şi C. Ţugurlan (2002). Elemente de statistică şi fiabilitate, Ed. Gheorghe Asachi,

Iaşi. Grinstead, C.M. and J.L. Snell (1998). Introduction to Probability, American Mathematical

Society. Hillier, F. and G. Lieberman (2001). Introduction to Operations Research – 7th Ed, McGraw-

Hill Higher Education, New York. Iosifescu, M. (1977). Lanţuri Markov finite şi aplicaţii. Ed. tehnică, Bucureşti. Kelton, W.D., R.P. Sadowski and D.A. Sadowski (2002). Simulation with Arena – 2nd ed.,

McGraw Hill Companies, Inc. Kleinrock, L. (1976). Queueing Systems, vol. I and II, John Wiley & Sons, New York. Klimov, G. (1986). Probability Theory and Mathematical Statistics, Mir Publishers, Moscow. Lee A.M. (1966). Queueing Systems and Applications, The Macmillan Press Limited,

London. Mahulea, C., M.H. Matcovschi and O. Pastravanu (2003). Home Page of the Petri Net

Toolbox for MATLAB, http://www.ac.tuiasi.ro/pntool/index.php. Matcovschi M.H. and C. Mahulea (2002). "Generalized Stochastic Petri Nets in Performance

Evaluation for Queueing Networks", ECIT’2002 and ROSYCS’2002 Joint Conference, Iaşi, CD-ROM, 6 pg.

Matcovschi M.H. and O. Hilal (2002). "Petri Net Simulation and Efficient Exploitation of Flexible Manufacturing Systems", Preprints of MESM’2002 – The Fourth Middle East Symposium on Simulation and Modelling – SCS Europe, Sharjah, UAE, pg. 88-92.

Page 208: Matcovschi Lanturi Sist Astept Markov

Lanţuri şi sisteme de aşteptare markoviene – M.H. Matcovschi 198

Matcovschi M.H., C. Mahulea and O. Pastravanu (2003a). "Petri Net Toolbox for MATLAB", 11th Mediterranean Conference on Control and Automation MED'03, Rhodes, Greece.

Matcovschi M.H., C. Mahulea and O. Pastravanu (2003b). "Modeling, Simulation and Analysis of Petri Nets in MATLAB", The 14th International Conference On Control Systems And Computer Science - CSCS14, Bucharest, Romania.

Matcovschi, M.H. and O. Pastravanu (2002). "Developing Practicals for a Course on Queueing Systems Delivered to Control Engineering Students", Periodica Politechnica, “Politehnica” University of Timisoara, Romania, Trans. on Automatic Control and Computer Science, Vol. 47(61), 1, pg. 151-156.

Mihoc, Gh., A. Muja şi E. Diatcu (1976). Bazele matematice ale teoriei fiabilităţii, Ed. Dacia, Cluj-Napoca.

Mihoc, Gh. şi N. Micu (1980). Teoria probabilităţilor şi statistică matematică, Ed. didactică şi pedagogică, Bucureşti.

The MathWorks Inc. (2000a). MATLAB User’s Guide, Natick, Massachusetts. The MathWorks Inc. (2000b). Statistics Toolbox User’s Guide, Natick, Massachusetts. Murata, T. (1989). "Petri nets: properties, analysis and applications", Proc. IEEE, Vol. 77, pp.

541–580. Onicescu, O. (1977) Probabilităţi şi procese aleatoare, Ed. ştiinţifică şi enciclopedică,

Bucureşti. Pastravanu, O.C. (1997). Sisteme cu evenimente discrete. Tehnici calitative bazate pe

formalismul reţelelor Petri, Ed. Matrix Rom. Pastravanu, O.C., M.H. Matcovschi şi C. Mahulea (2002). Aplicaţii ale reţelelor Petri în

studiul sistemelor cu evenimente discrete, Ed. Gheorghe Asachi. Petri, C.A (1962). Kommunikation mit Automaten, Institut für Instrumentelle Mathematik

Bonn, Schriften des IIM Nr. 2. Pegden, C.D., R.E. Shannon and R.P. Sadowski (1990). Introduction to Simulation Using

SIMAN, McGraw-Hill Inc. Sinclair, J.B. (2002). Simulation of Computer Systems and Computer Networks: A Process-

Oriented Approach, http://www.owlnet.rice.edu/~elec428/yacsim/book.ps. Trivedi, K. (2000). Computer Science Applications, John Wiley & Sons, New York. Voicu, M. (1980). Teoria sistemelor, vol. II, Institutul Politehnic din Iaşi.


Recommended