Lanțul Markov

Proiect
7.5/10 (2 voturi)
Domeniu: Matematică
Conține 1 fișier: doc
Pagini : 13 în total
Cuvinte : 3296
Mărime: 238.70KB (arhivat)
Publicat de: Florin Pavel
Puncte necesare: 9

Extras din proiect

În lumea reală, există o multitudine de fenomene din diferite domenii cum ar fi management, economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesară parcurgerea aleatorie.De aceea, în studierea acestor fenomene se utilizează procesele stochastice.

Definiţia 1. Se numeşte proces stochastic un experiment aleator care constă dintr-o suită de subexperimente aleatoare. O clasă specială de astfel de procese este reprezentată de lanţurile Markov.

Multe experimente aleatoare se desfăşoară în etape. De aceea, un astfel de experiment

poate fi considerat ca fiind o secvenţă de subexperimente şi fiecare rezultat al experimentului este determinat de rezultatele subexperimentelor (în ordine).

Aşadar, un proces stochastic este o mulţime indexată de variabile aleatoare, {Xt}, unde t parcurge o mulţime T numită mulţimea indicilor pozitivi T = N, iar Xt reprezintă o

caracteristică cantitativă sau calitativă a sistemului cercetat.

Avem o succesiune de experimente cu aceleaşi rezultate posibile. Prin urmare, se va considera că t este un moment de timp care ia valorile 1, 2, 3, …, n. Această succesiune redă secvenţa de experimente. Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, …, m (m - număr finit). Cele m rezultate posibile vor fi numite stările în care se poate afla sistemul la un moment dat. Unitatea de măsură pentru momentele de timp succesive t depinde de sistemul studiat.

Dintre tipurile de astfel de secvenţe îl putem menţiona pe acela în care probabilităţile rezultatelor la un moment dat sunt independente de rezultatele experimentelor precedente (de exemplu: aruncarea repetată a unui zar, extragerile unei bile din urnă cu revenire).

Un alt tip de secvenţă este acela în care probabilităţile rezultatelor la un moment dat depind de rezultatele din experienţele anterioare (de exemplu: extragerile succesive din urnă

fără revenire). În cazul acestui din urmă tip de experiment se pot distinge două subcazuri extreme:

• extremă e reprezentată de faptul că probabilităţile rezultatelor la un moment dat

depind de rezultatele tuturor experimentelor precedente din secvenţă;

• cealaltă extremă a nivelului de dependenţă este atunci când probabilităţile rezultatelor la un moment dat depind doar de rezultatele experimentului precedent. În această situaţie secvenţa de experimente se numeşte proces (lanţ) Markov.

Definiţia 2. Un proces Markov sau lanţ Markov este o succesiune de experimente în care fiecare experiment are m rezultate posibile E1, E2,…,Em, iar probabilitatea fiecărui rezultat depinde doar de rezultatul experimentului precedent.

Definiţia 3. Se spune că un proces stochastic are proprietatea lui Markov dacă este îndeplinită egalitatea:

P(Xt+1= j/X1 = k1, …, Xt-1 = kt-1, Xt = i) = P(Xt+1 =j/Xt = i),

pentru t =1, 2, …,n şi pentru orice succesiune k1, k2, …kt-1, i, j de stări din mulţimea celor m

stări posibile ale sistemului.

Fie 2 evenimente, A şi B.Notăm P(A/B) – probabilitatea evenimentului A condiţionată de evenimentul B.

Proprietatea lui Markov arată faptul că probabilitatea condiţionată a oricărui eveniment viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, …, Xt-1 = kt-1 şi starea prezentă Xt = i, este independentă de stările trecute şi depinde doar de starea prezentă a procesului.

Există o largă varietate de fenomene care sugerează o comportare în maniera unui proces Markov. Ca şi exemple, am redat următoarele situaţii:

• probabilitatea ca o persoană să cumpere un produs de o anumită marcă (detergent, bere, cosmetice, încălţăminte etc.) poate depinde de marca aleasă la cumpărătura precedentă;

• probabilitatea ca o persoană să aibă cazier poate depinde de faptul că părinţii au avut sau nu cazier;

• probabilitatea ca starea de sănătate a unui pacient să se îmbunătăţească, să se înrăutăţească sau să rămână stabilă într-o zi poate depinde de ceea ce s-a întâmplat în ziua precedentă.

Evoluţia unui proces Markov poate fi descrisă prin intermediul unei matrice.

Matricea de tranziţie este un instrument foarte eficient pentru reprezentarea compartamentului unui proces Markov.

Definiţia 4. Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, …, Em. Forma generală a unei matrici de tranziţie pentru acest gen de experimente are forma:

Starea Viitoare

Starea Curentă =P

O dată cu modelarea sistemului, acesta poate fi în una din cele m stări curente posibile. O stare corespunde unui rezultat al experimentului.La finalul experimentului, sistemul se poate afla în una din cele m stări.

Matricea de tranziţie este formata din elemente pij care reprezinta probabilitatea conditionata ca sistemul sa se modifice de la starea initiala i la starea viitoare j.

Observaţii

1. Pij cu i = j reprezintă probabilitatea ca sistemul să rămână în aceeaşi stare după efectuarea experimentului, iar Pij cu i ≠ j reprezintă probabilitatea ca sistemul să treacă dintr-o stare în alta.

2. Matricea de tranziţie este o matrice pătratică de ordin m.

Proprietăţi

Elementele matricei de tranziţie trebuie să satisfacă următoarele:

1. 0 ≤ pij ≤ 1, i,j = 1,…,m (pentru că este vorba de probabilităţi),

2. , i=1,2,…m. Suma pe linie trebuie să dea 1 pentru că E1, E2,…Em este un sistem complet de evenimente.

Proprietatea 2 asigură că, dată fiind o stare curentă i a sistemului, sistemul va trece cu siguranţă într-o stare j din cele m posibile după efectuarea experimentului.

Preview document

Lanțul Markov - Pagina 1
Lanțul Markov - Pagina 2
Lanțul Markov - Pagina 3
Lanțul Markov - Pagina 4
Lanțul Markov - Pagina 5
Lanțul Markov - Pagina 6
Lanțul Markov - Pagina 7
Lanțul Markov - Pagina 8
Lanțul Markov - Pagina 9
Lanțul Markov - Pagina 10
Lanțul Markov - Pagina 11
Lanțul Markov - Pagina 12
Lanțul Markov - Pagina 13

Conținut arhivă zip

  • Lantul Markov.doc

Alții au mai descărcat și

Rapoarte. proporții

Unitatea de invatamant: Scoala cu clasele I-VIII Borosoaia Data: 5.01.2010 Clasa:a VI-a A Profesor: Disciplina: matematica-algebra Unitatea...

Probabilități

CAPITOLUL 1 NOTIUNI FUNDAMENTALE ALE TEORIEI PROBABILITATILOR 1.1 Experienta. Proba. Eveniment Orice disciplina foloseste pentru obiectul ei...

Plan de lecție clasa a XII a - proprietăți ale legilor de compoziție - comutativitate . asociativitate

Liceul : Grup Scolar Industrial Construtii de Masini Dacia Clasa :a XII-a E Data : 6.10.2008 Propunator : profesor Disciplina:...

Ecuații Diferențiale Ordinare de Ordinul Întâi Integrabile prin Cuadraturi

O ecuaţie diferenţială ordinară de ordinul întâi sub formă normală se prezintă printr-o egalitate de forma: , (1) unde este funcţia necunoscută...

Matematici Speciale

Tema de casă nr.1 1. Funcţii şi formule trigonometrice 2. Formule de derivare 3. Formule de integrare Temă de casă nr.2 1. Să se determine...

Ecuații

1. Introducere în teoria ecuaţiilor diferenţiale ordinare Fie y(x) o funcţie de variabila independent x. Notăm prin y’, y’’,…, y(n) derivatele...

Progresii Aritmetice și Geometrice

1.DEFINITIA PROGRESIEI ARITMETICE Un sir de numere (A1 ,A2 ,… ,An ; n>=1) in care fiecare termen incepand cu al doilea ,se obtine din cel...

Te-ar putea interesa și

Modele de predicție a funcționării unui sistem mecanic pe baza aplicării lanțurilor Markov

Rezumat Lucrarea intitulată „Modele de predicţie a funcţionării unui sistem mecanic pe baza aplicării lanţurilor Markov” este structurată pe patru...

Analizator Morfo-Sintactic

1. Introducere Lingvistica computaţională este o disciplină centrată în jurul folosirii calculatorului pentru a procesa sau a produce texte în...

Grile Modelare și Simularea Proceselor Economice

1) In legatura cu tehnica simularii manag. se poate afirma ca: 1)permite obtinerea unor informatii despre sistem inainte ca aceste sa fie realizat...

Modelarea Cozilor de Așteptare

Procese Poisson Baza teoretică a modelării cozilor de aşteptare o constituie o clasă particulară de procese stochastice, procesele Poisson. In...

Lanțuri Markov

Rezumat: Proiectul de față are în vedere explicarea conceptului de „lanțuri Markov”, a celor mai importante aspecte cu privire la acestea, precum...

Probabilități

1.Legea normala 1dimensionala: x-v.a. cu fct de rep F(x)=> [a,b,)=(-µ,b](µ,a) => P(XÎ[A,B))=P(X<B)-P(X<a) f densitatea lui x =>...

Elemente de Teoria Probabilităților

1. Conceptele: experiment şi eveniment În teoria probabilităţilor un loc central îl ocupă conceptul de eveniment; în acest context prin eveniment...

Sisteme cu Evenimente Discrete

1. Descrierea logică a functionării sistemelor cu evenimente discrete 1.1 Consideratii teoretice Sistemele cu evenimente discrete (SED) se...

Ai nevoie de altceva?