Dependenți și Independenți variabile aleatoare

 Când studiem sisteme de variabile aleatoare, trebuie să acordăm întotdeauna atenție gradului și naturii dependenței acestora. Această dependență poate fi mai mult sau mai puțin pronunțată, mai mult sau mai puțin apropiată. În unele cazuri, relația dintre variabile aleatoare poate fi atât de strânsă încât, cunoscând valoarea unei variabile aleatoare, puteți indica cu exactitate valoarea alteia. În celălalt caz extrem, dependența dintre variabilele aleatoare este atât de slabă și îndepărtată încât pot fi considerate practic independente.
 Conceptul de variabile aleatoare independente este unul dintre conceptele importante ale teoriei probabilităților.
 O variabilă aleatoare \(Y\) se spune că este independentă de variabila aleatoare \(X\) dacă legea distribuției valorii \(Y\) nu depinde de valoarea valorii \(X\).
 Pentru variabile aleatoare continue, condiția ca \(Y\) să fie independentă de \(X\) poate fi scrisă ca: $$f(y\mid x)=f_(2)(y)$$ pentru orice \(y) \).
 Dimpotrivă, dacă \(Y\) depinde de \(X\), atunci $$f(y\mid x) \neq f_(2)(y)$$  Demonstrăm că dependența sau independența variabilelor aleatoare este întotdeauna reciprocă: dacă valoarea \(Y\) nu depinde de \(X\), atunci valoarea \(X\) nu depinde de \(Y\).
 Într-adevăr, fie \(Y\) independent de \(X\): $$f(y\mid x)=f_(2)(y)$$ avem: $$f_(1)(x)f( y \mid x)=f_(2)(y)f(x\mid y)$$ de unde obținem: $$f_(1)(x)=f(x\mid y)$$ care urma să fie demonstrat.
 Deoarece dependența și independența variabilelor aleatoare sunt întotdeauna reciproce, putem da o nouă definiție a variabilelor aleatoare independente.
 Variabilele aleatoare \(X\) și \(Y\) se numesc independente dacă legea de distribuție a fiecăreia dintre ele nu depinde de valoarea celeilalte. În caz contrar, se numesc mărimile \(X\) și \(Y\). dependent.
 Pentru variabile aleatoare continue independente, teorema de multiplicare a legii distribuției ia forma: $$f(x, y)=f_(1)(x)f_(2)(y)$$ adică densitatea de distribuție a unui sistem de aleatoriu independent. variabile este egal cu produsul distribuției densităților cantităților individuale incluse în sistem.
Adesea, prin însăși forma funcției \(f(x, y)\) se poate concluziona că variabilele aleatoare \(X, Y\) sunt independente, și anume, dacă densitatea distribuției \(f(x, y) \) descompune în produs două funcții, dintre care una depinde doar de \(x\), cealaltă doar de \(y\), atunci variabilele aleatoare sunt independente.
Exemplul 1 Densitatea de distribuție a sistemului \((X, Y)\) are forma: $$f(x, y)=\frac(1)(\pi ^(2)(x^(2)+y^( 2)+x ^(2)y^(2)+1))$$ Stabiliți dacă variabilele aleatoare \(X\) și \(Y\) sunt dependente sau independente.
Soluţie. Factorizarea numitorului, avem: $$f(x, y)=\frac(1)(\pi (x^(2)+1))\frac(1)(\pi (y^(2)+1) ))$$ Din faptul că funcția \(f(x, y)\) s-a împărțit într-un produs de două funcții, dintre care una depinde doar de \(x\), iar cealaltă doar de \(y\ ), concluzionăm că mărimile \(X\) și \(Y\) trebuie să fie independente. Într-adevăr, aplicând formulele, avem: $$f(x, y)=\frac(1)(\pi (x^(2)+1))\int_(-\infty)^(\infty)(\ frac( dy)(\pi (y^(2)+1)))=\frac(1)(\pi (x^(2)+1))$$ similar cu $$f(x, y)= (\frac (1)(\pi (y^(2)+1)))$$ de unde ne asigurăm că $$f(x, y)=f_(1)(x)f_(2)(y) $$ și, prin urmare, mărimile \(X\) și \(Y\) sunt independente.

Evenimentele aleatoare sunt numite independente dacă apariția unuia dintre ele nu afectează probabilitatea de apariție a altor evenimente.

Exemplul 1 . Dacă există două sau mai multe urne cu bile colorate, atunci extragerea oricărei bile dintr-o urna nu afectează probabilitatea de a extrage alte bile din urnele rămase.

Pentru nu evenimente dependente corect teorema înmulțirii probabilităților: comun de probabilitate(simultan)apariția mai multor evenimente aleatoare independente este egală cu produsul probabilităților lor:

P (A 1 și A 2 și A 3 ... și A k) \u003d P (A 1) ∙ P (A 2) ∙ ... ∙ P (A k). (7)

Apariția în comun (simultană) a evenimentelor înseamnă că evenimentele au loc și A 1 ,și A 2 ,și A 3… și si k.

Exemplul 2 . Sunt două urne. Una conține 2 bile negre și 8 albe, cealaltă conține 6 bile negre și 4 albe. Lasă evenimentul DAR- selectarea aleatorie a unei mingi albe din prima urna, LA- din a doua. Care este probabilitatea de a alege la întâmplare dintre aceste urne o minge albă, i.e. ceea ce este egal cu R (DARși LA)?

Soluţie: probabilitatea de a extrage o minge albă din prima urna
R(DAR) = = 0,8 din secunda – R(LA) = = 0,4. Probabilitatea de a obține o minge albă din ambele urne în același timp este
R(DARși LA) = R(DARR(LA) = 0,8∙ 0,4 = 0,32 = 32%.

Exemplul 3 O dietă cu conținut redus de iod provoacă mărirea tiroidei la 60% dintre animalele dintr-o populație mare. Pentru experiment sunt necesare 4 glande mărite. Găsiți probabilitatea ca 4 animale alese aleatoriu să aibă o glanda tiroidă mărită.

Soluţie:Eveniment aleatoriu DAR- o selecție aleatorie a unui animal cu o glanda tiroidă mărită. În funcție de starea problemei, probabilitatea acestui eveniment R(DAR) = 0,6 = 60%. Apoi probabilitatea apariției comune de patru evenimente independente- selecția aleatorie a 4 animale cu glanda tiroidă mărită - va fi egală cu:

R(DAR 1 și DAR 2 și DAR 3 și DAR 4) = 0,6 ∙ 0,6 ∙0,6 ∙ 0,6=(0,6) 4 ≈ 0,13 = 13%.

evenimente dependente. Teorema înmulțirii probabilităților pentru evenimente dependente

Evenimentele aleatoare A și B sunt numite dependente dacă apariția unuia dintre ele, de exemplu, A modifică probabilitatea de apariție a celuilalt eveniment - B. Prin urmare, două valori de probabilitate sunt utilizate pentru evenimente dependente: probabilități necondiționate și condiționate .

În cazul în care un DARși LA evenimente dependente, apoi probabilitatea producerii evenimentului LA primul (adică înainte de eveniment DAR) se numește probabilitate necondiționată a acestui eveniment și este desemnat R(LA).Probabilitatea evenimentului LA cu condiția ca evenimentul DAR sa întâmplat deja, se numește probabilitate condițională evoluții LAși notat R(LA/DAR) sau R A(LA).

Necondiționat - R(DAR) și condiționat - R(A/B) probabilități pentru eveniment DAR.

Teorema înmulțirii probabilităților pentru două evenimente dependente: probabilitatea apariției simultane a două evenimente dependente A și B este egală cu produsul probabilității necondiționate a primului eveniment cu probabilitatea condiționată a celui de-al doilea:

R(A și B)= P(DAR)∙P(B/A) , (8)

DAR, sau

R(A și B)= P(LA)∙P(A/B), (9)

dacă evenimentul are loc mai întâi LA.

Exemplul 1. Într-o urnă sunt 3 bile negre și 7 bile albe. Găsiți probabilitatea ca 2 bile albe să fie scoase una câte una din această urnă (și prima bilă să nu fie returnată în urnă).

Soluţie: probabilitatea de a extrage prima bilă albă (eveniment DAR) este egal cu 7/10. După ce este scos, în urnă rămân 9 bile, dintre care 6 albe. Apoi probabilitatea apariției celei de-a doua bile albe (evenimentul LA) este egal cu R(LA/DAR) = 6/9, iar probabilitatea de a obține două bile albe la rând este

R(DARși LA) = R(DAR)∙R(LA/DAR) = = 0,47 = 47%.

Teorema de multiplicare a probabilității dată pentru evenimente dependente poate fi generalizată la orice număr de evenimente. În special, pentru trei evenimente, prieten legat cu un prieten:

R(DARși LAși DIN)= P(DAR)∙ R(B/A)∙ R(TAXI). (10)

Exemplul 2. În două grădinițe, fiecare frecventată de 100 de copii, a avut loc un focar de boală infecțioasă. Proporția cazurilor este de 1/5, respectiv 1/4, iar în prima instituție 70%, iar în a doua - 60% din cazuri sunt copii sub 3 ani. Un copil este selectat aleatoriu. Determinați probabilitatea ca:

1) copilul selectat aparține primei grădinițe (eveniment DAR) și bolnav (eveniment LA).

2) un copil este selectat din al doilea grădiniţă(eveniment DIN), bolnav (eveniment D) și mai vechi de 3 ani (eveniment E).

Soluţie. 1) probabilitatea dorită -

R(DARși LA) = R(DAR) ∙ R(LA/DAR) = = 0,1 = 10%.

2) probabilitatea dorită:

R(DINși Dși E) = R(DIN) ∙ R(D/C) ∙ R(E/CD) = = 5%.

Formula Bayes

= (12)

Exemplul 1. În timpul examinării inițiale a pacientului, se presupun 3 diagnostice H 1 , H 2 , H 3 . Probabilitățile lor, potrivit medicului, sunt distribuite după cum urmează: R(H 1) = 0,5; R(H 2) = 0,17; R(H 3) = 0,33. Prin urmare, primul diagnostic pare provizoriu cel mai probabil. Pentru a o clarifica, de exemplu, este prescris un test de sânge, în care este de așteptat o creștere a VSH (eveniment DAR). Se știe dinainte (pe baza rezultatelor cercetării) că probabilitățile unei creșteri a VSH în bolile suspectate sunt egale cu:

R(DAR/H 1) = 0,1; R(DAR/H 2) = 0,2; R(DAR/H 3) = 0,9.

În analiza obținută s-a înregistrat o creștere a VSH (eveniment DAR s-a întâmplat). Apoi, calculul conform formulei Bayes (12) oferă valorile probabilităților presupuselor boli cu o valoare VSH crescută: R(H 1 /DAR) = 0,13; R(H 2 /DAR) = 0,09;
R(H 3 /DAR) = 0,78. Aceste cifre arată că, luând în considerare datele de laborator, nu primul, ci al treilea diagnostic, a cărui probabilitate s-a dovedit acum destul de mare, este cel mai realist.

Exemplul 2. Determinați probabilitatea care evaluează gradul de risc de deces perinatal* al unui copil la femeile cu pelvis anatomic îngust.

Soluţie: lasa evenimentul H 1 - livrare în siguranță. Conform rapoartelor clinice, R(H 1) = 0,975 = 97,5%, atunci dacă H 2- faptul mortalitatii perinatale, deci R(H 2) = 1 – 0,975 = 0,025 = 2,5 %.

Denota DAR- faptul prezenței unui bazin îngust la o femeie în travaliu. Din studiile efectuate se cunosc: a) R(DAR/H 1) - probabilitatea unui bazin îngust cu naștere favorabilă, R(DAR/H 1) = 0,029, b) R(DAR/H 2) - probabilitatea unui bazin îngust în mortalitatea perinatală,
R(DAR/H 2) = 0,051. Apoi probabilitatea dorită de mortalitate perinatală într-un pelvis îngust la o femeie în travaliu este calculată prin formula Bays (12) și este egală cu:

Astfel, riscul de mortalitate perinatală în pelvisul îngust anatomic este semnificativ mai mare (aproape de două ori) decât riscul mediu (4,4% vs. 2,5%).

Niciuna dintre ele nu depinde de ce valori au luat (sau vor lua) celelalte variabile aleatoare.

De exemplu, sistemul a două zaruri de joc - este destul de clar că rezultatul aruncării unui zar nu afectează în niciun fel probabilitățile ca fețele altui zar să cadă. Sau aceleași aparate de slot care funcționează independent. Și, probabil, unii au impresia că orice SV este independent în general. Cu toate acestea, acesta nu este întotdeauna cazul.

Considera simultan aruncând două zaruri magnet ai căror poli nordici sunt pe partea feței cu 1 punct și polii sudici pe fața opusă cu 6 puncte. Variabilele aleatoare similare vor fi independente? Da, o vor face. Probabilitățile de a renunța la „1” și „6” vor scădea pur și simplu și vor crește șansele altor fețe, deoarece ca urmare a testului, cuburile pot fi atrase de poli opuși.

Acum luați în considerare un sistem în care zarurile sunt aruncate rand pe rand:

- numărul de puncte aruncate pe primul zar;

- numărul de puncte aruncate pe al doilea zar, cu condiția ca acesta să fie întotdeauna aruncat în partea dreaptă (de exemplu) a primului zar.

În acest caz, legea de distribuție a variabilei aleatoare depinde despre cum se află primul cub. Cel de-al doilea os poate fi fie atras, fie invers - rebound (dacă polii cu același nume se „întâlnesc”), fie ignora parțial sau complet primul cub.

Al doilea exemplu: să presupunem că aceleași aparate de slot sunt unite într-o singură rețea și - există un sistem de variabile aleatoare - câștiguri pe mașinile corespunzătoare. Nu știu dacă această schemă este legală, dar proprietarul sălii de jocuri poate configura cu ușurință rețeaua în următorul mod: atunci când are loc un câștig mare pe orice mașină, legile de distribuire a câștigurilor pe toate aparatele se schimbă automat. În special, este recomandabil să resetați probabilitățile de câștiguri mari pentru o perioadă de timp, astfel încât instituția să nu se confrunte cu o lipsă de fonduri (în cazul în care dintr-o dată cineva câștigă din nou mare). Astfel, sistemul considerat va fi dependent.

Ca exemplu demonstrativ, luați în considerare un pachet de 8 cărți, să fie regi și regine, și un joc simplu în care doi jucători consecutiv (indiferent în ce ordine) trag o carte din pachet. Luați în considerare o variabilă aleatorie, care simbolizează un jucător și ia următoarele valori: 1 , dacă a tras o carte de inimă și 0 - dacă cartea este de alt culoare.

În mod similar, lăsați variabila aleatoare să simbolizeze un alt jucător și, de asemenea, să ia valorile 0 sau 1 dacă acesta nu a desenat o inimă și, respectiv, o inimă.

este probabilitatea ca ambii jucători să extragă viermele,

este probabilitatea evenimentului opus și:

- probabilitatea ca unul să extragă viermele, iar celălalt - nu; sau vice versa:

Astfel, legea distribuției de probabilitate a sistemului dependent este:

Control: , care urma să fie verificat. ...Poate ai o întrebare, de ce iau în considerare exact 8, și nu 36 de cărți? Da, doar pentru ca fracțiile să nu fie atât de greoaie.

Acum să analizăm puțin rezultatele. Dacă însumăm probabilitățile linie cu linie: , atunci obținem exact legea distribuției variabilei aleatoare :

Este ușor de înțeles că această distribuție corespunde situației în care jucătorul „X” trage singur o carte, fără un tovarăș „G”, și valorea estimata:
- este egală cu probabilitatea de a extrage inimi de pe puntea noastră.

În mod similar, dacă însumăm probabilitățile pe coloane, atunci obținem legea distribuției unui singur joc al celui de-al doilea jucător:

cu aceeași așteptare

Datorită „simetriei” regulilor jocului, distribuțiile s-au dovedit a fi aceleași, dar, în cazul general, sunt, desigur, diferite.

În plus, este util să luați în considerare legile condiționale ale distribuției probabilităților . Aceasta este o situație în care una dintre variabilele aleatoare a luat deja o anumită valoare sau o presupunem ipotetic.

Lăsați jucătorul „jucător” să tragă mai întâi o carte și nu să tragă o inimă. Probabilitatea acestui eveniment este (suma probabilitățile peste primul coloană Mese - Vezi deasupra). Apoi, din aceeași teoreme de multiplicare pentru probabilitățile evenimentelor dependente obținem următoarele probabilități condiționate:
- probabilitatea ca jucătorul „X” să nu atragă o inimă, cu condiția ca jucătorul „jucator” să nu deseneze o inimă;
- probabilitatea ca jucătorul „X” să deseneze o inimă, cu condiția ca jucătorul „jucător” să nu deseneze o inimă.

... toată lumea își amintește cum să scape de fracții cu patru etaje? Și da, formal, dar foarte confortabil regula tehnica pentru calcularea acestor probabilitati: prima sumă toate probabilitati prin coloană, și apoi împărțiți fiecare probabilitate la suma rezultată.

Astfel, la , legea condițională de distribuție a unei variabile aleatoare se va scrie după cum urmează:

, O.K. Să calculăm așteptările matematice condiționate:

Acum să întocmim legea de distribuție a unei variabile aleatoare cu condiția ca variabila aleatoare să fi luat valoarea , i.e. Jucătorul „jucător” a tras o carte cu culoarea inimii. Pentru a face acest lucru, rezumăm probabilitățile celui de-al 2-lea coloană Mese ( Vezi deasupra): și calculați probabilitățile condiționate:
- faptul că jucătorul „X” nu va trage un vierme,
- și un vierme.
Astfel, legea de distribuție condiționată dorită:

Control: și așteptare condiționată:
- desigur, s-a dovedit a fi mai puțin decât în ​​cazul precedent, deoarece jucătorul „jucător” a redus numărul de inimi din pachet.

Modul „oglindă”. (lucru cu rânduri de tabel) poate fi compusă - legea distribuției unei variabile aleatoare, cu condiția ca variabila aleatoare să fi luat valoarea , și distribuția condiționată, atunci când jucătorul „X” a luat viermele. Este ușor de înțeles că, datorită „simetriei” jocului, se vor obține aceleași distribuții și aceleași valori.

Pentru variabile aleatoare continue introduce aceleasi concepte. distribuții condiționate și așteptări matematice, dar dacă nu este nevoie fierbinte de ele, atunci este mai bine să continuați să studiați această lecție.

În practică, în majoritatea cazurilor, vi se va oferi o lege de distribuție gata făcută pentru un sistem de variabile aleatoare:

Exemplul 4

O variabilă aleatoare bidimensională este dată de propria sa lege de distribuție a probabilității:

... Am vrut să iau în considerare o masă mai mare, dar am decis să nu fiu maniac, pentru că principalul lucru este să înțeleg însuși principiul soluției.

Necesar:

1) Întocmește legile de distribuție și calculează așteptările matematice corespunzătoare. Faceți o concluzie rezonabilă despre dependența sau independența variabilelor aleatoare .

Aceasta este o sarcină de rezolvat pe cont propriu! Vă reamintesc că în cazul independenței NE, legile trebuie să se dovedească a fi la fel și să coincidă cu legea de distribuție a unei variabile aleatoare, iar legile trebuie să coincidă cu . zecimale, cine nu știe sau a uitat, este convenabil să împartă astfel: .
Puteți consulta eșantionul din partea de jos a paginii.

2) Calculați coeficientul de covarianță.

În primul rând, să ne uităm la termenul în sine și de unde provine: atunci când o variabilă aleatorie ia valori diferite, atunci ei spun că variază, și măsurarea cantitativă a acesteia variatii, după cum știți, este exprimată dispersie. Folosind formula pentru calcularea varianței, precum și proprietățile așteptării și ale varianței, este ușor de stabilit că:

adică atunci când se adună două variabile aleatoare, varianțele acestora sunt însumate și se adaugă un termen suplimentar care caracterizează variație articulară sau in scurt timp - covarianta variabile aleatoare.

covarianta sau moment de corelare - aceasta este măsura variației articulațiilor variabile aleatoare.

Desemnare: sau

Covarianța variabilelor aleatoare discrete este definită, acum voi „exprima” :), ca așteptare matematică a produsului abateri liniare dintre aceste variabile aleatoare din așteptările matematice corespunzătoare:

Dacă , atunci variabile aleatoare dependent. Figurat vorbind, o valoare diferită de zero ne vorbește despre natural„răspunsurile” unui SW la o schimbare într-un alt SW.

Covarianța poate fi calculată în două moduri, le voi acoperi pe ambele.

Metoda unu. De Definiția așteptărilor matematice:

O formulă „îngrozitoare” și calcule deloc groaznice. În primul rând, compunem legile de distribuție a variabilelor aleatoare și - pentru aceasta rezumăm probabilitățile pe rânduri Valoarea („X”) iar pe coloane valoarea („joc”):

Aruncă o privire la tabelul original de sus - înțelege toată lumea cum au ieșit distribuțiile? Calcula așteptări:
și abateri valori ale variabilelor aleatoare din așteptările matematice corespunzătoare:

Este convenabil să plasați abaterile rezultate într-un tabel bidimensional, în interiorul căruia apoi rescrieți probabilitățile din tabelul original:


Acum trebuie să calculați toate produsele posibile, de exemplu, am evidențiat: (Culoare rosie)și (Culoarea albastră). Este convenabil să efectuați calcule în Excel și să scrieți totul în detaliu pe o copie curată. Sunt obișnuit să lucrez „linie cu linie” de la stânga la dreapta și, prin urmare, voi enumera mai întâi toate produsele posibile cu o abatere „X” de -1,6, apoi cu o abatere de 0,4:

Metoda a doua, mai simplu și mai comun. Conform formulei:

Așteptarea produsului SW este definită ca și din punct de vedere tehnic totul este foarte simplu: luăm tabelul original al problemei și găsim toate produsele posibile după probabilitățile corespunzătoare; în figura de mai jos am evidențiat lucrarea cu roșu și produs albastru:


În primul rând, voi enumera toate produsele cu valoarea , apoi cu valoarea , dar, desigur, puteți utiliza o altă ordine de enumerare - după cum preferați:

Valorile au fost deja calculate (vezi Metoda 1) și rămâne de aplicat formula:

După cum sa menționat mai sus, valoarea diferită de zero a covarianței ne spune despre dependența variabilelor aleatoare și cu cât este mai mult modulo, cu atât mai multă această dependență mai aproape la funcţional liniar dependențe. Căci se determină prin abateri liniare.

Astfel, definiția poate fi formulată mai precis:

covarianta este o măsură liniar dependențe ale variabilelor aleatoare.

Cu valoarea zero, totul este mai interesant. Dacă se stabilește că , atunci variabilele aleatoare se pot dovedi a fi atât independente cât și dependente(deoarece dependența poate fi nu numai liniară). În acest fel, acest fapt nu poate fi folosit în general pentru a fundamenta independența SV!

Totuși, dacă se știe că sunt independenți, atunci . Acest lucru poate fi ușor verificat analitic: deoarece pentru variabile aleatoare independente proprietatea ( vezi lecția anterioară), apoi conform formulei de calcul a covarianței:

Ce valori poate lua acest coeficient? Coeficientul de covarianță ia valori care nu depășesc modulo- și cu cât mai mult, cu atât mai pronunțat dependență liniară. Și totul pare să fie în regulă, dar există un inconvenient semnificativ al unei astfel de măsuri:

Să presupunem că explorăm variabilă aleatoare continuă bidimensională(pregătirea mentală :)), ale căror componente sunt măsurate în centimetri și au primit valoarea . Apropo, care este dimensiunea covarianței? Deoarece, - centimetri, și - de asemenea, centimetri, atunci produsul lor și așteptarea acestui produs – exprimat în centimetri pătrați, adică covarianța, ca și varianța, este pătratică valoare.

Acum să presupunem că cineva a învățat același sistem, dar a folosit nu centimetri, ci milimetri. Deoarece 1 cm = 10 mm, covarianța va crește de 100 de ori și va fi egală cu !

Prin urmare, este convenabil să luați în considerare normalizat un coeficient de covarianță care ne-ar da aceeași și adimensională valoare. Acest coeficient se numește, ne continuăm sarcina:

3) Coeficient corelații . Sau, mai precis, coeficientul de corelație liniară:

, Unde - abateri standard variabile aleatoare.

Coeficient de corelație fără dimensiuniși ia valori din intervalul:

(dacă aveți altceva în practică - căutați o eroare).

Cu atât mai mult modulo de unitate, cu cât relația liniară dintre valori este mai apropiată și cu cât este mai aproape de zero, cu atât această dependență este mai puțin pronunțată. Relația este considerată semnificativă începând cu aproximativ . Valorile extreme corespund unei dependențe funcționale stricte, dar în practică, desigur, nu există cazuri „ideale”.

Chiar vreau să dau multe exemple interesante, dar corelația este mai relevantă în curs statistici matematiceși așa le voi păstra pentru viitor. Ei bine, acum să găsim coeficientul de corelație din problema noastră. Asa de. Legile distribuției sunt deja cunoscute, voi copia de mai sus:

Se găsesc așteptări: , și rămâne de calculat abaterile standard. semn Nu o voi întocmi, este mai rapid de calculat cu linia:

Covarianța găsită în paragraful anterior , și rămâne de calculat coeficientul de corelație:
, astfel, între valori există o dependență liniară a etanșeității medii.

A patra sarcină este din nou mai tipică pentru sarcini statistici matematice, dar pentru orice eventualitate, luați în considerare aici:

4) Scrieți o ecuație de regresie liniară pentru .

Ecuația regresie liniara este o funcție , care cel mai bun mod aproximează valorile variabilei aleatoare. Pentru cea mai bună aproximare, se folosește de obicei metoda celor mai mici pătrate, iar apoi coeficienții de regresie pot fi calculați prin formulele:
, acestea sunt miracole, iar al 2-lea coeficient:

Legile condiționale ale distribuției. Regresia.

Definiție. Legea distribuției condiționate a uneia dintre componentele unidimensionale ale unei variabile aleatoare bidimensionale (X, Y) este legea distribuției sale, calculată cu condiția ca cealaltă componentă să ia o anumită valoare (sau să cadă într-un anumit interval). În prelegerea anterioară, a fost luată în considerare găsirea distribuțiilor condiționate pentru variabile aleatoare discrete. Există și formule pentru probabilitățile condiționate:

În cazul variabilelor aleatoare continue, este necesar să se determine densitățile de probabilitate ale distribuțiilor condiționate j y (x) și j X (y). În acest scop, în formulele de mai sus, vom înlocui probabilitățile evenimentelor cu „elementele de probabilitate” ale acestora!

după reducerea cu dx și dy obținem:

acestea. densitatea de probabilitate condiționată a uneia dintre componentele unidimensionale ale unei variabile aleatoare bidimensionale este egală cu raportul dintre densitatea sa comună și densitatea de probabilitate a celeilalte componente. Aceste rapoarte sunt scrise sub formă

se numesc teorema (regula) de multiplicare a densităţilor de distribuţie.

Densitățile condiționate j y (x) și j X (y). au toate proprietățile densității „necondiționate”.

Când studiem variabile aleatoare bidimensionale, luăm în considerare caracteristici numerice componentele unidimensionale X și Y - așteptări și variații matematice. Pentru o variabilă aleatoare continuă (X, Y), acestea sunt determinate de formulele:

Alături de acestea, sunt considerate și caracteristicile numerice ale distribuțiilor condiționate: așteptările matematice condiționate M x (Y) și M y (X) și variațiile condiționate D x (Y) și D Y (X). Aceste caracteristici se găsesc prin formulele uzuale de așteptare și varianță matematică, în care probabilitățile condiționate sau densitățile de probabilitate condiționate sunt utilizate în locul probabilităților de evenimente sau densităților de probabilitate.

Așteptările matematice condiționate ale unei variabile aleatoare Y pentru X = x, adică. M x (Y), există o funcție a lui x, numită funcție de regresie sau pur și simplu regresie Y pe X. În mod similar, M Y (X) este numită funcție de regresie sau pur și simplu regresie X pe Y. Graficele acestor funcții sunt numite respectiv linii de regresie (sau curbe de regresie) Y cu X sau X cu Y.

Variabile aleatoare dependente și independente.

Definiție. Variabilele aleatoare X și Y se numesc independente dacă funcția lor de distribuție comună F(x,y) este reprezentată ca produs al funcțiilor de distribuție F 1 (x) și F 2 (y) ale acestor variabile aleatoare, adică.

În caz contrar, variabilele aleatoare X și Y se numesc dependente.

Diferențiând egalitatea de două ori față de argumentele x și y, obținem

acestea. pentru variabile aleatoare continue independente X și Y, densitatea lor comună j(x, y) este egală cu produsul dintre densitățile de probabilitate j 1 (x) și j 2 (y) ale acestor variabile aleatoare.

Până acum, am întâlnit conceptul unei relații funcționale între variabilele X și Y, când fiecare valoare a lui x dintr-o variabilă corespundea unei valori strict definite în cealaltă. De exemplu, relația dintre două variabile aleatoare - numărul de piese de echipament eșuate pentru anumită perioadă timpul și costul lor – funcțional.

În general, se întâlnește un alt tip de dependență, mai puțin rigidă decât dependența funcțională.

Definiție. Relația dintre două variabile aleatoare se numește probabilistică (stochastică sau statistică) dacă fiecare valoare a uneia dintre ele corespunde unei anumite distribuții (condiționale) a celeilalte.

În cazul unei dependențe probabilistice (stochastice), este imposibil, cunoscând valoarea uneia dintre ele, să determinați cu exactitate valoarea celeilalte, dar puteți indica doar distribuția celeilalte valori. De exemplu, relația dintre numărul de defecțiuni ale echipamentelor și costul întreținerii sale preventive, greutatea și înălțimea unei persoane, timpul petrecut de un școlar privind vizionarea programelor de televiziune și citirea cărților etc. sunt probabiliste (stochastice).

Pe fig. 5.10 prezintă exemple de variabile aleatoare dependente și independente X și Y.

Când studiem sisteme de variabile aleatoare, trebuie să acordăm întotdeauna atenție gradului și naturii dependenței lor. Această dependență poate fi mai mult sau mai puțin pronunțată, mai mult sau mai puțin apropiată. În unele cazuri, relația dintre variabile aleatoare poate fi atât de strânsă încât, cunoscând valoarea unei variabile aleatoare, puteți indica cu exactitate valoarea alteia. În celălalt caz extrem, dependența dintre variabilele aleatoare este atât de slabă și îndepărtată încât pot fi considerate practic independente.

Conceptul de variabile aleatoare independente este unul dintre conceptele importante ale teoriei probabilităților.

O variabilă aleatoare se numește independentă de o variabilă aleatoare dacă legea de distribuție a valorii nu depinde de ce valoare a luat valoarea.

Pentru variabile aleatoare continue, condiția de independență față de poate fi scrisă astfel:

pentru orice .

Dimpotrivă, dacă depinde de , atunci

.

Să demonstrăm că dependența sau independența variabilelor aleatoare este întotdeauna reciprocă: dacă valoarea nu depinde de .

Într-adevăr, să nu depindă de:

. (8.5.1)

Din formulele (8.4.4) și (8.4.5) avem:

de unde, ținând cont de (8.5.1), obținem:

Q.E.D.

Deoarece dependența și independența variabilelor aleatoare sunt întotdeauna reciproce, este posibil să se dea o nouă definiție a variabilelor aleatoare independente.

Variabile aleatoare și se numesc independente dacă legea distribuției fiecăreia dintre ele nu depinde de ce valoare a luat-o celălalt. În caz contrar, cantitățile și se numesc dependente.

Pentru variabile aleatoare continue independente, teorema de multiplicare a legii distribuției ia forma:

, (8.5.2)

adică, densitatea de distribuție a unui sistem de variabile aleatoare independente este egală cu produsul densităților de distribuție a variabilelor individuale incluse în sistem.

Condiția (8.5.2) poate fi privită ca o condiție necesară și suficientă pentru independența variabilelor aleatoare.

Adesea, prin însăși forma funcției, se poate concluziona că variabilele aleatoare sunt independente, și anume, dacă densitatea distribuției este împărțită în produsul a două funcții, dintre care una depinde doar de , cealaltă doar de , atunci aleator. variabilele sunt independente.

Exemplu. Densitatea de distribuție a sistemului are forma:

.

Determinați dacă variabilele aleatoare și sunt dependente sau independente.

Soluţie. Factorizarea numitorului avem:

.

Din faptul că funcția s-a împărțit într-un produs al două funcții, dintre care una depinde doar de și cealaltă numai de , concluzionăm că mărimile și trebuie să fie independente. Într-adevăr, aplicând formulele (8.4.2) și (8.4.3), avem:

;

de asemenea

,

cum ne asigurăm că

și deci cantitățile și sunt independente.

Criteriul de mai sus pentru a judeca dependența sau independența variabilelor aleatoare se bazează pe presupunerea că cunoaștem legea distribuției sistemului. În practică, se întâmplă adesea invers: legea de distribuție a sistemului nu este cunoscută; sunt cunoscute doar legile de distribuție a cantităților individuale incluse în sistem și există motive pentru a crede că cantitățile și sunt independente. Apoi este posibil să scrieți densitatea de distribuție a sistemului ca produs al densităților de distribuție ale cantităților individuale incluse în sistem.

Să ne oprim mai în detaliu asupra conceptelor importante de „dependență” și „independență” a variabilelor aleatoare.

Conceptul de „independență” a variabilelor aleatoare, pe care îl folosim în teoria probabilității, este oarecum diferit de conceptul obișnuit de „dependență” a variabilelor, pe care îl operăm în matematică. Într-adevăr, de obicei sub „dependența” cantităților ele înseamnă un singur tip de dependență - o dependență completă, rigidă, așa-zisa - funcțională. Două mărimi și se numesc dependente funcțional dacă, cunoscând valoarea uneia dintre ele, una poate indica cu exactitate valoarea celeilalte.

În teoria probabilității, întâlnim un alt tip de dependență, mai general, - cu o dependență probabilistică sau „stochastică”. Dacă valoarea este legată de valoare printr-o dependență probabilistică, atunci, cunoscând valoarea, este imposibil de precizat valoarea exactă a lui , dar puteți indica doar legea distribuției acesteia, în funcție de ce valoare a luat valoarea.

Dependența probabilistică poate fi mai mult sau mai puțin apropiată; pe măsură ce strângerea dependenţei probabilistice creşte, se apropie din ce în ce mai mult de cea funcţională. Astfel, dependența funcțională poate fi considerată ca un caz extrem, limitativ, al celei mai apropiate dependențe probabilistice. Un alt caz extrem este independența completă a variabilelor aleatoare. Între aceste două cazuri extreme se află toate gradările de dependență probabilistică - de la cel mai puternic la cel mai slab. Acestea mărimi fizice, care în practică le considerăm dependente funcțional, sunt de fapt legate printr-o dependență probabilistică foarte strânsă: pentru o valoare dată a uneia dintre aceste mărimi, cealaltă variază în limite atât de înguste încât poate fi considerată practic destul de definită. Pe de altă parte, acele cantități pe care le considerăm independente în practică și în realitate sunt adesea într-o anumită dependență reciprocă, dar această dependență este atât de slabă încât poate fi neglijată în scopuri practice.

Dependența probabilistică între variabile aleatoare este foarte comună în practică. Dacă variabile aleatoare și sunt într-o dependență probabilistică, aceasta nu înseamnă că cu o modificare a mărimii, mărimea se schimbă într-un mod complet definit; înseamnă doar că, pe măsură ce valoarea se schimbă, valoarea tinde să se schimbe și ea (de exemplu, crește sau descrește odată cu creșterea ). Această tendință se observă doar „în medie”, în in termeni generali, iar în fiecare caz individual, sunt posibile abateri de la acesta.

Luați în considerare, de exemplu, două astfel de variabile aleatoare: - înălțimea unei persoane luate la întâmplare, - greutatea acestuia. Evident, cantitățile și sunt într-o anumită dependență probabilistică; se exprimă prin faptul că, în general, persoanele cu înălțime mai mare au mai multă greutate. Este posibil chiar să se întocmească o formulă empirică care să înlocuiască aproximativ această dependență probabilistică cu una funcțională. Aceasta este, de exemplu, formula binecunoscută care exprimă aproximativ relația dintre înălțime și greutate.