Legile condiționale ale distribuției. Regresia.

Definiție. Legea distribuției condiționate a uneia dintre componentele unidimensionale ale unei variabile aleatoare bidimensionale (X, Y) este legea distribuției sale, calculată cu condiția ca cealaltă componentă să ia o anumită valoare (sau să cadă într-un anumit interval). În prelegerea anterioară, a fost luată în considerare găsirea distribuțiilor condiționate pentru variabile aleatoare discrete. Există și formule pentru probabilitățile condiționate:

În cazul variabilelor aleatoare continue, este necesar să se determine densitățile de probabilitate ale distribuțiilor condiționate j y (x) și j X (y). În acest scop, în formulele de mai sus, vom înlocui probabilitățile evenimentelor cu „elementele de probabilitate” ale acestora!

după reducerea cu dx și dy obținem:

acestea. densitatea de probabilitate condiționată a uneia dintre componentele unidimensionale ale unei variabile aleatoare bidimensionale este egală cu raportul dintre densitatea sa comună și densitatea de probabilitate a celeilalte componente. Aceste rapoarte sunt scrise sub formă

se numesc teorema (regula) de multiplicare a densităţilor de distribuţie.

Densitățile condiționate j y (x) și j X (y). au toate proprietățile densității „necondiționate”.

Când studiem variabile aleatoare bidimensionale, luăm în considerare caracteristici numerice componentele unidimensionale X și Y - așteptări și variații matematice. Pentru o variabilă aleatoare continuă (X, Y), acestea sunt determinate de formulele:

Alături de acestea, sunt considerate și caracteristicile numerice ale distribuțiilor condiționate: așteptările matematice condiționate M x (Y) și M y (X) și variațiile condiționate D x (Y) și D Y (X). Aceste caracteristici se găsesc prin formulele uzuale de așteptare și varianță matematică, în care probabilitățile condiționate sau densitățile de probabilitate condiționate sunt utilizate în locul probabilităților de eveniment sau densităților de probabilitate.

Condiţional valorea estimata variabila aleatoare Y la X = x, i.e. M x (Y), există o funcție a lui x, numită funcție de regresie sau pur și simplu regresie Y pe X. În mod similar, M Y (X) este numită funcție de regresie sau pur și simplu regresie X pe Y. Graficele acestor funcții sunt numite respectiv linii de regresie (sau curbe de regresie) Y cu X sau X cu Y.

Variabile aleatoare dependente și independente.

Definiție. Variabilele aleatoare X și Y se numesc independente dacă funcția lor de distribuție comună F(x,y) este reprezentată ca produs al funcțiilor de distribuție F 1 (x) și F 2 (y) ale acestor variabile aleatoare, adică.

În caz contrar, variabilele aleatoare X și Y se numesc dependente.

Diferențiând egalitatea de două ori față de argumentele x și y, obținem

acestea. pentru variabile aleatoare continue independente X și Y, densitatea lor comună j(x, y) este egală cu produsul dintre densitățile de probabilitate j 1 (x) și j 2 (y) ale acestor variabile aleatoare.

Până acum, am întâlnit conceptul unei relații funcționale între variabilele X și Y, când fiecare valoare a lui x dintr-o variabilă corespundea unei valori strict definite în cealaltă. De exemplu, relația dintre două variabile aleatoare - numărul de piese de echipament eșuate pentru anumită perioadă timpul și costul lor – funcțional.

În general, se întâlnește un alt tip de dependență, mai puțin rigidă decât dependența funcțională.

Definiție. Relația dintre două variabile aleatoare se numește probabilistică (stochastică sau statistică) dacă fiecare valoare a uneia dintre ele corespunde unei anumite distribuții (condiționale) a celeilalte.

În cazul unei dependențe probabilistice (stochastice), este imposibil, cunoscând valoarea unuia dintre ele, să determinați cu exactitate valoarea celuilalt, dar puteți indica doar distribuția celeilalte valori. De exemplu, relația dintre numărul de defecțiuni ale echipamentelor și costul întreținerii sale preventive, greutatea și înălțimea unei persoane, timpul petrecut de un școlar pentru a viziona programe de televiziune și a citi cărți etc. sunt probabiliste (stochastice).

Pe fig. 5.10 prezintă exemple de variabile aleatoare dependente și independente X și Y.

  Variabile aleatoare dependente și independente

 Când studiem sisteme de variabile aleatoare, trebuie să acordăm întotdeauna atenție gradului și naturii dependenței acestora. Această dependență poate fi mai mult sau mai puțin pronunțată, mai mult sau mai puțin apropiată. În unele cazuri, relația dintre variabile aleatoare poate fi atât de strânsă încât, cunoscând valoarea unei variabile aleatoare, puteți indica cu exactitate valoarea alteia. În celălalt caz extrem, dependența dintre variabilele aleatoare este atât de slabă și îndepărtată încât pot fi considerate practic independente.
 Conceptul de variabile aleatoare independente este unul dintre conceptele importante ale teoriei probabilităților.
 O variabilă aleatoare \(Y\) se spune că este independentă de variabila aleatoare \(X\) dacă legea distribuției valorii \(Y\) nu depinde de valoarea valorii \(X\).
 Pentru variabile aleatoare continue, condiția ca \(Y\) să fie independent de \(X\) poate fi scrisă ca: $$f(y\mid x)=f_(2)(y)$$ pentru orice \(y) \).
 Dimpotrivă, dacă \(Y\) depinde de \(X\), atunci $$f(y\mid x) \neq f_(2)(y)$$  Demonstrăm că dependența sau independența variabilelor aleatoare este întotdeauna reciprocă: dacă valoarea \(Y\) nu depinde de \(X\), atunci valoarea \(X\) nu depinde de \(Y\).
 Într-adevăr, fie \(Y\) independent de \(X\): $$f(y\mid x)=f_(2)(y)$$ avem: $$f_(1)(x)f( y \mid x)=f_(2)(y)f(x\mid y)$$ de unde obținem: $$f_(1)(x)=f(x\mid y)$$ care urma să fie demonstrat.
 Deoarece dependența și independența variabilelor aleatoare sunt întotdeauna reciproce, putem da o nouă definiție a variabilelor aleatoare independente.
 Variabilele aleatoare \(X\) și \(Y\) se numesc independente dacă legea de distribuție a fiecăreia dintre ele nu depinde de valoarea celeilalte. În caz contrar, se numesc mărimile \(X\) și \(Y\). dependent.
 Pentru variabile aleatoare continue independente, teorema de multiplicare a legii distribuției ia forma distribuției cantităților individuale incluse în sistem.
Adesea, prin însăși forma funcției \(f(x, y)\) se poate concluziona că variabilele aleatoare \(X, Y\) sunt independente, și anume, dacă densitatea distribuției \(f(x, y) \) descompune în produs două funcții, dintre care una depinde doar de \(x\), cealaltă doar de \(y\), atunci variabilele aleatoare sunt independente.
Exemplul 1 Densitatea de distribuție a sistemului \((X, Y)\) are forma: $$f(x, y)=\frac(1)(\pi ^(2)(x^(2)+y^( 2)+x ^(2)y^(2)+1))$$ Stabiliți dacă variabilele aleatoare \(X\) și \(Y\) sunt dependente sau independente.
Soluţie. Factorizarea numitorului, avem: $$f(x, y)=\frac(1)(\pi (x^(2)+1))\frac(1)(\pi (y^(2)+1) ))$$ Din faptul că funcția \(f(x, y)\) s-a împărțit într-un produs de două funcții, dintre care una depinde doar de \(x\), iar cealaltă doar de \(y\ ), concluzionăm că mărimile \(X\) și \(Y\) trebuie să fie independente. Într-adevăr, aplicând formulele, avem: $$f(x, y)=\frac(1)(\pi (x^(2)+1))\int_(-\infty)^(\infty)(\ frac( dy)(\pi (y^(2)+1)))=\frac(1)(\pi (x^(2)+1))$$ similar cu $$f(x, y)= (\frac (1)(\pi (y^(2)+1)))$$ de unde ne asigurăm că $$f(x, y)=f_(1)(x)f_(2)(y) $$ și, prin urmare, mărimile \(X\) și \(Y\) sunt independente.

Când studiem sisteme de variabile aleatoare, trebuie să acordăm întotdeauna atenție gradului și naturii dependenței lor. Această dependență poate fi mai mult sau mai puțin apropiată.

Conceptul de variabile aleatoare independente este unul dintre conceptele importante ale teoriei probabilităților.

Definiția 1. Valoare aleatoare Y se numeste independent de variabila aleatoare X, dacă legea distribuţiei cantităţii Y nu depinde de valoarea luată de valoare X.

Pentru variabile aleatoare continue, condiția de independență Y din X poate fi scris ca:

Dimpotrivă, dacă Y depinde de X, apoi

Să demonstrăm asta dependența sau independența variabilelor aleatoare este întotdeauna reciprocă: dacă valoarea Y nu depinde de X, apoi valoarea X nu depinde de Y.

Într-adevăr, să Y nu depinde de X, apoi

Densitatea de distribuție a îmbinării conform (5.4.5) și (5.4.6) poate fi scrisă

de unde obținem:

Q.E.D.

Deoarece dependența și independența variabilelor aleatoare sunt întotdeauna reciproce, este posibil să se dea o nouă definiție a variabilelor aleatoare independente.

Definiția 2. variabile aleatoare Xși Y sunt numite independente dacă legea de distribuție a fiecăruia dintre ele nu depinde de ce valoare ia celălalt. Altfel, valorile Xși Y numit dependent.

Pentru variabile aleatoare continue independente, teorema de multiplicare a legii distribuției ia forma:

acestea. densitatea de distribuție a unui sistem de variabile aleatoare independente este egală cu produsul densităților de distribuție a variabilelor individuale incluse în sistem.

Să ne oprim mai în detaliu asupra conceptelor importante de „dependență” și „independență” a variabilelor aleatoare.

Conceptul de „dependență” a variabilelor aleatoare, pe care îl folosim în teoria probabilității, este oarecum diferit de conceptul obișnuit de „dependență” a variabilelor, pe care îl operăm în matematică. Într-adevăr, de obicei sub „dependența” cantităților ele înseamnă un singur tip de dependență - completă, rigidă, așa-numita funcţional dependenta. Două cantități Xși Y sunt numite dependente funcțional dacă, cunoscând valoarea unuia dintre ele, unul poate indica cu exactitate valoarea celuilalt.

În teoria probabilității, ne întâlnim cu un alt tip de dependență, mai general, - cu probabilistică sau dependenţă „stochastică”. Dacă valoarea Y legat de valoare X dependenţa probabilistică, deci, cunoscând valoarea X, nu poate specifica valoarea exactă Y,și puteți specifica doar legea distribuției sale, în funcție de ce valoare a luat valoarea X.

Dependența probabilistică între variabile aleatoare este foarte comună în practică. Dacă variabile aleatorii Xși Y sunt într-o dependență probabilistică, asta nu înseamnă că cu o modificare a valorii X magnitudinea Y schimbări într-un mod foarte definit; înseamnă doar că cu o modificare a valorii X magnitudinea Y tinde, de asemenea, să se schimbe (de exemplu, să crească sau să scadă odată cu creșterea X).

Luați în considerare, de exemplu, două astfel de variabile aleatoare: X- creșterea unei persoane luate la întâmplare, Y-- greutatea sa. Evident, cantitățile Xși Y sunt într-o anumită dependență probabilistică; se exprimă în oameni generali cu inaltime mai mare au mai multa greutate.

Distinge între evenimente dependente și independente. Se spune că două evenimente sunt independente dacă apariția unuia dintre ele nu modifică probabilitatea de apariție a celuilalt. De exemplu, dacă într-un atelier funcționează două linii automate, care nu sunt interconectate în funcție de condițiile de producție, atunci opririle acestor linii sunt evenimente independente.

Sunt numite mai multe evenimente colectiv independent, dacă oricare dintre ele nu depinde de niciun alt eveniment și de vreo combinație a celorlalte.

Evenimentele sunt numite dependent, dacă unul dintre ele afectează probabilitatea de apariție a celuilalt. De exemplu, două fabrici de producție sunt conectate printr-un singur ciclu tehnologic. Atunci probabilitatea eșecului unuia dintre ele depinde de starea celuilalt. Se numește probabilitatea unui eveniment B, calculată presupunând apariția unui alt eveniment A probabilitate condițională evenimentul B și este notat cu P(A|B).

Condiția pentru independența evenimentului B față de evenimentul A se scrie ca P(B|A)=P(B), iar condiția pentru dependența sa ca P(B|A)≠P(B).

Probabilitatea unui eveniment în studiile Bernoulli. Formula Poisson.

Teste independente repetate, Procesele Bernoulli sau schema Bernoulli astfel de studii sunt numite dacă pentru fiecare studiu există doar două rezultate - apariția evenimentului A sau și probabilitatea acestor evenimente rămâne neschimbată pentru toate încercările. Această schemă simplă de testare aleatorie are mare importanțăîn teoria probabilităţilor.

Cel mai exemplu celebru Probele Bernoulli este un experiment cu aruncarea succesivă a unei monede obișnuite (simetrice și omogene), în care evenimentul A este pierderea, de exemplu, a unei „steme” („cozi”).

Fie din anumite experiențe probabilitatea evenimentului A este egală cu P(A)=p, apoi , unde р+q=1. Să rulăm experimentul de n ori, presupunând că încercările individuale sunt independente, ceea ce înseamnă că rezultatul niciunuia dintre ele nu este legat de rezultatele încercărilor anterioare (sau ulterioare). Să aflăm probabilitatea de apariție a evenimentelor A exact de k ori, să spunem doar în primele k încercări. Fie un eveniment care, în n încercări, evenimentul A va avea loc exact de k ori în primele încercări. Evenimentul poate fi reprezentat ca

Din moment ce am presupus că experimentele sunt independente, atunci

41)[pagina 2] Dacă punem problema apariției evenimentului A de k ori în n încercări într-o ordine arbitrară, atunci evenimentul poate fi reprezentat ca

Numărul de termeni diferiți din partea dreaptă a acestei egalități este egal cu numărul de încercări de la n la k, deci probabilitatea evenimentelor, pe care o vom desemna, este egală cu

Succesiunea evenimentelor formează un grup complet evenimente independente . Într-adevăr, din independența evenimentelor, obținem

Două variabile aleatoare $X$ și $Y$ sunt numite independente dacă legea de distribuție a unei variabile aleatoare nu se modifică în funcție de valorile posibile pe care le ia cealaltă variabilă aleatoare. Adică, pentru orice $x$ și $y$ evenimentele $X=x$ și $Y=y$ sunt independente. Deoarece evenimentele $X=x$ și $Y=y$ sunt independente, atunci prin teorema produsului probabilităților evenimentelor independente $P\left(\left(X=x\right)\left(Y=y\) dreapta)\dreapta)=P \stanga(X=x\dreapta)P\stanga(Y=y\dreapta)$.

Exemplul 1 . Lăsați variabila aleatorie $X$ să exprime câștigurile în bani de la biletele unei loterie „Loto rusesc”, iar variabila aleatoare $Y$ exprimă câștigurile în bani de la biletele unei alte loterie „Cheia de aur”. Evident, variabilele aleatoare $X,\ Y$ vor fi independente, deoarece câștigurile din biletele unei loterie nu depind de legea repartizării câștigurilor din biletele unei alte loterie. În cazul în care variabilele aleatoare $X,\ Y$ ar exprima câștigurile la aceeași loterie, atunci, evident, aceste variabile aleatoare ar fi dependente.

Exemplul 2 . Doi muncitori lucrează în ateliere diferite și produc diverse produse care nu sunt legate între ele de tehnologiile de fabricație și de materiile prime utilizate. Legea repartizării numărului de produse defecte fabricate de primul lucrător pe tură are următoarea formă:

$\begin(matrice)(|c|c|)
\hline
Numărul de \ defecte \ produse \ x & 0 & 1 \\
\hline
Probabilitate & 0,8 & 0,2 \\
\hline
\end(matrice)$

Numărul de produse defecte fabricate de al doilea lucrător pe tură este supus următoarei legi de distribuție.

$\begin(matrice)(|c|c|)
\hline
Numărul de \ defecte \ produse \ y & 0 & 1 \\
\hline
Probabilitate & 0,7 & 0,3 \\
\hline
\end(matrice)$

Să găsim legea de distribuție a numărului de produse defecte realizate de doi lucrători pe schimb.

Fie variabila aleatoare $X$ numărul de articole defecte fabricate de primul muncitor pe tură și $Y$ numărul de articole defecte fabricate de al doilea muncitor pe tură. Prin presupunere, variabilele aleatoare $X,\ Y$ sunt independente.

Numărul de articole defecte produse de doi lucrători pe schimb este o variabilă aleatorie $X+Y$. Valorile sale posibile sunt $0,\1$ și $2$. Să găsim probabilitățile cu care variabila aleatoare $X+Y$ își ia valorile.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\dreapta) =0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ sau\ X=1,\ Y=0\right)=P\left(X=0\dreapta) )P\stanga(Y=1\dreapta)+P\stanga(X=1\dreapta)P\stanga(Y=0\dreapta)=0,8\cdot 0,3+0,2\cdot 0,7 =0,38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\dreapta)P\left(Y=1\dreapta) =0,2\cdot 0,3=0,06.$

Apoi legea distribuției numărului de produse defecte fabricate de doi lucrători pe tură:

$\begin(matrice)(|c|c|)
\hline
Număr de \ defecte \ articole & 0 & 1 & 2 \\
\hline
Probabilitate & 0,56 & 0,38 & 0,06 \\
\hline
\end(matrice)$

În exemplul anterior, am efectuat o operație pe variabile aleatoare $X,\ Y$ și anume, am găsit suma lor $X+Y$. Să dăm acum o definiție mai riguroasă a operațiilor (adunare, diferență, înmulțire) pe variabile aleatoare și să dăm exemple de soluții.

Definiția 1. Produsul $kX$ al variabilei aleatoare $X$ de valoare constantă$k$ este o variabilă aleatoare care ia valorile $kx_i$ cu aceleași probabilități $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\right)$.

Definiția 2. Suma (diferența sau produsul) variabilelor aleatoare $X$ și $Y$ este o variabilă aleatoare care ia toate valorile posibile de forma $x_i+y_j$ ($x_i-y_i$ sau $x_i\cdot y_i$) , unde $i=1 ,\ 2,\dots ,\ n$, cu probabilitățile $p_(ij)$ ca variabila aleatoare $X$ să ia valoarea $x_i$ și $Y$ valoarea $y_j$:

$$p_(ij)=P\stânga[\left(X=x_i\dreapta)\left(Y=y_j\dreapta)\dreapta].$$

Deoarece variabilele aleatoare $X,\ Y$ sunt independente, atunci prin teorema înmulțirii probabilității pentru evenimente independente: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\right) )= p_i\cdot p_j$.

Exemplul 3 . Variabilele aleatoare independente $X,\ Y$ sunt date de propriile lor legi de distribuție a probabilității.

$\begin(matrice)(|c|c|)
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(matrice)$

$\begin(matrice)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(matrice)$

Să compunem legea de distribuție a variabilei aleatoare $Z=2X+Y$. Suma variabilelor aleatoare $X$ și $Y$, adică $X+Y$, este o variabilă aleatoare care ia toate valorile posibile de forma $x_i+y_j$, unde $i=1,\ 2,\ puncte ,\ n$ , cu probabilități $p_(ij)$ ca variabila aleatoare $X$ să ia valoarea $x_i$ și $Y$ valoarea $y_j$: $p_(ij)=P\left[\left( X=x_i\dreapta)\stanga(Y=y_j\dreapta)\dreapta]$. Deoarece variabilele aleatoare $X,\ Y$ sunt independente, atunci prin teorema înmulțirii probabilității pentru evenimente independente: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\right) )= p_i\cdot p_j$.

Deci, are legi de distribuție pentru variabile aleatoare $2X$ și, respectiv, $Y$.

$\begin(matrice)(|c|c|)
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(matrice)$

$\begin(matrice)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(matrice)$

Pentru comoditatea de a găsi toate valorile sumei $Z=2X+Y$ și probabilitățile acestora, vom compila un tabel auxiliar, în fiecare celulă din care vom plasa în colțul din stânga valorile sumei $ Z=2X+Y$, iar în colțul din dreapta - probabilitățile acestor valori obținute ca urmare a înmulțirii probabilităților valorilor corespunzătoare ale variabilelor aleatoare $2X$ și $Y$.

Ca rezultat, obținem distribuția $Z=2X+Y$:

$\begin(matrice)(|c|c|)
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end(matrice)$