Statystyka matematyczna/Wprowadzenie do rozkładów zmiennych losowych

Z Wikibooks, biblioteki wolnych podręczników.
Statystyka matematyczna
Statystyka matematyczna
Wprowadzenie do rozkładów zmiennych losowych

Licencja
Autor: Mirosław Makowiecki
Absolwent UMCS Fizyki Komputerowej Uniwersytetu Marii Curie-Skłodowskiej w Lublinie
Email: miroslaw(kropka)makowiecki(małpa)gmail(kropka)pl
Dotyczy: książki, do której należy ta strona, oraz w niej zawartych stron i w nich podstron, a także w nich kolumn, wraz z zawartościami.
Użytkownika książki, do której należy ta strona, oraz w niej zawartych stron i w nich podstron, a także w nich kolumn, wraz z zawartościami nie zwalnia z odpowiedzialności prawnoautorskiej nieprzeczytanie warunków licencjonowania.
Umowa prawna: Creative Commons: uznanie autorstwa, na tych samych warunkach, z możliwością obowiązywania dodatkowych ograniczeń.
Autor tej książki dołożył wszelką staranność, aby informacje zawarte w książce były poprawne i najwyższej jakości, jednakże nie udzielana jest żadna gwarancja, czy też rękojma. Autor nie jest odpowiedzialny za wykorzystanie informacji zawarte w książce, nawet jeśli wywołaby jakąś szkodę, straty w zyskach, zastoju w prowadzeniu firmy, przedsiębiorstwa lub spółki bądź utraty informacji, niezależnie czy autor (a nawet Wikibooks) został powiadomiony o możliwości wystąpienie szkód. Informacje zawarte w książce mogą być wykorzystane tylko na własną odpowiedzialność.


Zauważmy, że w wyniku doświadczenia uzyskujemy n liczb, które podlegają pewnym rozkładom, na razie bliżej nieokreślone, ale dzięki którym możemy wyliczyć gęstość prawdopodobieństwa uzyskania tychże wyników.

Rozkłady statystyczne[edytuj]

Rozkłady statystyczne - są to rozkłady jakim podlegają pewne losowe wartości, nazywane kolejno , gdzie i jest: numerem zmiennej k podlegającej temu rozkładowi - gdy rozkład jest dyskretny, lub k(x) - gdy rozkład jest ciągły względem argumentu x.

Każdej wartości losowej podlegają pewne momenty statystyczne, tj.: γk, gdzie k jest numerem momentu statystycznego.

Szczególnym momentem statystycznym jest zerowy moment statystyczny, tj.: γ0=1, czyli normowanie funkcji do jedynki, a także jego moment statystyczny o numerze jeden γ1=0, z którego możemy wyznaczyć średnią E(x) dla rozkładu ciągłego lub dyskretnego. Wariancja jest momentem statystycznym rzędu drugiego V(x)=σ2.
Gdzie:

σ jest to odchylenie standardowym danego zespołu pomiarów.

Ogólnie momenty statystyczne mogą być dyskretne lub ciągłe. W kolejnych rozdziałach omówiono ich wzory.

Prawdopodobieństwo lub gęstość prawdopodobieństwa[edytuj]

Dla zmiennej skokowej (dyskretnej) A, prawdopodobieństwo określa się jako stosunek liczby zdarzeń tegoż zdarzenia przez liczbę wszystkich zdarzeń w zbiorze Ω, które są w pewnym układzie statystycznym, wzór na tą wielkość przedstawia się według:

(2.1)

Gdzie:

jest to moc A, czyli liczba elementów w zbiorze A, inaczej zajście tego zdarzenia
jest to liczba wszystkich zdarzeń zachodzących w zbiorze .

Dla zmiennej ciągłej prawdopodobieństwo zajścia jakiegokolwiek zdarzenia dąży do zera, czyli . Wówczas ze wzoru (2.1) wynika oczywiście: , a więc w tym przypadku należy zamienić pojęcie prawdopodobieństwa przez pojęcie gęstości prawdopodobieństwa. Oczywiste jest, że gęstość prawdopodobieństwa ma właśnie wtedy sens dla zmiennej typu ciągłego. Definiujemy tą wielkość się jako stosunek prawdopodobieństwa zdarzenia z przedziału (x,x+dx) przez wielkość dx:

(2.2)

Natomiast dla funkcji wielu zmiennych, czyli gdy badamy jakie jest prawdopodobieństwo uzyskania n zmiennych jednocześnie , którą to elementy tegoż wektora są w postaci ciągłej, gdzie ogólnie:

jest to element w n wymiarowej przestrzeni zdarzeń,

to gęstość prawdopodobieństwa definiujemy jako iloraz nieskończenie małego prawdopodobieństwa zdarzenia z przedziału dla poszczególnej współrzędnej naszego wektora , dla i=1,..,n przez infinitezymalną objętość w którym znajdują się ten nasz obiekt opisywanej przy pomocy podanego tutaj przedziału zmienności naszej zmiennej podanej wcześniej w tym tekście.

(2.3)

Gdzie:

jest to objętość w przestrzeni n wymiarowej, w której liczymy infinitezymalne prawdopodobieństwo zajścia zdarzenia A, które jest równe .

Gęstość prawdopodobieństwa jest to pochodna dystrybuanty względem n-wymiarowej objętości, w której znajdują się te zdarzenia, jak się później przekonamy w późniejszych podrozdziałach.

Widzimy, że w przypadku dyskretnym jest sens stosować zwykłe prawdopodobieństwo zdarzenia (2.1), ale w przypadku ciągłym już gęstość prawdopodobieństwa zdarzenia dla jednej zmiennej stosujemy wzór (2.2) (przestrzeń jednowymiarowa) lub wzór dla "n" zmiennych stosujemy tożsamość (2.3) (przestrzeń n-wymiarowa).

Rozkłady losowe jednej zmiennej[edytuj]

Będziemy zajmować się tutaj rozkładami losowymi, dyskretnymi lub ciągłymi, zależącymi od jednej zmiennej.

Dystrybuanta i prawdopodobieństwo uzyskania jednej zmiennej losowej[edytuj]


Prawdopodobieństwem uzyskania zmiennej losowej jednej zmiennej nazywamy możliwość uzyskania tejże zmiennej w doświadczeniu.

Dystrybuantą nazywamy prawdopodobieństwo uzyskania zmiennej losowej w doświadczeniu z pewnego przedziału różnie określanego dla zmiennej losowej dyskretnej lub ciągłej, których definicje podamy poniżej.

Zmienna losowa dyskretna[edytuj]

Dla zmiennej losowej dyskretnej kolejne zdarzenia numerujemy od i=0 do i=n, zatem dystrybuantę dla zmiennej losowej dyskretnej definiujemy jako prawdopodobieństwo zdarzenia, że otrzymamy elementy w naszym doświadczeniu o numerach . Dystrybuantę określamy za pomocą sumy prawdopodobieństw uzyskania elementu xi o numerach podanych wcześniej:

(2.4)

Dystrybuantę dla zmiennej losowej dyskretnej zdarzenia przeciwnego określamy, korzystając przy czym ze wzoru dystrybuantę zdarzeń o numerach i=0 do i=n (2.4):

(2.5)

Dystrybuanta dla zdarzenia przeciwnego - jest to prawdopodobieństwo uzyskania zmiennych losowych przeciwnych do zdarzenia xi o numerach w przedziału , czyli dla zdarzeń o numerach .

Należy zauważyć, że wielkość n może być zarówno skończona jak i nieskończona, dla zmiennej losowej jednej zmiennej.

Prawdopodobieństwo uzyskania zmiennej xi o numerze "i" jest różnicą dystrybuant dla argumentu "i" oraz dla argumentu "i-1", definicja jego jest:

(2.6)

Widzimy, że ze wzoru (2.6) prawdopodobieństwo danego zdarzenia można określić za pomocą definicji dystrybuant.

Zmienna losowa ciągła[edytuj]

Dystrybuantę dla zmiennej losowej ciągłej jednowymiarowej x, definiujemy jako całkę gęstości prawdopodobieństwa (2.2) dla przedziału zmienności argumentu "x" z przedziału określonego (a,b), którą określa się:

(2.7)

Dystrybuanta dla parametru c - jest to prawdopodobieństwo zajścia zdarzenia z przedziału .

Korzystając ze wzoru na dystrybuantę (2.7) dystrybuantę dla zdarzenia przeciwnego ciągłego określamy jako prawdopodobieństwo zajścia zdarzeń dla przedziału, gdy liczba "x" jest większa od liczby "c":

(2.8)

Zatem dystrybuanta dla zdarzenia przeciwnego określa prawdopodobieństwo zdarzenia przeciwnego do , czyli dla zdarzenia .

Gęstością prawdopodobieństwa nazywamy pochodną dystrybuanty względem argumentu zdarzenia "x":

(2.9)

Widzimy, że w powyższym wzorze różnica dystrybuant dla x+dx i x, czyli F(x+dx)-F(x) jest nieskończenie małym prawdopodobieństwem zdarzenia "x", czyli dP(x). Iloraz różnicy dystrybuant określonych we wzorze (2.9) przez różniczkę dx jest to gęstość prawdopodobieństwa zdarzenia "x".

Normowanie, wartość oczekiwana, wariancja[edytuj]


Normowanie rozkładu zmiennej losowej dyskretnej lub ciągłej nazywamy zdarzeniem pewnym uzyskania jakiejkolwiek zmiennej losowej. Wartość oczekiwana, to średnia arytmetyczna uzyskanych danych doświadczalnych dla dużej ilości doświadczeń. Wariancja jest to średnie odchylenie kwadratowe uzyskanych wyników pomiarów.

Zmienna losowa dyskretna[edytuj]

Normowanie funkcji prawdopodobieństwa dla zmiennej typu dyskretnego jest napisane wedle równania poniżej jako sumę prawdopodobieństw wszystkich możliwych zdarzeń, o wszystkich możliwych "i" w zbiorze Ω.

(2.10)

Normowanie do jedynki określa prawdopodobieństwa zdarzeń jakichkolwiek możliwych w przestrzeni zdarzeń , a więc prawdopodobieństwo zdarzenia się jakiegokolwiek zdarzenia jest pewne (tzn. zdarzy się na pewno).

Wartość oczekiwana - jest to średnia wartość, jaką można uzyskać w doświadczeniu w skutek dużej ilości wykonanych doświadczeń, jest definiowana jako sumę iloczynu zdarzenia xi przez prawdopodobieństwo jego uzyskania P(xi).

(2.11)

Wariancją nazywamy średnim kwadratowym odchyleniem zmiennych pomiarów xi, czyli jest to wartość oczekiwana (2.11), ale dla zmiennej (xi-E(x))2.

(2.12)

Wariancja dla zmiennej losowej dyskretnej określa średnie kwadratowe odchylenie od wartości średniej dla bardzo dużej ilości pomiarów, podlegających rozważanemu rozkładowi.

Zmienna losowa ciągła[edytuj]

Normowanie funkcji prawdopodobieństwa dla zmiennej typu ciągłego jest napisane wedle równania poniżej jako całkę gęstości prawdopodobieństw wszystkich możliwych zdarzeń ciągłych zachodzących w zbiorze Ω.

(2.13)

Normowanie do jedynki określa prawdopodobieństwa zdarzeń jakichkolwiek możliwych w przestrzeni zdarzeń Ω, a więc prawdopodobieństwo zdarzenia się jakiegokolwiek zdarzenia jest pewne (tzn. zdarzy się na pewno). Wartość oczekiwana - jest to średnia wartość, jaką można uzyskać w doświadczeniu w skutek dużej ilości wykonanych doświadczeń, jest definiowana ona jako całka iloczynu zdarzenia "x" przez gęstość prawdopodobieństwa jego uzyskania ρ(x) liczona względem zmiennej x.

(2.14)

Wariancją nazywamy średnim kwadratowym odchyleniem zmiennej pomiarów "x" podniesiony do kwadratu, czyli jest to wartość oczekiwana (2.14), ale dla zmiennej (x-E(x))2.

(2.15)

Wariancja dla zmiennej ciągłej losowej określa średnią kwadratową odchylenie od wartości średniej, jakie można uzyskać w doświadczeniu, podlegającej rozkładowi ρ(x).

Wartość modalna[edytuj]


W rozkładzie funkcji jednej zmiennej, wartość modalna, to wartość najbardziej prawdopodobna, zwana też modą. Gdy funkcja gęstości prawdopodobieństwa posiada jedno ekstremum, to rozkład nazywamy jedno modalnym.

Modę możemy wyznaczyć dla zmiennej typu ciągłego jednej zmiennej przy pomocy dwóch wzorów na warunek konieczny istnienia ekstremum i wystarczającym:

(2.16)

Dla zmiennej typu dyskretnego wyznaczamy wartość modalną przez sprawdzenie, dla jakiego funkcja prawdopodobieństwa przyjmuje wartość największą z możliwych ze wszystkich zdarzeń losowych.

Mediana, kwantyle i kwartyle[edytuj]


Mediana jest to wartość x w rozkładzie funkcji jednej zmiennej, dla której dystrybuanta (2.4) (rozkład zmiennej losowej dyskretnej) lub (2.7) (rozkład zmiennej losowej ciągłej) przyjmuje wartość połowy jedynki:

(2.17)

Kwartylami dystrybuanty nazywamy te wielkości x0,25, x0,75, dla których dystrybuanta kolejno przyjmuje wartości 0,25, 0,75:

 oraz dla 
(2.18)

Kwantylami nazywamy dystrybuanty nazywamy te wielkości xr, dla których dystrybuanta przyjmuje wartość "r".

(2.19)
  • gdzie xr są to wielkości x0,1, x0,2,...,x0,9.

Rozkład jednostajny[edytuj]


Określmy rozkład zmiennej losowej typu ciągłego, dla którego gęstość prawdopodobieństwa przedstawia w zależności od parametru c przedstawia się:

(2.20)

Rozkład (2.20) nazywany jest rozkładem jednostajnym.

Uwzględniając warunek na unormowanie funkcji f(x) (2.13), wtedy całkę normującą możemy napisać całkując tą naszą funkcję w przedziale (a,b), bo ona w tym przedziale przyjmuje wartość stałą niezerową. Dla pozostałych przedziałów wspomnianej funkcji gęstości prawdopodobieństwa nie wnosi nic do całki poniżej:

Ponieważ nasz rozkład w postaci unormowanej dla całki normującej (powyżej), która powinna przyjmować wartość jeden, zatem stąd można będzie wyznaczyć parametr "c", wtedy na podstawie tegoż parametru gęstość prawdopodobieństwa rozkładu jednostajnego (2.20) piszemy wedle postaci:


   oraz
(2.21)

Dystrybuanta dla tego samego rozkładu wychodząc od wzoru (2.7) przy definicji gęstości prawdopodobieństwa (2.21) piszemy wedle sposobu:

(2.22)

Policzmy teraz wartość średnią zmiennej ciągłej x wychodząc od wzoru (2.14) przy definicji gęstości prawdopodobieństwa f(x).

Wariancja zmiennej x, wychodząc najpierw od wzoru (2.15) przy gęstości prawdopodobieństwa zdefiniowanej wedle wzoru (2.21) jest:


(2.23)

Rozkład Cauchy'ego[edytuj]

(Rys. 2.1) Gęstość prawdopodobieństwa rozkładu Cauchy'ego (góra) oraz model prowadzący do tego rozkładu (dół)

Jest to rozkład jednorodny o niezerowej gęstości prawdopodobieństwa jedynie w przedziale kątowym:

(2.24)

Z jednorodności gęstości prawdopodobieństwa i długości przedziału (2.24) wynika postać tejże funkcji gęstości prawdopodobieństwa w tymże przedziale: .

Wybierzmy oś x, względem której możemy określać kąty θ i napiszemy go przeliczający z wielkości, która jest kątem θ na wartość "x", który mówi coś o położeniu cząstki, gdy odległość naszego punktu od osi iksowej według rysunku obok wynosi jeden.

(2.25)

Biorąc pochodną funkcji (2.25) względem argumentu ciągłęgo x:

(2.26)

Gęstość prawdopodobieństwa uzyskania zmiennej x przez jakąś cząstkę o promieniu wodzącym o wartości jeden względem jego gęstości prawdopodobienstwa względem kąta θ, czyli f(θ), którą to określamy:

(2.27)

Sprawdźmy czy napisany rozkład zmiennej losowej "x" ciągłej (2.27) jest rozkładem unormowanym:

(2.28)

Policzmy teraz wartość oczekiwaną funkcji gęstości prawdopodobieństwa g(x) (2.27) względem jej położenia iksowego:

(2.29)

Uwzględniliśmy w obliczeniach (2.29) fakt, że funkcja podcałkowa jest nieparzysta. zatem średnie położenie cząstki jest więc równe zero.

Teraz policzmy wariancję wychodząc od wzoru (2.15) względem gęstości prawdopodobieństwa (2.27):

(2.30)

Przy liczeniu wariancji skorzystaliśmy z zależności ze funkcja arctg(x) ma kres dolny oraz górny.

posiada wartość skończoną w nieskończonościach, którą odejmujemy od nieskończonego x, stąd otrzymaliśmy nieskończoną wartość wariancji (2.30).

Wariancja, a więc i odchylenie standardowe, funkcji (2.30) dąży do nieskończoności. Wtedy mówimy, że wariancja dla rozkładu Cauchy'ego nie istnieje. Funkcja gęstości prawdopodobieństwa (2.27), w którym przyjmuje wartość maksymalną dla x=0 i wynosi . Połowę swej wartości posiada w punktach x=-1 i x=1, zatem szerokość połówkowa jest napisana wedle:

Rozkład Lorentza (Breita-Wignera)[edytuj]

Rozkład Lorentza inaczej Breita-Wignera jako rozkład gęstości prawdopodobienstwa zmiennej losowej ciagłej zapisujemy wględem argumentu "a", która jest wartością średnią tegoż rozkładu, i względem parametru Γ, który jest szerokością połówkową tego rozważanego rozkładu.

(2.31)

Rozkład (2.31) przechodzi w rozkład Cauchego (2.27), gdy i . Sprawdźmy czy rozkład Breita-Wignera (2.31) jest unormowany wychodząc od wzoru normującego (2.13) przy gęstości prawdopodobieństwa (2.31).


(2.32)

Rozważana funkcja jak oczekiwaliśmy jest unormowana do jedynki.

Wyznaczmy średnią wartość zmiennej losowej "x" dla rozkładu Lorentza (2.31) wychodząc od wzoru (2.14):


(2.33)

Średnia wartość zmiennej losowej podlegającej wedle rozkładu Breita-Wignera jest równy liczbie "a" występującej we wzorze (2.31), tak jak oczekiwaliśmy. Wyznaczmy wariancję wychodząc od wzoru (2.15) przy definicji rozkładu Lorentza wedle obliczeń poniżej:



(2.34)

Wariancja wedle rozkładu Breita-Wignera jest równa nieskończoność, co oznacza, że w wyniku losowania zmienną losowej można znaleźć w całej nieskończonej przestrzeni, którego średni pomiar nieskończonej ilości pomiarów wynosi "a". Rozkład Breita-Wignera przyjmuje wartość maksymalną dla , i wartość rozkładu Breita-Wignera dla tego punktu jest równa , funkcja g(x) dla której przyjmuje wartość równą połowie jej wartości maksymalnej, gdy zachodzi warunek , co udowodnimy poniżej:

(2.35)

Co jest połówkową wartością wartości maksymalnej, zatem wtedy możemy policzyć szerokość połówkową naszego rozkładu:

(2.36)

Udowodniliśmy, że szerokość połówkowa rozważanego rozkładu wynosi Γ, tak jak przypuszczaliśmy.

Rozkłady losowe dwóch zmiennych[edytuj]

Dystrybuanta i gęstość prawdopodobieństwa[edytuj]

Jeśli dolnym zakresem zmiennej x jest a, oraz dolnym zakresem zmiennej y jest c, to dystrybuantę zmiennych losowych ciągłych ze względu na oba parametry określamy jako całkę gęstości prawdopodobieństwa ρ(x,y) dla argumentu "x" z przedziału (a,x) oraz dla argumentu y z przedziału (c,y) względem argumentu iksowego i igrekowego:

(2.37)

Zwykle przy naszych założeniach mamy, że wielkości a i c sa równe minus nieskończoność, ale nie zawsze tak jest. Wiemy jednak, że dystrybuanta wedle wzoru (2.37) dla argumentów x=a i y=c wynosi zero:

 dla  i 
(2.38)

Dla dwóch zmiennych, gęstość prawdopodobieństwa uzyskania jednocześnie zmiennych x i y jest podwójną pochodną względem zmiennych x i y funkcji F(x,y) (dystrybuanty), w którym w mianowniku jest to infinitezymalne prawdopodobieństwo znalezienia zmiennej x i y w przedziale (prostokącie): , :

(2.39)

Prawdopodobieństwo uzyskania zmiennych x i y w prostokącie i , określa się jako podwójną całę względem gęstości prawdopodobieństwa (2.39) całkując względem argumentu x i y w określonym wcześniej przedziale.

(2.40)

Jeśli przecałkujemy po całkowitym obszarze zmiennej y, tzn. (c,d), otrzymamy wtedy gęstość prawdopodobieństwa uzyskania zmiennej x należącej do przedziału (a,b), tzn.

(2.41)

Podobnie uzyskujemy prawdopodobieństwo znalezienia zmiennej y należących do przedziału (c,d), gdy przecałkujemy funkcję (2.39) po całym zmienności zmiennej x.

(2.42)

Prawdopodobieństwo uzyskania zmiennej x w podprzedziale (a0,b0) należących do przedziału całej zmienności tejże zmiennej (a,b) określa się dla dowolnego y z przedziału (c,d), całkując funkcję (2.39) po całym przebiegu zmienności zmiennej y i po określonym podprzedziale iksowym:

(2.43)

Podobnie określamy prawdopodobieństwo uzyskania zmiennej y w przedziale (c0,d0).

Normowanie, wartość oczekiwana, wariancja[edytuj]

Normowaniem rozkładu dwóch zmiennych nazywamy zdarzeniem pewnym, który jest równy na pewno jeden. Przepis normowania funkcji zapisujemy jako całkę gęstości prawdopodobieństwa g(x,y) całkując względem argumentu x i y po całym ich przebiegu zmienności.

(2.44)

Wartością oczekiwaną zmiennej x nazywamy przepis, który jest całką po całym przebiegu zmienności zmiennych x i y, w którym funkcją podcałkową jest równa iloczynowi zmiennej x i gęstości prawdopodobieństwa ρ(x,y). Tą całkę przestawmy względem gęstości prawdopodobieństwa zmiennej "x" określonym wzorem (2.41).

(2.45)

Wartością oczekiwaną zmiennej x nazywamy przepis, który jest całką po całym przebiegu zmienności zmienne x i y, w którym funkcją podcałkową jest iloczyn zmiennej y i gęstości prawdopodobienstwa ρ(x,y). Tą całkę przestawiamy względem gęstości prawdopodobieństwa zmiennej "y" określonym wzorem (2.41).

(2.46)

Wariancją zmiennej x nazywamy wartość oczekiwaną z funkcji , jest to średnia kwadratowa zmiennej wielkości odchylenia od jego wartości oczekiwanej, w którym ta całka jest całkowaniem po całej przedziale zmienności zmiennej "x" i "y".

(2.47)

Wariancją zmiennej y nazywamy wartość oczekiwaną z funkcji , jest to średnia kwadratowa zmiennej wielkości odchylenia od jego wartości oczekiwanej, w której całka jest całkowaniem po całej przedziale zmienności zmiennej "x" i "y".

(2.48)

Rozkłady losowe n-zmiennych[edytuj]

Dystrybuanta i gęstość prawdopodobieństwa[edytuj]

Określmy n-wymiarowy wektor, którego składowymi jest n-zmiennych i które są pomiarami losowymi zmiennych składowych ciągłych

(2.49)

przy czym poszczególne elementy wektora spełniają związek przynależności do zbioru liczb rzeczywistych: . n-wymiarowy wektor wchodzi w skład gęstości prawdopodobieństwa uzyskania n-składowych tego wspomnianego wektora.

Dystrybuantę określamy jako całkę gęstości prawdopodobieństwa względem argumentu x1, x2,...,x3, całkując po przedziale zmienności x1<c1,x2<c2,...,xn<cn:

(2.50)

Gęstością prawdopodobieństwa uzyskania n-zmiennych nazywamy funkcję, która jest pochodną cząstkową n zmiennych, tzn. względem argumentu x1, x2,...,xn, zatem:

(2.51)

Jak widzimy, wzory (2.50) i (2.51) są uogólnieniem wzorów kolejno (2.7) (dystrybuanta jednej zmiennej losowej ciągłej) oraz (2.9) (gęstość prawdopodobieństwa jednej zmiennej) dla dwóch zmiennych.

Gęstość uzyskania tylko zmiennej xk określa się podobnie jak przy wzorach dla gęstość prawdopodobieństwa uzyskania zmiennej "x", gdy mamy funkcję gęstości prawdopdobieństwa dwóch zmiennych (2.41) i (2.42):

(2.52)

Prawdopodobieństwo uzyskania zmiennych w wymiarowym prostokącie dla którego zachodzą warunki ck≤ xk≤ dk wyraża się przez:

(2.53)

Normowanie, wartość oczekiwana, wariancja[edytuj]

Normowanie funkcji nazywamy zdarzenie pewne uzyskania jakikolwiek zmiennej, która jest wektorem (2.49) i która jest równa jeden, i nazywamy całkę gęstości funkcji prawdopodobieństwa z funkcji f(x1,x2,...,xn) liczoną względem tychże argumentów po całym przedziale zmienności zmiennych xi dla i=1,2,...,n.

(2.54)

Wartością oczekiwaną zmiennej xk nazywamy liczoną po całym przedziale zmienności wektora (2.49), w którym funkcją podcałkową jest iloczyn gęstości prawdopodobieństwa f(x1,x2,...,xn) i zmiennej xk.

(2.55)

Wariancją zmiennej losowej ciągłej xk w przestrzeni n-wymiarowej nazywamy całkę po całej zmienności wektora (2.49), w której funkcją podcałkową jest iloczyn funkcji prawdopodobieństwa f(x1,x2,...,xn) i zmiennej , czyli jest to średnia tejże podanej funkcji:

(2.56)