Statystyka matematyczna/Momenty statystyczne w działaniu

Z Wikibooks, biblioteki wolnych podręczników.
Przejdź do nawigacji Przejdź do wyszukiwania
Statystyka matematyczna
Statystyka matematyczna
Momenty statystyczne w działaniu

Licencja
Autor: Mirosław Makowiecki
Absolwent UMCS Fizyki Komputerowej Uniwersytetu Marii Curie-Skłodowskiej w Lublinie
Email: zegarek(myślnik)odmierza(myślnik)czas(małpa)wp(kropka)pl
Dotyczy: książki, do której należy ta strona, oraz w niej zawartych stron i w nich podstron, a także w nich kolumn, wraz z zawartościami.
Użytkownika książki, do której należy ta strona, oraz w niej zawartych stron i w nich podstron, a także w nich kolumn, wraz z zawartościami nie zwalnia z odpowiedzialności prawnoautorskiej nieprzeczytanie warunków licencjonowania.
Umowa prawna: Creative Commons: uznanie autorstwa oraz miejsca pochodzenia książki i jej jakikolwiek części, a także treści, teksty, tabele, wykresy, rysunki, wzory i inne elementy oraz ich części zawarte w książce, i tą książkę, nawet w postaci przerobionej nie można umieszczać w jakikolwiek formie na czasopismach naukowych, archiwach prac, itp.
Autor tej książki dołożył wszelką staranność, aby informacje zawarte w książce były poprawne i najwyższej jakości, jednakże nie udzielana jest żadna gwarancja, czy też rękojma. Autor nie jest odpowiedzialny za wykorzystanie informacji zawarte w książce nawet jeśli wywołaby jakąś szkodę, straty w zyskach, zastoju w prowadzeniu firmy, przedsiębiorstwa lub spółki bądź utraty informacji niezależnie, czy autor (a nawet Wikibooks) został powiadomiony o możliwości wystąpienie szkód. Informacje zawarte w książce mogą być wykorzystane tylko na własną odpowiedzialność.


Będziemy się posługiwać momentami statystycznymi i wykonywać na nich działania.

Działania na wartościach oczekiwanych[edytuj]

Poniżej pokażemy, jakie są właściwości sumy czy różnicy, a nawet iloczynu wartości oczekiwanych oraz jakie są warunki by takowe działania zachodziły w przypadku ostatniego działania.

Suma wartości oczekiwanych[edytuj]

Określmy czemu jest równa wartość oczekiwana sumy argumentów x i y. Zmienna x należy do przedziału (a,b), a zmienna y należy do przedziału (c,d). Wartość oczekiwana sumy argumentów x i y, jak w przypadku wartości oczekiwanych dla dwóch argumentów definiujemy tutaj względem funkcji złożonej H(x,y)=x+y, zatem według wzoru na wartość oczekiwaną dwóch zmiennych (4.13).

(5.1)

Mając gęstość uzyskania jednocześnie zmiennej x i y, czyli f(x,y) możemy policzyć gęstość prawdopodobieństwa uzyskania zmiennej x, czyli g(x) określamy według wzoru (2.41), a gęstość uzyskania zmiennej y, czyli h(y) określamy według wzoru (2.42), zatem mając definicję tychże gęstości i podstawiamy je do wzoru (5.1):

(5.2)

Po skorzystaniu z definicji wartości oczekiwanych zmiennej x lub y wedle przepisu (4.13), ostatecznie otrzymujemy że wartość oczekiwana sumy dwóch zmiennych jest równa sumie wartości oczekiwanych tychże samych argumentów.

(5.3)

Analogicznie jak przy dowodzie schematu (5.3) wartość oczekiwana różnicy argumentów x i y jest równa różnicy wartości oczekiwanych tychże samych argumentów:

(5.4)

Gdy we wzorze (5.4) zachodzi y=x, to wtedy otrzymujemy, że wartość oczekiwana z liczby zero jest liczbą zero.

(5.5)

Podstawiając we wzorze (5.4) za zmienną x liczbę zero i wykorzystując własność (5.5), otrzymujemy że wartość oczekiwana jest funkcją nieparzystą.

(5.6)

Iloczyn wartości oczekiwanych[edytuj]

Określmy iloczyn wartości oczekiwanych. Załóżmy, że mamy dwa niezależne zdarzenia, wtedy gęstość prawdopodobieństwa uzyskania wyników x i y jest równa iloczynowi gęstości prawdopodobieństwa uzyskania tychże samych wyników.

(5.7)

Niech naszą funkcją złożoną będzie H(x,y)=xy, to zgodnie z (4.13) oraz ze wzorem na niezależne zdarzenia (5.7) i jeśli dodatkowo przyjmować będziemy wzory na gęstość uzyskania zmiennej x lub y względem gęstości uzyskania jednocześnie dwóch wyników (2.41) i (2.42), wtedy otrzymujemy wzór na wartość oczekiwaną iloczynu dwóch argumentów, która jak się dowiemy dla zmiennych niezależnych jest równa iloczynowi wartości oczekiwanych dla tychże samych zmiennych:

(5.8)

Wzór wynikający z obliczeń (5.8) możemy przepisać dla przejrzystości wykładu:

(5.9)

Wariancja, współczynnik korelacji, transformacje liniowe[edytuj]

Odchylenie standardowe i wariancja to podstawowe wielkości w statystyce matematycznej, pozwalają określić, jaki błąd popełniliśmy w doświadczeniu, oraz czy wyniki uzyskane w doświadczeniu są zależne od innych wyników (tu mowa o kowariancji).

Kowariancja dwóch zmiennych[edytuj]

Kowariancję dwóch zmiennych typu dyskretnego x i y, gdy ich wartościami oczekiwanymi są kolejno i , definiujemy wedle wzoru (4.32), gdy prawdopodobieństwo uzyskania tychże wyników jest P(xi,yi):

(5.10)

Dla zmiennych typu losowego ciągłego wzór (4.32) na kowariancję, gdy gęstość uzyskania dwóch wyników x i y jest równe h(x,y), piszemy:

(5.11)

Ogólnie, oba te przypadki losowych wartości, dyskretnych bądź ciągłych, można zapisać jako wartość oczekiwana wyrażenia (x-x0)(y-y0), ale tylko dla dwóch zmiennych:

(5.12)

Można powiedzieć, że kowariancja jest wartością oczekiwaną (4.13), gdy funkcją złożoną jest:

(5.13)

Kowariancja dwóch niezależnych wyników w doświadczeniu[edytuj]

Zdefiniujmy f(x) jako gęstość prawdopodobieństwa uzyskania wyniku x, a także g(x) jako gęstość prawdopodobieństwa uzyskania wyniku y, wówczas prawdopodobieństwo uzyskania tychże wyników dla dwóch niezależnych zdarzeń określa się wzorem (5.7).

Dla zmiennych niezależnych typu ciągłego można udowodnić z definicji jedynkowego momentu statystycznego zmiennej x lub y, czyli (3.10) względem ich wartości oczekiwanych lub , która jest zawsze równa zero, stąd dochodzimy do wniosku, że ta kowariancja dwóch zdarzeń w tym przypadku jest równa zero, zatem można by powiedzieć, że w takim razie te dwa pomiary są niezależne od siebie.


(5.14)

W ten sposób otrzymujemy, że dla dwóch niezależnych zdarzeń (uzyskania wyników) kowariancja jest równa zero, czyli ostatecznie:

(5.15)

Wariancja kombinacji liniowej dwóch zmiennych[edytuj]

Wyznaczmy wariancję sumy kombinacji liczb x i y. Obliczenia przeprowadzimy wykorzystując ze wzorów skróconego mnożenia i z wartości oczekiwanych sumy zdarzeń (5.3) oraz definicji wariancji (3.14) i ostatecznie z definicji kowariancji dla dwóch zmiennych (5.12):


(5.16)

Wzór wynikający z obliczeń (5.16) możemy przepisać dla przejrzystości wykładu w formie:

(5.17)

Współczynnik korelacji[edytuj]

Definicja współczynnika korelacji wygląda jako iloraz kowariancji zmiennej x i y przez iloczyn odchyleń standardowych pomiarowych tych samych zmiennych:

(5.18)

Obliczenia z użyciem współczynnika korelacji[edytuj]

Użyjemy zredukowanych zmiennych, która jest ilorazem odchylenia od wartości oczekiwanej zmiennej x przez odchylenie standardowe tej samej zmiennej

(5.19)

Z własności podstawienia (5.19) wnioskujemy, że wartość oczekiwana tej samej zmiennej jest taka jak udowodnimy, że jest równa zero, co nie powinno nas dziwić:

(5.20)

Natomiast wariancja wartości zmiennej rozważanej zmiennej u, przy czym wykorzystując tożsamość (5.17), jest równa jeden, jak udowodnimy poniżej.

(5.21)

Powyżej skorzystaliśmy, że wariancja z wartości oczekiwanej jest równa zero, również kowariancja, w której jedna ze zmiennej jest wartością oczekiwaną również też jest równa zero. Korzystając z dowodu wariancji (5.21), a także z tożsamości (5.17) i na końcu z definicji współczynnika korelacji (5.18), wtedy można napisać, że wariancja sumy zmiennych u i v, którego definicje są według (5.19), można jak udowodnić, tą wielkość przedstawić wedle sposobu:

(5.22)

W przypadku wariancji różnicy tychże argumentów, co poprzednio możemy otrzymać wzór bardzo podobny do tożsamości (5.22), ale trochę w innej postaci:

(5.23)

Ponieważ dowolna wariancją jest funkcją nieujemną. Z dwóch tożsamości (5.22) i (5.23) otrzymujemy własność dla współczynnika korelacji:

(5.24)

Można wykazać, że współczynnika korelacji w zmiennych u i v zdefiniowanych w punkcie (5.19) jest równa współczynnikowi korelacji, ale w zmiennych x i y, a oto dowód tej tożsamości

(5.25)

Dla zmiennych zależnych według pewnej funkcji y=f(x), ale tym razem określmy, że te zmienne zależą w sposób liniowy wedle:

(5.26)

Zatem na podstawie zależności (5.26) możemy policzyć współczynnik kowariancji wedle schematu:

(5.27)

Również otrzymujemy, że wariancja zmiennej y, która się zmienia według funkcji liniowej (5.26), jest ona określona według wyprowadzenia:

(5.28)

Z obliczeń (5.28) możemy wyznaczyć odchylenie standardowe zmiennej y, biorąc pierwiastek obu stron wspomnianej tożsamości:

(5.29)

Zatem funkcja korelacji, dla y zależnego liniowo od x, według (5.27) zależy od odchylenia standardowego zmiennej y (5.29) oraz z definicji odchylenia standardowego zmiennej x, wtedy dostajemy, że liczona wspomniana wielkość jest:

(5.30)

Dodatkowo mamy ρ(x,y)=0, gdy a=0.

Czyli gdy ρ(x,y)=1, to funkcja liniowa (5.26) jest rosnąca, tzn. a>0, ale następnie gdy zachodzi ρ(x,y)=-1 ta sama funkcja liniowa jest teraz malejąca, bo wtedy mamy a<0. Natomiast, gdy jeszcze zachodzi dla współczynnika korelacji ρ(x,y)=0, wtedy ta nasza funkcja liniowa jest funkcją stałą, bo a=0.

Transformacje liniowe i ortogonalne[edytuj]

Wiemy, że każdą funkcję można przetransformować pewnymi transformacjami liniowymi wokół pewnego punktu, a więc zakładamy, że mamy , która jest wielkością wektorową, którą można przetransformować pewnymi funkcjami liniowymi względem argumentu , według wzoru poniżej:

(5.31)

Można udowodnić z transformacji (5.31), że współczynniki tij można zapisać jako pochodne cząstkowe zmiennej yi względem argumentu xj:

(5.32)

Macierzowa postać wzoru na zmienną yi względem argumentu xj, lub ogólniej przy wektorze względem wektora argumentu , przedstawia się wedle:

(5.33)

Powyższy zapis można przedstawić w bardziej uproszczony sposób macierzowy, przy czym używając macierzy T, którego elementy są zdefiniowane w punkcie (5.32):

(5.34)

Aby uzyskać wartość oczekiwaną zmiennej y, korzystamy z wzoru (5.34) zastępując wszystkie zmienne w wspomnianym wzorze ich wartościami oczekiwanymi, względem wartości oczekiwanej wektora x i "y", ostatecznie otrzymując:

(5.35)

Ogólnie, gdy chcemy policzyć kowariancję zmiennej x i y, tzn. czy oba zdarzenia są zależne od siebie, wtedy należy wykorzystać ze wzoru na macierzową postać kowariancji napisanej wedle tożsamości (4.34). Wzory (5.34) i (5.35) podstawiamy do wzoru na kowariancję, wtedy dostajemy wyrażenie na kowariancję zmiennej y.


(5.36)

Na podstawie definicji kowariancji zmiennej x, czyli (4.34), możemy zapisać jak zależy kowariancja zmiennej y względem kowariancji zmienne x, gdy macierz transformacji w przekształceniu (5.33) jest T:

(5.37)

Jeśli mamy n zmiennych, które nie zależą od siebie, to wyrazy pozadiagonalne są równe od zero, czyli conv(x,y)=0, ale posiada tylko wyrazy diagonalne, które w ogólności są różne od zera i są równe wariancji poszczególnych zmiennych losowych.

Wiemy, jakie są elementy macierzy transformacji z do według wzoru (5.31), którego elementy są policzone według (5.32), stąd kowariancja wyniku wykorzystując przy tym przybliżenie wedle wzoru (5.31), którą jest funkcja liniowa wokół pewnego punktu względem małego wychylenia od tego elementu, zatem wariacja zmiennej yi przy zerowaniu się elementów kowariancji (elementów macierzy kowariancji pozadiagnoalnych), jeżeli mamy zmienne niezależne, jest napisana:

(5.38)

W doświadczeniach fizycznych przyjmuje się zwykle, że pierwiastek wariancji jest to odchylenie wyniku pomiarowego:

(5.39)

Jest to niepewność pomiarowa wyniku pomiaru zmiennej yi, obliczonej przez eksperymentatora na podstawie wyników doświadczeń.

Następny rozdział: Pobieranie próby Poprzedni rozdział: Momenty statystyczne dla funkcji złożonej

Podręcznik: Statystyka matematyczna