następny punkt » |
W wykładach 7 i 8 analizowaliśmy sytuację zależności lub jej braku dla dwóch zmiennych losowych. Z reguły mamy jednak do czynienia z więcej niż dwiema zmiennymi. Tak jest na przykład w przypadku, gdy rejestrujemy wartości zakupów w supermarkecie dokonanych przez poszczególnych klientów (wartościami zmiennych są w tym przypadku kwoty wydane przez kolejnych klientów) lub tylko fakt czy klienci płacą gotówką czy kartą kredytową (możemy umówić się, że zapłatę kartą kredytową kodujemy jako "1" a gotówką jako "0"). W takiej sytuacji obserwujemy wartości x1,...,xn n zmiennych losowych X1,...,Xn, gdzie n jest liczbą klientów, którzy dokonali zakupów. Zauważmy, że faktycznie w tym przypadku wygodnie jest wyobrażać sobie, że mamy do czynienia z wielkościami losowymi X1,...,Xn - nie jesteśmy bowiem w stanie z góry przewidzieć ile zostawi w kasie kolejny klient ani czy zapłaci kartą kredytową. Podobnie jak w rozdziale 7 definiujemy funkcję gęstości łącznej X1,...,Xn i funkcję prawdopodobieństwa łącznego f(x1,...,xn). W drugim z rozpatrywanych przykładów funkcja prawdopodobieństwa łącznego jest po prostu przyporządkowaniem prawdopodobieństw wszystkim ciągom zerojedynkowym o długości n. W obu przykładach sensowne jest przyjęcie, że zmienne losowe X1,...,Xn są niezależne, gdy dowolny podzbiór tych zmiennych o indeksach i1,...,ik gdzie k £ n składa się ze zmiennych niezależnych. Zmienne
są natomiast niezależne, gdy ich funkcja prawdopodobieństwa łącznego (lub funkcja gęstości) jest iloczynem funkcji prawdopodobieństwa (lub gęstości) dla poszczególnych zmiennych. Tak sformułowana definicja odpowiada intuicyjnemu rozumieniu niezależności wielu zmiennych losowych.
Rozpatrzmy teraz sytuację, gdy zmienne X1,...,Xn przyjmują wartości rzeczywiste. Wtedy możemy wykonać na nich dowolne operacje algebraiczne, w szczególności policzyć ważoną sumę a1X1+a2X2+...+anXn. Oczywiście, wynik tej operacji jest zmienną losową. Stwierdzenia poniżej umożliwiają obliczenie jej wartości oczekiwanej i, w sytuacji gdy zmienne są niezależne, również jej wariancji.
Stwierdzenie
Dla dowolnych stałych a1, a2, ..., an:
E(a1X1+a2X2+...+anXn) = a1E(X1) + a2E(X2 )+ ... + anE(Xn)
Wniosek
Niech E(Xi) = m, i = 1,2,..,n, oraz
Wówczas
Dowód
Dla uzyskania dowodu wniosku przyjmujemy ai = 1/n, i = 1,2,..,n.
Stwierdzenie
Jeśli X1,...,Xn są niezależnymi zmiennymi losowymi, to
Var(a1X1+a2X2+...+anXn) = a12Var(X1) + a22Var(X2) + ... + an2Var(Xn).
W szczególności, jeśli Var(Xi)=s 2 oraz ai = 1/n, i = 1,2,..,n, to
Zauważmy, że ze stwierdzenia wynika ważny wniosek: gdy zmienne mają wspólną średnią i wariancję, ich uśrednienie powoduje zmniejszenie rozrzutu dookoła wspólnej średniej. Dlatego bardziej precyzyjnym jest oszacowanie średniej na podstawie kilku niezależnych obserwacji niż na podstawie pojedynczego pomiaru.
Przykład
Dokonujemy n jednakowych, niezależnych doświadczeń Bernoulli'ego o prawdopodobieństwie sukcesu
Niech Xi = 1, gdy odnotowujemy sukces w i-tym doświadczeniu, Xi = 0, gdy odnotowujemy porażkę w i-tym doświadczeniu. Wówczas X1,...,Xn są niezależnymi zmiennymi losowymi o funkcjach prawdopodobieństwa:
Stąd:
Liczba sukcesów Sn = X1 + X2 + ... + Xn. Zatem
E(Sn) = E(X1 + X2 + ... + Xn) = E(X1) + E(X2) + ... + E(Xn) = n p.
Var(Sn) = Var(X1 + X2 + ... + Xn) = Var(X1) + Var(X2) + ... + Var(Xn) = n p (1- p).
następny punkt » |