następny punkt »


1. CIĄGI ZMIENNYCH LOSOWYCH

W wykładach 7 i 8 analizowaliśmy sytuację zależności lub jej braku dla dwóch zmiennych losowych. Z reguły mamy jednak do czynienia z więcej niż dwiema zmiennymi. Tak jest na przykład w przypadku, gdy rejestrujemy wartości zakupów w supermarkecie dokonanych przez poszczególnych klientów (wartościami zmiennych są w tym przypadku kwoty wydane przez kolejnych klientów) lub tylko fakt czy klienci płacą gotówką czy kartą kredytową (możemy umówić się, że zapłatę kartą kredytową kodujemy jako "1" a gotówką jako "0"). W takiej sytuacji obserwujemy wartości x1,...,xn n zmiennych losowych X1,...,Xn, gdzie n jest liczbą klientów, którzy dokonali zakupów. Zauważmy, że faktycznie w tym przypadku wygodnie jest wyobrażać sobie, że mamy do czynienia z wielkościami losowymi X1,...,Xn - nie jesteśmy bowiem w stanie z góry przewidzieć ile zostawi w kasie kolejny klient ani czy zapłaci kartą kredytową. Podobnie jak w rozdziale 7 definiujemy funkcję gęstości łącznej X1,...,Xn i funkcję prawdopodobieństwa łącznego f(x1,...,xn). W drugim z rozpatrywanych przykładów funkcja prawdopodobieństwa łącznego jest po prostu przyporządkowaniem prawdopodobieństw wszystkim ciągom zerojedynkowym o długości n. W obu przykładach sensowne jest przyjęcie, że zmienne losowe X1,...,Xn są niezależne, gdy dowolny podzbiór tych zmiennych o indeksach i1,...,ik gdzie k £ n składa się ze zmiennych niezależnych. Zmienne

są natomiast niezależne, gdy ich funkcja prawdopodobieństwa łącznego (lub funkcja gęstości) jest iloczynem funkcji prawdopodobieństwa (lub gęstości) dla poszczególnych zmiennych. Tak sformułowana definicja odpowiada intuicyjnemu rozumieniu niezależności wielu zmiennych losowych.

Rozpatrzmy teraz sytuację, gdy zmienne X1,...,Xn przyjmują wartości rzeczywiste. Wtedy możemy wykonać na nich dowolne operacje algebraiczne, w szczególności policzyć ważoną sumę a1X1+a2X2+...+anXn. Oczywiście, wynik tej operacji jest zmienną losową. Stwierdzenia poniżej umożliwiają obliczenie jej wartości oczekiwanej i, w sytuacji gdy zmienne są niezależne, również jej wariancji.

Stwierdzenie

Dla dowolnych stałych a1, a2, ..., an:

E(a1X1+a2X2+...+anXn) = a1E(X1) + a2E(X2 )+ ... + anE(Xn)

Wniosek

Niech E(Xi) = m, i = 1,2,..,n, oraz

     

Wówczas

     

Dowód

Dla uzyskania dowodu wniosku przyjmujemy ai = 1/n, i = 1,2,..,n.

Stwierdzenie

Jeśli X1,...,Xn są niezależnymi zmiennymi losowymi, to

     Var(a1X1+a2X2+...+anXn) = a12Var(X1) + a22Var(X2) + ... + an2Var(Xn).

W szczególności, jeśli Var(Xi)=s 2 oraz ai = 1/n, i = 1,2,..,n, to

     

Zauważmy, że ze stwierdzenia wynika ważny wniosek: gdy zmienne mają wspólną średnią i wariancję, ich uśrednienie powoduje zmniejszenie rozrzutu dookoła wspólnej średniej. Dlatego bardziej precyzyjnym jest oszacowanie średniej na podstawie kilku niezależnych obserwacji niż na podstawie pojedynczego pomiaru.

Przykład

Dokonujemy n jednakowych, niezależnych doświadczeń Bernoulli'ego o prawdopodobieństwie sukcesu p, 0 < p < 1. Wynikiem i-tego doświadczenia może być rejestracja czy i-ty klient zapłacił kartą kredytową. Znaleźć wartość oczekiwaną i wariancję zmiennej losowej Sn będącej liczbą sukcesów.

Niech Xi = 1, gdy odnotowujemy sukces w i-tym doświadczeniu, Xi = 0, gdy odnotowujemy porażkę w i-tym doświadczeniu. Wówczas X1,...,Xn są niezależnymi zmiennymi losowymi o funkcjach prawdopodobieństwa:

     

Stąd:

     

Liczba sukcesów Sn = X1 + X2 + ... + Xn. Zatem

E(Sn) = E(X1 + X2 + ... + Xn) = E(X1) + E(X2) + ... + E(Xn) = n p.

Var(Sn) = Var(X1 + X2 + ... + Xn) = Var(X1) + Var(X2) + ... + Var(Xn) = n p (1- p).


 następny punkt »