Czym jest prawdopodobieństwo w prostych słowach
Intuicyjna definicja prawdopodobieństwa
Prawdopodobieństwo opisuje, jak bardzo coś jest możliwe. W kontekście prostych doświadczeń losowych, takich jak rzut monetą czy rzut kostką, prawdopodobieństwo można traktować jako ułamek:
- licznik – ile wyników nas interesuje,
- mianownik – ile jest wszystkich możliwych wyników, które uznajemy za jednakowo prawdopodobne.
Jeśli rzut monetą ma dwa możliwe wyniki: orzeł lub reszka, a zakładamy, że moneta jest uczciwa, to szansa na orła wynosi:
P(orzeł) = 1 / 2.
To samo można zapisać w postaci procentowej 50% lub jako liczbę dziesiętną 0,5. Te trzy zapisy oznaczają dokładnie to samo prawdopodobieństwo.
Zakres wartości prawdopodobieństwa
Prawdopodobieństwo mieści się zawsze w przedziale:
- 0 – zdarzenie niemożliwe (nie może się zdarzyć),
- 1 – zdarzenie pewne (zawsze się zdarzy).
Każde realistyczne zdarzenie losowe ma prawdopodobieństwo między 0 a 1, np. 0,25; 0,06; 0,99. Przekształcając:
- 0,25 = 25%,
- 0,06 = 6%,
- 0,99 = 99%.
Jeżeli w wyniku obliczeń pojawia się liczba mniejsza od 0 albo większa od 1, oznacza to błąd w rozumowaniu lub w rachunkach. Dla zdarzeń losowych, takich jak rzuty monetą i kostką, nie ma prawdopodobieństw typu 1,3 czy −0,2.
Przestrzeń zdarzeń – czyli o wszystkich możliwościach naraz
Kluczowym pojęciem jest przestrzeń zdarzeń elementarnych (częściej mówi się po prostu: zbiór wszystkich możliwych wyników). Dla pojedynczego rzutu:
- monetą – mamy dwa wyniki: {orzeł, reszka},
- kostką sześcienną – mamy sześć wyników: {1, 2, 3, 4, 5, 6}.
Każdy z tych wyników nazywa się zdarzeniem elementarnym. Jeżeli przyjmujemy, że wszystkie zdarzenia elementarne są jednakowo prawdopodobne, można użyć prostego wzoru:
P(A) = liczba wyników sprzyjających zdarzeniu A / liczba wszystkich możliwych wyników.
Na tej zasadzie buduje się całe rachunki prawdopodobieństwa dla kostek, monet i prostych gier losowych.
Moneta – najprostszy model prawdopodobieństwa
Uczciwa moneta i podstawowe wyniki
Moneta ma dwa możliwe wyniki: orzeł (O) i reszka (R). Dla uczciwej monety:
- P(O) = 1/2 = 0,5 = 50%,
- P(R) = 1/2 = 0,5 = 50%.
Razem daje to 100%:
P(O) + P(R) = 1/2 + 1/2 = 1.
Ta zasada jest uniwersalna: suma prawdopodobieństw wszystkich możliwych wyników danego doświadczenia losowego zawsze równa się 1 (czyli 100%). Jeśli w modelu czegoś „brakuje”, to znaczy, że nie opisano wszystkich możliwości.
Wielokrotne rzuty monetą – podstawowe przykłady
Przy dwóch rzutach uczciwą monetą liczba wszystkich możliwych sekwencji wyników wynosi 4, bo przy każdym rzucie są 2 możliwości. Można to rozpisać:
- O O,
- O R,
- R O,
- R R.
Wszystkie sekwencje są jednakowo prawdopodobne. Każda ma szansę:
P(konkretnej sekwencji) = 1/4 = 0,25 = 25%.
Jeśli interesuje nas zdarzenie „dokładnie jeden orzeł w dwóch rzutach”, trzeba policzyć, w ilu sekwencjach występuje dokładnie jeden O:
- O R – jeden orzeł,
- R O – jeden orzeł.
Dwie sekwencje na cztery, więc:
P(dokładnie jeden orzeł) = 2/4 = 1/2 = 0,5.
Trzy i więcej rzutów monetą – rośnie liczba kombinacji
Dla trzech rzutów uczciwą monetą liczba wszystkich możliwych sekwencji wynosi 2³ = 8. Można je wypisać:
- O O O,
- O O R,
- O R O,
- R O O,
- O R R,
- R O R,
- R R O,
- R R R.
Każda sekwencja pojawia się z takim samym prawdopodobieństwem, czyli 1/8. Gdy chcemy policzyć szanse na zdarzenia typu „co najmniej dwa orły” albo „dokładnie jeden orzeł”, wystarczy zliczyć odpowiednie sekwencje.
Przykład: zdarzenie „dokładnie dwa orły”:
- O O R,
- O R O,
- R O O.
Mamy trzy sekwencje na osiem. Otrzymujemy:
P(dokładnie dwa orły) = 3/8 = 0,375 = 37,5%.
Niezależność kolejnych rzutów monetą
Wielu początkujących zaskakuje, że kolejne rzuty uczciwą monetą są niezależne. Oznacza to, że:
- wynik poprzedniego rzutu nie wpływa na wynik następnego,
- prawdopodobieństwo orła przy każdym rzucie zawsze wynosi 1/2,
- nawet jeżeli dziesięć razy pod rząd wypadł orzeł, to przy kolejnym rzucie szansa na orła wciąż wynosi 1/2.
Popularne złudzenie nazywane jest „błędem hazardzisty”. Polega na przeświadczeniu, że „teraz musi wypaść reszka, bo tyle razy był orzeł”. W krótkich seriach to czysta iluzja – moneta „nie pamięta” poprzednich rzutów.
Kostka sześcienna – klasyczny przykład prawdopodobieństwa
Uczciwa kostka i zdarzenia elementarne
Standardowa kostka do gry ma 6 ścian oznaczonych liczbami od 1 do 6. Zakładając, że kostka jest uczciwa, wszystkie wyniki są jednakowo prawdopodobne, więc:
- P(1) = 1/6,
- P(2) = 1/6,
- P(3) = 1/6,
- P(4) = 1/6,
- P(5) = 1/6,
- P(6) = 1/6.
Suma prawdopodobieństw wszystkich wyników daje 1:
1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 = 6/6 = 1.
Proste zdarzenia z kostką – parzystość, przedziały, porównania
Zamiast jednego konkretnego wyniku często interesują nas zdarzenia złożone, np. „liczba parzysta” albo „wynik większy od 4”. Wtedy liczymy, ile wyników sprzyja danemu zdarzeniu.
Przykłady:
- Zdarzenie A: „wypadnie liczba parzysta”
Liczby parzyste na kostce: 2, 4, 6. Mamy 3 wyniki sprzyjające na 6 wszystkich.
P(A) = 3/6 = 1/2 = 0,5. - Zdarzenie B: „wypadnie liczba większa od 4”
Liczby większe od 4: 5, 6. Mamy 2 wyniki na 6.
P(B) = 2/6 = 1/3 ≈ 0,333. - Zdarzenie C: „wypadnie liczba mniejsza lub równa 3”
Liczby spełniające warunek: 1, 2, 3. Mamy 3 wyniki na 6.
P(C) = 3/6 = 1/2.
Wzór pozostaje zawsze ten sam: P(zdarzenia) = liczba wyników sprzyjających / liczba wszystkich wyników.
Dwa rzuty kostką – przestrzeń wyników rośnie wykładniczo
Przy dwóch rzutach uczciwą kostką, liczba wszystkich możliwych par wyników wynosi 6 × 6 = 36. Każda para (np. (2,5), (6,1)) jest jednakowo prawdopodobna. Tę sytuację dobrze opisuje prosta tabela.
| Pierwsza kostka Druga kostka | 1 | 2 | 3 | 4 | 5 | 6 |
|---|---|---|---|---|---|---|
| 1 | (1,1) | (1,2) | (1,3) | (1,4) | (1,5) | (1,6) |
| 2 | (2,1) | (2,2) | (2,3) | (2,4) | (2,5) | (2,6) |
| 3 | (3,1) | (3,2) | (3,3) | (3,4) | (3,5) | (3,6) |
| 4 | (4,1) | (4,2) | (4,3) | (4,4) | (4,5) | (4,6) |
| 5 | (5,1) | (5,2) | (5,3) | (5,4) | (5,5) | (5,6) |
| 6 | (6,1) | (6,2) | (6,3) | (6,4) | (6,5) | (6,6) |
Każda para odpowiada jednemu zdarzeniu elementarnemu. Z takiej tabeli można łatwo wyczytać prawdopodobieństwa bardziej skomplikowanych zdarzeń: suma oczek, identyczne wyniki, różne wyniki itd.
Prawdopodobieństwo danej sumy oczek przy dwóch kostkach
Bardzo często interesuje nas suma oczek przy rzucie dwiema kostkami. Poszczególne sumy od 2 do 12 nie są jednakowo prawdopodobne. Najłatwiej zobaczyć to, licząc kombinacje.
| Suma oczek | Liczba kombinacji | Prawdopodobieństwo | ||||||||
|---|---|---|---|---|---|---|---|---|---|---|
| 2 | (1,1) | 1/36 | ||||||||
| 3 | (1,2), (2,1) | 2/36 = 1/18 | ||||||||
| 4 | (1,3), (2,2), (3,1) | 3/36 = 1/12 | ||||||||
| 5 | (1,4), (2,3), (3,2), (4,1) | 4/36 = 1/9 | ||||||||
| 6 | (1,5), (2,4), (3,3), (4,2), (5,1) | 5/36 | ||||||||
| 7 | (1,6), (2,5), (3,4), (4,3), (5,2), (6,1) | 6/36 = 1/6 | ||||||||
| 8 | (2,6), (3,5), (4,4), (5,3), (6,2) | 5/36 | ||||||||
| 9 | (3,6), (4,5), (5,4), (6,3) | 4/36 = 1/9 | ||||||||
| 10 | (4,6), (5,5), (6,4) | 3/36 = 1/12 | ||||||||
| 11 | (5,6Prawdopodobieństwo danej sumy oczek – dokończenie tabeli
Najwięcej kombinacji daje suma 7, dlatego pojawia się najczęściej. Skrajne sumy (2 i 12) mają tylko po jednej kombinacji i są najrzadsze. Ten prosty wzór rozkładu prawdopodobieństwa pojawia się potem w wielu grach planszowych i hazardowych. Łączenie zdarzeń – „lub”, „i” oraz zdarzenia przeciwneZdarzenie przeciwne – „nie” w języku prawdopodobieństwaCzasem wygodniej policzyć szansę, że coś się nie wydarzy, zamiast bezpośrednio liczyć szansę zdarzenia, które nas interesuje. Pomaga wtedy zdarzenie przeciwne. Jeśli A jest jakimś zdarzeniem (np. „wyrzucę co najmniej jedno 6 przy trzech rzutach kostką”), to jego zdarzenie przeciwne Ac to „A nie zajdzie” (czyli „przy trzech rzutach nie wypadnie ani jedna 6”). Zawsze zachodzi:
P(A) + P(Ac) = 1 Przykład: trzy rzuty uczciwą kostką. Szukamy szansy na „co najmniej jedną 6”.
Liczenie „co najmniej jednej szóstki” bezpośrednio wymagałoby wylistowania wielu kombinacji. Zdarzenie przeciwne skraca drogę. Zdarzenia „lub” – suma zdarzeńKiedy mówimy „wypadnie 1 lub 2”, to interesują nas wszystkie wyniki, w których zachodzi jedno z tych zdarzeń (albo oba naraz). W języku rachunku prawdopodobieństwa mamy ogólną zasadę: P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Mniej symbolicznie: szansa na „A lub B” to suma szans na A i na B, ale trzeba odjąć szansę na „A i B jednocześnie”, aby nie liczyć jej podwójnie. Na prostych przykładach:
Zdarzenia „i” – iloczyn zdarzeńJeśli zdarzenia są niezależne, to szansa, że zajdą oba naraz, równa się iloczynowi ich prawdopodobieństw: Jeśli A i B są niezależne, to P(A ∩ B) = P(A) · P(B). Niezależność mamy np. dla kolejnych rzutów monetą, kolejnych rzutów kostką, czy też monety i kostki jednocześnie. Przykład:
To samo podejście działa w grach losowych, w prostych modelach ryzyka i w wielu codziennych sytuacjach, np. przy szacowaniu szans, że dwa niezależne błędy wystąpią w tym samym czasie. Ile sposobów? – pierwsze kroki z kombinatorykąLiczenie kombinacji przy rzutach monetąGdy liczba rzutów rośnie, ręczne wypisywanie wszystkich sekwencji staje się niewygodne. Wtedy pojawia się pytanie: ile jest sekwencji z określoną liczbą orłów? Pomaga tu prosty wzór kombinacyjny. Dla n rzutów monetą i k orłów liczba sekwencji z dokładnie k orłami to: C(n, k) = n! / (k! (n − k)!). Zastosujmy to do przykładu „dokładnie dwa orły w czterech rzutach”:
Każda konkretna sekwencja (np. O O R R lub R O R O) ma prawdopodobieństwo 1/16, bo 2⁴ = 16 wszystkich sekwencji. Stąd: P(dokładnie dwa orły w czterech rzutach) = C(4, 2) · (1/16) = 6/16 = 3/8. Ogólny wzór na „dokładnie k orłów w n rzutach”Mechanizm z poprzedniego przykładu uogólnia się: każda sekwencja z n rzutów jest jednakowo prawdopodobna (przy uczciwej monecie). Mamy 2ⁿ możliwych sekwencji. Liczba sekwencji z dokładnie k orłami to C(n, k), więc: P(dokładnie k orłów w n rzutach uczciwą monetą) = C(n, k) / 2ⁿ. Dla kilku konkretnych n i k:
„Co najmniej k orłów” – sumowanie kombinacjiPrzy zdarzeniach typu „co najmniej 2 orły” nie ma jednego prostego wyrażenia; trzeba zsumować odpowiednie przypadki. Przykład: „Co najmniej 2 orły w 4 rzutach” oznacza: 2 orły, 3 orły lub 4 orły. Zatem: P(≥ 2 orły) = P(dokładnie 2) + P(dokładnie 3) + P(dokładnie 4). Liczymy:
Suma: P(≥ 2 orły) = (6 + 4 + 1)/16 = 11/16 ≈ 0,6875. Można też użyć zdarzenia przeciwnego: „co najmniej 2 orły” to przeciwieństwo „0 lub 1 orzeł”. Wtedy: P(≥ 2) = 1 − (P(0) + P(1)). Oba podejścia prowadzą do tego samego wyniku, wybór jest kwestią wygody. Modele gier losowych – od kostki i monety do prostych zakładówProsty zakład z monetą – czy to się „opłaca”?Wyobraźmy sobie grę: rzut uczciwą monetą, jeśli wypadnie orzeł, wygrywasz 2 zł, jeśli reszka – tracisz 1 zł. Formalnie każda z dwóch możliwości ma szansę 1/2, ale opłacalność gry wymaga spojrzenia na wartość oczekiwaną. Oznaczmy wypłatę (zysk ze znakiem plus, strata ze znakiem minus) jako X. Mamy:
Wartość oczekiwana to „średni” zysk na jedną grę w bardzo długiej serii rozgrywek: E(X) = 2 · (1/2) + (−1) · (1/2) = 1 − 0,5 = 0,5. W dłuższej perspektywie ta gra jest korzystna: średnio zarabiasz 0,5 zł na partię. To prosty model wielu realnych decyzji – np. czy warto przyjąć określony „zakład” w życiu codziennym, gdy konsekwencje pozytywne i negatywne nie są symetryczne. Prosty zakład z kostką – jak policzyć uczciwą wypłatęDrugi przykład: rzucasz uczciwą kostką. Jeśli wypadnie 6, wygrywasz S zł, w przeciwnym razie tracisz 1 zł. Szukamy takiej kwoty S, żeby gra była „uczciwa”, czyli miała wartość oczekiwaną równą zero.
Wymagamy: E(X) = S · (1/6) + (−1) · (5/6) = 0. Rozwiązując: S/6 = 5/6 → S = 5. Jeżeli wygrana za wyrzucenie 6 wynosi dokładnie 5 zł, gra jest uczciwa w sensie matematycznym: w długim okresie ani nie tracisz, ani nie zyskujesz. ![]() Błędy intuicji – typowe pułapki przy kostkach i monetachMylenie „prawdopodobne” z „najczęstsze w krótkiej serii”Dla trzech rzutów monetą najbardziej prawdopodobna liczba orłów to 1 lub 2 (oba przypadki mają to samo prawdopodobieństwo 3/8). To jednak nie oznacza, że przy trzech konkretnych rzutach „prawie na pewno” zobaczymy jednego lub dwa orły. Cała reszta wyników (0 lub 3 orły) ma łączną szansę 2/8 = 1/4 – też całkiem sporą. „Najbardziej prawdopodobne” nie znaczy „gwarantowane” ani nawet „prawie pewne”. To tylko etykieta dla wyniku z najwyższym udziałem w rozkładzie. Mieszanie częstości z prawdopodobieństwemKtoś może trzykrotnie rzucić kostką i nie zobaczyć ani jednej 6. Wyciągnięcie wniosku „prawdopodobieństwo 6 jest mniejsze niż 1/6” byłoby nadużyciem. W krótkich seriach wyniki potrafią bardzo odbiegać od modelu. Rachunek prawdopodobieństwa mówi o zachowaniu w dłuższej perspektywie: przy dużej liczbie rzutów częstości poszczególnych wyników zbliżają się do teoretycznych prawdopodobieństw. To tzw. prawo wielkich liczb – jeden z fundamentów statystyki i ubezpieczeń, ale również wszelkich długotrwałych gier losowych. Łączenie różnych losowości – moneta i kostka jednocześnieWspólny model dla dwóch niezależnych doświadczeńMożna jednocześnie rzucić monetą i kostką. Z matematycznego punktu widzenia powstaje nowe doświadczenie losowe, którego wynik składa się z dwóch części: wyniku monety i wyniku kostki. Przestrzeń wyników wygląda tak:
Łącznie mamy 2 · 6 = 12 możliwych par (np. (O,1), (O,2), …, (R,6)), wszystkie jednakowo prawdopodobne. Każda para ma szansę 1/12. Przykładowe zdarzenia z monety i kostkiZ takiego modelu można budować różne zdarzenia, np.:
Budowanie własnych zdarzeń złożonychWspólna przestrzeń „moneta + kostka” pozwala praktycznie poćwiczyć operowanie zdarzeniami. Można definiować je słownie, a potem tłumaczyć na zbiory par wyników. Przykład dwóch nowych zdarzeń: Rozpiszmy to na konkrety: Tego typu rozpisywanie na konkretne pary świetnie utrwala intuicję: widać, co dokładnie kryje się pod słownym opisem zdarzenia. „Lub”, „i” oraz przeciwieństwo w jednym przykładzieNa wspólnej przestrzeni można w jednym zadaniu połączyć wszystkie poznane wcześniej operacje na zdarzeniach. Zdefiniujmy: Najpierw wymieńmy pary: Teraz: Zdarzenie przeciwne do E, oznaczane E′, to „nie zaszło E”, czyli żadna reszka i żadna liczba parzysta. Zatem: E′ = „orzeł i liczba nieparzysta” = {(O,1), (O,3), (O,5)} → P(E′) = 3/12 = 1/4. Równość P(E) + P(E′) = 3/4 + 1/4 = 1 daje prostą kontrolę, czy nic nie zostało pominięte. Proste rozkłady prawdopodobieństwa – od kostki do sumy dwóch kostekRównomierny rozkład dla jednej kostkiJedna uczciwa kostka to klasyczny przykład rozkładu jednostajnego na skończonym zbiorze. Każdy wynik od 1 do 6 ma tę samą szansę: Jeżeli interesuje nas dowolne zdarzenie, np. „liczba ≥ 4”, po prostu sumujemy odpowiednie prawdopodobieństwa: P(4) + P(5) + P(6) = 3/6 = 1/2. Suma dwóch kostek – dlaczego 7 wypada najczęściej?Przy dwóch kostkach każdy z 36 uporządkowanych wyników jest jednakowo prawdopodobny (1/36). Suma oczek nie ma jednak rozkładu jednostajnego – część wartości pojawia się częściej, część rzadziej. Dla sumy S można wypisać wszystkie pary (pierwsza kostka, druga kostka), które dają ten wynik: Z tego od razu widać prawdopodobieństwa: Najczęściej występuje suma 7, bo ma najwięcej kombinacji, które do niej prowadzą. Taki „trójkątny” rozkład sumy dwóch kostek pojawia się w wielu grach planszowych – to on sprawia, że niektóre pola odwiedza się znacznie częściej niż inne. Prawdopodobieństwo przedziału sum – przykład praktycznyCzęsto interesuje nie konkretny wynik, ale zakres, np. „suma co najmniej 9”. Korzystamy z wyliczenia powyżej: P(S ≥ 9) = P(9) + P(10) + P(11) + P(12) = (4 + 3 + 2 + 1)/36 = 10/36 = 5/18. Analogicznie można policzyć szanse, że „suma będzie bardziej skrajna” (blisko 2 lub 12) w porównaniu do „umiarkowanej” (blisko 7). Warunkowe spojrzenie na kostki i monetyPrawdopodobieństwo warunkowe – co się zmienia po dodatkowej informacji?Pewne zdarzenia zmieniają swój sens, kiedy pojawia się nowa informacja. Do opisu używa się prawdopodobieństwa warunkowego, oznaczanego P(A | B) – szansa A przy założeniu, że B już zaszło. Formalnie: P(A | B) = P(A ∩ B) / P(B) (o ile P(B) > 0). Przykład z jedną kostką – „wiadomo, że wypadła liczba parzysta”Rzucamy uczciwą kostką. Nie widzisz wyniku, ale ktoś informuje: „wypadła liczba parzysta”. Jakie jest teraz prawdopodobieństwo, że jest to 6? Zdarzenia: Parzyste wyniki to {2,4,6}, więc: Stąd: P(A | B) = (1/6) / (1/2) = 1/3. Przed informacją B (nic nie wiemy) szansa na 6 wynosiła 1/6. Po informacji „wynik jest parzysty” prawdopodobieństwo skacze do 1/3, bo pozostają tylko trzy możliwe liczby, wszystkie równouprawnione: 2,4,6. Przykład z dwiema kostkami – informacja o sumie lub o jednym z rzutówZałóżmy, że rzucamy dwie uczciwe kostki. Wiemy, że suma oczek wyniosła 7. Jakie jest teraz prawdopodobieństwo, że na pierwszej kostce jest 4? Dla sumy 7 mieliśmy sześć par: (1,6), (2,5), (3,4), (4,3), (5,2), (6,1). Pierwsza kostka równa 4 pojawia się tylko w parze (4,3). Zatem: czyli: P(pierwsza kostka = 4 | suma = 7) = 1/6. Inna wariacja: wiadomo, że na pierwszej kostce wypadła liczba parzysta. Jakie jest prawdopodobieństwo, że suma obu kostek wynosi co najmniej 9? Oznaczmy: Parzysta pierwsza kostka: 2,4,6. Możemy spojrzeć na wszystkie 18 par (3 możliwości na pierwszej kostce × 6 na drugiej), sukcesem są tylko te z sumą ≥ 9. Rozpisanie: Łącznie 2 + 4 = 6 korzystnych par wśród 18 możliwych przy założeniu, że pierwsza kostka jest parzysta. Zatem: P(F | B) = 6/18 = 1/3. Prostsze niż wygląda: niezależność i zależność w praktyceNiezależne doświadczenia – klasyczny przypadek: moneta i kostkaJeśli zdarzenia dotyczą różnych, niezależnych losowań (np. rzut monety i rzut kostką), to dodatkowa informacja o jednym z nich nie zmienia prawdopodobieństw drugiego. Przykład: P(A) = 1/2, P(B) = 2/6 = 1/3. Wiedza, że B zaszło (np. ktoś pokazuje kostkę z wynikiem 5 lub 6) nie wpływa na monetę: P(A | B) = P(A) = 1/2. To jest właśnie formalne ujęcie intuicji „to, co pokazuje moneta, nie ma nic wspólnego z tym, co pokaże kostka”. Zależne doświadczenia – losowanie bez zwracaniaProsty kontrprzykład niezależności: losowanie z małej puli bez zwracania. Przykładowo w pudełku są 2 czerwone i 1 niebieska kulka. Losujemy dwie kule kolejno, bez odkładania. Przy pierwszym losowaniu: Jeśli w pierwszym losowaniu wypadła czerwona, to przy drugim zostały 1 czerwona i 1 niebieska – szanse się zmieniają: To prosty model, na którym widać, że czasami kolejne zdarzenia wpływają na siebie. W grach karcianych, przy losowaniu uczniów z grupy czy przy analizie awarii elementów w małym systemie ten typ zależności pojawia się stale. Od kostki do schematu Bernoulliego – wiele prób, dwa wynikiSeria niezależnych prób z dwoma wynikamiNajczęściej zadawane pytania (FAQ)Co to jest prawdopodobieństwo w prostych słowach?Prawdopodobieństwo to liczba opisująca, jak bardzo dane zdarzenie jest możliwe. W najprostszym ujęciu to ułamek: w liczniku liczymy wyniki, które nas interesują, a w mianowniku – wszystkie możliwe wyniki, które uznajemy za jednakowo prawdopodobne. Na przykład przy rzucie uczciwą monetą mamy dwa możliwe wyniki: orzeł i reszka. Szansa na orła to 1 z 2 możliwości, czyli P(orzeł) = 1/2 = 0,5 = 50%. Jaki jest zakres wartości prawdopodobieństwa i co oznaczają liczby 0 i 1?Prawdopodobieństwo zawsze mieści się w przedziale od 0 do 1. Wartość 0 oznacza zdarzenie niemożliwe (nie może się zdarzyć), a wartość 1 oznacza zdarzenie pewne (zawsze się zdarzy). Wszystkie realne zdarzenia losowe, takie jak rzuty kostką czy monetą, mają prawdopodobieństwo między 0 a 1, na przykład 0,25 (25%), 0,06 (6%) czy 0,99 (99%). Jeżeli w obliczeniach wychodzi liczba mniejsza od 0 lub większa od 1, to znaczy, że popełniono błąd w rozumowaniu lub rachunkach. Jak obliczyć prawdopodobieństwo przy rzucie monetą?Przy jednym rzucie uczciwą monetą mamy dwa jednakowo możliwe wyniki: orzeł (O) i reszka (R). Prawdopodobieństwo każdego z nich wynosi P(O) = 1/2 i P(R) = 1/2, co można zapisać też jako 0,5 lub 50%. Przy wielu rzutach liczymy wszystkie możliwe sekwencje wyników. Przykładowo przy dwóch rzutach mamy 4 sekwencje (OO, OR, RO, RR). Każda ma prawdopodobieństwo 1/4. Jeśli interesuje nas zdarzenie „dokładnie jeden orzeł”, to sprzyjają mu sekwencje OR i RO, czyli 2 z 4: P = 2/4 = 1/2. Czy wynik poprzedniego rzutu monetą wpływa na następny?W przypadku uczciwej monety kolejne rzuty są niezależne. Oznacza to, że wynik poprzedniego rzutu nie ma żadnego wpływu na wynik następnego – moneta „nie pamięta” historii. Dlatego nawet jeśli orzeł wypadł już 10 razy z rzędu, to przy kolejnym rzucie prawdopodobieństwo orła nadal wynosi 1/2. Przekonanie, że „teraz musi wypaść reszka, bo tyle razy był orzeł”, to tzw. błąd hazardzisty. Jak obliczyć prawdopodobieństwo zdarzeń z kostką do gry?Standardowa uczciwa kostka ma 6 ścian z liczbami 1–6. Każdy wynik ma prawdopodobieństwo 1/6. Jeśli interesuje nas zdarzenie złożone, zliczamy, ile wyników je spełnia, a następnie dzielimy przez 6. Przykłady: Jak policzyć prawdopodobieństwo sumy oczek przy rzucie dwiema kostkami?Przy rzucie dwiema uczciwymi kostkami mamy 6 × 6 = 36 jednakowo możliwych par wyników (np. (1,1), (2,5), (6,3)). Aby policzyć prawdopodobieństwo danej sumy, trzeba wypisać wszystkie pary, które dają tę sumę, policzyć ich liczbę i podzielić przez 36. Na przykład: suma 7 może pojawić się jako (1,6), (2,5), (3,4), (4,3), (5,2), (6,1) – to 6 kombinacji, więc P(suma 7) = 6/36 = 1/6. Suma 2 to tylko (1,1), więc P(suma 2) = 1/36. Co to jest przestrzeń zdarzeń i po co się ją definiuje?Przestrzeń zdarzeń (zbiór zdarzeń elementarnych) to po prostu lista wszystkich możliwych wyników doświadczenia losowego. Dla jednego rzutu monetą jest to {orzeł, reszka}, a dla jednego rzutu kostką – {1, 2, 3, 4, 5, 6}. Znając wszystkie możliwe wyniki i przyjmując, że są jednakowo prawdopodobne, możemy stosować podstawowy wzór: P(A) = (liczba wyników sprzyjających A) / (liczba wszystkich wyników). Na tej prostej zasadzie opiera się rachunek prawdopodobieństwa w zadaniach z monetami, kostkami i prostymi grami losowymi. Kluczowe obserwacje |







