Schody.  Grupa wejściowa.  Przybory.  Drzwi.  Zamki  Projekt

Schody. Grupa wejściowa. Przybory. Drzwi. Zamki Projekt

» Akceptacja prawdopodobieństwa. Jak łączyć niezależne badania. Relacje między zdarzeniami. Przykłady

Akceptacja prawdopodobieństwa. Jak łączyć niezależne badania. Relacje między zdarzeniami. Przykłady

Główną koncepcją teorii prawdopodobieństwa jest koncepcja zdarzenia losowego. Losowe wydarzenie to zdarzenie, które może wystąpić lub nie, jeśli zostaną spełnione określone warunki. Przykładowo trafienie w konkretny obiekt lub chybienie przy strzelaniu do tego obiektu z danej broni jest zdarzeniem losowym.

Wydarzenie nazywa się niezawodny, jeżeli w wyniku badania koniecznie do tego dojdzie. Niemożliwe Nazywa się zdarzenie, które nie może wystąpić w wyniku testu.

Zdarzenia losowe nazywane są niezgodny w danej rozprawie, jeśli żadne z nich nie może stawić się razem.

Formularz zdarzeń losowych pełna grupa, jeżeli podczas każdej rozprawy może wystąpić którekolwiek z nich i nie może nastąpić żadne inne zdarzenie z nimi niezgodne.

Rozważmy całą grupę równie możliwych niezgodnych zdarzeń losowych. Takie zdarzenia nazwiemy wyniki lub zdarzenia elementarne. Wynik nazywa się korzystny wystąpienie zdarzenia $A$, jeżeli wystąpienie tego wyniku pociąga za sobą wystąpienie zdarzenia $A$.

Przykład. W urnie znajduje się 8 ponumerowanych kul (każda kula ma jedną liczbę od 1 do 8). Kule z numerami 1, 2, 3 są czerwone, pozostałe są czarne. Pojawienie się bili z numerem 1 (lub numerem 2 lub 3) jest zdarzeniem sprzyjającym pojawieniu się bili czerwonej. Pojawienie się bili z liczbą 4 (lub liczbą 5, 6, 7, 8) jest zdarzeniem sprzyjającym pojawieniu się bili czarnej.

Prawdopodobieństwo zdarzenia$A$ to stosunek liczby $m$ wyników korzystnych dla tego zdarzenia do całkowitej liczby $n$ wszystkich równie możliwych niezgodnych wyników elementarnych tworzących pełną grupę $$P(A)=\frac(m)( N). \quad(1)$$

Właściwość 1. Prawdopodobieństwo wiarygodnego zdarzenia jest równe jeden
Własność 2. Prawdopodobieństwo zdarzenia niemożliwego wynosi zero.
Własność 3. Prawdopodobieństwo zdarzenia losowego jest liczbą dodatnią z zakresu od zera do jeden.

Zatem prawdopodobieństwo dowolnego zdarzenia spełnia podwójną nierówność $0 \le P(A) \le 1$ .

Przydatne materiały

Kalkulatory internetowe

Duża liczba problemów rozwiązywanych za pomocą wzoru (1) dotyczy zagadnienia prawdopodobieństwa hipergeometrycznego. Poniżej znajdziesz opisy popularnych problemów oraz kalkulatory online do ich rozwiązań, korzystając z linków:

  • Problem z kulami (w urnie znajduje się $k$ białych i $n$ czarnych kul, wyjęto kule $m$...)
  • Problem z częściami (pudełko zawiera $k$ standardowych i $n$ wadliwych części, $m$ części są wyjęte...)
  • Problem z losami na loterię (w loterii jest losów o wartości $k$ wygrywających i n$, które nie wygrywają, kupowane są bilety o wartości $m$...)

Artykuły edukacyjne z przykładami

  • Jak znaleźć prawdopodobieństwo w problemach z rzutem monetą?

Przykłady rozwiązań prawdopodobieństwa klasycznego

Przykład. W urnie znajduje się 10 ponumerowanych kul o liczbach od 1 do 10. Wyjmujemy jedną kulę. Jakie jest prawdopodobieństwo, że liczba wylosowanych kul nie będzie większa niż 10?

Rozwiązanie. Niech wydarzenie A= (Liczba wylosowanej kuli nie przekracza 10). Liczba przypadków sprzyjających zaistnieniu zdarzenia A równa liczbie wszystkich możliwych przypadków M=N=10. Stąd, R(A)=1. Wydarzenie I niezawodny.

Przykład. W urnie znajduje się 10 kul: 6 białych i 4 czarne. Wyjęto dwie piłki. Jakie jest prawdopodobieństwo, że obie kule będą białe?

Rozwiązanie. Możesz usunąć dwie kule z dziesięciu na kilka sposobów: .
Ile razy pomiędzy tymi dwiema kulami znajdą się dwie białe kule, wynosi .
Wymagane prawdopodobieństwo
.

Przykład. W urnie znajduje się 15 kul: 5 białych i 10 czarnych. Jakie jest prawdopodobieństwo, że z urny wylosujemy kulę niebieską?

Rozwiązanie. A zatem w urnie nie ma niebieskich kul M=0, N=15. Dlatego wymagane prawdopodobieństwo R=0. Wydarzenie polegające na wylosowaniu niebieskiej kuli niemożliwe.

Przykład. Z talii 36 kart losujemy jedną kartę. Jakie jest prawdopodobieństwo, że pojawi się karta w kolorze kier?

Rozwiązanie. Liczba wyników elementarnych (liczba kart) N=36. Wydarzenie A= (Wygląd karty w kolorze serca). Liczba przypadków sprzyjających zaistnieniu zdarzenia A, M=9. Stąd,
.

jako kategoria ontologiczna odzwierciedla zakres możliwości pojawienia się dowolnego bytu w każdych warunkach. W przeciwieństwie do matematyczno-logicznej interpretacji tego pojęcia, matematyka ontologiczna nie wiąże się z obowiązkiem wyrażenia ilościowego. Znaczenie V. ujawnia się w kontekście rozumienia determinizmu i natury rozwoju w ogóle.

Doskonała definicja

Niekompletna definicja ↓

PRAWDOPODOBIEŃSTWO

pojęcie charakteryzujące wielkości. miara możliwości wystąpienia określonego zdarzenia w określonym czasie warunki. W naukowym wiedzy istnieją trzy interpretacje W. Klasyczna koncepcja W., która wyrosła z matematyki. analiza hazardu, najpełniej rozwinięta przez B. Pascala, J. Bernoulliego i P. Laplace'a, uważa wygraną za stosunek liczby korzystnych przypadków do całkowitej liczby wszystkich równie możliwych. Na przykład lub rzucanie kostka do gry, mając 6 stron, utraty każdego z nich można się spodziewać przy V. równym 1/6, ponieważ żadna ze stron nie ma przewagi nad drugą. Taka symetria wyników eksperymentów jest szczególnie brana pod uwagę przy organizowaniu gier, ale jest stosunkowo rzadka w badaniu obiektywnych zdarzeń w nauce i praktyce. Klasyczny Interpretacja V. ustąpiła miejsca statystykom. koncepcje V., które opierają się na faktach obserwacja wystąpienia określonego zdarzenia w długim okresie czasu. doświadczenia w ściśle określonych warunkach. Praktyka potwierdza, że ​​im częściej dane zdarzenie występuje, tym większy jest stopień obiektywnej możliwości jego wystąpienia, czyli B. Zatem statystyczny. Interpretacja V. opiera się na koncepcji relacji. częstotliwość, którą można wyznaczyć doświadczalnie. V. jako teoretyczny pojęcie nigdy nie pokrywa się z empirycznie określoną częstotliwością, jednakże w liczbie mnogiej. W przypadkach praktycznie niewiele różni się od względnej. częstotliwość wynikająca z czasu trwania. obserwacje. Wielu statystyków uważa V. za „podwójne” odniesienie. częstotliwości, krawędzie są wyznaczane statystycznie. badanie wyników obserwacji

lub eksperymenty. Mniej realistyczna była definicja V. ze względu na granicę. częstotliwości imprez masowych lub grup, zaproponowane przez R. Misesa. Jak dalszy rozwój Podejście częstotliwościowe do V. proponuje dyspozycyjną lub propensywną interpretację V. (K. Popper, J. Hacking, M. Bunge, T. Settle). Zgodnie z tą interpretacją V. charakteryzuje np. właściwość warunków generowania. eksperyment. instalacji w celu uzyskania sekwencji masowych zdarzeń losowych. To właśnie ta postawa rodzi fizyczność dyspozycje, czyli predyspozycje, V. które można sprawdzić za pomocą krewnych. częstotliwość

Statystyczny W badaniach naukowych dominuje interpretacja V. poznania, ponieważ odzwierciedla konkret. natura wzorców właściwych zjawiskom masowym o charakterze przypadkowym. W wielu przypadkach fizycznych, biologicznych, ekonomicznych i demograficznych. itp. procesy społeczne należy wziąć pod uwagę wpływ wielu czynników losowych, które charakteryzują się stałą częstotliwością. Identyfikacja tych stabilnych częstotliwości i wielkości. jego ocena za pomocą V. pozwala ujawnić konieczność, która przenika przez skumulowane działanie wielu wypadków. W tym miejscu przejawia się dialektyka przekształcania przypadku w konieczność (por. F. Engels, w książce: K. Marx i F. Engels, Works, t. 20, s. 535-36).

Rozumowanie logiczne lub indukcyjne charakteryzuje związek między przesłankami a wnioskiem rozumowania niedemonstracyjnego, a w szczególności indukcyjnego. W przeciwieństwie do dedukcji przesłanki indukcji nie gwarantują prawdziwości wniosku, a jedynie czynią go mniej lub bardziej wiarygodnym. Tę wiarygodność, przy precyzyjnie sformułowanych przesłankach, można czasami ocenić za pomocą V. Wartość tego V. określa się najczęściej przez porównanie. pojęcia (więcej niż, mniej niż lub równe), a czasami w sposób numeryczny. Logiczny Interpretacja jest często wykorzystywana do analizy rozumowanie indukcyjne i konstrukcja różne systemy logika probabilistyczna (R. Carnap, R. Jeffrey). W semantyce pojęcia logiczne V. jest często definiowane jako stopień, w jakim jedno stwierdzenie potwierdzają inne (na przykład hipoteza na podstawie jej danych empirycznych).

W związku z rozwojem teorii podejmowania decyzji i gier, tzw personalistyczna interpretacja V. Choć V. wyraża jednocześnie stopień wiary podmiotu i zaistnienie określonego zdarzenia, same V. muszą być tak dobrane, aby spełnione były aksjomaty rachunku V. Dlatego V. przy takiej interpretacji wyraża nie tyle stopień subiektywnej, co raczej rozsądnej wiary. W konsekwencji decyzje podejmowane na podstawie takiego V. będą racjonalne, ponieważ nie uwzględniają czynników psychologicznych. cechy i skłonności podmiotu.

Z epistemologicznym t.zr. różnica między statystyczną a logiczną. i personalistyczne interpretacje V. polegają na tym, że jeśli pierwsza charakteryzuje obiektywne właściwości i zależności zjawisk masowych o charakterze przypadkowym, to dwie ostatnie analizują cechy subiektywne, świadome. działalność człowieka w warunkach niepewności.

PRAWDOPODOBIEŃSTWO

jedna z najważniejszych koncepcji nauki, charakteryzująca szczególną systemową wizję świata, jego struktury, ewolucji i wiedzy. Specyfika probabilistycznego widzenia świata ujawnia się poprzez włączenie pojęć losowości, niezależności i hierarchii (idei poziomów w strukturze i wyznaczania systemów) do podstawowych pojęć bytu.

Idee dotyczące prawdopodobieństwa powstały już w starożytności i dotyczyły cech naszej wiedzy, przy czym uznano istnienie wiedzy probabilistycznej, która różniła się od wiedzy rzetelnej i wiedzy fałszywej. Wpływ idei prawdopodobieństwa na myślenie naukowe i rozwój wiedzy jest bezpośrednio związany z rozwojem teorii prawdopodobieństwa jako dyscypliny matematycznej. Początki matematycznej doktryny prawdopodobieństwa sięgają XVII wieku, kiedy to pozwolił na rozwój rdzenia pojęć. cechy ilościowe (numeryczne) i wyrażanie idei probabilistycznej.

Intensywne zastosowania prawdopodobieństwa w rozwoju poznania mają miejsce w drugiej połowie. 19 - I piętro XX wiek Prawdopodobieństwo wpisane w struktury takie nauki podstawowe o przyrodzie, takich jak klasyczna fizyka statystyczna, genetyka, teoria kwantowa, cybernetyka (teoria informacji). W związku z tym prawdopodobieństwo uosabia ten etap rozwoju nauki, który obecnie określa się jako naukę nieklasyczną. Aby ukazać nowość i cechy probabilistycznego sposobu myślenia, należy wyjść od analizy przedmiotu teorii prawdopodobieństwa i podstaw jej licznych zastosowań. Teorię prawdopodobieństwa definiuje się zwykle jako dyscyplinę matematyczną badającą wzorce masowych zjawisk losowych w określonych warunkach. Losowość oznacza, że ​​w ramach charakteru masowego istnienie każdego zjawiska elementarnego nie jest zależne i nie jest przez nie determinowane istnieniem innych zjawisk. Jednocześnie masowy charakter zjawisk sam w sobie ma stabilną strukturę i zawiera pewne prawidłowości. Zjawisko masowe dzieli się dość ściśle na podukłady, a względna liczba zjawisk elementarnych w każdym z podukładów (częstotliwość względna) jest bardzo stabilna. Stabilność tę porównuje się z prawdopodobieństwem. Zjawisko masowe jako całość charakteryzuje się rozkładem prawdopodobieństwa, to znaczy poprzez określenie podsystemów i odpowiadających im prawdopodobieństw. Językiem teorii prawdopodobieństwa jest język rozkładów prawdopodobieństwa. W związku z tym teorię prawdopodobieństwa definiuje się jako abstrakcyjną naukę o operowaniu rozkładami.

Prawdopodobieństwo dało początek w nauce ideom dotyczącym wzorców statystycznych i systemów statystycznych. Ostatnia esencja systemy utworzone z niezależnych lub quasi-niezależnych bytów, ich strukturę charakteryzują rozkłady prawdopodobieństwa. Ale jak można tworzyć systemy z niezależnych bytów? Zwykle przyjmuje się, że do powstania układów o charakterystyce integralnej konieczne jest istnienie pomiędzy ich elementami dostatecznie stabilnych połączeń cementujących układy. Stabilność systemów statystycznych wynika z obecności warunków zewnętrznych, środowiska zewnętrznego, sił zewnętrznych, a nie wewnętrznych. Sama definicja prawdopodobieństwa zawsze opiera się na ustaleniu warunków powstania początkowego zjawiska masowego. Kolejną ważną ideą charakteryzującą paradygmat probabilistyczny jest idea hierarchii (podporządkowania). Idea ta wyraża związek między cechami poszczególne elementy i całościowe cechy systemów: te drugie wydają się być zbudowane na bazie tych pierwszych.

Znaczenie metod probabilistycznych w poznaniu polega na tym, że umożliwiają badanie i teoretyczne wyrażanie wzorców budowy i zachowania obiektów i systemów, które mają hierarchiczną, „dwupoziomową” strukturę.

Analiza natury prawdopodobieństwa opiera się na jego częstotliwości, interpretacji statystycznej. Jednocześnie przez bardzo długi czas w nauce dominowało takie rozumienie prawdopodobieństwa, które nazywano prawdopodobieństwem logicznym lub indukcyjnym. Prawdopodobieństwo logiczne interesuje się kwestiami ważności odrębnego, indywidualnego wyroku w określonych warunkach. Czy można ocenić stopień potwierdzenia (rzetelności, prawdziwości) wniosku indukcyjnego (wniosku hipotetycznego) w formie ilościowej? W trakcie rozwoju teorii prawdopodobieństwa takie pytania były wielokrotnie omawiane i zaczęto mówić o stopniach potwierdzenia hipotetycznych wniosków. Ta miara prawdopodobieństwa jest określana na podstawie dostępnych ta osoba informacji, jego doświadczenia, poglądów na świat i sposobu myślenia psychicznego. We wszystkich takich przypadkach wielkość prawdopodobieństwa nie podlega ścisłym pomiarom i praktycznie leży poza kompetencjami teorii prawdopodobieństwa jako spójnej dyscypliny matematycznej.

Obiektywna, częstościowa interpretacja prawdopodobieństwa została ugruntowana w nauce ze znacznymi trudnościami. Początkowo na rozumienie natury prawdopodobieństwa duży wpływ miały poglądy filozoficzne i metodologiczne charakterystyczne dla nauki klasycznej. Historycznie rzecz biorąc, rozwój metod probabilistycznych w fizyce nastąpił pod decydującym wpływem idei mechaniki: systemy statystyczne interpretowano po prostu jako mechaniczne. Ponieważ odpowiednich problemów nie udało się rozwiązać ścisłymi metodami mechaniki, pojawiły się twierdzenia, że ​​zwracanie się do metod probabilistycznych i praw statystycznych jest wynikiem niekompletności naszej wiedzy. W historii rozwoju klasycznej fizyki statystycznej podejmowano liczne próby jej uzasadnienia na jej podstawie mechanika klasyczna jednak wszystkie zawiodły. Podstawą prawdopodobieństwa jest to, że wyraża ono cechy strukturalne pewnej klasy układów, innych niż układy mechaniczne: stan elementów tych układów charakteryzuje się niestabilnością i szczególnym (nie sprowadzalnym do mechaniki) charakterem oddziaływań.

Wpis prawdopodobieństwa do wiedzy prowadzi do zaprzeczenia koncepcji twardego determinizmu, do zaprzeczenia podstawowemu modelowi bytu i wiedzy wypracowanemu w procesie kształtowania się nauki klasycznej. Podstawowe modele reprezentowane przez teorie statystyczne mają inny, bardziej ogólny charakter: obejmują one idee losowości i niezależności. Idea prawdopodobieństwa wiąże się z ujawnieniem wewnętrznej dynamiki obiektów i układów, której nie można w pełni określić warunki zewnętrzne i okoliczności.

Koncepcja probabilistycznej wizji świata, oparta na absolutyzacji idei o niezależności (podobnie jak wcześniej paradygmat sztywnego wyznaczania), ujawniła obecnie swoje ograniczenia, co najsilniej wpływa na przejście współczesnej nauki do metody analityczne badania nad złożonymi systemami oraz fizycznymi i matematycznymi podstawami zjawisk samoorganizacji.

Doskonała definicja

Niekompletna definicja ↓

Wszystko na świecie dzieje się deterministycznie lub przez przypadek...
Arystoteles

Prawdopodobieństwo: podstawowe zasady

Teoria prawdopodobieństwa oblicza prawdopodobieństwa różnych zdarzeń. Podstawą teorii prawdopodobieństwa jest koncepcja zdarzenia losowego.

Na przykład rzucasz monetą, która losowo ląduje na reszce lub reszce. Nie wiesz z góry, po której stronie wyląduje moneta. Zawierasz umowę ubezpieczenia, nie wiesz z góry, czy płatności zostaną zrealizowane, czy nie.

W obliczeniach aktuarialnych trzeba umieć oszacować prawdopodobieństwo różnych zdarzeń, dlatego kluczową rolę odgrywa teoria prawdopodobieństwa. Żadna inna dziedzina matematyki nie zajmuje się prawdopodobieństwem zdarzeń.

Przyjrzyjmy się bliżej rzutowi monetą. Istnieją 2 wzajemnie wykluczające się wyniki: wypada herb lub wypadają ogony. Wynik rzutu jest losowy, ponieważ obserwator nie jest w stanie przeanalizować i wziąć pod uwagę wszystkich czynników wpływających na wynik. Jakie jest prawdopodobieństwo wypadnięcia herbu? Większość odpowie ½, ale dlaczego?

Niech będzie formalnie A wskazuje na utratę herbu. Niech rzuci monetą N raz. Następnie prawdopodobieństwo zdarzenia A można zdefiniować jako proporcję rzutów, w wyniku których powstaje herb:

Gdzie N całkowita liczba rzutów, n(A) liczba zrzutów herbowych.

Nazywa się relację (1). częstotliwość wydarzenia A w długiej serii testów.

Okazuje się, że w różnych seriach testów odpowiednia częstotliwość jest ogólnie dostępna N skupiają się wokół jakiejś stałej wartości ROCZNIE). Ta ilość nazywa się prawdopodobieństwo zdarzenia A i jest oznaczony literą R- skrót od Angielskie słowo prawdopodobieństwo - prawdopodobieństwo.

Formalnie mamy:

(2)

To prawo nazywa się prawo wielkich liczb.

Jeżeli moneta jest uczciwa (symetryczna), to prawdopodobieństwo otrzymania herbu jest równe prawdopodobieństwu wyrzucenia orła i wynosi ½.

Pozwalać A I W niektóre zdarzenia, na przykład to, czy zdarzenie objęte ubezpieczeniem miało miejsce, czy nie. Połączenie dwóch zdarzeń jest zdarzeniem polegającym na wykonaniu zdarzenia A, wydarzenia W lub oba zdarzenia razem. Skrzyżowanie dwóch wydarzeń A I W zwane zdarzeniem polegającym na realizacji jako zdarzenie A i wydarzenia W.

Podstawowe zasady Rachunek prawdopodobieństwa zdarzeń wygląda następująco:

1. Prawdopodobieństwo dowolnego zdarzenia mieści się w przedziale od zera do jednego:

2. Niech A i B będą dwoma zdarzeniami, a następnie:

Brzmi to tak: prawdopodobieństwo połączenia dwóch zdarzeń jest równe sumie prawdopodobieństw tych zdarzeń minus prawdopodobieństwo przecięcia się zdarzeń. Jeżeli zdarzenia są niezgodne lub nie nakładają się na siebie, wówczas prawdopodobieństwo sumy (sumy) dwóch zdarzeń jest równe sumie prawdopodobieństw. To prawo nazywa się prawem dodatek prawdopodobieństwa.

Mówimy, że zdarzenie jest wiarygodne, jeśli jego prawdopodobieństwo jest równe 1. Analizując pewne zjawiska, pojawia się pytanie, jak wystąpienie zdarzenia wpływa na W po zaistnieniu zdarzenia A. Aby to zrobić, wejdź prawdopodobieństwo warunkowe :

(4)

Brzmi to tak: prawdopodobieństwo wystąpienia A jeśli się uwzględni W równa się prawdopodobieństwu przecięcia A I W podzielone przez prawdopodobieństwo zdarzenia W.
Wzór (4) zakłada prawdopodobieństwo zdarzenia W więcej niż zero.

Wzór (4) można również zapisać jako:

(5)

To jest formuła mnożenie prawdopodobieństw.

Nazywa się także prawdopodobieństwem warunkowym a posteriori prawdopodobieństwo zdarzenia A- prawdopodobieństwo wystąpienia A po ataku W.

W tym przypadku nazywa się samo prawdopodobieństwo apriorycznie prawdopodobieństwo. Istnieje kilka innych ważnych wzorów, które są intensywnie stosowane w obliczeniach aktuarialnych.

Wzór na całkowite prawdopodobieństwo

Załóżmy, że przeprowadzany jest eksperyment, którego warunki można z góry ustalić wzajemnie wzajemnie wykluczające się założenia (hipotezy):

Zakładamy, że istnieje albo hipoteza, albo...albo. Prawdopodobieństwa tych hipotez są znane i równe:

Wtedy formuła obowiązuje pełny prawdopodobieństwa :

(6)

Prawdopodobieństwo wystąpienia zdarzenia A równa sumie iloczynów prawdopodobieństwa wystąpienia A dla każdej hipotezy na prawdopodobieństwo tej hipotezy.

Formuła Bayesa

Formuła Bayesa pozwala na ponowne obliczenie prawdopodobieństwa hipotez w świetle nowych informacji dostarczonych przez wynik A.

Wzór Bayesa jest w pewnym sensie odwrotnością wzoru na prawdopodobieństwo całkowite.

Rozważmy następujący problem praktyczny.

Problem 1

Załóżmy, że doszło do katastrofy lotniczej i eksperci są zajęci badaniem jej przyczyn. 4 powody, dla których doszło do katastrofy, są znane z góry: albo przyczyna, albo, albo, albo. Według dostępnych statystyk przyczyny te mają następujące prawdopodobieństwo:



Podczas badania miejsca katastrofy znaleziono ślady zapłonu paliwa, według statystyk prawdopodobieństwo tego zdarzenia z tego czy innego powodu jest następujące:




Pytanie: jaka jest najbardziej prawdopodobna przyczyna katastrofy?

Obliczmy prawdopodobieństwa przyczyn w warunkach wystąpienia zdarzenia A.



Z tego widać, że pierwszy powód jest najbardziej prawdopodobny, ponieważ jego prawdopodobieństwo jest maksymalne.

Problem 2

Weźmy pod uwagę lądowanie samolotu na lotnisku.

Po wylądowaniu warunki atmosferyczne może wyglądać następująco: brak niskich chmur (), niskie chmury tak (). W pierwszym przypadku prawdopodobieństwo bezpiecznego lądowania wynosi P1. W drugim przypadku - P2. To jasne P1>P2.

Urządzenia zapewniające ślepe lądowanie mają prawdopodobieństwo bezawaryjnej pracy R. Jeśli zachmurzenie jest niskie i zawiodły przyrządy do lądowania na ślepo, prawdopodobieństwo udanego lądowania wynosi P3, I P3<Р2 . Wiadomo, że dla danego lotniska odsetek dni w roku z niskim zachmurzeniem wynosi .

Znajdź prawdopodobieństwo bezpiecznego wylądowania samolotu.

Musimy znaleźć prawdopodobieństwo.

Istnieją dwie wzajemnie wykluczające się opcje: urządzenia do lądowania na ślepo działają, urządzenia do lądowania na ślepo uległy awarii, więc mamy:

Zatem zgodnie ze wzorem na prawdopodobieństwo całkowite:

Problem 3

Firma ubezpieczeniowa zapewnia ubezpieczenie na życie. 10% ubezpieczonych w tej firmie to palacze. Jeżeli ubezpieczony nie pali, prawdopodobieństwo jego śmierci w ciągu roku wynosi 0,01. Jeżeli jest palaczem, to prawdopodobieństwo wynosi 0,05.

Jaki jest odsetek palaczy wśród ubezpieczonych, którzy zmarli w ciągu roku?

Możliwe odpowiedzi: (A) 5%, (B) 20%, (C) 36%, (D) 56%, (E) 90%.

Rozwiązanie

Wejdźmy w wydarzenia:

Stan problemu o tym świadczy

Ponadto, ponieważ zdarzenia tworzą kompletną grupę zdarzeń niezgodnych parami, wówczas .
Prawdopodobieństwo, które nas interesuje, wynosi .

Korzystając ze wzoru Bayesa mamy:

dlatego poprawną opcją jest ( W).

Problem 4

Towarzystwo ubezpieczeniowe sprzedaje umowy ubezpieczenia na życie w trzech kategoriach: standardowe, preferowane i ultrauprzywilejowane.

50% wszystkich ubezpieczonych to osoby ubezpieczone standardowo, 40% to osoby preferowane, a 10% to osoby ultrauprzywilejowane.

Prawdopodobieństwo śmierci w ciągu roku dla ubezpieczonego standardowego wynosi 0,010, dla uprzywilejowanego – 0,005, a dla ultrauprzywilejowanego – 0,001.

Jakie jest prawdopodobieństwo, że zmarły ubezpieczony jest osobą ultrauprzywilejowaną?

Rozwiązanie

Wprowadźmy pod uwagę następujące zdarzenia:

Jeśli chodzi o te zdarzenia, prawdopodobieństwo, które nas interesuje, wynosi . Zgodnie z warunkiem:

Ponieważ zdarzenia , tworzą kompletną grupę zdarzeń niezgodnych parami, korzystając ze wzoru Bayesa mamy:

Zmienne losowe i ich charakterystyka

Niech będzie to jakaś zmienna losowa, na przykład szkody powstałe w wyniku pożaru lub wysokość składek ubezpieczeniowych.
Zmienna losowa jest całkowicie scharakteryzowana przez swoją funkcję rozkładu.

Definicja. Funkcjonować zwany funkcja dystrybucji zmienna losowa ξ .

Definicja. Jeśli istnieje taka funkcja, że ​​dla arbitralnie A zakończony

wtedy mówią, że zmienna losowa ξ ma funkcja gęstości prawdopodobieństwa f(x).

Definicja. Pozwalać . Dla funkcji rozkładu ciągłego F teoretyczny α-kwantyl nazywa się rozwiązaniem równania.

To rozwiązanie może nie być jedyne.

Poziom kwantyla ½ zwane teoretycznymi mediana , poziomy kwantylowe ¼ I ¾ -dolny i górny kwartyl odpowiednio.

W zastosowaniach aktuarialnych ważną rolę odgrywa Nierówność Czebyszewa:

w ogóle

Symbol oczekiwań matematycznych.

Brzmi to tak: prawdopodobieństwo, że moduł jest większy lub równy matematycznemu oczekiwaniu modułu podzielone przez .

Czas życia jako zmienna losowa

Niepewność momentu śmierci jest głównym czynnikiem ryzyka w ubezpieczeniach na życie.

O chwili śmierci danej osoby nie można powiedzieć nic pewnego. Jeśli jednak mamy do czynienia z dużą jednorodną grupą ludzi i nie interesują nas losy poszczególnych osób z tej grupy, to mieścimy się w ramach teorii prawdopodobieństwa jako nauki o masowych zjawiskach losowych, które mają właściwość stabilności częstotliwości .

Odpowiednio, możemy mówić o oczekiwanej długości życia jako zmiennej losowej T.

Funkcja przetrwania

Teoria prawdopodobieństwa opisuje stochastyczną naturę dowolnej zmiennej losowej T funkcja dystrybucji F(x), które definiuje się jako prawdopodobieństwo, że zmienna losowa T mniej niż liczba X:

.

W matematyce aktuarialnej przyjemnie jest pracować nie z funkcją dystrybucji, ale z dodatkową funkcją dystrybucji . Jeśli chodzi o długowieczność, jest to prawdopodobieństwo, że dana osoba dożyje sędziwego wieku X lata.

zwany funkcja przetrwania(funkcja przetrwania):

Funkcja przeżycia ma następujące właściwości:

Tabele trwania życia zwykle zakładają, że istnieje granica wieku (ograniczający wiek) (zwykle lata) i odpowiednio o godz x>.

Opisując śmiertelność prawami analitycznymi, zwykle przyjmuje się, że czas życia jest nieograniczony, ale rodzaj i parametry praw dobiera się tak, aby prawdopodobieństwo życia powyżej pewnego wieku było znikome.

Funkcja przeżycia ma proste znaczenie statystyczne.

Załóżmy, że obserwujemy grupę noworodków (zazwyczaj), którą obserwujemy i możemy rejestrować momenty ich śmierci.

Oznaczmy liczbę żyjących przedstawicieli tej grupy w wieku przez . Następnie:

.

Symbol mi tutaj i poniżej jest używane do określenia oczekiwań matematycznych.

Zatem funkcja przeżycia jest równa średniemu odsetkowi tych, którzy dożywają wieku, z pewnej ustalonej grupy noworodków.

W matematyce aktuarialnej często pracuje się nie z funkcją przeżycia, ale z właśnie wprowadzoną wartością (ustalającą początkową liczebność grupy).

Funkcję przeżycia można zrekonstruować na podstawie gęstości:

Charakterystyka żywotności

Z praktycznego punktu widzenia ważne są następujące cechy:

1 . Przeciętny czas życia

,
2 . Dyspersjażycie

,
Gdzie
,

Oczywiste jest, że każde zdarzenie ma różny stopień możliwości jego wystąpienia (jego realizacji). Aby ilościowo porównać zdarzenia ze sobą według stopnia ich możliwości, należy oczywiście każdemu zdarzeniu przypisać pewną liczbę, która jest tym większa, im bardziej prawdopodobne jest zdarzenie. Liczba ta nazywana jest prawdopodobieństwem zdarzenia.

Prawdopodobieństwo zdarzenia– jest liczbową miarą stopnia obiektywnej możliwości wystąpienia tego zdarzenia.

Rozważmy eksperyment stochastyczny i zdarzenie losowe A zaobserwowane w tym eksperymencie. Powtórzmy ten eksperyment n razy i niech m(A) będzie liczbą eksperymentów, w których zaszło zdarzenie A.

Relacja (1.1)

zwany częstotliwość względna zdarzenia A w serii przeprowadzonych eksperymentów.

Łatwo jest zweryfikować ważność właściwości:

jeśli A i B są niespójne (AB= ), to ν(A+B) = ν(A) + ν(B) (1.2)

Częstotliwość względną określa się dopiero po serii eksperymentów i, ogólnie rzecz biorąc, może się różnić w zależności od serii. Jednakże doświadczenie pokazuje, że w wielu przypadkach wraz ze wzrostem liczby eksperymentów częstotliwość względna zbliża się do pewnej wartości. Ten fakt stabilności częstotliwości względnej został wielokrotnie zweryfikowany i można go uznać za ustalony eksperymentalnie.

Przykład 1.19.. Jeśli rzucisz jedną monetą, nikt nie jest w stanie przewidzieć, która strona wyląduje na wierzchu. Ale jeśli rzucisz dwie tony monet, to wszyscy powiedzą, że wraz z herbem wypadnie około jednej tony, czyli względna częstotliwość wypadania herbu wynosi około 0,5.

Jeżeli wraz ze wzrostem liczby eksperymentów względna częstotliwość zdarzenia ν(A) dąży do pewnej ustalonej liczby, to mówią, że zdarzenie A jest statystycznie stabilne, a liczba ta nazywana jest prawdopodobieństwem zdarzenia A.

Prawdopodobieństwo zdarzenia A wywoływana jest pewna stała liczba P(A), do której w miarę wzrostu liczby eksperymentów zmierza częstotliwość względna ν(A) tego zdarzenia, tj.

Ta definicja nazywa się statystyczne wyznaczanie prawdopodobieństwa .

Rozważmy pewien eksperyment stochastyczny i niech przestrzeń jego zdarzeń elementarnych składa się ze skończonego lub nieskończonego (ale przeliczalnego) zbioru zdarzeń elementarnych ω 1, ω 2, …, ω i, …. Załóżmy, że każdemu zdarzeniu elementarnemu ω i przyporządkowana jest pewna liczba - р i, charakteryzująca stopień możliwości wystąpienia danego zdarzenia elementarnego i spełniająca następujące własności:

Ta liczba p i nazywa się prawdopodobieństwo zdarzenia elementarnegoωi.

Niech teraz A będzie zdarzeniem losowym zaobserwowanym w tym doświadczeniu i niech odpowiada pewnemu zbiorowi

W tym ustawieniu prawdopodobieństwo zdarzenia A nazwać sumą prawdopodobieństw zdarzeń elementarnych faworyzujących A(zawarte w odpowiednim zestawie A):


(1.4)

Wprowadzone w ten sposób prawdopodobieństwo ma takie same właściwości jak częstotliwość względna, a mianowicie:

A jeśli AB = (A i B są niezgodne),

wówczas P(A+B) = P(A) + P(B)

Rzeczywiście, zgodnie z (1.4)

W ostatniej relacji wykorzystaliśmy fakt, że żadne pojedyncze zdarzenie elementarne nie może faworyzować dwóch niezgodnych zdarzeń jednocześnie.

Szczególnie zauważamy, że teoria prawdopodobieństwa nie wskazuje metod wyznaczania pi; należy ich szukać ze względów praktycznych lub uzyskać z odpowiedniego eksperymentu statystycznego.

Jako przykład rozważmy klasyczny schemat teorii prawdopodobieństwa. Aby to zrobić, rozważmy eksperyment stochastyczny, którego przestrzeń zdarzeń elementarnych składa się ze skończonej (n) liczby elementów. Załóżmy dodatkowo, że wszystkie te zdarzenia elementarne są jednakowo możliwe, czyli prawdopodobieństwa zdarzeń elementarnych są równe p(ω i)=p i =p. Wynika z tego

Przykład 1.20. Przy rzucie symetryczną monetą wypadnięcie orła i reszki jest równie możliwe, ich prawdopodobieństwo wynosi 0,5.

Przykład 1.21. Przy rzucie symetryczną kostką wszystkie twarze są jednakowo możliwe, ich prawdopodobieństwa są równe 1/6.

Niech teraz zdarzenie A będzie faworyzowane przez m zdarzeń elementarnych, tak się je zwykle nazywa wyniki korzystne dla zdarzenia A. Następnie

Otrzymane klasyczna definicja prawdopodobieństwa: prawdopodobieństwo P(A) zdarzenia A jest równe stosunkowi liczby wyników korzystnych dla zdarzenia A do całkowitej liczby wyników

Przykład 1.22. W urnie znajduje się m białych i n czarnych kul. Jakie jest prawdopodobieństwo, że wylosujemy kulę białą?

Rozwiązanie. Całkowita liczba zdarzeń elementarnych wynosi m+n. Wszystkie są równie prawdopodobne. Korzystne wydarzenie A z czego m.in. Stąd, .

Z definicji prawdopodobieństwa wynikają następujące własności:

Właściwość 1. Prawdopodobieństwo wystąpienia wiarygodnego zdarzenia jest równe jeden.

Rzeczywiście, jeśli zdarzenie jest wiarygodne, to każdy elementarny wynik testu faworyzuje zdarzenie. W tym przypadku t=p, stąd,

P(A)=m/n=n/n=1.(1.6)

Własność 2. Prawdopodobieństwo zdarzenia niemożliwego wynosi zero.

Rzeczywiście, jeśli zdarzenie jest niemożliwe, to żaden z elementarnych wyników testu nie sprzyja temu zdarzeniu. W tym przypadku T= 0, zatem P(A)=m/n=0/n=0. (1.7)

Własność 3.Prawdopodobieństwo zdarzenia losowego jest liczbą dodatnią z zakresu od zera do jeden.

Rzeczywiście, tylko część całkowitej liczby elementarnych wyników testu jest faworyzowana przez zdarzenie losowe. Czyli 0≤m≤n, co oznacza 0≤m/n≤1, zatem prawdopodobieństwo dowolnego zdarzenia spełnia podwójną nierówność 0≤ ROCZNIE)1. (1.8)

Porównując definicje prawdopodobieństwa (1.5) i częstotliwości względnej (1.1) dochodzimy do wniosku: definicja prawdopodobieństwa nie wymaga przeprowadzania badań w rzeczywistości; zakłada to definicja częstotliwości względnej faktycznie przeprowadzono badania. Innymi słowy, prawdopodobieństwo oblicza się przed eksperymentem, a częstotliwość względną - po eksperymencie.

Obliczenie prawdopodobieństwa wymaga jednak wstępnej informacji o liczbie lub prawdopodobieństwie elementarnych wyników korzystnych dla danego zdarzenia. W przypadku braku takich wstępnych informacji do określenia prawdopodobieństwa wykorzystuje się dane empiryczne, to znaczy względną częstotliwość zdarzenia określa się na podstawie wyników eksperymentu stochastycznego.

Przykład 1.23. Dział kontroli technicznej odkrył 3 części niestandardowe w partii 80 losowo wybranych części. Względna częstotliwość występowania części niestandardowych r(A)= 3/80.

Przykład 1.24. Zgodnie z przeznaczeniem.wyprodukowano 24 oddał 19 trafień. Względny współczynnik trafień celu. r(A)=19/24.

Długoterminowe obserwacje wykazały, że jeśli eksperymenty prowadzi się w identycznych warunkach, w każdym z których liczba testów jest odpowiednio duża, to częstotliwość względna wykazuje właściwość stabilności. Ta nieruchomość jest że w różnych eksperymentach częstotliwość względna zmienia się niewiele (im mniej, tym więcej przeprowadza się testów), oscylując wokół pewnej stałej liczby. Okazało się, że tę stałą liczbę można przyjąć jako przybliżoną wartość prawdopodobieństwa.

Zależność pomiędzy częstotliwością względną a prawdopodobieństwem zostanie opisana bardziej szczegółowo i dokładniej poniżej. Zilustrujmy teraz własność stabilności przykładami.

Przykład 1.25. Według szwedzkich statystyk względną częstość urodzeń dziewcząt w roku 1935 w poszczególnych miesiącach charakteryzują następujące liczby (liczby ułożone są w kolejności miesięcy, zaczynając od Styczeń): 0,486; 0,489; 0,490; 0.471; 0,478; 0,482; 0.462; 0,484; 0,485; 0,491; 0,482; 0,473

Częstotliwość względna oscyluje wokół liczby 0,481, którą można przyjąć jako przybliżoną wartość prawdopodobieństwa posiadania dziewcząt.

Należy pamiętać, że dane statystyczne z różnych krajów dają w przybliżeniu tę samą względną wartość częstotliwości.

Przykład 1.26. Wielokrotnie przeprowadzano eksperymenty z rzucaniem monetą, w których liczono liczbę wystąpień „herbu”. Wyniki kilku eksperymentów przedstawiono w tabeli.

Aby ilościowo porównać zdarzenia ze sobą według stopnia ich możliwości, należy oczywiście każdemu zdarzeniu przypisać pewną liczbę, która jest tym większa, im bardziej jest ono możliwe. Nazwiemy tę liczbę prawdopodobieństwem zdarzenia. Zatem, prawdopodobieństwo zdarzenia jest liczbową miarą stopnia obiektywnej możliwości wystąpienia tego zdarzenia.

Pierwszą definicję prawdopodobieństwa należy uznać za klasyczną, która wyrosła z analizy gier hazardowych i początkowo była stosowana intuicyjnie.

Klasyczna metoda wyznaczania prawdopodobieństwa opiera się na koncepcji zdarzeń równie możliwych i niezgodnych, które są wynikiem danego doświadczenia i tworzą kompletną grupę zdarzeń niezgodnych.

Najprostszym przykładem równie możliwych i niezgodnych zdarzeń tworzących kompletną grupę jest pojawienie się tej lub drugiej kuli z urny zawierającej kilka kul o tej samej wielkości, wadze i innych namacalnych cechach, różniących się jedynie kolorem, dokładnie wymieszanych przed wyjęciem.

Dlatego mówi się, że test, którego wyniki tworzą kompletną grupę niezgodnych i równie możliwych zdarzeń, można sprowadzić do układu urn lub układu przypadków lub wpasowuje się w klasyczny wzór.

Równie możliwe i niezgodne zdarzenia, które tworzą kompletną grupę, będą nazywane po prostu przypadkami lub szansami. Co więcej, w każdym eksperymencie wraz z przypadkami mogą wystąpić bardziej złożone zdarzenia.

Przykład: Przy rzucie kostką oprócz przypadków A i – utrata i-punktów na górnej krawędzi, możemy uwzględnić takie zdarzenia jak B – utrata parzystej liczby punktów, C – utrata pewnej liczby punktów punkty będące wielokrotnością trzech...

Ze względu na każde zdarzenie, które może wystąpić podczas eksperymentu, przypadki dzieli się na korzystny, w którym zdarzenie to zachodzi, i niekorzystne, w którym zdarzenie to nie zachodzi. W poprzednim przykładzie zdarzeniu B sprzyjają przypadki A 2, A 4, A 6; zdarzenie C - przypadki A 3, A 6.

Prawdopodobieństwo klasyczne wystąpienie określonego zdarzenia nazywa się stosunkiem liczby przypadków sprzyjających zaistnieniu tego zdarzenia do całkowitej liczby równie możliwych, niezgodnych przypadków, które tworzą kompletną grupę w danym eksperymencie:

Gdzie ROCZNIE)- prawdopodobieństwo wystąpienia zdarzenia A; M- liczba przypadków sprzyjających zdarzeniu A; N- łączna liczba przypadków.

Przykłady:

1) (patrz przykład powyżej) P(B)= , P(C) =.

2) W urnie znajduje się 9 kul czerwonych i 6 niebieskich. Znajdź prawdopodobieństwo, że jedna lub dwie losowo wylosowane kule okażą się czerwone.

A- losowo wylosowana kula czerwona:

M= 9, N= 9 + 6 = 15, ROCZNIE)=

B- dwie losowo wylosowane kule czerwone:

Z klasycznej definicji prawdopodobieństwa wynikają następujące własności (pokaż się):


1) Prawdopodobieństwo zdarzenia niemożliwego wynosi 0;

2) Prawdopodobieństwo wiarygodnego zdarzenia wynosi 1;

3) Prawdopodobieństwo dowolnego zdarzenia mieści się w przedziale od 0 do 1;

4) Prawdopodobieństwo zdarzenia przeciwnego do zdarzenia A,

Klasyczna definicja prawdopodobieństwa zakłada, że ​​liczba wyników próby jest skończona. W praktyce bardzo często zdarzają się testy, których liczba możliwych przypadków jest nieskończona. Ponadto słabością klasycznej definicji jest to, że bardzo często nie można przedstawić wyniku testu w postaci zestawu zdarzeń elementarnych. Jeszcze trudniej jest wskazać powody, dla których elementarne wyniki testu można uznać za jednakowo możliwe. Zwykle o równoważności wyników elementarnych testów wnioskuje się na podstawie rozważań o symetrii. Zadania takie są jednak w praktyce bardzo rzadkie. Z tych powodów obok klasycznej definicji prawdopodobieństwa stosuje się także inne definicje prawdopodobieństwa.

Prawdopodobieństwo statystyczne zdarzenie A to względna częstotliwość występowania tego zdarzenia w przeprowadzonych badaniach:

gdzie jest prawdopodobieństwo wystąpienia zdarzenia A;

Względna częstotliwość występowania zdarzenia A;

Liczba prób, w których pojawiło się zdarzenie A;

Całkowita liczba prób.

W przeciwieństwie do prawdopodobieństwa klasycznego, prawdopodobieństwo statystyczne jest cechą prawdopodobieństwa eksperymentalnego.

Przykład: Do kontroli jakości produktów z partii wybrano losowo 100 produktów, spośród których 3 okazały się wadliwe. Określ prawdopodobieństwo zawarcia małżeństwa.

.

Statystyczna metoda określania prawdopodobieństwa ma zastosowanie tylko do tych zdarzeń, które mają następujące właściwości:

Rozważane zdarzenia powinny być wynikami wyłącznie tych testów, które można odtworzyć nieograniczoną liczbę razy w tych samych warunkach.

Zdarzenia muszą mieć stabilność statystyczną (lub stabilność względnych częstotliwości). Oznacza to, że w różnych seriach testów względna częstotliwość zdarzenia niewiele się zmienia.

Liczba prób skutkujących zdarzeniem A musi być dość duża.

Łatwo sprawdzić, że własności prawdopodobieństwa wynikające z definicji klasycznej są zachowane także w statystycznej definicji prawdopodobieństwa.