--- title: Stochastik date: Wintersemester 20/21 author: Wieerwill --- # Wahrscheinlichkeiten > Ein Zufallsexperiment ist ein Versuch mit zufälligem Ausgang. ## Wahrscheinlichkeitsraum $(\Omega , P)$ - Ergebnis-/Grundraum $\Omega$, Menge aller möglichen Elementarereignisse (Bsp: $\Omega={heil, kaputt}^x$) - die Anzahl aller möglichen Ergebnisse heißt Mächtigkeit des Ergebnisraums $|\Omega|$ (Bsp: $|\Omega|=2$) - Endlicher Ergebnisraum: die Elemente können abgezählt und eine Obergrenze angegeben werden - Abzählbar-unendlicher Ergebnisraum: die Elemente können abgezählt aber keine Obergrenze angegeben werden - Überabzählbar-unendlicher Ergebnisraum: die Elemente können nicht abgezählt werden - Ergebnis/Ausgang $\omega \in \Omega$ (Bsp: $\omega=(heil, heil, heil, kaputt, heil...), \omega_1=(heil)$) - ein Ergebnis, das genau ein Element enthält, heißt ELementarergebnis - Ereignis $A \subseteq \Omega$ (Bsp: $A={\omega: Anzahl kaputt = 2 }$) - das Ereignis, das kein Element enthält, heißt unmögliches Ereignis (Bsp "Augenzahl größer 6" beim Würfelwurf) - das Ereignis, das genau ein Element enthält, heißt Elementarereignis - Ein Ereignis, das mehr als ein Element enthält, heißt zusammengesetztes Ereignis. - das Ereignis, das alle Elemente von $\Omega$ enthält, heißt sicheres Ereignis $\Omega$: $P(\Omega)= 1$ - Wahrscheinlichkeitsmaß/Ereignisraum, die Menge aller Ereignisse, $P(\Omega)$ - setzt sich zusammen aus dem unmöglichen Ereignis, den Elementarereignissen, den mehrelementigen Teilmengen und dem sicheren Ereignis (Bsp $P(\Omega)=\{\{\},\{heil\},\{kaputt\},\{heil, kaputt\} \}$) - die Anzahl der möglichen Ereignisse heißt Mächigkeit des Ereignisraums $|P(\Omega)|$ - Der Ereignisraum besteht aus $2^{|\Omega|}$ Ereignissen - Wahrscheinlichkeit, dass A eintritt: $\Omega \supseteq A \rightarrow P(A) \in [0,1]$ - $\sigma$-Additivität: $P(U_{k\in N} A_k)= \sum_{k\in N} P(A_k)$ für disjunkte $A_k, k\in N$ ## Ereignisalgebra - Vereinigung: $A\cup B= \{\omega | \omega\in A \vee \omega\in B \}$ - Bsp: $A=\{1,2\}, B=\{2,3\}, A\cup B=\{1,2,3\}$ - Durchschnitt: $A\cap B = \{\omega | \omega\in A \wedge \omega\in B \}$ - Bsp: $A=\{1,2\}, B=\{2,3\}, A\wedge B=\{2\}$ - Gegenereignis: $\bar{A} = \{\omega | \omega\not\in A\}$ - Bsp: $A=\{1,2\}, \Omega=\{1,2,3,4,5,6\}, \bar{A}=\{3,4,5,6\}$ - Differenz $A \backslash B = A\cap\bar{B} = \{\omega| \omega\in A \wedge \omega\not\in B\}$ - Bsp: $A=\{1,2\}, B=\{2,3\}, A\backslash B=\{1\}$ - Symmetrische Differenz $(A\cap \bar{B})\cup(\bar{A}\cap B)$ - die Menge aller Elemente, die zu A oder zu B, nicht aber zu beiden Ereignissen gehören - Bsp: $A=\{1,2\}, B=\{2,3\}, A\cup B=\{1,3\}$ - disjunkte Ereignisse $A\cap B = \varnothing$ - wenn sie keine gemeinsamen Elemente haben (unvereinbar) ## Rechengesetze - Kommutativ: - $A\cup B = B\cup A$ - $A\cap B = B\cap A$ - Assoziativ: - $(A\cup B)\cup C = A\cup(B\cup C)$ - $(A\cap B)\cap C = A\cap(B\cap C)$ - Distributiv: - $A\cap(B\cup C)=(A\cap B)\cup(A\cap C)$ - $A\cup(B\cap C)= (A\cup B)\cap (A\cup C)$ - Absorption - $A\cap(A\cup B)=A$ - $A\cup(A\cap B)=A$ - Idempotenz - $A\cap A=A$ - $A\cup A=A$ - De-Morgan-Gesetz - $\bar{A}\cap\bar{B}=\overline{A\cup B}$ - $\bar{A}\cup\bar{B}=\overline{A\cap B}$ - Neutrale Elemente - $A\cap \Omega=A$ - $A\cup \varnothing = A$ - Dominante Elemente - $A\cap \varnothing = \varnothing$ - $A\cup \Omega = \Omega$ - Komplemente - $A\cap \bar{A} = \varnothing$ - $A\cup \bar{A} = \Omega$ - $\bar{\bar{A}} = A$ ## Vierfeldertafel Alle vier Felder zusammen entsprechen dem Ergebnisraum $\Omega$ | $\Omega$ | $B$ | $\bar{B}$ | | --------- | --------------- | -------------------- | | $A$ | $A\cap B$ | $A\cap \bar{B}$ | | $\bar{A}$ | $\bar{A}\cap B$ | $\bar{A}\cap\bar{B}$ | ## Absolute Häufigkeit > Die absolute Häufigkeit $H_n(E)$ gibt an, wie oft das Ereignis E innerhalb eines Zufallsexperiments, welches n-mal ausgeführt wird, aufgetreten ist. Die Summe der absoluten Häufigkeiten ergibt n. Bsp: Münze wird 20 mal geworfen. Man erhält 8 mal Kopf und 12 mal Zahl: - $H_{20}(Kopf)=8$ - $H_{20}(Zahl)=12$ ## Relative Häufigkeit > Tritt ein Ereignis $E$ bei $n$ Versuchen $k$-mal ein, so heißt die Zahl $h_n(E)=\frac{k}{n}$ relative Häufigkeit des Ereignisses E. anders: $h_n(E)=\frac{H_n(E)}{n}$ Bsp: Münze wird 20 mal geworfen. Man erhält 8 mal Kopf und 12 mal Zahl: - $h_{20}(Kopf)=\frac{8}{20}=0,4$ - $h_{20}(Zahl)=\frac{12}{20}=0,6$ - die Relative Häufigkeit nimmt Werte zwischen 0 und 1 an - die relative Häufigkeit des sicheren Ereignisses ist 1 $h_n(\Omega)=1$ - die relative Häufigkeit des unmöglichen Ereignisses ist 0 $h_n(\{\})=0$ - jedes Ereignis und sein Gegenereignis ergänzen sich zum Ergebnisraum $\Omega$, d.h. $hn(\bar{E})=1-h_n(E)$ - $h_n(A\cup B)= h_n(A)+h_n(B)-h_n(A\cap B)$ - $H_n(E)=h_n(E)*n$ ## Mehrstufige Zufallsexperimente ### Baumdiagramm > Ein Baumdiagramm ist eine graphische Darstellung, welche die möglichen Ergebnisse eines bestimmten Ablaufs hierarchischer Entscheidungen zeigt. Die Summe der Wahrscheinlichkeiten auf den Ästen, die von einem Verzweigungspunkt ausgehen, ist stets 1. > Die Pfadregeln dienen der Berechnung von Wahrscheinlichkeiten in einem mehrstufigen Zufallsexperiment. 1. (UND) Die Wahrscheinlichkeit eines Elementarereignisses ist gleich dem Produkt der Wahrscheinlichkeiten des zugehörigen Pfades. - Bsp: $P(\{SS\})=\frac{1}{2}*\frac{1}{2}$ 2. (ODER) Die Wahrscheinlichkeit eines Ereignisses ist gleich der Summe der Wahrscheinlichkeiten aller Pfade, die zu diesem Ereignis führen. - Bsp: $P(\{SW, WS\})=\frac{1}{2}*\frac{1}{3} + \frac{1}{3}*\frac{1}{2}$ ## Kombinatorik > Die Kombinatorik hilft bei der Bestimmung der Anzahl möglicher Anordnungen (Permutationen) oder Auswahlen (Variationen oder Kombinationen) von Objekten. - Permutation - $k=n$ (d.h. es werden alle Elemente k der Grundmenge n betrachtet) - Reihenfolge der Elemente wird berücksichtigt - Variation - $k Ein Zufallsexperiment heißt Laplace-Experiment, wenn alle Elementarereignisse die gleiche Wahrscheinlichkeit besitzen. $P(E)=\frac{|E|}{|\Omega|}$ $\Omega$ sei endlich und $P(\omega)=\frac{1}{\Omega} \rightarrow$ Laplace-Verteilung oder diskrete Gleichverteilung $\rightarrow$ für $A \subseteq \Omega: P(A)=\sum_{\omega \in A} P(\omega)=\frac{*A}{*\Omega}=\frac{\text{Anzahl "günstige" Ausgänge"}}{\text{Anzahl "alle" Ausgänge}}$ Vorgehen: Laplace Wahrscheinlichkeit 1. Anzahl aller überhaupt möglichen Elementarereignisse berechnen 2. Anzahl der Elementarereignisse berechnen, bei denen E eintritt 3. Laplace Wahrscheinlichkeit berechnen > Satz von de Moivre-Laplace: Für eine binomialverteilte Zufallsgröße X mit den Parametern n und p sowie reelle Zahlen a und b gilt $P(a\leq X \leq b)= \int_{a-0,5}^{b+0,5} \varphi_{\mu_i \delta} (x) dx_i$ wobei $\mu = n*p$ und $\delta?\sqrt{n*p*(1-p)}$ ist. ## Stochastische Unabhängigkeit > Zwei Ereignisse A und B sind stochastisch unabhängig, wenn das Eintreten des einen Ereignisses das Eintreten des anderen Ereignisses nicht beeinflusst. Bsp: - Ziehen mit Zurücklegen (unabhängig): Die Wahrscheinlichkeit des Eintretens von A im 2. Zug ist unabhängig davon, ob im 1. Zug das Ereignis B oder $\bar{B}$ eintritt. In beiden Fällen ist die Wahrscheinlichkeit gleich P(A). - Ziehen ohne Zurücklegen (anhängig): Die Wahrscheinlichkeit des Eintretens von A im 2. Zug ist abhängig davon, ob im 1. Zug das Ereignis B oder $\bar{B}$ eintritt: $P_B(A)$ ist die Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist. $P_{\bar{B}}(A)$ ist die Wahrscheinlichkeit von A unter der Bedingung, dass $\bar{B}$ eingetreten ist. Zwei Ereignisse A und B heißen (stochastisch) unabhängig, wenn gilt: $P(A \cap B)=P(A)*P(B)$. Wenn die Ereignisse A und B unabhängig sind, dann sind dies auch $\bar{A}$ und B, A und $\bar{B}$ sowie $\bar{A}$ und $\bar{B}$. Bei stochastischer Unabhängigkeit zweier Ereignisse hat jeder in die gleiche Richtung zeigende Ast in einem Baumdiagramm die gleiche Wahrscheinlichkeit. Bei stochastischer Unabhängigkeit zweier Ereignisse ist die Wahrscheinlichkeit eines Feldes in der Vierfeldertafel gleich dem Produkt der Wahrscheinlichkeiten der zugehörigen Zeile und der zugehörigen Spalte. ## Bedingte Wahrscheinlichkeiten $P_B(A)$ ist die Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist; häufig schreibt man auch $P(A|B)$. die bedingte Wahrscheinlichkeit von "A gegeben B": $P(A|B)=\frac{P(A \cap B)}{P(B)}$ $A,B \subseteq \Omega$ mit $P(B)> 0$; man beobachtet, dass B eintritt nachdem A eingetreten ist. die totale Wahrscheinlichkeit: $P(A)=\sum_{i=1}^n P(A|B_i)P(B_i)$ ### Multiplikationssatz Die Wahrscheinlichkeit eines Elementarereignisses ist gleich dem Produkt der Wahrscheinlichkeiten des zugehörigen Pfades. Bsp: $P(A\cap B)= P(B)*P_B(A)$ ### Totale Wahrscheinlichkeit Die Wahrscheinlichkeit eines Ereignisses ist gleich der Summe der Wahrscheinlichkeiten aller Pfade, die zu diesem Ereignis führen. Satz der totalen Wahrscheinlichkeit für zwei Ereignisse A und B: Bsp: $P(A) = P(A\cap B) + P(A\cap \bar{B}) = P(B)*P_B(A)+P(\bar{B})*P_{\bar{B}}(A)$ ### Satz von Bayes Der Satz von Bayes erlaubt das Umkehren von Schlussfolgerungen: Man geht von einem bekannten Wert $P_A(B)$ aus, mit dessen Hilfe man $P_B(A)$ berechnet. Um die Formel für die Berechnung von $P_A(B)$ aus $P_B(A)$ zu erhalten, müssen wir zwei Baumdiagramme mit unterschiedlichem Ablauf miteinander verknüpfen. Nach dem Multiplikationssatz gilt: $P(A\cap B)=P(B)*P_B(A)$. Nach $P_B(A)$ aufgelöst gilt $P_B(A)=\frac{P(A\cap B)}{P(B)}$. Nach dem zweiten Multiplikationssatz gilt $P(A\cap B)=P(A)*P_A(B)$. Einsetzten der Formel in die erste Abbildung: $P_B(A)=\frac{P(A\cap B)}{P(B)} \Rightarrow P(A\cap B)=P(A)*P_A(B)$. daraus erhält man den Satz von Bayes $P_B(A)=\frac{P(A)*P_A(B)}{P(B)}$ Satz von Bayes: $P_B(A)=\frac{P(A)*P_A(B)}{P(B)}=\frac{P(A)*P_A(B)}{P(A)*P_A(B)+P(\bar{A})*P_{\bar{A}}(B) }$ ## Zufallsvariable Eine Funktion X, die jedem Ergebnis $\omega$ des Ergebnisraum $\Omega$ genau eine Zahl x der Menge der reelen Zahlen $\R$ zuordnet, heißt Zufallsvariable. Kurz $X:\Omega\rightarrow\R$ Veranschaulicht: Eine Zufallsvariable ordnet jedem $\omega_i$ aus $\Omega$ genau ein $x_i$ aus $\R$ zu. Es gibt drei Möglichkeiten, eine (diskrete) Zufallsvariable darzustellen: 1. als Wertetabelle 2. als abschnittsweise definierte Funktion 3. als Mengendiagramm ### Diskrete Zufallsvariable Eine Zufallsvariable X wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt. 1. Bsp: X:=„Anzahl Würfe, bis zum ersten Mal 6 erscheint“ -> unendliche Wertemenge, die jedoch abzählbar ist 2. Bsp: X:=„Anzahl defekter Artikel in einer Stichprobe“ -> endliche Wertemenge Diskrete Zufallsvariablen entstehen meist durch einen Zählvorgang. Diskrete Wahrscheinlichkeitsverteilung: Eine Wahrscheinlichkeitsverteilung gibt an, wie sich die Wahrscheinlichkeiten auf die möglichen Werte einer Zufallsvariablen verteilen. Erwartungswert :$\mu_x =E(X)=\sum_i x_i*P(X=x_i)$\\ Varianz: $\omega^2_X = Var(X) = \sum_i(x_i-\mu_X)^2 *P(X=x_i)$\\ Standardabweichung: $\omega_X = \sqrt{Var(x)}$ ### Stetige Zufallsvariable Eine Zufallsvariable X wird als stetig bezeichnet, wenn sie überabzählbar unendlich viele Werte annimmt. 1. Bsp: X:=„Gewicht einer zufällig ausgewählten Person“ -> unendliche Wertemenge, die nicht abzählbar ist 2. Bsp X:=„Geschwindigkeit eines an einer Radarkontrolle vorbeifahrenden Autos“ -> unendliche Wertemenge, die nicht abzählbar ist Stetige Zufallsvariablen entstehen meist durch einen Messvorgang. Erwartungswert: $\mu_X= E(X)=\int_{-\infty}^{\infty} x*f(x)dx$\\ Varianz: $\omega_X^2 =Var(X) = \int_{-\infty}^{\infty} (x-\mu_X)^2 *f(x)dx$\\ Standardabweichung: $\omega_X= \sqrt{Var(X)}$ ## Wahrscheinlichkeitsverteilung Eine Wahrscheinlichkeitsverteilung gibt an, wie sich die Wahrscheinlichkeiten auf die möglichen Werte einer Zufallsvariablen verteilen. Eine Wahrscheinlichkeitsverteilung lässt sich entweder - durch die Verteilungsfunktion oder - die Wahrscheinlichkeitsfunktion (bei diskreten Zufallsvariablen) - bzw. die Dichtefunktion (bei stetigen Zufallsvariablen) vollständig beschreiben. ### Wahrscheinlichkeitsfunktion Die Wahrscheinlichkeitsfunktion ist ein Hilfsmittel zur Beschreibung einer diskreten Wahrscheinlichkeitsverteilung. Eine Funktion f, die jedem x einer Zufallsvariablen X genau ein p aus [0;1] zuordnet, heißt Wahrscheinlichkeitsfunktion. Kurz: $f:x\rightarrow p$ $P(X=x)$ gibt die Wahrscheinlichkeit dafür an, dass die Zufallsgröße X den Wert x annimmt. Die Wahrscheinlichkeitsfunktion f der Zufallsvariablen X gibt die Wahrscheinlichkeiten für die möglichen Realisationen von X an: $f(x)=P(X=x)= \begin{cases} p_i \text{für } x=x_i (i=1,2,...,n) \\ 0 \text{sonst} \end{cases}$ Für die Summe der Wahrscheinlichkeiten gilt $\sum_{i=1}^n p_i=1$ ### Dichtefunktion Die Dichtefunktion ist ein Hilfsmittel zur Beschreibung einer stetigen Wahrscheinlichkeitsverteilung.\\ Eigenschaften der Dichtefunktion - Die Dichtefunktion kann nur positive Werte annehmen. $f(x) \geq 0$ für alle $x\in\R$ - Die Fläche unter der Dichtefunktion hat den Inhalt 1. $\int_{-\infty}^{\infty} f(x)dx= 1$ Die Wahrscheinlichkeit, dass eine stetige Zufallsvariable X einen bestimmten Wert x annimmt, ist stets Null. $P(X=x)=0$ ### Verteilungsfunktion Die Verteilungsfunktion ist ein Hilfsmittel zur Beschreibung einer diskreten oder stetigen Wahrscheinlichkeitsverteilung. ### Diskrete Verteilungsfunktionen 1. $P(X\leq a)=F(a)$ 2. $P(Xa)= 1−F(a)$ 4. $P(X\geq a)=1−F(a)+P(X=a)$ 5. $P(aa)=1−F(a)$ Normalverteilung Stetige Gleichverteilung Exponentialverteilung Binomialverteilung Hypergeometrische Verteilung Poisson-Verteilung