315 lines
		
	
	
		
			17 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
			
		
		
	
	
			315 lines
		
	
	
		
			17 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
| ---
 | ||
| title: Stochastik
 | ||
| date: Wintersemester 20/21
 | ||
| author: Wieerwill
 | ||
| ---
 | ||
| 
 | ||
| # Wahrscheinlichkeiten
 | ||
| > Ein Zufallsexperiment ist ein Versuch mit zufälligem Ausgang.
 | ||
| ## Wahrscheinlichkeitsraum $(\Omega , P)$
 | ||
| - Ergebnis-/Grundraum $\Omega$, Menge aller möglichen Elementarereignisse (Bsp: $\Omega={heil, kaputt}^x$)
 | ||
|   - die Anzahl aller möglichen Ergebnisse heißt Mächtigkeit des Ergebnisraums $|\Omega|$ (Bsp: $|\Omega|=2$)
 | ||
|   - Endlicher Ergebnisraum: die Elemente können abgezählt und eine Obergrenze angegeben werden
 | ||
|   - Abzählbar-unendlicher Ergebnisraum: die Elemente können abgezählt aber keine Obergrenze angegeben werden
 | ||
|   - Überabzählbar-unendlicher Ergebnisraum: die Elemente können nicht abgezählt werden
 | ||
| - Ergebnis/Ausgang $\omega \in \Omega$ (Bsp: $\omega=(heil, heil, heil, kaputt, heil...), \omega_1=(heil)$)
 | ||
|   - ein Ergebnis, das genau ein Element enthält, heißt ELementarergebnis
 | ||
| - Ereignis $A \subseteq \Omega$ (Bsp: $A={\omega: Anzahl kaputt = 2 }$)
 | ||
|   - das Ereignis, das kein Element enthält, heißt unmögliches Ereignis (Bsp "Augenzahl größer 6" beim Würfelwurf)
 | ||
|   - das Ereignis, das genau ein Element enthält, heißt Elementarereignis
 | ||
|   - Ein Ereignis, das mehr als ein Element enthält, heißt zusammengesetztes Ereignis.
 | ||
|   - das Ereignis, das alle Elemente von $\Omega$ enthält, heißt sicheres Ereignis $\Omega$: $P(\Omega)= 1$
 | ||
| - Wahrscheinlichkeitsmaß/Ereignisraum, die Menge aller Ereignisse, $P(\Omega)$
 | ||
|   - setzt sich zusammen aus dem unmöglichen Ereignis, den Elementarereignissen, den mehrelementigen Teilmengen und dem sicheren Ereignis (Bsp $P(\Omega)=\{\{\},\{heil\},\{kaputt\},\{heil, kaputt\} \}$)
 | ||
|   - die Anzahl der möglichen Ereignisse heißt Mächigkeit des Ereignisraums $|P(\Omega)|$
 | ||
|   - Der Ereignisraum besteht aus $2^{|\Omega|}$ Ereignissen
 | ||
| - Wahrscheinlichkeit, dass A eintritt: $\Omega \supseteq A \rightarrow P(A) \in [0,1]$
 | ||
| - $\sigma$-Additivität: $P(U_{k\in N} A_k)= \sum_{k\in N} P(A_k)$ für disjunkte $A_k, k\in N$
 | ||
| 
 | ||
| ## Ereignisalgebra
 | ||
| - Vereinigung: $A\cup B= \{\omega | \omega\in A \vee \omega\in B \}$
 | ||
|   - Bsp: $A=\{1,2\}, B=\{2,3\}, A\cup B=\{1,2,3\}$
 | ||
| - Durchschnitt: $A\cap B = \{\omega | \omega\in A \wedge \omega\in B \}$
 | ||
|   - Bsp: $A=\{1,2\}, B=\{2,3\}, A\wedge B=\{2\}$
 | ||
| - Gegenereignis: $\bar{A} = \{\omega | \omega\not\in A\}$
 | ||
|   - Bsp: $A=\{1,2\}, \Omega=\{1,2,3,4,5,6\}, \bar{A}=\{3,4,5,6\}$
 | ||
| - Differenz $A \backslash B = A\cap\bar{B} = \{\omega| \omega\in A \wedge \omega\not\in B\}$
 | ||
|   - Bsp: $A=\{1,2\}, B=\{2,3\}, A\backslash B=\{1\}$
 | ||
| - Symmetrische Differenz $(A\cap \bar{B})\cup(\bar{A}\cap B)$
 | ||
|   - die Menge aller Elemente, die zu A oder zu B, nicht aber zu beiden Ereignissen gehören
 | ||
|   - Bsp: $A=\{1,2\}, B=\{2,3\}, A\cup B=\{1,3\}$
 | ||
| - disjunkte Ereignisse $A\cap B = \varnothing$
 | ||
|   - wenn sie keine gemeinsamen Elemente haben (unvereinbar)
 | ||
| 
 | ||
| ## Rechengesetze
 | ||
| - Kommutativ: 
 | ||
|   - $A\cup B = B\cup A$
 | ||
|   - $A\cap B = B\cap A$
 | ||
| - Assoziativ: 
 | ||
|   - $(A\cup B)\cup C = A\cup(B\cup C)$
 | ||
|   - $(A\cap B)\cap C = A\cap(B\cap C)$
 | ||
| - Distributiv: 
 | ||
|   - $A\cap(B\cup C)=(A\cap B)\cup(A\cap C)$
 | ||
|   - $A\cup(B\cap C)= (A\cup B)\cap (A\cup C)$
 | ||
| - Absorption
 | ||
|   - $A\cap(A\cup B)=A$
 | ||
|   - $A\cup(A\cap B)=A$
 | ||
| - Idempotenz
 | ||
|   - $A\cap A=A$
 | ||
|   - $A\cup A=A$
 | ||
| - De-Morgan-Gesetz
 | ||
|   - $\bar{A}\cap\bar{B}=\overline{A\cup B}$
 | ||
|   - $\bar{A}\cup\bar{B}=\overline{A\cap B}$
 | ||
| - Neutrale Elemente
 | ||
|   - $A\cap \Omega=A$
 | ||
|   - $A\cup \varnothing = A$
 | ||
| - Dominante Elemente
 | ||
|   - $A\cap \varnothing = \varnothing$
 | ||
|   - $A\cup \Omega = \Omega$
 | ||
| - Komplemente
 | ||
|   - $A\cap \bar{A} = \varnothing$
 | ||
|   - $A\cup \bar{A} = \Omega$
 | ||
|   - $\bar{\bar{A}} = A$
 | ||
| 
 | ||
| ## Vierfeldertafel
 | ||
| Alle vier Felder zusammen entsprechen dem Ergebnisraum $\Omega$
 | ||
| 
 | ||
| | $\Omega$  | $B$             | $\bar{B}$            |
 | ||
| | --------- | --------------- | -------------------- |
 | ||
| | $A$       | $A\cap B$       | $A\cap \bar{B}$      |
 | ||
| | $\bar{A}$ | $\bar{A}\cap B$ | $\bar{A}\cap\bar{B}$ |
 | ||
| 
 | ||
| 
 | ||
| ## Absolute Häufigkeit
 | ||
| > Die absolute Häufigkeit $H_n(E)$ gibt an, wie oft das Ereignis E innerhalb eines Zufallsexperiments, welches n-mal ausgeführt wird, aufgetreten ist.
 | ||
| 
 | ||
| Die Summe der absoluten Häufigkeiten ergibt n.
 | ||
| 
 | ||
| Bsp: Münze wird 20 mal geworfen. Man erhält 8 mal Kopf und 12 mal Zahl:
 | ||
| - $H_{20}(Kopf)=8$
 | ||
| - $H_{20}(Zahl)=12$
 | ||
| 
 | ||
| ## Relative Häufigkeit
 | ||
| > Tritt ein Ereignis $E$ bei $n$ Versuchen $k$-mal ein, so heißt die Zahl $h_n(E)=\frac{k}{n}$ relative Häufigkeit des Ereignisses E.
 | ||
| 
 | ||
| anders: $h_n(E)=\frac{H_n(E)}{n}$
 | ||
| 
 | ||
| Bsp: Münze wird 20 mal geworfen. Man erhält 8 mal Kopf und 12 mal Zahl:
 | ||
| - $h_{20}(Kopf)=\frac{8}{20}=0,4$
 | ||
| - $h_{20}(Zahl)=\frac{12}{20}=0,6$
 | ||
| 
 | ||
| - die Relative Häufigkeit nimmt Werte zwischen 0 und 1 an
 | ||
| - die relative Häufigkeit des sicheren Ereignisses ist 1 $h_n(\Omega)=1$
 | ||
| - die relative Häufigkeit des unmöglichen Ereignisses ist 0 $h_n(\{\})=0$
 | ||
| - jedes Ereignis und sein Gegenereignis ergänzen sich zum Ergebnisraum $\Omega$, d.h. $hn(\bar{E})=1-h_n(E)$
 | ||
| - $h_n(A\cup B)= h_n(A)+h_n(B)-h_n(A\cap B)$
 | ||
| - $H_n(E)=h_n(E)*n$
 | ||
| 
 | ||
| ## Mehrstufige Zufallsexperimente
 | ||
| ### Baumdiagramm
 | ||
| > Ein Baumdiagramm ist eine graphische Darstellung, welche die möglichen Ergebnisse eines bestimmten Ablaufs hierarchischer Entscheidungen zeigt.
 | ||
| 
 | ||
| Die Summe der Wahrscheinlichkeiten auf den Ästen, die von einem Verzweigungspunkt ausgehen, ist stets 1.
 | ||
| 
 | ||
| > Die Pfadregeln dienen der Berechnung von Wahrscheinlichkeiten in einem mehrstufigen Zufallsexperiment.
 | ||
| 
 | ||
| 1. (UND) Die Wahrscheinlichkeit eines Elementarereignisses ist gleich dem Produkt der Wahrscheinlichkeiten des zugehörigen Pfades.
 | ||
|      - Bsp: $P(\{SS\})=\frac{1}{2}*\frac{1}{2}$
 | ||
| 2. (ODER) Die Wahrscheinlichkeit eines Ereignisses ist gleich der Summe der Wahrscheinlichkeiten aller Pfade, die zu diesem Ereignis führen.
 | ||
|      - Bsp: $P(\{SW, WS\})=\frac{1}{2}*\frac{1}{3} + \frac{1}{3}*\frac{1}{2}$
 | ||
| 
 | ||
| ## Kombinatorik
 | ||
| > Die Kombinatorik hilft bei der Bestimmung der Anzahl möglicher Anordnungen (Permutationen) oder Auswahlen (Variationen oder Kombinationen) von Objekten.
 | ||
| 
 | ||
| - Permutation
 | ||
|   - $k=n$ (d.h. es werden alle Elemente k der Grundmenge n betrachtet)
 | ||
|   - Reihenfolge der Elemente wird berücksichtigt
 | ||
| - Variation
 | ||
|   - $k<n$ (d.h. es wird nur eine Stichprobe - also k Elemente der Grundmenge n betrachtet)
 | ||
|   - Reihenfolge der Elemente wird berücksichtigt $\rightarrow$ Variation = geordnete Stichprobe
 | ||
| - Kombination
 | ||
|   - $k<n$ (d.h. es wird nur eine Stichprobe - also k Elemente der Grundmenge n betrachtet)
 | ||
|   - Reihenfolge der Elemente wird nicht berücksichtigt $\rightarrow$ Kombination = ungeordnete Stichprobe
 | ||
| 
 | ||
| 1. Permutation ohne Wiederholung
 | ||
|     - Für das erste Objekt gibt es $n$ Platzierungsmöglichkeiten. Für das zweite Objekt verbleiben $(n−1)$ Möglichkeiten, für das dritte Objekt $(n−2)$ ... und für das letzte Objekt verbleibt nur noch eine Möglichkeit.
 | ||
|     - kurz: $n!$
 | ||
| 2. Permutation mit Wiederholung
 | ||
|     - Sind genau k Objekte identisch, dann sind diese auf ihren Plätzen vertauschbar, ohne dass sich dabei eine neue Reihenfolge ergibt. Auf diese Weise sind genau k! Anordnungen gleich.
 | ||
|     - kurz: $\frac{n!}{k!}$ und mit mehreren Gruppen $\frac{n!}{k_1! * k_2!...}$
 | ||
| 3. Variation ohne Wiederholung
 | ||
|     - Für das erste Objekt gibt es n Platzierungsmöglichkeiten. Für das zweite Objekt verbleiben $(n-1)$ Möglichkeiten, für das dritte Objekt $(n-2)$ ...und für das letzte Objekt verbleiben noch $(n-k+1)$ Möglichkeiten.
 | ||
|     - kurz: $\frac{n!}{(n-k)!}$
 | ||
| 4. Variation mit Wiederholung
 | ||
|     - Für das erste Objekt gibt es n Auswahlmöglichkeiten. Da Objekte mehrfach ausgewählt werden dürfen, gibt es auch für das zweite, dritte und k-te Objekt n Möglichkeiten.
 | ||
|     - $n^k$
 | ||
| 5. Kombination ohne Wiederholung
 | ||
|     - Der einzige Unterschied zwischen einer Variation ohne Wiederholung und einer Kombination ohne Wiederholung ist die Tatsache, dass bei der Kombination im - Gegensatz zur Variation - die Reihenfolge der Objekte keine Rolle spielt.
 | ||
|     - kurz: $\frac{n!}{(n-k)!*k!} = \binom{n}{k}$
 | ||
| 6. Kombination mit Wiederholung
 | ||
|     - Durch eine kleine Modifikation des Zählers und des Nenners gelangen wir schließlich zur Formel für eine Kombination mit Wiederholung
 | ||
|     - $\frac{(n+k-1)!}{(n-1)!*k!} = \binom{n+k-1}{k}$
 | ||
| 
 | ||
| |                               |                            | Menge   | Reihenfolge    |
 | ||
| | ----------------------------- | -------------------------- | ------- | -------------- |
 | ||
| | Permutation ohne Wiederholung | $n!$                       | n aus n | beachtet       |
 | ||
| | Permutation mit Wiederholung  | $\frac{n!}{k_1!*k_2!*...}$ | n aus n | beachtet       |
 | ||
| | Variation ohne Wiederholung   | $\frac{n!}{(n-k)!}$        | k aus n | beachtet       |
 | ||
| | Variation mit Wiederholung    | $n^k$                      | k aus n | beachtet       |
 | ||
| | Kombination ohne Wiederholung | $\binom{n}{k}$             | k aus n | nicht beachtet |
 | ||
| | Kombination mit Wiederholung  | $\binom{n+k-1}{k}$         | k aus n | nicht beachtet |
 | ||
| 
 | ||
| 
 | ||
| 
 | ||
| ## Laplace Expriment
 | ||
| > Ein Zufallsexperiment heißt Laplace-Experiment, wenn alle Elementarereignisse die gleiche Wahrscheinlichkeit besitzen. $P(E)=\frac{|E|}{|\Omega|}$
 | ||
| 
 | ||
| $\Omega$ sei endlich und $P(\omega)=\frac{1}{\Omega} \rightarrow$ Laplace-Verteilung oder diskrete Gleichverteilung $\rightarrow$ für $A \subseteq \Omega: P(A)=\sum_{\omega \in A} P(\omega)=\frac{*A}{*\Omega}=\frac{\text{Anzahl "günstige" Ausgänge"}}{\text{Anzahl "alle" Ausgänge}}$ 
 | ||
| 
 | ||
| Vorgehen: Laplace Wahrscheinlichkeit
 | ||
| 1. Anzahl aller überhaupt möglichen Elementarereignisse berechnen
 | ||
| 2. Anzahl der Elementarereignisse berechnen, bei denen E eintritt
 | ||
| 3. Laplace Wahrscheinlichkeit berechnen
 | ||
| 
 | ||
| > Satz von de Moivre-Laplace: Für eine binomialverteilte Zufallsgröße X mit den Parametern n und p sowie reelle Zahlen a und b gilt $P(a\leq X \leq b)= \int_{a-0,5}^{b+0,5} \varphi_{\mu_i \delta} (x) dx_i$ wobei $\mu = n*p$ und $\delta?\sqrt{n*p*(1-p)}$ ist.
 | ||
| 
 | ||
| ## Stochastische Unabhängigkeit
 | ||
| > Zwei Ereignisse A und B sind stochastisch unabhängig, wenn das Eintreten des einen Ereignisses das Eintreten des anderen Ereignisses nicht beeinflusst.
 | ||
| 
 | ||
| Bsp: 
 | ||
| - Ziehen mit Zurücklegen (unabhängig): Die Wahrscheinlichkeit des Eintretens von A im 2. Zug ist unabhängig davon, ob im 1. Zug das Ereignis B oder $\bar{B}$ eintritt. In beiden Fällen ist die Wahrscheinlichkeit gleich P(A).
 | ||
| - Ziehen ohne Zurücklegen (anhängig): Die Wahrscheinlichkeit des Eintretens von A im 2. Zug ist abhängig davon, ob im 1. Zug das Ereignis B oder $\bar{B}$ eintritt:
 | ||
| $P_B(A)$ ist die Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist. $P_{\bar{B}}(A)$ ist die Wahrscheinlichkeit von A unter der Bedingung, dass $\bar{B}$ eingetreten ist.
 | ||
| 
 | ||
| Zwei Ereignisse A und B heißen (stochastisch) unabhängig, wenn gilt: $P(A \cap B)=P(A)*P(B)$. Wenn die Ereignisse A und B unabhängig sind, dann sind dies auch $\bar{A}$ und B, A und $\bar{B}$ sowie $\bar{A}$ und $\bar{B}$.
 | ||
| 
 | ||
| Bei stochastischer Unabhängigkeit zweier Ereignisse hat jeder in die gleiche Richtung zeigende Ast in einem Baumdiagramm die gleiche Wahrscheinlichkeit.
 | ||
| 
 | ||
| Bei stochastischer Unabhängigkeit zweier Ereignisse ist die Wahrscheinlichkeit eines Feldes in der Vierfeldertafel gleich dem Produkt der Wahrscheinlichkeiten der zugehörigen Zeile und der zugehörigen Spalte.
 | ||
| 
 | ||
| 
 | ||
| ## Bedingte Wahrscheinlichkeiten
 | ||
| $P_B(A)$ ist die Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist; häufig schreibt man auch $P(A|B)$.
 | ||
| die bedingte Wahrscheinlichkeit von "A gegeben B": $P(A|B)=\frac{P(A \cap B)}{P(B)}$
 | ||
| 
 | ||
| $A,B \subseteq \Omega$ mit $P(B)> 0$; man beobachtet, dass B eintritt nachdem A eingetreten ist.
 | ||
| 
 | ||
| die totale Wahrscheinlichkeit: $P(A)=\sum_{i=1}^n P(A|B_i)P(B_i)$
 | ||
| 
 | ||
| ### Multiplikationssatz
 | ||
| Die Wahrscheinlichkeit eines Elementarereignisses ist gleich dem Produkt der Wahrscheinlichkeiten des zugehörigen Pfades.
 | ||
| 
 | ||
| Bsp: $P(A\cap B)= P(B)*P_B(A)$
 | ||
| 
 | ||
| ### Totale Wahrscheinlichkeit
 | ||
| Die Wahrscheinlichkeit eines Ereignisses ist gleich der Summe der Wahrscheinlichkeiten aller Pfade, die zu diesem Ereignis führen.
 | ||
| 
 | ||
| Satz der totalen Wahrscheinlichkeit für zwei Ereignisse A und B: 
 | ||
| Bsp: $P(A) = P(A\cap B) + P(A\cap \bar{B}) = P(B)*P_B(A)+P(\bar{B})*P_{\bar{B}}(A)$
 | ||
| 
 | ||
| ### Satz von Bayes
 | ||
| Der Satz von Bayes erlaubt das Umkehren von Schlussfolgerungen:
 | ||
| Man geht von einem bekannten Wert $P_A(B)$ aus, mit dessen Hilfe man $P_B(A)$ berechnet.
 | ||
| 
 | ||
| Um die Formel für die Berechnung von $P_A(B)$ aus $P_B(A)$ zu erhalten, müssen wir zwei Baumdiagramme mit unterschiedlichem Ablauf miteinander verknüpfen. Nach dem Multiplikationssatz gilt: $P(A\cap B)=P(B)*P_B(A)$. Nach $P_B(A)$ aufgelöst gilt $P_B(A)=\frac{P(A\cap B)}{P(B)}$. Nach dem zweiten Multiplikationssatz gilt $P(A\cap B)=P(A)*P_A(B)$. Einsetzten der Formel in die erste Abbildung: $P_B(A)=\frac{P(A\cap B)}{P(B)} \Rightarrow P(A\cap B)=P(A)*P_A(B)$. daraus erhält man den Satz von Bayes $P_B(A)=\frac{P(A)*P_A(B)}{P(B)}$
 | ||
| 
 | ||
| Satz von Bayes: $P_B(A)=\frac{P(A)*P_A(B)}{P(B)}=\frac{P(A)*P_A(B)}{P(A)*P_A(B)+P(\bar{A})*P_{\bar{A}}(B) }$
 | ||
| 
 | ||
| ## Zufallsvariable
 | ||
| Eine Funktion X, die jedem Ergebnis $\omega$ des Ergebnisraum $\Omega$ genau eine Zahl x der Menge der reelen Zahlen $\R$ zuordnet, heißt Zufallsvariable. 
 | ||
| Kurz $X:\Omega\rightarrow\R$ 
 | ||
| Veranschaulicht: Eine Zufallsvariable ordnet jedem $\omega_i$ aus $\Omega$ genau ein $x_i$ aus $\R$ zu.
 | ||
| 
 | ||
| Es gibt drei Möglichkeiten, eine (diskrete) Zufallsvariable darzustellen:
 | ||
| 1. als Wertetabelle
 | ||
| 2. als abschnittsweise definierte Funktion
 | ||
| 3. als Mengendiagramm
 | ||
| 
 | ||
| ### Diskrete Zufallsvariable
 | ||
| Eine Zufallsvariable X wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt.
 | ||
| 
 | ||
| 1. Bsp: X:=„Anzahl Würfe, bis zum ersten Mal 6 erscheint“ -> unendliche Wertemenge, die jedoch abzählbar ist
 | ||
| 2. Bsp: X:=„Anzahl defekter Artikel in einer Stichprobe“ -> endliche Wertemenge
 | ||
| 
 | ||
| Diskrete Zufallsvariablen entstehen meist durch einen Zählvorgang.
 | ||
| 
 | ||
| Diskrete Wahrscheinlichkeitsverteilung: Eine Wahrscheinlichkeitsverteilung gibt an, wie sich die Wahrscheinlichkeiten auf die möglichen Werte einer Zufallsvariablen verteilen.
 | ||
| 
 | ||
| Erwartungswert :$\mu_x =E(X)=\sum_i x_i*P(X=x_i)$\\
 | ||
| Varianz: $\omega^2_X = Var(X) = \sum_i(x_i-\mu_X)^2 *P(X=x_i)$\\
 | ||
| Standardabweichung: $\omega_X = \sqrt{Var(x)}$
 | ||
| 
 | ||
| ### Stetige Zufallsvariable
 | ||
| Eine Zufallsvariable X wird als stetig bezeichnet, wenn sie überabzählbar unendlich viele Werte annimmt.
 | ||
| 
 | ||
| 1. Bsp: X:=„Gewicht einer zufällig ausgewählten Person“ -> unendliche Wertemenge, die nicht abzählbar ist
 | ||
| 2. Bsp X:=„Geschwindigkeit eines an einer Radarkontrolle vorbeifahrenden Autos“ -> unendliche Wertemenge, die nicht abzählbar ist
 | ||
| 
 | ||
| Stetige Zufallsvariablen entstehen meist durch einen Messvorgang.
 | ||
| 
 | ||
| Erwartungswert: $\mu_X= E(X)=\int_{-\infty}^{\infty} x*f(x)dx$\\
 | ||
| Varianz: $\omega_X^2 =Var(X) = \int_{-\infty}^{\infty} (x-\mu_X)^2 *f(x)dx$\\
 | ||
| Standardabweichung: $\omega_X= \sqrt{Var(X)}$
 | ||
| 
 | ||
| ## Wahrscheinlichkeitsverteilung
 | ||
| Eine Wahrscheinlichkeitsverteilung gibt an, wie sich die Wahrscheinlichkeiten auf die möglichen Werte einer Zufallsvariablen verteilen.
 | ||
| 
 | ||
| Eine Wahrscheinlichkeitsverteilung lässt sich entweder
 | ||
| - durch die Verteilungsfunktion oder
 | ||
| - die Wahrscheinlichkeitsfunktion (bei diskreten Zufallsvariablen)
 | ||
| - bzw. die Dichtefunktion (bei stetigen Zufallsvariablen)
 | ||
| vollständig beschreiben.
 | ||
| 
 | ||
| ### Wahrscheinlichkeitsfunktion
 | ||
| Die Wahrscheinlichkeitsfunktion ist ein Hilfsmittel zur Beschreibung einer diskreten Wahrscheinlichkeitsverteilung. 
 | ||
| Eine Funktion f, die jedem x einer Zufallsvariablen X genau ein p aus [0;1] zuordnet, heißt Wahrscheinlichkeitsfunktion. Kurz: $f:x\rightarrow p$
 | ||
| 
 | ||
| $P(X=x)$ gibt die Wahrscheinlichkeit dafür an, dass die Zufallsgröße X den Wert x annimmt.
 | ||
| 
 | ||
| Die Wahrscheinlichkeitsfunktion f der Zufallsvariablen X gibt die Wahrscheinlichkeiten für die möglichen Realisationen von X an: $f(x)=P(X=x)= \begin{cases} p_i \text{für } x=x_i (i=1,2,...,n) \\ 0 \text{sonst} \end{cases}$
 | ||
| Für die Summe der Wahrscheinlichkeiten gilt $\sum_{i=1}^n p_i=1$
 | ||
| 
 | ||
| ### Dichtefunktion
 | ||
| Die Dichtefunktion ist ein Hilfsmittel zur Beschreibung einer stetigen Wahrscheinlichkeitsverteilung.\\
 | ||
| Eigenschaften der Dichtefunktion
 | ||
| - Die Dichtefunktion kann nur positive Werte annehmen. $f(x) \geq 0$ für alle $x\in\R$
 | ||
| - Die Fläche unter der Dichtefunktion hat den Inhalt 1. $\int_{-\infty}^{\infty} f(x)dx= 1$
 | ||
| 
 | ||
| Die Wahrscheinlichkeit, dass eine stetige Zufallsvariable X einen bestimmten Wert x annimmt, ist stets Null. $P(X=x)=0$
 | ||
| 
 | ||
| 
 | ||
| ### Verteilungsfunktion
 | ||
| Die Verteilungsfunktion ist ein Hilfsmittel zur Beschreibung einer diskreten oder stetigen Wahrscheinlichkeitsverteilung.
 | ||
| 
 | ||
| ### Diskrete Verteilungsfunktionen
 | ||
| 1. $P(X\leq a)=F(a)$
 | ||
| 2. $P(X<a)= F(a)−P(X=a)$
 | ||
| 3. $P(X>a)= 1−F(a)$
 | ||
| 4. $P(X\geq a)=1−F(a)+P(X=a)$
 | ||
| 5. $P(a<X\leq b)=F(b)−F(a)$
 | ||
| 6. $P(a\leq X \leq b)=F(b)−F(a)+P(X=a)$
 | ||
| 7. $P(a<X<b) = F(b)−F(a)−P(X=b)$
 | ||
| 8. $P(a\leq X < b)=F(b)−F(a)+P(X=a)−P(X=b)$
 | ||
| 
 | ||
| Eigenschaften einer Verteilungsfunktion
 | ||
| - F(x) ist monoton steigend.
 | ||
| - F(x) ist rechtsseitig stetig.
 | ||
| - $lim_{x\rightarrow -\infty} F(x)=0$ und $lim_{x\rightarrow +\infty} F(x)=1$
 | ||
| 
 | ||
| ### Stetige Verteilungsfunktion
 | ||
| $$F(X)=P(X\leq x)=\int_{-\infty}^{x} f(u) du$$
 | ||
| 
 | ||
| Die Wahrscheinlichkeit, dass eine stetige Zufallsvariable X einen bestimmten Wert x annimmt, ist stets Null. 
 | ||
| - $P(X=x)=0$
 | ||
| - $P(X\leq a)=F(a)$
 | ||
| - $P(a<X\leq b)=F(b)−F(a)$
 | ||
| - $P(X>a)=1−F(a)$
 | ||
| 
 | ||
| 
 | ||
|     Normalverteilung
 | ||
|     Stetige Gleichverteilung
 | ||
|     Exponentialverteilung
 | ||
| 
 | ||
|     Binomialverteilung
 | ||
|     Hypergeometrische Verteilung
 | ||
|     Poisson-Verteilung |