|
|
\documentclass[11pt]{scrartcl}
|
|
|
\usepackage[utf8]{inputenc}
|
|
|
\usepackage[ngerman]{babel}
|
|
|
\usepackage{amsmath}
|
|
|
\usepackage{amssymb}
|
|
|
\usepackage{eurosym}
|
|
|
%\usepackage{multicol}
|
|
|
%\usepackage{booktabs}
|
|
|
%\usepackage{pstricks}
|
|
|
%\usepackage{pst-node}
|
|
|
\usepackage[paper=a4paper,left=30mm,right=20mm,top=20mm,bottom =25mm]{geometry}
|
|
|
\usepackage[
|
|
|
pdftitle={Wahrscheinlichkeitstheorie und Statistik},
|
|
|
pdfsubject={Mitschrift der Vorlesung "Wahrscheinlichkeitstheorie und Statistik" an der HTW-Aalen, bei Herrn Fischer.},
|
|
|
pdfauthor={Thomas Battermann},
|
|
|
pdfkeywords={Wahrscheinlichkeitstheorie und Statistik},
|
|
|
pdfborder={0 0 0}
|
|
|
]{hyperref}
|
|
|
%TEST
|
|
|
\usepackage{framed}
|
|
|
\usepackage{amsthm}
|
|
|
\newtheorem{mdef}[equation]{Definition}
|
|
|
\newenvironment{mydef}
|
|
|
{\begin{leftbar}\begin{mdef}}
|
|
|
{\end{mdef}\end{leftbar}}
|
|
|
%TEST ENDE
|
|
|
\usepackage{tabularx}
|
|
|
%\usepackage{graphicx}
|
|
|
\usepackage[usenames,dvipsnames]{color}
|
|
|
\usepackage{lastpage}
|
|
|
\usepackage{fancyhdr}
|
|
|
\setlength{\parindent}{0ex}
|
|
|
\setlength{\parskip}{2ex}
|
|
|
\setcounter{secnumdepth}{4}
|
|
|
\setcounter{tocdepth}{4}
|
|
|
\definecolor{darkgreen}{rgb}{0,0.5,0}
|
|
|
\definecolor{darkblue}{rgb}{0,0,0.5}
|
|
|
|
|
|
\pagestyle{fancy} %eigener Seitenstil
|
|
|
\fancyhf{} %alle Kopf- und Fußzeilenfelder bereinigen
|
|
|
\fancyhead[L]{Wahrscheinlichkeitstheorie und Statistik} %Kopfzeile links
|
|
|
\fancyhead[C]{Semester 3} %zentrierte Kopfzeile
|
|
|
\fancyhead[R]{WS 2011/2012} %Kopfzeile rechts
|
|
|
\renewcommand{\headrulewidth}{0.4pt} %obere Trennlinie
|
|
|
\fancyfoot[C]{Seite \thepage\ von \pageref{LastPage}}
|
|
|
\renewcommand{\footrulewidth}{0.4pt} %untere Trennlinie
|
|
|
|
|
|
\newcommand{\spa}{\hspace*{4mm}}
|
|
|
\newcommand{\defin}{\textcolor{darkgreen}{\textbf{Def.: }}}
|
|
|
\newcommand{\bsp}{\textcolor{darkblue}{\textbf{\underline{Bsp.}: }}}
|
|
|
\newcommand{\rrfloor}{\right\rfloor}
|
|
|
\newcommand{\llfloor}{\left\lfloor}
|
|
|
\newcommand{\cunder}[2]{{\color{#1}\underline{\color{Black}#2}}}
|
|
|
|
|
|
|
|
|
\title{Wahrscheinlichkeitstheorie und Statistik}
|
|
|
\author{Mitschrift von Thomas Battermann}
|
|
|
\date{3. Semester}
|
|
|
|
|
|
\begin{document}
|
|
|
\pagestyle{empty}
|
|
|
|
|
|
\maketitle\thispagestyle{empty}
|
|
|
\tableofcontents\thispagestyle{empty}
|
|
|
|
|
|
\newpage
|
|
|
\pagestyle{fancy}
|
|
|
\setcounter{page}{1}
|
|
|
|
|
|
Statistik:
|
|
|
\begin{itemize}
|
|
|
\item beschreibende Statistik\\
|
|
|
\(\to\) Erfassung, Auswertung von Daten.\\
|
|
|
(z.\,B. über Mittelwerte)
|
|
|
\begin{itemize}
|
|
|
\item oftmals keine Gesamterhebung (z.\,B. Wahl)
|
|
|
\item sondern Stichproben (z.\,B. Hochrechnung, Umfragen vorab)\\
|
|
|
Auswahl:
|
|
|
\begin{itemize}
|
|
|
\item Zufällig\\
|
|
|
Qualitätstests
|
|
|
\item gezielt (Repräsentative Stichprobe)\\
|
|
|
z.\,B. Hochrechnung der Wahl
|
|
|
\end{itemize}
|
|
|
\end{itemize}
|
|
|
\item beurteilende Statistik
|
|
|
\begin{itemize}
|
|
|
\item Rückschlüsse von Stichproben auf die Gesamtheit
|
|
|
\item Tests \( \to \)
|
|
|
\item[\(\to\)] Zufallseffekte
|
|
|
\item[\(\to\)] Wahrscheinlichkeitsrechnung als Hilfsmittel
|
|
|
\end{itemize}
|
|
|
\end{itemize}
|
|
|
|
|
|
|
|
|
\section{Wahrscheinlichkeitsrechnung}
|
|
|
|
|
|
\subsection{Grundbegriffe}
|
|
|
|
|
|
\subsubsection{Zufallsexperimente}
|
|
|
\begin{itemize}
|
|
|
\item Mehrere mögliche Ergebnisse\\
|
|
|
{\color{Orange}\bsp Würfeln \(\to\) 1,2,3,4,5,6}
|
|
|
\item prinzipiell beliebig oft wiederholbar
|
|
|
\item für die Ergebnisse lassen sich Wahrscheinlichkeiten angeben\\
|
|
|
{\color{Orange}\(\to\) jeweils \(\frac 1 6\)}
|
|
|
\end{itemize}
|
|
|
|
|
|
Überprüfung von Wahrscheinlichkeiten mit Hilfe häufiger Wiederholungen des Experiments. {\color{Orange}\bsp 1000 maliges Würfeln \(\to\) 160mal 1, 168mal 2, …}\\
|
|
|
{\color{Orange}Schätzwert für die W.: \(\frac{160}{1000} = 0,16 = \) relative Häufigkeit}\\
|
|
|
{\color{Orange}absolute Häufigkeit der 1 = 160}
|
|
|
|
|
|
Man erhält W. aus den relativen Häufigkeiten, wenn die Anzahl der Wiederholungen gegen \(\infty\) geht.\\
|
|
|
{\color{Orange}W. für die 1 = \(0.1\overline{6}\)}
|
|
|
|
|
|
\subsubsection{Begriffe, Bezeichnungen:}
|
|
|
|
|
|
\underline{Ergebnisse} \( \omega_1, \omega_2, \omega_3, …\)
|
|
|
|
|
|
\underline{Ergebnismenge:} \( \Omega = \{ \omega_1, \omega_2, \omega_3, … \} \) {\color{Orange} \( \Omega = \{1,2,3,4,5,6\}\)}
|
|
|
|
|
|
\underline{Ereignisse:} \( A,B,C,… \) sind Teilmengen von \(\Omega\)\\
|
|
|
\spa meist zunächst verbal formuliert\\
|
|
|
\spa {\color{Orange}A: Es wird eine gerade Zahl gewürfelt.}\\
|
|
|
\spa {\color{Orange}\(\to A= \{2,4,6\} \) }
|
|
|
|
|
|
\underline{Wahrscheinlichkeiten} für die Ergebnisse und die Ereignisse.\\
|
|
|
\spa \(P(\omega_1), P(\omega_2), …\) und \(P(A), P(B), …\) (\(P\) für probalby)\\
|
|
|
\spa {\color{Orange} \(P(1)=P(2)=P(3)=P(4)=P(5)=P(6)=\frac{1}{6} \)} (Lauter gleiche W. (Gleichverteilung))\\
|
|
|
\spa {\color{Orange} \( P(a) = \frac 3 6 = \frac 1 2 = 0,5 = 50\% \)}
|
|
|
|
|
|
\bsp 2maliges Würfeln\\
|
|
|
A: im 1. Wurf kommt 5\\
|
|
|
B: Summe der Augen ist 7\\
|
|
|
gesucht: \(\Omega, P(A), P(B) \)
|
|
|
|
|
|
\( \Omega = \{ 11,12,,21,13,31,…,66\} \) W. jeweils \( \frac 1 36 \)\\
|
|
|
\( A = \{ 51,52,53,54,55,56 \} \)\\
|
|
|
\( B = \{ 16,25,34,43,52,61 \} \)\\
|
|
|
\( P(A) = \frac 1 6 \)\\
|
|
|
\( P(B) = \frac 1 6 \)
|
|
|
|
|
|
C: Summe der Augenzahlen ist 12\\
|
|
|
\( C = \{ 66 \} \) \( P(C) = \frac 1 {36} \)
|
|
|
|
|
|
\bsp 3-maliger Münzwurf\\
|
|
|
Mit welcher w.\\
|
|
|
(a) tritt keinmal Wappen auf?\\
|
|
|
(b) tritt genau zweimal Wappen auf?
|
|
|
|
|
|
\(\Omega = \{ ZZZ, ZZW, ZWZ, WZZ, ZWW, WZW, ZWW, WWW \} \)\\
|
|
|
\( P(A) = \{ ZZZ \} = \frac 1 8 \)\\
|
|
|
\( P(B) = \{ ZWW, WZW, WWZ \} = \frac 3 8 \)
|
|
|
|
|
|
\subsubsection{Eigenschaften, Rechenregeln für W.}
|
|
|
|
|
|
\( P(\Omega) = 1 \), \( P(\emptyset) = 0\), für jedes Ereignis A: \( 0 \le P(A) \le 1 \)
|
|
|
|
|
|
Ereignis A \(\to\) Gegenereignis (Komplement) von A: \(\overline{A} = A^C\) mit \( P(\overline{A}) = 1-P(A) \)
|
|
|
|
|
|
Schnitt von Ereignissen A und B: \( A \cap B \)
|
|
|
|
|
|
Vereinigung von Ereignissen A und B: \( A \cup B \)\\
|
|
|
\( P(A\cup B) = P(A) + P(B) - P(A\cap B) \)\\
|
|
|
|
|
|
Wenn A und B \underline{disjunkt} sind, dann ist \( P(A\cup B) = P(A)+P(B) \)
|
|
|
|
|
|
P(\underline{entweder} A oder B) ) \( P(A) + P(B) - 2 \cdot P(A\cap B)\) \(( = P( (A\cap \overline{B}) \cup (\overline{A}\cap B) ))\)
|
|
|
|
|
|
Allgemeiner:\\
|
|
|
\begin{align*}
|
|
|
P(A \cup B \cup C) = &P(A) + P(B) + P(C) \\
|
|
|
&+ P(A\cap B\cap C) \\
|
|
|
&- P(A\cap B) - P(A\cap C) - P(B\cap C)
|
|
|
\end{align*}
|
|
|
|
|
|
Allgemein (Siebformel oder Inklusions-Exklusions-Methode):
|
|
|
\begin{align*}
|
|
|
&P(A_1 \cup A_2 \cup … \cup A_n)\\
|
|
|
= &P(A_1) + P(A_2) + … + P(A_n)\\
|
|
|
&-P(A_1 \cap A_2) - P(A_1 \cap A_2) -\\
|
|
|
&+ P(A_1 \cap A_2 \cap A_3) + …\\
|
|
|
&…\\
|
|
|
&+(-1)^{n+1} \cdot P(A_1 \cap A_2 \cap … \cap A_n )
|
|
|
\end{align*}
|
|
|
|
|
|
\bsp 100 maliges Würfeln. Mit welcher Wahrscheinlichkeit tritt {\color{Orange}\(\to 6^{100} \) mögliche Ergebnisse}\\
|
|
|
\begin{itemize}
|
|
|
\item[(a)] 100 mal 5 auf? { \color{Orange}\( \frac 1 {6^{100}} \) }
|
|
|
\item[(b)] keine 5 auf? { \color{Orange} \( \left( \frac 5 6 \right)^{100} \) }
|
|
|
\item[(c)] mindestens eine 5 auf? { \color{Orange} \( 1- \left( \frac 5 6 \right)^{100} \) } \( \to \) Über Gegenereignis (b).
|
|
|
\item[(d)] genau eine 5 auf? { \color{Orange} \( \frac 1 6 \cdot \left( \frac 5 6 \right)^{99} \cdot 100 \) }
|
|
|
\end{itemize}
|
|
|
|
|
|
\subsection{Berechnung von Wahrscheinlichkeiten mit der Kombinatorik}
|
|
|
|
|
|
Für ein Ereignis A, das Teilmenge von \(\Omega\) ist.\\
|
|
|
\( P(A) = \frac{\left|A\right|}{\left|\Omega\right|}= \frac{\text{günstige Fälle}}{\text{mögliche Fälle}} \) {\color{Orange}Elemente von \(\Omega\) = Anzahl aller möglichen Ergebnisse}\\
|
|
|
Nur wenn alle Ergebnisse aus \(\Omega\) \underline{gleich} Wahrscheinlich sind.
|
|
|
{\color{Orange}ansonsten: \( P(A) = \sum\limits_{\omega \in A} P(\omega) \)}
|
|
|
|
|
|
Berechnung von \(\left|A\right|\) und \( \left|\Omega\right| \) mit der Kombinatorik.\\
|
|
|
|
|
|
Kombinatorik:\\
|
|
|
k-maliges Ziehen aus n Kugeln.\\
|
|
|
Ziehen mit oder ohne Zurücklegen.\\
|
|
|
mit/ohne Berücksichtigung der Reihenfolge.
|
|
|
|
|
|
\bsp Lotto \( k = 6\) aus \(n = 49\). Ziehen ohne Zurücklegen, ohne Reihenfolge.
|
|
|
|
|
|
4 Fälle:
|
|
|
\begin{enumerate}
|
|
|
\item
|
|
|
Fall: Ziehen mit Zurücklegen, mit Reihenfolge:\\
|
|
|
\( n^k \) Möglichkeiten {\color{Orange}gesamt: \(\left|\Omega\right| = n^k\) Möglichkeiten}
|
|
|
\item
|
|
|
Fall: Ziehen ohne Zurücklegen, mit Reihenfolge:\\
|
|
|
\( \frac{n!}{(n-k)!} = n^{\underline{k}} \)
|
|
|
\end{enumerate}
|
|
|
|
|
|
\bsp Ein 5 stelliger Code wird zufällig zufällig gewählt, bestehend aus Ziffern \( 1,2,…,9 \).\\
|
|
|
{\color{Orange} \( k=5; n=9 \) Gesamt: \( n^k = 9^6 \) Möglichkeiten}\\
|
|
|
Mit welcher Wahrscheinlichkeit
|
|
|
\begin{itemize}
|
|
|
\item[(a)] tritt die Kombination \(13758\) auf?\\
|
|
|
{\color{Orange} \( \frac{1}{9^5} \)}
|
|
|
\item[(b)] enthält der Code lauter gleiche Zahlen?\\
|
|
|
{\color{Orange} \( \frac{9}{9^5} = \frac{1}{9^4} \)}
|
|
|
\item[(c)] enthält der Code lauter verschiedene Zahlen?\\
|
|
|
{\color{Orange} \( \frac{9!}{4! * 9^5} \) }
|
|
|
\item[(d)] beginnt der Code mit 3?\\
|
|
|
{\color{Orange} \( \frac{1 * 9^4}{9^5} = \frac 1 9 \)}
|
|
|
\item[(e)] enthält der Code genau eine 3?\\
|
|
|
{\color{Orange} \( \frac 1 9 * \left(\frac 8 9\right)^4 * 5 = \frac{ 5 * 8^4 }{ 9^5 } \)}
|
|
|
\item[(f)] enthält der Code genau zwei 3er?\\
|
|
|
{\color{Orange} \( \left(\frac{1}{9}\right)^2 * \left(\frac{8}{9}\right)^3 * 2 * 5 = \frac{10 * 8^3}{9^5} \)}
|
|
|
\end{itemize}
|
|
|
|
|
|
%
|
|
|
|
|
|
\begin{itemize}
|
|
|
\item[3.] Fall: Ziehen ohne Zurücklegen, ohne Reihenfolge.\\
|
|
|
\(\to\) Aus n Kugeln werden k \cunder{Yellow}{ausgewählt}.\\
|
|
|
Vergleich mit 2. Fall: Ziehen ohne Zurücklegen, mit Reihenfolge\\
|
|
|
\spa \(\to n^{\underline{k}} = \frac{n!}{(n-k)!}\) Möglichkeiten\\
|
|
|
Es gibt \(k!\) Möglichkeiten, \(k\) Kugeln zu Vertauschen (auf \(k\) Plätzen).\\
|
|
|
im 3. Fall:\\
|
|
|
gesamt: \( \frac{n!}{(n-k)! * k!} = \binom{n}{k} \) Möglichkeiten.\\
|
|
|
im Beispiel von Oben (f).\\
|
|
|
\spa Mögl. aus 5 Plätzen 2 Stück für die 3er \cunder{Yellow}{auszuwählen}:\\
|
|
|
\spa \( \binom 5 2 = \frac{5!}{2! * (5-2)!} = \frac{5 * 4 * \not 3 * \not 2 * \not 1}{2 * 1 * \not 3 * \not 2 * \not 1} = 10\)\\
|
|
|
\bsp Mit welcher Wahrscheinlichkeit tritt bei 100 maligem Würfeln genau 20 mal die 4 auf?\\
|
|
|
\( W = \frac{ \binom{100}{20} * 5^{80} }{ 6^{100} } \)\\
|
|
|
\end{itemize}
|
|
|
|
|
|
\bsp Lotto 6 aus 49\\
|
|
|
Berechne die Wahrscheinlichkeiten für
|
|
|
\begin{enumerate}
|
|
|
\item[(a)] 6 Richtige\\
|
|
|
\( \frac{1}{\binom{49}{6}} = \frac{1}{13.983.816} \) ~ 14 Mio. Möglichkeiten
|
|
|
\item[(b)] 4 Richtige\\
|
|
|
\( \frac{ \binom{6}{4} * \binom{43}{2} }{ \binom{6}{49} } = \frac{645}{665896} \approx 0.096861972440140803\%\)
|
|
|
\item[(c)] 3 Richtige\\
|
|
|
\( \frac{ \binom{6}{3} * \binom{43}{3} }{ \binom{6}{49} } = \frac{8815}{499422} \approx 1.765040386687010184\%\)
|
|
|
\end{enumerate}
|
|
|
|
|
|
\bsp Kiste mit 4 blauen, 3 roten, 8 gelben Laptops\\
|
|
|
Wir wählen zufällig 8 aus.
|
|
|
\begin{enumerate}
|
|
|
\item[(a)] Mit welcher Wahrscheinlichkeit sind 3 blau und 5 gelb?\\
|
|
|
\( \frac{ \binom{4}{3} * \binom{3}{0} * \binom{8}{5} }{\binom{15}{8}} = \frac{224}{6435} \)
|
|
|
\item[(b)] Mit welcher Wahrscheinlichkeit sind 6 gelb\\
|
|
|
\( \frac{ \binom{8}{6} * \binom{7}{2} }{ \binom{15}{8} } = \frac{196}{2145} \)
|
|
|
\end{enumerate}
|
|
|
|
|
|
\bsp Kiste wie in vorigem Beispiel. Wir stellen 2 Pakete mit jeweils 4 Laptops zusammen (zufällig).\\
|
|
|
Mit welcher Wahrscheinlichkeit {\color{Orange} \(\to \binom{15}{4} * \binom{11}{4} \)}\\
|
|
|
\begin{enumerate}
|
|
|
\item[(a)] enthält das 1. Paket 1 blauen und das 2. Paket 2 blaue Laptops?
|
|
|
\item[(b)] enthält das 1. Paket 1 blauen Laptop?
|
|
|
\item[(c)] enthält das 2. Paket 1 blauen Laptop?
|
|
|
\item[(d)] enthält das 1. oder 2. Paket 1 blauen Laptop?
|
|
|
\item[(e)] Mit welcher Wahrscheinlichkeit enthält das 2. Paket 1 blauen Laptop, wenn man weiß, das im 1. Paket 2 blaue Laptops sind?
|
|
|
\end{enumerate}
|
|
|
|
|
|
Lösung:\\
|
|
|
\begin{enumerate}
|
|
|
\item[(a)] \( \frac{ \binom{4}{1}*\binom{11}{3} * \binom{3}{2} * \binom{8}{2} }{\binom{15}{4}*\binom{11}{4}} \approx 0.12307692307692307692\)
|
|
|
\item[(b)] \( \frac{ \binom{4}{1}*\binom{11}{3} * \binom{11}{4} }{ \binom{15}{4}*\binom{11}{4} } \)
|
|
|
\item[(c)] \( \frac{ \binom{4}{1}*\binom{11}{3} * \binom{11}{4} }{ \binom{15}{4}*\binom{11}{4} } \)
|
|
|
\item[(d)]
|
|
|
Ereignis A: 1. Paket enthält 1 blauen Laptop\\
|
|
|
Ereignis B: 2. Paket enthält 1 blauen Laptop\\
|
|
|
gesucht: \( A \cup B = P(A) + P(B) - P(A \cap B) \)\\
|
|
|
\( 2 * \frac{ \binom{4}{1} * \binom{11}{3} }{ \binom{15}{4} } - \frac{ \binom{4}{1} * \binom{11}{3} * \binom{3}{1} * \binom{8}{3} }{ \binom{15}{4} * \binom{11}{4}} \)\\
|
|
|
{\color{Orange} Man sieht hier: \(P(A \cap B) \not= P(A) * P(B) \)}
|
|
|
\item[(e)] \( \frac{ \binom{2}{1} * \binom{9}{3} }{ \binom{11}{4} } \)
|
|
|
\end{enumerate}
|
|
|
|
|
|
|
|
|
\begin{itemize}
|
|
|
\item[4.] Fall: Ziehen mit Zurücklegen, ohne Reihenfolge.\\
|
|
|
{\color{Orange} \(\to\) ungeeignet für Wahrscheinlichkeitsrechnungen.}\\
|
|
|
\bsp 2 maliges Würfeln\\
|
|
|
Mit welcher Wahrscheinlichkeit tritt keine 5 auf?\\
|
|
|
im 4. Fall: \( \Omega = \{ (1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (2,2), (2,3), … (6,6) \}; \quad \left|\Omega\right| = 21\)\\
|
|
|
Formal für die Anzahl der Ergebnisse in \(\Omega\):\\
|
|
|
\( \Omega = \binom{n+k-1}{k} = \binom{6+2-1}{2} = \binom{7}{2} = \frac{7!}{6!} = \frac{7 * 6}{2} = 21 \)
|
|
|
{\color{Orange} Problem:} Ergebnisse sind nicht gleich Wahrscheinlich\\
|
|
|
\(\to\) 4. Fall: blöd!\\
|
|
|
\(\to\) statt dem 4. Fall wird der 1. Fall betrachtet: Ziehen mit Zurücklegen und mit Reihenfolge \(\to \left|\Omega\right| = n^k \)\\
|
|
|
im \bsp \( P(\text{keine 5}) = \frac{5^2}{6^2} = \frac{25}{36}\)
|
|
|
\end{itemize}
|
|
|
|
|
|
\bsp $k = 40$ Personen\\
|
|
|
Mit welcher Wahrscheinlichkeit haben mindestens 2 am gleichen Tag Geburtstag?\\
|
|
|
$n = 365$ Kugeln; $k = 40$ maliges Ziehen\\
|
|
|
Ziehen mit Zurücklegen, mit Reihenfolge \( \to \) 1. Fall: \( \left| \Omega \right| = n^k = 365^{40} \)\\
|
|
|
\(P(\text{mindestens 2 haben am gleichen Tag Geburtstag})\)\\
|
|
|
\(= 1 - P(\text{alle haben an verschiedenen Tagen Geburtstag})\)\\
|
|
|
\( = 1 * \frac{ 365^{\underline{40}} }{365^{40}} \approx 89.123\% \)
|
|
|
|
|
|
\underline{Binomialkoeffizient/Multinomialkoeffizient}
|
|
|
|
|
|
Anzahl der Möglichkeiten, aus $n$ Elementen $k$ auszuwählen: \(\binom{n}{k} = \frac{n!}{k! * (n-k)!} \)\\
|
|
|
Allgemeiner:\\
|
|
|
Anzahl der Möglichkeiten, aus $n$ Elementen $k_1$ auszuwählen, aus den restlichen dann $k_2, …, k_l$\\
|
|
|
\( \binom{n}{k_1} * \binom{n-k_1}{k_2} * \binom{n-k_1-k_2}{k_3} * … * \binom{k_l}{k_l} \)\\[4mm]
|
|
|
\( = \frac{n!}{k_1! * (n-k_1)!} * \frac{(n-k_1)!}{k_2! * (n-k_1-k_2)!} * \frac{(n-k_1-k_2)!}{…}*…* \frac{k_l!}{k_l! * 0!} \)\\[4mm]
|
|
|
\( = \underbrace{\frac{n!}{k_1! * k_2! * … * k_l!}}_\text{Multinomialkoeffizient} \)\\[4mm]
|
|
|
{\color{Orange} wobei $k_1 + k_2 + … + k_l = n $ }
|
|
|
|
|
|
$n!$ = Anzahl der Möglichkeiten, $n$ verschiedene Elemente zu vertauschen\\[4mm]
|
|
|
\( \frac{n!}{k_1! * k_2! * … * k_l! } = \) Anzahl der Möglichkeiten, $n$ Elemente zu vertauschen, bei denen $k_1$ von der Sorte 1 sind, $k_2$ von der Sorte 2, …, $k_l$ von der Sorte $l$.
|
|
|
|
|
|
\bsp MISSISSIPPI \(\to\) Wie viele verschiedene Wörter erhält man durch vertauschen?\\
|
|
|
\spa\( \frac{11!}{1! * 4! * 4! * 2!} \)
|
|
|
|
|
|
Sorte 1: M: $k_1 = 1$\\
|
|
|
Sorte 2: I: $k_2 = 4$\\
|
|
|
Sorte 3: S: $k_3 = 4$\\
|
|
|
Sorte 4: P: $k_4 = 2$
|
|
|
|
|
|
\subsection{Bedingte Wahrscheinlichkeit und Unabhängigkeit}
|
|
|
|
|
|
\bsp 2 rote Bälle und ein gelber Ball. Wir ziehen 2 Bälle ohne Zurücklegen, mit Reihenfolge.\\
|
|
|
Mit welcher Wahrscheinlichkeit
|
|
|
\begin{itemize}
|
|
|
\item[(a)] ist der 1. Ball rot?\\
|
|
|
\( \frac 2 3 \)
|
|
|
\item[(b)] ist der 2. Ball rot?\\
|
|
|
\( \frac 2 3 \)
|
|
|
\item[(c)] sind beide Bälle rot?\\
|
|
|
\( \frac 2 3 * \frac 1 2 = \frac 1 3 \)
|
|
|
\item[(d)] ist der 2. Ball rot, wenn man weiß, dass der 1. Ball rot ist?\\
|
|
|
\( \frac 1 2 \)
|
|
|
\end{itemize}
|
|
|
|
|
|
mit Ereignissen formuliert:
|
|
|
\begin{itemize}
|
|
|
\item[A:] 1. Ball ist rot
|
|
|
\item[B:] 2. Ball ist rot
|
|
|
\item[(a)]\( P(A) = \frac 2 3 \)
|
|
|
\item[(b)] \( P(B) = \frac 2 3 \)
|
|
|
\item[(c)] \( P(A \cap B) = \frac 2 4 * \frac 1 3 \)\\
|
|
|
Man sieht: \( P(A\cap B) \not= P(A) * P(B) \), denn A und B sind abhängig.\\
|
|
|
\( P(A \cap B) = \frac 2 3 * \frac 1 2 = P(A) * P(B \mid A) \)
|
|
|
\item[(d)] bedingte Wahrscheinlichkeit \( P(B \mid A) = \frac 1 2 \not= P(B) \), denn A und B sind abhängig.
|
|
|
\end{itemize}
|
|
|
|
|
|
\begin{mydef}
|
|
|
Für 2 Ereignisse A und B ist die \underline{bedingte Wahrscheinlichkeit von B unter der Bedingung A}\\
|
|
|
\spa \( P(B\mid A) = \frac{P(A \cap B)}{P(A)}\) (wenn \(P(A) \not= 0\))
|
|
|
\end{mydef}
|
|
|
|
|
|
\begin{mydef}
|
|
|
umgestellt zur Berechnung von \(P(A\cap B)\):\\
|
|
|
\spa \( P(A\cap B) = P(A) * P(B\mid A) = P(B) * P(A\mid B) \) {\color{Orange}\(\to\) gilt immer}
|
|
|
\end{mydef}
|
|
|
|
|
|
\begin{mydef}
|
|
|
2 Ereignisse A und B sind \underline{unabhängig}, wenn \( P(A\cap B) = P(A) * P(B) \).\\
|
|
|
bzw. wenn \(P(B\mid A) = P(A) \)\\
|
|
|
bzw. wenn \(P(A\mid B) = P(B) \)\\
|
|
|
{\color{Orange} \(\to\) nur bei unabhängigen Ereignissen.}
|
|
|
\end{mydef}
|
|
|
|
|
|
\subsubsection{Satz von der totalen Wahrscheinlichkeit}
|
|
|
|
|
|
{\color{Orange}wenn \(P(A\mid B)\) und \(P(A\mid \overline{B})\) bekannt sind.}\\
|
|
|
\( P(A) = P(A\mid B) * P(B) + P(A\mid \overline{B}) * P(\overline{B}) \)
|
|
|
|
|
|
Anwendung des Satzes für (b):\\
|
|
|
\( P(\underbrace{B}_{\text{2. Ball rot}}) = \underbrace{P(B\mid A)}_{\frac 1 2} * \underbrace{P(A)}_{\frac 2 3} + \underbrace{P(B\mid \overline{A})}_{1} * \underbrace{P(\overline{A})}_{\frac 1 3} \)
|
|
|
|
|
|
\underline{Satz von der totalen Wahrscheinlichkeit Allgemeiner:}
|
|
|
|
|
|
Ist \( \omega = B_1 \cup B_2 \cup … \cup B_K\) Zerlegung von \( \omega\) in \cunder{Yellow}{disjunkte} B, d.\,h. \( B_i \cap B_j = \emptyset \)\\
|
|
|
dann gilt: \( P(A) = P(A\mid B_1) * P(B_1) + P(A\mid B_2) * P(B_2) + … P(A\mid B_K) * P(B_K) \)
|
|
|
|
|
|
\bsp Datenübertragung über 2 Kanäle (alternativ).\\
|
|
|
\spa 95\% der Daten, die über Kanal 1 übertragen werden, kommen korrekt an.\\
|
|
|
\spa 90\% der Daten, die über Kanal 2 übertragen werden, kommen korrekt an.\\
|
|
|
\spa 40\% der Daten werden über Kanal 1 übertragen, 60\% über Kanal 2.
|
|
|
|
|
|
\begin{itemize}
|
|
|
\item[(a)] Wie viel Prozent der Daten werden über Kanal 1 übertragen und kommen korrekt an?\\
|
|
|
Formulierung mit Ereignissen:\\
|
|
|
A: Daten werden über Kanal 1 übertragen\\
|
|
|
B: Daten kommen korrekt an.\\
|
|
|
gegeben: \(P(A) = 0,40; P(B\mid A) = 0,95; P(B\mid \overline{A}) = 0.90 \)\\
|
|
|
Gegenteile: \( P(\overline{A}) = 0,60; P(\overline{B} \mid A) = 0.05; P(\overline{B}\mid \overline{A}) = 0.10 \)\\
|
|
|
gesucht: \( \underbrace{P(A)}_{0,4} * \underbrace{P(B\mid A)}_{0,95} = 0,38 = 38\% \)
|
|
|
\item[(b)] Wie viel Prozent der Daten werden über Kanal 1 übertragen und kommen nicht korrekt an?\\
|
|
|
\( P(A \cap B) = \underbrace{P(\overline{B}\mid A}_{=0,05} * \underbrace{P(A)}_{0,4} = 0,02 = 2\% \)
|
|
|
\item[(c)] Wie viel Prozent der Daten kommen korrekt an?\\
|
|
|
\( P(B) = \underbrace{P(B\mid A)}_{0,95} * \underbrace{P(A)}_{0,4} + \underbrace{P(B|\overline{A})}_{0,9} * \underbrace{P(\overline{A})}_{0,6} = 0,92 = 92\% \)
|
|
|
\item[(d)] Wie viel Prozent der Daten kommen nicht korrekt an, wenn man weiß, dass sie über Kanal 1 übertragen wurden?\\
|
|
|
\( P(\overline{B}\mid A) = 0,05 = 5\% \)
|
|
|
\item[(e)] Wie viel Prozent der Daten kommen korrekt an oder werden über Kanal 1 Übertragen?\\
|
|
|
\( P(B\cup A) = P(B) + P(A) - P(A\cap B) \overset{(c)(a)}{=} 0,92 + 0,4 - 0,38 = 0,94 = 94\% \)
|
|
|
\item[(f)] Wie viel Prozent der Daten, die korrekt ankommen, wurden über Kanal 1 übertragen?\\
|
|
|
\( P(A\mid B) = \frac{P(A\cap B)}{P(B)} \overset{(a)}{\underset{(c)}{=}} \frac{0,38}{0,92} = 0,413 = 41,3\% \)
|
|
|
\end{itemize}
|
|
|
|
|
|
Im vorigen Beispiel:\\
|
|
|
A und B sind abhängig, da \( \underbrace{P(B\mid A)}_{0,95} \not= \underbrace{P(B\mid\overline{A})}_{0,9} \)
|
|
|
|
|
|
\bsp Datenübertragung:\\
|
|
|
\spa 1\% der gesendeten 1en kommt als 0 an.\\
|
|
|
\spa 2\% der gesendeten 0en kommt als 1 an.\\
|
|
|
\spa 30\% der gesendeten Daten sin 0en.
|
|
|
\begin{itemize}
|
|
|
\item[(a)] Wie viel Prozent der Daten sind 0en, die als 1 ankommen?\\
|
|
|
\( P(A \cap \overline{B}) = P(\overline{B}\mid A) * P(A) = 0,02 * 0,03 = 0,006 = 0,6\% \)
|
|
|
\item[(b)] Wie viel Prozent der ankommenden 0en sind 1en, die gesendet wurden?\\
|
|
|
\( P(\overline{A}\mid B) = \frac{P(\overline{A} \cap B)}{P(B)} = \frac{P(B\mid\overline{A}) * P(\overline{A})}{P(B)} \)
|
|
|
\item[(c)] Wie viel Prozent der Daten werden Fehlerhaft übertragen?\\
|
|
|
\( \underbrace{P(A\cap \overline{B})}_{=0,6\%} + \underbrace{P(\overline{A} \cap B)}_{=0,7\%} = 1,3\% \)
|
|
|
\end{itemize}
|
|
|
|
|
|
Ereignisse:
|
|
|
\begin{itemize}
|
|
|
\item[A:] 0 wird gesendet
|
|
|
\item[B:] 0 kommt an
|
|
|
\end{itemize}
|
|
|
|
|
|
Gegeben: \( P(B\mid\overline{A}) = 1\%; P(\overline{B}\mid A) = 2\%; P(A) = 30\% \)\\
|
|
|
|
|
|
\bsp (zu bedingten Wahrscheinlichkeiten).\\
|
|
|
2 maliges Würfeln\\
|
|
|
Ereignisse:
|
|
|
\begin{itemize}
|
|
|
\item[A:] 1. Wurf ergibt 4
|
|
|
\item[B:] Summe der Augenzahlen ist 12
|
|
|
\item[C:] Summe der Augenzahlen ist 7
|
|
|
\item[D:] 2. Wurf ergibt 3
|
|
|
\end{itemize}
|
|
|
Sind A und B bzw. A und C bzw. A und D bzw. A C und D unabhängig?\\
|
|
|
\textcolor{Orange}{A und B sind Unabhängig, wenn \( P(A \cap B) = P(A) * P(B) \) }
|
|
|
|
|
|
\( P(A) = \frac 1 6 \)\\
|
|
|
\( P(B) = \frac{1}{36} \)\\
|
|
|
\( P(C) = \frac 1 6 \)\\
|
|
|
\( P(D) = \frac 1 6 \)
|
|
|
|
|
|
\( P(A \cap B) = 0 \not= \frac{1}{216} = P(A) * P(B) \)\\
|
|
|
A und B sind abhängig.
|
|
|
|
|
|
\( A\cap C = \{ 43 \} \)\\
|
|
|
\( P(A\cap C) = \frac{1}{36} = \frac 1 6 * \frac 1 6 = P(A) * P(C) \)\\
|
|
|
A und C und unabhängig
|
|
|
|
|
|
\( A\cap D = \{ 43 \} \)\\
|
|
|
\( P(A\cap D)= \frac{1}{36} = \frac 1 6 * \frac 1 6 * P(A) * P(D) \)
|
|
|
A und D und unabhängig
|
|
|
|
|
|
\( A\cap D=\{43\} \)\\
|
|
|
\( P(A\cap D) = \frac{1}{36} = \frac 1 6 * \frac 1 6 = P(A) * P(D) \)\\
|
|
|
\( A\cap C\cap D = \{ 43 \} \)\\
|
|
|
\( P(A\cap C\cap D) = \frac{1}{36} \not= \frac 1 6 * \frac 1 6 * \frac 1 6 = P(A) * P(C) * P(D) \)\\
|
|
|
A, C und D sind abhängig
|
|
|
|
|
|
Zusatzfragen:\\
|
|
|
\begin{itemize}
|
|
|
\item[(a)]
|
|
|
Wie groß ist die Wahrscheinlichkeit, \cunder{Yellow}{das der 1. Wurf 3 ist} \textcolor{Yellow}{A},\\
|
|
|
\cunder{Orange}{wenn die Summe der Augenzahlen 6 ist} \textcolor{Orange}{B}?
|
|
|
\item[(b)]
|
|
|
Wie groß ist die Wahrscheinlichkeit, \cunder{Yellow}{dass (mindestens) einer der Würfe 3 ist} \textcolor{Yellow}{C},\\
|
|
|
\cunder{Orange}{wenn die Summe der Augenzahlen 6 ist} \textcolor{Orange}{B}?
|
|
|
\end{itemize}
|
|
|
|
|
|
\( B = \{ 15,24,33,42,51 \} \)
|
|
|
|
|
|
\(P(A) = \frac 1 6 \)\\
|
|
|
\(P(B) = \frac{5}{36} \)\\
|
|
|
\(P(C) = \)
|
|
|
|
|
|
\begin{itemize}
|
|
|
\item[(a)]
|
|
|
\( P(A \mid B) = \frac{P(A\cap B)}{P(B)} = \frac{ \frac{1}{36} }{ \frac{5}{36} } = \frac 1 5 \)
|
|
|
\item[(b)]
|
|
|
\( P(A \mid C) = \frac{P(A\cap C)}{P(B)} = \frac{ \frac{1}{36} }{ \frac{5}{36} } = \frac 1 5 \)\\
|
|
|
\end{itemize}
|
|
|
|
|
|
Oder direkt:
|
|
|
\begin{itemize}
|
|
|
\item[(a)]
|
|
|
\( P(A\mid B) = \frac 1 5 \)\\
|
|
|
Bedingung \( B = \{ 15, 24, \underline{3}3, 42, 51 \} \)
|
|
|
\item[(b)]
|
|
|
\( P(C\mid B) = \frac 1 5 \)\\
|
|
|
Bedingung: \( B = \{ 15, 24, \underline{33}, 42, 51 \} \)
|
|
|
\end{itemize}
|
|
|
|
|
|
|
|
|
\subsection*{Formeln}
|
|
|
|
|
|
\(P(A\mid B) = \frac{P(A\cap B)}{P(B)}\)\\
|
|
|
\(\to\)
|
|
|
\( P(A\cap B) = P(A\mid B) * P(B) = P(B\mid A) * P(A) \) \textcolor{Orange}{gilt immer}\\
|
|
|
\( P(A\cap B) = P(A) * P(B) \) \textcolor{Orange}{nur wenn A und B unabhängig}
|
|
|
|
|
|
Totale Wahrscheinlichkeit: \( P(A) = P(A\mid B) * P(B) + P(A\mid \overline{B}) * P(\overline{B}) \)
|
|
|
|
|
|
Gegenteile: \( P(\overline{A}) = 1 - P(A) ; P(\overline{A}\mid B) = 1-P(A\mid B) \)
|
|
|
|
|
|
Unabhängigkeit von Ereignissen:\\
|
|
|
A und B sind unabhängig, wenn \( P(A\cap B) = P(A) * P(B) \) oder wenn \( P(A\mid B) = P(A) \) oder wenn \( P(B\mid A) = P(B) \)
|
|
|
|
|
|
A, B und C sind unabhängig, wenn \( P(A\cap B\cap C) = P(A) * P(B) * P(C)\) \cunder{Yellow}{und} \( P(A\cap B) = P(A)*P(B) \), \( P(A\cap C) = P(A) * P(C) \), \( P(B\cap C) = P(B)*P(C) \)
|
|
|
|
|
|
\bsp bei 100 Mengen zu prüfen:\\
|
|
|
\( \binom{100}{1} + \binom{100}{3} + … + \binom{100}{99} + \binom{100}{100} = 2^{100} - \binom{100}{1} - \binom{100}{0} \)
|
|
|
|
|
|
\bsp 2 maliges Würfeln
|
|
|
\begin{itemize}
|
|
|
\item[A:] 1. Wurf ist 3. \( P(A) = \frac 1 6 \)
|
|
|
\item[B:] Summe der Augenzahlen ist 12. \( P(B) = \frac{1}{36} \)
|
|
|
\item[C:] 2. Wurf ist 7. \( P(C) = 0 \)
|
|
|
\end{itemize}
|
|
|
\( \underbrace{P(A\cap B\cap C)}_{_0} = \underbrace{P(A) * P(B) * P(C)}_{=0} \)\\[2mm]
|
|
|
\( \underbrace{P(a\cap B)}_{=0} \not= \underbrace{ P(A) }_{\frac 1 6} * \underbrace{P(B)}_{\frac{1}{36}} \)\\
|
|
|
\(\to\) A, B und C sind abhängig
|
|
|
|
|
|
\subsection{Zufallsvariablen}
|
|
|
|
|
|
\begin{mydef}
|
|
|
Eine Zufallsvariable $X$ ist eine Funktion.\\
|
|
|
\(X: \Omega \to \mathbb R \) (jedem Ergebnis aus \(\Omega\) wird eine reelle Zahl zugeordnet)
|
|
|
\end{mydef}
|
|
|
|
|
|
\bsp 2 maliger Münzwurf\\
|
|
|
Wird 2 mal Wappen geworfen, so gewinnen wir \EUR{2}\\
|
|
|
Wird 2 mal Zahl geworfen, so gewinnen wir \EUR{3}\\
|
|
|
sonst verlieren wir \EUR{2,40}.
|
|
|
|
|
|
\( \Omega = \{ \underbrace{WW}_{3}, \underbrace{ZZ}_{2}, \underbrace{WZ}_{-2,40}, \underbrace{ZW}_{-2,40} \} \) Wahrscheinlichkeit jeweils \( \frac 1 4\)\\
|
|
|
Zufallsvariable $X$: Gewinn (in \EUR{})
|
|
|
|
|
|
\begin{mydef}
|
|
|
Die \underline{Verteilung} (Wahrscheinlichkeitsverteilung) einer Zufallsvariable gibt an, mit welchen Wahrscheinlichkeiten die Zufallsvariable ihre möglichen Werte annimmt.
|
|
|
\end{mydef}
|
|
|
|
|
|
Im \bsp Verteilung von $X$:\\
|
|
|
\( P(X=3) = \frac 1 4 \)\\
|
|
|
\( P(X=2) = \frac 1 4 \)\\
|
|
|
\( P(X=-2,40) = \frac 2 4 = \frac 1 2 \)
|
|
|
|
|
|
Anderes \bsp 2 maliges Würfeln:\\
|
|
|
Wir gewinnen \EUR{2}, wenn zuerst eine 6 gewürfelt wird.\\
|
|
|
Wir gewinnen \EUR{5}, wenn keine 6 gewürfelt wird.\\
|
|
|
Wir verlieren sonst den Betrag $B$.
|
|
|
|
|
|
Zufallsvariable $X$: unser Gewinn\\
|
|
|
gesucht:Verteilung von $X$
|
|
|
|
|
|
Verteilung von $X$:\\
|
|
|
\( P(X=2) = \frac 1 6 \)\\
|
|
|
\( P(X=5) = \frac 5 6 * \frac 5 6 = \frac{25}{36} \)\\
|
|
|
\( P(X=-B) = 1 - \left( \frac 1 6 + \frac{25}{36} \right) = 1 - \frac{31}{36} = \frac{5}{36} \)
|
|
|
|
|
|
Für welches B ist das Spiel Fair? (\(\mu = 0 \))\\
|
|
|
\( B = \frac{ 2 * \frac{1}{6} + 5 * \frac{25}{36} }{\frac{5}{36}} = \) \EUR{27,40}
|
|
|
|
|
|
\( \sigma^2 = 4 * \frac 1 6 + 25 * \frac{25}{36} + 750.76 * \frac{5}{36} = 122.3 \)\\
|
|
|
\( \sigma = \sqrt{\sigma^2} = \sqrt{122.3} = 11.06 \)
|
|
|
|
|
|
\subsubsection{Diskrete Zufallsvariable}
|
|
|
|
|
|
Diskret: $X$ nimmt nur einzelne Werte mit bestimmten Wahrscheinlichkeiten an.
|
|
|
|
|
|
Im \bsp 2 maliger Münzwurf:\\
|
|
|
Durchschnittsgewinn \( \mu = 2 * \frac 1 4 + 3 * \frac 1 4 - 2,4 * \frac 1 2 = 0,05 \Rightarrow \) Spiel lohnt sich für uns\\
|
|
|
(gewichtet mit Wahrscheinlichkeit – Durchschnittsgewinn pro Spiel)
|
|
|
|
|
|
Allgemein:\\
|
|
|
\begin{mydef}
|
|
|
Der \underline{Erwartungswert} (Mittelwert) einer Zufallsvariable $X$, die Werte $x_i$ mit den Werten $p_i$ annimmt \((i=1,2,3,…)\)\\
|
|
|
\textcolor{Orange}{(\(\to\) endlich viele oder abzählbar viele Werte \(x_i\)) }\\
|
|
|
ist \(\mu = E(X)=\sum\limits_i x_i*p_i \)
|
|
|
\end{mydef}
|
|
|
|
|
|
\underline{Maß für die Streuung (Schwankung)}
|
|
|
|
|
|
\begin{mydef}
|
|
|
Die \underline{Varianz} einer Zufallsvariablen $X$ (wie in der Definition von \(\mu\)) ist \(\sigma^2 = V(X) = Var(X) = \sum\limits_i {\color{Orange} (x_i-\mu)^2 } * p_i \) \textcolor{Orange}{quadratischen Abstände der Werte $x_i$ von $\mu$}\\
|
|
|
\(\to\) mittlerer Quadratischer Abstand
|
|
|
|
|
|
Die \underline{Standardabweichung} \(\sigma\) ist \(\sigma = \sqrt{\sigma^2}\)
|
|
|
\end{mydef}
|
|
|
|
|
|
Weshalb \underline{quadratische} Abstände?\\
|
|
|
z.\,B. kleiner Abstand 2 \(\to\) 2 \textcolor{Orange}{verdoppelt}\\
|
|
|
großer Abstand 10 \(\to\) 100 \textcolor{Orange}{verzehnfacht}
|
|
|
|
|
|
\(\rightarrow\) große Abstände fließen verstärkt ein in die Varianz.\\
|
|
|
Kleine Abstände sind oftmals nur Toleranzen, Messfehler, Ungenauigkeiten.
|
|
|
|
|
|
Anwendung im Finanzbereich:\\
|
|
|
z.\,B. \(\mu = \) mittlere Rendite\\
|
|
|
\spa \(\sigma = \) Maß für Streuung = Maß für das Risiko
|
|
|
|
|
|
\underline{Wenn \( \sigma = 0\)} wäre, dann gibt es nur einen Wert $x = \mu$ mit Wahrscheinlichkeit 1.
|
|
|
|
|
|
Vereinfachung der Formel für \(\sigma^2\):\\
|
|
|
\( \sigma^2 = \sum\limits_i (x_i-\mu)^2 * p_i = \sum\limits_i (x_i^2 - 2*x_i*\mu + \mu^2) *p_i = \sum\limits_i x_i^2*p_i - \sum\limits_i 2*x_i*\mu*p_i + \sum\limits_i \mu^2*p_i\)\\
|
|
|
\( = \sum\limits_i x_i^2 * p_i - 2\mu * \underbrace{\sum\limits_i x_i*p_i}_{=\mu} + \mu^2 * \underbrace{\sum\limits_i p_i}_{=1} \)\\
|
|
|
\( = \sum\limits_i x_i^2 * p_i - 2 \mu^2 + \mu^2 \)\\
|
|
|
\textcolor{Red}{\( \sigma^2 = \sum\limits_i x_i^2 * p_i - \mu^2 \) \underline{einfache Formel} für \(\sigma^2\)}
|
|
|
|
|
|
Im \bsp von oben:
|
|
|
|
|
|
\(\mu = 0,05\)\\
|
|
|
\( \sigma^2 = 4 * \frac 1 4 + 9 * \frac 1 4 + 5,76 * \frac 1 2 - 0,05^2 = 6.1275 \)\\
|
|
|
\( \sigma = \sqrt{6.1275} \approx 2.4754 \) \(\to\) Maß für die Streuung, also für die Mittlere Abweichung von \(\mu\).
|
|
|
|
|
|
Also pro Spiel: im \(\varnothing\): Gewinn von \(\mu = \)\EUR{0,05}.\\
|
|
|
aber wir haben eine Streuung um \(\mu\) von \textcolor{Orange}{\EUR{2,47} noch in Relation zu \(\mu \to\) Spiel mit hohem Risiko}
|
|
|
|
|
|
Man muss \(\sigma\) in Relation zu \(\mu\) sehen.\\
|
|
|
\(\to\) Variationskoeffizient \( \frac{\sigma}{\mu} = \frac{2,47}{0,05} = 49,4 = 4940\% \)
|
|
|
|
|
|
\subsubsection{Verteilung und Verteilungsfunktion von Zufallsvariablen}
|
|
|
|
|
|
Im \bsp 2 maliges Würfeln von vorhin:\\
|
|
|
\underline{Verteilung von $X$}: \( P(X=2) = \frac 1 6, P(X=5) = \frac{25}{36}, P(X=-27.4) = \frac{5}{36} \)
|
|
|
|
|
|
\begin{mydef}
|
|
|
Die Verteilungsfunktion einer Zufallsvariable $X$.\\
|
|
|
\(\to\) Funktion \(F: \mathbb R \to [0,1] \) mit \(F(x) = P(X\le x) \) \textcolor{Orange}{bei der Verteilung \(P(X=x)\)}
|
|
|
\end{mydef}
|
|
|
|
|
|
\( F(-27.4) = P(X\le -27.4) = \frac{5}{36} \)\\
|
|
|
\( F(2) = P(X\le 2) = P(X=-27.4) + P(X=2) = \frac{5}{36}+\frac{1}{6} = \frac{11}{36} \)\\
|
|
|
|
|
|
Bei einer diskreten Verteilung ist die Verteilungsfunktion eine Treppenfunktion, die von 0 nach 1 Wächst und an den Stellen $x_i$ treten Sprünge auf, mit Sprunghöhe $p_i$
|
|
|
|
|
|
Allgemein (nicht nur für diskrete Verteilungen) hat eine \underline{Verteilungsfunktion} \(F(x)\) die \underline{Eigenschaften}:
|
|
|
\begin{itemize}
|
|
|
\item
|
|
|
\( \lim\limits_{x\to -\infty} F(x) = 0 \) und \( \lim\limits_{x\to \infty} F(x) = 1 \)
|
|
|
\item
|
|
|
\( F(x) \) ist monoton wachsend \textcolor{Orange}{nicht unbedingt \underline{streng} wachsend}
|
|
|
\item
|
|
|
\(F(x)\) ist rechtsseitig stetig \textcolor{Orange}{\(\to\) aus der Definition: \(F(x) = P(X{\color{Red}\le}c) \) }
|
|
|
\end{itemize}
|
|
|
|
|
|
\bsp $X$: Anzahl an Wappen bei 2maligem Münzwurf. Skizziere die Verteilungsfunktion \(F(x)\)
|
|
|
|
|
|
\( F(x) = \begin{cases} 0, & x<0 \\ \frac 1 4, & 0\le x < 1 \\ \frac 3 4, & 1 \le x < 2 \\ 1, & 2\le x \end{cases} \)
|
|
|
|
|
|
\bsp \( F(x) = \begin{cases} a, & x < 0 \\ b*x+0.75, & 0 \le x < 1 \\ c, & x \ge 1 \end{cases} \)
|
|
|
|
|
|
Für welche \(a,b,c \in \mathbb R\) ist \(F(x)\) eine Verteilungsfunktion?
|
|
|
|
|
|
\(a = 0, 0\le x \le 2.25, c=1 \)
|
|
|
|
|
|
\bsp (zu Verteilungsfunktion)\\
|
|
|
\( F(x) = \begin{cases} e^x * \frac 1 2, & x < 0 \\ b, & 0 \le x < 2 \\ c, & x\ge 2 \end{cases} \)
|
|
|
\begin{itemize}
|
|
|
\item[(a)]
|
|
|
Wie groß müssen $b$ und $c$ sein, damit $F(x)$ eine Verteilungsfunktion ist?
|
|
|
\item[(b)]
|
|
|
Sei \( b=0.8, c=1 \).\\
|
|
|
Berechne:\\
|
|
|
\(P(X=0), P(X=-1), P(X\le -1), P(X>-1), P(X\le 2), P(X>2), P(X\ge3) \)
|
|
|
\end{itemize}
|
|
|
|
|
|
\begin{itemize}
|
|
|
\item[(a)]
|
|
|
\( e^0 * \frac 1 2 = 0.5 \)\\
|
|
|
\( \frac 1 2 \le b \le c = 1 \)\\
|
|
|
Eigenschaften der Verteilungsfunktion:
|
|
|
\begin{itemize}
|
|
|
\item \( \lim\limits_{x\to-\infty} \underbrace{F(x)}_{e^x*\frac 1 2} = 0 \), \( \lim\limits_{x\to-\infty} \underbrace{F(x)}_c = 1 \Rightarrow c=1 \)
|
|
|
\item \(F(x)\) rechtsseitig stetig
|
|
|
\item \(F(x)\) monoton wachsend
|
|
|
\end{itemize}
|
|
|
\item[(b)]
|
|
|
\(P(X=0) = 0.3 (=0.8-0.5) \)\\
|
|
|
\(P(X=-1) = 0\) (Kein Sprung)\\
|
|
|
\(P(X\le-1) = F(-1) = \frac{e^{-1}}{2} \approx 0.18394 \)\\
|
|
|
\(P(X>-1) = 1-F(-1) = 1- \frac{e^{-1}}{2} \approx 0.81606 \)\\
|
|
|
\(P(X\le 2) = F(2) = 1\)\\
|
|
|
\(P(X>2) = 1-P(X\le 2) = 0 \)\\
|
|
|
\(P(X<2) = P(X\le 2) - P(X=2) = F(2) - 0.2 = 0.8\)\\
|
|
|
\(P(X\ge 3) = 1-P(X<3) = 0\)
|
|
|
\end{itemize}
|
|
|
|
|
|
Meist ist die Verteilungsfunktion
|
|
|
\begin{itemize}
|
|
|
\item eine Treppenfunktion \(\to\) bei diskreten Verteilungen
|
|
|
\item eine durchgehend stetige Funktion \(\to\) keine Sprünge
|
|
|
\end{itemize}
|
|
|
|
|
|
\end{document}
|