ID Thema Fach Klasse Note Downloads
5612 Wahrscheinlichkeitsrechnung Mathematik 11 2 2922
Kurzbeschreibung
Zufällige Ereignisse und Wahrscheinlichkeiten, Elementare Wahrscheinlichkeitsrechnung -Endliche Wahrscheinlichkeiten, Geometrische Wahrscheinlichkeit, Zufallsgrößen und deren Verteilung, Faltung zweier Verteilungen, Folgen von Zufallsgrößen -Tschebyscheff
Inhalt des Referats
Wahrscheinlichkeitsrechnung 0 Vorbemerkungen · Mitte des 17. Jh. Chevalier de Mèrè, Blaise Pascal Spiel mit 3 Würfeln Augensumme 11 öfter als Augensumme 12 Auffassung, daß Ereignisse „11“ oder „12“ gleichwahrscheinlich sind Überlegung: 6 Möglichkeiten, eine 11 zu würfeln 6-4-1 6-3-2 5-5-1 5-4-2 5-3-3 4-4-3 aber auch 6 Möglichkeiten für die 12: 6-5-1 6-4-2 6-3-3 5-5-2 5-4-3 4-4-4 Briefwechsel zwischen Pascal und Fermat: Anfang der Wahrscheinlichkeitstheorie · Moderne Theorie Stochastik à Wahrscheinlichkeitstheorie und Statistik seit Anfang dieses Jahrhunderts: Anstrengungen zur Formalisierung 1 Zufällige Ereignisse und Wahrscheinlichkeiten 1.1 Elementare Wahrscheinlichkeitsrechnung Beispiel: Münzwurf deterministischer Vorgang, Aufgrund unscharfer Anfangsbedingungen ist Ergebnis nicht exakt vorhersagbar. Zwei einander ausschließende Ergebnisse: Kopf oder Zahl. Jedes Ergebnis ist gleichberechtigt è Kopf oder Zahl treten jeweils mit Wahrscheinlichkeit ½ auf. Fazit: Experiment, Versuch mit ungewissem Ausgang, zumindest prinzipiell oder gedanklich unter gleichen Versuchsbedingungen beliebig oft wiederholbar. Beobachtung: Bei unabhängiger Wiederholung derartiger Versuche sind Gesetzmäßigkeiten erkennbar. Spezialfall: Alle endlich vielen Versuchsausgänge schließen einander aus und sind gleichberechtigt. Versuch wird „auf gut Glück“ durchgeführt. Unter diesen Voraussetzungen sei A ein Ereignis, das aus verschiedenen Versuchsausgängen zusammengesetzt sein kann. Wahrscheinlichkeit (von Laplace) Anzahl der für A günstigen Fälle P(A) = ¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾ Anzahl aller möglichen Fälle Beispiel: Münze Spielwürfel - 6 Ausgänge, A = „6“, A = „gerade Zahl“ zwei Spielwürfel - 36 Ausgänge, A = „gleiche Augenzahl“ Praxis: lange Beobachtungsreihe: mehrmalige unabhängige Durchführung ein und desselben Experiments, Ereignis A det. Bei n Versuchen trete n(A) - mal das Ereignis A ein. Dann zeigt sich, daß die relative Häufigkeit n(A) ¾¾ (n = 1, 2, 3, ...) n für wachsendes n stabil ist. Sie schwankt mehr oder weniger um einen gewissen Wert, nämlich die Wahrscheinlichkeit P(A). è statistischer Wahrscheinlichkeitsbegriff, begründet Kontakt der (noch zu entwickelnden) Theorie mit der Realität Problem beim Laplace’schen Wahrscheinlichkeitsbegriff: gleichwahrscheinliche Ereignisse finden, mit deren Hilfe das interessierende Ereignis zusammengesetzt werden kann. 1.2 Berechnung von Wahrscheinlichkeiten durch Kombinatorische Überlegungen K Mengen A1, A2, ... , Ak’ vom Umfang n1, n2, ... , nk Elemente Kombination von Elementen bilden (a1, a2, ... , ak) mit ai Î Ai Wie viele solcher Kombinationen sind möglich ? Fundamentalprinzip der Kombinatorik: Anzahl verschiedener geordneter k-Tupel N = n1 · n2 · ... · nk Beispiel: Wie groß ist die Wahrscheinlichkeit für das Ereignis A, beim Spielen mit 3 Würfeln die maximale Augenzahl zu erreichen ? Ai (i = 1, 2, 3) gleich, sechselementig à N = 63 Möglichkeiten à 1 günstig à P(A) = 1/216 1.2.1 Spezialisierung des Fundamentalprinzips · geordnete Probe mit Wiederholung Elemente können mehrfach berücksichtigt werden, „Auswahl mit Zurücklegen“. Eine Menge A mit n Elementen, k Elemente wählen è Zurückführung auf Fundamentalprinzip: A1 = A2 = ... = Ak = A à N = nk · geordnete Probe ohne Wiederholung Eine Menge A mit n Elementen, k £ n Elemente wählen, dabei Zurücklegen verboten è Zurückführung auf Fundamentalprinzip: A1 = A Element a1 wählen n Elemente A2 = A \ {a1} Element a2 wählen n - 1 Elemente A2 = A \ {a1, a2} Element a3 wählen n - 2 Elemente Ak = A \ {a1, a2, ..., ak - 1} Element ak wählen n - k + 1 Elemente n! è N = n (n - 1)(n - 2) ... (n - k + 1) = ¾¾¾ (n - k) ! Noch spezieller: k = n setzen è Anzahl der Permutationen von n Elementen ohne Wiederholung N = n! Beispiel: Gruppe von k Studenten sitzt in einem Zug mit n ³ k Wagen. Jeder Student habe seinen Wagen unabhängig und „auf gut Glück“ gewählt. Gesucht ist die Wahrscheinlichkeit, daß alle Studenten in verschiedenen Wagen sitzen. Zunächst alle Möglichkeiten: k Studenten auf n Wagen aufteilen, Problem mit Wiederholung und mit Berücksichtigung der Reihenfolge è insgesamt N = nk Möglichkeiten, Studenten auf die Wagen aufzuteilen. Ereignis A: „höchstens ein Student pro Wagen“ für A günstige Fälle: Wiederholung verboten, Zahl der Kombinationen (mit Berücksichtigung der Reihenfolge, ohne Wiederholung) N(A) = Möglichkeiten è Jetzt die Berücksichtigung der Reihenfolge aufgeben. Menge A vom Umfang n, k-elementige Teilmengen {a1, a2, ... , ak} bilden. Also ohne Rücklegen, ohne Wiederholung. Gesuchte Anzahl: N Wir bekommen alle möglichen geordneten Proben aus A vom Umfang k ohne Wiederholung und jede nur einmal, indem wir zunächst eine beliebige k-elementige Teilmenge von A wählen und dann alle ihre Permutationen bilden. Nach dem Fundamentalprinzip ergibt sich: Teilmengen · Permutation = Proben (m. R., o. W.) k-elementig è Binominalkoeffizient Zerlegung der Menge A in Teilmengen B1, B2, ... , Bs vom Umfang k1, k2, ..., bzw. ks k1 + k2 + ... + ks = n è Permutation mit Wiederholung Polynominalkoeefizient Beispiel: Qualitätskontrolle, Los von 100 Teilen, 10 wurden „auf gut Glück“ gewählt und kontrolliert. Falls kein Ausschuß, Annahme des Loses. Gesucht ist die Wahrscheinlichkeit des Ereignisses A, daß ein Los mit 100 Ausschußteilen nicht beanstandet wird ? · Anzahl der Möglichkeiten 10 Teile aus 100 zu wählen, Kombinationen ohne Berücksichtigung der Reihenfolge, ohne Wiederholung · Anzahl der für das Ereignis A günstigen Fälle: 90 gute Teile, davon 10 heraus greifen Noch offen: Aus n Elementen k herauszugreifen, mit Wiederholung (zurücklegen erlaubt), ohne Berücksichtigung der Reihenfolge. Anzahl der möglichen Kombinationen Beispiel: Auf wieviele Weisen lassen sich k Markstücke auf n Personen aufteilen A Menge von n Personen, numerieren Problem: ohne Berücksichtigung der Reihenfolge, mit Wiederholung Dies gibt Anlaß zu alternativen Interpretationen von Kombinationen: Gegeben sind n Zellen, auf die k Teilchen aufgeteilt werden sollen. · Teilchen sind unterscheidbar oder nicht Problem mit oder ohne Berücksichtigung der Reihenfolge · Mehrfachbelegung einer Zelle möglich oder nicht Problem mit oder ohne Wiederholung Beispiel: Es sind n unterschiedliche Dinge auf N Schubfächer zu verteilen. Jede Möglichkeit der Verteilung sei gleich wahrscheinlich. Mit welcher Wahrscheinlichkeit gelangen bei der Verteilung in ein Schubfach k Dinge ? Jedes Ding läßt sich in eines der N Schubfächer legen, N Möglichkeiten ein Ding zu verteilen. Fundamentalprinzip è Anzahl aller Möglichkeiten bei der Verteilung ist Nn Anzahl der günstigen Fälle: è k von n Dingen auf ein Schubfach verteilen (ohne Wiederholung, ohne Berücksichtigung der Reihenfolge) Möglichkeiten dafür è die übrigen n - k Dinge in N - 1 Schubfächer (egal wie) verteilen (N - 1)n -k è 1.2.2 Schema zur elementaren Kombinatorik Proben vom Umfang k ohne Berücksichtigung der Reihenfolge mit Berücksichtigung der Reihenfolge ohne Wiederholung keine Mehrfachbelegung mit Wiederholung nk mit Mehrfachbelegung Teilchen sind nicht unterscheidbar Teilchen sind unterscheidbar Verteilung von k Teilchen auf n Zellen 1.3 Endliche Wahrscheinlichkeiten è nächster Schritt zur Formalisierung des Wahrscheinlichkeitsbegriffes, durch Identifizierung zufälliger Ereignisse mit Mengen Zufälliger Versuch habe Ausgang w : Realisierung, Stichprobe oder Elementarereignis Elementarereignis: alle Elementarereignisse (alle Versuchsausgänge) in einer Menge W zusammenfassen: Raum aller Elementarereignisse. (gewisse) Teilmengen von W bilden dann die zufälligen Ereignisse, W und Æ seien Ereignisse. Beispiel: Würfelexperiment W = {1, 2, 3, 4, 5, 6} Ereignis A: „gerade Zahl würfeln“ A = {2, 4, 6} Í W W das „sichere Ereignis „ tritt stets ein Æ das „unmögliche Ereignis“ tritt niemals ein è Das Eintreten des Elementarereignisses w hat alle Ereignisse A mit w Î A zur Folge. Die Ereignisse A sind Teilmengen des Raumes der Elementarereignisse w Î A Í W Damit ist eine sichere Basis für alle näheren Betrachtungen gelegt. Raum der Elementarereignisse entsprechend den Regeln der Mengenlehre strukturieren. Definition: Das Ereignis A aus W, ziehe das Ereignis B aus W nach sich, A Í B, falls w Î A Þ w Î B Stets gilt: Æ Í A , A Í W Definition: Zieht A Í W das Ereignis B Í W sowie B das Ereignis A nach sich, so heißen die Ereignisse A und B gleich. A = B Û A Í B Ù B Í A Definition: Die Summe (Vereinigung) A È B der Ereignisse A, B Í W, tritt genau dann ein, wenn wenigstens eines der Ereignisse A oder B eintritt. w Î A È B Û w Î A Ú w Î B Stets gilt: A È Æ = A A Í A È B A È A = A B Í A È B A È W = W Kommutativität: A È B = B È A Assoziativität: A È (B È C) = (A È B) È C Allgemein: endliche Summe von Ereignissen (Ai) i = 1, 2, ... Folge von Ereignissen, Ai Í W. Dann bedeutet das Ereignis, das genau dann eintrifft, wenn mindestens eines der Ai eintritt. Definition: Das Produkt (der Durchschnitt) A Ç B der Ereignisse A, B Î W tritt genau dann ein, wenn sowohl A als auch B eintreten. w Î A Ç B Û w Î A Ù w Î B Stets gilt: A Ç Æ = Æ A Ç B Í A A Ç A = A A Ç B Í B A Ç W = A Außerdem gilt das Kommutativ- und das Assoziativgesetz bezüglich Ç. Allgemein: endliches Produkt von Ereignissen Ai Í W jedes der Ai tritt ein Definition: Das zu A Í W komplementäre Ereignis tritt genau dann ein, wenn A nicht eintritt. Es gilt , d.h. A und zerlegen den Raum der Elementarereignisse Definition: Sind A und B zufällige Ereignisse, so bezeichnen wir das Ereignis das genau dann eintritt, wenn A aber nicht B entritt, mit A \ B. Es gilt: A \ B = A Ç Bemerkung: Aufgrund der von uns gewählten Konstruktion gelten für Ereignisse grundsätzlich die Regeln der Mengenlehre, etwa die Distributivgesetze: A È (B Ç C) = (A È B) Ç (B È C) A Ç (B È C) = (A Ç B) È (B Ç C) oder die DeMorgan’sche Regel: allgemein allgemein Beispiel: 4 Geräte seien in der folgenden Weise geschaltet: Ai bezeichne das zufällige Ereignis: „Das Gerät i fällt aus“ (i = 1, 2, 3, 4) Ereignis A: „Das System fällt aus“ Ereignis B: „Das System fällt nicht aus“ Definition: Eine Menge M zufälliger Ereignisse heißt Ereignisalgebra, wenn gilt: E1: W Î M E2: A Î M , B Î M è A È B Î M ( M ist È-stabil) E3: A Î M è Î M Enthält M unendlich viele Elemente, so habe M überdies die Eigenschaft E4 : Ai Î M (i = 1, 2, ...) è M In diesem Fall ist M eine s-Algebra. Folgerungen: Eine Ereignisalgebra besitzt die Eigenschaften: 1. Æ Î M 2. A, B Î M è A Ç B Î M, A \ B Î M (M ist Ç-stabil) 3. Ai Î M (i = 1, 2, ...) è M Beispiel: 1. W gegeben, sowie A Í W ; A ¹ W ; A ¹ Æ ; Ereignisalgebra M mit A Î M konstruieren M = {A, , Æ, W} 2. Kleinste Algebra: M = {Æ, W} 3. Größte Algebra: M = Ã(W) (Potenzm. aller Teilmeng.) Sei W = {w1 , w2, ... , wN} endlich mit N Elementen. Wieviele Elemente enthält dann die Potenzmenge? Mengen A Í W konstruieren: Mengenbildungsprinzip wi Î A oder wi Ï A Also N „Teilchen“ auf zwei Zellen aufteilen. è Ã(W) enthält 2N Elemente. Beispiel: Spiel mit zwei Würfeln: 6 · 6 = 36 Elementarereignisse W = {(1, 1) , (1, 2) , ... , (6, 6)} Ã(W) enthält 236 = 68.719.476.736 Elemente Ã(W) enthält qualitativ mehr Elemente als W. W abzählbar W = {w1, w2, ...} Ã(W) überabzählbar In diesem Falle lassen sich „gerade noch“ Wahrscheinlichkeiten auf allen Ereignissen A Ì Ã(W) definieren. Bei überabzählbaren W, z.B. W = R1 gilt das nicht mehr. Borel-Mengen Sei W = R1 die reelle Achse. Nach dem Ereignis {w : w = x} (x Î R) zu fragen ist oft nicht sinnvoll, dagegen nach {w : w Î Intervall} sehr. è spezielle Teilmengen von W betrachten: A = (a, b] ; -¥ < a < b < ¥ Bilden diese Mengen eine Algebra ? (a, b] È (b, c] = (a, c] , = R Wir müssen Menge hinzunehmen. Definition: Sei W = R1. Mit L 1 bezeichnen wir die kleinste s-Algebra (Existenz gesichert), die alle betroffenen Intervalle (a, b], -¥ < a < b < ¥ enthält. L 1 heißt s-Algebra der Borel-Mengen in R1. Mittels geeigneter Parallelepipede (Rechteck, Quader, ...) definiert man die s-Algebra L n der Borel-Mengen im Rn. Im folgenden setzen wir nun stets voraus, daß der jeweils betrachtete Raum der Elementarereignisse W durch eine geeignete Ereignisalgebra strukturiert sei. Nur die Elemente A Î M wollen wir künftig als Ereignisse zulassen. Definition: Es sei W ein Elementarereignisraum versehen mit der Ereignisalgebra M. Zwei Ereignisse A, B Î M heißen unvereinbar oder disjunkt, falls ihr gemeinsames Eintreten unmöglich ist. A Ç B = Æ Die Ereignisse A und B schließen einander aus. Beispiel: 1 Würfel Ereignis A = „ungerade Zahl würfeln“ Ereignis B = „eine Zahl größer 5 würfeln“ Definition: Eine Menge nicht unmöglich zufälliger Ereignisse {A1, A2, ..., An, ...} , (Æ ¹ A Î M ) heißt vollständiges Ereignissystem wenn gilt: V1: Ai (i = 1, 2, ...) paarweise unvereinbar Ai Ç Ak = Æ (i ¹ k) V2: Vollständigkeit A1 È A2 È ¼ È An È ¼ = W Vollständiges Ereignissystem zerlegt den Raum W. Nächstes Ziel ist die Weiterentwicklung des Wahrscheinlichkeitsbegriffes. Spezialisierung: Raum der Elementarereignisse sei höchstens abzählbar: W = {w1 , w2, ... , wn} oder W = {w1 , w2, ...} Ereignisalgebra M enthalte alle einpunktigen Ereignisse Ai = {wi} Î M (i = 1, 2, ...). {A1, A2, ..., An} bildet also vollständiges Ereignissystem. è Für alle A Î M Wahrscheinlichkeit P(A) definieren: A à P(A) , A Î M Zuerst Funktion P : M à [0, 1] auf dem vollständigen Ereignissystem definieren: Ai à P(Ai) = P({wi}) = pi i = 1, 2, ... Dabei muß für die Folge natürlich gelten pi > 0 und = 1 für i = 1, 2, ... Für ein beliebiges Ereignis A Î M setzen wir P(A) := . Beispiel: W = {0, 1, 2, ...} Menge der natürlichen Zahlen. l > 0 feste reelle Zahl è pk > 0 Eigenschaften der Wahrscheinlichkeit P: 1. 0 £ P(A) £ 1 , mit P(A) = 2. P(W) = = 1 3. 4. P(Æ) = 1 - P(W) 5. Additionstheorem: A und B unvereinbar è P(A È B) = P(A) + P(B) 6. Verallgemeinerung: Ai , i = 1, 2, ... höchstens abzählbar viele paarweise unvereinbare Ereignisse Ai Ç Ak = Æ ( i ¹ k ; i, k = 1, 2, ...) è 7. Unvereinbarkeit fallen lassen: A, B Î M beliebig P(A È B) = P(A) + P(B) - P(A Ç B) 8. Isotonie der Wahrscheinlichkeit: A £ B è P(A) £ P(B) 1.4 Geometrische Wahrscheinlichkeit Zufällige Experimente mit überabzählbar vielen Ausgängen können mit elementaren Methoden behandelt werden. Beispiel: Eine Dame verspricht, zwischen 17.00 und 18.00 Uhr zu einem Rendezvous zu erscheinen, nähere Angaben macht sie nicht. Wahrscheinlichkeit für das Ereignis, daß sie zwischen 17.03 und 17.23 Uhr eintrifft ist gesucht. Anschauung und Intuition: Abstraktion: „Inhalt“ der Menge A = {t : 17.03 £ t £ 17.23} „Inhalt“ der Menge W = {t : 17.00 £ t £ 18.00} Beispiel: Glücksrad mit Zeiger; zufälliger Versuch: Rad drehen, wo bleibt Zeiger stehen, jede Zeigerstellung gleichberechtigt. = {g : 0 £ g £ 2 · p } für Ereignis A günstige Zeigerstellungen identifizieren A = { } Beispiel: Zwei Personen vereinbaren, sich zwischen 12 und 13 an einem bestimmten Ort zu treffen. Jeder wartet auf den anderen nötigenfalls 15 Minuten, danach geht er. Wie groß ist die Wahrscheinlichkeit für ein Treffen ? Punkt (x, y) repräsentiert Ankunftszeiten für beide Personen I und II. W = [0,1]² A = {(x, y) Î W : |x - y| £ ¼} è und P(A) = Allgemeines Modell: Versuch lasse sich als zufälliges Werfen eines Punktes in einem beschränktem Grundbereich W des n-dimensionalen euklidischen Raumes zu interpretieren. Dabei gelte: · Der geworfene Punkt kann auf jeden beliebigen Punkt w Î W fallen · Inhaltsgleiche Teilmengen von W ( = Ereignisse) haben die gleiche Wahrscheinlichkeit · Das sichere Ereignis entspricht dem Grundbereich W Dann berechnet sich die Wahrscheinlichkeit des Ereignisses A Í W nach der Formel: Bemerkungen: è Wahrscheinlichkeit eines Ereignisses ist also unabhängig von der speziellen Lage und Gestalt in W è Die Analogie zum klassischen Laplace’schen Wahrscheinlichkeitsbegriff ist offensichtlich. è Die derartig definierte geometrische Wahrscheinlichkeit hat viel Anlaß zu Mißverständnissen und Einwänden gegeben. Grund: Paradoxon von Bertrand. Aufgabe: In einem Kreis wird zufällig eine Sehne gezogen. Wie groß ist die Wahrscheinlichkeit dafür, daß deren Länge die Seite eines im Kreis einbeschriebenen gleichseitigen Dreiecks übertrifft ? 1. Auffassung: Aus Symmetriegründen o.B.d.A. Richtung der Sehne festhalten. Dann senkrecht Durchmesser des Kreises betrachten. Wann gilt s > l ? Mittelpunkt M der Sehne zwischen und è 2. Auffassung: Spitzen des gleichseitigen Dreiecks in einem Endpunkt der Sehne, Winkel der Sehne mit Tangente. günstiger Bereich: ... è 3. Auffassung: Mittelpunkt M der Sehne zufällig im Kreisinnern wählen. Außerdem muß Abstand M zu 0 kleiner als sein. Lösung der Aufgabe offenbar von Lösungsweg abhängig. Auflösung des Paradoxon: Es wurden jeweils verschiedene Aufgaben formuliert. 1. „zufällig“ bedeutet hier, den Punkt M „auf gut Glück“ auf (0, 2r) zu wählen 2. Winkel x „auf gut Glück“ in (0, p) wählen 3. Punkt „auf gut Glück“ in der inneren Kreisfläche wählen è damit ganz verschiedene Zufallsmechanismen vorausgesetzt è unterschiedliche Lösungen 1.5 Bedingte Wahrscheinlichkeit, Unabhängige Ereignisse Gegeben: · Wahrscheinlichkeitsraum (W, M, P) · Modell für (realen) Bedingungskomplex eines zufälligen Experiments · Ereignis B Î M, P(B) > 0 zusätzliche Hypothese: „Das Ereignis B tritt ein“ Durch Hinzunahme dieser Hypothese wird der Bedingungskomlex geändert. Folglich werden sich i.a. auch die Wahrscheinlichkeiten der Ereignisse A Î M ändern. Definition: Unter den obigen Voraussetzungen heißt: die bedingte Wahrscheinlichkeit des Ereignisses A unter der Bedingung B. Beispiel: Maschinensystem in Reihe Wahrscheinlichkeit für Ursache eines Ausfalls des Systems bei: Maschine I: p Maschine II: q Maschine III: 1 - (p + q) System sei ausgefallen, bereits vergeblich nach einem Fehler in Maschine I gesucht. Wie ist die Wahrscheinlichkeit dafür, daß dann die Ursache in Maschine II liegt? Ereignis A: „Ursache des Ausfalls liegt genau an Maschine II“ Ereignis B: „Ursache des Ausfalls liegt nicht an Maschine II“ Gesucht: P(A | B) Es gilt hier A Í B, sowie P(A) = q P(B) = 1 - P(A) = 1 - p und weiter P(A | B) = Eigenschaften der bedingten Wahrscheinlichkeit 1. 0 £ P(A | B) £ 1 2. B unvereinbar è P(A | B) = 3. B Í A è P(A | B) = 4. [X1] | W) = 5. Die bedingte Wahrscheinlichkeit P(A | B) kann kleiner, größer oder gleich der unbedingten Wahrscheinlichkeit P(A) sein. Beispiel: 1 Spielwürfel B = „gerade Augenzahl“ à P(B) = ½ a) A = „Augenzahl nicht größer als 3“ à P(A) = ½ b) A = „Augenzahl gleich 2, 3 oder 4“ à P(A) = ½ c) A = „Augenzahl gleich 1 oder 2“ à P(A) = Hypothese: B, P(B) > 0 festhalten Funktion A à PB (A) := P(A | B), A Î M betrachten. Bei festem B besitzt P(B) alle Eigenschaften einer Wahrscheinlichkeit; ist also eine neue Wahrscheinlichkeit auf M. - ohne Beweis - A, B seien Ereignisse mit P(A) > 0, P(B) > 0 à P(A Ç B) = ? Zuweilen P(A | B) oder P(B | A) bekannt oder leichter zu ermitteln. Definition der bedingten Wahrscheinlichkeit Multiplikationssatz: Es seien A und B Ereignisse positiver Wahrscheinlichkeit. Dann gilt: Folgerung: Beispiel: 10 Bauelemente sind in einer Kiste, 4 davon sind defekt. 2 Elemente werden nacheinander „auf gut Glück“ entnommen. Mit welcher Wahrscheinlichkeit sind beide Elemente intakt ? (Ereignis A) Ai = „i-tes Element intakt“ (i = 1, 2) P(A1) = , P(A2 | A1) = è Verallgemeinerung: Es seien A1, A2, ..., An zufällige Ereignisse mit , dann gilt: Gegeben: Ereignis A, vollständiges Ereignissystem {B1, B2, ..., Bn} Bi paarweise disjunkt , P(Bi) > 0 ) Standpunkt: P(A) gesucht, P(A | Bi) dagegen bekannt. Formel der totalen Wahrscheinlichkeit Beweis: Beispiel: „Ruin des Spielers“ Spieler nimmt an Spielrunden teil: Erraten des Resultats eines Münzwurfs. Es wird um eine Mark gespielt. Münze erraten - richtig à + 1 DM - falsch à - 1 DM Anfangskapital: x DM ; x = 0, 1, ... (0 = keine Spielrunde möglich) Strategie des Spielers: Solange spielen, bis Summe a Mark erreicht ist (a ³ x) Problem: Mit welcher Wahrscheinlichkeit verliert der Spieler sein Kapital? P(x) = Wahrscheinlichkeit, daß sich der Spieler mit Anfangskapital von x DM ruiniert. (x = 0, 1, ..., a) Ereignis B1 = „Spieler gewinnt in der ersten Runde“ x à x + 1 Ereignis B2 = „Spieler verliert in der ersten Runde“ x à x - 1 Ereignis A = „Der Spieler wird ruiniert“ B1, B2 : vollständiges Ereignissystem: und und P(A) nicht erkennbar, aber Beziehung für bedingte Wahrscheinlichkeiten. è Anwenden der Formel der totalen Wahrscheinlichkeit: P(0) = 1, P(a) = 0 allgemeine Lösung der Differenzengleichung: P(x) = c1 + c2 · x Einsetzen in die Randbedingungen: 1 = P(0) = c1 0 = p(a) = c1 (= 0) + c2 · a à Lösung: (x = 0, 1, ..., a) 1.5.1 Unabhängigkeit von Ereignissen A, B seien Ereignisse mit P(A), P(B) > 0 möglicher Spezialfall: (*) P(A | B) = P(A) è Damit ist falls (*) gilt. Definition: Zufällige Ereignisse A und B heißen unabhängig, falls gilt: Bemerkung: Voraussetzungen P(A), P(B) > 0 haben wir vernachlässigt. Hat wenigstens eines der Ereignisse A oder B die Wahrscheinlichkeit Null, so sind A und B unabhängig. Vergleich mit dem Multiplikationssatz: " A, B Î M, P(A), P(B) > 0 Man unterscheide die Begriffe „unabhängig“ und „unvereinbar“ für Ereignisse. Unvereinbarkeit von A und B: Folglich sind zwei unvereinbare Ereignisse A, B positiver Wahrscheinlichkeit nicht unabhängig: Beispiel: „Skatblatt“ eine Karte „auf gut Glück“ ziehen Ereignis A1 = „Farbe ist Pik“ Ereignis A2 = „Karte ist Dame“ Sind A1 und A2 unabhängig? Formal: , Es gilt: è Ereignisse sind unabhängig , Bemerkung: Unabhängigkeit von A und B drückt aus, daß A und B wahrscheinlichkeitstheoretisch in dem Sinne keinen Einfluß aufeinander haben, daß die Information „B tritt ein“ - wenn sie überhaupt positive Wahrscheinlichkeit hat - nichts an der Wahrscheinlichkeit von A ändert. Satz: Sind die Ereignisse A und B unabhängig, so sind es auch die Ereignisse und B, A und , wie auch und . Beweis: Seien A und B unabhängige Ereignisse: Es genügt zu zeigen: Dann sind auch und B unabhängig. Ereignis B disjunkt zerlegen: Addivität: Beispiel: zwei verschiedene Würfel werfen Ereignis A = „Würfel 1 zeigt ungerade Augenzahl“ B = „Würfel 2 zeigt ungerade Augenzahl“ C = „Die Augensumme ist ungerade“ A und B offenbar unabhängig , bedingte Wahrscheinlichkeiten: , aber auch è A, C sowie B, C jeweils unabhängig anders ausgedrückt: Ereignisse A, B ,C paarweise unabhängig. Aber: P(C | A Ç B) = 0 è C nicht unabhängig von {A, B} es besteht hier offenbar Abhängigkeit „zu dritt“ è Definition Definition: Die zufälligen Ereignisse A1, A2, ..., An heißen vollständig unabhängig, wenn für beliebige k = 2, 3, ..., n und beliebige natürliche Zahlen i1, ...ik mit 1 £ i1 < i2 < ... < in £ n gilt: Die zufälligen Ereignisse einer unendlichen Folge A1, A2, ... heißen vollständig abhängig, wenn für jedes natürliche n = 2, 3, ... die Ereignisse A1, ..., An vollständig sind. Folgerung: Sind die Ereignisse A1, ..., An vollständig unabhängig, so sind sie es auch paarweise. Bemerkungen: Die Umkehrung obiger Folgerungen gilt nicht (siehe Beispiel). Aus der Beziehung mit P(C) > 0 folgt i.a. nicht Beispiel: , , P(D) - Inhalt von D (Länge) Es gilt: , sowie Aber: Dies begründet die komplizierte Definition der vollständigen Unabhängigkeit. Bayessche Formel: Formel der totalen Wahrscheinlichkeit: {B1, B2, ..., Bn} vollständiges Ereignissystem Andere Fragestellung: Ereignis positiver Wahrscheinlichkeiten: P(A) > 0 bekannt: P(Bi), P(A | Bi) (i = 1, 2, ..., n) gesucht: P(Bk | A) = ? Satz: (Bayessche Formel) Unter den obigen Voraussetzungen gilt: Beweis: nach Definition der bedingten Wahrscheinlichkeit: , è Voraussetzungen zur Anwendung der Formel der totalen Wahrscheinlichkeit für P(A) erfüllt. è Sprechweise: P(Bk) a priori Wahrscheinlichkeiten P(Bk | A) a posteriori Wahrscheinlichkeiten Physikalisches Analogon der Bayesschen Formel: In n Gefäßen seien Lösungen ein und desselben Stoffes in unterschiedlichen Konzentrationen enthalten. Das Gesamtvolumen der Lösungen sei 1 Liter. P(Bk) - Volumen der Lösungen im k-ten Gefäß (k = 1, 2, ..., n) P(Bk | A) = k = 1, ..., n Anteil der Gesamtstoffmengen im k-ten Gefäß. 1.6 Axiomatische Begründung der Wahrscheinlichkeitstheorie Kolmogorov 1933 Vorgegeben: - Raum der Elementarereignis M - System von Teilmengen von : -Algebra S1. W Î M S2. A Î M M S3. Ai Î M (i = 1, 2, ...) Þ M P reellwertig auf M, P erfüllt die Axiome W1. P(A) > 0 W2. P() = 1 W3. An Î M (n = 1, 2, ...) paarweise unvereinbar è Die Funktion P heißt Wahrscheinlichkeit oder auch Wahrscheinlichkeitsmaß auf M. Das Trippel (, M, P) heißt Wahrscheinlichkeitsraum. Bemerkung: Die nunmehr endgültige Fassung des Wahrscheinlichkeitsbegriffs verallgemeinert unsere bisherigen Konstruktionen. Viele der im speziellen Fall gezeigten Eigenschaften sind allgemeingültig. Eigenschaften: (Auswahl) 1. P(Æ) = 0 Beweis: P(W) = = P(W) + P(Æ) + P(Æ) + ... è P(Æ) = 0 2. endliche Additivität A, B unvereinbare Ereignisse è Beweis: A1 = A, A2 = B, Ai = Æ (i = 3, 4, ...) 3. = 1 - P(A), A Î M Beweis: A Î M è M, , 1 = P(W) = = P(A) + 4. Monotonie ; A, B Î M Beweis: Ereignis B disjunkt zerlegen: B = 5. Subaddivität An, (n = 1, 2, ...) Folge von Ereignissen aus M Þ Beweis: Aus (An) eine Folge paarweiser disjunkter Ereignisse (Bn) konstruieren: B1 = A1, B2 = A2 \ A1, B3 = A3 \ (A1 È A2), ..., Bn = An \ (A1 È A2 È ... È An-1) = An\ è Weiterhin gilt: Bk Ak P(Bk) P(Ak) (k = 1, 2, ...) è 6. Stetigkeit a) isotone Folge von Ereignissen $ Limes der Mengenfolge: è Beweis: Wieder die Glieder der Folge (An) disjunkt machen: B1 = A1, B2 = A2 \ B1, ..., Bn = An \ Folge (Bn) paarweise disjunkter Ereignisse, è b) antitone Folge von Ereignissen hier gilt $ Limes è Beweis: durch Übergang zu den komplementären Ereignissen: monoton wachsene Folge = P(An) 2 Zufallsgrößen und deren Verteilung Einführung: Bernoulli-Schema: (, M, P) Wahrscheinlichkeitsraum zufälliges Ereignis A, P(A) = p, 0 < p < 1 Experiment wird n-mal unabhängig voneinander ausgeführt A tritt ein: „Erfolg“, - Alternative Indikator bewertet, ob der k-te Versuch erfolgreich ist, d.h. ob A eintritt. è Folge „unabhängiger“ vom Zufall abhängiger Größen (k = 1, ..., n) P(A) Wertebereich: R Verteilung 0 1 Die Größe X zählt die Anzahl der Erfolge bei Durchführung von n Versuchen: Welche Werte kann X annehmen ? 0 1 2 . . . n - 1 n Mit welchen Wahrscheinlichkeiten ? è Verteilung auf {0, 1, ..., n} Ereignis {X = k}: A tritt in der Versuchsserie k-mal und n - k-mal nicht auf. k-Erfolge (*) 1 2 3 n - 1 Jede konkrete Folge (*) hat die Wahrscheinlichkeit . Wieviele solcher Folgen gibt es ? * * ... * k-Erfolge k-mal „Erfolg“ auf n Plätze verteilen. 1 2 . . . n - 1 n Kombinatorische Standardaufgabe: Verteilung von k Teilchen auf n Zellen · Teilchen nicht unterscheidbar · keine Mehrfachbelegungen è verschiedene Kombinationen è P{X = k} = (k = 0, 1, ..., n) Das ist die Verteilung der Anzahl der Erfolge: „Binominalverteilung mit den Parametern n und p“ è Versuchsserie: „Bernoulli-Schema“ „unabhängige Verteilung ein- und desselben Versuches“ Bemerkung: die Größen und X hängen vom Zufall ab. ausführlich: () = , Spätere Definition solcher Größen als „Zufallsgrößen“. Bewertung des Punktes k entsprechend der Binominalverteilung: 0 k n è Parameter der Lage der Verteilung anderer Parameter: charakterisiert die Streuung der Verteilung mittlere quadratische Abweichung Mittelwert Konstruktion X: 0 n Was passiert bei wachsendem n ? Trick: Größe Xn zentrieren und normieren, d.h. . Dann gilt der Grenzwertsatz von de MOIRE-LAPLACE , x1 < x2 Î R praktische Bedeutung: n groß, nicht Einzelwahrscheinlichkeiten P{Xn = k}, sondern P{a £ Xn £ b} seien interessant (a, b Î R) Uneigentliches Integral: , x Î R Integral interessiert, es gilt sogar Funktion F vertafelt oder im Computer Beispiel: Produktion von Glühlämpchen Kartons zu je 1000 Stück Erfahrungstatsache: Ausschuß im Mittel 3% è (vage) Erwartung, pro Karton 30 Lämpchen defekt. Realisierbare Frage: Wahrscheinlichkeit dafür, daß 20 bis 40 Lämpchen defekt sind. Modell: X (zufällige) Anzahl defekter Lämpchen in einem „auf gut Glück“ gewähltem Karton mit 1000 Lämpchen. X ist binominalverteilt mit den Parametern n = 1000 und p = 0,03 è Mittel: n · p = 1000 * 0.03 = 30 mittlere quadratische Abweichung: n · p · q = 1000 * 0.03 * (1 - 0.03) = 29.1 gesuchte Wahrscheinlichkeit: P{20 £ X £ 40}= è zu kompliziert è Näherung 2. Das Integral F besitzt eine Dichte: è F(x) + F(-x) = 1 è F(x) - F(-x) = F(x) - (1-F(x) = 2F(x) - 1 Die Funktion definiert die Verteilung einer (stetigen) zufälligen Größe Y, die Werte aus ganz R annehmen kann, es gilt: P{Y < x} = F(x), x Î R es gilt außerdem: P{a £ Y < b} = F(b) - F(a) , a < b Die Größe Y heißt normalverteilt, genauer standard-normal-verteilt nach N(0, 1). 2.1 Zufallsgrößen, Verteilungen vorgegeben: Wahrscheinlichkeitsraum (W, M, P) Definition: Eine reellwertige Funktion X auf W w ® X(w) (w Î W) heißt Zufallsgröße, falls für jede reelle Zahl x gilt: {w Î W : X(w) < x} Î M (*) W X w X(w) R Urbild von (-¥, x) Bemerkungen: 1. Den Regeln der s-Algebra folgend sind dann auch Mengen der Gestalt: {w: x1 £ X(w) £ x2} = {w : X(w) < x2} \ {w: X(w) < x1} 2. Die Bedingung (*) genannt „Meßbarkeit von X“ ist technischer Natur; sie sichert, daß alle Mengen {w: X(w) < x}, {w: x1 £ X < x2}, ... Ereignisse sind, für die folgende Wahrscheinlichkeiten gebildet werden können: w: X(w) < x}, P{w: x1 £ X < x2} 3. üblicherweise schreibt man kurz: {X < x}, {x1 £ X < x2} und P{X t} Frage: {X > t + s} ? Zufallsgröße X sei „gedächtnislos“, falls P{X > t + s | X > t} = P{ X > s} (s, t ³ 0) gilt. è è Funktionalitätsgleichung: [Y(t + s) = Y(t) · Y(s)] gesucht: beschränkte Lösung è P{X > t} = e-lt (t ³ 0) Komplement bilden: Zufallsgröße mit dieser Verteilung heißt expotentiell verteilt mit dem Parameter l > 0. P{X < ¥} = Zufallsgröße X hat eine Dichte: è Also: P{X < t} = , t Î R Sei Xn binominalverteilte Zufallsgröße mit den Parametern n und p: P{Xn = k} = (k = 0, 1, ..., n) Problem: p werde klein è mittlere Zahl der Erfolge klein, läßt man simultan n wachsen, dann ist der Mittelwert trotzdem bedeutend. Ansatz: n · p = l; l > 0 konstant. Was passiert für n ® ¥ ? k = konstant: P{Xn# = k} = (Grenzwertsatz) Wegen ist damit eine Wahrscheinlichkeitsverteilung auf {0, 1, 2, ...} erklärt. Definition: Eine Zufallsgröße X mit P{X = k} = (k= 0, 1, ...) heißt POISSON-verteilt mit dem Parameter l > 0. Modell: radioaktiver Zerfall Radium Radon a - Teilchen (He-Kern) Im Zeitintervall der Länge t zerfällt das Radiumatom mit Wahrscheinlichkeit p(t). n Radiumabnahme Abstand sehr groß, Zerfall eines Kerns erfolgt unabhängig von allen anderen. Mittlere Zahl der ausgesandten a - Teilchen während t: a(t) = n · p(t) Experimentelle Erfahrungen (Messungen) für t = 1s und n = 1022 (= 19 Radien): a(t) » 1010 è p(t) » 10-12 (also sehr klein) Versuch: Beobachtungen eines dieser Atome Erfolg: Zerfall während 1s ® gleichzeitig laufen also 1022 solcher Versuche ab. ® Voraussetzungen des Bernoullischema erfüllt. Zerfallsgröße X(t): Anzahl der während t ausgesandten a-Teilchen. n sehr groß, p sehr klein è annähernd POISSON-verteilt mit Parameter l = n · p. P{X(t) = k} = ; (k= 0, 1, ...) mit t = 1s Verallgemeinerung des Begriffes der Zufallsgröße: Definition: Es seien x1, x2, ..., xn Zufallsgrößen auf ein- und demselben Wahrscheinlichkeitsraum (W, M, P). Dann heißt das n-Tupel = (X1, X2, ..., Xn) ein Zufallsvektor. Bemerkungen: zufällige Vektoren sind Vektoren, deren Komponenten Zufallsgrößen sind. Man kann X als (meßbare) Abbildung von W in den Raum Rn auffassen. Die Verteilung von ist das Bildmaß von P in der s-Algebra der Borelmengen Ln von Rn. (B) = P{Î B} = P{w : X1(w), X2(w), ..., Xn(w) Î B} B Î L1 Beispiele für Zufallsvektoren: simultane Messung verschiedener Größen bei einem Experiment. (p-V-Diagramm, Körpergröße eines Menschen, Dimension eines Werkstückes) Definition: Ein Zufallsvektor = (X1, X2, ..., Xn) heißt diskret, wenn er höchstens abzählbar viele verschiedene Werte = (X1, X2, ..., Xn) Î Rn annehmen kann. Definition: Der Zufallsvektor heißt stetig, wenn seine Verteilung eine Dichte p(x1, x2, ..., xn) ³ 0 besitzt: P{X Î B} = p(x1, x2, ..., xn) dx1dx2 ... dxn B Î Ln X1, X2, ..., Xn, ... höchstens abzählbar viele Zufallsgrößen auf (W, M, P) Definition: Die Zufallsgrößen X1, X2, ..., Xn, ... heißen unabhängig, falls für beliebige Zahlen xk´ £ xk´´ die Ereignisse {xk´ £ Xk < xk´´} k = 1, 2, ..., n, ... vollständig unabhängig sind. Folgerungen: 1. Bei diskreten unabhängigen Zufallsgrößen X1, X2, ..., Xn gilt für die (gemeinsame) Verteilung von = (X1, X2, ..., Xn): P{X1 = x1, X1 = x2, ..., Xn = xn} = P{X1 = x1} · P{X2 = x2} · ... · P(Xn = xn}, (x1, x2, ..., xn) Î Rn. 2. Bei stetigen unabhängigen Zufallsgrößen X1, X2, ..., Xn mit den Dichten p1, p2, ..., pn gilt für die (gemeinsame) Dichte des zufälligen Vektors = (X1, X2, ..., Xn): p(x1, x2, ..., xn) = p1(x1) · p2(x2) · ... · pn(xn) mit (x1, x2, ..., xn) Î Rn. Funktionen von Zufallsgrößen X sei Zufallsgröße auf (W, M, P), g ist reelle Funktion g: . Unter ganz schwachen Voraussetzungen (Meßbarkeit muß gesichert sein) ist dann auch die durch w ® g(X(w)), w Î W definierte Abbildung eine Zufallsgröße. Analoges gilt für einen Zufallsvektor (X1, X2, ..., Xn) und die Funktion h: Rn ® R1. Y = h(X1, X2, ..., Xn) ist dann Zufallsgröße auf (W, M, P). Charakterisierung von Zufallsgrößen und Vektoren X sei Zufallsgröße auf (W, M, P) wichtigste Charakteristik von X: Verteilung PX (aber oft „unhandlich“) Definition: Die durch FX (x) = P{X 0 = g(xk) P{X = xk} = k2 P{X = k} = k2 = l= l[k P{X = k} + P{X = k}] = l[EX + 1] = l (l+1) Steinerscher Satz è D2X = EX2 -(EX)2 = l(l+1) - l2 = l 2. X ist expotentialverteilt mit Parameter l > 0 EX2 = x2 p(x) dx = x2le-lx dx = ... 2 mal partiell integriert ... = è D2X = EX2 - (EX)2 = - = 3. Normalverteilung Y sei eine standardnormalverteilte Zufallsgröße è EY = 0, D2Y = 1 (Streuung) kurz: N (0, 1) X = sY + m - lineare Transformation von Y; s > 0, m Î R FX(x) = P{X < x} = P{sY + m < x} = P{ Y < } = FY () = F () = = Definition: Eine Zufallsgröße X mit dieser Verteilungsfunktion FX heißt normalverteilt mit den Parametern s > 0, m Î R oder N(m, s2) verteilt. Bedeutung der Parameter: EX = E(sY + m) = s + m = m D2X = D2(sY + m) = s2 = s2 2.3 Faltung zweier Verteilungen X, Y seien Zufallsgrößen auf (W, M, P) g: R2 à R Funktion, (Meßbarkeit sei gesichert) è neue Zufallsgröße: Z = g(X, Y) Verteilung von Z ? speziell: X, Y seien disjunkt mit Werten xi, yk ; (i, k = 0, 1, ...) P{Z = z} = z Î R Summiert wird also über disjunkte Indizes i, k für die g(xi, yk) = z. Existieren keine solchen Werte xi, yk, so ist die Summe gleich Null. Zur Berechnung von P{X = z} muß man also i. a. die gemeinsame Verteilung von X und Y kennen. noch spezieller: Summe von X und Y P{Z = z} = Übung: X, Y Poisson-verteilt è Speziell X, Y mit Werten 0, 1, 2, ... P{Z = n} = = (X, Y unabhängig) = nennt man „Faltung der Verteilung von X und Y !!“ Ziel: Übertragung der Methode auf stetige Zufallsgrößen X, Y mit der gemeinsamen Dichte fX,Y gesucht: Z = X + Y stetig ? , Dichte fZ ? z Î R: fZ(z) = P{Z < z} = P{X + Y < z} = Doppelintegral, Integrationsgebiet B = {(x,y): -¥ < x < ¥, -¥ < y < z-x} y z y = z - x x + y = z x z x x y = z - x = (Integral iterieren) == (Substitution im inneren Integral) Substitution: z = x + y, y = z - x dy = dz y = -¥ à z = -¥ y = z - x à z = x + y = x + (z - x) = z = Ziel: Funktion von z à Integralreihenfolgetausch = Dichte für fZ(z) : fZ (z) è Dichte für Z = X + Y fZ(z) = ; z Î R è Damit ist Z = X + Y eine stetige Zufallsgröße speziell: Annahme: X und Y unabhängig è fX,Y(x,y) = fX(x) * fY(y) (x, y Î R) è fZ(z) = „Faltungsformel“ für die Dichte fX und fY (bei Unabhängigkeit) fZ(z) = ; z Î R Bemerkung: Durch Vertauschen der Rolle von x und y in den obigen Überlegungen beweist man die Formel: fZ(z) = ; z Î R weitere Aussagen über unabhängige Zufallsgrößen X und Y: · EXY = EX EY · f, g reelle Funktionen, X,Y unabhängig Þ f(X), g(X) unabhängig 2.3.1 Momente einer Zufallsgröße X - Zufallsgröße Definition: Im Falle der Existenz heißt mk = EXk (k = 1, 2, ...) das k-te Moment der Zufallsgröße X. allgemein: mk = E(x - c)k (k = 1, 2, ...) heißt k-tes Moment von X bezüglich c Î R Momente sind sowohl theoretisch (Momentenproblem) als auch praktisch (Statistik) bedeutsam. 2.4 Charakteristische Funktionen Vorbemerkung: komplexe Zufallsgröße X, Y (reelle) Zufallsgrößen auf dem Wahrscheinlichkeitsraum (W, M, P) Z = X + iY komplexe Zufallsgröße auf (W, M, P) · Meßbarkeit überträgt sich · Verteilung von Z kann durch die gemeinsame Verteilung von X, Y charakterisiert werden · Erwartungswert von Z: formal summieren EZ = EX + iEY · Zj = Xj + iYj (j = 1, 2) Z1, Z2 unabhängig: (X1, Y1 unabhängig von X2, Y2) · Betrag Anmerkung: Darstellung komplexer Zahlen (Wdh.) y z · algebraische Form: z = x + iy x · trigonometrische Form: y r z z = r(cos z + i sin z) z x · Expotentialform: z = r eiz Definition: Sei X eine (reelle) Zufallsgröße auf dem Wahrscheinlichkeitsraum (W, M, P). Dann bezeichnen wir die Abbildung t à zX(t) := E(eitX), -¥ < t < ¥ als charakteristische Funktion der Zufallsgröße X oder der Verteilung von X. Bemerkung: Aufgrund von |eitx| = 1 ist obiger Ausdruck absolut und gleichmäßig in t konvergent. Zu jeder Zufallsgröße X existiert also die charakteristische Funktion zX(t). X diskrete Zufallsgröße: z(t) = E (eitX) , t Î R (absolute Konvergenz) Beispiel: X sei zweipunktverteilt P{X = -1} = P{X = 1} = è z(t) = e-it1*+ eit1 = = cos t X stetig: Verteilung von X besitzt Dichte fX z(t) = E( eitX) = , t Î R Konvergenz: (absolut konvergent und gleichmäßig in t) X stetig: Verteilung von X besteht aus Dichte fX j(t) = E (eitX) = eitX fX(x) dx , t Î R g(x) = eitx Konvergenz: |eitx| fX(x) dx = fX(x) dx = 1 Beispiel: X auf [0, 1] gleichmäßig verteilt: Dichte fX(x) = è j(t) = eitx fX(x) dx = eitx *1 dx = , t Î R Eigenschaften charakteristischer Funktionen j(0) = E eitX = E e0 = e0 = 1 |j(t)| = |E (eitX)| £ |EitX| = E*1 = 1 (qualitative Aussage) j(-t) = t Î R (konjugiert komplex) [jede charakteristische Funktion erfüllt (notwendigerweise) diese Bedingungen; sie sind indessen nicht hinreichend] lineare Transformation von X: Zufallsgröße Y =aX + b charakteristische Funktion ? jY(t) = E (eitY) = E (eit(aX + b)) = E(eitb eitaX) = eitb E(eitaX) = eitbjX(at) , t Î R1 Multiplikationssatz: X, Y seien zwei unabhängige Zufallsgrößen charakteristische Funktion der Summe Z = X + Y ? jZ(t) = E (eitZ) = E (eit(X + Y)) = E (eitX eitY) = (unter der Voraussetzung, daß X und Y unabhängig sind) = E (eitX) E (eitY) = jX (t) * jY (t) , t Î R Satz: Die charakteristische Funktion der Summe endlich vieler vollständig unabhängiger Zufallsgrößen ist gleich dem Produkt der charakteristischen Funktionen dieser Zufallsgrößen. Beispiel: X sei Poisson-verteilt mit Parameter l > 0 jX(t) = E (eitX) =eitk P{X=k} = eitke-l = e-l = ,t Î R Y sei Poisson-verteilt mit Parameter m > 0 und unabhängig von X. Wie ist Z = X + Y verteilt ? jZ(t) = jX(t) j Y(t) = = exp[l(eit-1) + m(eit-1)] = exp [(l+m) (eit-1)] charakteristische Funktion einer Poissonverteilung mit Parametern l + m Bemerkung: Falls jZ die Verteilung von Z, eindeutig charakterisiert, so ist Z Poisson-Verteilt mit dem Parameter l + m.. Eindeutigkeitssatz: Jede Verteilung ist durch ihre charakteristische Funktion eindeutig bestimmt. Erzeugung der Momente einer Zufallsgröße Besitzt die Zufallsgröße X das Moment k-ter Ordnung mk = EXk, so existiert die k-te Ableitung von jX und es gilt: mk = Charakteristiken im 2-dimensionalen Zufallsvektor (X, Y) auf dem Wahrscheinlichkeitsraum (W, M , P) [P(X,Y) (B) = P{(X,Y) Î B} = P{w: (X(w), Y(w) Î B}, B Î L2] Informationsverdichtung: Erwartungswert, Streuung (Varianz) verallgemeinern. Erwartungsvektor: (EX, EY) y (EX, EY) x Varianz verallgemeinern: zwei Zufallsgrößen X, Y aus D2X, D2Y aber auch Abhängigkeiten zwischen X und Y berücksichtigen. 2.5 Einführung der Kovarianz (Abweichungen) cov (X, Y) = E(X - EX) (Y-EY) è cov (X, Y) = D2X Kovarianzmatrix: symmetrisch, positiv definierte Matrix Kovarianz normieren: z(X,Y) = Aussage: Komponenten X und Y unabhängig è E( X*Y) = (EX) (EY) cov (X,Y) = 0 z(X, Y) = 0 D2(X + Y) = D2X + D2Y (Anmerkung: +2[E (XY) - EX EY] = cov (X, Y)) Beispiel: 2-dimensionale Normalverteilung, angegeben durch die Dichte der Verteilung von (X, Y): f(x,y) =
Quellenangaben des Verfassers