Uploaded by maxv.c

Martin Erdmann, Thomas Hebbeker auth. Experimentalphysik 5 Moderne Methoden der Datenanalyse Physik Denken

advertisement
Physik Denken
Martin Erdmann
Thomas Hebbeker
Experimentalphysik 5
Moderne Methoden der Datenanalyse
Springer-Lehrbuch
Physik Denken
Martin Erdmann · Thomas Hebbeker
Experimentalphysik 5
Moderne Methoden der Datenanalyse
Physik Denken
Prof. Dr. Martin Erdmann
Prof. Dr. Thomas Hebbeker
RWTH Aachen
Physikzentrum
3. Physikalisches Institut
Otto-Blumenthal-Straße
52056 Aachen
Deutschland
editor@physik-denken.de
ISSN 0937-7433
ISBN 978-3-642-17293-9
DOI 10.1007/978-3-642-17294-6
ISBN 978-3-642-17294-6 (eBook)
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;
detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer Spektrum
© Springer-Verlag Berlin Heidelberg 2013
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und
die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk
berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne
der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Text und Abbildungen wurden mit größter Sorgfalt erarbeitet. Verlag, Herausgeber und Autoren können
jedoch für eventuell verbliebene fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen.
Planung und Lektorat: Dr. Vera Spillner
Einbandentwurf: WMX Design GmbH, Heidelberg
Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier
Springer Spektrum ist eine Marke von Springer DE. Springer DE ist Teil der Fachverlagsgruppe Springer
Science+Business Media
www.springer-spektrum.de
Physik Denken
Die Physik stellt die Beobachtung, die Erklärung und die Vorhersage von Naturvorgängen in den direkten Zusammenhang mit der Mathematik. Physikalische Denkund Arbeitsfähigkeiten erfordern deshalb fundierte Kenntnisse über die experimentellen Methoden, die Interpretation von Messungen und die physikalischen Konzepte, die auf mathematischer Basis entwickelt werden.
Die Lehr- und Lernmodule der Reihe Physik Denken orientieren sich an den
Anforderungen des Bachelorstudiums Physik. Die Reihe konkretisiert den Lehrund Lernstoff der Experimentalphysikkurse an den Universitäten. Studierende sollen sich die wesentlichen physikalischen Konzepte aneignen, experimentelle und
statistische Methoden zu deren Überprüfung kennenlernen und Fähigkeiten zur
Durchführung entsprechender Berechnungen entwickeln.
Die Portionierung des Lernstoffs in der Reihe Physik Denken, die ausführlichen
Berechnungen, die vielen Abbildungen, die Beispiele und die kleinen Aufgaben
vermitteln die Machbarkeit des Studiums. Einige, teilweise anspruchsvolle Experimente werden ausführlich beschrieben. Das Layout lädt zur Mitarbeit ein und bietet
Platz für das Einfügen eigener Anmerkungen. Größe und Gewicht der einzelnen
Lehr- und Lernmodule sind zur täglichen Mitnahme an die Universität konzipiert.
Dem Springer-Verlag, insbesondere den Lektoren Frau Dr. rer. nat. Spillner und
Herrn Dr. rer. nat. Schneider, danken wir für die professionelle Unterstützung bei
der Umsetzung der Lehr- und Lernmodule. Für die fachliche Begutachtung danken
wir unserem Kollegen Herrn Univ.-Prof. Dr. rer. nat. Wiebusch. Vielen engagierten
Mitarbeitern danken wir für Korrekturen und die Unterstützung beim Übertragen
der Formeln und Bilder in das LATEX-System. Unseren Familien danken wir für ihr
konstruktives Encouragement.
Aachen 2012
Univ.-Prof. Dr. rer. nat. M. Erdmann
Univ.-Prof. Dr. rer. nat. T. Hebbeker
V
Inhaltsverzeichnis
1
Messwert und Messgenauigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Ergebnisangaben eines Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Messwerte einer Messreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Fragen und Ziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
2
3
8
2
Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1 Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Kombinationen von Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . .
2.4 Theorem von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
11
12
15
18
3
Wahrscheinlichkeitsverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1 Zufallsvariable, Messdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Kenngrößen für Wahrscheinlichkeitsverteilungen . . . . . . . . . . . . . . . .
3.3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung . . . . . . . . . . . . . . . . . .
3.4 Zweidimensionale Wahrscheinlichkeitsdichten . . . . . . . . . . . . . . . . . .
21
21
23
29
44
4
Kombination von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Charakteristische Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Faltung von Wahrscheinlichkeitsdichten . . . . . . . . . . . . . . . . . . . . . . .
4.3 Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Kenngrößen aus Messdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
49
51
53
57
5
Messfehler und Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1 Transformation von Wahrscheinlichkeitsdichten . . . . . . . . . . . . . . . . .
5.2 Fehlerfortpflanzungsgesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Fehlerfortpflanzung bei zusammengesetzten Messgrößen . . . . . . . . .
65
65
66
72
6
Parameterschätzung aus Messdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.1 Maximum-Likelihood-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.2 Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
VII
VIII
Inhaltsverzeichnis
7
Statistische Testverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.1 Hypothesen, Konfidenzgrößen, signifikante Abweichungen . . . . . . . 105
7.2 t-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.3 2 -Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.4 Computersimulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
7.5 Likelihood-Quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
8
Klassifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.1 Fisher-Diskriminanten-Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.2 Verfahren mit Boosted-Decision-Trees . . . . . . . . . . . . . . . . . . . . . . . . . 131
9
Systematische Fehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.1 Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.2 Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.3 Zusammenfassen von Fehlern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10 Lösungen zu den Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
Kapitel 1
Messwert und Messgenauigkeit
Messwerte eines Experiments unterliegen zufälligen Schwankungen, die z. B. durch
naturgegebene physikalische Prozesse oder die begrenzte Genauigkeit der Messapparatur zustande kommen können.
Wir stellen in diesem Kapitel das wichtigste statistische Verfahren vor, um aus
Messwerten eine Schätzung des wahren Werts und quantitative Angaben über die
Unsicherheit der Schätzung zu extrahieren.
Für die Anwendung solcher Rezepte auf einfache Praktikumsversuche mag das
ausreichen. Um professionell zu experimentieren und mit Messdaten auch komplexere Fragestellungen beantworten zu können, ist ein Verständnis für die Gründe und
Ursachen der Verfahren erforderlich. Wir werden daher in diesem Kapitel den weiteren Verlauf dieses Lehr- und Lernmoduls motivieren.
1.1 Ergebnisangaben eines Experiments
Datenanalysen werden in vielen unterschiedlichen Bereichen wie z. B. Medizin,
Psychologie, Wirtschaft, Banken, Wettervorhersage, Geheimdiensten etc. benötigt.
Weltweit werden offensichtlich immer mehr Daten aufgenommen. Um die Bedeutung der Daten zu verstehen, werden überall Experten gebraucht, die mit statistischen Verfahren korrekt umgehen können.
In den experimentellen Naturwissenschaften werden Datenanalyseverfahren eingesetzt, um Gesetzmäßigkeiten herauszufinden und um die Reproduzierbarkeit von
Experimenten zu quantifizieren. Die beiden wichtigsten Fragestellungen betreffen
hier das Messresultat und die Unsicherheit, mit der das Resultat des Experiments
behaftet ist.
Bei den Messunsicherheiten unterscheidet man zwei Sorten von Messfehlern:
Systematische Fehler: Fehler, die auch bei Wiederholung des Experiments Messwerte in dieselbe Richtung verschieben (z. B. zu kleineren Werten).
Statistische Fehler: Zufällig auftretende Fehler. Sie streuen um den wahren Wert.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_1, © Springer-Verlag Berlin Heidelberg 2013
1
2
1 Messwert und Messgenauigkeit
Als Messergebnis eines Experiments wird üblicherweise die aus vielen Messwerten extrahierte beste Schätzung des wahren Werts („Messwert“) inklusive der
Unsicherheiten in folgender Weise notiert:
Messwert ˙ Fehler
:
(1.1)
Falls sich statistische und systematische Fehler trennen lassen, gibt man sie häufig
auch separat an:
Messwert ˙ statistische Fehler ˙ systematische Fehler
:
(1.2)
Diese Messfehler beziehen sich auf die Genauigkeit des mit dem Experiment ermittelten Messresultats. Nicht gemeint sind mit diesen Fehlern Abweichungen von
theoretischen Berechnungen oder von Angaben aus der Literatur.
Die Fehlerangabe ist eine Wahrscheinlichkeitsaussage. Üblicherweise bedeutet
diese Angabe, dass sich der wahre Wert mit 68 % Wahrscheinlichkeit innerhalb des
Fehlerintervalls ŒMesswert Fehler, Messwert C Fehler befindet.
Außerdem enthält die Fehlerangabe ein Maß für die Reproduzierbarkeit des
Experiments. Bei einer wiederholten Messung wird der neue Messwert mit 68 %
Wahrscheinlichkeit innerhalb des Fehlerintervalls um den wahren Wert liegen.
1.2 Messwerte einer Messreihe
Um uns einen Eindruck von einer statistischen Auswertung von Messdaten zu verschaffen, machen wir folgendes Gedanken-Experiment:
Experiment: Zeitmessung für Tennisball
Eine Tennisballmaschine schleudert einen Ball unter einem festen Abwurfwinkel mit einer bestimmten Anfangsgeschwindigkeit. Wir messen die Zeit t
vom Abschuss bis zum Überqueren des Netzes insgesamt 8 Mal.
Die Messwerte der Messreihe betragen:
t=s:
1,10 0,98 1,22 1,01 1,05 0,85 0,99 1,03
1:3 Datenanalyse
3
Gesucht ist eine Schätzung der wahren Flugzeit des Tennisballs über die Zeitmessungen der Messreihe. Wir gehen in diesem Beispiel davon aus, dass Abwurfwinkel und Abschussgeschwindigkeit sehr genau reproduzierbar sind und nur die
Zeitmessung mit einer Stoppuhr messbar schwankt.
Wir wollen die Genauigkeit dieser Zeitschätzung bestimmen und dabei auch
eine Aussage über die Reproduzierbarkeit des Experiments erhalten. Bevor wir die
entsprechenden Antworten geben, entwickeln wir eine Vorstellung davon, wie die
Messwerte zustande kommen.
1.2.1 Statistische Interpretation von Messwerten
Jede einzelne Messung wird von naturgegebenen Schwankungen und von apparativen Fehlerquellen beeinflusst, die den Wert zum Zeitpunkt der Messung bestimmen. Einen Messwert erhalten wir demnach mit einer gewissen Wahrscheinlichkeit
(Kap. 2).
Die Messdaten x1 ; x2 ; : : : ; xn eines Experiments können wir als Zufallsvariable auffassen, die einer Wahrscheinlichkeitsverteilung f .x/ entnommen wurden
(Kap. 3). Gemeinsam bilden diese Messwerte eine sogenannte Stichprobe aus
dieser Wahrscheinlichkeitsverteilung. Die Wahrscheinlichkeitsverteilung ist vom
Experiment abhängig.
Mit mehreren Messdaten können wir die zugrunde liegende Wahrscheinlichkeitsverteilung rekonstruieren und z. B. mit dem wahrscheinlichsten Wert und der Breite
der Verteilung charakterisieren (Kap. 3). Dabei wollen wir den wahren Wert, den wir
z. B. als den Mittelwert der Verteilung f .x/ ansehen, möglichst genau bestimmen.
Der Zentrale Grenzwertsatz hilft uns bei den statistischen Fehlern mit folgender
Wahrscheinlichkeitsinterpretation: Viele Fehlerquellen, die unabhängig voneinander sind und zufällig den Messwert in die eine oder andere Richtung ziehen, folgen
gemeinsam einer Gauß-Verteilung f .x/. Sie ist demnach für viele Situationen eine
gute Näherung für die den Messwerten zugrunde liegende Wahrscheinlichkeitsverteilung (Kap. 4).
N
1.3 Datenanalyse
In der Abbildung ist eine Häufigkeitsverteilung der Messdaten unseres Tennisball-Experiments gezeigt.
Dabei ist die Anzahl N der Messungen innerhalb von einzelnen Intervallen als Funktion der Zeit t aufgetragen. Die Darstellung einer solchen
Verteilung bezeichnet man als Histogramm.
4
Constant
Mean
Sigma
2.71 ± 1.19
1.04 ± 0.04
0.118 ± 0.032
1.2
1.4
t/s
2
0
0.8
1
4
1 Messwert und Messgenauigkeit
Außerdem ist die Anpassung einer Gauß-Verteilung an die Messdaten gezeigt.
Die Anpassung erfolgt über ein mathematisches Optimierungsverfahren. Rechts
oben im Bild sind die Anpassungswerte und ihre Fehler angegeben.
Wie die Anpassung einer Funktion an Messdaten durchgeführt wird, stellen wir
in den Kap. 6 und 7 vor. Wie wir die Güte der Anpassung der Funktion an die
Messdaten quantitativ beurteilen, erläutern wir in Kap. 7.
Dieses Vorgehen ist eine Möglichkeit, die Wahrscheinlichkeitsverteilung zu rekonstruieren und damit eine Schätzung der wahren Flugzeit durch den Mittelwert
der Gauß-Verteilung vorzunehmen.
Die übliche und einfache Vorgehensweise zur Schätzung der wahren Flugzeit
geht über den aus der Summe der Messwerte berechneten Mittelwert hxi. Wir werden im Folgenden dieses Verfahren ausführlich zeigen und im Kap. 4 das Vorgehen
begründen.
Außerdem werden wir die Breite der Wahrscheinlichkeitsverteilung über die
sogenannte Standardabweichung aus den Messungen abschätzen. Sie reflektiert die
Wahrscheinlichkeit für die Streuung einzelner Messwerte.
Schließlich werden wir eine Schätzung des Fehlers vom Mittelwert hxi durchführen. Damit werden wir das Messergebnis mit seinem statistischen Fehler formulieren.
Alle zugehörigen Berechnungen können mit im Internet frei zugänglichen Computerprogrammen durchgeführt werden, die Datenanalysen insbesondere für physikalische Fragestellungen unterstützen und die kontinuierlich weiterentwickelt werden. Ein umfangreiches Grundpaket für Datenanalysen ist ROOT [4]. Eine visuelle
Arbeitsumgebung für Datenanalysen bietet VISPA [2].
1.3.1 Mittelwert einer Stichprobe
Den Mittelwert hxi unserer insgesamt n Messwerte xi berechnen wir durch:
hxi D
n
1 X
xi
n
:
i D1
Mit ihm erhalten wir eine Schätzung des wahren Werts.
Beispiel: Berechnung des Mittelwerts
In unserem Experiment ergibt sich ein Wert von
1X
1
ti D 8;23 s 1;03 s :
n
8
n
hti D
i D1
(1.3)
1:3 Datenanalyse
5
Er stimmt mit dem Mittelwert der angepassten Gauß-Verteilung in der Abbildung
oben gut überein.
1.3.2 Streuung der Einzelmessungen
Für die Bestimmung der Streuung der Messwerte xi berechnen wir zunächst die
quadratische Abweichung der Messwerte von diesem Mittelwert hxi. Diese quadratische Abweichung bezeichnen wir als Varianz:
V D
n
1 X
.xi hxi/2
n1
:
(1.4)
i D1
Wir dividieren hier nicht durch die Gesamtzahl n der Messwerte, sondern nur durch
n 1. Später werden wir sehen, dass der Grund dafür in der Verwendung des aus
den Daten bestimmten Mittelwerts hxi liegt.
Die Wurzel aus der Varianz
ergibt die Streuung der Messwerte xi , die wir Stanp
dardabweichung D V nennen:
v
u
n
u 1 X
t
D
.xi hxi/2
n1
:
(1.5)
i D1
Physiker bezeichnen die Standardabweichung häufig als Fehler. Man muss sich
allerdings bei jeder experimentellen Fragestellung überlegen, ob mit bereits der
Fehler des Messergebnisses (1.1) oder nur die Streuung der einzelnen Messwerte
gemeint ist.
Beispiel: Berechnung der Standardabweichung
In unserem Experiment ergibt sich ein Wert von
v
u
n
u 1 X
Dt
.ti hti/2 D 0;11 s :
n1
(1.6)
i D1
Dieser Wert stimmt ebenfalls mit der Standardabweichung der angepassten
Gauß-Verteilung in der obigen Abbildung überein.
6
1 Messwert und Messgenauigkeit
1.3.3 Reproduzierbarkeit des Experiments
Die Standardabweichung wurde per Konvention als Fehlerangabe gewählt. Sie ist
ein Maß für die Reproduzierbarkeit eines Experiments in folgendem Sinn:
Bei bisher aufgenommenen n Messungen liegen 68 % 2=3 aller Messwerte
innerhalb von ˙1 Standardabweichung um den Mittelwert hxi.
Ein neu genommener Messwert xnC1 sollte dann mit der Wahrscheinlichkeit von
68 % im Intervall einer Standardabweichung um den Mittelwert liegen:
hxi < xnC1 < hxi C :
(1.7)
Beispiel: Wiederholungsmessung
Bei einer erneuten Messung mit der Tennisballmaschine ergab sich als neunter
Messwert
t D 1;15 s :
Dieser Wert liegt in der Nähe von hti C D 1;14 s und ist damit ein wenig
mehr als eine Standardabweichung vom Mittelwert entfernt. Er gehört damit
zu dem ca. 1=3 der Messwerte, die nicht im Bereich von ˙ 1 Standardabweichung um den Mittelwert hti liegen.
Mit diesem neuen Messwert kann natürlich ein neuer Mittelwert und eine neue
Standardabweichung für eine bessere Schätzung des wahren Werts berechnet werden.
1.3.4 Fehler von Mittelwert und Standardabweichung
Nicht nur die Messwerte selbst können wir als Zufallsvariable auffassen, sondern
auch den Mittelwert hxi und die Standardabweichung , die ja aus Zufallsvariablen
berechnet werden.
Die Genauigkeit
hxi in der Schätzung des Mittelwerts hxi verbessert sich mit der
p
Wurzel n aus der Anzahl der Messungen. Den Fehler des Mittelwerts berechnen
wir aus:
hxi D p
n
:
(1.8)
1:3 Datenanalyse
7
Beispiel: Berechnung des Fehlers vom Mittelwert
In unserem Experiment ergibt sich ein Mittelwertfehler von
0;11 s
ht i D p D p 0;04 s :
n
8
Auch die Standardabweichung wird mit steigender Anzahl der Messungen n
genauer. Der Fehler der Standardabweichung beträgt:
D p
2.n 1/
:
(1.9)
Beispiel: Berechnung des Fehlers der Standardabweichung
Für unser Experiment berechnen wir
D p
0;11 s
Dp
D 0;03 s :
2.n 1/
2.8 1/
Das Ziel unseres Experiments ist, die Zeit vom Abschuss eines Tennisballs bis
zum Überqueren des Netzes zu bestimmen. Als beste Schätzung für diese Zeit nehmen wir den Mittelwert hti der Zeitmessungen und seinen Fehler ht i als Maß für
die Messgenauigkeit. Unser Messergebnis lautet daher vom statistischen Standpunkt
aus gesehen:
hti D 1;03 ˙ 0;04 s :
Der so berechnete Mittelwert stimmt mit dem Parameter der Gauß-Anpassung im
Rahmen der Unsicherheit in der obigen Abbildung gut überein.
Die Bezeichnung der Standardabweichung (1.6) als Fehler wäre in diesem Versuch ungünstig. selbst ist nicht der Fehler der Flugzeitmessung, sondern ein Maß
für die Streuung der einzelnen Zeitmesswerte. Die Streuung kann auch durch Wiederholungsmessungen nicht kleiner werden, da die gleiche experimentelle Apparatur verwendet wird.
p
Die statistische Genauigkeit ht i D = n unserer Flugzeitmessung hti kann
natürlich durch mehr Messwerte weiter verbessert werden.
8
1 Messwert und Messgenauigkeit
1.3.5 Systematische Fehler
Für die vollständige Auswertung eines Experiments müssen wir auch die systematischen Fehler bestimmen.
Beispiel: Systematische Fehler
Typische systematische Unsicherheiten ergeben sich z. B. aus der Eichgenauigkeit eines Uhrwerks oder eines Längenmaßbands. Ihre Eichgenauigkeit
bestimmen wir im Vergleich mit anderen, genaueren Apparaturen.
Andere systematische Unsicherheiten entstehen durch Effekte wie z. B.
Luftreibung an bewegten Objekten oder zeitliche Änderungen bei den Messbedingungen.
Allgemeine, einfache Regeln für die Behandlung systematischer Fehler gibt es
nicht. Bewährt hat sich zum Beispiel, die Eichgenauigkeit der verwendeten Geräte
zu ermitteln und deren Unsicherheit auf den Fehler des Messresultats zu übertragen.
Genauere Überlegungen dazu werden wir im Kap. 9 vorstellen.
1.4 Fragen und Ziele
Im Rahmen der Diskussion unseres Gedankenexperiments und weiterer Überlegungen zu Datenanalysen ergeben sich viele Fragen:
• Wieso verwendet man als Maß für die Streuung der Messwerte einen Bereich
von 68 % (Kap. 3 und 4)?
• Warum wird der Fehler des Mittelwerts mit der Wurzel aus der Anzahl der Messungen genauer (Kap. 4)?
• Warum stimmen der Mittelwert und die Standardabweichung, die wir über die
Summation von Messwerten berechnen, mit den Parametern der Gauß-Verteilung
überein (Kap. 4)?
• Wie fassen wir verschiedene Messgrößen und deren Messfehler zu einer neuen
Messgröße und deren Fehler zusammen (Kap. 5)?
• Wie bestimmen wir Parameter aus Messwerten wie z. B. eine Geradensteigung
(Kap. 6)?
• Warum liegt der wahre Wert mit 68 % Wahrscheinlichkeit innerhalb des Fehlerintervalls um den Messwert (Kap. 7)?
• Wie können wir die Verträglichkeit eines Messergebnisses mit theoretischen
Erwartungen überprüfen (Kap. 7)?
• Mit welchen Größen können wir ähnliche Objekte optimal voneinander unterscheiden (Kap. 8)?
• Wie bestimmen wir systematische Fehler (Kap. 9)?
1:4 Fragen und Ziele
9
Das Ziel unseres Lehr- und Lernmoduls ist, zunächst die Bedeutung des Wahrscheinlichkeitsbegriffs für die experimentelle Physik zu verstehen und dann mit
Hilfe von Wahrscheinlichkeitsverteilungen quantitative Aussagen über Experimente
und Übereinstimmungen mit theoretischen Modellen zu treffen.
Kapitel 2
Wahrscheinlichkeit
Betrachtungen zu wahrscheinlichen und unwahrscheinlichen Vorgängen sind heutzutage Teil unserer Alltagsüberlegungen. In diesem Kapitel stellen wir den Wahrscheinlichkeitsbegriff zunächst in den Zusammenhang mit der Anzahl möglicher
Ereignisse. Dazu geben wir mathematische Berechnungswege für die Anzahl von
möglichen Ereignissen aus der Kombinatorik an. Anschließend berechnen wir Kombinationen von verschiedenen Wahrscheinlichkeiten und stellen das Theorem von
Bayes vor.
2.1 Wahrscheinlichkeitsbegriff
Beim Würfelspiel ist der Wahrscheinlichkeitsbegriff intuitiv verständlich: Die Wahrscheinlichkeit, mit einem sechsseitigen Würfel die begehrte Augenzahl 6 zu würfeln, beträgt 1=6.
Wir formulieren hier allgemein für Situationen, bei denen offenbar Symmetrieeigenschaften vorhanden sind: Wenn ein Ereignis auf n verschiedene, gleichwahrscheinliche Arten eintreten kann, wovon k die Eigenschaft A haben, dann ist die
Wahrscheinlichkeit P für das Auftreten von A gegeben durch:
P .A/ D
k
n
:
(2.1)
Beispiel: Würfel
Wir berechnen die Wahrscheinlichkeit P für das Ereignis A, die Augenzahl 5
zu würfeln. Die Anzahl der Würfelseiten beträgt n D 6, aber nur eine Seite
hat die Augenzahl 5, d. h. k D 1. Die Wahrscheinlichkeit ist demnach:
P .Augenzahl 5 würfeln/ D
1
:
6
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_2, © Springer-Verlag Berlin Heidelberg 2013
11
12
2 Wahrscheinlichkeit
Für Situationen, in denen keine offensichtlichen Symmetrieargumente vorliegen, können wir empirisch vorgehen. Wir können m Beobachtungen unter gleichen
Bedingungen durchführen und achten darauf, dass die Beobachtungen unabhängig
voneinander sind. Unabhängig heißt, dass wir z. B. einen Messvorgang wiederholen,
wobei jeder einzelne Messvorgang keinen Einfluss auf die anderen Messvorgänge
hat.
Die Eigenschaft A trete bei unseren m Beobachtungen k-mal auf. Damit beträgt
die Wahrscheinlichkeit für das Auftreten von A:
P .A/ D
k
m
:
(2.2)
Die Unsicherheit von P .A/ können wir durch die Erhöhung der Anzahl m der Beobachtungen reduzieren.
Beispiel: Fälscherbande
Durch häufiges Würfeln und die Messung der Augenzahlverteilung können
wir eine Fälscherbande von Würfeln entlarven. . .
2.2 Kombinatorik
Den Hauptgewinn einer Lotterie zu erhalten ist unwahrscheinlich. Das liegt an der
großen Anzahl der Tippmöglichkeiten: Je größer diese Anzahl ist, desto kleiner ist
die Gewinnwahrscheinlichkeit. Im Rahmen der Kombinatorik können wir die Fallzahl und damit unsere Gewinnwahrscheinlichkeit berechnen.
Mathematischer Einschub: Fakultät
Die Fakultät einer natürlichen Zahl r berechnen wir aus dem Produkt sämtlicher natürlicher Zahlen, die kleiner als r oder gleich r sind:
rŠ D r .r 1/ .r 2/ : : : 1 :
(2.3)
2.2.1 Anordnung von unterscheidbaren Objekten
Zunächst möchten wir eine bestimmte Anzahl r von unterscheidbaren Objekten in
einer Reihe anordnen. Die Anzahl der verschiedenen Möglichkeiten beträgt:
N D rŠ
(2.4)
2:2 Kombinatorik
13
Beispiel: Zahlenanordnungen
Wir haben die Objekte a, b und c. Die Anzahl ihrer Anordnungen können wir
mit Hilfe der Fakultät für r D 3 Objekte berechnen:
rŠ D 3 2 1 D 6 :
Wir überprüfen unsere Rechnung, indem wir die Objekte entsprechend anordnen:
abc bca cab
acb bac cba :
Allgemein stehen für das erste, beliebig ausgewählte Objekt r Plätze zur Verfügung. Für das nächste Objekt verbleiben dann nur noch .r 1/ mögliche Plätze, und
so weiter.
2.2.2 Geordnete Auswahl von unterscheidbaren Objekten
Wir wählen aus n verschiedenen Objekten insgesamt k Objekte aus. Die Reihenfolge der selektierten Objekte sei bei dieser Auswahl wichtig. Die Anzahl der Möglichkeiten, k Objekte anzuordnen beträgt:
N D n .n 1/ .n 2/ : : : .n k C 1/
D
nŠ
:
.n k/Š
(2.5)
(2.6)
Beispiel: Geordnete Auswahl von Objekten
Aus insgesamt n D 4 Objekten a, b, c und d wählen wir k D 2 Objekte aus.
Wir erwarten insgesamt
N D
4Š
D 4 3 D 12
2Š
Kombinationen. Wir können die folgenden Auswahlen treffen:
ab
ba
ca
da
ac
bc
cb
db
ad
bd
cd
dc :
14
2 Wahrscheinlichkeit
2.2.3 Allgemeine Auswahl von unterscheidbaren Objekten
Wir wählen wieder aus n verschiedenen Objekten insgesamt k Objekte aus. Die
Reihenfolge der selektierten Objekte spiele bei dieser Auswahl keine Rolle. Damit
verringert sich die Anzahl der verschiedenen Möglichkeiten, die k Objekte auszuwählen, um die Anzahl der Anordnungsmöglichkeiten.
Mathematischer Einschub: Binomialkoeffizient
Der Binomialkoeffizient beschreibt die Anzahl N von wählbaren Objektkombinationen:
!
n
N (2.7)
k
D
nŠ
kŠ .n k/Š
(2.8)
D
nkC1
n n1
::: :
k k1
1
(2.9)
Bei großen Zahlen n und k eignet sich der zuletzt genannte Ausdruck bei
numerischen Rechnungen wegen der geringeren Rundungsfehler.
Beispiel: Ungeordnete Auswahl von Objekten
Aus insgesamt n D 4 Objekten a, b, c und d wählen wir k D 2 Objekte aus.
Wir erwarten insgesamt
N D
4Š
D6
2Š 2Š
Möglichkeiten, da die Fälle ab D ba usw. hier identisch sind. Wir können die
folgenden Kombinationen bilden:
ab
ac
bc
ad
bd
cd :
2:3 Kombinationen von Wahrscheinlichkeiten
15
Aufgabe 2.1: Lotterie
In einer Lotterie sind aus den sechs Zahlen .1; 2; 3; 4; 5; 6/ insgesamt 3 verschiedene Zahlen zu tippen.
1. Wie groß ist die Anzahl der Möglichkeiten, drei verschiedene Zahlen auszuwählen?
2. Wie wahrscheinlich ist es, die Kombination .2; 4; 6/ zufällig zu treffen?
Lösung zu Aufgabe 2.1: Lotterie
2.3 Kombinationen von Wahrscheinlichkeiten
2.3.1 Wahrscheinlichkeit von alternativen Ereignissen
Wenn nicht nur eine Art, sondern zwei Arten von Ereignissen A und B auftreten
können, wollen wir die Wahrscheinlichkeiten entsprechend kombinieren können.
Die Wahrscheinlichkeit P .A _ B/, dass entweder das Ereignis A oder das Ereignis
B eintritt, ist gegeben durch
P .A _ B/ D P .A/ C P .B/ P .A ^ B/
:
(2.10)
Dabei bezeichnet P .A ^ B/ die Wahrscheinlichkeit, dass die Ereignisse A und B
gleichzeitig eintreten.
16
2 Wahrscheinlichkeit
2.3.2 Wahrscheinlichkeit von sich ausschließenden Ereignissen
Wenn Ereignisse sich gegenseitig ausschließen, ist die Kombination der Wahrscheinlichkeiten einfach. In diesem Fall ist P .A ^ B/ D 0 und die Wahrscheinlichkeit, entweder Ereignis A oder B zu erhalten, entspricht der Summe der beiden
Einzelwahrscheinlichkeiten:
P .A _ B/ D P .A/ C P .B/ :
(2.11)
Häufig ergibt sich hier als Spezialfall, dass das Ereignis B dem Nichtauftreten von A
entspricht:
B A:
(2.12)
Auch hier ist P .A ^ B/ D P .A ^ A/ D 0 und die kombinierte Wahrscheinlichkeit
beträgt:
P .A _ B/ D P .A _ A/
D P .A/ C P .A/ :
(2.13)
(2.14)
Da auf jeden Fall entweder das Ereignis A oder das Ereignis A – nicht A – auftritt,
ist die kombinierte Wahrscheinlichkeit
P .A _ A/ D P .A/ C P .A/ D 1 :
(2.15)
Beispiel: Münzwurf
Wenn wir eine Münze mit sehr dünnem Rand werfen, so ist es ausgeschlossen,
Kopf und Zahl gleichzeitig zu erhalten. Damit verschwindet der kombinierte
Term:
P .Kopf ^ Zahl/ D 0 :
Bei dem Wurf tritt immer einer der beiden Fälle auf, so dass die Wahrscheinlichkeit insgesamt
P .Kopf _ Zahl/ D P .Kopf/ C P .Zahl/ D 1
beträgt.
2:3 Kombinationen von Wahrscheinlichkeiten
17
2.3.3 Bedingte Wahrscheinlichkeit
Wir betrachten Ereignisse vom Typ A, die zusammen mit Ereignissen vom Typ B
auftreten können, d. h. P .A ^ B/ > 0. Wir bezeichnen mit
P .BjA/
(2.16)
die bedingte Wahrscheinlichkeit, dass B dann auftritt, wenn das Resultat des
Ereignisses A bereits gegeben ist.
Im allgemeinen Fall können wir für das gemeinsame Auftreten der Ereignisse A
und B schreiben:
P .A ^ B/ D P .A/ P .BjA/
:
(2.17)
2.3.4 Wahrscheinlichkeit
für unabhängige, zusammenkommende Ereignisse
Man bezeichnet zwei Ereignisse A und B als unabhängig, wenn gilt:
P .BjA/ D P .B/ :
(2.18)
Häufig werden solche unabhängigen Ereignisse A und B miteinander kombiniert. Dann berechnet sich die Gesamtwahrscheinlichkeit für das gemeinsame Auftreten der Ereignisse nach (2.17) aus dem Produkt der Einzelwahrscheinlichkeiten:
P .A ^ B/ D P .A/ P .B/
:
(2.19)
18
2 Wahrscheinlichkeit
Beispiel: Kanalüberquerung
Nehmen wir an, die Wahrscheinlichkeit beim Durchschwimmen des Ärmelkanals umzukommen, sei
P .A/ D 5 % :
Damit ist die Überlebenswahrscheinlichkeit
P .A/ D 1 P .A/ D 0;95 :
Wie groß ist die Wahrscheinlichkeit bei einem Dutzend Schwimmversuchen
im Ärmelkanal umzukommen?
Die Wahrscheinlichkeit bei zwei unabhängigen Durchquerungen zu überleben ist offenbar
P .A ^ B/ D P .A/ P .B/ D 0;952 D 0;9025 :
Entsprechend ist die Überlebenswahrscheinlichkeit bei N D 12 Durchquerungsversuchen leider nicht sehr groß:
P .12 A/ D 0;9512 D 0;54 :
2.4 Theorem von Bayes
Die Wahrscheinlichkeit für das gemeinsame Auftreten der Ereignisse A und B ist
symmetrisch:
P .A ^ B/ D P .B ^ A/ :
(2.20)
P .A/ P .BjA/ D P .B/ P .AjB/ :
(2.21)
Nach (2.17) gilt dann auch:
Sind die Wahrscheinlichkeiten P .A/ und P .B/ für das Auftreten der Ereignisse
A und B bekannt, und ist auch eine der bedingten Wahrscheinlichkeiten z. B.
P .BjA/ bekannt, so lässt sich die andere bedingte Wahrscheinlichkeit P .AjB/
sofort berechnen:
P .AjB/ D P .BjA/ P .A/
P .B/
:
Diese Gleichung ist das sogenannte Theorem von Bayes.
(2.22)
2:4 Theorem von Bayes
19
Im allgemeinen Fall von n Ereignisklassen mit den Eigenschaften Ai , i D
1; 2; : : : ; n lautet das Theorem von Bayes:
P .Ai jB/ D
P .BjAi / P .Ai /
:
n
P
P .BjAj / P .Aj /
(2.23)
j D1
Die Wahrscheinlichkeiten Aj im Nenner sollen disjunkt sein, d. h. keinen Überlapp
haben, und sollen alle möglichen Fälle erfassen.
Beispiel: KANU-Suchtest
Angenommen: Eine Person unter 1000 Personen hat eine neuartige Krankheit
namens „KANU“. Die Wahrscheinlichkeit, an KANU erkrankt zu sein, beträgt
also:
P .KANU/ D
1
D 0;001
1000
P .kein KANU/ D 0;999 :
Die Verlässlichkeit eines medizinischen Suchtests für KANU sei:
P .CjKANU/
D 0;98 positives Testergebnis für Person mit KANU
P .Cjkein KANU/ D 0;005 falsch positiver Test auf KANU :
Die Wahrscheinlichkeit für ein positives Testergebnis beträgt somit:
P .C/ D P .CjKANU/ P .KANU/ C P .Cjkein KANU/ P .kein KANU/ :
Daraus ergibt sich nach (2.23) die Wahrscheinlichkeit, dass eine positiv getestete Person auch wirklich an KANU erkrankt ist:
P .KANUjC/ D
D
P .CjKANU/ P .KANU/
P .C/
0;98 0;001
0;16 :
0;98 0;001 C 0;005 0;999
Eine positiv getestete Person ist also nur mit 16 % Wahrscheinlichkeit tatsächlich an KANU erkrankt. Um sicher zu stellen, dass ein positives Testergebnis
eine KANU-Erkrankung anzeigt, werden in diesem Fall weitere Tests durchgeführt.
20
2 Wahrscheinlichkeit
Bayes Theorem spielt im späteren Verlauf des Lehr- und Lernmoduls bei Aussagen über den Wert eines Parameters a, den wir aus Messdaten ermitteln, eine
wichtige Rolle (Abschn. 6.1, 9.3). Mit daten bezeichnen wir hier die Messdaten
eines Experiments und mit a den Parameter einer theoretischen Vorhersage, den wir
an die Messdaten anpassen.
Uns interessiert dabei, mit welcher Wahrscheinlichkeit
P .ajdaten/
(2.24)
sich der theoretische Wert a aus den Messdaten ergibt. P .ajdaten/ wird als „A-posteriori“-Wahrscheinlichkeit bezeichnet.
Häufig ergibt sich bei statistischen Analyseverfahren nicht direkt (2.24), sondern
die Wahrscheinlichkeit
P .datenja/ ;
(2.25)
dass wir für einen gegebenen Parameterwert a die Datenverteilung daten beobachten.
Um die A-posteriori-Wahrscheinlichkeit (2.24) aus (2.25) zu erhalten, verwenden wir Bayes Theorem (2.22)
P .ajdaten/ D P .datenja/ P .a/
:
P .daten/
(2.26)
Dafür werden auch die beiden Verteilungen P .a/ und P .daten/ benötigt. Sie enthalten Informationen, die vor der Anpassung von a an die Daten bekannt sein müssen
und werden als „A-priori“-Verteilungen bezeichnet.
Die Daten sind üblicherweise vor Beginn des Anpassungsverfahrens schon gemessen worden. Das heißt, P .daten/ variiert bei der Anpassung des Parameters a
nicht und ist deswegen eine Konstante in (2.26):
P .daten/ D const:
(2.27)
Für P .a/ muss eine Verteilung als Funktion von a vorgegeben werden. Hier ist
eine Einschätzung des Physikers erforderlich, welche Verteilung sinnvollerweise zur
Anwendung kommt. Zum Beispiel können alle Werte von a gleichermaßen zugelassen werden
P .a/ D const:
(2.28)
In dieses statistische Verfahren geht also die Vorerfahrung des Physikers und damit
seine subjektive Einschätzung mit ein. Üblicherweise wird die vorgegebene Verteilung P .a/ variiert. Damit wird der Einfluss der subjektiven Wahl von P .a/ auf den
resultierenden Parameter a untersucht und in der Fehlerangabe für a berücksichtigt.
Kapitel 3
Wahrscheinlichkeitsverteilungen
In diesem Kapitel stellen wir das Konzept der Wahrscheinlichkeitsverteilungen vor.
Bei der Ziehung von Zufallszahlen ist ihre Form entscheidend dafür, ob ein zufälliger Wert wahrscheinlich oder unwahrscheinlich ist.
Zunächst werden wir die grundlegenden Eigenschaften von Verteilungen diskreter und kontinuierlicher Zufallsvariable vorstellen und zeigen, wie eine Wahrscheinlichkeit ermittelt wird. Außerdem werden wir Kenngrößen der Verteilungen wie
z. B. den Mittelwert und die Standardabweichung definieren.
Dann werden wir die wichtigsten Wahrscheinlichkeitsverteilungen vorstellen,
Binomial-, Poisson-, Gauß- und Gleichverteilung, und Zusammenhänge zwischen
ihnen diskutieren. Zum Abschluss werden wir unsere Überlegungen auf Verteilungen mit zwei Zufallsvariablen erweitern.
3.1 Zufallsvariable, Messdaten
Die Messdaten eines Experiments können wir als Zufallsvariable auffassen, die
einer Wahrscheinlichkeitsverteilung entnommen wurden.
Führen wir „Messungen“ mit einem Würfel durch, so ist die Augenzahl eine solche Zufallsvariable, die sechs verschiedene diskrete Werte hat. Alle Werte besitzen
die gleiche Wahrscheinlichkeit.
Bei einer Messung der Geschwindigkeiten einzelner Atome eines Gases entsprechen die Atomgeschwindigkeiten einer Zufallsvariable, die kontinuierliche Geschwindigkeitswerte annehmen kann. Die Atomgeschwindigkeiten sind nicht
gleichwahrscheinlich, sondern entsprechen der temperaturabhängigen MaxwellBoltzmann-Verteilung.
Im Folgenden beschreiben wir allgemeine Eigenschaften von diskreten und kontinuierlichen Verteilungen von Zufallsvariablen.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_3, © Springer-Verlag Berlin Heidelberg 2013
21
22
3 Wahrscheinlichkeitsverteilungen
3.1.1 Verteilung einer diskreten Zufallsvariablen
Eine Zufallsvariable r 2 Z aus der Menge der ganzen Zahlen kann ausschließlich diskrete Werte annehmen. Wir gehen hier von einer Variablen aus, die nur eine
begrenzte Anzahl von n Werten annehmen kann (1 < n < 1).
Die Wahrscheinlichkeit, dass bei einer zufälligen Auswahl der Wert r auftritt, sei
P .r/ ;
(3.1)
wobei der Wertebereich zwischen dem Ereignisausschluss (P D 0) und seinem
sicheren Eintritt (P D 1) liegt:
0 P .r/ 1 :
(3.2)
Bei einer zufälligen Auswahl tritt einer der n möglichen Werte der Variablen mit
Sicherheit ein. Die Summe der Wahrscheinlichkeiten von allen möglichen Fällen ist
deswegen normiert:
n
X
P .rj / D 1 :
(3.3)
Zur Vereinfachung betrachten wir hier
eine Verteilung, bei der die Werte
der Zufallsvariablen r der natürlichen
Zahlenfolge i D 1; 2; : : : ; n entsprechen.
Soll bei einer zufälligen Auswahl
der Wert i im Intervall ia i ib
liegen, so ist die Wahrscheinlichkeit,
dass i in diesem Bereich liegt:
P(r)
j D1
0.3
0.2
0.1
0
P .ia i ib / D
0
ib
X
1
P .i /
2
3
4
5
:
6
7
r
8
(3.4)
i Dia
3.1.2 Verteilung einer kontinuierlichen Zufallsvariablen
Für eine Zufallsvariable x, die kontinuierliche Werte x 2 R aus den reellen Zahlen
annehmen kann, definieren wir die Wahrscheinlichkeit über Bereiche, in denen der
Wert von x liegen soll. Die Wahrscheinlichkeit, dass der Wert x zwischen a und b
liegt, ist durch folgendes Integral gegeben:
Zb
P .a x b/ D
f .x/ dx
a
:
(3.5)
3:2 Kenngrößen für Wahrscheinlichkeitsverteilungen
23
f(x)
Im Vergleich zum diskreten Fall
(3.4) wird hier das Integral anstelle
der Summe verwendet. Die Funktion
0.1
f .x/ ist die sogenannte Wahrscheinlichkeitsdichteverteilung, oder auch
0.05
die Wahrscheinlichkeitsdichte der
Variablen x.
Physiker bezeichnen f .x/ selbst
0
0
5
10
15
20
als Wahrscheinlichkeitsverteilung.
x
Dabei muss man sich immer wieder
klar machen, dass es sich bei f .x/
um eine Wahrscheinlichkeitsdichte handelt und erst die Integration über einen xRb
Bereich a f .x/ dx eine Wahrscheinlichkeit ergibt.
Da die Wahrscheinlichkeit eine positive Größe ist, ist auch die Wahrscheinlichkeitsdichte überall positiv bzw. in ausgeschlossenen Bereichen Null:
f .x/ 0 :
(3.6)
Die Zufallsvariable x nimmt bei einer Ziehung auf jeden Fall einen Wert zwischen
1 x 1 an. Daher ist das Integral über die Wahrscheinlichkeitsdichte folgendermaßen normiert:
Z1
P .1 x 1/ D
f .x/ dx D 1 :
(3.7)
1
Die Funktion f .x/ kann Werte oberhalb von f .x/ D 1 aufweisen, solange die
Normierungsbedingung (3.7) erfüllt ist.
Häufig wird auch die integrierte Verteilungsfunktion benötigt:
Zxı
F .xı / D
f .x/ dx :
(3.8)
1
Mit F .xı / erhalten wir demnach die Wahrscheinlichkeit, dass ein x-Wert im Bereich
x xı liegt.
3.2 Kenngrößen für Wahrscheinlichkeitsverteilungen
Wesentliche Eigenschaften einer Wahrscheinlichkeitsverteilung werden häufig in
wenigen Kenngrößen zusammengefasst. Zu diesen sogenannten Verteilungsparametern gehört z. B. der Mittelwert einer Verteilung, der einen typischen Wert für
die Zufallsvariable anzeigt.
24
3 Wahrscheinlichkeitsverteilungen
Der Mittelwert der Verteilung einer diskreten Zufallsvariablen ergibt sich aus der
Summe über das Produkt aller Werte und ihrer Wahrscheinlichkeiten:
hri D
n
X
ri P .ri /
:
(3.9)
i D1
Beispiel: Mittlere Augenzahl beim Würfel
Im Fall des Würfels ergibt sich wegen der konstanten Wahrscheinlichkeit
P .ri / D 1=6 jeder Augenzahl der Mittelwert der Augenzahlverteilung zu:
hri D .1 C 2 C 3 C 4 C 5 C 6/ 21
1
D
D 3;5 :
6
6
Wir werden im Folgenden üblich verwendete Verteilungsparameter vorstellen.
Dabei werden wir nicht nur wahrscheinliche Werte einer Verteilung beachten, sondern auch die Streuung der Werte charakterisieren.
Für die Einordnung von einigen der Verteilungsparameter ist es hilfreich, den
sogenannten Erwartungswert einer Größe zu kennen:
Mathematischer Einschub: Erwartungswert
Der Erwartungswert einer Funktion h.x/ ist durch folgendes Integral definiert:
Z1
EŒh D
h.x/ f .x/ dx
:
(3.10)
1
Für den Spezialfall einfacher Polynomfunktionen f .x/ D x n werden die
Erwartungswerte „Momente“ genannt:
EŒx n W
EŒ.x hxi/ W
n
n-tes algebraisches Moment
(3.11)
n-tes zentrales Moment :
(3.12)
3.2.1 Lokalisierungsparameter
Verteilungsparameter zur Beschreibung wahrscheinlicher Werte der Zufallsvariablen bezeichnen wir als Lokalisierungsparameter.
3:2 Kenngrößen für Wahrscheinlichkeitsverteilungen
25
Mittelwert
Der Mittelwert einer kontinuierlichen Verteilung ist gegeben durch:
Z1
hxi D
x f .x/ dx
:
(3.13)
1
Auch hier wird beim Vergleich mit dem diskreten Fall (3.9) das Integral anstelle der
Summe verwendet.
Der Mittelwert entspricht dem ersten algebraischen Moment (3.11) einer Verteilung:
Z1
x f .x/ dx
(3.14)
EŒx D
1
D hxi :
(3.15)
Das erste zentrale Moment (3.12) ergibt hingegen keine hilfreiche Beschreibungsgröße:
Z1
.x hxi/ f .x/ dx
EŒx hxi D
1
Z1
D
Z1
x f .x/ dx hxi 1
„
ƒ‚
f .x/ dx
1
…
„
Dhxi
ƒ‚
D1
D0:
…
(3.16)
Wahrscheinlichster Wert
Der maximale Wert der Wahrscheinlichkeitsdichte f .x/ zeigt den wahrscheinlichsten Wert xmax für die Zufallsvariable x an:
fmax D f .xmax /
:
(3.17)
Median
Der Median xmed einer Verteilung ist dadurch definiert, dass ein zufällig ausgewählter Wert x mit gleicher Wahrscheinlichkeit oberhalb bzw. unterhalb von xmed liegt:
x
Zmed
Z1
f .x/ dx D
1
f .x/ dx D 0;5
xmed
:
(3.18)
26
3 Wahrscheinlichkeitsverteilungen
Dieser Lokalisierungsparameter ist zur Beschreibung von Verteilungen mit langen
Ausläufern hilfreich, bei denen der Mittelwert hxi und der wahrscheinlichste Wert
xmax weit voneinander entfernt liegen können.
Für eine symmetrische Verteilung entspricht der Median dem Mittelwert: xmed D
hxi.
Getrimmter Mittelwert
Mit dem sogenannten getrimmten Mittelwert kann man den Einfluss von Werten
auf die Mittelwertberechnung reduzieren, die weit von den wahrscheinlichen Werten
entfernt liegen. Dabei werden bei n Messpunkten die jeweils r größten und kleinsten
Werte unberücksichtigt gelassen.
Beispiel: Getrimmter Mittelwert
Bei Sportwettbewerben, in denen eine Gruppe von Schiedsrichtern Bewertungen z. B. zu ästhetischen Kriterien abgibt, kann es zu einzelnen, stark abweichenden Bewertungen kommen. Deren Einfluss kann man dadurch mindern,
dass man die beste und die schlechteste Schiedsrichterwertung bei der Mittelwertbildung grundsätzlich nicht berücksichtigt.
3.2.2 Dispersionsparameter
Für die Beschreibung der Streuung der Werte einer Zufallsvariablen verwenden wir
sogenannte Dispersionsparameter.
Varianz, Standardabweichung
Das zweite zentrale Moment (3.12) ergibt die sogenannte Varianz V Œx einer Verteilung:
Z1
V Œx EŒ.x hxi/ D
.x hxi/2 f .x/ dx
2
:
(3.19)
1
Das Integral können wir über die Definition der Erwartungswerte (3.10) und die
Rechenregeln der Integralrechnung vereinfachen:
V Œx D E .x hxi/2
D E x 2 2x hxi C hxi2
3:2 Kenngrößen für Wahrscheinlichkeitsverteilungen
D E x 2 C hxi2 2 hxi
27
Z1
x f .x/ dx
1
„
D E x 2 hxi2 :
ƒ‚
Dhxi
…
Damit erhalten wir die Varianz alternativ über die folgende Berechnung:
V Œx D E x
2
Z1
2
x 2 f .x/ dx hxi2
hxi D
:
(3.20)
1
Aus der Varianz (3.19) berechnen wir weiter die sogenannte Standardabweichung,
die wir üblicherweise als Maß für die Größe der statistischen Schwankungen der
Zufallsvariablen x angeben:
v
u Z1
u
p
u
.x hxi/2 f .x/ dx :
(3.21)
D V Œx D t
1
Unter Physikerinnen und Physikern sprechen wir von der Standardabweichung als dem Fehler einer Messgröße. Den Grund für diese Bezeichnung diskutieren wir
in den Kap. 4 und 9.
3.2.3 Root-Mean-Square
Das zweite algebraische Moment (3.11) hängt eng mit der Standardabweichung und dem Mittelwert hxi zusammen. Wir bezeichnen die Wurzel aus dem zweiten
Moment mit Root-Mean-Square (RMS) oder auch als quadratischen Mittelwert:
v
u Z1
u
p
u
x 2 f .x/ dx :
(3.22)
xRMS EŒx 2 D t
1
Root-Mean-Square und die Varianz stehen wegen (3.20) in folgendem Zusammenhang:
2
V Œx D xRMS
hxi2 :
(3.23)
Damit können wir das RMS aus der Varianz und dem Mittelwert berechnen:
q
xRMS D V Œx C hxi2 :
(3.24)
28
3 Wahrscheinlichkeitsverteilungen
Für den Fall, dass der Mittelwert der Verteilung bei hxi D 0 liegt, entspricht das
RMS der Standardabweichung1 (3.21):
p
(3.25)
xRMS D V Œx D :
Full-Width-Half-Maximum
f / f(0)
Ein nützliches Maß für die Schätzung der Streuung einer Zufallsvariablen x aus
einer graphischen Verteilung ist das sogenannte Full-Width-Half-Maximum
(FWHM).
Vom Maximum fmax der Verteilung aus1
gehend sucht man zu großen und kleinen xWerten die Positionen x.˙;1=2/ , an denen die
Verteilung auf die Hälfte des Maximalwerts
0.5
abgesunken ist:
f .x.C;1=2/ / D f .x.;1=2/ / D
fmax
:
2
0
-4
-2
0
2
4
x
Der Absolutwert der Differenz dieser x-Werte ergibt das Full-Width-Half-Maximum:
FWHM D j x.C;1=2/ x.;1=2/ j
:
(3.26)
Beispiel: Maxwell-Boltzmann-Geschwindigkeitsverteilung
Die Maxwell-Boltzmann-Verteilung beschreibt die statistische Verteilung der
Geschwindigkeiten v von Atomen eines idealen Gases bei der Temperatur T
(in Kelvin) als Wahrscheinlichkeitsdichte. Mit k ist die Boltzmann-Konstante
und mit m die Masse eines Atoms bezeichnet:
f .v/ D
m
2kT
! 32
mv 2
4v exp 2kT
2
!
:
(3.27)
Den wahrscheinlichsten Wert für die Geschwindigkeit vmax erhalten wir aus
der Bedingung df .v/=dv D 0 (3.17):
r
2kT
vmax D
:
m
1
In der Teilchenphysik wird für Datenanalysen häufig das Programmpaket ROOT [4] verwendet.
Anders als hier wird darin die Standardabweichung synonym als RMS bezeichnet.
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
29
Dieser
Wert fällt nicht mit dem Geschwindigkeitsmittelwert hvi D
R1
0 v f .v/ dv (3.13) zusammen, wie eine nicht ganz einfache Rechnung
ergibt:
r
2
8kT
D p vmax D 1;128 vmax :
(3.28)
hvi D
m
qR
1 2
Der Wert des Root-Mean-Square vRMS D
0 v f .v/ dv (3.22) ist:
r
r
3kT
3
D
vmax D 1;225 vmax :
vRMS D
m
2
q
2
Die Standardabweichung D vRMS
hvi2 (3.23) beträgt:
r
D
Als Median
R vmed
0
3 22
vmax D 0;476 vmax :
2
(3.29)
f .v/ dv D 0;5 (3.18) der Verteilung erhält man:
f(v)
vmed D 1;098 vmax :
1.2
1
v
vmax med<v>
vRMS
0.8
0.6
FWHM
0.4
0.2
0
0
0.5
1
1.5
2
2.5
3
v (km/s)
Kenngrößen der Verteilung einschließlich des Full-Width-Half-Maximums
(3.26) sind in der Abbildung gezeigt.
3.3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
Im Folgenden stellen wir die wichtigsten Wahrscheinlichkeitsverteilungen vor. Dazu
gehören bei den diskreten Zufallsverteilungen die Binomialverteilung und die
Poisson-Verteilung, und bei den kontinuierlichen Verteilungen die Gleichverteilung
und die Gauß-Verteilung.
30
3 Wahrscheinlichkeitsverteilungen
3.3.1 Gleichverteilung
f(x)
Die Gleichverteilung ist eine Wahrscheinlichkeitsdichte mit einem konstanten Funktionswert für alle Werte der Zufallsvariablen x im Intervall zwischen x D a und
x D b.
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
x
Die mathematische Definition der Gleichverteilung lautet
f .x/ D
8
<
1
:b a
0
axb
;
(3.30)
außerhalb
R1
wobei die Normierung 1 f .x/ dx D 1 durch den Faktor 1=.b a/ erfüllt wird.
Der Mittelwert liegt offensichtlich bei
hxi D
aCb
2
:
(3.31)
Die Varianz der Gleichverteilung berechnen wir mit (3.20)
Z1
x 2 f .x/ dx hxi2
V Œx D
1
1
D
ba
Zb
2
x dx a
aCb
2
!2
1 2
1 1 3
b a3 a C 2ab C b 2
D
3 ba
4
1 3
1
4b 4a3 3.b a/ a2 C 2ab C b 2
D
12 b a
1 3
1
4b 4a3 3a2 b 6ab 2 3b 3 C 3a3 C 6a2 b C 3ab 2
D
12 b a
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
D
1 3
1
b a3 3ab 2 C 3a2 b
12 b a
D
1
1
.b a/3
12 b a
31
und erhalten:
V D
.b a/2
12
:
(3.32)
Die Standardabweichung beträgt dann wegen V D 2 (3.21):
ba
D p
12
:
(3.33)
Für eine Gleichverteilung in
der Zufallsvariablen x mit a D
0 und b D 1 beträgt der Mittelwert hxi D 0;5, und die
Standardabweichung
ist D
p
1= 12.
f(x)
Beispiel: Gleichverteilung
1
0.8
0.6
0.4
0.2
0
0
0.5
1
1.5
x
3.3.2 Binomialverteilung
Wir bezeichnen mit p die Wahrscheinlichkeit für das Eintreten eines einzelnen
Ereignisses und mit .1 p/ die Wahrscheinlichkeit, dass das Ereignis nicht eintritt (2.15).
Das Ereignis trete in insgesamt n Versuchen bei den ersten r, aber nicht bei
den letzten n r Versuchen auf. Für diese Versuchssituation beträgt die gesamte
Wahrscheinlichkeit wegen (2.19):
P D p r .1 p/nr :
(3.34)
32
3 Wahrscheinlichkeitsverteilungen
Falls die r Ereignisse ohne eine feste Reihenfolge verteilt auf die n Versuche
auftreten, so erhöht sich die Wahrscheinlichkeit P durch die gestiegene Anzahl der
Möglichkeiten für das Auftreten der r Ereignisse.
Nach unseren Überlegungen zur Kombinatorik (2.7) beträgt
die Anzahl der Mög
lichkeiten, in n Versuchen r mal das Ereignis zu finden nr . Die Wahrscheinlichkeit,
dass das Ereignis mit Wahrscheinlichkeit p in n Versuchen genau r mal auftritt, ist
daher:
!
n
P D
p r .1 p/nr ; r D 0; 1; 2; : : : ; n :
(3.35)
r
Diese diskrete Wahrscheinlichkeitsverteilung ist die sogenannte Binomialverteilung.
Beispiel: Binomialverteilung
P(r)
In der Abbildung ist die Binomialverteilung mit den Werten n D 20 und p D
0;2 gezeigt.
Bei der Wahrscheinlichkeit
p D 0;2 für das Auftreten
0.2
eines einzelnen Ereignisses
0.15
beträgt die Wahrscheinlichkeit, bei n D 20 Versuchen
0.1
insgesamt r D 4 Ereignisse zu
0.05
finden, P D 0;22.
Die Wahrscheinlichkeit für
0
0
2
4
6
8
10
das Auftreten von r D 10
r
Ereignissen ist im Vergleich
dazu viel geringer: P D 0;002.
Aufgabe 3.1: Mensch-ärgere-Dich-nicht
Berechnen Sie die Wahrscheinlichkeit beim Spiel Mensch-ärgere-Dich-nicht
in zehn Runden kein einziges Mal die Augenzahl 6 zu würfeln.
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
Lösung zu Aufgabe 3.1: Mensch ärgere Dich nicht
Mathematischer Einschub: Binomialtheorem
Die Potenz einer Summe von zwei Variablen können wir mit dem Binomialtheorem berechnen:
!
n
X
n
n
(3.36)
.p C q/ D
p r q nr :
r
rD0
Beispiel: Binomialtheorem mit n D 2
Die quadratische Anwendung des Binomialtheorems ergibt den bekannten
Ausdruck:
!
2
X
2
2
ar b 2r
.a C b/ D
r
rD0
!
!
!
2
2
2
0
2
1
1
D
a b C
a b C
a2 b 0
0
1
2
D
2Š 2
2Š
2Š
b2 C
ab C
a
0Š 2Š
1Š 1Š
2Š 0Š
D b 2 C 2ab C a2 :
33
34
3 Wahrscheinlichkeitsverteilungen
Aufgabe 3.2: Binomialtheorem mit n D 3
Berechnen Sie die kubische Anwendung des Binomialtheorems .a C b/3 .
Lösung zu Aufgabe 3.2: Binomialtheorem mit n D 3
Die Binomialverteilung (3.35) ist korrekt normiert, was wir mit Hilfe des Binomialtheorems (3.36) nun sofort nachprüfen können:
!
n
n
X
X
n
p r .1 p/nr
P .r/ D
r
rD0
rD0
D .p C .1 p//n
D1:
(3.37)
Um den Mittelwert (3.9) der Binomialverteilung
hri D
N
X
ri P .ri /
i D1
zu berechnen [1], nutzen wir ebenfalls das Binomialtheorem (3.36) und führen darin
als Rechentrick die zusätzliche Variable t ein. Wir differenzieren zunächst beide
Seiten nach @=@t:
!
n
X
n
n
.p t C q/ D
.p t/r q nr
r
rD0
!
!
n
@
@ X n
n
r
r
nr
p t q
.p t C q/ D
@t
@t rD0 r
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
n p .p t C q/
n1
35
!
n
X
n
p r r t r1 q nr :
D
r
rD0
Wählen wir die Werte t D 1 und q D 1 p, so erhalten wir mit (3.9) und (3.35)
!
n
X
n r
n1
p .1 p/nr r
n p .p 1 C .1 p//
D
„
ƒ‚
…
r
rD0
D1
„
ƒ‚
…
DP .r/
np D
n
X
rD0
„
den Mittelwert der Binomialverteilung:
hri D n p
P .r/ r
ƒ‚
Dhri
…
:
(3.38)
In ähnlicher Weise kann man über die zweite Ableitung die Varianz erhalten [1]
V D n p .1 p/
und damit die Standardabweichung D
D
(3.39)
p
V (3.21) berechnen:
p
n p .1 p/
:
(3.40)
Beispiel: Binomialverteilung für Computerchips
Eine Langzeitstudie in einer Computerfirma zeigt eine Fehlerrate für die neu
hergestellten Computerchips von p D 2 %. Später werden in einer Stichprobe
von 100 Computerchips 4 defekte Chips festgestellt. Während sich der Abteilungsleiter über diese „doppelt so große Fehlerquote“ aufregt, rechnen wir mit
Hilfe der Binomialverteilung nach.
Die Wahrscheinlichkeit für das Auftreten von r D 4 defekten Chips in einer
Stichprobe von n D 100 Chips beträgt bei der Wahrscheinlichkeit p D 2 %:
!
100
P .4/ D
0;024 .1 0;02/1004
4
D
100Š
0;024 0;9896 D 0;09 D 9 % :
4Š .100 4/Š
Es ist also gar nicht unwahrscheinlich, dass diese Fehlerquote gelegentlich
auftritt.
36
3 Wahrscheinlichkeitsverteilungen
Experiment: Effizienz eines Lichtfilters
ε (%)
Durch einen Lichtfilter werden bei 10 verschiedenen Wellenlängen j jeweils
n D 100 Photonen geschickt.
Die Transmissionseffizienz "./ des
100
Filters ist im Histogramm gezeigt. Bei
jeder Wellenlänge j bestimmen wir "j
aus den mj durchgelassenen Photonen:
50
mj
"j D
pj :
n
(3.41)
0
400
Nach (3.40)
p ist der Fehler von mj :
mj D npj .1 pj /. Die Fehler der
Effizienzmessungen betragen daher:
r
"j .1 "j /
:
"j D
n
600
800
λ / nm
(3.42)
3.3.3 Poisson-Verteilung
Die Poisson-Verteilung gibt – wie die Binomialverteilung – die Wahrscheinlichkeit
P für das r-fache Auftreten eines Ereignisses in n Versuchen an. Sie ist nur korrekt anwendbar unter den Voraussetzungen, dass die Versuchszahl n groß und das
Eintreten eines einzelnen Ereignisses unwahrscheinlich sind (p 1).
Wir können die Poisson-Verteilung als Grenzfall der Binomialverteilung auffassen, bei dem die Varianz (3.39) für p 1 näherungsweise dem Mittelwert (3.38)
entspricht:
V D n p .1 p/
(3.43)
np
„ƒ‚…
(3.44)
D hri :
(3.45)
Dabei ist es üblich, den Mittelwert hri D np mit dem Buchstaben zu bezeichnen.
In der folgenden Näherung der Binomialverteilung setzen wir für die Wahrscheinlichkeit p des einzelnen Ereignisses demnach
pD
n
ein und verwenden (2.8) für die Berechnung des Binomialkoeffizienten:
(3.46)
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
!
n
P .r/ D
p r .1 p/nr
r
r
nŠ
r 1
D
rŠ.n r/Š n
n
37
!nr
:
Durch Umsortieren erhalten wir mehrere Terme, die wir für große Versuchszahlen
n nähern können:
!nr
r n .n 1/ : : : .n r C 1/
P .r/ D
1
rŠ
nr
n
"
#
!nr
nr C1
r
n n1
::: 1
D
rŠ
n
n
n
n
2
3
!
!7
!r
!n
6
1
r 6
r 1 7
7 1
61 1 D
::: 1 1
:
rŠ 6
n
n 7
n
n
4
5
„ ƒ‚ …
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
!1
!1
!1
! exp ./
Für große Versuchszahlen n ! 1 und r D const: 1 gilt:
!
r 1
lim 1 D1:
n!1
n
Ist gleichzeitig der Mittelwert D np D const: endlich groß, d. h. die Wahrscheinlichkeit p für das Auftreten des Ereignisses ist klein, so gilt auch für den weiteren
Term beim r-fachen Eintreten des Ereignisses:
!r
lim 1 D1:
n!1
n
Für den letzten Term auf der rechten Seite der Gleichung ergibt sich wegen
!n
1
lim 1 C
De
n!1
n
die Exponentialfunktion:
lim
n!1
1
n
!n
D e :
Damit erhalten wir die Poisson-Verteilung:
P .r/ D e r
;
rŠ
r D 0; 1; 2; : : :
:
(3.47)
38
3 Wahrscheinlichkeitsverteilungen
Wir halten noch einmal fest: Die Wahrscheinlichkeit für das Auftreten von r Ereignissen, die einzeln unwahrscheinlich sind (p 1), ist bei einer großen Versuchszahl n durch nur einen Parameter charakterisiert. Dieser Parameter ist zugleich
Mittelwert und Varianz der Poisson-Verteilung und muss endlich groß sein:
D hri D V D 2
D np < 1
:
(3.48)
Beispiel: Poisson-Verteilung
P(r)
Die abgebildete Poisson-Verteilung hat den Mittelwert D 4. Dieser Mittelwert ist z. B. bei n D 100 Versuchen und einer einzelnen Eintrittswahrscheinlichkeit von p D 0;04 gegeben.
Aus der Abbildung sehen
0.2
wir, dass die Wahrscheinlichkeit
0.15
P bei einem Mittelwert von
D 4 insgesamt r D 4 Ereig0.1
nisse zu finden P 0;2 beträgt,
während die Wahrscheinlichkeit
0.05
für das Auftreten von r D 9
0
Ereignissen eine Größenord0
2
4
6
8
10
nung geringer ist.
r
Beispiel: Poisson-Verteilung für Computerchips
Im obigen Beispiel des Computerchip-Herstellers hatten wir eine Fehlerrate
für die neu hergestellten Computerchips von p D 2 % angenommen. Bei einer
Ausschussrate von 2 % für 100 Computerchips, erhalten wir den PoissonMittelwert:
D n p D 100 0;02 D 2 :
Die Wahrscheinlichkeit, dass 4 von 100 Chips defekt sind, ist nach der
Poisson-Verteilung:
P .4/ D e 4
24
D e 2 D 0;09 D 9 % :
4Š
24
Durch die kleine Wahrscheinlichkeit p und die hohe Versuchszahl n ist dieses
Ergebnis in guter Übereinstimmung mit unserem vorherigen Ergebnis unter
Verwendung der Binomialverteilung.
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
39
Die Standardabweichung der Poisson-Verteilung wird bei Zählungen sehr häufig
benötigt. Bei insgesamt D N gezählten Ereignissen ist der statistische Fehler
(3.48):
D
p
p
D N
:
(3.49)
Bei der Darstellung von Häufigkeitsverteilungen werden üblicherweise in
jedem Intervall j die Zahl der p
Einträge
Nj mit ihrem Poisson-Fehler Nj als
Fehlerbalken eingezeichnet.
N
Beispiel: Häufigkeitsverteilung
150
100
50
0
0
5
10
x
3.3.4 Gauß-Verteilung
Die Gauß’sche Wahrscheinlichkeitsdichte ist die wichtigste Verteilung für das Verständnis der statistischen Fehler bei Messungen. Den Grund dafür werden wir im
Abschn. 4.3 bei der Vorstellung des zentralen Grenzwertsatzes finden.
Die Wahrscheinlichkeitsdichte von Gauß wird häufig kurz Gauß-Verteilung
oder auch Normalverteilung genannt:
.x/2
1
e 2 2
f .x/ D p
2
:
(3.50)
Ihre Form werden wir zusammen mit ihren beiden Parametern im Folgenden erläutern. Dabei werden wir sehen, dass der Mittelwert und die Standardabweichung
der Gauß-Verteilung sind.
Mittelwert
Wir setzen zunächst D 0 und 2 D 1. In diesem Fall ist die Gauß-Verteilung
wegen der Funktion
e x
2 =2
(3.51)
40
3 Wahrscheinlichkeitsverteilungen
f(x)
f(x)
an der Stelle x D 0 maximal. Wegen des Quadrats x 2 ist sie symmetrisch um x D 0,
d. h. der Mittelwert ist in diesem Fall hxi D 0.
0.4
0.2
0.2
0
0.4
-4
-2
0
2
0
4
x
0
2
4
6
8
x
Ein Parameter ¤ 0 in (3.50) impliziert eine Koordinatentransformation x !
x C , die die Kurve verschiebt und damit auch den Mittelwert von hxi D 0 auf
hxi D :
(3.52)
Der Parameter in (3.50) ist also der Mittelwert der Gauß-Verteilung.
Standardabweichung
Der Vorfaktor der Gauß-Verteilung (3.50) ergibt sich aus der Normierungsbedingung für Wahrscheinlichkeitsdichten (3.7)
Z1
f .x/ dx D 1 ;
(3.53)
1
wie sich z. B. mit Hilfe der tabellierten Integrale aus [3] zeigen lässt.
Um die Varianz (3.19) der Gauß-Verteilung zu berechnen, definieren wir zur besseren Übersicht zunächst
t
1
2 2
und setzen in die Normierungsbedingung ein:
s
Z1
t t .x/2
e
dx D 1 :
1
(3.54)
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
41
Durch Umstellen der Terme und Verwenden des Rechentricks, nach t zu differenzieren, finden wir die Varianz aus (3.19) [11]:
s
Z1
@
@
2
e t .x/ dx D
@t
@t t
1
s
Z1
1
2
.x /2 e t .x/ dx D 2 t3
1
s
Z1
t t .x/2
1 1
e
:
.x /2 dx D
2 t
„
ƒ‚
…
1
„
ƒ‚
Df .x/
…
DV
Setzen wir t nach der Definition (3.54) ein, so ergibt sich das Quadrat des Parameters
als die Varianz der Gauß-Verteilung:
V D 2
:
(3.55)
Durch Vergleich mit der Definitionsgleichung der Standardabweichung (3.21) sehen
wir, dass der Parameter in (3.50) die Standardabweichung der Gauß-Verteilung
repräsentiert.
Full-Width-Half-Maximum
Um die Standardabweichung aus einer graphischen Gauß-Verteilung abzuschätzen,
ist es oft hilfreich, das Full-Width-Half-Maximum (3.26) zu verwenden. Das Maximum der Gauß-Verteilung ist:
1
:
fmax .x D / D p
2 Auf halber Höhe erhalten wir die Positionen x.˙;1=2/ durch:
1
1
1
1
2
p
D p
exp 2 .x.˙;1=2/ /
2
2
2
2 ln
.x.˙;1=2/ /2
1
D
2
2 2
2 2 ln 2 D .x.˙;1=2/ /2
p
x.˙;1=2/ D ˙ 2 ln 2 C :
(3.56)
42
3 Wahrscheinlichkeitsverteilungen
f / f(0)
Damit ergibt sich das Full-Width-HalfMaximum
FWHM D jx.C;1=2/ x.;1=2/ j
p
D 2 2 ln 2 ;
1
0.5
0
-4
-2
0
bzw. als Merkregel:
FWHM 2;35
:
2
4
x
(3.57)
Das Full-Width-Half-Maximum ist etwas größer als die zweifache Standardabweichung.
p Die Gauß-Verteilung fällt in der Entfernung vom Mittelwert nur auf
1= e 0;6 des Maximums ab, wie wir durch Einsetzen von x D C in (3.50)
sehen:
e 1=2
1
f .x D C /
D
Dp :
fmax .x D /
e0
e
(3.58)
Wahrscheinlichkeit
Die Wahrscheinlichkeit für das Auftreten eines Ereignisses im Intervall
axb
der Gauß-verteilten Zufallsvariablen berechnen wir nach (3.5) durch das Integral
über die Gauß-Verteilung.
Wir interessieren uns hier für die Wahrscheinlichkeit, dass x höchstens eine Standardabweichung vom Mittelwert entfernt liegt, d. h. im Bereich:
x C :
(3.59)
Unter Zuhilfenahme von numerischer Integrationsverfahren (zugänglich über Internetrechner oder Datenanalyseprogramme [2, 4]) erhält man folgenden Wert:
C
Z
P . x C / D
.x/2
1
e 2 2 dx
p
2
D 68;27 % :
(3.60)
(3.61)
Das heißt, die Wahrscheinlichkeit, die Zufallsvariable x im Intervall ˙1 um den
Mittelwert der Gauß-Verteilung zu finden, beträgt ca. P D 2=3. Dementsprechend liegen ca. 1=3 aller Werte von x außerhalb des ˙1-Bereichs um den Mittelwert.
3:3 Gleich-, Binomial-, Poisson-, Gauß-Verteilung
43
In der folgenden Zusammenstellung sind zusätzlich die Wahrscheinlichkeiten
dafür angegeben, die Zufallsvariable x innerhalb des ˙2 - und ˙3 -Bereichs
um den Mittelwert zu finden:
Intervall in x
Wahrscheinlichkeit P
jx j 1 68;27 %
jx j 2 95;45 %
jx j 3 99;73 %
:
(3.62)
Wir werden im Abschn. 4.3 sehen, dass wir häufig die Messwerte eines Experiments
als Zufallsvariable einer Gauß-Verteilung auffassen können, die entsprechend der
Standardabweichung um einen Mittelwert streuen. Die Angabe eines Messergebnisses ˙ zeigt dann den Messwert und den Bereich an, in dem ca. 68 %
der Messwerte liegen.
Zusammenhang zur Binomial- und Poisson-Verteilung
P(x)
In der folgenden Abbildung vergleichen wir die Binomial-, Poisson- und GaußVerteilungen für folgende Einstellungen: Für die diskreten Verteilungen ist als
Anzahl der Versuche n D 20 und als Wahrscheinlichkeit für das Eintreten eines
Ereignisses p D 0;2 gewählt.
Damit ergeben sich für die Binomialverteilung
der Mittelwert hri D n p D 4
p
und die Standardabweichung D n p.1 p/ D 1;79.
Für die Poisson-Verteilung erhalten wir als Mittelwert ebenfalls D n p D 4
p
und für die Standardabweichung D D 2.
Für die Gauß-Verteilung stellen wir den Mittelwert D 4 und die Standardabweichung D 2 ein.
0.25
Gauss
Poisson
Binominial
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
x
Die Verteilungen zeigen Ähnlichkeit, unterscheiden sich aber in den Details.
Die Binomialverteilung nimmt bei großen Versuchszahlen n und häufigem Auftreten der Ereignisse (n p .1 p/ groß) die Form
p einer Gauß-Verteilung mit Mittelwert D hri und Standardabweichung D n p.1 p/ an [1].
44
3 Wahrscheinlichkeitsverteilungen
Da wir die Poisson-Verteilung als Grenzfall der Binomialverteilung auffassen
können, erhalten wir für sie im Grenzfall großer Mittelwerte D n p
1 ebenfalls die Form einer Gauß-Verteilung mit dem Mittelwert und der Standardabweip
chung D .
Bei Häufigkeitsangaben mit großen Zahlen D N können wir daher die Standardabweichung der Poisson-Verteilung (3.49) auch für die Standardabweichung der Gauß-Verteilung verwenden:
.N > 10/ p
N
:
(3.63)
3.4 Zweidimensionale Wahrscheinlichkeitsdichten
y
Oft hängen Zufallsprozesse in der Physik nicht nur von einer Zufallsvariablen ab,
sondern von mehreren solcher Variablen. Zum Beispiel werden beim Sieden von
Wasser im Kochtopf Dampfblasen zufällig von der zweidimensionalen Bodenfläche
des Topfs aufsteigen.
Wir verwenden hier die beiden Zufallsvariablen x und y und dementsprechend
eine zweidimensionale Wahrscheinlichkeitsdichte f .x; y/. In der Abbildung sehen
wir Konturkurven, die man wie eine Landkarte verstehen kann, bei der jede Höhenlinie einer konstanten Wahrscheinlichkeitsdichte entspricht.
Die geschlossene Kurve umschließt
8
hier den Bereich mit der größten
Wahrscheinlichkeitsdichte. Zum Bei7
spiel treten Wertepaare im Bereich
um .xI y/ D .1;2I 5;5/ mit hoher
6
Wahrscheinlichkeit auf, während Wertepaare z. B. im Bereich um .xI y/ D
5
.0;5I 7/ unwahrscheinlicher sind.
Die Bestimmung der Kenngrö0
0.5
1
1.5
2
ßen einer solchen Verteilung und die
x
Berechnung einer Wahrscheinlichkeit
gehen analog zum eindimensionalen Fall. Konzeptionell neu ist bei zwei oder mehr
Zufallsvariablen, dass die Variablen möglicherweise abhängig voneinander streuen.
Diese Zusammenhänge zwischen den Variablen nennt man Korrelationen. Wie
die Zufallsvariablen miteinander korreliert sind, ist dann in der Wahrscheinlichkeitsdichte f .x; y/ formuliert.
3.4.1 Wahrscheinlichkeit
Die Wahrscheinlichkeit für das Auftreten des Wertepaares .x; y/ der beiden Zufallsvariablen definieren wir analog zum 1-dimensionalen Fall (3.5) über Bereiche, in
3:4 Zweidimensionale Wahrscheinlichkeitsdichten
45
denen die Werte liegen sollen:
a x b und c y d :
Die Wahrscheinlichkeit, die Zufallsvariablen .x; y/ in diesem Intervall zu finden,
beträgt:
ZdZb
P .a x b; c y d / D
f .x; y/ dx dy :
(3.64)
c a
Die Zufallsvariablen müssen mit Sicherheit irgendeinen Wert annehmen. Deswegen
muss auch hier das Integral über die Wahrscheinlichkeitsdichte auf P D 1 normiert
sein (3.7):
Z1 Z1
P .1 < x < 1; 1 < y < 1/ D
f .x; y/ dx dy D 1 :
(3.65)
11
3.4.2 Kenngrößen
Die wichtigsten Kenngrößen einer zweidimensionalen Verteilung sind die Mittelwerte, die Varianzen und die sogenannten Kovarianzen.
Die Mittelwerte von x und y werden wie in (3.13) berechnet:
Z1 Z1
hxi D
x f .x; y/ dx dy
(3.66)
y f .x; y/ dx dy :
(3.67)
11
Z1 Z1
hyi D
11
Die Varianzen werden entsprechend (3.19) berechnet:
Z1 Z1
V Œx D
x2
D
.x hxi/2 f .x; y/ dx dy
(3.68)
.y hyi/2 f .x; y/ dx dy :
(3.69)
11
Z1 Z1
V Œy D y2 D
11
Für die Beschreibung der Korrelationen zwischen den Zufallsvariablen x und y führen wir die sogenannte Kovarianz zwischen x und y ein:
Z1 Z1
xy D yx D
.x hxi/ .y hyi/ f .x; y/ dx dy
1 1
:
(3.70)
46
3 Wahrscheinlichkeitsverteilungen
Die vier Varianzen können wir in der sogenannten Kovarianzmatrix zusammenfassen:
2
x xy
:
(3.71)
VO D
yx y2
Alternativ zur Kovarianz wird häufig der sogenannte Korrelationskoeffizient verwendet:
q
(3.72)
xy D x2 y2 ; 1 1 :
Der Wertebereich von erleichtert die Interpretation der Korrelationen. Ein Wert
D 0 bedeutet, dass die Zufallsvariablen unkorreliert, d. h. unabhängig voneinander
streuen. Im Fall von y D 3 x sind die Variablen x und y vollständig miteinander
korreliert ( D 1). Im Beispiel y D 5x sind x und y vollständig antikorreliert
( D 1).
3.4.3 Zweidimensionale Gauß-Verteilung
Die zweidimensionale Gauß-Verteilung hat die folgende Struktur, in der wir die
Elemente von (3.50) wiedererkennen:
1
p
2x y 1 2
2
0
!2
x
1
4
@
C
exp 2.1 2 /
x
f .x; y/ D
(3.73)
y
y
!2
31
.x / .y /
5A :
2
x
y
Die Mittelwerte von x und y sind und , die Standardabweichungen sind x und
y und der Korrelationskoeffizient ist (1 < < 1).
In der Abbildung ist eine 2dimensionale Gauß-Verteilung
mit den Werten D 9, D 6,
x D 2, y D 1 und D 0;25
gezeigt.
y
Beispiel: 2-dimensionale Gauß-Verteilung
9
8
7
6
5
4
3
4
6
8
10
12
14
x
3:4 Zweidimensionale Wahrscheinlichkeitsdichten
47
p
Die Kontur können wir uns durch das Abfallen der Verteilung auf fmax = e veranschaulichen. Zunächst wählen wir in der Gauß-Verteilung (3.73) wieder zur besseren Übersicht den Ursprung des Koordinatensystems (Mittelwerte D D 0)
und verwenden unabhängigepZufallsvariable ( D 0). Die zweidimensionale GaußVerteilung fällt auf ihren 1= e-ten Teil bei:
0
2
!2
!2 31
1
x
y
1
5A :
C
e 2 D exp @ 4
2
x
y
Aus dem letzten Schritt lesen wir ab, dass der Term in eckigen Klammern 1 ergeben
muss:
!2
!2
y
x
C
D1:
x
y
Das heißt, die Kontur entspricht hier der Gleichung einer Ellipse mit den Halbachsen
x und y .
Für korrelierte Variablen ( ¤ 0) erhalten wir die Gleichung einer in der x,yEbene gedrehten Ellipse:
xy
y2
x2
2
C
D 1 2 :
x2
x y y2
Die Wahrscheinlichkeit, dass beide Zufallsvariablen x und y jeweils innerhalb der
Standardabweichungen x und y liegen, berechnen wir mit dem Integral:
C
Z x C
Z y
P . x x C x ; y y C y / D
f .x; y/ dx dy :
x y
(3.74)
Lösungen dafür, beide Zufallsvariablen innerhalb ihrer ˙1-, ˙2- und ˙3Bereiche um ihre Mittelwerte zu finden, sind in der folgenden Zusammenstellung
angegeben:
Intervall in x; y
Wahrscheinlichkeit P
jx j 1x und jy j 1y
39 %
jx j 2x und jy j 2y
86 %
jx j 3x und jy j 3y
99 %
:
(3.75)
48
3 Wahrscheinlichkeitsverteilungen
Die Integration über die Fläche liefert Werte, die geringer als im Fall der eindimensionalen Gauß-Verteilung (3.62) sind. Die Mehrzahl der Zufallswerte liegt bei der
zweidimensionalen Gauß-Verteilung außerhalb des Bereichs von einer Standardabweichung!
Im Abschn. 6.1 werden wir ein Verfahren zur Bestimmung des Bereichs kennenlernen, in dem z. B. 68 % der Ereignisse liegen (6.36).
Kapitel 4
Kombination von Zufallsvariablen
In diesem Kapitel summieren wir mehrere kontinuierliche Zufallsvariable und fassen sie zu einer neuen Zufallsvariablen zusammen. Bei dieser Kombination interessiert uns insbesondere die resultierende Wahrscheinlichkeitsverteilung.
Zunächst untersuchen wir die als Faltung bezeichnete Kombination von Wahrscheinlichkeitsdichten mit Hilfe sogenannter charakteristischer Funktionen.
Danach lernen wir den für die Interpretation von Messdaten entscheidenden
„zentralen Grenzwertsatz“ der Mathematik kennen und wenden ihn bei der Bestimmung von Mittelwerten und Standardabweichungen an.
4.1 Charakteristische Funktion
Die charakteristische Funktion der Wahrscheinlichkeitsdichte einer Zufallsvariablen
erleichtert die Berechnung der Kombination von Wahrscheinlichkeitsdichten. Wir
können sie als Analogon zu einer Fouriertransformation auffassen.
Die charakteristische Funktion .t/ einer Wahrscheinlichkeitsdichte f .x/ der
Zufallsvariablen x ist definiert durch den Erwartungswert EŒe i tx (3.10):
Z1
.t/ D
e i tx f .x/ dx :
(4.1)
1
Die Variable t gibt die entsprechende transformierte Koordinate an, und i bezeichnet
die imaginäre Einheit. An der Stelle t D 0 nimmt die charakteristische Funktion den
Wert 1 an (3.7):
Z1
f .x/ dx D 1 :
.0/ D
(4.2)
1
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_4, © Springer-Verlag Berlin Heidelberg 2013
49
50
4 Kombination von Zufallsvariablen
Die Rücktransformation zu der Verteilung in der Zufallsvariablen x lautet:
1
f .x/ D
2
Z1
e i tx .t/ dt :
(4.3)
1
Beispiel: Charakteristische Funktion einer Gauß-Verteilung
Zur besseren Übersicht wählen wir eine Gauß-Verteilung (3.50) mit dem Mittelwert D 0:
2
1
x
f .x/ D p
e 2 2 :
2
(4.4)
Ihre charakteristische Funktion ergibt sich nach (4.1):
1
.t/ D p
2 1
Dp
2 Z1
e i tx e
1
Z1
e
x2
2 2
dx
i 2 2 txx 2
2 2
dx :
1
Den Zähler des Arguments der Exponentialfunktion können wir folgendermaßen zerlegen:
2 2
x 2 i 2 2 tx D x i t 2 i t 2 :
Damit ist der zweite Term unabhängig von der Integration über x und kann
vor das Integral geschrieben werden:
.t/ D e
.i t 2 /
2 2
2
Z1
1
.xi t 2/
p
e
2 1
„
ƒ‚
D1
2 2
2
dx :
…
Das Integral ergibt zusammen mit dem Vorfaktor auf Grund der Normierung
der Gauß-Verteilung für beliebige Mittelwerte i t 2 den Wert 1.
Die charakteristische Funktion einer Gauß-Verteilung ist also selbst wieder
eine Gauß-Verteilung in der transformierten Variablen t hier mit dem Mittelwert hti D 0 und mit der Varianz t2 D 1= 2 :
.t/ D e
t2
2 t2
:
(4.5)
4:2 Faltung von Wahrscheinlichkeitsdichten
51
4.2 Faltung von Wahrscheinlichkeitsdichten
Im Folgenden wollen wir zwei Zufallsvariable x und y addieren. Ihre entsprechenden Wahrscheinlichkeitsdichten fx .x/ und fy .y/ können im Allgemeinen unterschiedlich sein.
Die zusammengesetzte Größe z D x C y ist selbst wieder eine Zufallsvariable.
Unser Ziel ist, die Wahrscheinlichkeitsdichte fz .z/ der kombinierten Zufallsvariablen z zu berechnen.
Mathematischer Einschub: Delta-Funktion
Die Dirac’sche Deltafunktion ı.x/ ist an der Stelle x D 0 unendlich groß und
ist ansonsten Null. Mit ihr lässt sich z. B. bei einer Integration eine bestimmte
Stelle x D a selektieren, an der der Integrand von Null verschieden sein soll:
Z1
h.x/ ı.x a/ dx D h.a/ :
(4.6)
1
Die kombinierte Wahrscheinlichkeitsdichte fz .z/ erhalten wir durch Integration
über die beiden Wahrscheinlichkeitsdichten fx .x/ und fy .y/. Dabei berücksichtigen wir mit Hilfe der ı-Funktion, dass die Variablen x und y über z D x C y
zusammenhängen, und können eins der beiden Integrale sofort lösen:
“
fx .x/ fy .y/ ı.z x y/ dx dy
(4.7)
fz .z/ D
Z
D fx .x/ fy .z x/ dx
(4.8)
Z
D fy .y/ fx .z y/ dy :
(4.9)
Dieses Verfahren bezeichnen wir mit Faltung zweier Wahrscheinlichkeitsdichten.
Für die Berechnung einer solchen Faltung kann es hilfreich sein, die charakteristischen Funktionen zu verwenden, wie wir im folgenden Beispiel sehen werden.
52
4 Kombination von Zufallsvariablen
Beispiel: Faltung zweier Gauß-Verteilungen
Wir wählen wieder zwei Gauß-Verteilungen mit Mittelwerten D 0. Die beiden Verteilungen (3.50) und ihre charakteristischen Funktionen (4.5) lauten:
2
1
x2
fx .x/ D p
e 2x ,
2x
1
fy .y/ D p
e
2y
y2
2
2 y
,
x .t/
De
y .t/
De
t2
2
2=x
t2
2
2=y
(4.10)
:
(4.11)
Für die kombinierte Zufallsvariable z D x C y berechnen wir die Faltung
(4.7)
“
fz .z/ D
fx .x/ fy .y/ ı.z x y/ dx dy
mit Hilfe der charakteristischen Funktion von fz .z/ (4.1):
•
e izt fx .x/ fy .y/ ı.z x y/ dx dy dz
z .t/ D
“
D
e i.xCy/t fx .x/ fy .y/ dx dy
Z
Z
ixt
D e fx .x/ dx e iyt fy .y/ dy
D
De
De
x .t/
t 2 2
2x
y .t/
e
2
t 2 y
2
t2
2
=.x2 Cy2 / :
Der Vergleich mit (4.5) zeigt, dass sich durch die Faltung zweier GaußVerteilungen wieder eine Gauß-Verteilung ergibt. Die Rücktransformation
analog zu (4.4), (4.5) ergibt eine Gauß-Verteilung mit der Varianz z2 D
x2 C y2 :
fz .z/ D p
1
2z
e
z2
2
2z
:
(4.12)
4:3 Zentraler Grenzwertsatz
53
4.3 Zentraler Grenzwertsatz
Der sogenannte Zentrale Grenzwertsatz spielt eine entscheidende Rolle für die
Interpretation von Messdaten. Seine wesentliche Aussage ist, dass die Kombination von vielen Zufallsvariablen aus der gleichen Wahrscheinlichkeitsverteilung als
resultierende Wahrscheinlichkeitsverteilung die Gauß-Verteilung ergibt.
Auch die Kombination von Zufallsvariablen aus verschiedenen Wahrscheinlichkeitsverteilungen kann unter bestimmten Voraussetzungen eine Gauß-Verteilung
ergeben [1].
Mathematischer Einschub: Zentraler Grenzwertsatz
Es liegen n unabhängige Zufallsvariablen xi vor, die der Wahrscheinlichkeitsverteilung f .x/ mit dem Mittelwert hxi und der Varianz V Œx D 2 folgen.
Wir bilden die Summe aus den n Zufallsvariablen
wD
n
X
xi :
(4.13)
i D1
Die Wahrscheinlichkeitsdichte dieser Summe ergibt für große Anzahlen n !
1 eine Gauß-Verteilung (3.50)
1
e
f .w/ D p
2w
.whwi/2
2
2w
(4.14)
mit dem Mittelwert
hwi D n hxi
(4.15)
V Œw D n V Œxi D n 2 :
(4.16)
und der Varianz
Die Standardabweichung beträgt nach (3.21)
p
w D n :
(4.17)
Wenn sehr viele Fehlerquellen einen Messwert zufällig in die eine oder die
andere Richtung beeinflussen, ergibt sich als Wahrscheinlichkeitsdichte eine GaußVerteilung, nach der sich die Messwerte verteilen.
In Experimenten ist diese Situation häufig gegeben. Damit können wir die Konvention der Physiker nachvollziehen, als Fehlerangabe den Bereich anzugeben, in
dem 68 % der Messwerte liegen. Dieser Bereich entspricht ˙1 der Gauß’schen
54
4 Kombination von Zufallsvariablen
Standardabweichung (3.62). Ebenso wird damit die Bezeichnung der Standardabweichung als „Fehler“ verständlich.
Zunächst zeigen wir die Gültigkeit der Kenngrößen der Gauß-Verteilung, Mittelwert (4.15) und Varianz (4.16). Anschließend geben wir Beispiele an, in denen
sich offenbar die Gauß-Verteilung als resultierende Wahrscheinlichkeitsverteilung
ergibt.
Den Mittelwert (4.15) der kombinierten Verteilung aus n Zufallsvariablen können wir mit dem ersten algebraischen Moment (3.11) berechnen:
hwi D EŒw
" n #
X
xi
DE
i D1
D
n
X
EŒxi i D1
D n hxi :
Die Varianz (4.16) der kombinierten Verteilung entspricht dem zweiten zentralen
Moment (3.12):
V Œw D EŒ.w hwi/2 2
!2 3
n
n
X
X
xi DE4
hxi i 5
2
i D1
i D1
n
X
DE4
.xi hxi i/
!2 3
5
i D1
DE
" n
X
i D1
2
.xi hxi i/ n
X
#
.xk hxk i/
kD1
3
6X
7
n
X
6 n
7
2
6
D E 6 .xi hxi i/ C
.xi hxi i/ .xk hxk i/7
7:
4i D1
5
i;kD1Ii ¤k
„
ƒ‚
…
D0
Bei der Berechnung
P des zweiten Terms auf der rechten Seite entspricht der linke
Teil des Produkts niD1 .xi hxi i/ dem ersten zentralen Moment, das nach (3.16)
keinen Beitrag ergibt. Beide Anteile des zweiten Terms streuen jeweils um Null. Da
die Zufallsvariablen xi und xk für i ¤ k unabhängig voneinander sind, ergibt der
zweite Summand keinen Beitrag.
4:3 Zentraler Grenzwertsatz
55
Für die Varianz ergibt sich demnach:
" n
#
X
2
V Œw D E
.xi hxi i/
i D1
D
n
X
E .xi hxi i/2
i D1
D n V Œx :
Beispiel: Überlagerung von Zufallszahlen
Entries
Mean
RMS
400
10000
1.00
0.41
10000
5.00
0.92
500
200
0
Entries
Mean
RMS
N
N
N
Als Beispiel nehmen wir zunächst eine
Entries 10000
Gleichverteilung (3.30) zwischen 0 Mean
0.50
RMS
0.29
x 1 und ziehen n D 10:000
Zufallszahlen. Die gewürfelte Vertei200
lung ist flach, hat einen Mittelwert bei
0,5pund eine Standardabweichung von
1= 12 D 0;29 (hier vom Programm
0
ROOT als RM S bezeichnet).
0
0.5
1
x
Anschließend wurden zwei Zufallszahlen aus der Gleichverteilung gezogen, addiert und und in die linke Abbildung eingetragen. Dieser Vorgang
wurde 10.000 Mal wiederholt. Da die Zufallszahlen jeweils als Mittelwert 0,5
aufweisen, ergibt sich nun ein Mittelwert der Summe von 1. Die Verteilungsform entspricht hier einem Dreieck.
0
1
2
x1 + x2
0
0
5
10
Σ 10
i=1 xi
Für die rechte Abbildung wurden 10 Zufallszahlen aus der Gleichverteilung
gezogen und addiert. Auch dieser Vorgang wurde 10.000 Mal durchgeführt.
Als Mittelwert der Verteilung erhalten wir 5 und als Standardabweichung
0,92. Die resultierende Verteilung hat die Form einer Gauß-Verteilung, wie
wir durch eine entsprechende Anpassung sehen können.
Wir vergleichen die Kenngrößen der gewürfelten Verteilung mit der Erwartung
aus dem Zentralen Grenzwertsatz: Für n D 10 summierte Zufallszahlen erwarten
56
4 Kombination von Zufallsvariablen
wir den Mittelwert hxi D 10 0;5 D 5 und eine Varianz von V Œw D 10 1=12 D
0;8333 bzw. die Standardabweichung w D 0;9129. Die Kenngrößen der gewürfelten Verteilung stimmen mit diesen Werten überein.
Auch bei einer zweidimensionalen Verteilung lässt sich die Entwicklung zum
Resultat des zentralen Grenzwertsatzes beeindruckend zeigen:
Beispiel: Trompeter
y
Aus der Zeichnung des Trompeters werden anhand der schwarzen Kurvenformen Paare von Zufallszahlen .x; y/ gezogen.
0
-100
-200
-300
-400
-500
-600
0
100 200 300 400 500 600 700
x
0
y
y
Dabei werden zunächst n D 2 Paare von Zufallszahlen .x1 ; y1 / und .x2 ; y2 /
aus der Trompeterverteilung entnommen und deren Mittelwerte hxi D .x1 C
x2 /=2 und hyi D .y1 C y2 /=2 als Punktepaar .hxi; hyi/ in das linke Histogramm eingetragen. Im rechten Histogramm ist entsprechend die Überlagerung von n D 5 Zufallszahlen gezeigt. Vom Trompeter ist nichts mehr zu
erkennen, die Entwicklung der Verteilung in Richtung einer Gauß-Verteilung
für große n kann man erahnen (Bildbearbeitung: Dr. Stefan Fliescher).
0
-100
-100
-200
-200
-300
-300
-400
-400
-500
-500
-600
-600
0
100 200 300 400 500 600 700
Verteilung für n = 2
0
x
100 200 300 400 500 600 700
Verteilung für n = 5
x
4:4 Kenngrößen aus Messdaten
57
4.4 Kenngrößen aus Messdaten
Häufig berechnen wir den Mittelwert und die Standardabweichung einer Messreihe
durch Summationsverfahren (vergleiche mit Abschn. 1.3). Im Folgenden werden
wir dieses Vorgehen im Rahmen des zentralen Grenzwertsatzes untersuchen.
4.4.1 Mittelwertberechnung
Experiment: Atomgeschwindigkeiten
N
In diesem Gedankenexperiment stellen wir uns ein ideales Gas vor, in dem
wir stichprobenartig die Geschwindigkeiten v von n D 10 einzelnen Atomen
messen.
Die zugrunde liegende WahrEntries 10000
Mean
1.13
scheinlichkeitsdichte ist die MaxwellRMS
0.48
Boltzmann-Verteilung (3.27). Um
unsere Rechnungen einfach zu hal500
ten, wählen wir die Einheiten der
Atomgeschwindigkeit v so, dass das
Maximum der Maxwell-Boltzmann0
Verteilung bei v D 1 liegt, und wir v
0
1
2
3
als dimensionslose Größe behandeln
v
können.
Unser erstes Ziel ist, den Mittelwert hvi D 1;128 (3.28) durch Summieren von
n D 10 „Messungen“ der Atomgeschwindigkeiten aus dieser Wahrscheinlichkeitsdichte f .v/ zu bestimmen. Unsere Messungen entsprechen hier der Ziehung von
Zufallsvariablen vi aus der Wahrscheinlichkeitsdichte f .v/.
Um die mittlere Atomgeschwindigkeit hvi zu bestimmen bilden wir als Schätzung vN den Mittelwert der Geschwindigkeiten durch Addition der n D 10 Messwerte und Division durch die Anzahl der Messungen:
vN D
n
1 X
vi :
n
i D1
„ƒ‚…
(4.18)
Dw
Nach dem zentralen Grenzwertsatz folgt die Summe (4.13)
wD
n
X
i D1
vi
(4.19)
58
4 Kombination von Zufallsvariablen
einer Gauß-Verteilung mit dem Mittelwert hwi und der Standardabweichung w .
Unser geschätzter Mittelwert vN (4.18)
vN D
w
n
(4.20)
folgt daher ebenfalls einer Gauß-Verteilung mit dem Mittelwert
N D
hvi
hwi
:
n
(4.21)
N
Wir überprüfen dieses Ergebnis, indem wir
Entries 10000
Mean
1.13
mit dem Computer 10.000 zufällige MessRMS
0.15
reihen mit jeweils n D 10 Messwerten
1000
erzeugen. In der Abbildung sehen wir, dass
die Mittelwerte vN der Messreihen um einen
500
Wert streuen und wie erwartet einer GaußVerteilung folgen.
0
0
1
2
3
Als Mittelwert dieser gewürfelten Mess10
1
Σ
v
10 i=1 i
reihen erhalten wir hvi
N D 1;13, was mit
dem Mittelwert hvi D 1;128 der MaxwellBoltzmann-Verteilung in guter Übereinstimmung ist.
Bei dem allgemein üblichen Verfahren, Mittelwerte durch Aufsummieren mehrerer beobachteter Messwerte zu bestimmen und durch die Anzahl der Messungen
zu dividieren, erhält man also Mittelwerte nahe des wahren Mittelwerts.
Die summierten Messgrößen folgen dabei einer Gauß-Verteilung und nicht mehr
der Originalverteilung, aus der sie ursprünglich entnommen wurden!
4.4.2 Fehler des Mittelwerts
Unsere Schätzung vN des Geschwindigkeitsmittelwerts (4.18) haben wir aus Zufallsvariablen vi berechnet. Daher ist vN selbst eine Zufallsvariable und hat eine eigene
Varianz, wie wir durch die Streuung der Mittelwerte in der Abbildung oben sehen.
Die Varianz des Mittelwerts berechnen wir unter Berücksichtigung des Zentralen
Grenzwertsatzes. Wir setzen (4.19) in die Berechnung der Varianz ein und erhalten
mit (4.16):
#
"
1 X
vi
V Œv
N DV
n
" #
w
DV
n
D
1
V Œw
n2
4:4 Kenngrößen aus Messdaten
59
1
n V Œvi n2
V Œvi :
D
n
D
p
Die Standardabweichung vN D V Œv
N der Verteilung der Mittelwerte vN sinkt demnach mit der Wurzel aus der Anzahl n der Messungen. Wir können sie aus der
Standardabweichung der originalen Wahrscheinlichkeitsdichte, die die Streuung
der Messwerte beschreibt, und der Anzahl n der Messwerte berechnen:
vN D p :
n
(4.22)
Wir bezeichnen vN als Fehler des Mittelwerts.
In unserem Beispiel berechnen wir den Fehler des Mittelwerts über die Standardabweichung D 0;476 (3.29) der Maxwell-Boltzmann-Verteilung und die Anzahl
n D 10 der Messungen:
0;476
vN D p D p
D 0;15 :
n
10
(4.23)
In der obigen Abbildung ist die Standardabweichung als RM S bezeichnet und
beträgt vN D 0;15. Dieser Wert stimmt gut mit unserer Berechnung überein.
Aufgabe 4.1: Fehler des Mittelwerts
Wir wollen aus n D 100 Messungen eine möglichst genaue Schätzung
des wahren Mittelwerts erhalten. Welche der folgenden Möglichkeiten ist
genauer?
1. Wir bilden den Mittelwert direkt aus allen n D 100 Messungen.
2. Wir teilen die Messungen in jeweils k D 10 Messungen ein, deren Mittelwerte wir bestimmen. Anschließend bilden wir den Mittelwert aus diesen
m D 10 Mittelwerten.
60
4 Kombination von Zufallsvariablen
Lösung zu Aufgabe 4.1: Fehler des Mittelwerts
4.4.3 Bestimmung der Standardabweichung
Die Geschwindigkeiten der Atome des idealen Gases variieren entsprechend der
Maxwell-Boltzmann-Verteilung. Die Varianz der Atomgeschwindigkeiten können
wir nach der Definitionsgleichung (3.19) berechnen.
p Wir wollen nun auch die Varianz V Œvi bzw. die Standardabweichung D
V Œvi der Atomgeschwindigkeiten aus den n D 10 Messungen (Zufallsvariablen)
abschätzen. Dafür addieren wir die quadratische Differenz zwischen den Messwerten vi und dem Mittelwert vN (4.18):
v
u
n
u 1 X
Dt
.vi v/
N 2:
(4.24)
n1
i D1
4:4 Kenngrößen aus Messdaten
61
Wäre dieser Mittelwert keine Schätzung, sondern der wahre Mittelwert, würden wir
durch die insgesamt n Messungen teilen. Dadurch, dass wir vN aus den Messungen
(Zufallsvariablen) berechnet haben, verlieren wir eine unabhängige Information und
dividieren durch n 1. Häufig bezeichnet man diese unabhängigen Informationen
auch als „Freiheitsgrade“ NF . In diesem Fall ist NF D n 1.
Beispiel: Freiheitsgrade
Als Freiheitsgrade NF bezeichnen wir hier die Anzahl der unabhängigen Größen eines Systems.
Mittelwert: Führen wir n Messungen durch, so beträgt deren Anzahl der
Freiheitsgrade NF D n. Wollen wir nur den Mittelwert hxi nach Gleichung
(1.3) berechnen, stehen alle n Messungen als unabhängige Größen zur Verfügung.
Standardabweichung: Verwenden wir nun den Mittelwert hxi für die
Bestimmung der Standardabweichung (1.5), haben wir dabei 1 Information aus den n Messwerten verwendet, die nicht mehr frei variieren kann.
Unabhängig voneinander stehen hier NF D n 1 Größen zur Verfügung.
Geradenanpassung: Möchte man z. B. eine Geradenanpassung mit den
n Messungen durchführen, bei der 2 Parameter angepasst werden y D
ax C b, ist die Anzahl der Freiheitsgrade NF D n 2. Die Anpassung
einer solchen Geraden ist mit einer einzigen Messung n D 1 unmöglich,
bei 2 Messungen erhält man trivialerweise eine Gerade, deren Unsicherheit
man nicht ermitteln kann (NF D n 2 D 0). Man benötigt also mindestens
3 Messungen (NF D n 3 D 1), um eine nicht-triviale Geradenanpassung
durchführen zu können.
4.4.4 Fehler der Standardabweichung
Die Standardabweichung (4.24) haben wir aus Zufallsvariablen vi berechnet, so
dass selbst auch einer Zufallsvariablen mit einem Fehler entspricht.
Die Genauigkeit der Standardabweichung verbessert sich ebenfalls mit der
Wurzel aus der Anzahl der Messungen n [1]:
./ D p
:
2 .n 1/
(4.25)
Für unser Beispiel der Maxwell-Boltzmann-Verteilung berechnen wir die Genauigkeit
bei n D 10 Messungen über ./ D
p der Standardabweichungsbestimmung
p
= 2.n 1/ D 0;476= 2 9 D 0;112.
62
4 Kombination von Zufallsvariablen
Entries 10000
N
In der Abbildung sind die Standardabweichungen gezeigt, die sich bei den
10.000 Messungen mit n D 10 Werten
ergaben. Als mittlere Standardabweichung
erhalten wir hier N D 0;462 und als deren
Standardabweichung N D 0;11 (hier von
ROOT [4] als RMS bezeichnet) in Übereinstimmung mit den erwarteten Werten.
Mean
RMS
1000
0.462
0.11
500
0
0
0.5
1
σ
4.4.5 Gewichteter Mittelwert
Bisher haben wir Messwerte kombiniert, die gleiche Fehler hatten, und damit den
Mittelwert und die Varianz gebildet.
In diesem Abschnitt führen wir Kombinationen von Messungen mit bekannten, verschiedenen Fehlern i durch. Dabei sollen natürlich präzise Messungen das
gemeinsame Messergebnis stärker beeinflussen, als Messungen mit großen Messfehlern.
Wir berücksichtigen daher die verschiedenen Messgenauigkeiten durch Gewichte,
die wir aus den Fehlern bilden:
wi D
1
i2
:
(4.26)
Ein Messwert mit kleinerem Fehler wird damit stärker berücksichtigt. In Abschn. 6.1
werden wir zeigen, dass die Verwendung der inversen Varianz als Gewicht für Gaußverteilte Messgrößen optimal ist, da so der Fehler des gewichteten Mittelwerts minimiert wird.
Der gewichtete Mittelwert ergibt sich dann durch die gewichtete Summe:
n
P
hxi D
wi xi
i D1
n
P
i D1
wi
n xi
P
2
i D1 i
D
n 1
P
i D1
:
(4.27)
:
(4.28)
i2
Die Varianz des Mittelwerts ist gegeben durch [1]:
V Œhxi D
1
n
P
i D1
wi
D
1
n 1
P
i D1
i2
4:4 Kenngrößen aus Messdaten
63
Der Fehler des Mittelwerts ist dann:
hxi D s
1
n 1
P
2
i D1 i
:
(4.29)
Als Test setzen wir gleiche i D an und erhalten damit die üblichen Berechnungen für den Mittelwert und seinen Fehler:
hxi D
n
1 X
xi
n
i D1
hxi D
p
s
1
1
D p :
1= 2 n
n
V Œhxi D
Beispiel: Gewichteter Mittelwert einer Teilchenlebensdauer
Ausgehend von den folgenden beiden unabhängigen Messungen der mittleren
Lebensdauer eines instabilen Teilchens soll der Mittelwert berechnet werden:
1
D .13;50 ˙ 0;40/ s
2
D .13;90 ˙ 0;20/ s :
Als ungewichteten Mittelwert erhalten wir
h i D .13;70 ˙ 0;22/ s :
Berücksichtigen wir die unterschiedlichen Messgenauigkeiten der beiden
Experimente und bilden den gewichteten Mittelwert, so ergibt sich:
h i D .13;82 ˙ 0;18/ s :
Dieses Ergebnis hat einen kleineren Fehler, da die Informationen besser ausgenutzt werden: Der genaue Messwert wird hier um den Faktor 4 stärker gewichtet als der ungenaue Wert.
Kapitel 5
Messfehler und Fehlerfortpflanzung
In diesem Kapitel untersuchen wir die Genauigkeit von Messgrößen, die selbst aus
anderen Messgrößen gebildet werden.
Zunächst führen wir allgemein Transformationen von Wahrscheinlichkeitsverteilungen ein. Anschließend stellen wir das sogenannte Fehlerfortpflanzungsgesetz für
eine einzelne Messgröße vor und erweitern dieses dann auf den Fall vieler Messgrößen, die zu einem Messresultat mit entsprechender Fehlerangabe zusammengefasst
werden sollen.
Beispiel: Zusammengesetzte Messgröße
Wir wollen die Erdbeschleunigung g mit Hilfe einer fallenden Kugel bestimmen. Wenn wir Wegmessungen s und Zeitmessungen t durchführen, können
wir über den Zusammenhang g D 2s=t 2 den Wert von g ermitteln.
Wir gehen davon aus, dass die Fehler der Weg- und Zeitmessungen bereits
bekannt seien. Wie sich diese Unsicherheiten auf die Messgenauigkeit der
Erdbeschleunigung auswirken, werden wir in den folgenden Abschnitten erarbeiten.
5.1 Transformation von Wahrscheinlichkeitsdichten
Zunächst stellen wir allgemeine Transformationen von Wahrscheinlichkeitsdichten
in einer Dimension vor.
Gegeben sind eine originale Wahrscheinlichkeitsdichte fx .x/ für die Zufallsvariable x und eine Transformationsvorschrift y D y.x/ zu der neuen Variable y.
Gesucht ist die neue Wahrscheinlichkeitsdichte fy .y/ als Funktion von y.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_5, © Springer-Verlag Berlin Heidelberg 2013
65
66
5 Messfehler und Fehlerfortpflanzung
In der Abbildung ist im rechten oberen
Quadranten die Transformationsvorschrift
y D y.x/ gezeigt.
Im rechten unteren Quadranten ist
zusätzlich der Verlauf der Wahrscheinlichkeitsverteilung fx .x/ skizziert. Die dunkle
Fläche zeigt die Wahrscheinlichkeit, den
Wert der Zufallsvariablen im Intervall x
zu finden.
Nach links sind entsprechend die Wahrscheinlichkeitsverteilung fy .y/ und die
Wahrscheinlichkeit eingezeichnet, dass die Zufallsvariable im Bereich y liegt.
Die Wahrscheinlichkeit, die Zufallsvariable im Intervall Œx; x C dx zu finden,
soll bei der Transformation in das Intervall Œy; y C dy erhalten bleiben. Daher
müssen die Flächen unter den beiden Wahrscheinlichkeitsverteilungen gleich groß
sein:
fx .x/ dx D fy .y/ dy :
Die Transformationsvorschrift lautet demnach:
ˇ ˇ
ˇ dx ˇ
ˇ ˇ
fy .y/ D fx .x/ ˇ ˇ :
ˇ dy ˇ
(5.1)
(5.2)
Die Absolutwerte stellen sicher, dass die Wahrscheinlichkeitsverteilungen positiv
sind.
5.2 Fehlerfortpflanzungsgesetz
Im Folgenden untersuchen wir gängige Wahrscheinlichkeitsdichten fx .x/ und
fy .y/, die wie in der Abbildung oben jeweils einen Maximalwert haben und von
dort aus Ausläufer zu höheren und niedrigeren Werten besitzen. Die Transformationsvorschrift y.x/ soll differenzierbar sein und nur steigen (oder nur fallen).
5.2.1 Fehlerfortpflanzungsgesetz mit einer Variablen
Im Folgenden transformieren wir die wichtigsten Kenngrößen, den Mittelwert hxi
und die Standardabweichung x , der originalen Wahrscheinlichkeitsdichte f .x/.
Den transformierten Mittelwert hyi und die transformierte Standardabweichung
y der Wahrscheinlichkeitsdichte f .y/ erhalten wir mit Hilfe einer Taylorentwicklung der Transformationsvorschrift y.x/, die wir nach dem quadratischen Term
5:2 Fehlerfortpflanzungsgesetz
67
abbrechen:
1 d 2 y ˇˇ
dy ˇˇ
.x hxi/ C
.x hxi/2 :
ˇ
ˇ
dx xDhxi
2 dx 2 xDhxi
y.x/ y.hxi/ C
(5.3)
Mittelwert
Den Mittelwert hyi der neuen Wahrscheinlichkeitsdichte f .y/ erhalten wir durch
Einsetzen der Taylorentwicklung (5.3) in die Gleichung des Erwartungswerts (3.14):
dy ˇˇ
1 d 2 y ˇˇ
EŒy D EŒy.hxi/ C ˇ
EŒx hxi C
E .x hxi/2 :
ˇ
„ ƒ‚ … dx xDhxi „ ƒ‚ … 2 dx 2 xDhxi „
ƒ‚
…
D0
Dy.hxi/
DV Œx
Der zweite Term der rechten Seite verschwindet wegen (3.16). Der dritte Term entspricht der Varianz (3.19). Der erste Term entspricht wegen (3.7) dem transformierten Mittelwert y.hxi/:
Z1
Z1
y.hxi/ fy dy D y.hxi/
1
fy dy D y.hxi/ :
1
„ ƒ‚ …
D1
Den Mittelwert hyi der Wahrscheinlichkeitsdichte fy berechnen wir also aus dem
transformierten Mittelwert y.hxi/ und einer Korrektur zweiter Ordnung auf die
Varianz V Œx:
hyi D EŒy
(5.4)
1 d y ˇˇ
V Œx :
D y.hxi/ C
ˇ
2 dx 2 xDhxi
2
(5.5)
Der Korrekturterm wird häufig vernachlässigt, so dass meistens nur der transformierte Mittelwert als neuer Mittelwert verwendet wird:
hyi y.hxi/
:
(5.6)
Standardabweichung
Für die Varianz (3.19) der Wahrscheinlichkeitsdichte fy .y/ erhalten wir aus den
ersten beiden Termen der Taylorentwicklung (5.3) und unter Berücksichtigung der
Näherung (5.6):
68
5 Messfehler und Fehlerfortpflanzung
V Œy D EŒ.y hyi/2 2
dy ˇˇ
6
E 4 y.hxi/ C
.x hxi/ hyi
ˇ
„ƒ‚…
dx xDhxi
2
E4
dy ˇˇ
.x hxi/
ˇ
dx xDhxi
D
dy ˇˇ
ˇ
dx xDhxi
D
dy ˇˇ
ˇ
dx xDhxi
!2
3
7
5
y.hxi/
!2 3
5
!2
EŒ.x hxi/2 !2
V Œx :
Bei der Transformation einer einzelnen Variablen erhalten wir näherungsweise den
folgenden Zusammenhang zwischen den Standardabweichungen (3.21):
v
!2
u
u dy ˇ
ˇ
t
y D
x
ˇ
dx xDhxi
:
(5.7)
Diese Gleichung wird auch als Gesetz der Fehlerfortpflanzung bezeichnet.
Beispiel: Transformation bei linearem Zusammenhang
Für den linearen Zusammenhang y D bx C c erhalten wir als Mittelwert nach
(5.6):
hyi D b hxi C c :
Für die Standardabweichung ergibt sich nach (5.7) eine einfache Skalierung:
v
!2
u
u d
t
.b x C c/ x
y D
dx
D jbj x :
5:2 Fehlerfortpflanzungsgesetz
69
Beispiel: Fehlerfortpflanzung bei kubischem Zusammenhang
Wir wollen das Volumen S D 4=3 r 3 einer Kugel aus der Messung des
Radius r bestimmen, der einen Fehler r aufweist.
Im Allgemeinen haben wir hier eine Potenzfunktion mit n D 3 und a 4=3:
S D a rn
:
(5.8)
Für die Standardabweichung S der Volumenbestimmung ergibt sich nach
(5.7):
v
!2
u
u d
t
n
.a r / r
S D
dr
D jnj a r n1 r
r
D jnj „ƒ‚…
a rn :
r
DS
Damit erhalten wir folgenden Zusammenhang zwischen den Standardabweichungen:
r
S
D jnj S
r
:
(5.9)
Die Größen r =r und S =S bezeichnen wir als relative Fehler, die wir häufig
prozentual angeben.
Man erkennt dann sofort in (5.9), dass im Fall eines relativen Fehlers der Radiusmessung von 1 % der relative Fehler des Volumens 3 % beträgt.
5.2.2 Fehlerfortpflanzungsgesetz mit vielen Variablen
Wir untersuchen nun die Transformation von n Variablen x1 ; x2 : : : xn einer Wahrscheinlichkeitsdichte f .x1 ; x2 : : : xn /. Zur besseren Übersicht definieren wir
0 1
x1
B x2 C
B C
xE D B : C
@ :: A
xn
als Vektor der Variablen und bezeichnen den transponierten Vektor mit
xE T D .x1 x2 : : : xn / :
70
5 Messfehler und Fehlerfortpflanzung
Zunächst verwenden wir nur lineare Transformationen zwischen den ursprünglichen
Variablen xk und den neuen Variablen yi :
Bi k D
@yi
D const:
@xk
(5.10)
Die Transformationsvorschriften fassen wir in Matrixschreibweise zusammen:
0 1
1
0
0
1
x1
y1
B11 : : : B1n
B x2 C
B y2 C
C B :
B
: C B C
B :: C D @ :: : : : :: A B :: C
@ : A
@ : A
(5.11)
Bm1 : : : Bmn
ym
xn
yE
BO
D
xE :
Mittelwerte
Die Mittelwerte der originalen Wahrscheinlichkeitsdichte lauten:
0
1
hx1 i
C
˝ ˛ B
B hx2 i C
xE D B : C :
@ :: A
hxn i
(5.12)
Die transformierten Mittelwerte erhalten wir durch Einsetzen von yE D BO xE (5.11)
in den Erwartungswert (3.14):
˝ ˛
yE D E BO xE :
(5.13)
Um den ersten Mittelwert hy1 i zu bestimmen, berechnen wir folgende Summe
n-dimensionaler Integrale, die wir wegen Bi k D const: (5.10) vereinfachen können:
Z
hy1 i D B11 x1 f .x1 ; : : : ; xn / dx1 dxn
Z
C
D B11
::
:
(5.14)
B1n xn f .x1 ; : : : ; xn / dx1 dxn
Z
x1 f .x1 ; : : : ; xn / dx1 dxn C „
ƒ‚
…
Dhx1 i
D B11 hx1 i C B12 hx2 i C C B1n hxn i :
5:2 Fehlerfortpflanzungsgesetz
71
Das heißt, alle neuen Mittelwerte entsprechen den transformierten originalen Mittelwerten:
˝ ˛
˝ ˛
yE D BO xE :
(5.15)
Kovarianzmatrix
Die n Zufallsvariablen x1 ; x2 ; : : : ; xn sind im Allgemeinen miteinander korreliert.
Dementsprechend liegt hier analog zur zweidimensionalen Wahrscheinlichkeitsdichte (3.71) eine n n dimensionale Kovarianzmatrix VO Œx
E vor.
Für die Berechnung der transformierten Kovarianzmatrix setzen wir (5.11) und
(5.15) in Gleichung (3.19) ein:
h
˝ ˛ 2 i
VO Œy
E D E yE yE
h
˝ ˛ 2 i
D E BO xE BO xE
˝ ˛ 2
D E BO xE xE
DE
DE
h
˝ ˛
˝ ˛
BO xE xE
BO xE xE
T
i
˝ ˛
˝ ˛ T
:
BO xE xE
xE xE
BO T
Wegen Bi k D const: (5.10) können wir die Matrix BO und ihre transponierte Matrix
BO T (Zeilen und Spalten sind vertauscht) aus den Integralen herausnehmen und erhalten:
h
˝ ˛ 2 i T
VO Œy
E D BO E xE xE
BO
D BO VO Œx
E BO T :
Diese Gleichung ist das Fehlerfortpflanzungsgesetz für mehrere Variablen:
VO Œy
E D BO VO Œx
E BO T
:
(5.16)
Das Fehlerfortpflanzungsgesetz gilt näherungsweise auch im Fall nichtlinearer
Transformationen, wenn man in der Transformationsmatrix BO die Ableitungen an
der Stelle der Mittelwerte von xE verwendet [1]:
Bi k D
@yi ˇˇ
:
ˇ
@xk xk Dhxk i
(5.17)
72
5 Messfehler und Fehlerfortpflanzung
5.3 Fehlerfortpflanzung bei zusammengesetzten Messgrößen
In diesem Abschnitt behandeln wir den häufigen Spezialfall, dass zwei Zufallsvariable x1 und x2 der Wahrscheinlichkeitsdichte f .x1 ; x2 / zu einer einzigen Zufallsvariablen y kombiniert werden sollen. Die Transformationsvorschrift laute allgemein:
y D y.x1 ; x2 / :
(5.18)
Die Kovarianzmatrix VO Œx
E von f .x1 ; x2 / sei bereits bekannt und laute (vergleiche
mit (3.71)):
12 12
VO Œx
E D
!
:
12 22
(5.19)
Nach dem Fehlerfortpflanzungsgesetz (5.16) ergibt sich in diesem Fall die Varianz
V Œy als skalare Größe:
V Œy D BO VO Œx
E BO T :
Dabei erhalten wir BO und BO T aus den partiellen Ableitungen (5.10) der Transformationsvorschrift (5.18):
@y @y
@x1 @x2
1
0
@y
C
B
B @x1 C
BO T D B
C:
@ @y A
BO D
@x2
Zunächst berechnen wir das rechte Produkt
12 12
VO Œx
E BO T D
12 22
!
0
1
@y
B @x1 C
C
B
@ @y A
@x2
0
@y
2
B 1 @x1 C 12 DB
@
@y
12 C 22 @x1
1
@y
@x2 C
C
@y A
@x2
5:3 Fehlerfortpflanzung bei zusammengesetzten Messgrößen
73
und anschließend das gesamte Produkt:
V Œy D BO VO Œx
E BO T
D
@y @y
@x1 @x2
D
@y
@x1
!2
12
0
@y
C 12 @x
1
B
@
@y
12 C 22 @x1
2
B 1
1
@y
@x2 C
C
@y A
@x2
@y @y
@y @y
C
12 C
12 C
@x1 @x2
@x1 @x2
@y
@x2
!2
22 :
Damit erhalten wir die Varianz V Œy D y2 der kombinierten Größe:
y2
D
@y
@x1
!2
12
@y @y
C2
12 C
@x1 @x2
@y
@x2
!2
22
:
(5.20)
Sind die beiden Größen x1 und x2 unkorreliert, d. h. 12 D 0, dann vereinfacht
sich die Berechnung der Standardabweichung zu einer Summe über das Produkt
der quadratischen Terme:
v
u 2
uX
y D t
i D1
@y
@xi
!2
i2
:
(5.21)
Für diese Situation gibt es zwei wichtige Anwendungsfälle, die in Labormessungen
ständig gebraucht werden:
5.3.1 Summen und Differenzen unkorrelierter Messgrößen
Für Messgrößen, die über Summen oder Differenzen von unkorrelierten Messgrößen gebildet werden
y D x1 ˙ x2
(5.22)
beträgt nach dem Fehlerfortpflanzungsgesetz (5.21) das Quadrat der Standardabweichung:
!2
!2
@y
@y
2
2
y D
x1 C
x22
@x1
@x2
D .C1/2 x21 C .˙1/2 x22
D x21 C x22 :
74
5 Messfehler und Fehlerfortpflanzung
In beiden Fällen werden die absoluten Fehler quadriert und addiert:
y D
q
x21 C x22
:
(5.23)
Falls die Fehler der beiden Messgrößen gleich groß sind (x1 D x2 x ) erhalten
wir:
p
y D 2 x :
(5.24)
Beispiel: Längenmessung
Eine Längenmessung ergibt sich aus der Differenz der Messung zweier unabhängiger Ortskoordinaten:
y D x1 x2 :
Nach (5.24) erhalten wir für x1 D x2 x
p
y D 2 x :
5.3.2 Produkte und Divisionen unkorrelierter Messgrößen
Wird eine Messgröße aus dem Produkt zweier unkorrelierter Messgrößen gebildet
y D x1 x2
;
(5.25)
so ist nach dem Fehlerfortpflanzungsgesetz (5.21) die Varianz:
y2
D
@y
@x1
!2
x21
C
@y
@x2
!2
D x22 x21 C x12 x22
2
!2
2 2
x1
D x1 x2 4
C
x1
„ ƒ‚ …
x22
x2
x2
!2 3
5:
Dy 2
Ziehen wir die Wurzel und dividieren auf beiden Seiten durch die zusammengesetzte Messgröße y, so erhalten wir Terme aus relativen Fehlern. Sie werden aus
dem Verhältnis von dem Messfehler und dem Wert der Messgröße gebildet. Bei
5:3 Fehlerfortpflanzung bei zusammengesetzten Messgrößen
75
Multiplikation von Messgrößen und auch bei ihrer Division werden die relativen
Fehler quadratisch addiert:
v
!2
u
x1
y u
t
D
C
y
x1
x2
x2
!2
:
(5.26)
Beispiel: Zylindervolumen
Die Messgröße sei hier das Volumen V D h r 2 . Den Fehler berechnen wir
aus der Summe der quadrierten relativen Fehler:
v
!
!2
u
u 2 2
h
V
r
t
D
C
:
V
r2
h
Mit (5.9) können wir auch den Fehler r 2 sofort berechnen (r 2 =r 2 D 2r =r)
und erhalten als relativen Fehler für das Zylindervolumen:
v
!
!2
u
u r 2
h
V
t
D
C
:
2
V
r
h
Der absolute Fehler des Zylindervolumens beträgt:
v
!
!2
u
u r 2
h
C
:
V D V t4
r
h
Aufgabe 5.1: Division unkorrelierter Messgrößen
Zeigen Sie, dass bei der Division zweier unkorrelierter Messgrößen
yD
x1
x2
(5.27)
sich der Fehler y der zusammengesetzten Messgröße wie bei der Multiplikation durch quadratische Addition der relativen Fehler berechnen lässt:
v
!2
!2
u
x2
x1
y u
t
D
C
:
(5.28)
y
x1
x2
76
5 Messfehler und Fehlerfortpflanzung
Lösung zu Aufgabe 5.1: Division unkorrelierter Messgrößen
Aufgabe 5.2: Erdbeschleunigung
Wir möchten die Erdbeschleunigung g aus den Messergebnissen der Fallzeit
t ˙ t und der Fallstrecke s ˙ s einer Kugel bestimmen. Wir gehen von einer
konstanten Beschleunigung der Kugel aus, so dass folgender Zusammenhang
gültig ist:
sD
1 2
gt :
2
Berechnen Sie den Fehler g der Erdbeschleunigung g.
5:3 Fehlerfortpflanzung bei zusammengesetzten Messgrößen
Lösung zu Aufgabe 5.2: Erdbeschleunigung
77
Kapitel 6
Parameterschätzung aus Messdaten
Häufig stehen wir vor der Aufgabe, aus Messdaten die beste Schätzung für einen
oder mehrere Parameter zu extrahieren. Zum Beispiel wollen wir eine Gerade oder
eine andere Funktion an Messdaten anpassen. In diesem Kapitel stellen wir dafür
zwei Verfahren vor, die Likelihood-Methode und die Methode der kleinsten Fehlerquadrate.
Im anschließenden Kapitel über Testverfahren werden wir unsere Überlegungen
auf Messdaten mit Gauß-verteilten, individuellen Messfehlern erweitern und zusätzlich die Chi-Quadrat-Methode für Parameterschätzungen kennenlernen.
6.1 Maximum-Likelihood-Methode
Die Maximum-Likelihood-Methode ist ein allgemeines Verfahren zur Schätzung
von Parametern. Wir führen zunächst die Likelihood-Funktion ein und zeigen dann,
wie man einen Parameter und seinen Fehler erhält. Das Verfahren kann auf den Fall
vieler Parameter erweitert werden.
6.1.1 Likelihood-Funktion
Es liegen uns n unabhängige Messungen x1 ; x2 ; : : : ; xn vor, die wir als Zufallsvariablen der Wahrscheinlichkeitsdichte f .x/ auffassen.
f .x/ sei durch einen Parameter a charakterisiert, der die Form oder die Position
der Verteilung maßgeblich bestimmt. Wir bezeichnen deswegen die Wahrscheinlichkeitsdichte mit f .xja/, so dass die Dichte f .xi / an der Stelle xi offensichtlich
von der Wahl von a abhängt.
Unterschiedliche Werte von a führen zu verschiedenen Wahrscheinlichkeiten für
den Messwert xi . Liegen z. B. alle Messwerte im Mittel bei D 0 und folgen einer
Gauß-Verteilung f .xj/ (3.50), so bestimmt a D die Breite der Verteilung.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_6, © Springer-Verlag Berlin Heidelberg 2013
79
80
6 Parameterschätzung aus Messdaten
Die Wahrscheinlichkeitsdichte
soll für alle Werte von a korrekt normiert sein
R1
(3.7), so dass 1 f .xja/ dx D 1 gilt.
Die Wahrscheinlichkeit, den Messwert xi im Intervall Œxi ; xi C dxi zu finden,
beträgt f .xi ja/ Œxi ; xi C dxi (3.5). Aus den n unabhängigen Messwerten xi können wir nach (2.19) eine Gesamtwahrscheinlichkeit P für die Messwerte bilden:
P D f .x1 ja/ Œx1 ; x1 C dx1 : : : f .xn ja/ Œxn ; xn C dxn :
(6.1)
Da die Intervalle dxi nicht vom Parameter a abhängen, lässt man sie zur Vereinfachung weg und bildet mit den n Messwerten zunächst die sogenannte LikelihoodFunktion aus dem Produkt der Wahrscheinlichkeitsdichten f .xi ja/:
L.a/ D f .x1 ja/ f .x2 ja/ : : : f .xn ja/
n
Q
f .xi ja/
D
:
(6.2)
i D1
Als beste Schätzung aN des Parameters a aus den n Messungen xi können wir den
Wert verwenden, der L maximiert:
@Lˇˇ
D0
ˇ
N
@a aDa
:
(6.3)
Beispiel: Likelihood-Funktion
f(v)
Die Maxwell-Boltzmann-Verteilung ist die Geschwindigkeitsverteilung für
die Atome eines idealen Gases (3.27).
Die Form der Verteilung hängt von
1
der absoluten Temperatur T ab:
f .vjT / /
v2
T .3=2/
mv 2
e 2kT
T1
:
0.5
T2 >T1
Bei der vorliegenden Temperatur T1
bestimmen
wir das Produkt L1 D
0
Qn
0
1
2
3
f
.v
jT
i 1 / der Wahrscheinlichi D1
v / (km/s)
keitsdichten für n D 2 zufällig aus
f .vjT1 / ausgewählte Geschwindigkeiten vi (Abbildung: Beispielfunktionswerte mit durchgezogenen Linien).
Nehmen wir für dieselben n Geschwindigkeitswerte vi eine andere Wahrscheinlichkeitsdichte
f .vjT2 / mit T2 > T1 an und multiplizieren deren DichQ
tewerte L2 D niD1 f .vi jT2 /, so hat die Likelihood-Funktion hier einen kleineren Wert L2 < L1 (Abbildung: Beispielfunktionswerte mit gestrichelten
Linien, die hier zur besseren Sichtbarkeit leicht verschoben gezeichnet sind).
6:1 Maximum-Likelihood-Methode
81
Für die Rekonstruktion der Temperatur T aus den Messdaten können wir
demnach ausnutzen, dass die Likelihood-Funktion L für die korrekte Wahl
von T maximal wird. Die rekonstruierte Genauigkeit von T steigt mit größerer
Anzahl n der Geschwindigkeitswerte.
Experiment: Gastemperatur
L
f
In diesem Gedankenexperiment messen wir die Geschwindigkeiten vj von 25
Gasatomen in einem Gasbehälter (vertikale Linien).
Für 100 Maxwell-Boltzmann-Verteilungen mit verschiedenen Temperaturen im Bereich von 140 K 1
Ti 540 K (gestrichelte Kurven:
Beispielverteilungen) bestimmen wir
jeweils den Wert der Likelihood0.5
Funktion Li .Ti /.
Die Werte L.Ti / tragen wir als
0
0
2000
4000
Funktion von Ti auf. Als Schätzwert
v [m/s]
für die wahre Temperatur verwenden
wir das Maximum der LikelihoodVerteilung (durchgezogene Linie bei T D 290 K). Bei einer stark asymmetrischen Verteilung kann man alternativ den Median der Verteilung (gestrichelte
Linie) angeben.
Die Ausläufer der Verteilung, in
denen jeweils 15,87 % der Fläche lie4
gen, zeigen den Bereich von ˙1 Standardabweichung an (3.62). Als Resul2
tat der Parameterschätzung erhalten wir
mit diesem Verfahren:
T D 290C70
40 K :
0
200
300
400
500
T [K]
Der normalerweise ja unbekannte
wahre Wert T D 273;15 K, bei dem
die Geschwindigkeiten der Gasatome genommen wurden, ist als Pfeil
eingezeichnet und liegt nahe am geschätzten Wert.
82
6 Parameterschätzung aus Messdaten
6.1.2 Bedingte Wahrscheinlichkeiten
Die Likelihood-Funktion L.T / unseres Gedankenexperiments gibt ein Maß für die
bedingte Wahrscheinlichkeit P .datenjT /, bei gegebener Wahl von T diese Messwerte zu erhalten (2.25):
P .datenjT / D const: L.T / :
(6.4)
Die eigentlich gewünschte, sogenannte A-posteriori-Verteilung (2.24)
P .T jdaten/
(6.5)
ist die umgekehrte bedingte Wahrscheinlichkeit, den Parameter T bei gegebenen
Messdaten zu bekommen.
Für ihre Berechnung verwenden wir das Theorem von Bayes (2.26):
P .T jdaten/ D P .datenjT /
P .T /
:
P .daten/
(6.6)
Die Wahrscheinlichkeit für das Auftreten der Daten P .daten/ ist eine konstante
Größe (2.27) – die Daten wurden ja schon aufgenommen – und damit lediglich ein
konstanter Faktor in der Parameterschätzung.
Für die A-priori-Verteilung P .T / (2.28) der Temperatur T nehmen wir hier an,
dass jede Temperatur T > 0 gleichwahrscheinlich ist:
P .T / D const:
(6.7)
In diesem Fall erhalten wir die A-posteriori-Verteilung direkt über die LikelihoodVerteilung:
P .T jdaten/ D const: L.T / :
(6.8)
Die Kenngrößen der A-posteriori-Verteilung, z. B. der wahrscheinlichste Wert und
die Standardabweichung, entsprechen den Kenngrößen der Likelihood-Verteilung.
6.1.3 Minimum der negativen Log-Likelihood-Funktion
In der Praxis ist es oft einfacher, mit Summen anstelle von Produkten zu rechnen.
Wir verwenden deswegen den Logarithmus der Likelihood-Funktion:
ln L.a/ D ln
n
Y
f .xi ja/
i D1
D
n
X
i D1
ln .f .xi ja// :
6:1 Maximum-Likelihood-Methode
83
Der Logarithmus ist eine monotone Funktion, daher finden wir denselben Wert aN
als beste Schätzung bei einer Maximierung von ln L.a/ anstelle der LikelihoodFunktion L.a/ (6.3).
Per Konvention wird außerdem häufig noch das Vorzeichen geändert und ein
Faktor 2 eingeführt, so dass wir von der negativen Log-Likelihood-Funktion sprechen:
n
X
ln .f .xi ja// :
(6.9)
F .a/ D 2 ln L.a/ D 2
i D1
Anstelle des Maximums (6.3) bestimmen wir nun das Minimum der Funktion F .a/:
@F ˇˇ
D0
ˇ
@a aDaN
:
(6.10)
Der eingeführte Faktor 2 stellt sich später als hilfreich heraus, wenn wir das
Likelihood-Verfahren mit der 2 -Methode vergleichen (Abschn. 7.3).
Beispiel: Gewichteter Mittelwert
Wir verwenden im Folgenden die negative Log-Likelihood-Funktion F .a/
(6.9), um die Verwendung des gewichteten Mittelwerts (4.27) für die Schätzung des wahren Mittelwerts zu begründen. Wir gehen hier von n Gaußverteilten Größen xi aus, die jeweils mit einem Fehler i um den zu bestimmenden wahren Wert a streuen:
1
f .xi ja/ D p
e
2 i
.xi a/2
2 2
i
:
Wir bilden F .a/ anhand der Definition (6.9):
1
0
.x a/2
n
X
i 2
1
F .a/ D 2
ln @ p
e 2i A
2
i
i D1
n X
.xi a/2
D 2
ln p
2
2i2
2 i
i D1
i D1
„
ƒ‚
…
n
X
1
const. in a
D const: C
n
X
.xi a/2
i D1
i2
:
(6.11)
84
6 Parameterschätzung aus Messdaten
Für die beste Schätzung aN ist F .a/ minimal, hier verschwindet die partielle
Ableitung von F nach a:
n
n
n
X
X
X
2.xi a/
1
xi
@F
D
D
2a
2
D0:
2
2
@a
i
2
i D1
i D1 i
i D1 i
Damit ergibt sich die beste Schätzung des Parameters aN über den schon
bekannten gewichteten Mittelwert (4.27):
aN D
Pn
xi
Pn
i2
:
1
i D1
i D1
(6.12)
i2
6.1.4 Standardabweichung
Zusätzlich zu der besten Schätzung aN des Parameters a der Wahrscheinlichkeitsdichte f .xja/ benötigen wir auch die Genauigkeit, mit der wir den Parameter aus
den n Messungen bestimmen können.
Wir entwickeln die negative Log-Likelihood-Funktion F .a/ (6.9) mit einer Taylor-Entwicklung um das Minimum aN bis zur zweiten Ordnung:
dF ˇˇ
1 d 2 F ˇˇ
F .a/ D F .a/
N C
.a a/
N C
.a a/
N 2 C:::
ˇ
ˇ
2 aDaN
„ƒ‚… „daƒ‚aD…aN
2
da
„
ƒ‚
…
.1/
D0
(6.13)
.2/
Der lineare Term verschwindet auf Grund der Minimumsbedingung (6.10).
Für sehr große Anzahlen der Messwerte n ! 1 nähert sich die LikelihoodFunktion L.a/ der Gauß-Verteilung [1]:
L.a/ const: e
N
.aa/
2
2
2
:
(6.14)
Die negative Log-Likelihood-Funktion lässt sich mit dieser Näherung folgendermaßen schreiben:
F .a/ D 2 ln L.a/
D „ƒ‚…
const:0 C
.1/
(6.15)
1 2
.a a/
N 2 :
2
2
„
ƒ‚
…
.2/
(6.16)
6:1 Maximum-Likelihood-Methode
85
Durch Koeffizientenvergleich mit (6.13) identifizieren wir den Term (1), die Konstante, mit der negativen Log-Likelihood-Funktion an der Stelle des Minimums
F .a/
N D const0 . Im Term (2) sehen wir, dass die zweite Ableitung von F an der
Stelle aN dem zweifachen Quadrat der inversen Standardabweichung entspricht:
2
d 2 F ˇˇ
D 2:
ˇ
da2 aDaN
(6.17)
Durch Einsetzen in (6.13) erhalten wir damit näherungsweise als negative LogLikelihood-Funktion:
!2
a aN
:
(6.18)
F .a/ D F .a/
N C
Wir berechnen nun die Änderung der negativen Log-Likelihood-Funktion
F D F .a/ F .a/
N
!2
a aN
D
(6.19)
(6.20)
als Funktion des Abstands vom Minimum in Einheiten der Gauß’schen Standardabweichung . An der Stelle a D aN C n beträgt sie:
F D
.aN C n / aN
D n2 :
!2
(6.21)
(6.22)
Im praktischen Vorgehen bedeutet das: Wenn sich die negative Log-LikelihoodFunktion um den Wert n2 ändert, beträgt die Entfernung vom Schätzwert n .
In der folgenden Tabelle ist die Änderung F der negativen Log-LikelihoodFunktion für Vielfache der Standardabweichung gezeigt:
n
1
2
3
4
5
F
1
4
9
16
25
:
(6.23)
Als Fehler für die Schätzung aN des Parameters geben wir wie üblich den Bereich
von 68 % Wahrscheinlichkeit an, d. h. den Bereich von ˙1 Standardabweichung (3.62).
86
6 Parameterschätzung aus Messdaten
F(a) - F(a)
5
Wir lesen den Bereich ˙1 direkt
aus der Kurve durch den Abstand
4
vom Minimum ab, an dem sich
3
die negative Log-Likelihood-Funktion
um F D 1 ändert. Den Bereich von
2
zwei Standardabweichungen lesen wir
1
an der Stelle F D 4 ab.
Manchmal ist die Näherung durch
0
eine Gauß-Verteilung nicht exakt güla - 2σ a - σ
a
a + σ a + 2σ
a
tig. Die negative Log-LikelihoodFunktion kann asymmetrisch werden,
d. h. die rechts- und linksseitigen Standardabweichungen unterscheiden sich. Dann
geben wir entsprechend unterschiedliche Fehler für die Variationen zu höheren und
niedrigeren Werten an.
Bei einer asymmetrischen negativen Log-Likelihood-Funktion
lesen wir die Fehler separat auf
dem positiven und dem negativen Zweig ab:
CR
aN L
:
(6.24)
F(a) - F(a)
Beispiel: Asymmetrische Log-Likelihood-Funktion
5
4
3
2
1
0
a - 2σL a - σL
a a + σR a + 2σR
a
6.1.5 Anwendung Histogramm
Wir wollen eine Wahrscheinlichkeitsdichte f .xja/ an eine Datenverteilung anpassen, die in der Form eines Histogramms vorliegt.
6:1 Maximum-Likelihood-Methode
87
Beispiel: Maximum-Likelihood-Methode
f(x)
Gegeben sind Messdaten in der Form des abgebildeten Histogramms. Ebenfalls gezeigt ist eine Gauß-förmige Wahrscheinlichkeitsdichte f .xja/, deren
Mittelwert von dem Parameter a abhängt und deren Standardabweichung konstant ist.
0.3
Daten
f(x|a_1)
f(x|a_2)
f(x|a_3)
f(x|a_4)
0.2
0.1
0
2
4
Den optimalen Wert für den
Parameter a können wir durch
das Minimum einer negativen Log-Likelihood-Funktion
bestimmen, die wir im Folgenden konstruieren werden.
6
F(a)
0
8
x
3
2
1
0
a1
a2
a3
a
a4
a
Insgesamt gibt es N Intervalle im Histogramm und nj Dateneinträge im Intervall j . Die Gesamtzahl aller Messungen beträgt
nD
N
X
nj :
(6.25)
j D1
R1
Die Wahrscheinlichkeitsdichte f .xja/ ist auf den Wert 1 f .xja/ dx D 1 normiert (3.7). Die erwartete Anzahl der Einträge in jedem Intervall j erhalten wir aus
dem Produkt der Anzahl n der Messungen und der Wahrscheinlichkeit für Einträge
im Intervall j mit den Grenzen Œxj ; xj C1 (3.5):
xZj C1
j .a/ D n
f .xja/ dx :
(6.26)
xj
Wir nehmen hier an, dass die Intervallbreite x D xj C1 xj für alle Intervalle
gleich groß und die Funktion f .xja/ hier näherungsweise linear verläuft. Dann
können wir die Integration durch den Wert von f .xm;j ja/ in der Mitte des Intervalls und die Intervallbreite nähern:
88
6 Parameterschätzung aus Messdaten
j .a/ n f .xm;j ja/
x:
(6.27)
Für die Anzahl nj der Dateneinträge im Intervall j erwarten wir nicht exakt den
Wert j , sondern einen zufälligen Wert, der einer Poisson-Verteilung (3.47) mit
Mittelwert j entnommen wurde:
n
P .nj jj / D e
j
j j
nj Š
:
(6.28)
Bilden wir nun aus allen N Intervallen die negative Log-Likelihood-Funktion (6.9),
so erhalten wir drei Summanden:
F .a/ D 2
N
X
ln P .nj jj /
j D1
D 2
N
X
n
ln e
j
j D1
D2
N
X
j 2
j D1
N
X
j j
!
nj Š
nj ln j C 2
j D1
„
N
X
ln .nj Š/ :
j D1
ƒ‚
…
unabhängig von a
Da die Anzahlen nj der Daten vorgegeben sind und nicht von a abhängen, ist der
dritte Term für die Suche nach dem Minimum von F .a/ irrelevant. In der Praxis
berechnen wir also nur die beiden ersten Summanden:
F 0 .a/ D 2
N
X
j D1
j 2
N
X
nj ln j
:
(6.29)
j D1
Die beste Schätzung des Parameters a ergibt sich an der Stelle des Minimums, das
wir aus dem Verlauf von F 0 .a/ in der Abbildung des obigen Beispiels ablesen können. Ebenso erhalten wir den Fehler für den Parameter aN aus der Abbildung an
N D 1 ergibt (6.23).
den Stellen, an denen die Differenz F 0 .a/ F 0 .a/
Experiment: Radioaktive Probe
Die mittlere Lebensdauer D 500 s einer frisch hergestellten radioaktiven
Substanz sei bekannt. Um die anfängliche Gesamtzahl K der radioaktiven
Kerne zu ermitteln, soll die Anfangsaktivität Aı A.t D 0/ bestimmt werden. Dazu wird sofort nach der Herstellung in N D 10 aufeinanderfolgenden
Minuten die Anzahl der Zerfälle nj innerhalb einer Minute gemessen:
6:1 Maximum-Likelihood-Methode
Die Anfangsaktivität Aı soll durch
Anpassen einer Exponentialfunktion
der Form
A.t/ D Aı e t =
N
Minute j 1 2 3 4 5 6
nj
17 19 14 10 14 7
7 8
9 8
89
9 10
8 6
20
15
10
(6.30)
5
bestimmt werden.
0
Innerhalb eines Minutenintervalls
0
2
4
6
8
10
t D 60 s nähern wir die erwartete
t / min
theoretische Rate als j = t const:
(6.27). Das Zeitintervall j berechnen wir entsprechend mit .j 0;5/ t und
erhalten für die erwartete Anzahl:
j D
t Aı e .j 0;5/ t = :
(6.31)
Für jedes Zeitintervall j ist j der Mittelwert der Poisson-Verteilung
P .nj jj .Aı // (6.28). Der negative Logarithmus der Likelihood-Funktion
(6.9) in Abhängigkeit des Parameters Aı lautet mit den Datenwerten nj :
F .Aı / D 2
N
X
ln ŒP .nj jj .Aı // :
Wir minimieren nun die negative LogLikelihood-Funktion F , indem wir F
für verschiedene Werte von Aı berechnen und grafisch auftragen. Aus der
Abbildung lesen wir den Wert des
Minimums ab und aus der Bedingung
F D 1 den Fehler:
F - Fo
j D1
ANı D .18;1 ˙ 1;8/ min1 :
6
4
2
0
14
16
Z1
0
ANı e t = dt D ANı 20
22
A o / (1/min)
Die Gesamtzahl K der radioaktiven Kerne beträgt damit
KD
18
D 151 ˙ 15 :
90
6 Parameterschätzung aus Messdaten
Aufgabe 6.1: Maximum-Likelihood-Methode
Eine Messung ergibt die folgenden Werte:
xD
2
1
0
1
2
yD
0
1
5
3
0
.
In der folgenden Tabelle ist eine Verteilung in Abhängigkeit eines Parameters a gegeben:
x D 3 C a 2 C a 1 C a 0 C a 1 C a 2 C a 3 C a
yD
0
1
2
3
2
1
0
.
Führen Sie durch Einsetzen von ganzen Zahlen für den Parameter a eine
Schätzung des optimalen Werts von a durch.
Lösung zu Aufgabe 6.1: Maximum-Likelihood-Methode
6:1 Maximum-Likelihood-Methode
91
6.1.6 Verfahren für m Parameter
Die Likelihood-Funktion hat für m Parameter aE D .a1 ; a2 ; : : : ; am / folgendes Aussehen:
L.a1 ; a2 ; : : : ; am / D
L.E
a/ D
n
Y
i D1
n
Y
f .xi ja1 ; a2 ; : : : ; am /
(6.32)
f .xi jE
a/ :
(6.33)
i D1
Wie in Gleichung (6.9) bildet man die negative Log-Likelihood-Funktion:
F .E
a/ D 2 ln
n
Y
f .xi jE
a/ :
(6.34)
i D1
Entwickelt man F .E
a/ um das Minimum aEN bis zur zweiten Ordnung, so ergibt sich
analog zu (6.13):
EN C
F .E
a/ D F .a/
m
X
@F ˇˇ ˇ E aj aNj
@aj aN
j D1
C
m
m X
1X
@2 F ˇˇ ˇ aj aNj .ak aN k / :
2
@aj @ak aEN
(6.35)
j D1 kD1
EN der Wert für die beste Schätzung der Parameter a.
EN Der zweite Term
Dabei ist F .a/
mit den ersten Ableitungen @F=@aj verschwindet im Minimum. Der dritte Term
enthält die Kovarianzen des Vektors aE .
Im folgenden Beispiel geben wir das Ergebnis einer Minimierung der negativen
Log-Likelihood-Funktion F .E
a / für m D 2 Parameter an.
92
6 Parameterschätzung aus Messdaten
Experiment: Aktivität und Lebensdauer
τ / min
Zusätzlich zur Bestimmung der Anfangsaktivität Aı A.t D 0/ einer radioaktiven Probe wie im obigen Beispiel bestimmen wir simultan die mittlere
Lebensdauer der Probe. Wir verwenden dafür eine radioaktive Probe mit
höherer Aktivität und nehmen mehr Messdaten auf.
10
68%
9
39%
95%
8
7
180
200
220
240
A / min
-1
Die kleinste Ellipse kennzeichnet den Bereich von n D 1 Standardabweichung
, innerhalb der 39 % aller Messwerte erwartet werden (vergleiche mit (3.75)).
Sie entspricht der Änderung der Log-Likelihood-Funktion um F D 1.
Um in 2 Dimensionen mehr Messwerte einzuschließen, berechnet man die
Kontur bei folgenden Werten von F [10]:
Bereich
F
39 %
68 %
95 %
1
2;3
5;99
(6.36)
6.2 Methode der kleinsten Quadrate
In diesem Abschnitt zeigen wir, wie man an n Messwerte .xi ; yi / ein vorgegebenes
Modell mit m Parametern aj anpassen kann. Wir gehen hier zur Vereinfachung
davon aus, dass die Unsicherheiten der Werte xi vernachlässigbar klein im Vergleich
zu den Messgenauigkeiten der Werte yi sind.
Wir bestimmen bei jedem Messwert xi die Differenz zwischen dem gemessenen
Wert yi und dem Modellwert yModell .xi /, die als Residuum bezeichnet wird:
i .xi / yi .xi / yModell .xi /
:
(6.37)
6:2 Methode der kleinsten Quadrate
y
93
y(x,a) = a + a2 x
1
yi
Δy
i
xi
x
Die beste Anpassung der Parameter aj des Modells erhalten wir, wenn die Summe
aus den Quadraten der Residuen minimal wird:
h
n
X
i2 D minimal
:
(6.38)
i D1
Dieses Vorgehen wird als die Methode der kleinsten Quadrate bezeichnet.
Das Modell sei aus m Funktionen fj .x/ zusammengesetzt, deren jeweiliger Beitrag durch die Größe der m Parameter aj variiert werden kann:
yModell D a1 f1 .x/ C a2 f2 .x/ C : : : C am fm .x/
D
m
X
aj fj .x/ :
(6.39)
(6.40)
j D1
Beispiel: Elektrischer Widerstand
Ein unbekannter elektrischer Widerstand R soll über Strommessungen Ii bei
verschiedenen angelegten Spannungen Ui bestimmt werden. Als Modell verwenden wir das Ohm’sche Gesetz U D R I , bzw. der Messreihe entsprechend:
I.Ui / D
1
Ui :
R
Unser Modell hat die elektrische Leitfähigkeit a1 D 1=R als einzigen freien
Parameter. Die Variable x entspricht der eingestellten Spannung U . Die Funktion ist hier linear: f1 D U .
94
6 Parameterschätzung aus Messdaten
6.2.1 Parameterwerte
Die Summe der quadrierten Residuen lautet mit dieser Modellfunktion:
hD
n
X
i2
i D1
D
n
X
i D1
D
n
X
.yi .xi / a1 f1 .xi / : : : am fm .xi //2
0
@yi .xi / i D1
m
X
12
aj fj .xi /A :
j D1
Als Bedingung für das Minimum müssen die partiellen Ableitungen @h=@aj Null
werden:
0
1
n
m
X
X
@h
D
2 @yi .xi / aj fj .xi /A f1 .xi / D 0
@a1
i D1
j D1
::
:
0
1
n
m
X
X
@h
D
2 @yi .xi / aj fj .xi /A fm .xi / D 0 :
@am
i D1
j D1
Wenn wir die Terme mit den Messwerten yi auf die rechte Seite der Gleichungen
bringen, erhalten wir sogenannte Normalengleichungen, die wir im Anschluss in
eine Matrix-Vektor-Multiplikation umschreiben werden:
P
P
P
a1 niD1 f12 .xi / C : : : C am niD1 f1 .xi / fm .xi / D niD1 yi f1 .xi /
::
::
(6.41)
:
:
P
P
P
a1 niD1 fm .xi / f1 .xi / C : : : C am niD1 fm2 .xi / D niD1 yi fm .xi / :
Die Messwerte yi schreiben wir in Vektorform
0 1
y1
B :: C
yE D @ : A ;
(6.42)
yn
ebenso wie die Parameter aj :
1
a1
C
B
aE D @ ::: A :
am
0
(6.43)
6:2 Methode der kleinsten Quadrate
Die Funktionen fj schreiben wir in Matrixform:
0
1
f1 .x1 / f2 .x1 / fm .x1 /
B
C
::
::
:::
AO D @ :::
A:
:
:
f1 .xn / f2 .xn / fm .xn /
95
(6.44)
Die Normalengleichungen (6.41) erhalten wir dann in verkürzter Schreibweise,
indem wir zunächst die Matrix AO und ihre transponierte Matrix AOT miteinander
multiplizieren:
1 0
1
0
f1 .x1 / fm .x1 /
f1 .x1 / f1 .xn /
C B ::
C
B
::
::
::
::
::
AOT AO D @
A@ :
A
:
:
:
:
:
fm .x1 / fm .xn /
Pn
2
i D1 f1 .xi /
B
::
D@
:
Pn
i D1 f1 .xi / fm .xi /
0
::
:
f1 .xn / fm .xn /
1
Pn
i D1 f1 .xi / fm .xi /
C
::
A:
Pn : 2
i D1 fm .xi /
(6.45)
Anschließend multiplizieren wir das Ergebnis mit dem Vektor aE der Parameter und
erhalten die linke Seite der Normalengleichungen:
1
1 0
0
P
Pn
2
niD1 f1 .xi / fm .xi /
a1
i D1 f1 .xi /
C B :: C
B
::
::
::
AOT AO aE D @
A@ : A
:
:
:
Pn
Pn
2
f
.x
/
f
.x
/
f
.x
/
am
m i
i D1 1 i
i D1 m i
1
0
P
P
C C am niD1 f1 .xi / fm .xi /
a1 niD1 f12 .xi /
C
B
::
D@
A:
:
P
P
am niD1 fm2 .xi /
a1 niD1 f1 .xi / fm .xi / C C
(6.46)
Die rechte Seite der Normalengleichungen erhalten wir durch Multiplikation der
transponierten Matrix AOT der Funktionen und dem Vektor yE der Messwerte:
1 0 1
0
y1
f1 .x1 / f1 .xn /
C
B
B
:
:
: C
T
:
::
::
::
AO yE D @
A @ :: A
fm .x1 / fm .xn /
1
0 Pn
i D1 yi f1 .xi /
C
B
::
D@
A:
:
Pn
i D1 yi fm .xi /
yn
(6.47)
96
6 Parameterschätzung aus Messdaten
Durch Einsetzen von (6.46) und (6.47) in die Normalengleichungen (6.41) vereinfachen sich diese Gleichungen zu einer Matrix-Vektor-Multiplikation
AOT AO aE D AOT yE ;
O 1
deren Lösung wir durch Multiplikation von links mit der inversen Matrix .AOT A/
sofort hinschreiben können:
1
aE D AOT AO
„
ƒ‚
AOT yE :
…
(6.48)
BO
Definieren wir die Matrix BO aus den Funktionen fj
BO AOT AO
1
AOT ;
(6.49)
so erhalten wir die Parameterwerte aj bei der minimalen Abweichung des Modells
von den Messdaten .xi ; yi / durch eine einfache lineare Transformation der Messungen:
aE D BO yE
:
(6.50)
6.2.2 Fehler der Parameter
Wir gehen hier von Messwerten aus, die unkorreliert sind und deren Fehler i gleich
groß sind (i D D const). Die Kovarianzmatrix der Messwerte VO Œy
E lautet dann:
1
0 2
0 0
B 0 2 0 C
C
B
VO Œy
E DB : : :
: C
@ :: :: : : :: A
0 0 2
0
1
1 0
B
C
D 2 @ ::: : : : ::: A
0 1
D 2 1 :
(6.51)
Dabei bezeichnet 1 die Einheitsmatrix.
Die Fehler auf die Parameter aj erhalten wir wegen der linearen Transformation (6.50) in Analogie zu (5.11) über das Fehlerfortpflanzungsgesetz (5.16). Wir
6:2 Methode der kleinsten Quadrate
97
benötigen dafür die Varianz der Messungen yi :
VO ŒE
a D VO ŒBO y
E
D BO VO Œy
E BO T
1
AOT
D AOT AO
2 1
1
AOT AO
AOT
T
:
Die Ergebnismatrix des letzten Terms auf der rechten Seite können wir vereinfachen:
T
1
T
1 T
T O
T
T
O
O
O
A A
D A
AOT AO
A
D AO AOT AO
1
:
Im letzten Schritt ist die Symmetrie der Matrix AOT AO (6.45) der Grund, dass die
O T . Wir setzen dieses Ergebnis
transponierte Matrix unverändert ist: AOT AO D .AOT A/
ein und fassen die Terme zusammen:
1
AOT AO AOT AO
VO ŒE
a D 2 AOT AO
ƒ‚
…
„
1
:
D1
Die Varianzen der Parameter aj ergeben sich also aus den Varianzen 2 der Messungen multipliziert mit der Matrix AOT AO
Modells enthält:
1
, die die Funktionswerte fj .xi / des
VO ŒE
a D 2 AOT AO
1
:
(6.52)
Falls die Messungenauigkeit nicht schon bekannt ist, können wir einen Schätzwert
für die Standardabweichung
v
u
n
u 1 X
Dt
.yi yModell /2
(6.53)
nm
i D1
analog zu (4.24) bestimmen. Dabei verwenden wir die bereits angepassten Modellwerte yModell .
Wie zuvor dividieren wir nicht durch die gesamte Anzahl n der Messungen. Die
n Datenwerte werden ja bei der Minimierung dazu verwendet, die m Parameter aj
bestimmen. Dadurch beträgt die Anzahl der Freiheitsgrade nur noch NF D n m
(vergleiche mit dem Beispiel zu Freiheitsgraden im Abschn. 4.4).
98
6 Parameterschätzung aus Messdaten
6.2.3 Geradenanpassung
Beispiel: Geradenanpassung
Als Anwendung der Methode der kleinsten Quadrate passen wir Messdaten
.xi ; yi / an das Modell einer Geraden an:
yModell D a C bx :
(6.54)
Die Messwerte .xi ; yi / seien unabhängig voneinander. Die Werte xi seien
exakt bekannt, während die Werte yi den Fehler i D D const: aufweisen.
Zur Vereinfachung der folgenden Rechnungen
Pn transformieren wir die Messwerte
xi anhand ihres Mittelwerts hxi D .1=n/
i D1 xi . Diese Transformation entspricht lediglich einer Verschiebung des Nullpunkts der x-Achse:
i
xi hxi :
(6.55)
Unser transformiertes Modell lautet dann in der Notation (6.40) mit f1 D 1 und
f2 D :
yModell0 D a1 C a2 :
(6.56)
Wir tragen die Messwerte yi und die Parameter aj in die entsprechenden Vektoren
ein ((6.42), (6.43)) und bilden die Matrix aus den Funktionen fj (6.44):
0 1
0
1
y1
1 1
a1
B C
B
C
(6.57)
yE D @ ::: A ; aE D
; AO D @ ::: ::: A :
a2
yn
1 n
Zunächst berechnen wir das Produkt der Matrizen:
1
0
1 1
1 1
C
B
AOT AO D
@ ::: ::: A
1 n
1 n
Pn
n
Pni D1 2i :
D Pn
i D1 i
i D1 i
Pn
Wegen (6.55) entspricht die Summe i D1 i D 0 dem ersten zentralen Moment
und ergibt keinen Beitrag (3.16). Wir definieren die vereinfachte Schreibweise
X
n
X
i D1
2
i
(6.58)
6:2 Methode der kleinsten Quadrate
99
und erhalten als diagonale Matrix:
AOT AO D
n 0
0X
:
(6.59)
Für die Bestimmung der Parameter aj benötigen wir nach (6.48) die inverse Matrix.
Dafür bestimmen wir zunächst die Determinante:
ˇ
ˇ
ˇn 0 ˇ
ˇ
D D ˇˇ
0Xˇ
D nX :
Die inverse Matrix lautet damit:
AOT AO
1
1
X 0
0 n
nX
1
n
0
D
:
0 X 1
D
(6.60)
(6.61)
Die Transformationsmatrix (6.49) ist dann:
1
BO D AOT AO
AOT
1
1 1
n
0
D
0 X 1
1 n
1
n1
n
:
D
X 1 1 X 1 n
Als Lösung für die Parameter a1 und a2 erhalten wir nach (6.50):
aE D BO yE
D
D
n1
1
X 1
n1
X 1 n
P
n1 P niD1 yi
:
n
X 1 i D1 i yi
0
1
y1
B :: C
@ : A
yn
(6.62)
(6.63)
(6.64)
Der Parameter a1 entspricht dem Mittelwert hyi der Messpunkte yi . Wegen yModell0
D a1 C a2 .x hxi/ (6.56) ist er der Stützpunkt der Geraden an der Stelle des
Mittelwerts x D hxi:
n
1X
a1 D
yi D hyi :
(6.65)
n
i D1
100
6 Parameterschätzung aus Messdaten
Durch Einsetzen der Definitionen (6.55) und (6.58) in (6.64) erhalten wir den Parameter a2 :
a2 D X 1 n
X
i
yi
i D1
1
D Pn
i D1 .xi
hxi/
2
n
X
.xi hxi/ yi :
i D1
Nach unserer Modelldefinition yModell0 D a1 C a2 .x hxi/ (6.56) entspricht der
Parameter a2 der Steigung der Geraden:
n
P
a2 D
i D1
n
P
.xi hxi/ yi
i D1
:
(6.66)
2
.xi hxi/
Für unser ursprüngliches Geradenmodell yModell D a C bx (6.54) lauten die Rücktransformationen zu den Parametern a und b wegen (6.55) und (6.56):
a D a1 a2 hxi
b D a2 :
(6.67)
(6.68)
Um die Fehler der Parameter zu berechnen, benötigen wir zunächst den Fehler der Messungen. Falls er nicht schon bekannt ist, können wir einen Schätzwert nach
(6.53) berechnen:
v
u
n
u 1 X
Dt
Œa1 C a2 .xi hxi/ yi 2 :
(6.69)
n2
i D1
Die Fehler der Parameter ergeben sich nach (6.52) durch Einsetzen von (6.61) für
die Varianz:
1
VO ŒE
a D 2 AOT AO
1
n
0
:
D 2
0 X 1
(6.70)
(6.71)
Der Fehler des Parameters a1 bezieht sich auf die Stelle x D hxi und entspricht
dem Fehler des Mittelwerts aller Messungen yi (4.22):
a1 D p
n
:
(6.72)
6:2 Methode der kleinsten Quadrate
101
Der Fehler auf die Steigung a2 der Geraden beträgt nach Einsetzen der Definitionen
(6.55) und (6.58) in (6.71):
a2 D s
n
P
i D1
:
.xi hxi/
(6.73)
2
Dass die Werte 12 D 0 der Nebendiagonale in der Kovarianzmatrix (6.71) verschwinden, haben wir durch die Transformation (6.55) erzielt. Bei der analogen
Berechnung ohne die Transformation ergibt sich 12 ¤ 0 und muss bei der Fehlerbetrachtung berücksichtigt werden.
Wollen wir die Genauigkeit der Modellanpassung (6.56) an einer anderen Stelle
als D 0 (d. h. x ¤ hxi) berechnen, müssen wir die Fehler entsprechend (5.21)
fortpflanzen und dann (6.55), (6.72) und (6.73) einsetzen:
2
y.Modell
0
/
2
X
@yModell0
D
@aj
!2
j D1
D 1 a21 C
2
a2j
a22
2
2
C .x hxi/2 Pn
2
n
i D1 .xi hxi/
!
.x hxi/2
1
2
C Pn
D :
2
n
i D1 .xi hxi/
D
(6.74)
An der Stelle des Achsenabschnitts y.x D 0/ beträgt somit der Fehler der Modellanpassung:
s
hxi2
1
y.Modell0 / .x D 0/ D C Pn
:
(6.75)
2
n
i D1 .xi hxi/
Für das ursprüngliche Geradenmodell yModell D a C bx (6.54) ergeben sich wegen
(6.68) und (6.75) die Fehler:
a D y.Modell0 / .x D 0/
(6.76)
b D a2 :
(6.77)
102
6 Parameterschätzung aus Messdaten
Experiment: Gaszylinder
Ein Gas sei in einem Zylinder eingeschlossen, dessen Volumen in einer
Dimension durch einen Stempel variiert werden kann. Bei Temperaturerhöhung dehnt sich das Gas aus. Die Länge des mit Gas gefüllten Zylinders sei
y. T bezeichne die absolute Temperatur. Bei n D 5 Messungen erhalten wir
folgende Werte:
i
Ti =K
yi =mm
1
2
3
4
5
90,4
100,5
95,9
90,7
97,7
712 ˙ 3
789 ˙ 3
749 ˙ 3
711 ˙ 3
763 ˙ 3
Wir passen eine Gerade der Form
y.T / D a T C b
an die Daten an. Dafür verwenden wir die oben hergeleiteten Beziehungen
((6.65), (6.66), (6.72), (6.75)) und transformieren sie anhand der Gleichungen
((6.67), (6.68), (6.76), (6.77)):
a D .7;59 ˙ 0;34/ mm=K
b D .23 ˙ 32/ mm :
Der Parameter b ist mit Null verträglich. Die Länge des Zylinders und die
Temperatur des Gases sind direkt proportional zueinander.
Aufgabe 6.2: Elektrischer Widerstand
Bestimmen Sie die Leitfähigkeit eines elektrischen Widerstands R über folgende Strommessungen Ii bei verschiedenen angelegten Spannungen Ui :
Spannung [V]
Strom [mA]
1
12
2
19
3
31
4
38
5
51
6
59
Berücksichtigen Sie dabei, dass das Strommessgerät einen Offset Iı haben
könnte, so dass der korrekte Stromwert Ii0 D Ii Iı beträgt. Nutzen Sie
die oben ermittelten Gleichungen für die Berechnung der Parameterwerte und
ihrer Fehler.
Vergleichen Sie Ihre analytischen Ergebnisse mit dem Ergebnis eines Computerprogramms (z. B. [4]).
6:2 Methode der kleinsten Quadrate
Lösung zu Aufgabe 6.2: Elektrischer Widerstand
103
Kapitel 7
Statistische Testverfahren
In diesem Kapitel stellen wir verschiedene Verfahren für die Durchführung von statistischen Tests vor. Dabei erklären wir z. B., warum der wahre Wert mit 68 % Wahrscheinlichkeit innerhalb des Fehlerintervalls um den Messwert liegt. Dazu erläutern
wir zunächst Konfidenzgrößen und Beurteilungen von statistischen Abweichungen.
Anschließend lernen wir die wichtige Chi-Quadrat-Verteilung und ihr Testverfahren kennen. Sie ermöglicht uns Parameterschätzungen aus viele Messungen, die
Gauß-verteilte, individuelle Messfehler haben. Wir können mit dem Chi-QuadratTest quantitativ beurteilen, ob eine Parameterschätzung vom statistischen Standpunkt sinnvolle Ergebnisse liefert.
Wenn wir erwartete Wahrscheinlichkeitsverteilungen nicht einfach analytisch
berechnen können, helfen häufig Computersimulationen, die wir mit Zufallszahlen durchführen. Wir stellen eine Methode vor, in der durch das Verhältnis zweier
Likelihood-Werte Modellvorhersagen im Vergleich zu Messdaten beurteilt werden
können.
7.1 Hypothesen, Konfidenzgrößen, signifikante Abweichungen
7.1.1 Test einer Hypothese
Wir stellen hier die Hypothese auf, dass eine theoretische Modellvorhersage mit
unserem experimentellen Messergebnis statistisch verträglich sei. Wir werden dafür
zunächst definieren, wo die Schwelle zwischen verträglich und unverträglich liegt.
Eine solche Grenze wird per Konvention vereinbart. Eine typische Forderung ist,
dass ein Messergebnis weniger als 2 Standardabweichungen vom theoretischen
Wert entfernt liegt. Bei Gauß-verteilten Messwerten entspricht dies der Wahrscheinlichkeit von 95 %, dass die Werte innerhalb des Bereichs von 2 liegen. Dementsprechend erwartet man mit 5 % Wahrscheinlichkeit, dass eine statistische Fluktuation zu einer größeren Abweichung als 2 führt.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_7, © Springer-Verlag Berlin Heidelberg 2013
105
106
7 Statistische Testverfahren
Der Test der Hypothese, dass ein Messergebnis mit einer theoretischen Vorhersage verträglich ist, ist also eine Wahrscheinlichkeitsaussage unter Berücksichtigung eines vor dem Test vereinbarten Grenzwerts. Ist die Antwort des Tests auf die
Hypothese
positiv, so sind Messung und Vorhersage miteinander kompatibel.
Der Test ist aber kein Beweis für die Korrektheit des Experiments
oder der Theorie!
negativ, so sind Theorie und Messung inkompatibel.
Entweder die Messung oder die Theorie oder beide sind verkehrt.
7.1.2 Konfidenzniveau, Konfidenzgrenze, Konfidenzintervall
f(x)
Uns liegt das Messergebnis xm ˙ eines Experiments vor, dessen Fehlerangabe
der Standardabweichung einer Gauß-Verteilung (3.50) entspricht. In welchem
Bereich liegt nun der wahre Wert xw ?
Ausgehend vom unbekannten wahren Wert xw ergab sich im Rahmen der experimentellen Unsicherheit der Messwert xm mit 68 % Wahrscheinlichkeit in dem
Bereich xw ˙ .
Da wir nur den Messwert xm haben, kann der wahre Wert xw oberhalb bzw. unterhalb von xm liegen. Zunächst bearbeiten wir den Fall, dass der Messwert oberhalb
des wahren Werts liegt (xw < xm ), und evaluieren dann den anderen Fall (xw > xm ).
Wir stellen die Hypothese auf, dass der Messwert xm durch eine statistische Fluktuation zustande kam, die einer von uns vorgegebenen Wahrscheinlichkeit ˛u entspricht (z. B. ˛u D 5 %).
Mit dieser Vorgabe bestimmen wir
den Mittelwert xu einer Gauß-Verteilung mit der dem Messfehler entspreσ
chenden Standardabweichung :
1
˛u D p
2 Z1
e
.xx2u /
2
2
dx :
xm
(7.1)
xu
xm
x
Ausgehend von dem Wert xu zeigt die
graue Fläche in der Abbildung die Wahrscheinlichkeit ˛u , den Messwert xm oder
einen größeren Wert zu erhalten (vergleiche mit (3.8)). Mit dem auf diese Weise
bestimmten Wert xu haben wir eine untere Grenze für den wahren Wert erhalten,
die wir auch als Konfidenzgrenze bezeichnen.
Für den Fall, dass der wahre Wert xw oberhalb des Messwerts liegt (xw > xm ),
können wir analog eine obere Grenze xo für den wahren Wert bestimmen. Wir geben
die Wahrscheinlichkeit ˛o vor, dass der Messwert xm durch eine statistische Fluk-
7:1 Hypothesen, Konfidenzgrößen, signifikante Abweichungen
107
f(x)
tuation zustande kam und unterhalb von xo bei xm oder einem noch kleineren Wert
liegt.
Den Wert xo berechnen wir wieder
als Mittelwert einer Gauß-Verteilung
mit der Standardabweichung :
1
˛o D p
2 σ
Zxm
e
2
.xx2o /
2
dx :
1
(7.2)
x
o
x
Wenn wir beide Wahrscheinlichkeiten
xm
˛u und ˛o für die statistische Fluktuation unseres Messwerts vorgeben, können wir mit (7.1) und (7.2) auch die Wahrscheinlichkeit
CL D 1 ˛u ˛o
(7.3)
berechnen, den wahren Wert innerhalb des Intervalls
xu < xw < xo
(7.4)
f(x)
zu finden. Den Bereich Œxu ; xo bezeichnen wir als Konfidenzintervall. Die Wahrscheinlichkeit CL heißt Konfidenzniveau (englisch: „confidence level“).
Wählen wir die Werte ˛o D ˛u D
0;1587, so erhalten wir als Konfidenzniveau CL D 1 ˛u ˛o D 68;27 %, was
dem Bereich von ˙1 Standardabweichung
einer Gauß-Verteilung um ihren Mittelσ
σ
wert entspricht (3.62).
Wie wir der Abbildung entnehmen,
ergibt sich für diese vorgegebenen Werte
als Konfidenzintervall Œxm ; xm C .
Der wahre Wert xw liegt also mit CL D
xu x m x o
x
68;27 % Wahrscheinlichkeit im Bereich
von ˙1 Standardabweichung um den
Messwert xm .
Das Konfidenzintervall wird oft als quantitative Information über physikalische
Größen verwendet, die nur indirekt oder mit sehr großem Aufwand messbar sind.
Auch einseitige Konfidenzgrenzen können wichtige Rückschlüsse ermöglichen.
Im Fall von experimentellen Resultaten, bei denen der Messwert X und sein Fehler
X in derselben Größenordnung liegen, können wir eine obere Konfidenzgrenze
X95 % dafür formulieren, dass X mit 95 % Wahrscheinlichkeit nicht größer als X95 %
ist.
108
7 Statistische Testverfahren
Experiment: 95 % Konfidenzgrenze für Gastemperatur
f / f max
Wir bestimmen hier eine obere Grenze für die Temperatur T in einem Gasbehälter mit einer sehr geringen Dichte von Wasserstoffmolekülen.
In dem Gedankenexperiment ist es uns gelungen, die Geschwindigkeit vd
von einem einzigen Molekül zu messen: vd D 630 m=s.
Die erwartete Geschwindigkeitsverteilung ist die Maxwell-BoltzmannVerteilung f .v; T / (3.27).
Wir variieren die Temperatur in
f .v; T /, bis das Integral bei der Tem1
peratur T D T95 %
Zvd
˛D
0.5
f .v; T95 % / dv D 0;05
0
0
0
1000 2000 3000 4000
ergibt.
v / (m/s)
In diesem Beispiel ergibt sich ˛ D
0;05 für die Konfidenzgrenze T95 % D
273 K. Wir schließen also mit 95 % Wahrscheinlichkeit Temperaturen im Gasbehälter oberhalb von T D 273 K aus.
7.1.3 Signifikante Abweichungen
In der Physik verwendet man gerne für die Beurteilung einer Hypothese die Anzahl
n von Standardabweichungen der Gauß-Verteilung.
Beispiel: Konfidenzgrenze und Anzahl der Standardabweichungen
Ein Messresultat xd D 1490 mit dem Messfehler d D 211 liegt deutlich
oberhalb des theoretisch erwarteten Werts xt D 1000.
Eine Möglichkeit ist, dass es sich um eine statistische Fluktuation handelt.
Eine andere Möglichkeit ist, dass der hohe experimentelle Wert von einem
zusätzlichen, bislang unbekannten physikalischen Prozess verursacht wird.
Um das Konfidenzniveau zu erhalten, berechnen wir die Wahrscheinlichkeit für die beobachtete Abweichung von der Vorhersage:
1
˛D p
2 d
Zxt
e
.xxd /2
2 2
d
dx D 0;01 :
1
Das Konfidenzniveau beträgt CL D 1 ˛ D 99 %.
(7.5)
7:1 Hypothesen, Konfidenzgrößen, signifikante Abweichungen
109
Wir können den Unterschied zwischen dem experimentellen Resultat und
der Vorhersage alternativ in Vielfachen n der Standardabweichungen d ausdrücken und erhalten:
nD
xd xt
D 2;32 :
d
(7.6)
Die Signifikanz der Abweichung beträgt demnach 2,32 Standardabweichungen. Wie diese Abweichung typischerweise beurteilt wird, erklären wir weiter
unten in diesem Abschnitt.
Konfidenzniveaus CL und die entsprechenden Vielfachen n der Standardabweichung bei Gauß-verteilten Messgrößen sind in der folgenden Tabelle gezeigt [10]:
Konfidenzniveau CL
einseitige Grenze
Vielfache n von beidseitige Grenze
Vielfache n von 68;27 %
95 %
99 %
0;475
1;65
2;33
1
1;96
2;58
(7.7)
Dabei wird unterschieden, ob es sich um einseitig oder beidseitig berechnete Grenzen handelt. Welche Form geeignet ist, hängt von der jeweiligen Fragestellung ab.
Beispiele für solchen Fragestellungen werden wir in den folgenden Abschnitten vorstellen.
Umgekehrt entsprechen Vielfache n der Standardabweichung folgenden Konfidenzniveaus CL (vergleiche mit (3.62)):
Gauß-Standardabweichungen, d. h.
Vielfache n von Konfidenzniveau
einseitige Grenze
Konfidenzniveau
beidseitige Grenze
1
2
3
4
5
1–0;1587
1–2;28 102
1–1;35 103
1–3;17 105
1–2;87 107
1–0;3173
1–4;55 102
1–2;70 103
1–6;33 105
1–5;73 107
(7.8)
Beurteilung von Abweichungen
Liegen Messwert und theoretischer Wert innerhalb von einer Standardabweichung,
so sind beide in guter Übereinstimmung. Bei 1–2 Standardabweichungen sind die
Werte noch kompatibel.
Statistische Fluktuationen, die Abweichungen von 2–3 Standardabweichungen
erzeugen, sind selten, aber kommen erfahrungsgemäß vor.
110
7 Statistische Testverfahren
Ab 3 Standardabweichungen werden die möglichen Ursachen für den Unterschied zwischen Theorie und Experiment interessiert diskutiert und in vielen Bereichen der Physik als „signifikante“ Abweichung bezeichnet. Entsprechende Publikationen heißen dann (englisch:) „indication of : : :“, „evidence for : : :“ oder „observation of : : :“.
In der Teilchenphysik werden Unterschiede von mehr als 5 Standardabweichungen zwischen Theorie und Experiment als Signal für eine signifikante Abweichung
beurteilt und dann z. B. als (englisch:) „observation of : : :“ publiziert.
7.2 t-Test
Um die Kompatibilität zweier Mittelwerte zu evaluieren, nutzen wir den sogenannten t-Test. Diesem Test liegt die Student’sche t-Verteilung zugrunde. Sie ist die
korrekte Wahrscheinlichkeitsdichte für ein Verfahren, bei dem wir die Genauigkeit
des Mittelwerts aus den Messdaten selbst bestimmen.
Mathematischer Einschub: Gamma-Funktion
Die Gamma-Funktion ist für positive x 2 R über folgendes Integral definiert:
Z1
.x/ D
t x1 e t dt :
(7.9)
0
Ihre Werte sind über Internetrechner, Datenanalyseprogramme [2, 4] oder in
Tabellen [3] verfügbar. Für positive ganze Zahlen n 2 Z können wir mit
der Fakultät in Verbindung bringen:
.n C 1/ D nŠ
(7.10)
Die Student’sche t-Verteilung ist folgende Wahrscheinlichkeitsdichte:
nC1 t2
n2 1 C
fn .t/ D p
n
n 2
1
Dabei bezeichnet n die Anzahl der Freiheitsgrade.
! nC1
2
:
(7.11)
Im Vergleich zur Gauß-Verteilung
(3.50) hat die t-Verteilung für kleine
Werte von n breitere Ausläufer, wird
aber für große Werte von n der GaußVerteilung ähnlich.
Gegeben seien die n Messwerte
y1 ; y2 ; : : : ; yn . Wir berechnen ihren
Mittelwert nach (4.18)
f(t)
7:2 t -Test
111
0.5
Gauss
0.4
Student-t, n=1
Student-t, n=5
0.3
0.2
0.1
0
-4
n
1X
yi
hyi D
n
-2
0
2
4
t
i D1
und bestimmen die Standardabweichung wie in (4.24):
v
u
n
u 1 X
.yi hyi/2 :
Dt
n1
i D1
Der Fehler des Mittelwerts beträgt nach (4.22):
hyi D p :
n
Als theoretische Vorhersage haben wir den Mittelwert yt . Unser Ziel ist, die Kompatibilität zwischen yt und dem experimentell ermittelten Wert hyi zu überprüfen.
Als Testgröße verwenden wir die Differenz des experimentellen und theoretischen Werts und dividieren durch den experimentellen Fehler des Mittelwerts:
tD
hyi yt
hyi
:
(7.12)
Diese Testgröße folgt einer t-Verteilung mit n 1 Freiheitsgraden. Dabei entspricht
n der Anzahl der Messwerte und 1 Freiheitsgrad wird für die Verwendung des Mittelwerts der n Messwerte bei der Berechnung der Standardabweichung abgezogen.
Die Wahrscheinlichkeit P für die statistische Verträglichkeit der beiden Werte,
beziehungsweise das Konfidenzniveau CL, lesen wir aus dem Integral über die tVerteilung ab. Die Integration müssen wir nach unserer jeweiligen Fragestellung
einseitig oder beidseitig durchführen.
Soll bei einer Fragestellung berücksichtigt werden, dass der experimentelle Wert
hyi der Testgröße t in (7.12) oberhalb des theoretischen Werts yt liegt, gehen wir
folgendermaßen vor:
112
7 Statistische Testverfahren
P(t)
Die Wahrscheinlichkeit P , dieses
Messergebnis oder einen noch höheren experimentellen Wert zu erhalten,
beträgt:
Gauss
Student-t, n=1
0.8
Student-t, n=5
0.6
Z1
P D
1
0.4
fn .t/ dt :
(7.13)
0.2
t
0
-4
-2
0
2
4
t
Bei einer anderen Fragestellung soll die Verträglichkeit der Messergebnisse
zweier Experimente verglichen werden. Dafür verwenden wir als Testgröße t die
Differenz der Mittelwerte, dividiert durch den kombinierten Mittelwertfehler, den
wir über das Fehlerfortpflanzungsgesetz erhalten (5.23):
hxi hyi
:
tDq
2
2
hxi
C hyi
(7.14)
Die Wahrscheinlichkeit, diese Differenz der Messwerte oder eine noch größere Differenz zu erhalten, berechnen wir dann mit
Z1
P D2
fn .t/ dt :
(7.15)
jt j
Welches der beiden Ergebnisse größer ist als das andere, spiele hier keine Rolle.
Daher verwenden wir in der unteren Grenze den Betrag jtj und berücksichtigen
beide Möglichkeiten durch den Faktor 2.
Wurden die Mittelwerte aus n1 Messungen des ersten Experiments und n2 Messungen des zweiten Experiments bestimmt, so beträgt die Anzahl der Freiheitsgrade
n D n1 C n2 2. Zwei Freiheitsgrade werden für die Verwendung der Mittelwerte
bei der Berechnung der Standardabweichungen subtrahiert.
7:2 t -Test
113
Beispiel: Vergleich zwischen Theorievorhersage und Experiment
Die Vorhersage einer theoretischen Rechnung ergebe den Wert yt D 1. Das
Experiment habe n D 3 Messwerte yi , deren Mittelwert und Fehler des Mittelwerts wir berechnen:
Messwerte
yi D 1; 2; 3
Mittelwert
hyi D 2
Freiheitsgrade n 1 D 2
1
Varianz
2 D 12 C 02 C 12 D 1
2
1
Fehler
hyi D p
3
Die Testgröße ist hier:
tD
hyi y t
2 .1/
p D 5;2 :
D
hyi
1= 3
Die Wahrscheinlichkeit, als experimentellen Mittelwert hyi D 2 oder einen
noch größeren Wert zu erhalten, beträgt
Z1
P D
f2 .t/ dt D 0;0175 D 1;75 % :
t D5;2
Falls die experimentelle Beobachtung durch das theoretische Modell korrekt beschrieben wird, müsste es sich um eine statistische Fluktuation bei
den Messdaten handeln. Die Abweichung des theoretischen Werts entspricht
D 2;1 Gauß’schen Standardabweichungen (7.8).
Aufgabe 7.1: Vergleich zweier experimenteller Mittelwerte
Gegeben sind die Messwerte zweier Experimente:
Experiment 1: n D 3 Werte xi D 3; 5; 7
Experiment 2: m D 4 Werte yi D 2; 0; 2; 4 .
Sind die beiden experimentellen Resultate statistisch miteinander verträglich?
114
7 Statistische Testverfahren
Lösung zu Aufgabe 7.1: Vergleich zweier experimenteller Mittelwerte
7.3 2 -Methode
Liegen uns Messdaten mit Gauß-verteilten Messfehlern vor, so ermöglicht die 2 Verteilung verschiedene wichtige Anwendungen in der Datenanalyse.
Zunächst führen wir die 2 -Verteilung und das 2 -Testverfahren ein. Anschließend stellen wir die sogenannte 2 -Methode für Parameterschätzungen vor. Mit ihr
lässt sich z. B. quantitativ überprüfen, ob die Messdaten mit einer theoretischen Vorhersage statistisch kompatibel sind.
7:3 2 -Methode
115
7.3.1 2 -Verteilung
Gegeben seien n unabhängige Zufallsvariablen z1 ; z2 ; : : : ; zn , die einer Gauß-Wahrscheinlichkeitsdichte mit dem Mittelwert D 0 und der Standardabweichung
D 1 folgen. Wir nennen die Summe der Quadrate dieser Zufallsvariablen 2 :
2
n
X
zi2
:
(7.16)
i D1
Die Wahrscheinlichkeitsdichte von 2 erhält man über die Faltung der n einzelnen
Wahrscheinlichkeitsdichten der zi . Die Berechnung wird in [1] vorgeführt, wobei
die Faltung wie im Abschn. 4.2 über die charakteristischen Funktionen durchgeführt
wird.
Als Ergebnis erhält man die sogenannte 2 -Verteilung:
fn .2 / D
1
2
n
2 1
2
2
n
e
2
2
:
(7.17)
2
Die Anzahl n der Zufallsvariablen entspricht der Zahl der Freiheitsgrade.
Der Mittelwert der 2 -Verteilung entspricht der Anzahl der Freiheitsgrade:
h2 i D n
:
(7.18)
Die Standardabweichung der 2 -Verteilung lautet:
D
p
2n
:
(7.19)
2max D n 2 :
(7.20)
Die Position des Maximums liegt für n 2 bei:
116
7 Statistische Testverfahren
In der Abbildung sind die
2 -Verteilungen für die Werte
n D 1; : : : ; 6 gezeigt. Hier
wird x D 2 als Variable verwendet.
f(x)
Beispiel: 2 -Verteilung
n=1
n=2
n=3
n=4
n=5
n=6
0.4
0.2
0
0
5
10
15
x
7.3.2 2 -Testgröße
Wir wollen die oben eingeführten Zufallsvariablen zi , die einer Gauß-Verteilung mit
Mittelwert D 0 und Standardabweichung D 1 folgen, auf die Situation von n
Messwerten .xi ; yi / übertragen.
Die Messwerte yi sollen Gauß-verteilte Fehler y;i aufweisen und Werte yi ¤ 0
und Standardabweichung y;i ¤ 1 haben können. Der Fehler in der Messvariablen
xi sei vernachlässigbar klein.
Wir konstruieren nun durch den Vergleich der Messdaten .xi ; yi / mit einer theoretischen Erwartung yt D f .x/ neue Messgrößen, sogenannte Residuen (siehe auch
6.37):
i D
yi .xi / f .xi /
y;i .xi /
:
(7.21)
Falls die theoretische Beschreibung f .x/ der Messdaten korrekt ist und die Messfehler korrekt bestimmt wurden, folgen die Residuen selbst einer Gauß-Verteilung
mit dem Mittelwert D 0 und der Standardabweichung D 1. Daher folgt dann
die Summe der Quadrate der Residuen
2 D
n
X
i D1
einer 2 -Verteilung mit n Freiheitsgraden.
i2
(7.22)
7:3 2 -Methode
117
Beispiel: 2 -Wahrscheinlichkeit
Der Mittelwert der 2 -Verteilung ist gleich der Zahl der Freiheitsgrade n
(7.18). Entsprechend den statistischen Fluktuationen erhalten wir natürlich
auch andere Werte als diesen Mittelwert. Um herauszufinden, ob diese Werte
wahrscheinlich sind, nutzen wir z. B. Internetrechner oder Tabellen [3] für die
2 -Verteilung.
Um einen Eindruck für unwahrscheinliche 2 -Werte zu bekommen, tabellieren wir für eine gegebene Anzahl der Freiheitsgrade
n die obere Grenze 2ı ,
R1
2
oberhalb der die Wahrscheinlichkeit P D 2ı fn . / d2 kleiner als 1 % ist:
n
h2 i
2ı .P D 1 %/
1
2
3
100
1
2
3
100
6,63
9,21
11,34
135,8
Aufgabe 7.2: 2 -Wahrscheinlichkeit
Berechnen Sie mit Hilfe einer Tabelle oder eines Internetrechners die Wahrscheinlichkeiten für n D 50 Messungen (Freiheitsgrade) folgende Werte zu
erhalten:
1. 2 D 30
2. 2 D 55.
Lösung zu Aufgabe 7.2: 2 -Wahrscheinlichkeit
118
7 Statistische Testverfahren
7.3.3 Parameterschätzung mit der 2 -Methode
Bei der Berechnung des gewichteten Mittelwerts aN für Gauß-verteilte Größen mit
Hilfe der negativen Log-Likelihood-Funktion F .a/ war uns die folgende Summe
quadrierter Residuen Qi begegnet (6.11):
F .a/ D const: C
n
X
Qi2
(7.23)
i D1
n
X
xi a
D const: C
i
!2
:
(7.24)
i D1
Anstelle des Datenmittelwerts wollen wir nun mit Hilfe der Messdaten .xi ; yi / den
Parameter aN einer theoretisch vorhergesagten Wahrscheinlichkeitsverteilung f .xja/
bestimmen.
Dafür modifizieren wir das obige Residuum und ersetzen a durch die Wahrscheinlichkeitsverteilung f .xja/. Jeder Messwert yi habe einen individuellen, Gaußverteilten Messfehler y;i . Die Unsicherheiten in der Messgröße xi seien vernachlässigbar klein.
Im modifizierten Residuum vergleichen wir nun an jeder Stelle xi den theoretischen Wert f .xi ja/ mit dem Messwert yi .xi / im Rahmen von dessen Fehler
y;i .xi /:
i D
yi .xi / f .xi ja/
:
y;i .xi /
(7.25)
Die Log-Likelihood-Funktion analog zu (7.23)
F .a/ D const: C
n
X
i2
(7.26)
i D1
enthält nun die gleichen Residuen wie die Residuen i (7.21) der 2 -Testgröße
(7.22). Damit entspricht die negative Log-Likelihood-Funktion F .a/ bis auf eine
Konstante der 2 -Testgröße:
F .a/ D const: C 2 :
(7.27)
Tragen wir den Wert der 2 -Testgröße als Funktion des Parameters a auf
n
X
yi .xi / f .xi ja/
.a/ D
y;i .xi /
2
i D1
!2
;
(7.28)
7:3 2 -Methode
119
so erhalten wir genau wie bei der negativen Log-Likelihood-Funktion F .a/ eine
Kurve, deren Minimum
@2 ˇˇ
D0
(7.29)
ˇ
N
@a aDa
den besten Schätzwert aN zeigt und an deren Stellen 2 D 1 wir die Standardabweichung aN von aN ablesen können.
Die Anzahl n der Standardabweichungen entsprechen denselben Abständen 2
wie in der Tabelle (6.23):
2
n
1
2
3
4
5
1
4
9
16
25
:
(7.30)
Diese sogenannte 2 -Methode eignet sich als Verfahren für die Schätzung von
Parametern über Messdaten mit individuellen, Gauß-verteilten Fehlern. Die Güte
einer solchen Parameterschätzung können wir direkt mit Hilfe der 2 -Wahrscheinlichkeit beurteilen.
Die Residuen (7.25) für Messwerte mit individuellen Fehlern können wir auch
für Parameterschätzungen mit der Methode der kleinsten Fehlerquadrate anstelle
der Residuen (6.37) verwenden. Die Berechnungen der Fehler müssen dann entsprechend angepasst werden (siehe z. B. [1]).
Bei einer Häufigkeitsverteilung mit hohen Anzahlen nj bei den Einträgen in
jedem der N Intervalle j können wir die 2 -Testgröße für eine Parameterschätzung
vereinfachen. Die theoretisch erwartete Anzahl der Einträge sei j .a/ D f .xj ja/.
Wegen der großen Anzahl der Einträge j können wir den Gauß-verteilten Fehler
p
im Nenner durch j D j abschätzen (3.63):
N
X
.nj j .a//2
:
.a/ D
j .a/
2
j D1
(7.31)
120
7 Statistische Testverfahren
Beispiel: Test einer Gleichverteilung
N
Wir testen hier einen Generator für
Zufallszahlen, der gleichverteilte Zahlen zwischen Œ0; 1 produziert.
50
Zunächst füllen wir ein Histogramm
mit m D 100 Intervallen zwischen
Œ0; 1 mit insgesamt n D 5000 Zufallszahlen des Generators.
0
In jedem Intervall erwarten wir im
0
0.5
1
x
Mittel hN i D n=m D 50 Einträge. Die
Anzahl der Freiheitsgrade beträgt NF D m 1 D 99, wobei m D 100 die
Anzahl der Histogrammintervalle ist, und 1 Freiheitsgrad für die Bestimmung
des Mittelwerts verwendet wird.
Anschließend berechnen wir die 2 -Testgröße nach (7.31) und erhalten den
Wert 2 D 108.
mit
Bei den NF D 99 Freiheitsgraden erwarten wir nach (7.18) und (7.19)
p
68 % p
Wahrscheinlichkeit ein Ergebnis innerhalb von 2 D NF ˙ 2NF D
99 ˙ 198 D 99 ˙ 14. 2 D 108 ist demnach ein wahrscheinlicher Wert.
Genauer geht es mit dem Rechner: Die Wahrscheinlichkeit, einen Wert von
2 108 zu messen, beträgt P D 0;25. Wir haben also eine gute Gleichverteilung mit Hilfe des Zufallsgenerators erhalten.
Experiment: Radioaktive Probe
Wieder wollen wir die Anfangs-Aktivität Aı A.t D 0/ einer Substanz
bekannter mittlerer Lebensdauer D 500 s bestimmen. Dieses Mal ist die
Stoffmenge größer und die gemessenen Anzahlen von Zerfällen pro Minute
entsprechend höher:
Minute j
nj
1
2
3
4
5
6
7
8 9 10
:
190 174 162 140 138 100 102 81 79 61
Wir nutzen wieder die Exponentialfunktion (6.30) und verwenden die Näherung konstanter Zerfallsraten innerhalb einer Minute für die theoretisch erwartete Anzahl j D t Aı exp ..j 0;5/ t= / (6.31).
Wegen der verhältnismäßig großen Anzahlen von nj und j kann man
hier die Poisson-Verteilung durch eine Gaußverteilung annähern und eine 2 Anpassung durchführen (7.31):
10
X
.nj j .Aı //2
:
j .Aı /
j D1
Wie bei der Likelihood-Anpassung
berechnet man den Wert von 2 für
verschiedene Werte von Aı und trägt
das Resultat graphisch auf. Jetzt kann
man den Wert und die Fehler ablesen
( 2 D 1):
ANı D .210 ˙ 6/=min :
200
150
100
50
0
χ2 - χ2 o
2 .Aı / D
121
N
7:3 2 -Methode
0
2
4
6
8
10
t / min
6
4
Der zugehörige 2 -Wert ist 4,4 bei
NF D 9 Freiheitsgraden, also passt
2
das theoretische Modell zu den Messdaten. Man beachte, dass die relative Unsicherheit auf ANı hier etwa um
0
200
210
220
einen Faktor von ca. 3,5 kleiner ist
-1
A o / min
als bei der kleineren Probe, für die
wir die Likelihood-Anpassung durchgeführt haben. Das ist zu erwarten, da hier die Statistik um etwas mehr als
einen Faktor 10 größer ist.
7 Statistische Testverfahren
122
7.4 Computersimulation
1/N dN/d<x>
N
N
Können wir eine Wahrscheinlichkeitsverteilung nicht ohne weiteres analytisch auswerten, z. B. weil es sich um das Resultat der Faltung mehrerer Wahrscheinlichkeitsverteilungen handelt, können wir uns mit Computersimulationen weiterhelfen.
Ein typischer Anwendungsfall ist, die Übereinstimmung eines experimentellen
Resultats mit einem bestimmten Modell zu überprüfen. Wir simulieren dafür anhand
des Modells Experimente und berechnen damit numerisch das Konfidenzniveau.
In der linken Abbildung sehen wir eine Modellverteilung, die offenbar nicht
Gauß-förmig ist. In der mittleren Abbildung ist eine Datenverteilung mit n D 100
Messpunkten gezeigt, deren Mittelwert wir zu hxiDaten D 53;9 bestimmen. Dieser
Wert entspricht der senkrechten Linie in der rechten Abbildung.
20
20
0.2
0.1
0
0
50
0
0
100
50
0
50 52 54 56 58 60
100
x
x
<x>
Wir möchten herausfinden, ob dieser gemessene Mittelwert mit Mittelwerten verträglich ist, die wir aus simulierten Experimenten erhalten würden, die dem Modell
folgen.
Dafür machen wir 1000 simulierte Experimente mit jeweils n „Messwerten“.
Wegen der begrenzten Anzahl der Messdaten des Experiments sollten auch die
simulierten Daten im Rahmen der Poisson-Verteilung (3.47) um die erwarteten
Werte des Modells (siehe Abbildung links) streuen.
Für alle x-Intervalle i des ersten simulierten Experiments erstellen wir die
Poisson-Verteilung Pi mit dem Mittelwert i , der dem erwarteten Wert aus dem
Modell entspricht. Mit ni bezeichnen wir eine noch auszuwählende Anzahl der Einträge im simulierten x-Intervall i :
n
Pi .ni ji / D e i i i
:
ni Š
(7.32)
Wir erzeugen die Zufallszahlen ni entsprechend dieser Poisson-Wahrscheinlichkeitsverteilungen (ein Beispiel dazu folgt weiter unten).
Nachdem alle x-Intervalle gefüllt sind, berechnen wir den Mittelwert hxi dieses simulierten Experiments und tragen ihn in das Histogramm der obigen rechten Abbildung ein. Diese Prozedur wiederholen wir für jedes der 1000 simulierten
Experimente.
7:4 Computersimulation
123
Da der gemessene Mittelwert recht klein ist im Vergleich zur Modellvorhersage
(rechtes Histogramm), untersuchen wir, ob eine statistische Fluktutation zu dem
gemessenen Mittelwert hxiDaten oder einem kleineren Wert führt. Diese Wahrscheinlichkeit P berechnen wir über folgendes Integral:
hxi
ZDaten
P D
1
1 dN
d hxi D 0;07 :
N d hxi
Die Übereinstimmung des Modells mit dem Datenmittelwert ist mit einem Konfidenzniveau von CL D 1 P D 93 % (7.3) nicht besonders gut, aber im Rahmen
zufälliger Fluktuationen in den Messdaten erklärbar. Diese einseitige Grenze entspricht D 1;5 Gauß’schen Standardabweichungen (7.8).
Beispiel: Zufallszahlen einer Wahrscheinlichkeitsverteilung
P(r)
Mit einem Zufallsgenerator für gleichverteilte Zahlen z zwischen 0 z 1
können wir eine Gleichverteilung erzeugen.
Zufallszahlen entsprechend der Gauß-Verteilung können wir nach dem
Zentralen GrenzwertsatzP
(Abschn. 4.3) durch die Überlagerung vieler gleichverteilter Zufallszahlen . niD1 zi /=n erhalten.
Zufallszahlen anderer Wahrscheinlichkeitsverteilungen können wir durch
zwei gleichverteilte Zufallszahlen z1 und z2 generieren. Als Beispiel wollen
wir hier eine Poisson-Verteilung P .r/ mit dem Mittelwert D 4 im Bereich
0 r < 10 erzeugen. Zunächst vergrößern wir die erste Zufallszahl z1 um den
Faktor f D 10 und runden dann ab auf den ganzzahligen Wert r D int.z1 f /.
Mit Hilfe der zweiten Zufallszahl z2 wählen wir, ob wir
0.2
r akzeptieren oder verwerfen.
Dafür vergleichen wir z2 mit
0.15
P .r/:
z2 P .r/
akzeptieren
z2 > P .r/
r neu würfeln :
0.1
0.05
0
Dieses Verfahren ist rechen0
2
4
6
8
r
zeitaufwändig. Computerprogramme für die Datenanalyse bieten bereits komfortable Lösungen an
(z. B. [4]).
7 Statistische Testverfahren
124
7.5 Likelihood-Quotient
Mit dem Verhältnis zweier Likelihood-Werte können wir quantifizieren, ob ein
Datensatz mit einer Modellhypothese eher verträglich ist als mit einer anderen
Modellhypothese. Zur Anschauung machen wir folgendes Gedankenexperiment.
Experiment: Goldsucher
fo
fg
N
In einer Gegend mit früheren Goldfunden bietet eine Firma den Kauf von
Schürfrechten an. Wir besitzen eine automatische Goldsuchmaschine, die
gleich große Würfel aus dem Erdreich sticht und über die Messung der Würfelmasse die Dichte des Materials ermittelt. Die Dichteverteilungen von Erdwürfeln ohne Goldanteile (linke Abbildung fo ./) und mit Goldanteilen (mittlere Abbildung fg ./) unterscheiden sich nur geringfügig, seien aber durch
viele Messungen bekannt.
0.3
0.3
0.2
0.2
40
30
20
0.1
0.1
0
10
0
2
4
6
8
ρ
0
2
4
6
8
ρ
2
4
6
8
ρ
Der Verkäufer der Schürfrechte lobt das Gebiet und stellt einen Anteil von
aı D 18 % Würfeln mit Goldanteilen in Aussicht. In einer ersten Grabung
vermessen wir N D 100 Erdwürfel und vergleichen die Messung (Symbole
in der rechten Abbildung) mit der Behauptung des Verkäufers (Histogramm).
Dabei interessieren uns die Fragen: Gibt es hier überhaupt Gold? Können wir
die Aussage des Verkäufers bestätigen?
Die Behauptung des Verkäufers können wir mathematisch in folgendem Modell
formulieren. Die vorhergesagte Verteilung f .; a/ setzt sich aus den beiden Dichteverteilungen fg ./ und fo ./ zusammen, die mit dem Anteil a der Erdwürfel mit
Goldanteilen bzw. .1 a/ gewichtet werden. Mit der Anzahl N der genommen
Proben lautet das Modell:
f .; a/ D N a fg ./ C .1 a/ fo ./ :
(7.33)
7:5 Likelihood-Quotient
125
In jedem Intervall i der Dichte vergleichen wir die Anzahl ni der Dateneinträge
mit den Einträgen f .i ; aı / des Modells mit der Verkäufervorhersage aı D 0;18.
Falls das Modell für die gemessenen Daten korrekt ist, sollten die Dateneinträge
im Rahmen der Poisson-Verteilung (3.47) um die erwarteten Modelleinträge i D
f .i ; aı / streuen:
n
Pi .ni ji / D e i i i
:
ni Š
(7.34)
Wir berechnen die Poisson-Wahrscheinlichkeit in allen m Intervallen und bilden den
Likelihood-Wert (6.2) für den vorhergesagten Anteil aı D 0;18:
L.datenjaı / D
m
Y
Pi .ni ji / :
(7.35)
i D1
Anschließend variieren wir den Anteil a der Erdwürfel mit Goldanteilen im Modell
(7.33) und schätzen mit dem Maximum-Likelihood-Verfahren (6.3) den wahrscheinlichsten Wert für die Messungen. In unserem Beispiel ergibt sich
aN D 0;12 :
(7.36)
Mit dem Likelihood-Wert L.datenja/
N für den wahrscheinlichsten Wert aN bilden wir
den Quotienten der beiden Likelihood-Werte [6]:
D
L.datenjaı /
:
L.datenja/
N
(7.37)
Der Quotient liegt im Intervall 0 1. Wenn die Aussage des Verkäufers korrekt
ist, sollte der Wert in der Nähe von D 1 liegen. Sollte sich allerdings ein -Wert
nahe Null zeigen, so ist seine Aussage mit den von uns genommenen N D 100
Proben statistisch nicht haltbar.
Für unsere Berechnungen können wir anstelle des Quotienten auch die logarithmische Form entsprechend (6.9) wählen und damit eine Testgröße t bilden:
t D 2 ln D 2 ln L.datenja/ 2 ln L.datenja/
N
(7.38)
(7.39)
D F .a/ F .a/
N :
(7.40)
t
Wir setzen dafür alle Werte direkt in die Summanden der Gleichung (6.29) ein.
Für unsere Messung und die Vorhersage
des Verkäufers ist die Testgröße t.aı D
-365
0;18I aN D 0;12/ in der Abbildung als Diffe-366
renz der beiden negativen Log-Likelihood-367
Werte visualisiert. In unserem Beispiel
ergibt sich:
-368
N D 1;03 :
t.aı ; a/
(7.41)
-369
0.05
0.1
0.15
0.2
0.25
a
126
7 Statistische Testverfahren
1/N dN/dt
Um herauszufinden, ob unser Messwert aN D 0;12 im Rahmen der Verkäufervorhersage ein wahrscheinlicher Wert ist, simulieren wir anhand des Modells (7.33)
mit dem vorhergesagten Anteil aı D 0;18 insgesamt 500 Experimente mit jeweils
N D 100 Würfeln aus dem Erdreich.
Dafür verwenden wir in jedem Intervall i der Dichte die Anzahl der Modelleinträge als Mittelwert i einer Poisson-Verteilung und erzeugen eine Zufallszahl ni
für die Anzahl der Einträge des simulierten Experiments in diesem Dichteintervall.
Anschließend berechnen wir die Testgröße t (7.40).
Die normierte Verteilung der simulierten
0.4
Testgrößen t ist in der Abbildung gezeigt.
N (7.41) aus der
Zusätzlich ist der Wert t.aı ; a/
0.3
Messung eingezeichnet. Offenbar ist unser
Messwert ein wahrscheinlicher Wert.
0.2
Die Wahrscheinlichkeit P , dass eine sta0.1
N
tistische Fluktuation zu dem Wert t.aı ; a/
oder einem größeren Wert geführt hat,
0
0
2
4
6
8
berechnen wir über das Integral zu
t
Z1
N D
f .t/ dt D 0;3 :
(7.42)
P .t t.aı ; a//
t .aı ;a/
N
Die Übereinstimmung mit der Aussage des Verkäufers ist bei einem Konfidenzniveau von CL D 1 P D 70 % (7.3) recht gut. Als einseitige Grenze entspricht sie
D 0;5 Gauß’schen Standardabweichungen.
Natürlich wollen wir auch sicherstellen, dass überhaupt Gold vorhanden ist.
Dafür testen wir die Hypothese, dass der Goldanteil bei a D 0 liegt. Wir berechnen
die Testgröße t für diese Überlegung und erhalten für unser Beispiel:
t D F .0/ F .a/
N D 17;1 :
1/N dN/dt
Für diese Differenz in der negativen Log-Likelihood-Funktion erwarten wir nach
Tabelle (6.23) eine Abweichung von ca. 4 Standardabweichungen. Um die Wahrscheinlichkeit für eine statistische Fluktuation quantitativ erfassen zu können, brauchen wir nach Tabelle (7.8) mindestens 1=.3;17 105 / 30:000 simulierte Experimente.
Für jedes der simulierten Experimente erzeugen wir anhand der Modellverteilung
fo ./ ohne Goldanteile eine Messreihe mit N D 100 Würfeln aus dem Erdreich.
Insgesamt 4 simulierte Experimente zei1
gen einen größeren Wert als die Daten. Die
Wahrscheinlichkeit, den Wert t D 17;1 oder
10 -1
einen größeren Wert zu finden, beträgt somit
10 -2
4=30:000 1;3 104 bzw. als einseitige
-3
10
Grenze 3,7 Standardabweichungen (7.8).
Damit ist es sehr wahrscheinlich, dass wir
10 -4
durch den Kauf der Schürfrechte tatsächlich
0
5
10
15
20
Gold finden!
t
Kapitel 8
Klassifizierung
In der experimentellen Physik möchten wir häufig eine bestimmte Sorte von Objekten oder Ereignissen untersuchen, die wir aber nicht als reinen Datensatz erhalten,
sondern nur mit einer Beimischung von Untergrundereignissen. Das Ziel von Klassifizierungsmethoden ist, interessante Ereignisse aufgrund ihrer Eigenschaften von
Untergrundereignissen abzutrennen.
In diesem Kapitel stellen wir als Methoden zur Klassifizierung von Objekten oder
Ereignissen die Fisher’sche Diskriminanten-Methode und die „Boosted-DecisionTrees“-Methode vor.
8.1 Fisher-Diskriminanten-Methode
Die Zielsetzung der Fischer’schen Diskriminanten-Methode wollen wir anhand des
folgenden Beispiels motivieren.
Beispiel: Fisher-Diskriminante
Wir möchten Äpfel und Birnen mit der Fisher-Diskriminante voneinander
unterscheiden.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_8, © Springer-Verlag Berlin Heidelberg 2013
127
8 Klassifizierung
128
Diese Früchte, Äpfel D A und Birnen D B, werden durch zwei Parameter
charakterisiert:
• Die Farbe F , das ist die Wellenlänge gemessen in Mikrometer, bei der das
im Sonnenlicht reflektierte Wellenlängenspektrum maximal ist. Zur Erinnerung: F 0;55 m ist grün, F 0;65 m ist rot, dazwischen liegt
gelb.
• Die relative Länge L, das ist die größte Längenausdehnung l der Frucht
dividiert durch ihre größte Dicke b, wobei l b ist, also L D l=b
Die folgende Tabelle zeigt die Messwerte für jeweils 10 Äpfel und 10 Birnen.
Äpfel A: F=m L
0,61
0,59
0,57
0,64
0,67
0,62
0,62
0,55
0,59
0,66
Birnen B: F=m
1,01
1,06
1,03
1,04
1,08
1,02
1,07
1,01
1,03
1,03
0,54
0,56
0,51
0,59
0,59
0,55
0,53
0,49
0,56
0,57
L
1,11
1,06
1,13
1,13
1,08
1,12
1,08
1,10
1,11
1,07
5
Äpfel
Birnen
4
N
N
Wie man aus den folgenden Histogrammen erkennt, ist eine vollständige Trennung der beiden Verteilungen mit einem einfachen Schnitt nicht möglich.
3
Äpfel
Birnen
2
3
2
1
1
0
0
0.4
0.5
0.6
0.7
0.8
Farbe F
1
1.05
1.1
1.15
Länge L
Schauen wir uns die beiden Eigenschaften Farbe und relative Länge in einem 2-dimensionalen Histogramm an, erkennen wir eine Korrelation, die wir für die Trennung der Äpfel und Birnen ausnutzen können.
Länge L
8:1 Fisher-Diskriminanten-Methode
129
1.15
1.1
Äpfel
Birnen
1.05
1
0.4
0.5
0.6
0.7
0.8
Farbe F
Allgemeines Verfahren
Wir werden jetzt zunächst das allgemeine Verfahren zur Bestimmung einer solchen
Trenngeraden von Fisher einführen und dann auf die N Messdaten anwenden. Dabei
bezeichnen wir nun allgemein die Eigenschaften mit xi . In unserem Beispiel bedeuten:
x1 D F
Farbe
Länge
x2 D L
Das Verfahren zum Auffinden der besten Trennung läuft in zwei Schritten:
1. Zunächst kombinieren wir die Messungen,
2. um sie anschließend zu trennen.
Die Mittelwerte und die Kovarianzen für die beiden Eigenschaften x1 ; x2 der
Klasse A (Äpfel) sehen folgendermaßen aus:
˝
N
1X
A
D
x1;j
N
(8.1)
N
˛
1X
A
x2A D
x2;j
N
(8.2)
x1A
˛
j D1
˝
j D1
A
D
Vk;m
N
1 X
N
˝ ˛
A
xk;i
xkA
˝ A˛
A
xm;j
;
xm
k; m D 1;2 :
(8.3)
i;j D1
B
Entsprechend berechnen wir die Mittelwerte hx1B i; hx2B i und Kovarianzen Vk;m
für
die Klasse B (Birnen).
Im Fisher-Verfahren werden nun die mittleren Kovarianzen
hVk;m i D
1
B
V A C Vk;m
2 k;m
(8.4)
und die inverse Kovarianzmatrix mit den Matrixelementen hV i1 k;m berechnet.
130
8 Klassifizierung
Als Testgröße t verwenden wir hier:
tD
2
X
hV i1
k;m
˝ A˛ ˝ B ˛
xm xm xk :
(8.5)
k;mD1
Falls die Kovarianzmatrix näherungsweise diagonal ist, ist auch die inverse Kovarianzmatrix ungefähr diagonal (vergleiche mit (6.59) und (6.61)):
!
12 0
O
V (8.6)
0 22
VO 1 1=12
0
0
1=22
!
:
Dann besteht die Testgröße aus einer gewichteten Summe:
˝ A˛ ˝ B ˛
˝ A˛ ˝ B ˛
x x
x1 x1
x1 C 2 2 2 x2
tD
2
1
2
„ ƒ‚
…
„ ƒ‚
…
g1
(8.7)
(8.8)
g2
D g1 x1 C g2 x2 :
(8.9)
Man erhält also größere Gewichte bei großen Differenzen der Mittelwerte bzw. kleinen Varianzen.
Geben wir nun einen Schwellenwert t D tc D const: vor, so erhalten wir eine
Gerade im 2-dimensionalen Histogramm
x2 D g1
tc
x1 C
;
g2
g2
(8.10)
deren Steigung durch die beiden Gewichte festgelegt ist und deren Achsenabschnitt
von der Wahl von tc abhängt. Diese Gerade nutzen wir zur optimalen Trennung der
beiden Ereignisklassen A und B.
Anwendung
Für unsere Äpfel- und Birnenmessungen berechnen wir nach den obigen Formeln
die Mittelwerte der Farben und Längen hF A i D 0;612 m, hLA i D 1;038, hF B i D
0;549 m, hLB i D 1;099 und die folgenden Kovarianzmatrizen:
!
FF FL
:
(8.11)
VO D
LF LL
8:2 Verfahren mit Boosted-Decision-Trees
131
Wir multiplizieren dabei mit dem Faktor 1000, um die kleinen Zahlenwerte einfacher aufschreiben zu können:
!
1;32 0;40
(8.12)
VOA 1000 D
0;40 0;54
!
0;95 0;14
O
VB 1000 D
:
(8.13)
0;14
0;57
Der Mittelwert der Kovarianzmatrizen ist:
VO 1000 D
1;13 0;14
0;14 0;55
!
:
(8.14)
Da die Nicht-Diagonalelemente klein sind, vernachlässigen wir diese und bekommen damit für die Testgröße t:
t D 55;6 F 110;4 L :
(8.15)
N
Die folgende Abbildung zeigt die Verteilung der t-Werte separat für die Äpfel- und
Birnenmessungen. Mit einem Schnitt bei tc D 85 kann man die beiden Obstsorten
vollständig voneinander trennen.
4
Äpfel
Birnen
3
2
1
0
-100 -95
-90
-85
-80
-75
-70
t
Die sich mit diesem Wert t D tc ergebende Gerade ist in der Abbildung weiter oben
bereits eingezeichnet. Auch hier sahen wir sofort, dass ein Schnitt entlang dieser
Linie besser funktioniert als ein Schnitt parallel zur F - oder L-Achse.
8.2 Verfahren mit Boosted-Decision-Trees
Bei der Methode der „Boosted-Decision-Trees“ ist das Ziel, Objekte oder Ereignisse
entweder der Klasse S oder der Klasse U zuzuweisen. Das Verfahren wird inzwischen häufig in der Teilchenphysik verwendet, um Signalereignisse S von Untergrundereignissen U zu trennen [7].
132
8 Klassifizierung
In allen Ereignissen seien m Eigenschaften xj bekannt, mit denen die Ereignisse
charakterisiert werden.
Zum Beispiel nehmen wir 100 fiktive Personen an, bei denen die Eigenschaften
Alter, Größe und Einkommen bekannt sind, und von denen 55 Personen in ihrem
Leben mindestens einen Unfall hatten. Ein Versicherungsmathematiker möchte mit
diesen Informationen Risikoabschätzungen durchführen. Er ordnet die 55 Personen mit Unfall der Gruppe S zu, die anderen bislang unfallfreien 45 Personen der
Gruppe U .
Das Verfahren beruht auf sequentiell ablaufenden Entscheidungsschritten, die in einem Baum (englisch: decision tree) von oben nach
unten verlaufen.
An jedem Entscheidungsknoten
wird eine einzelne Eigenschaft xj
des Ereignisses dazu verwendet, um
das Ereignis entweder links oder
rechts weiter zu untersuchen.
Gibt es keine weitere Entscheidung zu fällen, steht das Ergebnis
fest: Das Ereignis ist in einem vorwiegend signalartigen oder in einem
untergrundartigen Korb gelandet
und wird dementsprechend als „Signal“ oder „Untergrund“ klassifiziert.
Das Verfahren verläuft zweistufig. Im ersten Schritt wird die Sequenz der Entscheidungen festgelegt. Dazu benötigen wir einen Datensatz, bei dem wir wissen,
welches Ereignis zum Signal S gehört und welches zum Untergrund U . Im zweiten
Schritt durchlaufen Ereignisse die Entscheidungssequenzen des Baums und werden
entweder der Klasse S oder U zugeordnet.
Zur Vereinfachung nehmen wir NS D
2 Signalereignisse und NU D 1 Untergrundereignis. Die Verteilung der ersten
Eigenschaft x1 dieser Ereignisse sehe folgendermaßen aus:
Wir müssen nun entscheiden, wo wir den
Entscheidungsschnitt in x1 optimal setzen.
Dazu minimieren wir ein sogenanntes Gini-Kriterium:
G .NS C NU / p .1 p/ :
(8.16)
Dabei ist p die Signalreinheit:
p
NS
:
NS C NU
(8.17)
8:2 Verfahren mit Boosted-Decision-Trees
133
Setzen wir den Schnitt optimal links zwischen das Signal- und das Untergrundereignis, so erhalten wir für den Weg nach links:
0
0
1
D0:
Glinks D .0 C 1/
1
1
Für den Weg nach rechts ergibt sich
Grechts
2
D .2 C 0/
2
2
1
D0;
2
also insgesamt
Glinks C Grechts D 0 :
(8.18)
Würden wir den Schnitt ungünstig rechts zwischen die beiden Signalereignisse setzen, so erhalten wir für den Weg nach links
1
1
1
Glinks D .1 C 1/
1
D
2
2
2
und den Weg nach rechts
Grechts D .1 C 0/
1
1
1
1
D0;
1
also insgesamt
Glinks C Grechts D
1
:
2
(8.19)
Mit diesem Algorithmus werden alle Eigenschaften xj vom Computer automatisiert
untersucht und der Entscheidungsbaum anhand der minimalen Werte von Glinks C
Grechts gebaut. Damit könnten also bereits neue, unbekannte Ereignisse klassifiziert
werden.
Da solche einfachen Entscheidungsbäume
zu häufig falsche Entscheidungen treffen,
wird eine wesentliche Verbesserung dadurch
erzielt, dass man viele – mehrere hundert –
Entscheidungsbäume konstruiert. Mit diesen Bäumen berechnen wir ein Mehrheitsvotum darüber, ob ein einzelnes Ereignis eher
„Signal“ oder „Untergrund“ ist. Dieses Verfahren wird auf Englisch „Boost“ genannt
und hat dem Verfahren den Namen BoostedDecision-Trees eingebracht.
134
8 Klassifizierung
Die Signalreinheit p und das Gini-Kriterium G wird dafür durch Gewichte wi für
die Ereignisse modifiziert. Anstelle der Ereignisanzahlen stehen jetzt die Summen
über die Gewichte für Signal- und Untergrundereignisse:
WS D
NS
X
wS;i
(8.20)
wU;i :
(8.21)
i D1
WU D
NU
X
i D1
Dementsprechend lauten jetzt die Signalreinheit und das Gini-Kriterium:
WS
WS C WU
G D .WS C WU / p .1 p/ :
pD
(8.22)
(8.23)
Anfangs haben alle Ereignisse das Gewicht wi D 1, so dass WS D NS und WU D
NU gilt.
Nach Konstruktion des ersten Entscheidungsbaums wird nachgeschaut, welche
Signalereignissen versehentlich in einem untergrundartigen Korb gelandet sind.
Diese Ereignisse bekommen ein anderes Gewicht wi > 1, bevor der nächstfolgende
Entscheidungsbaum konstruiert wird. Auf diese Weise sieht jeder Entscheidungsbaum anders aus.
Am Ende durchläuft jedes Ereignis i also viele Entscheidungsbäume, von denen
jeder Baum k ein eindeutiges Votum abgibt:
Tk .i / D 1 W „Signal“
Tk .i / D 1 W „Untergrund“ :
(8.24)
Alle Informationen über das Ereignis i werden dann in einer Entscheidungsvariablen D.i / kondensiert, die eine gewichtete Summe aus allen Entscheidungsbäumen
ist:
D.i / D
1
NBäume
NX
Bäume
˛k Tk .i / :
(8.25)
kD1
Dabei ist ˛k ein Baumgewicht, das auf der Basis der oben genannten Fehlentscheidungen des Entscheidungsbaums k berechnet wird und ein Gütekriterium darstellt.
8:2 Verfahren mit Boosted-Decision-Trees
135
Beispiel: Boosted-Decision-Trees
N Stadt
N Land
Ein Versicherungsunternehmen untersucht die Versicherungsfälle des Vorjahres in Abhängigkeit des Wohnorts und des Alters der Versicherungsnehmer.
Das Ziel ist, die Risiken neu einzuschätzen.
1000
1000
500
500
0
20
40
60
80
Alter
0
20
40
60
80
Alter
Links sind die Daten der auf dem Land wohnenden Versicherungsnehmer
abgebildet und rechts die Daten derer, die in der Stadt leben. Die Histogramme
beziehen sich auf alle Versicherten, die Symbole zeigen die insgesamt ca. 5 %
Versicherungsfälle.
Wir erarbeiten nun eine Unterscheidungsgröße, mit der wir die Versicherten in Gruppen mit geringerem bzw. größeren Risiko einteilen. Eine solche
Einteilung ist anhand der gegebenen Daten nicht offensichtlich.
136
8 Klassifizierung
Versicherungsfälle %
Wir verwenden das Verfahren der Boosted-Decision-Trees und nehmen aus
12.000 Versicherungsnehmern diejenigen mit Versicherungsfall als Signaldatensatz und diejenigen ohne Versicherungsfall als Untergrunddatensatz. Als
Eigenschaften verwenden wir Wohnort (Distanz vom Stadtkern in km) und
Alter und bestimmen damit die Entscheidungsbäume, von denen einer in der
Abbildung auf der vorherigen Seite gezeigt ist.
Alle Informationen werden in der Messgröße D der Boosted-DecisionTrees zusammengefasst. In der folgenden Abbildung haben wir weitere 12.000
versicherte Personen anhand der Entscheidungsbäume analysiert. Sie waren
beim Bau der Entscheidungsbäume nicht verwendet worden. Der Wertebereich liegt hier zwischen 1 < D < 0, was durch Wahl der Details in der
gewichteten Summe (8.25) verursacht wird und keine tiefere Bedeutung hat.
Offenbar verursachen Versicherungsnehmer, bei denen die Messgröße
15
D < 0;2 ist, weniger Versicherungsfälle als der Durchschnitt von ca.
10
5 % und repräsentieren damit eine
Niedrigrisikogruppe. Versicherungs5
nehmer mit D > 0;2 bilden die
Hochrisikogruppe.
0
-1
-0.5
0
0.5
1
D
Kapitel 9
Systematische Fehler
Die systematischen Fehler eines Experiments zu bestimmen ist eine anspruchsvolle
Aufgabe, bei der wir das limitierte Wissen über die verwendete Messapparatur und
seine Auswirkungen auf das Messergebnis quantitativ erfassen müssen.
Dafür grenzen wir zunächst den Rahmen ein, innerhalb dessen systematische
Fehler berücksichtigt werden. Dann stellen wir typische Überlegungen zur Identifizierung und Korrektur von Fehlerquellen vor.
Schließlich geben wir Verfahren an, um die Auswirkungen vieler einzelner systematischer Unsicherheiten eines Experiments auf das Messresultat in einer Fehlerangabe zusammenzufassen.
9.1 Einordnung
In Physikerkreisen entsteht immer dann eine positive Aufregung, wenn ein Messergebnis von einem Literaturwert, vom Weltmittelwert oder von einer Theorievorhersage um mehr als drei (besser fünf) Standardabweichungen abweicht.
Dann stellt sich die wichtige Frage, ob es sich hier um einen Hinweis auf bislang
unentdeckte physikalische Phänomene handelt, oder ob die Abweichung aus einem
unberücksichtigten systematischen Fehler resultiert. Die korrekte Evaluierung der
systematischen Fehler ist also für das Messresultat eines Experiments von grundlegender Bedeutung!
Die naive Annahme, man könnte die Abweichung vom Literaturwert zur Bestimmung eines systematischen Fehlers heranziehen, wäre fatal: Man würde ja früheren
Irrtümern aufsitzen oder könnte neue Entdeckungen verpassen.
Der Messfehler eines Messergebnisses wird immer für das jeweilige Experiment ermittelt. Die Fehlerangabe soll für statistische und systematische Fehler den
Bereich von ˙1 Standardabweichung zeigen, so dass die Messergebnisse verschiedener Experimente zu genaueren Werten kombiniert werden können.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_9, © Springer-Verlag Berlin Heidelberg 2013
137
138
9 Systematische Fehler
Beispiel: Messungen der Neutronenlebensdauer
Der zeitliche Verlauf von Messergebnissen zur Neutronenlebensdauer zeigt,
wie wichtig eine korrekte Analyse systematischer Fehler ist.
Während die Messgenauigkeit im Laufe der Jahre
immer besser wurde, zeigt
der zeitliche Verlauf eine Verschiebung des Mittelwerts, der
mit den ursprünglich angenommen Genauigkeiten kaum
vereinbar ist [10]. Offenbar
gab es anfangs Probleme bei
der Bestimmung der systematischen Fehler.
9.1.1 Unterscheidung statistischer und systematischer Fehler
Statistische Fehler entstehen durch Zufallsprozesse. Wir können sie mit exakten
mathematischen Methoden berechnen, die wir bereits im ersten Kapitel skizziert
und dann in den folgenden Kapiteln vorgestellt und begründet haben.
Systematische Fehler verursachen Verschiebungen in den Messwerten. Wenn
man mehrere Messungen im Kontext einer Messreihe durchführt, können alle zugehörigen statistischen Fehler unabhängig voneinander sein, während die systematischen Fehler vollständig korreliert sein können, da dieselbe Messapparatur verwendet wird. Zum Beispiel werden alle Messwerte aufgrund einer fehlerhaften Eichung
der Apparatur zu etwas höheren Messwerten als der wahre Wert verschoben.
Angaben für die systematischen Fehler reflektieren eigentlich die Unkenntnis der
Physiker über ihre Apparatur. Man könnte deswegen präziser von Unsicherheiten
sprechen anstelle von Fehlern. Denn solche systematischen Fehler haben zunächst
nichts mit Fehlern des messenden Physikers zu tun, die natürlich auch vorkommen
können.
Beispiele für solche Physikerfehler wäre ein großer systematischer Fehler aufgrund einer nicht erfolgten Kalibrationen einer Uhr, die man vor der Messung hätte
durchführen können. Ein anderes Beispiel ist die Verwendung von temperaturempfindlicher Elektronik ohne Protokollierung der Temperatur, so dass die Kenntnis der
Experimentierbedingungen unvollständig bleibt.
9:2 Vorgehen
139
9.1.2 Rahmenbedingungen für systematische Fehler
Eine physikalische Messgröße wird immer innerhalb eines theoretischen Rahmens
angegeben. Dieser Rahmen kann explizit aufgeschrieben sein. Er kann durch eine
Konvention der Physiker vereinbart sein. Der Rahmen kann aber auch implizit durch
„common sense“ (was als vernünftig angesehen wird) gegeben sein.
Nur wenn solche Rahmenbedingungen in einem Experiment tatsächlich eingehalten sind, erhalten wir ein sinnvolles Messergebnis.
Zum Beispiel werden in einem Experiment die Ablenkungen verschieden geladener Teilchen im Magnetfeld gemessen. Dabei wird als Elementarladung qe D
.1;602176565 ˙ 0;000000035/ 1019 C [8] vorausgesetzt. Eine solche mit den
Rahmenbedingungen verknüpfte Annahme ist nicht Bestandteil der systematischen
Fehler eines Experiments. Seine systematischen Fehlerangaben beziehen sich auf
die Unsicherheiten innerhalb des Rahmens.
Die Grenze des Rahmens kann aber in einem Experiment verschoben werden.
Wird bei der Ablenkung der Teilchen im Magnetfeld die Elementarladung nicht vorausgesetzt, sondern aus einer Kalibrationsmessung gewonnen, so trägt dieser Fehler
zum systematischen Gesamtfehler des Experiments bei.
9.2 Vorgehen
Die Bestimmung von systematischen Fehlern einer Messung ist
1. Detektivarbeit, bei der man Fehlerquellen aufdecken muss,
2. physikalisch-philosophische Überlegung, ob die Unkenntnis innerhalb oder außerhalb des theoretischen Rahmens liegt,
3. professionelle Datenanalyse, bei der a) die Fehler in ihrer Wichtigkeit priorisiert werden, b) eventuell geeignete Korrekturen eingeführt werden, und c) alle
Unsicherheiten in einem gesamten Messfehler zusammengefasst werden.
Man kann sich leicht vorstellen, dass verschiedene Wissenschaftler systematische Fehler für ein und dieselbe Messung unterschiedlich abschätzen werden. Die
unterschiedliche Denkweise bietet die Chance, systematischen Fehlern möglichst
vollständig auf die Spur zu kommen. Wissenschaftliche Diskussionen darüber sind
also im Allgemeinen sehr willkommen.
Damit experimentelle Resultate quantitativ miteinander verglichen werden können, versucht man sich zumindest in den verschiedenen wissenschaftlichen Forschungsbereichen auf Konventionen in der Fehlerbestimmung zu einigen.
9.2.1 Identifikation von Fehlerquellen
Die systematischen Unsicherheiten entsprechen Effekten, deren Einfluss auf den
Messwert abgeschätzt werden muss. Viele solcher Effekte muss man als Physiker
140
9 Systematische Fehler
erst aufdecken. Das heißt man muss sehr kritisch und sorgfältig alle Annahmen beim
Messprozess hinterfragen.
Beispiel: Suche nach systematischen Fehlerquellen
Typische Überlegungen für die Suche nach systematischen Fehlerquellen sind:
Kalibration: Unsicherheiten kann es in der Kalibration des Experiments
beziehungsweise in einzelnen Komponenten des Experiments geben. Dabei
kann es sich um Zeit-, Energie-, Temperaturmessungen und so weiter handeln.
Untergrund: Weitere Möglichkeiten sind Störeffekte im Versuch, wie zum
Beispiel Rauschen bei der Signalaufnahme, Vibrationen in der Apparatur
oder der Umgebung und andere Effekte, die oft als Untergrund bezeichnet
werden.
Veränderliche: Systematische Fehlerquellen sind auch Abhängigkeiten von
der Zeit, der Feuchtigkeit, der Temperatur oder von Bewegungen.
Modelle: Auch Unsicherheiten in für die Messung verwendeten theoretischen Modellen können zu systematischen Unsicherheiten beitragen. Bei
der Modellierung über Simulationsprogramme kann die dort verwendete
Ereignisstatistik systematische Unsicherheiten erzeugen.
Parameter: Unsicherheiten in einzelnen Parametern, wie z. B. der Ausdehnungskoeffizient eines Materials, erzeugen systematische Fehlerquellen,
wie wir im Beispiel weiter unten darlegen werden.
Die sorgfältige Protokollierung der Umgebungsdaten – z. B. Uhrzeit, Temperatur, besondere Vorkommnisse – ist bei der Durchführung eines Experiments für die
Evaluierung der systematischen Effekte eine Selbstverständlichkeit.
Bei systematischen Fehlerquellen kann es zu Verkettungen von Unsicherheiten
kommen, so dass auch hier Berechnungen zur Fehlerfortpflanzung (Kap. 5) erforderlich sein können.
9:2 Vorgehen
141
Experiment: Systematischer Fehler 1: Tischgröße
Ein Physiker misst die Länge eines Wohnzimmertischs bei Zimmertemperatur
von 20 ı C mit Hilfe eines Plastiklineals zu
l0 D 2;413 m :
Um den systematischen Fehler der Messung abzuschätzen, verwendet er drei
weitere Lineale aus verschiedenen Materialien für die Messung der Tischlänge
und findet:
l1 D 2;410 m
l2 D 2;413 m
l3 D 2;414 m :
Er fasst die systematische Unsicherheit durch das Verwenden verschiedener
Lineale mit Hilfe der Standardabweichung (1.5) zu syst D 0;003 m zusammen und präsentiert als Resultat
l D .2;413 ˙ 0;003/ m :
(9.1)
Experiment: Systematischer Fehler 2: Tischgröße
Nach Diskussion mit Kollegen untersucht der Physiker das Plastiklineal, mit
dem er die Länge des Wohnzimmertischs bestimmt hat. Um den systematischen Fehler dieser Messung genauer abzuschätzen wärmt er das Plastiklineal
vor weiteren Messungen in der Sonne auf (40 ıC) und kühlt es dann im Kühlschrank (0 ı C) ab:
l0 ı C D 2;418 m
l40 ı C D 2;409 m :
Als systematische Fehlerangabe wählt er die Hälfte der maximalen Variation
über den gesamten Bereich syst D 0;005 m und gibt als sein zweites Resultat
an:
l D .2;413 ˙ 0;005/ m :
In einem späteren Beispiel wird der Physiker nach weiteren Überlegungen
feststellen, dass diese Fehlerabschätzung zum einen zu konservativ ist, zum
anderen die Temperaturunsicherheit gar nicht den Hauptbeitrag zum systematischen Fehler ergibt.
142
9 Systematische Fehler
9.2.2 Angabe des Fehlerbereichs
Jeder mögliche systematische Effekt wird individuell daraufhin untersucht, wie
stark er das Endergebnis der Messung verändern kann. Oft hilft dabei schon eine
Abschätzung mit Hilfe der Herstellerangabe über die Eichgenauigkeit verwendeter
Geräte.
Beispiel: Eichgenauigkeiten
Gerät
Referenzwert Eichgenauigkeit
Laser-Entfernungsmesser 50 m
Lautstärkemesser
1 kHz
˙1 mm
˙3;5 dB
Alternative Möglichkeiten bestehen in der Anwendung physikalischer Konzepte
auf die Situation des Experiments zur Berechnung der systematischen Effekte.
Beispiel: Physikalische Konzepte
Gesetz
Stokes’sche Reibung
FER D 6 r vE
Temperaturausdehnung L D Lı .1 C ˛.T Tı //
Benötigen wir die Luftreibung als Funktion der Geschwindigkeit, können wir den
zugehörigen systematischen Fehler mit Hilfe des Stokes’schen Reibungsgesetzes
abschätzen.
9:2 Vorgehen
143
Beispiel: Reibungskraft
Wir wollen die Unsicherheit in der Reibungskraft abschätzen, die eine durch
die Luft fliegende Kugel mit Radius r D 5 cm erfährt.
Den Kugelradius können wir auf r D 0;1 cm genau bestimmen. Die Viskosität D 17 Pa s von Luft sei uns mit der Genauigkeit D 2 Pa s
bekannt. Die Unsicherheit auf die Kugelgeschwindigkeit von v D 100 km=h
sei 10 %.
Die Stokes’sche Reibung FER D 6 r vE enthält alle Größen als Produkt,
so dass wir nach (5.26) die relativen Fehler quadratisch addieren müssen:
v
!
!2
!2
u
u 2
r
v
FR
t
D
C
C
FR
r
v
D
p
0;122 C 0;022 C 0;12 D 0;16 :
Die Reibungskraft an der Kugel hat hier eine relative systematische Unsicherheit von 16 %.
Die individuellen systematischen Fehler werden möglichst so angegeben, dass
ihr Fehlerintervall ˙1 Standardabweichung entspricht, also dem Intervall für statistische Fehler. In der Regel ist damit das 68 % Wahrscheinlichkeitsintervall gemeint,
innerhalb dessen eine unabhängige Messung liegen müsste (3.62). Durch diese Konvention kann man systematische und statistische Fehler sinnvoll miteinander kombinieren.
Wenn nur wenig Informationen über einen Fehler vorliegen, wird in der Praxis
häufig auch die maximale Schwankungsbreite zwischen zwei extremen Szenarien
halbiert und dann als systematischer Fehlerbeitrag verwendet.
Systematische Fehler sollen sicher nicht übertrieben extreme Szenarien abdecken, sondern die Wahrscheinlichkeitsinterpretation soweit möglich berücksichtigen. Zum Beispiel ist bei nicht exakt bekannter Zimmertemperatur in unseren Breitengraden typischerweise 18–25 ıC ein vernünftiger Bereich, ein Bereich von 10–
35 ı C wäre übertrieben konservativ.
Durch die Fehlerangabe in Form der Standardabweichung können die Messungen unterschiedlicher Experimente miteinander verglichen oder sogar zu genaueren
Resultaten kombiniert werden. Beispiele für solche Kombinationen sind die Bildung von Weltmittelwerten für fundamentale Parameter wie z. B. die Ladung des
Elektrons oder die Massen von Teilchen.
144
9 Systematische Fehler
9.2.3 Korrekturen für systematische Fehler
Wie bei allen Fehlerquellen, ob statistisch oder systematisch, muss die Reduzierung
der dominanten Beiträge zum Gesamtfehler eines Messresultats höchste Priorität
haben. Es macht keinen Sinn, winzige Effekte bearbeiten zu wollen, wenn die entsprechenden Beiträge zum Gesamtfehler ohnehin vernachlässigbar gering sind.
Ist eine systematische Fehlerquelle nicht reduzierbar, geht diese Unsicherheit
unmittelbar in den systematischen Gesamtfehler ein. Beispiele für solche Fehler
sind nicht genau bekannte physikalische Effekte wie z. B. Turbulenzeffekte in Luft.
Ein anderes Beispiel sind theoretische Rechnungen, bei denen Lösungen für führende Terme bekannt sind, Korrekturterme aber derzeit noch nicht berechnet werden können. Kann der Einfluss einer systematischen Unsicherheit verkleinert werden, und lohnt sich der Aufwand im Vergleich zu anderen Messfehlern, wird der
Einfluss der Fehlerquelle durch eine geeignete Korrekturprozedur reduziert.
Zum Beispiel kann man eine zunächst in Kauf genommene temperaturbedingte
Ausdehnung korrigieren, wenn man die Temperatur beim Versuch gemessen hat.
Damit kann zwar die systematische Unsicherheit verringert werden, aber es bleibt
im Allgemeinen eine Restunsicherheit bestehen, die im systematischen Fehler berücksichtigt werden muss. Bei der Ausdehnung sind ja weder Temperatur noch der
Ausdehnungskoeffizient exakt bekannt, sondern weisen einen Fehler auf, der die
Genauigkeit der Korrektur begrenzt.
Experiment: Systematischer Fehler 3: Tischgröße
Der Physiker überlegt noch einmal, wie die Genauigkeitsangabe der
Tischlänge verbessert werden kann. Aus den Messungen nach Aufwärmen
des Plastiklineals in der Sonne auf 40 ı C und Abkühlung im Kühlschrank
(0 ı C) berechnet er den Ausdehnungskoeffizienten ˛ des Lineals .L D
Lı Œ1 C ˛.T Tı //:
˛D
1
0;009 m
0;0001 :
2;413 m 40 K
K
Wenn die Zimmertemperatur von 20 ı C auf ˙1 ı C bekannt ist, dann wäre der
systematische Fehler aufgrund der Temperaturausdehnung des Plastiklineals
deutlich kleiner, als zunächst angenommen:
syst D 0;0001 m :
Im Vergleich zu den ersten Messungen mit den drei weiteren Linealen ist der
Fehlerbeitrag durch Temperatureffekte vernachlässigbar klein. Der systematische Fehler des Ausdehnungskoeffizienten spielt demnach hier ebenfalls keine
Rolle. Das zuerst präsentierte Resultat (9.1) zeigt bereits einen dominanten
Fehlerbeitrag durch die Ungenauigkeit der Längenskala.
9:3 Zusammenfassen von Fehlern
145
Eventuell wird man für die Korrektur systematischer Effekte komplexe Simulationen oder Rechnungen zu Hilfe nehmen, um diese Effekte genauer verstehen zu
können. Bei den großen Experimenten der Teilchenphysik z. B. werden heutzutage
solche Simulationen zur Korrektur und Analyse der systematischen Fehlerbeiträge
regelmäßig verwendet.
In bestimmten Situationen ermöglicht die Anwendung von Erhaltungssätzen,
eine Korrektur für eine systematische Fehlergröße abzuschätzen. In der Teilchenphysik nutzt man z. B. die Impulserhaltung beim Zerfall des sogenannten Z-Teilchens in ein Elektron-Positron-Paar, um gleichmäßige Energiemessungen über den
gesamten instrumentierten Raumwinkelbereich des Detektors zu erreichen und die
Genauigkeit der Energiemessungen zu quantifizieren.
9.3 Zusammenfassen von Fehlern
9.3.1 Unkorrelierte systematische Fehlerquellen
Falls die systematischen Unsicherheiten unabhängig voneinander variieren, d. h. sie
sind nicht korreliert, so können wir die Einzelbeiträge i im Rahmen des Fehlerfortpflanzungsgesetzes durch quadratische Addition zusammenfassen (5.23):
2
D 12 C 22 C : : : C n2
sys
:
(9.2)
Ein Messresultat mit statistischem und systematischem Fehler können wir dann zum
Beispiel folgendermaßen angeben:
x D .10;0 ˙ 1;2 (stat.) ˙ 1;0 (sys.)/ m :
Da die statistischen und systematischen Fehler ebenfalls unabhängig voneinander
sind, werden sie häufig auch quadratisch zu einem Gesamtfehler addiert:
x D .10;0 ˙ 1;6/ m :
146
9 Systematische Fehler
9.3.2 Korrelierte systematische Fehlerquellen
Beispiel: Korrelierte systematische Fehler
In Abschn. 6.2 hatten wir als Beispiel für die Methode der kleinsten Quadrate
einen Gaszylinder geheizt und die lineare Ausdehnung des Gases entlang einer
Stempelachse als Funktion der Temperatur T gemessen.
Natürlich wird sich mit T nicht nur das im Zylinder enthaltene Gas ausdehnen, sondern auch der Zylinder selbst vergrößert sein Volumen V in alle
Raumrichtungen.
Die systematische Unsicherheit T der Temperaturmessung ist daher mit
der systematischen Unsicherheit V korreliert, die das Zylindervolumen V in
der Messung verursacht.
Falls die systematischen Fehler i miteinander korreliert sind, wird manchmal
eine Abschätzung des gesamten systematischen Fehlers durch lineare Addition versucht:
(9.3)
sys D 1 C 2 C : : : C n :
Ob diese Vorgehensweise korrekt ist, können wir zum Beispiel für zwei korrelierte
Fehlerquellen x1 ; x2 untersuchen, die den Messwert f linear verschieben:
f D x1 C x2 :
(9.4)
Die Kovarianzmatrix der systematischen Fehler lautet (5.19):
VO D
12
12
12
22
!
:
(9.5)
Das Fehlerfortpflanzungsgesetz ergibt in diesem Fall (5.20):
f2 D 12 C 22 C 212 :
Setzen wir den Korrelationskoeffizienten 1 1 ein (3.72), so erhalten wir:
f2 D 12 C 22 C 2
q
12 22 :
Für Größen, die mit D 1 korreliert sind
f2 D 12 C 22 C 2
q
12 22 ;
(9.6)
9:3 Zusammenfassen von Fehlern
147
ist die lineare Summe der Fehler korrekt:
f D 1 C 2 :
(9.7)
Für antikorrelierte Größen . D 1/ ergibt sich:
f D j1 2 j :
(9.8)
Für unkorrelierte Größen . D 0/ erhalten wir die quadratische Summe (9.2):
q
f D 12 C 22 :
(9.9)
Für die korrekte Kombination der systematischen Fehler entsprechend der Wahrscheinlichkeit eines 68 %-Bereichs sind also Kenntnisse über die Kovarianzmatrix
(9.5) erforderlich.
Ist die Kovarianzmatrix unbekannt, so ergibt die lineare Addition der systematischen Fehler (9.7) hier den größtmöglichen Fehler und damit eine – möglicherweise
übertrieben – konservative Fehlerabschätzung.
9.3.3 Methode nach Bayes Theorem
fg
fo
N
In diesem Abschnitt stellen wir eine Methode vor, mit der systematische Fehler
und statistische Fehler korreliert zu einem Gesamtfehler eines Messresultats zusammengefasst werden können. Dabei nutzen wir unsere Kenntnisse über das Theorem
von Bayes (Abschn. 2.4), die Poisson-Verteilung (Abschn. 3.3) und über Parameterschätzungen mit der Likelihood-Funktion (Abschn. 6.1).
Wir betrachten noch einmal das Gedankenexperiment mit der Goldsuchmaschine
(Abschn. 7.5). In einem bislang unerforschten Gebiet möchten wir den Anteil der
Erdwürfel mit Gold bestimmen und den Messfehler inklusive der systematischen
Unsicherheiten angeben.
Dazu führen wir Dichtemessungen mit N D 300 Erdproben durch, die in der
Abbildung gezeigt sind.
60
0.2
0.2
0.1
0.1
40
20
0
4
6
0
8
ρ
4
6
0
8
ρ
4
6
8
ρ
148
9 Systematische Fehler
Wir verwenden wieder das Modell (7.33) mit den diskreten Wahrscheinlichkeitsdichten fg für Erdwürfel mit Goldanteil und fo für Erdwürfel ohne Goldanteil und
dem Anteilsfaktor a:
(9.10)
f .; a/ D N a fg ./ C .1 a/ fo ./
Um den Anteil a der Erdwürfel mit Gold aus den Messungen zu bestimmen, verwenden wir die Maximum-Likelihood-Methode zusammen mit dem Theorem von
Bayes. Zunächst ermitteln wir den optimalen Wert aN und seinen statistischen Fehler.
Im dann folgenden Teil erweitern wir das Verfahren und zeigen, wie man systematische Effekte im Messergebnis berücksichtigt.
Parameterschätzung mit statistischem Fehler
In jedem Intervall j unserer oben gezeigten Dichteverteilungen betrachten wir den
Modellwert f .j ; a/ für einen gegebenen Goldanteil a als den Mittelwert j einer
Poisson-Verteilung (3.47). Die Anzahl der Messwerte nj in diesem Intervall j variiere mit der Poisson-Wahrscheinlichkeit um diesen Mittelwert j :
n
Pj .nj jj / D e j j j
nj Š
:
(9.11)
Aus allen m Intervallen des Histogramms bilden wir die Likelihood-Funktion
L.a/ D
m
Y
Pj .nj jj /
(9.12)
j D1
und erhalten durch das Maximum der Likelihood-Funktion den optimalen Anteil aN
anhand der Daten (6.3):
@Lˇˇ
D0:
ˇ
N
@a aDa
Wir haben mit dieser Likelihood-Anpassung ein Maß für die bedingte Wahrscheinlichkeit p.datenja/ (2.25) ermittelt, dass wir bei gegebenem Goldanteil a die beobachtete Datenverteilung erhalten:
p.datenja/ D const:0 L.a/ :
(9.13)
Unser eigentliches Ziel ist die umgekehrte bedingte Wahrscheinlichkeit, dass sich
bei den gegebenen Daten der Goldanteil a ergibt:
p.ajdaten/ :
(9.14)
Wie wir im Abschn. 6.1 erläutert haben, erhalten wir diese A-posteriori Wahrscheinlichkeitsverteilung (2.24) über das Theorem von Bayes (2.26):
p.ajdaten/ D p.datenja/
p.a/
:
p.daten/
(9.15)
9:3 Zusammenfassen von Fehlern
149
Die Wahrscheinlichkeit p.daten/ für die bereits genommenen Daten ist konstant
und braucht bei der Anpassung des Goldanteils a nicht berücksichtigt zu werden.
Wir benötigen nun noch eine A-priori-Verteilung p.a/ (2.28) für den Anteil a
der Erdwürfel mit Gold. Dann entspricht wegen (9.13) das Produkt aus der Likelihood-Verteilung L.a/ und der A-priori-Verteilung p.a/ bis auf eine Normierungskonstante c der A-posteriori Wahrscheinlichkeitsverteilung:
p.ajdaten/ D c L.a/ p.a/ :
(9.16)
Wir nehmen hier an, dass jeder mögliche Goldanteil zwischen 0 a 1 gleichwahrscheinlich ist, so dass wir als A-priori-Verteilung wählen:
p.a/ D 1 :
(9.17)
In diesem Fall ergeben sich die Kenngrößen der A-posteriori-Verteilung direkt über
die Likelihood-Verteilung (vergleiche mit (6.8)):
Aus der A-posteriori-Verteilung können wir
direkt den wahrscheinlichsten Wert des
Goldanteils a ablesen. Den statistischen Fehler von a erhalten wir aus dem Intervall um
den wahrscheinlichsten Wert, in dem 68 %
der Flächen unter der Kurve liegt (Durchführung der Datenanalyse: Robert Fischer)
a D 0;34 ˙ 0;04 :
p(a|daten)
p.ajdaten/ D const: L.a/ :
(9.18)
0.15
0.1
0.05
0
(9.19)
0
0.1 0.2 0.3 0.4 0.5
a
Parameterschätzung mit systematischen Fehlern
S
Für ein vollständiges Messresultat wollen wir nun auch systematische Fehler in
die Datenauswertung einbeziehen. Das Resultat unserer Dichtemessung wird offensichtlich von der Luftfeuchtigkeit H beeinflusst, die zur Zeit der Probenentnahme
herrschte.
Die Luftfeuchtigkeit betrage H D 60 %
0.15
bei einer Messgenauigkeit von H D 2 %.
Wir behandeln diesen Effekt als systemati0.1
schen Fehler entsprechend der abgebildeten
Gauß-Verteilung S.H / mit der Standardab0.05
weichung H D 2 %.
Die systematische Unsicherheit in der
0
55
60
65
Luftfeuchtemessung verändert unsere MoH
dellfunktion f .; a/ (9.10). Wir erweitern
daher f um eine weitere Dimension, so dass
150
9 Systematische Fehler
f
wir sowohl den Goldanteil a, als auch die Luftfeuchtigkeit H variieren können:
f .; H; a/.
In der Abbildung zeigen wir für einen vorgegebenen Goldanteil a die Modellverteilung f .; H; a/ zur besseren Übersicht nur an den Stellen Hı , Hı C H und
Hı H . Für die weiteren Berechnungen müssen natürlich auch alle anderen Werte
von f gefüllt werden.
H
0.2
62
0.1
60
58
0
4
6
8
ρ
Die Likelihood-Funktion L (9.12) muss nun ebenfalls sowohl den Goldanteil a, als
auch die Luftfeuchtigkeit H berücksichtigen können. Mit der erweiterten Modellfunktion f .; H; a/ erhalten wir für vorgegebene Wertepaare .H; a/ in jedem
Dichteintervall j den Mittelwert j der Poisson-Verteilung Pj .nj jj /, so dass
sich als modifizierte Likelihood-Funktion ergibt:
L0 .a; H / D
m
Y
Pj .nj jj / :
(9.20)
j D1
Um die Ungenauigkeit H in der Luftfeuchtigkeitsmessung bei der Bestimmung der
A-posteriori-Verteilung p.ajdaten/ zu berücksichtigen, modifizieren wir (9.16) mit
L0 .a; H / und einer A-priori-Verteilung S.H / für die Luftfeuchtigkeit:
Z
p.ajdaten/ D c L0 .a; H / p.a/ S.H / dH :
(9.21)
Wir integrieren über den Einfluss der Luftfeuchtigkeit, da uns als Messergebnis
lediglich die Angabe des Goldanteils a und sein Fehler interessieren. Bevor wir den
Einfluss der Luftfeuchtigkeit auf p.ajdaten/ erläutern, erklären wir die einzelnen
Terme der Gleichung.
In (9.21) ist c ein Normierungsfaktor für p.ajdaten/ analog zu (9.16). Der
Goldanteil a soll wieder frei zwischen Œ0; 1 variieren, so dass wir für die A-prioriVerteilung wieder p.a/ D 1 verwenden (9.17).
Als A-priori-Verteilung für die Luftfeuchtigkeit H verwenden wir die oben abgebilidete Verteilung S.H /. Wir gehen davon aus, dass die systematische Unsicherheit von H klein ist, weswegen große Variationen in H durch die Gauß-Verteilung
gedämpft werden sollen.
9:3 Zusammenfassen von Fehlern
151
p(a|daten)
Um den Einfluss der Luftfeuchtigkeit auf das Ergebnis von (9.21) zu verstehen, machen wir folgende Überlegung. Das erweiterte Modell f .; H; a/ passe bei
einem gegebenem Goldanteil, z. B. a D 0;3, an der Stelle H D Hı C 0;2 H insgesamt besser an die Daten, als bei dem nominellen Wert a.Hı / D 0;34 (9.19).
Dadurch wird der Likelihood-Term L0 .a; Hı C 0;2 H / bei der Integration in
(9.21) einen großen Beitrag liefern, der durch die Multiplikation mit der A-prioriVerteilung S.Hı C 0;2 H / noch etwas gedämpft wird. Die A-posteriori-Verteilung
p.ajdaten/ kann dadurch im Vergleich zur oben gezeigten, rein statistischen Auswertung etwas breiter werden und leicht verschoben sein.
In der Abbildung ist die resultierende
A-posteriori-Verteilung p.ajdaten/ gezeigt.
0.15
Unser Messergebnis mit seinem gemeinsamen statistischen und systematischen Fehler
0.1
lesen wir direkt aus dieser Verteilung ab. Die
gestrichelten Linien zeigen den Bereich, in
0.05
dem 68% der Werte liegen:
a D 0;28C0;06
0;05 :
0
(9.22)
0
0.1 0.2 0.3 0.4 0.5
a
N
Der Gesamtfehler ist etwas größer als der
statistische Fehler (9.19).
In der Abbildung ist das Modell mit
dem angepassten Goldanteil a im Vergleich
60
zu den Daten gezeigt. Das Fehlerband des
Modells zeigt, wie sich die Modellverteilung
40
unter Variation entsprechend des Messfehlers von a verändert. Das gestrichelte Histo20
gramm zeigt die Goldverteilung N a fg ./.
Der Goldanteil in dem bislang uner0
forschten Gebiet ist also auch bei Berück8
4
6
ρ
sichtigung des durch die Luftfeuchtigkeit
verursachten systematischen Fehlers vergleichsweise groß.
In aktuellen Datenauswertungsprogrammen zur Bestimmung systematischer Fehler ist die Einführung von m systematischen Unsicherheiten entsprechend möglich [4, 9].
Wir bezeichnen mit Si .hi / die Wahrscheinlichkeitsdichten der einzelnen systematischen Fehler, die als A-priori-Verteilungen der Fehler genommen werden.
E Analog
Die Likelihood-Funktion (9.20) erweitern wir entsprechend auf L0 .a; h/.
zu (9.21) ergibt das Integral
Z
E S1 .h1 / : : : Sm .hm / p.a/ dh1 : : : dhm (9.23)
p.ajdaten/ D c L0 .a; h/
152
9 Systematische Fehler
die A-posteriori-Verteilung. Sie enthält sowohl den Einfluss aller betrachteten systematischen Fehler, als auch – wegen der Likelihood-Anpassung – den statistischen
Fehler der Daten.
Die Verteilungen Si .hi / werden unabhängig voneinander angegeben. Durch die
Likelihood-Anpassung an die Daten sind diese Unsicherheiten miteinander korreE a/ bereits gut mit den Daten zusammenpasst,
liert. Wenn z. B. das Modell f .; h;
wird die Variation eines systematischen Einflusses hi im Allgemeinen die Variation
eines anderen hj erfordern, damit das Modell weiterhin gut zu den Daten passt.
Die Automatisierung der Programme zur Kombination der statistischen und systematischen Fehler ist beeindruckend weit fortgeschritten. Trotzdem muss natürlich
bei jeder Datenanalyse sehr sorgfältig verifiziert werden, dass unter Variationen der
Annahmen über das Modell f , über die systematischen Fehler und die A-prioriVerteilungen die Messergebnisse unverändert bleiben.
Kapitel 10
Lösungen zu den Aufgaben
Lösung zu Aufgabe 2.1: Lotterie
Wir wählen k D 3 Zahlen aus insgesamt n D 6 Zahlen aus. Die Anzahl der
Möglichkeiten für 3 verschiedene Zahlen beträgt:
N D
6Š
654
120
D
D
D 20 :
3Š 3Š
321
6
Die Wahrscheinlichkeit, eine bestimmte Kombination von Zahlen zu tippen ist
P .2; 4; 6/ D
1
D 0;05 D 5 % :
20
Es handelt sich um eine Lotterie mit relativ guten Gewinnchancen.
Lösung zu Aufgabe 3.1: Mensch-ärgere-Dich-nicht
Die Wahrscheinlichkeit beim Spiel Mensch-ärgere-Dich-nicht in zehn Runden
kein einziges Mal die Augenzahl 6 zu würfeln beträgt mit p D 1=6, n D 10
und r D 0:
!0
!10
5
1
10
P .0/ D
0
6
6
!10
5
10Š
1
D
D 16 % :
0Š 10Š
6
Diese Wahrscheinlichkeit ist verblüffend groß.
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6_10, © Springer-Verlag Berlin Heidelberg 2013
153
154
10 Lösungen zu den Aufgaben
Lösung zu Aufgabe 3.2: Binomialtheorem mit n D 3
Die kubische Anwendung des Binomialtheorems lautet folgendermaßen:
.a C b/3 D
3 X
3
rD0
r
ar b 3r
!
3
3
3
3
0
3
1
2
2
1
D
a b C
a b C
a b C
a3 b 0
0
1
2
3
D
3Š
3Š
3Š
3Š
b3 C
a b2 C
a2 b C
a3
0Š 3Š
1Š 2Š
2Š 1Š
3Š 1Š
D b 3 C 3ab 2 C 3a2 b C a3 :
Lösung zu Aufgabe 4.1: Fehler des Mittelwerts
Bei n D 100 Zufallszahlen xi , die der Wahrscheinlichkeitsdichte f .xi /
mit dem Mittelwert hxi und der Standardabweichung entnommen wurden,
schätzen wir den Mittelwert durch
hxi D
n
1 X
xi :
n
i D1
Der Fehler des Mittelwerts beträgt
hxi D p :
n
Teilen wir die n Zufallszahlen in j D 1; : : : ; m Gruppen mit jeweils k Werten
ein, dann erhalten wir m Mittelwerte
k
1 X
hxij D
xi :
k
i D1
Nach dem Zentralen Grenzwertsatz folgen sie einer Gauß-Verteilung mit
hxi;j D p :
k
Wir bilden jetzt den Mittelwert dieser Mittelwerte
hxi0 D
m
1 X
hxij :
m
i D1
10 Lösungen zu den Aufgaben
155
Der Fehler dieses Mittelwerts beträgt wegen n D k m:
hxi;j
hxi0 D p
m
Dp p
k m
Dp :
n
Demnach gibt es keinen Unterschied in der Genauigkeit der beiden Mittelwerte.
Lösung zu Aufgabe 5.1: Division unkorrelierter Messgrößen
Für die zusammengesetzte Messgröße
yD
x1
x2
ergibt sich nach dem Fehlerfortpflanzungsgesetz (5.21):
y2
D
D
D
@y
@x1
1
x22
!2
2
x1
C
x12
! 2
x22
„ƒ‚…
4
!2
@y
2
C
x2
@x2
!2
x1
2
2 x2
x2
!2
!2 3
2
1
5:
C
x1
x2
2
x1
Dy 2
Dividieren wir auf beiden Seiten durch die zusammengesetzte Messgröße y,
so erhalten wir Terme aus den relativen Fehlern:
v
!2
!2
u
2
1
y u
t
D
C
:
y
x1
x2
Bei Division von Messgrößen werden die relativen Fehler quadratisch addiert.
156
10 Lösungen zu den Aufgaben
Lösung zu Aufgabe 5.2: Erdbeschleunigung
Die Erdbeschleunigung g berechnen wir aus der Fallzeitmessung t und der
Wegmessung s:
gD
2s
:
t2
Der relative Fehler von g ist unter Berücksichtigung von t 2 =t 2 D 2 t =t:
v
!2
!
u
u s 2
g
t 2
t
D
C
g
s
t2
v
!
!2
u
u s 2
t
t
D
C 2
:
s
t
Lösung zu Aufgabe 6.1: Maximum-Likelihood-Methode
Wir summieren die Werte nach (6.29)
F .a/ D 2
N
X
j D1
j 2
N
X
nj ln j
j D1
und erhalten für a D 0:
F .0/ D 2 Œ9 .1 ln 2 C 5 ln 3 C 3 ln 2/ D 1;47 :
Für a D 1 ergibt sich:
F .1/ D 2 Œ9 .1 ln 1 C 5 ln 2 C 3 ln 3/ D 4;48 :
Für a D 1 ist:
F .1/ D 2 Œ9 .1 ln 3 C 5 ln 2 C 3 ln 1/ D 8;87 :
Der beste Schätzwert für a liegt zwischen a D 0 und a D 1.
10 Lösungen zu den Aufgaben
157
Lösung zu Aufgabe 6.2: Elektrischer Widerstand
I/A
Als Modell verwenden wir
das Ohm’sche Gesetz in einer
Form, die als Parameter die
elektrische Leitfähigkeit a2 D
1=R enthält und einen möglichen Offset Iı bei der Strommessung berücksichtigt:
0.06
0.035
0.035 ± 0.00065
p1
0.0097
0.0097 ± 0.00038
0.04
0.02
0
I.Ui / D Iı C
p0
0
2
4
6
U/V
1
hU i
1
U i D Iı C
C
.Ui hU i/ :
R
R
„ ƒ‚ R… „ƒ‚…
Da1
Da2
Für die Berechnung der Parameter benötigen wir verschiedene Summen:
Spannungs- und
Strommittelwerte:
hU i D
n
1 X
Ui D 3;5 V
n
i D1
a1 D I.hU i/ D
n
1 X
Ii D 35 mA :
n
i D1
Quadratische
Differenzen:
n
X
.Ui hU i/2 D .2;52 C 1;52 C : : :/ V2 D 17;5 V2 :
i D1
Gewichtete
Summe der
Strommessungen:
n
X
Ii .Ui hU i/ D.12 2;5 : : :/mA V D 0;17 A V :
i D1
Pn
Leitfähigkeit
a2 D 1=R:
a2 D PinD1
Varianz der
Messdaten:
2 D
Ii .Ui hU i/
2
i D1 .Ui hU i/
D
0;170 A V
1
D 0;0097 :
17;5 V2
n
1 X
.a1 C a2 .Ui hU i/ Ii /2 D 2;5 mA2 :
n2
i D1
Fehler von a1 , a2 :
a1 D p D 0;65 mA
n
1
D 0;0004 :
a2 D qP
n
2
i D1 .Ui hU i/
158
10 Lösungen zu den Aufgaben
s
Unsicherheit
bei U D 0:
I.Modell/ D Offset der Strommessung nicht
nachweisbar:
Iı D a1 Gemessener
Widerstand:
hU i2
1
C Pn
D 1;5 mA :
2
n
i D1 .Ui hU i/
hU i
D 1;05 mA < I.Modell/ :
R
1
D .103 ˙ 4/ :
a2
RD
Lösung zu Aufgabe 7.1: Vergleich zweier experimenteller Mittelwerte
Die Messwerte der Experimente lauten:
Experiment 1:
Experiment 2:
n Werte
m Werte
x1 ; x2 ; : : : xn
y1 ; y2 ; : : : ym .
Um die Kompatibilität der beiden experimentellen Resultate zu testen, berechnen wir die Mittelwerte und die Fehler der Mittelwerte:
p
hxi ˙ x = n
mit hxi D
n
1 P
xi ;
n i D1
x2 D
n
1 P
.xi hxi/2
n 1 i D1
p
hyi ˙ y = m
mit hyi D
m
1 P
yi ;
m i D1
y2 D
m
1 P
.yi hyi/2 :
m 1 i D1
Messwerte
xi D 3; 5; 7
yi D 2; 0; 2; 4
Mittelwert
hxi D 5
hyi D 1
Freiheits- n 1 D 3 1 D 2
grade
1 2
2 C 02 C 22
Varianz
x2 D
2
D4
Fehler
p
hxi D 2= 3
m1 D41D 3
1 2
3 C 12 C 12 C 32
3
20
D
3
p
p
p
hyi D
20=3 = 4 D 5=3 :
y2 D
10 Lösungen zu den Aufgaben
159
Als Testgröße t verwenden wir die Difhxi hyi
:
tDq
ferenz der Mittelwerte, dividiert durch
2
2
C
hxi
hyi
die kombinierten Mittelwertfehler:
Die Testgröße t folgt einer t-Verteilung
mit k D n C m 2 D 5 Freiheitsgra51
4
den, wobei die 2 Freiheitsgrade durch
Dp :
tD p
die Verwendung der beiden experimen3
4=3 C 5=3
tellen Mittelwerte bei der Fehlerberechnung abgezogen werden.
Z1
Da wir beide Experimente als Refef5 .t/ dt D 6;9 % :
P D2
renzexperiment betrachten können, ist
p
nur der Betrag jtj der Testgröße rele4= 3
vant. Die Wahrscheinlichkeit,
p bei k D
5 Freiheitsgraden jtj 4= 3 zu messen, beträgt
Das Konfidenzniveau entspricht demnach CL D 1 P D 93;1 %. Falls die
Fehler Gauß-verteilt sind, liegt die Übereinstimmung der Mittelwerte innerhalb von 2 Standardabweichungen. Wir bezeichnen diese gemessenen Mittelwerte als statistisch miteinander verträglich.
Lösung zu Aufgabe 7.2: 2 -Wahrscheinlichkeit
Bei n D 50 Messungen (Freiheitsgraden) ist es wahrscheinlich, den Wert
2 D 55 zu erhalten: Die RWahrscheinlichkeit, sogar einen noch größeren Wert
1
zu erhalten, beträgt P D 55 f50 .2 / d2 D 29 %.
Der vergleichsweise kleine Wert 2 D 30 n D 50 ist unwahrscheinlich:
Die Wahrscheinlichkeit diesen Wert oder sogar noch einen kleineren Wert zu
R 30
erhalten, beträgt gerade mal P D 0 f50 .2 / d2 D 1 %. Bei einem solchen
Ergebnis würde man die Fehlerrechnung seiner Messung unter der Hypothese
überprüfen, dass die Fehler im Nenner der Residuen (7.21) als zu groß angenommen, also überschätzt wurden.
Literaturverzeichnis
[1] Blobel, V., Lohrmann, E.: Statistische und numerische Methoden der Datenanalyse, Teubner
Studienbücher Physik (1998)
[2] Bretz H.-P., Brodski, M., Erdmann, M., Fischer, R., Hinzmann, A., et al.: A Development Environment for Visual Physics Analysis, Journal of Instrumentation JINST 7 (2012)
T08005, http://dx.doi.org/10.1088/1748-0221/7/08/T08005
VISPA: http://vispa.physik.rwth-aachen.de
[3] Bronstein, I., Semendjajev, K.: Taschenbuch der Mathematik, Verlag Harri Deutsch, 19. Auflage (1981)
[4] Brun, R., Rademakers, F.: ROOT – An Object Oriented Data Analysis Framework, Nucl.
Inst. & Meth. in Phys. Res. A 398 (1996) 81, ROOT: http://root.cern.ch
[5] Cowan, G.: Statistical Data Analysis, Oxford University Press (1998)
[6] Cowan, G., Cranmer, K., Gross, E., Vitells O.: Asymptotic formulae for likelihood-based
tests of new physics, Eur. Phys. J. C71 (2011) 1554, arXiv:physics/1007.1727
[7] Hoecker, A., Speckmayer, P., Stelzer, J., Therhaag, J., von Toerne, E., Voss, H.: TMVA –
Toolkit for Multivariate Data Analysis, PoS ACAT 040 (2007), arXiv:physics/0703039
[8] Mohr, P.J., Taylor, B.N., Newell, D.B.: CODATA Recommended Values of the Fundamental Physical Constants (2006), Reviews of Modern Physics, Vol. 80 (2008) 633; The
2010 CODATA Recommended Values of the Fundamental Physical Constants, Preprint
(2012), NIST: http://physics.nist.gov/constants
[9] Müller, T., Ott, J., Wagner-Kuhr, J.: Theta – A Framework for Template-based Modeling and
Inference, Karlsruhe Institute of Technology (2010)
[10] Nakamura, K., et al. (Particle Data Group): J. Phys. G 37 (2010) 075021, and 2011 partial
update for the 2012 edition, http://dx.doi.org/10.1088/0954-3899/37/7A/075021
PDG: http://pdg.lbl.gov
[11] Van Hees, H.: Vorlesungsskript Grundlagen der Quantentheorie, Frankfurt Institute for
Advanced Studies (2011)
M. Erdmann, T. Hebbeker, Experimentalphysik 5, Springer-Lehrbuch,
DOI 10.1007/978-3-642-17294-6, © Springer-Verlag Berlin Heidelberg 2013
161
Sachverzeichnis
A
A-posteriori-Verteilung 20, 149, 150
A-priori-Verteilung 20, 82, 149, 150
Absoluter Fehler 74, 75
Abweichungen
Signifikant 108
Algebraisches Moment 24, 27
Angabe Messergebnis 2, 145
Aufgabe
Binomialtheorem 34
2 -Wahrscheinlichkeit 117
Division von Messgrößen 75
Elektrischer Widerstand 102
Erdbeschleunigung 76
Fehler des Mittelwerts 59
Lotterie 15
Maximum-Likelihood-Methode 90
Mensch-ärgere-Dich-nicht 32
Vergleich zweier Experimente 113
Auswertung Messdaten 3
B
Bedingte Wahrscheinlichkeit 17
Beispiel
Asymmetrische Log-Likelihood-Funktion
86
Auswahl, beliebige 14
Auswahl, geordnete 13
Berechnung des Mittelwerts 4
Binomialtheorem 33
Binomialverteilung 32
Boosted-Decision-Trees 135
2 -Verteilung 116
2 -Wahrscheinlichkeit 117
Computerhersteller 35, 38
Eichgenauigkeiten 142
Elektrischer Widerstand 93
Empirische Wahrscheinlichkeit 12
Faltung Gauß-Verteilungen 52
Fehler des Mittelwerts 7
Fehler Längenmessung 74
Fehler Standardabweichung 7
Fehler Zylindervolumen 75
Fehler, korrelierte 146
Fehler, systematische 8
Fehlerfortpflanzung, kubisch 69
Fehlerquellen, systematische 140
Fisher-Diskriminante 127
Freiheitsgrade 61
Geradenanpassung 98
Gewichteter Mittelwert 83
Gleichverteilung 31
Häufigkeitsverteilung 39
Kanalüberquerung 18
Konfidenzgrenze und Standardabweichung
108
Likelihood-Funktion 80
Maximum-Likelihood-Methode 87
Maxwell-Boltzmann-Verteilung 28
Mittelwert, getrimmter 26
Mittelwert, gewichteter 63
Mittlere Augenzahl Würfel 24
Münzwurf 16
Neutronenlebensdauer 138
Physikalische Konzepte 142
Poisson-Verteilung 38
Reibungskraft 143
Standardabweichung 5
Suchtest 19
Test Gleichverteilung 120
Transformation, linear 68
Trompeter 56
163
164
Sachverzeichnis
Vergleich Experiment-Theorie 113
Wiederholungsmessung 6
Würfeln 11
Zahlenanordnungen 13
Zufallszahlen Überlagerung 55
Zufallszahlen einer Verteilung 123
Zusammengesetzte Messgröße 65
Zweidim. Gauß-Verteilung 46
Binomialkoeffizient 14
Binomialtheorem 33
Binomialverteilung 31
Mittelwert 35
Standardabweichung 35
Varianz 35
C
Charakteristische Funktion 49
Gauß-Verteilung 50
2 -Methode 114
2 -Parameterschätzung 118
2 -Verteilung 115
Freiheitsgrade 115, 116
Maximum 115
Mittelwert 115
Standardabweichung 115
Computersimulation 122, 124
D
Datenanalyse 3
ı-Funktion 51
Diskrete Zufallsvariable 22
Dispersionsparameter 26
Full-Width-Half-Maximum
FWHM 28
RMS 27
Root-Mean-Square 27
Standardabweichung 26
Varianz 26
28
E
Effizienz
Fehler 36
Erwartungswert 24, 49, 67
Transformation 67
Experiment
Aktivität und Lebensdauer 92
Atomgeschwindigkeiten 57
Gastemperatur 81
Gastemperaturgrenze 108
Gaszylinder 102
Goldsucher 124
Lichtfiltereffizienz 36
Radioaktive Probe 88, 120
Systematische Fehler 141, 144
Tennisballmaschine 2
F
Fakultät 12, 110
Faltung 51
Gauß-Verteilungen 52
Fehler 2, 5, 7, 26, 54, 137
Absoluter 74, 75
Effizienzmessung 36
Fortpflanzung 65, 68, 71, 74, 75
Korrelierte 146
Messfehler 1
Mittelwert 6, 59
Relativer 75
Standardabweichung 6
Statistischer 1, 138
Systematischer 1, 8, 137
Unkorrelierte 145
Zusammengesetzte Messgrößen 72
Fehlerfortpflanzungsgesetz 66, 68, 74, 75,
146
n-dimensional 69, 71
Fisher-Diskriminanten-Methode 127
Kovarianzmatrix 129
Testgröße 130
Fortpflanzung
Fehler 65
Freiheitsgrade 61, 115, 116
2 -Verteilung 115
t -Verteilung 110
Full-Width-Half-Maximum 28
Gauß-Verteilung 41
Maxwell-Boltzmann-Verteilung 28
G
Gamma-Funktion 110
-Funktion 110
Gauß-Verteilung 39, 84, 115
Charakteristische Funktion 50
Faltung 52
Full-Width-Half-Maximum 41
FWHM 41
Mittelwert 39, 40, 53
Standardabweichung 40
Varianz 41, 53
Zentraler Grenzwertsatz 53
Zweidimensional 46
Geradenanpassung 98
Getrimmter Mittelwert 26
Sachverzeichnis
Gewichteter Mittelwert 62
Standardabweichung 63
Varianz 62
Gleichverteilung 30, 120
Mittelwert 30
Standardabweichung 31
Varianz 31
H
Histogramm 3, 36, 86
Hypothesentest 105
K
Klassifizierung 127
Kombination von Messungen 49
Kombinatorik 12
Konfidenz 105
Grenzen 106
Intervall 106
Niveau 106
Wahrer Wert 106
Kontinuierliche Zufallsvariable 22
Korrelationskoeffizient 146
Zweidimensionale Verteilung 46
Kovarianz
Matrix 46, 146
Zweidimensionale Verteilung 45
L
Likelihood
Funktion 79, 91, 125, 148, 150
Maximum 80
Quotient 124
Log-Likelihood-Funktion
Negative 83, 118
Lokalisierungsparameter 24
Getrimmter Mittelwert 26
Gewichteter Mittelwert 62
Median 25
Mittelwert 25
Wahrscheinlichster Wert 25
M
Mathematischer Hinweis
Binomialkoeffizient 14
Binomialtheorem 33
ı-Funktion 51
Erwartungswert 24
Fakultät 12
-Funktion 110
165
Zentraler Grenzwertsatz 53
Maximum-Likelihood-Methode 79
Bereiche 1; 2; 3 85
Histogramm 86
m Parameter 91
Parameterschätzung 79, 125, 148, 150
Maxwell-Boltzmann-Verteilung 28, 57, 80,
81, 108
FWHM 28
Median 29
Mittelwert 29
RMS 29
Root-Mean-Square 29
Standardabweichung 60
Wahrscheinlichster Wert 28
Median 25
Messung
Effizienz 36
Fehler 1, 7, 137
Kombination Messungen 49
Messdaten 21
Messergebnis 2, 7, 145, 151
Messwert 2
Statistische Fehler 1, 137
Stichprobe 3
Streuung Messwerte 5
Systematische Fehler 1, 137
Unkorrelierte Messgrößen 73
Zusammengesetzte Messgröße 72
Methode der kleinsten Quadrate 92
Fehlerberechnung 96
Fehlerfortpflanzungsgesetz 97
Geradenanpassung 98
Parameterschätzung 92, 119
Residuum 93
Mittelwert 25
Berechnung 4, 57
Binomialverteilung 35
2 -Verteilung 115
Diskrete Zufallsvariable 24
Fehler 6, 59
Gauß-Verteilung 39, 40
Getrimmter 26
Gewichteter 62, 83
Gleichverteilung 30
Kontinuierliche Zufallsvariable 25
Maxwell-Boltzmann-Verteilung 29
Poisson-Verteilung 38
Schätzung 4
Standardabweichung 6, 59
Stichprobe 4
Transformation 67, 70
Vereinbarkeit 110
Wahrer Wert 3, 106
166
Sachverzeichnis
Zweidimensionale Verteilung
Momente 24
Algebraische 24, 27
Zentrale 24, 26
45
N
Negative Log-Likelihood-Funktion
Normalengleichungen 94
83, 118
P
Parameterschätzung 79, 92, 114
2 -Methode 114, 118
Maximum-Likelihood-Methode 79, 125,
148, 150
Methode kleinste Quadrate 92, 119
Poisson-Verteilung 36, 37, 88
Mittelwert 38
Standardabweichung 38, 39
Varianz 38
R
Reinheit 132, 134
Relativer Fehler 75
Reproduzierbarkeit 6
Residuum 92, 118
RMS 27
Root-Mean-Square 27
S
Schätzung
Mittelwert 4
Parameter 79, 92, 114
Signalreinheit 132, 134
Signifikante Abweichungen 108
Standardabweichung 5, 26, 60
Berechnung 60
Bereiche 1; 2; 3 43, 47
Binomialverteilung 35
2 -Verteilung 115
Fehler 6, 61
Gauß-Verteilung 40
Gewichteter Mittelwert 63
Gleichverteilung 31
Kombination 73
Maxwell-Boltzmann-Verteilung
Mittelwert 6, 59
Poisson-Verteilung 38, 39
Stichprobe 5
Unkorrelierte Messgrößen 73
Statistische Fehler 1, 138
Zusammengesetzte Messgrößen
Statistische Testverfahren 105
Stichprobe 3
Mittelwert 4
Standardabweichung 5
Streuung 5
Varianz 5
Streuung Messwerte 5
Student
Testgröße 111
t -Verteilung 110
Systematische Fehler 1, 8, 137
T
Taylor-Entwicklung 67, 84
Testgröße
2 -Test 116
Experimentvergleich 113
Fisher-Diskriminanten-Methode
t -Test 111
Testverfahren 105
Theoretische Vorhersage 105
Transformation
Erwartungswert 67
Linear 70
Mittelwert 67, 70
Nichtlinear 71
Varianz 67, 71
Wahrscheinlichkeitsdichte 65
t -Test 110, 111
t -Verteilung 110
V
60
72
Varianz 5, 26, 60
Binomialverteilung 35
Gauß-Verteilung 41
Gewichteter Mittelwert 62
Gleichverteilung 31
Poisson-Verteilung 38
Stichprobe 5
Transformation 67, 71
Zweidimensionale Verteilung 45
Verteilung
A-posteriori 20
A-priori 20
Binomialverteilung 31
2 -Verteilung 115
Gauß-Verteilung 39, 50, 52, 53
Gleichverteilung 30
Korrelationskoeffizient 46
Kovarianz 45
Kovarianzmatrix 46
130
Sachverzeichnis
Maxwell-Boltzmann-Verteilung
108
Poisson-Verteilung 36, 37
t -Verteilung 110
Zweidimensional 44
Vorhersage 105
28, 57,
W
Wahrer Wert 2, 3, 107
Wahrscheinlichkeit 6, 11
A-posteriori 20
Bedingte 17
Dichteverteilung 22
Intervall 6, 43, 47
Verteilung 21
Wahrscheinlichkeitsdichte 22, 79
Faltung 51
Gauß-Verteilung 39, 53
Gleichverteilung 30
Kontinuierliche Variable 39
Maxwell-Boltzmann-Verteilung 28
Transformation 65
Zweidimensional 44
167
Wahrscheinlichkeitsverteilung 21
Diskrete Variable 31, 36
Kontinuierliche Variable 22, 30, 39, 44
Wahrscheinlichster Wert 25
Z
Zentraler Grenzwertsatz 53
Zentrales Moment 24, 26
Zufallsvariable 21, 79
Diskret 22
Kombination 49
Kontinuierlich 22
Mittelwert 24, 25
Zweidimensionale 44
Zusammengesetzte Messgrößen
Statistische Fehler 72
Zweidimensionale Verteilung
Korrelationskoeffizient 46
Kovarianz 45
Kovarianzmatrix 46
Mittelwert 45
Varianz 45
Download