Mathematik: Fehlerbalken

Gehört zu: Statistik
Siehe auch: Streuung, Normalverteilung, Hubble

Stand: 29.12.2025

Die Fehlerbalken

Warnung / Disclaimer

Diesen Blog-Artikel schreibe ich ausschließlich zu meiner persönlichen Dokumentation; quasi als mein elektronisches persönliches Notizbuch. Wenn es Andere nützlich finden, freue ich mich, übernehme aber keinerlei Garantie für die Richtigkeit bzw. die Fehlerfreiheit meiner Notizen. Insbesondere weise ich darauf hin, dass jeder, der diese meine Notizen nutzt, das auf eigene Gefahr tut. Wenn ich Produkteigenschaften beschreibe, sind dies ausschließlich meine persönlichen Erfahrungen als Laie mit dem einen Gerät, welches ich bekommen habe.

Mittelwert

In der Physik bestimmt man Messgrößen meist in dem man eine Messung wiederholt ausführt und dann (meist) den Mittelwert aus den Einzelmessungen nimmt.

Neben dem Mittelwert einer solchen Messreihe ist aber auch noch interessant die Streuung der Messwerte und die Anzahl der Messungen. Auf grafischen Darstellungen (Diagrammen) von Messungen wird oft zusätzlich zum Mittelwert ein sog. Fehlerbalken gezeigt, der mit einem oberen und einem unteren Wert etwas über die “Genauigkeit” aussagen soll.

Streuung

Der Streubereich der Einzelwerte zeigt an, wie genau man dem Mittelwert eigentlich trauen kann. Falls die Einzelwerte normalverteilt sind, nimmt man gerne die sog. Standardabweichung (Symbol σ) als Maß für die Streuung.

Üblich als Bemessung von Fehlerbalken damit sind ±1 σ oder auch ±2 σ.

Bei einer Normalverteilung sind im Intervall ±1 σ etwa 68% und im Intervall ±2 σ etwa 95% der Werte.

Auf jeden Fall sollte man bei der Beschriftung eines Diagramms auch angeben, welche Art von Fehlerbalken dargestellt sind.

Anzahl der Messungen

Die Anzahl der Einzelmessungen einer Messreihe wird auch als Stichprobengröße (Symbol n) bezeichnet.

Bei einer sehr kleinen Stichprobengröße wird man einem errechneten Mittelwert nicht so vertrauen; bei einer größeren Anzahl Einzelmessungen wird das Vertrauen in den Mittelwert steigen. Das wird man auch durch entsprechend größere oder kleinere Fehlerbalken anzeigen wollen. Solche Fehlerbalken können verschieden berechnet werden: Standardfehler (Standard Error of the Mean SEM) oder Konfidenzintervall (CI).

Auf jeden Fall sollte man bei der Beschriftung eines Diagramms auch angeben, welche Art von Fehlerbalken dargestellt sind.

Fehlerbalken in der Praxis

In der Astronomie und der Astrophysik werden üblicherweise als Fehlerbalkentyp die ±2 σ Bemessung verwendet.

Für Konfidenzintervalle nimmt man gerne ein Konfidenzniveau von 95%.

In der Teilchenphysik (z.B. Higgs-Teilchen in CERN) gilt als sog. Goldstandard um die extrem hohe statistische Signifikanz zu beschreiben, die für eine offizielle Entdeckung erforderlich ist.

Systematische Fehler

Zusätzlich zu den oben behandelten statistischen Fehlern von Messungen, kann auch die Messmethode selbst noch systematische Fehler enthalten; diese können nur durch eine kritische Analyse des Messverfahrens selbst zu Tage gefördert werden, wobei auch Verfahren der Fehlerfortpflanzung Anwendung finden werden.
Gerne werden auch statistischer Fehlerbalken und systematischer Fehler zusammengezogen als Quadratwurzel aus der Summe der quadrierten Fehler.

Beispiel: Der Hubble-Parameter

Die Messungen des Hubble-Parameters sind ein klassisches Beispiel für Fehlerbalken-Darstellungen. Im untenstehenden Diagramm werden zwei unterschiedliche Messverfahren gegenübergestellt und wie sich die Fehlerbalken im Lauf der Jahre verändert haben.

Wenn sich die Bereiche nicht überlappen, ist der Verdacht naheliegend, dass ein signifikanter Unterschied zwischen den Messreihen besteht…

YouTube-Video: https://youtu.be/0wfPdhJWMTM?si=ExtKVnwdj9eYCisX

Abbildung 1: Hubble Tension (pCloud: fspas-05-00044-g008.jpg)

J.M.Ezquiaga, M. Zumalagarregui 2018, DOI:10.3389/fspas.2018.00044

Formeln

Die Meßreihe sei:

\( x_i (i = 1, 2 ,…,n) \\\)

Dann errechnet sich der Mittelwert (Mean) der Messreihe zu:

\( \Large\bar{x} = \frac{1}{n} \sum\limits_{i=1}^{i=n} {x_i} \\\)

Die Standardabweichung ist ein Maß für die Streuung der Einzelwerte der Messreihe um den ihren Mittelwert.

Diese  Standardabweichung (Standard Deviation) der Messreihe berechnen wir so:

\( \Large S = \sqrt{\frac{ \sum\limits_{i=1}^{i=n} {(x_i – \bar{x}})^2 }{n-1}}\\\)

Der Standard Error of the Mean (SEM) dagegen, beziffert die Genauigkeit des Mittelwerts der Messreihe in Bezug auf den “wahren” Wert; eigentlich durch mehrmalige Wiederholung der ganzen Messreihe. Dieser SEM errechnet sich ganz einfach zu:

\( SEM = \Large\frac{\sigma}{\sqrt{n}} \\\)

Wobei σ die Standardabweichug der Grundgesamtheit ist, die wir aber nicht wirklich kennen. In der Praxis verwendet man als Schätzwert für σ  ganz einfach die Standardabweichung der einen Messreihe, womit man erhält:

\( SEM = \Large\frac{S}{\sqrt{n}} \\\)

Physik: Entropie

Gehört zu: Klassifikation
Siehe auch: Machine Learning, Thermodynamik, Zustand
Benutzt: Latex-Plugin für WordPress, Fotos von Wikimedia

Stand: 26.01.2024

Was ist Entropie?

Warnung / Disclaimer

Diesen Blog-Artikel schreibe ich ausschließlich zu meiner persönlichen Dokumentation; quasi als mein elektronisches persönliches Notizbuch. Wenn es Andere nützlich finden, freue ich mich, übernehme aber kleinerlei Garantie für die Richtigkeit bzw. die Fehlerfreiheit meiner Notizen. Insbesondere weise ich darauf hin, dass jeder, der diese meine Notizen nutzt, das auf eigene Gefahr tut.
Wenn Podukteigenschaften beschrieben werden, sind dies ausschließlich meine persönlichen Erfahrungen als Laie mit dem einen Gerät, welches ich bekommen habe.

Der Begriff “Entropie” wird klassischerweise in der statistischen Thermodynamik verwendet.
Dieser Begriff wurde von Rudolf Clausius (1822-1888) in die Physik eingeführt.

Ludwig Boltzmann (1844-1906)  hat dann 1877 die berühmte Formel aufgestellt, die auch auf seinem Grabstein auf dem Wiener Zentralfriedhof steht:

\(  S = k \log_2{W} \\\)

Zur Beschreibung des Zustands eines physikalischen Systems wird eine physikalische Größe, die Entropie (Formelzeichen S) verwendet.   Wobei k die Boltzmann-Konstante und W eine Art “Wahrscheinlichkeit” für den Zustand sein soll…

Die Entropie wird auch gerne als Ausmaß von Unordnung der Teilchen eines Systems gesehen. Hohe Entropie wäre hohe Unordnung; niedrige Entropie wäre stärkere Ordnung der Teilchen.

Abbildung 1: Boltzmanns Grab (Wikimedia: Grab_von_Ludwig_Boltzmann_auf_dem_Wiener_Zentralfriedhof.JPG)

Klassifikationsalgorithmen

Beim “Machine Learning” ist es die allgemeine Aufgabe Muster in Datensätzen (Data Records) einer Datenmenge (Data Set – gerne falsch übersetzt mit “Datensatz”) zu finden.

Wenn wir ein Modell suchen, das Voraussagen zu einer Zielvariablen, einer Klassifikation, machen kann und wenn wir dazu ein Trainings-Datenmenge haben, sprechen wir von sog. “Supervised Learning“,

Ein Ansatz zur Klassifikation ist die wiederholte Aufteilung (rekursive Partitionierung).
Die “Güte” einer möglichen Aufteilung kann man durch den sog. Informationsgewinn, soll heissen Entropiedifferenz (nach der Aufteilung – vor der Aufteilung) bestimmen. So einen Klassifizierungsalgorithmus nennt man auch C5.

Zur Veranschaulichung nehmen wir mal ein ganz einfaches Beispiel. Eine Datenmenge soll eine binäre Klassifikation bekommen; z.B. Personen sind “kreditwürdig” oder “nicht kreditwürdig”.

Wir haben eine Trainings-Datenmenge in der Personen mit mehreren Attributen (“Features”) beschrieben sind; z.B. Jahreseinkommen, Alter, Name der Wohngemeinde, Einwohnerzahl der Wohngemeinde,…

Auch die Klassifikation auf der Trainings-Datenmenge ist bereits erfolgt. Wir haben da also schon ein Attribut Kreditwürdig Ja/Nein. Deshalb sprechen wir von “Supervised” Learning.

Diese gesamte Trainings-Datenmenge möchten wir anhand eines Entscheidungs-Kriteriums in zwei Teilmengen aufteilen, sodass die Summe der Entropien der Teilmengen kleiner ist als die Entropie der gesamten Trainings-Datenmenge.
So ein “Entscheidungs-Kriterium” wollen wir mithilfe der Datenattribute (den sog. Features) formulieren z.B. “Einwohnerzahl > 500”.

Zunächst haben wir also die Aufgabe, die Entropie (S) von Teilmengen der Trainings-Datenmenge zu bestimmen.

Quelle: https://rpubs.com/cyobero/C50

Die Formel lautet (nach Boltzmann s.o.)

\( S = \sum\limits_{i=1}^n {-p_i \cdot \log_2{p_i}} \\\)

Wobei n die Anzahl der Klassen in unserer Klassifizierung ist und pi die Anteil der Datensätze, die in die Klasse i fallen.

Wenn wir, wie im Beispiel, eine binäre Klassifikation haben, ist n=2 und p2 = 1- p1.

Wir betrachten im Beispiel einmal folgende Trainingsmenge:

Tabelle 1: Trainingsmenge

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
48000 ./. ja
30000 ./. nein
52000 ./. ja
31000 ./. nein
53000 ./. ja
32000 ./. nein
54000 ./. ja
55000 ./. ja
49000 ./. ja
33000 ./. nein

Hier haben wir p1 =0.6 und p2=0.4

Woraus sich eine Entropie für die gesamte Trainings-Datenmenge ergibt von:

\( S = -0.6 \cdot \log_2{0.6} – 0.4 \cdot \log_2{0.4} = 0.970951  \)

Wir versuchen jetzt einmal eine Partitionierung anhand von Feature 1 und probieren ein Kriterium Gehalt>50000. Daduch erhalten wir zwei Teilmengen durch Gehalt>50000 und Gehalt≤50000.

Tabelle 2: Teilmenge 1

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
52000 ./. ja
53000 ./. ja
54000 ./. ja
55000 ./. ja

Hier haben wir p1 = 1.0 und p2 = 0.0

Das ergibt eine Entropie S1 = 0.0

Tabelle 3: Teilmenge 2

Feature 1 Feature 2 Klasse
Gehalt Alter Kreditwürdigkeit
48000 ./. ja
30000 ./. nein
31000 ./. nein
32000 ./. nein
49000 ./. ja
33000 ./. nein

Hier haben wir p1 =0.3333 und p2 = 0.6667

Das ergibt eine Entropie S2 = 0.918296

Nun müssen wir die beiden “Teil-Entropien” addieren.
Dazu gewichten wir jede Teilmenge i mit dem Anteil der Datensätze, die in diese Teilmenge fallen wi.
Wir bekommen als Gewichte: w1=0.4 und w2= 0.6 und damit die Gesamtentropie nach erster Aufteilung bei Gehalt>50000:

\( S = w_1 \cdot S_1 + w_2 \cdot S_2 = 0.4 \cdot 0.0 + 0.6 \cdot 0.918296 = 0.5509776 \)

Durch die Aufteilung haben wir also Informationsgewinn (Differenz der Entropien) von:  0.970951 – 0.5509776 = 0,419973

Das ist schon einmal ganz gut, wir müssen nun noch prüfen, ob wir bei einer anderen Aufteilung im Feature “Gehalt” noch besser würden und ob eine Aufteilung nach einem andren Feature (z.B. “Alter”) ein noch größeren Informationsgewinn bringen würde.

Computer: Mathematik – Statistik

Mathematik: Statistik (aus Wiki)

Immer wieder werde ich als gelernter Mathematiker nach elementaren Themen der Statistik gefragt.

Ich habe einen schönen Einführungskurs in die Statistik bei der Universität Newcastle, Australien, gefunden:

http://www.anu.edu.au/nceph/surfstat/surfstat-home/t-table.html

http://www.anu.edu.au/nceph/surfstat/surfstat-home/

Statistik

Typen von Variablen (“Metriken”)

Qualitativ / Quantitativ

Man spricht von “qualitativen” Variablen, wenn die Beobachtungen durch Kategorien beschrieben werden.
Beispiele:

  • Augenfarbe: braun, grau, blau,…
  • Delivery Model: insourced, outsourced
  • Performance Rating: Less than Acceptable, Inconsistent, Fully Successful, Exceeds, Exceptional

Eine qualitative Variable heist “ordinal”, wenn es eine natürliche Reihenfolgebeziehung zwischen den Kategorien gibt, (Beispiel: Performance Rating).

Eine qualitative Variable heisst “nominal”, wenn es keine natürliche Reihenfolgebeziehung gibt, (Beispiel: Augenfarbe).

Man spricht von “quantitativen” Variablen, wenn die Beobachtungen durch numerische Werte beschrieben werden, d.h. durch Zählen oder Messen zustande kommen.
Beispiele:

  • Alter
  • Körpergröße
  • Anzahl Personen im Haushalt
  • Anzahl gerauchter Zigaretten am Tag
  • Einkommen im Jahr

Eine quantitative Variable heisst “diskret”, wenn die Beobachtungen ganzzahlige Werte sind (Beispiel: Anzahl Personen im Haushalt).

Eine quantitative Variable heisst “stetig” (continous), wenn sie durch (im Prinzip) beliebige Zahlen dargestellt wird (Beispiel: Körpergröße).

Normalverteilung mit Perzentil

Fragestellung zu einer Normalverteilung N(My,Sigma):

  • Gegeben sei My und P25
  • Gesucht ist Sigma
  • Lösung: sigma = (P25 – My) / NormInv(0,25; 0; 1)

Im übrigen gilt sowieso: P25 = NormInv(0,25; My; Sigma)

Logarithmische Normalverteilung

Zur Logarithmischen Normalverteilung habe ich einen gesonderten Artikel geschrieben.

Beta-Verteilung

Zur Beta-Verteilung habe ich einen gesonderten Artikel geschrieben.

— Dkracht 12:29, 24 March 2008 (CET)