Direkt zum Inhalt

Fehlerfortpflanzung: Verstehen, wie sich Unsicherheit durch Berechnungen verbreitet

Verstehe, wie sich Messungenauigkeiten auf berechnete Ergebnisse auswirken, und lerne Formeln und Methoden kennen, um sie bei verschiedenen mathematischen Operationen zu quantifizieren.
Aktualisierte 5. Nov. 2025  · 9 Min. Lesezeit

Wenn wir Berechnungen mit gemessenen Werten machen, haben wir mit Unsicherheiten zu tun. Jede Messung hat eine gewisse Unsicherheit, die oft als absoluter oder relativer Fehler ausgedrückt wird. Diese Unsicherheiten verschwinden nicht einfach, wenn wir Messungen in Berechnungen verwenden; stattdessen verbinden sie sich und können sich je nach den verwendeten mathematischen Operationen verstärken. 

Fehlerfortpflanzung, auch als Unsicherheitsfortpflanzung bekannt, ist der Prozess, bei dem man herausfindet, wie sich Unsicherheiten in gemessenen Werten auf die Unsicherheit eines berechneten Ergebnisses auswirken.

In diesem Tutorial schauen wir uns die mathematischen Regeln an, die bestimmen, wie sich Unsicherheiten bei verschiedenen Rechenoperationen ausbreiten, und wir probieren Methoden aus, um Unsicherheiten zu quantifizieren. Wir schauen uns praktische Beispiele an, die zeigen, wie man Unsicherheiten in echten Szenarien berechnet, von einfachen Rechenaufgaben bis hin zu komplizierten Funktionen mit Korrelation und fortgeschrittenen Simulationstechniken.

Wichtige Konzepte bei der Fehlerausbreitung

Bevor wir uns mit den mathematischen Regeln beschäftigen, lass uns ein paar Konzepte hinter der Fehlerfortpflanzung verstehen:

  • Der absolute Fehler zeigt, wie weit der gemessene Wert vom echten Wert abweicht, und wird in denselben Einheiten wie die Messung angegeben. Wenn wir eine Länge von 10,0 ± 0,2 cm messen, ist der absolute Fehler 0,2 cm.
  • Der relative Fehler zeigt die Unsicherheit als Bruchteil oder Prozent des gemessenen Werts an. Für unsere Längenmessung wäre der relative Fehler 0,2/10,0 = 0,02 oder 2 %.
  • Die Standardabweichung ist in den meisten wissenschaftlichen Kontexten unser wichtigstes Maß für die Unsicherheit und zeigt, wie weit die Werte um den Mittelwert herum verteilt sind. Wenn wir eine Messung als x ± σ ausdrücken, steht σ für eine Standardabweichung.
  • Die Varianz ist das Quadrat der Standardabweichung. Die Varianzen unabhängiger Zufallsvariablen addieren sich direkt, was viele Berechnungen einfacher macht.
  • Kovarianz zeigt, wie sich zwei Variablen im Verhältnis zueinander verändern. Wenn Unsicherheiten miteinander zusammenhängen, müssen wir Kovarianzterme in unsere Ausbreitungsformeln einbauen, um genaue Ergebnisse zu kriegen.

Es ist auch wichtig, den Unterschied zwischen unabhängigen und korrelierten Unsicherheiten zu verstehen. Unabhängige Unsicherheiten kommen von verschiedenen, nicht miteinander verbundenen Quellen, wie zum Beispiel Messfehlern von unterschiedlichen Geräten. Korrelierte Unsicherheiten haben oft die gleiche Ursache, wie zum Beispiel die Verwendung desselben Kalibrierstandards für mehrere Messungen.

Auch wenn wir uns in diesem Tutorial auf zufällige Fehler konzentrieren, die statistischen Mustern folgen, solltest du bedenken, dass systematische Fehler (konsistente Verzerrungen) anders behandelt werden müssen.

Mathematische Regeln für die Fehlerfortpflanzung

Die Ausbreitung von Unsicherheit folgt bestimmten Regeln, die von der jeweiligen mathematischen Operation abhängen. Schauen wir uns mal jede dieser Funktionen genauer an:

Addition und Subtraktion

Wenn wir Messungen mit Unsicherheiten addieren oder subtrahieren, addieren wir die absoluten Unsicherheiten quadratisch (die Quadratwurzel aus der Summe der Quadrate) für Standardabweichungen.

Für z = x ± y, wobei x die Unsicherheit σₓ und y die Unsicherheit σᵧ hat:

σz = √(σₓ² + σᵧ²)

Schau dir mal ein Beispiel an, wo wir die Gesamtlänge von zwei Stäben messen. Stab A ist 15,3 ± 0,2 cm lang und Stab B ist 8,7 ± 0,1 cm lang. Die Gesamtlänge ist:

Length = 15.3 + 8.7 = 24.0 cm
Uncertainty = √(0.2² + 0.1²) = √(0.04 + 0.01) = √0.05 = 0.22 cm

Die Gesamtlänge beträgt also 24,0 ± 0,22 cm.

Multiplikation und Division

Bei der Multiplikation und Division arbeiten wir mit relativen Unsicherheiten. Die relative Unsicherheit des Ergebnisses ist gleich der Quadratur-Summe der relativen Unsicherheiten der Eingaben.

Für z = xy oder z = x/y:

(σz/z)² = (σₓ/x)² + (σᵧ/y)²

Angenommen, wir wollen die Fläche eines Rechtecks mit einer Länge von 5,0 ± 0,1 m und einer Breite von 3,0 ± 0,05 m berechnen.

Area = 5.0 × 3.0 = 15.0 m²
Relative uncertainty in length = 0.1/5.0 = 0.02
Relative uncertainty in width = 0.05/3.0 = 0.0167
Relative uncertainty in area = √(0.02² + 0.0167²) = √(0.0004 + 0.000278) = 0.026
Absolute uncertainty in area = 15.0 × 0.026 = 0.39 m²

Also ist die Fläche 15,0 ± 0,39 m².

Kräfte und Wurzeln

Wenn man einen Messwert mit der Potenz n potenziert, wird die relative Unsicherheit mit dem Absolutwert der Potenz multipliziert.

For z = xⁿ:

σz/z = |n| × (σₓ/x)

Stell dir vor, wir messen den Radius einer Kugel mit 2,5 ± 0,05 cm und wollen ihr Volumen mit der Formel V = (4/3)πr³ berechnen.

Volume = (4/3)π(2.5)³ = 65.45 cm³
Relative uncertainty in radius = 0.05/2.5 = 0.02
Relative uncertainty in volume = 3 × 0.02 = 0.06
Absolute uncertainty in volume = 65.45 × 0.06 = 3.93 cm³

Also, das Volumen ist 65,5 ± 3,9 cm³.

Logarithmus- und Exponentialfunktionen

Für den natürlichen Logarithmus: 

If z = ln(x), then σz = σₓ/x

Für exponentiell: 

If z = eˣ, then σz/z = σₓ

Angenommen, wir messen einen Wert x = 10,0 ± 0,3 und berechnen y = ln(x).

y = ln(10.0) = 2.303
Uncertainty in y = 0.3/10.0 = 0.03

Also ist ln(10,0) = 2,303 ± 0,030.

Nachdem wir uns jetzt die spezifischen Regeln für verschiedene Operationen angesehen haben, wollen wir uns mit der einheitlichen mathematischen Grundlage beschäftigen, die ihnen allen zugrunde liegt.

Ableitung mit Hilfe der Infinitesimalrechnung

Um ein Gefühl dafür zu bekommen, stell dir vor, partielle Ableitungen würden die Frage beantworten: „Wenn ich diesen Input ein bisschen verändere, wie stark ändert sich dann mein Output?“ 

Diese Sensibilität für Veränderungen ist genau das, was wir brauchen, um zu verstehen, wie sich Unsicherheiten ausbreiten. Eine große partielle Ableitung heißt, dass die Eingabe die Ausgabe stark beeinflusst, sodass ihre Unsicherheit mehr zur endgültigen Unsicherheit beiträgt.

Fangen wir mit den mathematischen Grundlagen an. Für eine Funktion z = f(x, y) sagt uns die Totaldifferenz Folgendes:

dz = (∂f/∂x)dx + (∂f/∂y)dy

Wenn wir dx und dy als kleine Unsicherheiten sehen und die Varianz (σz²) herausfinden wollen, quadrieren wir beide Seiten und nehmen den Erwartungswert. 

Das bringt uns zur allgemeinen Fehlerfortpflanzungsformel:

σz² = (∂f/∂x)² σₓ² + (∂f/∂y)² σᵧ² + 2(∂f/∂x)(∂f/∂y)σₓᵧ

Hier steht σₓᵧ für die Kovarianz zwischen x und y. Bei unabhängigen Variablen verschwindet dieser Ausdruck, sodass wir die einfachere Form bekommen, die wir normalerweise benutzen.

Lass uns diese Formel überprüfen, indem wir unsere Multiplikationsregel ableiten. 

Für z = xy:

  • Partielle Ableitung nach x: ∂z/∂x = y
  • Partielle Ableitung nach y: ∂z/∂y = x

Einsetzen in unsere allgemeine Formel (vorausgesetzt, x und y sind unabhängig):

σz² = y²σₓ² + x²σᵧ²

Beide Seiten durch = (xy)² teilen:

σz²/z² = σₓ²/x² + σᵧ²/y²

Wenn wir die Quadratwurzel ziehen, kriegen wir:

(σz/z)² = (σₓ/x)² + (σᵧ/y)²

Das ist genau unsere Multiplikationsregel für die Addition relativer Unsicherheiten im Quadrat.

Dieser allgemeine Ansatz ist nützlich, wenn man es mit komplizierten Funktionen zu tun hat, bei denen man sich gemerkte Regeln nicht anwenden kann. 

Wenn wir zum Beispiel die Unsicherheit in z =x²sin(y) +exy berechnen müssen, können wir einfach partiell abgeleitet werden, anstatt mehrere Regeln zu kombinieren. Die Formel kann jede differenzierbare Funktion verarbeiten und ist damit unser nützlichstes Tool für die Unsicherheitsanalyse bei komplizierten Berechnungen.

Korrelation und Kovarianz bei der Fehlerausbreitung

Unsere Fehlerfortpflanzungsformeln gehen bisher davon aus, dass Unsicherheiten unabhängig voneinander sind. Aber was passiert, wenn das nicht der Fall ist? 

Die Korrelation zwischen Unsicherheiten kommt öfter vor, als wir denken, und kann unsere Ergebnisse echt beeinflussen. Eine Korrelation entsteht, wenn Messungen eine gemeinsame Unsicherheitsquelle haben. 

Überleg mal, die Länge und Breite eines Metallblocks mit demselben Lineal zu messen. Wenn das Lineal tatsächlich 1 % zu kurz ist, sind beide Messungen systematisch auf die gleiche Weise betroffen und stehen in einem positiven Zusammenhang. Genauso, wenn die Temperatur mehrere Sensoren in einem Experiment beeinflusst, sind alle Messwerte, die zur gleichen Zeit genommen werden, von diesem Umwelteinfluss betroffen.

Wenn eine Messung eher hoch ist, während eine andere eher hoch ist (positive Korrelation), oder wenn eine eher hoch ist, während eine andere eher niedrig ist (negative Korrelation), müssen wir diese Beziehung bei unseren Unsicherheitsberechnungen berücksichtigen.

Wenn Variablen miteinander zusammenhängen, nehmen wir den Kovarianzterm σₓᵧ in unsere Ausbreitungsformel auf. Für zwei Variablen, die miteinander zusammenhängen und einen Korrelationskoeffizienten ρ haben:

σₓᵧ = ρσₓσᵧ

Die komplette Formel für die Addition sieht dann so aus:

σz² = σₓ² + σᵧ² + 2ρσₓσᵧ

Wir können dieses Konzept besser mit einem Beispiel verstehen. 

Lass uns mal den Umfang einer rechteckigen Metallplatte bei einer hohen Temperatur messen. Wir messen eine Länge L von 10,0 ± 0,1 cm und eine Breite W von 5,0 ± 0,05 cm. Der Umfang ist P = 2L + 2W.

Ohne Korrelation zu berücksichtigen:

P = 2(10.0) + 2(5.0) = 30.0 cm
σₚ = √[(2 × 0.1)² + (2 × 0.05)²] = √[0.04 + 0.01] = 0.22 cm

Die Wärmeausdehnung wirkt sich aber auf beide Dimensionen ähnlich aus. Wenn wir feststellen, dass der Korrelationskoeffizient ρ = 0,7 ist (starke positive Korrelation):

Covariance term: 2 × 2 × 2 × 0.7 × 0.1 × 0.05 = 0.028
σₚ = √[0.04 + 0.01 + 0.028] = √0.078 = 0.28 cm

Das Ignorieren der Korrelation hat unsere Unsicherheit um etwa 25 % unterschätzt, was ein großer Unterschied ist, der unsere Schlussfolgerungen beeinflussen könnte.

Wir sollten die Kovarianz einbeziehen, wenn:

  • Bei mehreren Messungen wird dasselbe Gerät oder derselbe Kalibrierungsstandard benutzt.
  • Die Umgebungsbedingungen (Temperatur, Druck, Feuchtigkeit) beeinflussen alle Messungen gleichzeitig.
  • Variablen haben bekannte physikalische Beziehungen (wie sich gemeinsam ausdehnende Dimensionen).

Wir können die Kovarianz getrost weglassen, wenn die Messungen wirklich unabhängig sind, also mit verschiedenen Geräten oder zu unterschiedlichen Zeiten gemacht wurden, oder wenn die Korrelation im Vergleich zu anderen Unsicherheitsquellen nicht so wichtig ist. Wenn du dir nicht sicher bist, ob sich veränderte Bedingungen auf beide Messungen gleich auswirken würden, sind sie wahrscheinlich miteinander verbunden, und das solltest du bei deiner Analyse berücksichtigen.

Fortgeschrittene Methoden zum Umgang mit Unsicherheit

Wenn Funktionen bedingte Logik, iterative Berechnungen oder komplexe nichtlineareBeziehungen beinhalten,ist die Monte-Carlo-Simulation einegute Alternative.

Monte-Carlo-Simulationen

Die Monte-Carlo-Simulation geht direkt ran: Anstatt Unsicherheiten durch Formeln weiterzugeben, simulieren wir Tausende von möglichen Szenarien und schauen uns die Verteilung der Ergebnisse an. 

Der Ablauf ist:

  1. Mach zufällige Stichproben aus der Verteilung jeder Eingabevariablen.
  2. Berechne das Ergebnis für jede Probengruppe.
  3. Analysiere die Ausgabeverteilung, um die Unsicherheit zu bestimmen.

In unserem ausführlichen Leitfadenerfährst du, wie du eine Monte-Carlo-Simulation in Excel machst . Um dieses Tutorial komplett zu machen, schauen wir uns noch mal ein Szenario an, in dem die Analyse-Methoden kompliziert werden. 

Nimm mal z =x²/y, wobei x = 10,0 ± 0,5 und y = 2,0 ± 0,2. Wir könnten zwar partielle Ableitungen nehmen, aber schauen wir uns mal einen konzeptionellen Ansatz an, wie Monte Carlo das macht:

for each of 10,000 iterations:
   x_sample = random value from normal(mean=10.0, std=0.5)
   y_sample = random value from normal(mean=2.0, std=0.2)
   z_sample = x_sample² / y_sample
  
result = mean of all z_samples = 50.2
uncertainty = standard deviation of z_samples = 5.3

Das Coole an diesem Ansatz ist, dass er:

  • Klappt mit jeder Art von Verteilung: Unsere Eingaben müssen nicht normal verteilt sein.
  • Natürliche Korrelationsverarbeitung: Erinnerst du dich an unsere korrelierte Umfangsmessung? Monte Carlo kann direkt korrelierte Zufallsstichproben erzeugen.
  • Vollständiges Ausgabebild: Wir kriegen die komplette Verteilung der Ergebnisse, die Schiefe oder mehrere Spitzen zeigen, die man mit der Standardabweichung allein vielleicht nicht erklären kann.
  • Funktioniert mit komplexen Logik: Funktionen mit Wenn-Dann-Bedingungen oder Min-/Max-Operationen können verarbeitet werden.

Also, wann sollten wir Monte Carlo den analytischen Methoden vorziehen? Wir können es in Betracht ziehen, wenn:

  • Unsere Funktion beinhaltet bedingte Anweisungen oder iterative Berechnungen.
  • Variablen folgen nicht-normalen Verteilungen (uniform, exponentiell usw.).
  • Wir brauchen die ganze Verteilung der Ausgänge, nicht nur die Standardabweichung.
  • Der analytische Ansatz braucht komplizierte Ableitungen, bei deren Berechnung wir uns nicht sicher sind.

Für die praktische Umsetzung reichen 10.000 Proben meistens aus, um gute Schätzungen für die meisten Anwendungen zu bekommen, während 100.000 Proben eine hohe Genauigkeit bieten. Moderne Computer können diese Simulationen für einfache Funktionen in Sekundenschnelle durchführen.

Rechnerische Überlegungen

Für Modelle, die viel Rechenleistung brauchen, wie Finite-Elemente-Simulationen oder Klimamodelle, wo eine einzige Berechnung Stunden dauern kann, sind Ersatzmodelle super geeignet. 

Surrogatmodelle sind vereinfachte mathematische Funktionen, die das Verhalten komplexer Modelle nachahmen. Sie sind ein schneller Ersatz, der die Input-Output-Beziehungen des Originalmodells erfasst.

Für die meisten Datenanalysen ist die direkte Monte-Carlo-Simulation aber genau das Richtige, weil sie genau das richtige Gleichgewicht zwischen Genauigkeit und Einfachheit bietet.

Fazit

Dieser Artikel hat dir die Fehlerfortpflanzung gezeigt, also das mathematische Konzept, mit dem man versteht, wie sich Unsicherheiten bei Messungen auf berechnete Ergebnisse auswirken. Wir haben die grundlegenden Regeln für die Weitergabe von Unsicherheiten durch verschiedene mathematische Operationen gelernt, verstanden, wie sich die Korrelation zwischen Variablen auf Unsicherheitsberechnungen auswirkt, und die Monte-Carlo-Simulation als rechnerische Alternative für komplexe Szenarien untersucht.

Wenn du deine Fähigkeiten im Umgang mit Unsicherheiten und statistischen Analysen in realen Anwendungen vertiefen möchtest, solltest du dir unserenLernpfad „Machine Learning Scientist with Python” ansehen. Dieser Lernpfad geht auf überwachtes und unüberwachtes Lernen, Feature Engineering, Zeitreihenanalyse und Deep Learning ein . Dabei ist es wichtig, Unsicherheiten und Fehleranalysen zu verstehen, um die Modellleistung und Konfidenzintervalle zu bewerten und zuverlässige Vorhersagen in Data-Science-Projekten zu treffen.


Arunn Thevapalan's photo
Author
Arunn Thevapalan
LinkedIn
Twitter

Als Senior Data Scientist konzipiere, entwickle und implementiere ich umfangreiche Machine-Learning-Lösungen, um Unternehmen dabei zu helfen, bessere datengestützte Entscheidungen zu treffen. Als Data-Science-Autorin teile ich Erfahrungen, Karrieretipps und ausführliche praktische Anleitungen.

FAQs

Wenn ich Messungen mit Unsicherheiten zusammenzähle, addiere ich die Unsicherheiten direkt?

Nein, du addierst sie in Quadratur (Quadratwurzel aus der Summe der Quadrate). Für z = x + y ist die Unsicherheit σz = √(σₓ² +σᵧ²), nicht σₓ + σᵧ.

Welche Mathe-Operation macht Unsicherheiten am meisten?

Macht und Wurzeln können Unsicherheiten echt verstärken. Für z =xⁿ wird die relative Unsicherheit mit |n| multipliziert, sodass die relative Unsicherheit eines Wertes durch die Kubikform verdreifacht wird.

Wann sollte ich eine Monte-Carlo-Simulation anstelle von analytischen Formeln verwenden?

Verwende Monte Carlo, wenn du mit bedingter Logik, nicht-normalen Verteilungen oder komplexen nichtlinearen Funktionen arbeitest. Es ist auch super, wenn du die volle Leistungsverteilung brauchst.

Wann kann ich die Korrelation zwischen Messungen ignorieren?

Du kannst die Korrelation ignorieren, wenn die Messungen mit unterschiedlichen Instrumenten, zu unterschiedlichen Zeitpunkten oder wenn die Korrelation im Vergleich zu anderen Unsicherheitsquellen vernachlässigbar ist.

Macht Korrelation die Sache immer unsicherer?

Nein, eine positive Korrelation macht die Sache unsicherer, aber eine negative Korrelation kann sie sogar sicherer machen. Der Effekt hängt vom Vorzeichen und der Größe des Korrelationskoeffizienten ab.

Themen

Lerne mit DataCamp

Kurs

Error and Uncertainty in Google Sheets

4 Std.
8.9K
Learn to distinguish real differences from random noise, and explore psychological crutches we use that interfere with our rational decision making.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Lehrer/innen und Schüler/innen erhalten das Premium DataCamp kostenlos für ihre gesamte akademische Laufbahn

Keine Hacks, keine Tricks. Schüler/innen und Lehrer/innen, lest weiter, um zu erfahren, wie ihr die Datenerziehung, die euch zusteht, kostenlos bekommen könnt.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

4 Min.

Lernprogramm

Wie man in Python auf 2 Dezimalstellen rundet

Lerne, wie du in Python eine Zahl auf zwei Dezimalstellen rundest, um die Genauigkeit zu verbessern, indem du Techniken wie round(), format() und String-Formatierungstechniken verwendest.
Allan Ouko's photo

Allan Ouko

Lernprogramm

Fibonacci-Folge in Python: Lerne und entdecke Programmiertechniken

Finde raus, wie die Fibonacci-Folge funktioniert. Schau dir die mathematischen Eigenschaften und die Anwendungen in der echten Welt an.
Laiba Siddiqui's photo

Laiba Siddiqui

Lernprogramm

Wie man eine Zahl in Python quadriert: Einfache Beispiele und fortgeschrittene Methoden

Quadratische Gleichungen in Python sind echt einfach: Benutz den eingebauten **-Operator oder probier NumPy, pow(), math.pow(), Bitoperatoren und andere Funktionen aus, um vielseitigere Lösungen zu finden.
Allan Ouko's photo

Allan Ouko

Lernprogramm

Python-Arrays

Python-Arrays mit Code-Beispielen. Lerne noch heute, wie du mit Python NumPy Arrays erstellen und ausdrucken kannst!
DataCamp Team's photo

DataCamp Team

Lernprogramm

Python NaN: 4 Möglichkeiten, um in Python nach fehlenden Werten zu suchen

Schau dir 4 Möglichkeiten an, wie du NaN-Werte in Python mit NumPy und Pandas erkennen kannst. Lerne die wichtigsten Unterschiede zwischen NaN und None kennen, um Daten effizient zu bereinigen und zu analysieren.
Adel Nehme's photo

Adel Nehme

Mehr anzeigenMehr anzeigen