Demo Anfragen
Q-Interline Technologie. Illustration der Statistik

Statistik und ihre Bedeutung  

In diesem Abschnitt erläutern wir die grundlegenden Elemente der Statistik und deren Einfluss auf die Terminologie und Validierung von Analysemethoden. Statistik ist eine mathematische Disziplin, die auf verschiedene Szenarien angewendet wird, um komplexe Zahlen verständlich zu interpretieren. Sie befasst sich mit Wahrscheinlichkeiten und Unsicherheiten und hilft dabei, deren Quellen zu identifizieren.

Ein fundiertes Verständnis der Statistik ermöglicht eine präzise Beschreibung analytischer Methoden und deren Leistung, wodurch Missverständnisse und Konflikte vermieden werden können.

Elementare Wahrscheinlichkeit

Ein einfaches Beispiel zur Veranschaulichung der Wahrscheinlichkeit ist das Würfeln. Die Wahrscheinlichkeit, eine “1” zu würfeln, beträgt 1/6 oder 16,7%. In der Analytik entspricht dies der Frage, wie sicher wir uns einem Ergebnis von 15,73% sein können. Viele Dezimalstellen können den Eindruck einer höheren Genauigkeit erwecken, obwohl das Ergebnis möglicherweise nur „genauer falsch“ ist.

Die Normalverteilung

Ein zentrales statistisches Werkzeug ist die Normalverteilung, oft dargestellt durch die glockenförmige Gaußsche Kurve. Diese Kurve beschreibt den Zusammenhang zwischen Wahrscheinlichkeit und Ereignis und wird häufig in Verbindung mit dem Begriff “Standardabweichung” verwendet.

µ (My) bezeichnet den Durchschnittswert aller Ereignisse. 
σ (Sigma) steht für die Standardabweichung.  

Die Verteilung der Ereignisse in einer Grundgesamtheit ist wie folgt definiert:
+/- 1 Sigma: 68,2 % der Grundgesamtheit
+/- 2 Sigma: 95,4 % der Grundgesamtheit
+/- 3 Sigma: 99,8 % der Grundgesamtheit

Beispiel: 
Sie kaufen eine Kiste mit 100 Äpfeln, Kaliber 65 mm. Natürlich haben nicht alle Äpfel exakt dieselbe Größe. Sie dürfen aber erwarten, dass die Durchschnittsgröße (µ) 65 mm beträgt. Im Kleingedruckten steht (1 Sigma = 2 mm).

Das bedeutet:
34,1 % + 34,1 %) = 68,2 % von100 Äpfeln, also etwa 68 Äpfel, haben 65 mm +/- 1 Sigma (σ) ( +/- 2 mm), variieren somit zwischen 63 mm und 67 mm.
(13,6 + 13,6) = 27,2 %, also etwa 27 Äpfel weichen mehr als 2mm, aber weniger als 4 mm von den durchschnittlichen 65 mm ab.
(2,1% + 2,1%) also 4-5 Äpfel liegen mehr als 4 mm über dem Durchschnitt.
Schlimmer noch, 2 von 1000 Äpfeln MÜSSEN sogar weit daneben liegen, damit die anderen Zahlen wahr sind.
Diese statistische Verteilung gilt auch für analytische Methoden.

Analytische Begriffe

Statistik ist entscheidend für die Beschreibung der Performance einer Analysemethode. Wichtige Parameter sind:

  • die Übereinstimmung mit der Referenzmethode 
  • die Wiederholbarkeit 
  • die Reproduzierbarkeit
  • die Abweichung bei der Probenhandhabung
  • die Abweichung von Probe zu Probe
  • die Abweichung von Tag zu Tag
  • die Auswirkung von Umwelteinflüssen

Je nach Lehrmeinung werden unterschiedliche Begriffe verwendet, aber mit ähnlicher Bedeutung.

Um zu beschreiben, wie nah die Ergebnisse am „wahren“ Wert liegen:

  • Genauigkeit
  • Übereinstimmung

Für Ergebnisse, die unter identischen Bedingungen im selben Labor von derselben Person mit demselben Gerät innerhalb kurzer Zeit erzielt werden:

  • Wiederholbarkeit 
  • Kurzzeit-Stabilität 
  • Präzision

Für Ergebnisse, die zwar mit derselben Methode erzeugt werden, alle anderen Gegebenheiten aber variieren können: 

  • Reproduzierbarkeit
  • LangzeitStabilität 

Zur Beschreibung einer Methode sollten Begriffe aus jeder der drei Gruppen verwendet werden. Wir nutzen im Folgenden die Begriffe Übereinstimmung, Wiederholbarkeit und Reproduzierbarkeit.

Übereinstimmung 

Eine NIR-Methode ist eine sekundäre Methode, die vollständig von der zur Kalibration verwendeten primären Methode abhängt. Der Begriff “Übereinstimmung” beschreibt, wie gut die NIR-Methode mit der Referenzmethode übereinstimmt. Grafisch oft wie hier dargestellt:

Die rot markierte Probe stimmt nicht zu 100 % überein. 

Dabei tragen jedoch sowohl die primäre als auch sekundäre Methode zur Abweichung bei. Bestimmen Sie den jeweiligen Anteil am Gesamtfehler, bevor Sie eine Methode beurteilen.

In unserem Beispiel wird die Übereinstimmung statistisch als 1 Sigma = 0,38 ausgedrückt. Das bedeutet, dass die NIR-Ergebnisse zu 68 % um ±0,38 und zu 99,7 % der Fälle um ±1,14 (3 Sigma) von der primären Methode abweichen. Da die Probe innerhalb dieser Grenzen liegt, ist die Übereinstimmung akzeptabel.

Wiederholbarkeit 

Die Wiederholbarkeit ist ein entscheidender Parameter zur Beschreibung einer Methode. Sie bezeichnet die Fähigkeit, das gleiche Ergebnis mehrmals hintereinander mit möglichst kleiner Varianz zu erzielen.

Betrachten Sie das Trefferbild auf den Zielscheiben: 
Fall A: Hohe Wiederholbarkeit, aber geringe Übereinstimmung. 
Fall B: Geringe Wiederholbarkeit, aber hohe Übereinstimmung (im Durchschnitt). 

Jedes dieser Fehlerbilder erfordert eine andere Vorgehensweise, um den Fehler zu minimieren. Gemeinsam ist beiden, dass dies nur durch genau definierte Abläufe geschehen kann.

Statistik - sehr gute Wiederholbarkeit gegen geringe Wiederholbarkeit.
Case A – Case B

Reproduzierbarkeit

Die Reproduzierbarkeit ist mit der Wiederholbarkeit verwandt, aber anstatt die Probe an Ort und Stelle zehnmal auf die Kurzzeit-Stabilität der Hardware zu testen, überprüfen wir nun die Robustheit der Methode hinsichtlich folgender Fragen:

  • Werde ich morgen dasselbe Ergebnis erhalten? 
  • Wird eine andere Person dasselbe Ergebnis erhalten? 
  • Werde ich in einem anderen Probengefäß dasselbe Ergebnis erhalten? 
  • Was passiert, wenn ich fünf Teilproben von derselben Hauptprobe abfülle? 

Antworten auf diese Fragen kann lediglich ein Test liefern.  

Wichtig ist an dieser Stelle, dass die Übereinstimmung durch eine schlechte Wiederholbarkeit und/oder Reproduzierbarkeit beeinträchtigt wird. Als Faustregel gilt, dass die Wiederholbarkeit und Reproduzierbarkeit zusammen nicht mehr als 33 % des Gesamtfehlers ausmachen sollten. Denn die Standardabweichung aus den wiederholten Messungen folgt denselben Regeln wie die der Übereinstimmung. Beträgt diese 0,38; so wären 1 Sigma ±0,13.

Praktisches Beispiel 

Auf einem NIR-Analysesystem wird Hühnerfutter gemessen, wobei der Fokus auf dem Fettgehalt liegen soll. Zehn Proben wurden sowohl auf dem Analysegerät als auch im Referenzlabor untersucht, mit folgenden Ergebnissen:

NIR Fett [%]Labor Fett [%]Differenz [%]
12,6512,92 0,27
13,1112,79-0,32
8,93 8,67-0,26
13,1713,36 0,19
12,2212,17-0,05
11,8812,12 0,24
12,7913,19 0,4
11,0311,41 0,38
Mittlere Abweichung (µ)0,106 [%]
Standardabweichung (σ)0,263 [%]

Auf den ersten Blick sieht das nicht besonders gut aus, Grund genug, uns die Zahlen näher anzuschauen.

Lägen alle Ergebnisse des Labors im Durchschnitt um 0,106 höher oder tiefer als die des NIR-Geräts könnte dies als systematischer Fehler, als sogenannter „Bias“, interpretiert werden. Da die Einzelergebnisse jedoch sowohl nach oben als nach unten abweichen und zudem nur acht Ergebnisse berechnet wurden, trifft das hier kaum zu. Zumal der Bias weniger als die Hälfte der Standardabweichung beträgt. Um einen Bias bzw. einen systematischen Fehler zu bestimmen, würde man mehr Daten über einen längeren Zeitraum benötigen sowie zudem die Signifikanz berechnen (die in dieser Einführung nicht behandelt wird).

Deshalb bestimmen wir zuerst die Standardabweichung der Wiederholbarkeit. Dazu wird ein und dieselbe Probe einfach achtmal hintereinander auf dem Analysegerät gemessen:

Wiederholungen% Fett
112,58
212,71
312,72
412,60
512,77
612,74
712,69
812,79
Wiederholbarkeit (σ)0,07 [%]

Der „Sampling“-Fehler 

Dieser Fehler umfasst mehrere Aspekte einer Probevorbereitung, von der Probenahme bis hin zu der zur Tatsache, dass oft unterschiedliche Teilproben der gezogenen Probe im Referenzlabor und auf dem NIR-Gerät analysiert werden. In unserem Beispiel fokussieren wir uns auf den Anteil, der aus der Heterogenität der Probe und der Erstellung von Teilproben entsteht. Wäre die Probe vollkommen homogen, müssten die acht Teilproben alle das gleiche Ergebnis liefern:

Teilprobe% Fett
112,81
212,63
312,69
412,63
512,77
612,87
712,79
812,54
Reproduzierbarkeit (σ)0,10 [%]

Das “Fehler-Budget” 

Aus diesen drei Hauptfaktoren können wir nun ein “Fehler-Budget” berechnen, anhand dessen die Qualität einer Kalibration – wie hier für das Fett – realistischer beurteilt werden kann als nur dem Gefühl nach.

Die Formel für die mathematische Annäherung lautet: 

Dabei ist:

  • a =der Fehler (σ) der Referenzmethode, in unserem Beispiel = 0,23 % (erfragt beim Referenzlabor)
  • b = der Fehler (σ) der Wiederholbarkeit, hier also = 0,07 %
  • c = der Fehler (σ) aus der Reproduzierbarkeit, in unserem Beispiel = 0,10 %

Schon allein aus der grafischen Darstellung dieser Werte wird deutlich, welche Bedeutung dem Fehler der Referenzanalytik zukommt.

Veranschaulichung des Anteils der häufigsten Fehlerursachen bei der Analyse


Setzt man nun unsere Werte in die Formel ein, erhält man folgende Abschätzung:

Schlussfolgerung

Die zu Beginn unseres Beispiels ermittelte Standardabweichung der NIR-Ergebnisse von den Referenzwerten stimmt mit dem berechneten Fehlerbudget überein. Unsere Methode für die Bestimmung von Fett hält also einer statistischen Kontrolle stand, da die Genauigkeit erklärt werden kann.

Potential für Verbesserung böte in unserem Fall die Referenzmethode, die hier den größten Einfluss auf das Ergebnis hat.

Regelkarte

Eine Regelkarte zur Qualitätssicherung ist ein grafisches Tool, das die zeitliche Entwicklung statistischer Kenngrößen darstellt. Wenn eine Methode Teil eines kritischen Kontrollprozesses ist oder wesentlich zur Aufrechterhaltung der Einnahmen beiträgt, ist es wichtig, die Übereinstimmung zu überwachen, um die Prozesse möglichst nah am Ziel zu halten. Ein Verlust der Übereinstimmung bedeutet einen Gewinnverlust.

Unten sehen Sie ein typisches Beispiel für eine Regelkarte zur Übereinstimmung der Fettbestimmung in Rohmilch. Schon kleine Abweichungen können Geld oder Produktqualität kosten.

Q-Interline Technologie - NIR-Spektroskopie, Probenahme, IoT, Statistik
Vereinfachte Regelkarte

Eine Regelkarte stellt Daten dar, die im Laufe der Zeit aufgezeichnet werden. Die Mittellinie der Regelkarte visualisiert den Zielwert, verschiedene Warn- und Alarmgrenzen definieren die Toleranz nach oben und unten. Solange die Werte innerhalb der Toleranz liegen, müssen keine Korrekturen vorgenommen werden, der Prozess ist statistisch kontrolliert. Eine Änderung nur aufgrund eines einzelnen Ergebnisses hätte dagegen schwerwiegende Abweichungen zur Folge.

AnalyticTrust bietet eine Vielzahl von Regelkarten für unterschiedliche Kenngrößen. So können eventuelle Trends frühzeitig erkannt und rechtzeitig gegengesteuert werden, bevor es zu Problemen kommt, die teuer werden können. Eine wesentliche Voraussetzung für eine statistische Prozesskontrolle („SPC“).

FT NIR-Analysesystem für die Produktanalyse im Labor. NIR-Laborgeräte.

Wir schaffen Mehrwert für Sie

Unsere Vision ist es, der weltweit beste Anbieter von FT-NIR-Analyselösungen zu sein. Wir helfen unseren Kunden:

  • Sicherstellung der Produktqualität
  • Optimierung der Rohstoffausnutzung
  • Optimierung der Produktionsprozesse
  • Reduzierung des Energieverbrauchs

– auf einfache, präzise und effiziente Weise mit unseren patentierten FT-NIR-Lösungen. Wir arbeiten mit Kunden aus den Bereichen Milchwirtschaft, Landwirtschaft, Lebensmittel und Zutaten sowie in den nordischen Ländern auch aus den Bereichen Pharma und Chemie zusammen.

Nach oben scrollen