Wednesday, 15 February 2017

Moving Average Klinische Chemie

Statistische Qualitätskontrolle in Hämatologie-Analysatoren Die statistische Qualitätskontrolle, die in Hämatologie-Analysatoren durchgeführt wird, hat viele wichtige Unterschiede von den entsprechenden Techniken in den klinisch-chemischen Analysatoren. Diese Unterschiede sind auf Gründe wie die hohe Stabilität der Zytometrie-Technologie, die kleine biologische Variation einiger Hämatologie-Parameter, die großen Reagenzfläschchen und die geringe Zeitdauer der Hämatologie-Kontrollen zurückzuführen. Wegen der oben genannten Gründe, die Levey-Jennings Diagramme in Hämatologie-Analysatoren unterscheiden sich von entsprechenden Charts in der klinischen Chemie. Zum Beispiel haben die Hämatologie Levey-Jennings Diagramme nur drei Linien (obere und untere Grenzen und zentrale Linie). Der Grund dafür ist, dass diese Levey-Jennings-Diagramme nicht statistisch aus einer normalen Verteilung der bisherigen Qualitätskontrolldaten erstellt werden, was aufgrund der sehr kleinen Variation der hämatologischen Qualitätskontrollwerte nicht möglich ist. In Hämatologie-Analysatoren gelten die oberen und unteren Grenzwerte als Grenzwerte für die industrielle Qualitätskontrolle. Die kleine biologische Variation vieler Hämatologieparameter machte viele Forscher zu etablierten Methoden der Qualitätskontrolle, die nur auf den Ergebnissen der Patienten basierten. Solche geeigneten Parameter sind die Erythrozytenindizes (MCV, MCHC, MCV) mit der kleineren biologischen Variation (nicht nur wegen der Biologie, sondern vor allem der hämatologischen Analysentechnik). Diese Attribute von ihnen inspiriert Brian Bull (ein amerikanischer Hämatologe), um eine neue Qualitätskontrolle Methode weithin als Bulls-Algorithmus bekannt zu etablieren. Bulls-Algorithmus (auch bekannt als Methode) erkennt systematische Fehler in MCV, MCHC und MCV und folglich in HgB, Hct und RBC. Seine Methode ist eine Art gleitender Durchschnitt. Ihre Hauptidee ist es, den Mittelwert der letzten zwanzig Patientenwerte, darunter auch den Mittelwert der Charge der letzten zwanzig Werte, abzuschätzen. Der Algorithmus selbst ist eine ziemlich komplizierte Gleichung, die die Ausreißer eliminiert und den gleitenden Durchschnitt der letzten zwanzig Werte schätzt. Stier-Algorithmus hat sich als sehr effektiv bei der Erkennung kleiner systematischer Fehler (fast 1) nicht nur in Erythrozyten-Indizes, sondern auch in fast allen Hämatologie-Parameter. Es verwendet alle Patienten Daten ohne Ausnahme. Die letzte Tatsache machte Bulls-Algorithmus die billigste Qualitätskontrolle Methode in der Labormedizin. Hämatologie Qualitätskontrolle Proben dauern nur 20 30 Tage und sind sehr teuer, wenn auf der anderen Seite Vollblutproben im Kühlschrank für 24 Stunden stabil sind. Diese Tatsachen führten einige Forscher dazu, Methoden zu finden, die auf der wiederholten Analyse von Patientenproben beruhen. Diese Verfahren sind als zurückbehaltene Patientenproben bekannt. Im Jahr 1988 Cembrowski (kanadische klinische Chemiker) etabliert die effektivsten Patientendaten Patient Methode. Es basierte auf der wiederholten Analyse der gleichen Patientenproben zwischen zwei aufeinanderfolgenden Tagen. Seine Methode ist bekannt als mn lim. - Lim steht für die Qualitätskontrollgrenze. Sie ist gleich dem Doppelten der Standardabweichung der repetitiven Analyse (2 x SD). - n steht für die Anzahl der Patienten, die zweimal analysiert werden. - m steht für den Anteil der n Anzahl der Proben, der außerhalb der Grenzwerte (lim) liegen darf. Statistische Simulationen von Cembrowski bewiesen die Wirksamkeit seiner Methode. Ihm zufolge ist die beste Kombination von m, n und lim 2, 3, 2 oder 23 2s. Abschließend stehen drei verschiedene Methoden zur Verfügung, um die analytischen Fehler im hämatologischen Labor nachzuweisen. Levey-Jennings erkennt systematische und zufällige Fehler. Im Gegenteil, Bulls-Algorithmus und behalten Patientenproben entdecken nur systematische Fehler, aber sie haben den Vorteil der niedrigen Kosten. Labor kann die beste Kombination der drei wählen. 949955949965964945943945 T 949957951956941961969963951. 922965961953945954942 921945957959965945961943959965 20, Am 2013Ensuring Qualität IT Algorithmen - Fallbeispiel: University of Michigan Chemical Pathology Laboratory Bitte wählen Sie eine der folgenden Optionen: Moderator: Nancy Haley, Senior Clinical Consultant Siemens Healthcare Diagnostics, Inc. Tarrytown, NY Sprecher: Eric Vasbinder , Chemistry Automation Supervisor Chemical Pathology Laboratory Universität Michigan Gesundheitssystem Ann Arbor, MI Jedes Labor will die höchstmögliche Qualität erreichen und sein Engagement für rechtzeitige Ergebnisse liefern. Allerdings ist die Verwaltung der Qualitätskontrolle (QC) häufig ein manueller und zeitraubender Prozess, der die Bearbeitungszeit und das Fehlerrisiko erhöhen kann. In diesem Webinar wird Eric Vasbinder von der University of Michigan Hospital gezeigt bewährte Techniken wie Patienten bewegte Durchschnitte und Westgard Regeln zu proaktiv zu behandeln QC Fragen. In den vergangenen 7 Jahren hat die University of Michigan in der Lage, Fehler zu reduzieren, um 73 und erhöhen das Volumen 97, während die Mitarbeiterschaft flach. Erfahren Sie die Tipps und Techniken, die für dieses fortschrittliche Labor gearbeitet haben, um QC mit dem CentraLink Data Management System zu optimieren. Erfahren Sie, wie Sie proaktive QC zu verwalten und zu verhindern, bevor sie auftreten Evaluieren Sie die richtige Batch-Größe für Patienten bewegte Durchschnitte Entdecken Sie die Vorteile der Integration von QC mit Ihrem Daten-Management-Prozess Pinpoint die Problemzonen und umleiten Proben zur Minimierung der Verzögerung und Reagenz-Abfälle Siemens weiterhin Bildungseinrichtungen Chancen zu wichtigen Themen der Laborwissenschaft und der klinischen Umsetzung. Wir laden Sie ein, an anderen Siemens-Webinaren meetme. netsiemenswebinars teilzunehmen und öfter zu überprüfen. Als Ihr zuverlässiger Partner ist Siemens engagiert sich, damit Sie an der Spitze der Labor medicine. Optimization eines Moving Averages Programm bleiben, um ein simuliertes Ausglühen Algorithmus: Das Ziel ist es, den Prozess zu überwachen die Patienten nicht HINTERGRUND: Der Patient gleitenden Durchschnitt (MA) Ist eine QC-Strategie, die das durchschnittliche Patientenergebnis verwendet, um die Testleistung kontinuierlich zu überwachen. Die Entwicklung empfindlicher MA-Protokolle, die einen systematischen Fehler (SE) schnell erkennen, ist eine Herausforderung. Wir vergleichen MA-Protokolle, die mit einem zuvor veröffentlichten Bericht als Leitfaden erstellt wurden, und zeigen die Verwendung eines simulierten Anlagerungsalgorithmus (SA), um die MA-Protokollleistung zu optimieren. METHODEN: Unter Verwendung von 400 Tagen Patientendaten, haben wir MA-Protokolle für 23 Tests entwickelt. MA-Protokolle, die unter Verwendung eines zuvor veröffentlichten Berichts und unseres SA-Algorithmus entwickelt wurden, wurden unter Verwendung der durchschnittlichen Anzahl von Patienten, die bis zur Fehlerdetektion (ANP ed) betroffen waren, verglichen. ERGEBNISSE: Der Vergleich der Strategien zeigte, dass mit dem SA-Algorithmus entwickelte Protokolle im Allgemeinen als überlegen erwiesen. Einige Analyten wie das Gesamtprotein zeigten eine beträchtliche Verbesserung mit einem positiven SE von 0,8 gdL, das mit einem ANP ed von 135 Proben unter Verwendung der zuvor veröffentlichten Methode identifiziert wurde, während der SA-Algorithmus diese SE mit einem ANP ed von 18 nachgewiesen hatte. Nicht alle Analyten zeigten eine ähnliche Verbesserung Mit dem SA-Algorithmus. Phosphor zeigte zum Beispiel nur geringe Verbesserungen, wobei ein positiver SE von 0,9 mg dl mit einem ANP ed von 34 unter Verwendung des zuvor veröffentlichten Verfahrens gegenüber einem ANP ed von 29 unter Verwendung des SA-Algorithmus nachgewiesen wurde. Wir zeigen auch ein Beispiel der SE-Erkennung in einer Live-Umgebung mit dem SA-Algorithmus abgeleiteten MA-Protokolle. FAZIT: Die SA-Algorithmen entwickelten MA-Protokolle sind derzeit in unserem Labor und sie erkennen schnell SE, wodurch die Anzahl der Proben, die Korrektur und Verbesserung der Sicherheit der Patienten. Es gibt zahlreiche QC-Strategien, die auf die Veränderung der Häufigkeit der Flüssig-QC-Analyse zum Überwachen von Chemie-Assays (1. 2) basieren. Trotz des Bewusstseins für diese Strategien, messen viele klinische Chemie-Laboratorien nur 2 Konzentrationen von QC einmal pro 24 h. Diese Frequenz reicht zwar nicht aus, um die Vorschriften der Regulierungsbehörde einzuhalten, reicht jedoch nicht aus, um systematische Fehler (SE) schnell zu erkennen. 3 Da sich SE zu jeder Zeit zwischen QC-Ereignissen entwickeln kann, kann SE für Stunden unentdeckt gehen, was Hunderte von Patientenresultaten betrifft. Eine Erhöhung der QC-Frequenz verbessert die Geschwindigkeit der SE-Detektion, erhöht aber auch die Kosten durch den Verbrauch von QC-Material, Reagenzien und die technische Zeit, die erforderlich ist, um QC-Ergebnisse durchzuführen und aufzuzeichnen. Kurz gesagt, obwohl die Analyse von QC-Material ist wertvoll, es bietet nur eine Momentaufnahme der Assay-Performance. QC-Materialien können auch keine Umwandlungsfähigkeit zu nativem Serum aufweisen, da sie durch Zugabe von exogenen Komponenten zu einer Basisserummatrix hergestellt werden. Diese QC-Materialien können sich wesentlich von nativem Serum unterscheiden, und dieser Mangel an Kommutierbarkeit kann eine Verschlechterung der Testleistung (3 5) verschlechtern. Aufgrund dieser Mängel haben einige Publikationen die Überwachung des mittleren Patientenwertes für chemische Analyte als ergänzende QC-Strategie vorgeschlagen (6, 13). Bewegungsdurchschnitte (MA) oder alternativ der Durchschnitt von Normalen können SE vor dem nächsten QC-Ereignis detektieren, wodurch die Anzahl der unzuverlässigen Patientenergebnisse minimiert wird. Der erste Artikel schlägt MA für Chemie Analyten wurde in 1965 und den folgenden Artikeln haben das Konzept veröffentlicht verfeinert, indem die Anzahl von Patientenproben gemittelt, durch Abschneiden Grenzen Anwendung (TLS) Ausreißer auszuschließen oder exponentiell gewichteten MA mit (EWMA) Berechnungen (6 13). Die Etablierung von MA-Protokollen erfordert die Auswahl von Kontrollgrenzen (CL) oder die tolerierbare SE-Grße, die Anzahl der Patientenergebnisse im Mittel (N) und die Konzentrationen, bei denen TL platziert wird, um die Wirkung von Ausreißern zu minimieren. Von den bisher veröffentlichten Techniken zur Auswahl von N untersuchten wir die Strategie, die 1984 von Cembrowski und Kollegen veröffentlicht wurde (7). In dieser Strategie wird N durch Berechnen des Verhältnisses der Patientenpopulation SD (Sp) zu der analytischen Ungenauigkeit SD des Assays (Sa) ausgewählt. Das SpSa-Verhältnis, wenn es mit einem Nomogramm in derselben Publikation angewandt wird, leitet die Selektion von N (7). Wir entwickelten MA-Protokolle mit dieser Strategie für mehrere Chemie-Analyten und nutzten zusätzlich einen simulierten Anlagerungs - (SA) - Algorithmus, um unsere MA-Protokolle zu optimieren. Die Durchführung von Protokollen, die mit beiden Strategien entwickelt wurden, wurde durch Simulation von SE-Bedingungen auf historischen Patientendaten und Berechnen der durchschnittlichen Anzahl der betroffenen Patientenproben, bis das induzierte SE nachgewiesen wurde, bewertet (ANP ed). Materialien und Methoden PATIENTENDATEN UND TESTS BEWERTET Vier hundert Tage Patientenergebnisse mit den Data Innovations-Middleware-Programm Version 8.10 (Data Innovations) gesammelt wurden, als durch Komma getrennte Dateien von Februar 2012 bis März 2013 und zusammengestellt via Matlab Version R2012a (Mathworks) gespeichert . Proben von Patienten im Alter von 18 Jahren, der Notfallabteilung (ED) und der Hämatologie-Klinik wurden von der Analyse ausgeschlossen, da pädiatrische Patienten altersbedingte Unterschiede in vielen Analyten aufwiesen, die Hämatologie-Klinik-Patienten häufig mit anormal hohen oder niedrigen Serumproteinen und / oder Calciumkonzentrationen und ED-Patienten aufwiesen Kann mit Säurebasis - und Elektrolytanomalien auftreten, die sich wesentlich von stabilen stationären oder ambulanten Patienten unterscheiden. Nach Ausschluss der obigen und aller QC und doppelten Patientenwerte enthielt das endgültige Array 1915999 Ergebnisse. Assays, die durch die Middleware mit täglichen Testvolumina von gt100-Proben sowie hochempfindlichem C-reaktivem Protein (hsCRP), freiem Thyroxin, Eisen und Lipase mit wöchentlich durchschnittlichen Volumina von etwa 300, 230, 200 und 150 Proben, Wurden für MA-Eignung untersucht (Tabelle 1). Analysen mit großen Geschlechtsunterschieden wie Kreatinkinase wurden nicht untersucht, da Schwankungen der Geschlechtsverteilung zu unvorhersehbaren Veränderungen in den Mittelwerten führen würden, die nicht mit der analytischen Leistung in Zusammenhang stehen. Nach Ausschluss der pädiatrischen, Hämatologie-Klinik und ED-Patienten war die kleinste Anzahl von Untersuchungsergebnissen für Lipase mit 4101 Ergebnissen und die größte war Chlorid mit 139180 Ergebnissen. Vergleich von geführten und Algorithmen optimierten Protokollen. Eine MANUELLE BESTIMMUNG DER BEWEGLICHEN AVERAGES PARAMETER MA CLs wurden durch Berechnen des Referenzänderungswertes (RCV) unter Verwendung der Formel RCV bestimmt. Wobei Z 1,96 für 2 SD eine 2-tailed-Verteilung CV a 2 CV des Assays CV i 2 innerhalb einer individuellen biologischen Variation verändert. CL waren somit der mittlere Patientwert der RCV-Wert. Der analytische CV wurde durch Überprüfung der historischen Daten des QC-Materials bestimmt, die dem durchschnittlichen Patientenwert für jeden Assay am nächsten waren. Die interne biologische Variation wurde aus der wünschenswerten biologischen Variationsdatenbank, die in Westgard (14) zusammengestellt wurde, erhalten. Die Filterlänge oder N wurde bestimmt, wie von Cembrowski et al. (7). Kurz gesagt wurden die Patientendaten in einer Frequenzverteilungstabelle aufgetragen und individuelle Assaymittel und Sp berechnet. Sa wurde durch Überprüfung der historischen QC-Daten ermittelt, die dem durchschnittlichen Patientenwert für jeden Assay am nächsten waren. Das SpSa-Verhältnis wurde vor Anwendung auf das Nomogramm (7) berechnet und auf die nächste ganze Zahl gerundet. Die stationären und ambulanten Populationen wurden getrennt für einige Analyten analysiert. Für diese Assays wurden die Daten in stationäre und ambulante Patientenanordnungen unterteilt, aufgezeichnet in getrennten Häufigkeitsverteilungstabellen und stationären und ambulanten Mitteln und Sp, die vor der Berechnung des SpSa-Verhältnisses bestimmt wurden. TLs dienen dazu, Extremwerte von der MA-Berechnung auszuschließen. Werte, die außerhalb der TLs liegen, sind nicht im berechneten mittleren Patientenwert enthalten. Wenn die Datenverteilung grob symmetrisch war, wurden TLs 4 SD aus dem mittleren Patientenwert platziert, eine Praxis, die durch eine Middleware-Verkäuferausbildung beeinflusst wurde. Der TL-Wert in schiefen Verteilungen war der benutzerdefinierte Wendepunkt, für den die Frequenzverteilungskurve begann, sich abzuschwächen. Dieser Wert wurde durch visuelle Inspektion der Verteilung definiert und es wurde kein Versuch zur Optimierung unternommen. Der Prozentsatz der Patientenwerte, die von den TLs ausgeschlossen wurden, war variabel und reichte von einem niedrigen von 0,3 Eisen bei einer Konzentration von 170 gdL bis zu einem Hoch von 58 für Albumin bei einer Konzentration von 3,6 gdL. Die Prozentsätze der Patientenproben, die sowohl für manuell ermittelte als auch von SA-Algorithmen abgeleitete TLs ausgeschlossen sind, sind in Tabelle 1 in der Datenergänzung aufgeführt, die der Online-Version dieses Artikels bei clinchem. orgcontentvol62issue10 beigefügt ist. BEWERTUNG BEWEGLICHER AVERAGES PROTOCOL PERFORMANCE ANP ed wurde berechnet, indem eine analytische Stufenverschiebung im Array von Analytendaten induziert wurde. SE wurde nach den ersten 100 Patientenproben induziert. Die Anzahl der von SE betroffenen Patientenproben wurde als die Anzahl der einzelnen Patientenproben berechnet, die zwischen dem Punkt der Fehlerinduktion und dem ersten MA-Wert, der den CL übersteigt, fallen. Probenwerte, die die TLs übersteigen, wurden von der durchschnittlichen Patientenwertberechnung ausgenommen, wurden aber in der Anzahl der von der SE betroffenen Proben eingeschlossen. Dieser Vorgang wurde wiederholt, wobei induziertes SE zu nachfolgenden Datenpunkten verschoben wurde und die Anzahl der betroffenen Patientenergebnisse gemittelt wurde, um ANP ed zu berechnen. Die Gesamtanzahl der Iterationen zur Berechnung des ANP ed hing von der Größe des Datensatzes für jeden Analyten ab, der kleinste davon war 40 für Lipase und der größte davon als 1390 für Chlorid. Durch Versuch und Fehler fanden wir, dass die Unterabtastung durch ein Intervall von 100 Ergebnissen für eine minimale Variation von ANP ed gegenüber den Rechenkosten der häufigen Unterabtastung erlaubt. Analytische Schritt-Verschiebungen wurden als Fraktionen von CL induziert und bis zu 4-mal CL erhöht. Die ANP ed für SE gleich CL wurde verwendet, um die Leistung über verschiedene Protokolle hinweg zu vergleichen. Andere Fehlerprofile wie eine allmähliche Drift, die die natürliche SE-Entwicklung stärker reflektieren würden, wurden nicht versucht. OPTIMIERUNG ÜBER SIMULIERTES ANGISIERUNGS-ALGORITHMUS Zur Verbesserung der Anfangsprotokollleistung wurde ein SA-Algorithmus in MatLab implementiert, der die Werte von N und obere und untere TLs (TL H bzw. TL L) stochastisch unter Beibehaltung der CL-Konstante stochastisch variierte. Der SA-Algorithmus wurde entworfen, um optimale Werte von N, TL H und TL L zu finden, und zwar durch Minimierung einer Kostenfunktion, die gegeben ist als: (1) wobei ein benutzerdefinierter Gewichtungsfaktor dafür ausgelegt ist, eine niedrige falsch-positive Fehlerrate zu erzwingen (FP-Rate ). Für alle Analyten wurde willkürlich auf 10000 gesetzt, um die FP-Rate mit einem höheren ANP-Wert zu bestrafen. In dieser Analyse war die FP-Rate für alle Protokolle Null und ANPed ist typischerweise ein Wert zwischen 0 und den niedrigen 100s. Die Auswahl von lt10000 kann zu einem niedrigeren ANP ed geführt haben, hätte aber wahrscheinlich auch zu einer größeren FP-Rate geführt, die jedoch nicht getestet wurde. Die Auswahl eines gt10000 kann auch ANP ed beeinflussen, aber in unserem Datensatz a von 10000 resultierte in Protokollen mit einer FP-Rate gleich null, und als solch ein größeres würde wahrscheinlich keine wesentlichen Änderungen in der Leistung erzeugen. Wir haben die 400 Tage der Daten in zehn 40-Tage-Sets unterteilt und über den SA-Algorithmus für eine 10-fache Kreuzvalidierung optimiert. Jeder Satz von optimierten Bedingungen wurde gegen den vollständigen Datensatz getestet. Für die Einfachheit der Berichte berichten wir nur Daten aus Block 10, wenn nicht die Optimierungsbedingungen in Block 10 ein Protokoll erzeugen, das es dem Mittel ermöglicht hat, CL innerhalb der ersten 100 Patientenproben des vollständigen Datensatzes zu überschreiten. Wenn dies auftrat, berichteten wir über die Leistung von Block 9. Dieser SA-Algorithmus erreichte typischerweise eine Konvergenz bei 20003000 Iterationen, während eine vollständige Suche aller möglichen Kombinationen von N, TL H. Und TL L erfordern mindestens 50000iterationen, um den typischen Suchraum von Parametern aufzuzählen. MA-Protokolle, die in dieser Studie entwickelt wurden, werden in unserem Labor mit Data Innovations Middleware Version 8.13 eingesetzt. PERFORMANCE DER SPSA-FÜHRUNGSPROTOKOLLE Für jeden in Tabelle 1 aufgeführten Analyten wurden die folgenden Protokollmerkmale ermittelt: mittlerer Patientennwert, CL, N und TL, wie in den Materialien und Methoden dargelegt. Mit MatLab berechneten wir ANP ed für ein SE, das dem CL für einen bestimmten Analyten entspricht. Die ANP ed für diese ursprünglichen Protokolle variiert von einem niedrigen von 22 für HDL-Cholesterin zu einem Hoch von 7249 für Gesamt-Bilirubin (Tabelle 1. Original-Protokolle). Es gab 5 Analyten, Alanin-Aminotransferase (ALT), Blut-Harnstoff-Stickstoff (BUN), Serumcalcium, hsCRP, Glukose und Schilddrüsen-stimulierendes Hormon (TSH), für die unsere ursprünglichen Protokolle keine SE nach CL erkennen konnten. Die schlechte Leistung für einige Protokolle wurde vermutet, dass sie auf die Unterschiede in der Analytverteilung zwischen hospitalisierten und ambulanten Patienten zurückzuführen sind, wie die für Serumcalcium (Abb. 1) mit einer durchschnittlichen stationären Calciumkonzentration von 8,6 mgdL und einem ambulanten Mittelwert von 9,6 MgdL. Diese Populationen sind weitgehend durch Zeit getrennt, wobei stationäre Populationen am frühen Morgen vorherrschen und ambulante Populationen den Rest des Tages dominieren. Die zeitliche Trennung von stationären und ambulanten Patienten wird in einer animierten Figur als online ergänzend gezeigt. Fig. 1. Frequenzverteilungsgraphen. Die Frequenzverteilungsgraphen für 400 Tage Patientendaten für (A), Natrium, (B), Kalium, (C), Calcium, (D), Bicarbonat, (E), AST, (F), Kreatinin, Gesamtprotein und (H) freiem Thyroxin. Die orange Verteilung repräsentiert alle Patientendaten purple repräsentiert den ambulanten und grün die stationäre Teilmenge aller Patienten. Um die SE-Erkennung zu verbessern, haben wir 2 zusätzliche MA-Protokolle für ausgewählte Analyten entwickelt, um ambulante und stationäre Populationen getrennt zu überwachen. Die getrennten Protokolle führten zu einer drastischen Reduktion der ANP ed für Calcium und Gesamtprotein (Tabelle 2). Trennung der Populationen nicht allgemein verbessert ANP ed. Analyten mit einer ähnlichen Populationsverteilung hatten entweder eine marginale ANP-Verbesserung oder blieben ungefähr gleich. Umgekehrt für einige Analyten wie Kreatinin, die ANP ed erhöht nach der Trennung der stationären und ambulanten Populationen. Geführte Protokollleistung: Erkennung systematischer Fehler. Eine LEISTUNG OPTIMIERTER PROTOKOLLE Um die SE-Erkennung unserer MA-Protokolle zu maximieren, verwendeten wir einen SA-Algorithmus in MatLab zur Auswahl neuer N und TL für alle Tests in Tabelle 1. Der SA-Algorithmus erzeugte Protokolle mit beträchtlichen Abnahmen in ANP ed (Tabelle 1. rechte Spalte ), Die für Analyten mit großen ambulanten und stationären Populationsunterschieden, wie Calcium und Gesamtprotein, und solchen mit schiefen Verteilungen, wie Aspartat-Aminotransferase (AST), Kreatinin und freiem Thyroxin, am bemerkenswertesten waren. Wie in Tabelle 1 zu sehen ist, änderte sich der mittlere Patientennwert für einige Analyten nach der Optimierung eines Effekts, der auf verschiedene TLs zurückzuführen war, die durch den SA-Algorithmus ausgewählt wurden, weil der Einschluss oder Ausschluss von Ausreißern den berechneten Mittelwert beeinflusste. Um die SE-Erkennung über MA-Strategien zu vergleichen, berichten wir die ANP-Werte für SE, die dem CL jedes Assays in unserer Studie entsprechen (Tabelle 1). Kleinere SE-Inkremente kleiner als CL wurden auch für jeden Test getestet. In Fig. 2 ist die ANP ed der ausgewählten Assays gegen die zunehmende SE aufgetragen. In diesen Graphen ist die Abwesenheit von induziertem SE in der Mitte der x-Achse aufgetragen, und das zunehmende positive und das negative SE sind als zunehmende bzw. abfallende Werte aufgetragen. Breaks in den ANP-Ed-Kurven zeigen Bedingungen an, in denen das MA-Protokoll SE nicht detektierte. Wie erwartet, nahm ANP ed ab, wenn die SE-Grße zunahm, was anzeigt, daß die MA-Protokolle SE detektierten, selbst wenn die Grße kleiner als CL war (Fig. 2). Für einige Analyten begann die ANP ed wieder zu steigen, da SE größer wurde als die CL. Dieses Phänomen war auf eine steigende Anzahl von Ergebnissen, die außerhalb der TL fallen, da die SE zunahm. Obwohl dieses Phänomen in einigen ursprünglichen Protokollen (siehe Natrium, Fig. 2A) deutlicher war, traten sie auch für einige Protokolle nach der SA-Algorithmusoptimierung auf (Fig. 2). Feige. 2. Durchschnittliche Anzahl der betroffenen Patienten bis zum Fehler als Funktion der induzierten systematischen Fehler Größe erkannt. Diese Diagramme zeigen die ANP ed von (A), Natrium, (B), Kalium, (C), Calcium, (D), Bicarbonat, (E), AST, (F), Kreatinin, Und (H), freies Thyroxin zur Erhöhung der Größe des systematischen Fehlers. Die durch rote Quadrate definierten Kurven repräsentieren die ursprünglichen MA-Protokolle und die blauen Diamanten repräsentieren die mit dem SA-Algorithmus entwickelten Protokolle. In jedem Diagramm sind die CLs des Assays durch ein offenes Quadrat oder einen Diamanten dargestellt. Bitte sehen Sie die Online-Version für eine Farbversion dieser Figur. Obwohl ANP ed nach Optimierung sank, stellten wir fest, dass der Nachweis von positiver und negativer SE nicht gleich war. Für Calcium wurde ein SE von 1,0 mg dl mit einem ANP ed von 55 Proben mit einem negativen SE von 1,0 mg dL und einem ANP ed von 161 Proben (Tabelle 3) nachgewiesen. Zur Minimierung dieser Asymmetrie trennten wir ambulante und stationäre Populationen und wurden wieder optimiert. TSH, freies Thyroxin, hsCRP und HDL-Cholesterin wurden aus der Subanalyse ausgeschlossen, da die Anzahl der stationären Proben in unserem Datensatz niedrig war. Optimierte Protokollleistung: Trennung von ambulanten und stationären Populationen. Eine Optimierung der stationären und ambulanten Populationen setzte weitere Reduzierungen bei ANP ed für die meisten Analyten ein (Tabelle 3). Wie bei den anfänglichen MA-Protokollen wurden bemerkenswerte Verbesserungen bei ANP ed für Analyte mit großen mittleren Unterschieden zwischen Populationen beobachtet. Nach der Optimierung wurden alle MA-Protokolle in unserem Labor entsprechend den über den SA-Algorithmus gewählten Parametern aktualisiert. ERKENNUNG VON SE IN EINER LEBENDE UMGEBUNG Die oben beschriebenen MA-Protokolle sind seit ca. 2 Jahren im Einsatz, wobei sie mehrere SE-Ereignisse erkannt haben. In Fig. 3 teilen wir eine repräsentative Veranstaltung. In diesem aus der Data Innovations-Middleware gewonnenen Bild zeigte eine Natriumionen-selektive Elektrode (ISE-Brown-Quadrate) einen positiven SE-Zustand, der die mittlere Natriumkonzentration um gt4 mmolL (Pfeil) erhöhte. Die anderen Natrium-ISEs, die SE nicht erleben, bleiben dem Mittelwert näher. Nach der Rekalibrierung fiel die mittlere Natriumkonzentration auf das Zielmittel zurück. In diesem Real-Life-Beispiel entwickelte sich die SE-Bedingung bald nach routinemäßiger Kalibrierung und QC. Da der SE-Zustand schnell erkannt wurde, mussten nur 14 Patientenproben korrigiert werden. Wenn wir nur auf traditionelle QC-Methoden angewiesen waren, konnten viele weitere Patientenproben betroffen sein. Feige. 3. Nachweis eines systematischen Fehlers in einer lebenden Umgebung. Screen-Capture aus unserem Natrium-ISE-Protokoll demonstriert die Erkennung von systematischen Fehler (Pfeil) in 1 von 5 Natrium-ISEs in unserem Labor. Die getrennten Symbol - und Farbkombinationen stellen verschiedene ISEs dar, die Natriummessungen durchführen. Jedes einzelne Symbol in diesem Natrium ambulanten Patienten nur Protokoll stellt den Durchschnitt von 14 Patienten Ergebnisse. Die horizontale grüne Linie in der Mitte des Graphen repräsentiert die mittlere Natriumkonzentration in diesem Protokoll. Die horizontalen roten Linien stellen die CLs des Protokolls dar, und die gelben sind gleich der Hälfte der CLs. Bitte sehen Sie die Online-Version für eine Farbversion dieser Figur. Diskussion Wir haben gezeigt, dass ein SA-Algorithmus MA-Protokolle erzeugt, die SE schnell erkennen und die Anzahl der unzuverlässigen Patientenergebnisse minimieren. Obwohl die Performance von SA-Algorithmen optimiert Protokolle variiert wurden wir in der Lage, SE-Erkennung durch die Entwicklung von separaten ambulante und stationäre Protokolle zu verbessern. Die Leistungsfähigkeit der SA-Algorithmen-basierten MA-Protokolle war wesentlich besser als die unserer ursprünglichen Protokolle. Die SpSa-Verhältnisstrategie kann verwendet werden, um MA-Protokolle zu erzeugen, diese Strategie ist jedoch am besten für Analyte mit normalen Verteilungen geeignet. Der Vergleich unserer Studie mit einem zuvor veröffentlichten zeigt, dass unsere SA-Algorithmus-Strategie SE mit einem ähnlichen ANP ed (8) erkennt. Im Gegensatz zu anderen gemeldeten Strategien erzeugten wir keine Normalverteilungen von Daten (6) oder zufällig ausgewählte Werte aus einer Verteilung (8), sondern optimierten die Protokolle bei der Einstellung natürlicher Tag-zu-Tag-Datenvariationen. Um die FP-Rate zu minimieren, setzen wir den Gewichtungsfaktor auf 10000 in unserer SA-Algorithmus-Kostenfunktion. Dies erzwang die Auswahl von Parametern, die die FP-Rate auf Null für alle Protokolle reduzierten. Eine FP-Rate von Null ist nicht statistisch möglich und ist ein Artefakt, um unsere Protokolle auf den 400-Tage-Datensatz zu optimieren. Die Anwendung dieser Parameter auf einen anderen Datensatz würde eine quantifizierbare FP-Rate ergeben. Anekdotisch haben wir Falschfehlerereignisse mit diesen Protokollen in einer Live-Umgebung erlebt. Nicht jeder Chemie-Test ist für MA Monitoring zugänglich. SE-Detektion für schiefe Verteilungen war schlecht (2 und Tabelle 3) und obwohl der SA-Algorithmus die SE-Detektion verbessert hat, gibt es Möglichkeiten für eine weitere Verbesserung. Die schlechte Leistung der Glukose-MA könnte aufgrund unserer Unfähigkeit zu trennen Fasten und nonfasting Ergebnisse. Für BUN war die wahrscheinlichste Einschränkung unser schmales CL-Ziel von mittlerem 2 mgdL, das aus dem RCV stammte. Wenn wir alternative Methoden zur Bestimmung von CL gewählt hätten, wie zum Beispiel das Sp, hätten wir eine bessere ANP ed erhalten. Aber für die Studienkonsistenz wurde dies nicht untersucht. Andere Techniken, die die SE-Erkennung, wie die bewegte Mediananalyse und EWMA (6. 9. 15), verbessern könnten, obwohl sie auf der Data Innovations v.8.13-Software verfügbar waren, wurden nicht untersucht. Wir haben gewählt, um den SA-Algorithmus aus 4 Gründen zu verwenden. Erstens konnte bei einem ausreichend großen Datensatz und einem gegebenen Satz von N - und TLs die CL auf den maximalen und minimalen mittleren Patientenwert in Abwesenheit von induziertem SE gesetzt werden, um ANP ed zu minimieren. Allerdings würde die Einbeziehung von CL in SA-Optimierung die Größe des Suchraums um etwa 2 Größenordnungen erhöhen. Angesichts der technischen Grenzen unserer Computerhardware konnten wir diese Studie nicht ausprobieren. Zweitens ist die Datenverkürzung ein inhärent nichtlinearer Prozess, der nicht in einer geschlossenen Lösung ausgedrückt werden kann. Drittens zeigen die ANP-Ergebnisse aufgrund des verwendeten Abtastverfahrens eine stochastische Variation um den Mittelwert als eine Funktion des Startpunkts und des Schrittintervalls. Viertens ist unser Suchraum für TL ähnlich diskret (z. B. 1.65, 1.75, 1.85), weil Labordaten in einer diskreten Weise aufgezeichnet werden (z. B. 1.6, 1.7, 1.8), wodurch die Größe der potentiellen Suche nach optimalen Werten vereinfacht wird. Eine Studie Einschränkung ist der Ausschluss von Proben aus Pädiatrie, ED und Hämatologieonkologie Klinik. Diese Entscheidung wurde auf der Grundlage früherer Beobachtungen gemacht, dass die Konzentrationen von vielen Analyten von diesen Patienten sich wesentlich von denen anderer Populationen unterscheiden. Nach unserer Erfahrung haben die Patienten aus der Hämatologie-Onkologie niedrigere Gesamtprotein - und Kalziumwerte. Weil wir stationäres Phlebotomiepersonal verwenden, neigen wir dazu, diese Patientenproben massenweise zu erhalten, und die mittlere Gesamtprotein - und Kalziumwerte können durch diesen kleinen Pool von Patienten deutlich beeinflusst werden. Dieser Effekt ist ausgesprochen genug, dass ein paar gleichzeitig analysierte Patienten ein falsches Erkennungsereignis auslösen können. Um diesen Effekt zu verringern, könnte ein MA-Protokoll entwickelt werden, das eine mittlere Analytkonzentration pro Stunde des Tages verwendet. Allerdings kann die derzeitige MA-Software, die wir einsetzen, diese Strategie nicht berücksichtigen. Aus praktischer Sicht wäre die Zuverlässigkeit und Empfindlichkeit eines solchen Protokolls von einem gleichbleibenden Phlebotomieplan abhängig. Die Phlebotomisten müssten jede Einheit zur gleichen Zeit täglich zu zeichnen, weil Zeitplan Variation könnte Auswirkungen auf die Protokollleistung. Basierend auf diesen Einschränkungen ist unsere Strategie, bestimmte Patientenpopulationen auszuschließen, eine akzeptable Alternative. Weil unsere Optimierungsstrategie diese Patienten ausschloss, haben wir in ähnlicher Weise eine Reihe von Ausschlussfiltern verwendet, um diese Patientenwerte aus den in unserer Middleware verwendeten MA-Berechnungen auszuschließen. Eine weitere Einschränkung unserer Strategie der Verwendung von Daten im nativen Format besteht darin, dass wir nicht ausschließen können, dass es unentdeckte SE-Ereignisse in unserem Datensatz gab. Der mögliche Effekt der Einbeziehung der von SE betroffenen Daten in unsere Optimierung wäre eine geringere Protokollempfindlichkeit. Wir induzierten auch SE mit einer Step-Shift-Strategie, anstatt eine allmähliche Verschlechterung der Assay-Performance, wie man in einer realen Welt zu erleben. Eine Stufenverschiebung stellt das Best-Case-Szenario für die Detektion von SE dar, und es könnte angenommen werden, dass die SE-Detektion länger dauert, wenn die Assayleistung allmählich abnimmt, aber diese Annahme wurde nicht getestet. Beide Einschränkungen sind würdig künftigen Studie. Eine neuere Veröffentlichung hat eine Freisetzung von der Rücken-MA-Strategie vorgeschlagen, bei der die erste analysierte Probe nicht freigegeben wird, bis der Rest des MA-Blocks analysiert wurde und festgestellt wurde, dass sie den CL nicht übertraf (9). Diese Strategie sollte die Wahrscheinlichkeit verringern, fehlerhafte Ergebnisse zu melden und gleichzeitig die Kosten einer häufigen QC-Analyse zu senken (9). Allerdings würde die Freigabe aus der Back-Strategie zunächst verzögern die Berichterstattung das erste Ergebnis. Für ein großes Referenzlabor wäre diese zusätzliche Verzögerung aufgrund eines hohen täglichen Testvolumens nachteilig. Die Freisetzung von der Rückenstrategie wäre jedoch für das Krankenhauslabor nicht praktisch, da das erste Ergebnis mehrere Stunden anstehen könnte, während der Rest des Blocks gesammelt und analysiert wird. Die Standardstrategie, den Mittelwert neu zu berechnen, wenn jedes neue Ergebnis freigegeben wird, kann zu einer stärkeren Korrektur der Patientenergebnisse führen als die Freisetzung aus der Rückenstrategie, aber unsere Daten, die niedrige ANP-Werte zeigen, zeigen, dass SE schnell erkannt und die Anzahl der Proben minimiert werden kann Was eine Reanalyse und Korrektur erfordert. Unseres Wissens ist dies die erste Studie, die einen SA-Algorithmus zur Optimierung von MA-Protokollen verwendet. Wir zeigen, dass eine getrennte Analyse der ambulanten und stationären Populationen die SE-Detektion verbessern kann. Wir haben diese Strategie verwendet, um erfolgreich ein MA-Programm in einem Krankenhaus-basierten Labor dienen sowohl Krankenhaus-und ambulante Patientenpopulationen. Unsere MA-Protokolle überwachen kontinuierlich die Assay-Performance und ermöglichen eine SE-Detektion vor dem nächsten geplanten QC-Ereignis, wodurch die Anzahl der betroffenen Patientenproben minimiert wird. 3 Nicht klassifizierte Abkürzungen: SE. Systematischer Fehler MA. Gleitenden Mittelwert TL. Abschneidegrenze EWMA. Exponentiell gewichtete MA CL. Kontrollgrenze N. Anzahl der Patientenergebnisse zum durchschnittlichen Sp. Patientenbevölkerung SD Sa. Analytische Ungenauigkeit SD SA. Simulierte Glühung ANP ed. Durchschnittliche Anzahl der betroffenen Patienten, bis Fehler erkannt ED. Notabteilung hsCRP. Hochempfindliches C-reaktives Protein RCV. Referenzwert TL H. Hohe Trenngrenze TH L. Niedrige Trunkierung FP-Rate. Falsch positiven Rate BUN. Blut-Harnstoff-Stickstoff TSH. Schilddrüsen-stimulierendes Hormon AST. Aspartat-Aminotransferase ISE. Ionenselektive Elektrode. (Siehe Redaktion auf Seite 1299) Autor Beiträge: Alle Autoren bestätigten, dass sie zum intellektuellen Inhalt dieser Arbeit beigetragen haben und folgende Anforderungen erfüllt haben: a) wesentliche Beiträge zur Konzeption und Gestaltung, Erfassung von Daten oder Analyse und Interpretation (B) Ausarbeitung oder Überarbeitung des Artikels für geistigen Inhalt und (c) endgültige Genehmigung des veröffentlichten Artikels. Autoren Disclosures oder potenzielle Interessenkonflikte: Nach der Manuskript-Einreichung, alle Autoren der Autor Offenlegung Formular. Offenlegung und mögliche Interessenkonflikte: Beschäftigung oder Führerschaft: Keine. Consultant or Advisory Role: None declared. Stock Ownership: None declared. Honoraria: M. A. Cervinski, AACC and Lab RevolutionG2 Intelligence. Research Funding: None declared. Expert Testimony: None declared. Patents: None declared. Role of Sponsor: No sponsor was declared. Received for publication March 2, 2016. Accepted for publication July 6, 2016. 2016 American Association for Clinical Chemistry References Parvin CA . Assessing the impact of the frequency of quality control testing on the quality of reported patient results. Clin Chem 2008 54. 2049 54.Parvin CA , Gronowski AM . Effect of analytical run length on quality-control (QC) performance and the QC planning process. Clin Chem 1997 43. 2149 54.Rej R , Jenny RW , Bretaudiere JP . Quality control in clinical chemistry: characterization of reference materials. Talanta 1984 31. 851 62.Miller WG , Erek A , Cunningham TD , Oladipo O , Scott MG , Johnson RE . Commutability limitations influence quality control results with different reagent lots. Clin Chem 2011 57. 76 83.Carobene A , Guerra E , Ceriotti F . A mechanism-based way to evaluate commutability of control materials for enzymatic measurements. The example of gamma-glutamyltransferase. Clin Chim Acta 2013 424. 153 8.Linnet K . The exponentially weighted moving average (EWMA) rule compared with traditionally used quality control rules. Clin Chem Lab Med 2006 44. 396 9.Cembrowski GS , Chandler EP , Westgard JO . Assessment of average of normals quality control procedures and guidelines for implementation. Am J Clin Pathol 1984 81. 492 9.Ye JJ , Ingels SC , Parvin CA . Performance evaluation and planning for patient-based quality control procedures. Am J Clin Pathol 2000 113. 240 8.Fleming JK , Katayev A . Changing the paradigm of laboratory quality control through implementation of real-time test results monitoring: for patients by patients. Clin Biochem 2015 48. 508 13.Hoffmann RG , Waid ME . The average of normals method of quality control. Am J Clin Pathol 1965 43. 134 41.Reed AH . Use of patient data for quality control of clinical laboratory tests. Clin Chem 1970 16. 129 34.Woo J , LeFever D , Winkelman JW . Use of average of normals quality control procedure in the detection and resolution of assay discrepancies. Am J Clin Pathol 1988 89. 125 9.Westgard JO , Smith FA , Mountain PJ , Boss S . Design and assessment of average of normals (AON) patient data algorithms to maximize run lengths for automatic process control. Clin Chem 1996 42. 1683 8.Westgard QC . Desirable biological variation database specifications. westgardbiodatabase1.htm ( Accessed March 2016 ).Wilson A , Roberts WL , Pavlov I , Fontenot J , Jackson B . Patient result median monitoring for clinical laboratory quality control. Clin Chim Acta 2011 412. 1441 6.


No comments:

Post a Comment