Home
Über uns
Mitglieder
Arbeitsgruppen
Projekte
Produkte
Publikationen
Stellungnahmen
News
Interviews
Newsletter
Infos abonnieren
Presse
Termine
Stellenmarkt
Online-Services
 

 

„Ein kontinuierlicher Verbesserungsprozess“

Interview mit Prof. Dr. Jürgen Stausberg und Christian Jacke über die Anwendung der TMF-Leitlinie zur Datenqualität in der medizinischen Forschung

Januar 2011. Beim TMF-Workshop „Datenqualität“ am 4. April 2011 in Berlin werden Anwender von ihren Erfahrungen mit der 2007 publizierten TMF-Leitlinie zur Datenqualität berichten. Prof. Dr. Stausberg ist einer der Autoren der Leitlinie und wird den Workshop leiten. Christian Jacke von der Philipps-Universität Marburg wird bei dem Workshop mit seiner Arbeitsgruppe als Anwender dabei sein.

Das Interview führte Beate Achilles im Dezember 2010. Eine Kurzfassung erscheint in der Zeitschrift E-Health-COM 1 | 2011.

 

Herr Professor Stausberg, was ist die Idee für den Workshop „Datenqualität in der medizinischen Forschung“ und warum wird er gerade jetzt anberaumt?

Stausberg: Datenqualität ist eine ganz entscheidende Voraussetzung, um Datenbestände sachgerecht nutzen zu können. Wir nehmen wahr, dass in der medizinischen Forschung das Thema Datenqualität inzwischen an verschiedenen Stellen von methodischer Seite aufgegriffen wird. Mir sind konkret zwei Projekte bekannt, die sich systematisch mit der Verbesserung der Datenqualität auseinandersetzen. Das sind zum einen das Projekt zur Optimierung der Datenqualität von Kohortenstudien der Philipps-Universität Marburg und zum anderen das Open European Nephrology Science Center OpEN.SC der Charité Berlin.

 

Worum geht es bei der Leitlinie zur Datenqualität?

Stausberg: Für die Beurteilung der Qualität von Daten gibt es vor allem drei Gesichtspunkte: Die Vollzähligkeit der Beobachtungseinheiten – in diesem Falle der Patienten –, die Vollständigkeit der Daten, also der Umfang in dem die interessierenden Merkmale erfasst wurden, und schließlich die Richtigkeit der Daten, also die Übereinstimmung des Erfassten mit der Wirklichkeit. All diese Aspekte haben wir in der Leitlinie differenziert ausgearbeitet und berechenbar gemacht. Wer die Leitlinie richtig und konsequent anwendet, erhält 24 Kennzahlen, mit denen sich die Datenqualität beurteilen lässt.
 

Wie funktioniert die Sicherung der Datenqualität nach der Leitlinie?

Stausberg: Nach den Empfehlungen der Leitlinie ist die Messung der Datenqualität eingebunden in ein umfassendes Datenmanagement. Das Verfahren läuft zyklisch: Messen, Daten abgleichen, Rückmelden der Ergebnisse an die zuständigen Stellen. Bei hohen Fehlerquoten können die entsprechenden Stellen gezielt Verbesserungsmaßnahmen ergreifen. Anschließend wird mithilfe der Leitlinie erneut die Datenqualität bestimmt usw. Das Ziel ist ein kontinuierlicher Verbesserungsprozess.

 

Herr Jacke, Sie haben die Leitlinie bereits für ein Forschungsprojekt angewendet. Worum ging es dabei?

Jacke: Es ging um einen empirisch gestützten Effektivitätnachweis für ein zertifiziertes Brustkrebszentrum. Konkret handelt es sich um eine retrospektive Kohortenstudie, die durch den Vergleich zweier Perioden von 1996 bis 1997 und von 2003 bis 2004 Verbesserungen der Versorgungsqualität nachweisen soll. Diese soll sich erwartungsgemäß in einer höheren Überlebensdauer und Lebensqualität der Patientinnen niederschlagen. Die populationsbasierte Studie bezieht sich auf die stationäre Versorgung in drei Krankenhäusern im Landkreis Marburg-Biedenkopf (small area analysis), deren Mitarbeiter an der Datensammlung beteiligt waren. 

 

Welche Erfahrungen haben Sie dabei mit der Leitlinie gemacht?

Jacke: Die Leitlinie erwies sich als sehr nützliches Instrument, um die vorhandene Datenqualität zunächst einzuschätzen und anschließend zu steigern. Die methodischen Erläuterungen und Hinweise sind in der Leitlinie gut aufbereitet, und man kommt in einem überschaubaren Zeitraum zügig zu Ergebnissen. Die Methodik ist eingängig und für eigene Zwecke leicht adaptierbar.

Bislang standen die verfügbaren, vielfältigen Prüfungen und Bewertungen der Datenqualität isoliert nebeneinander. Die Leitlinie bietet nun einen integrativen Bezugsrahmen, um die einzelnen Punkte in einem Scorewert zu verdichten. Dieser Bezugsrahmen kann flexibel angepasst werden, da die einzelnen Datenqualitätsscores (DQI) die Prüfvariablen nicht konkret festlegen. Die Methodik gestattet es, definierte Prüfvariablen in unauffällig und auffällig einzustufen, so dass für auffällige Daten eine Korrektur möglich wird.

Insgesamt habe ich mit der Anwendung der Leitlinie sehr gute Erfahrungen gemacht. Kodier-, Synchronisations- und Datenübertragungsfehler konnten identifiziert werden. Dadurch ließen sich im weiteren Forschungsprozess die mit der Datenqualität verbundenen Unsicherheiten ausschließen. Neben der Richtigkeit der Daten konnte die Reichweite der Aussagen qualifiziert werden.
 

Es gibt auch eine Software, die die Anwendung der Leitlinie unterstützt. Was kann diese Software?

Stausberg: Die Software ist ein Werkzeug, das den Anwender bei der Nutzung der Leitlinie im Datenmanagement und bei den entsprechenden Abläufen unterstützt. Ziel der Auswertungen ist wie gesagt nicht nur die Messung, sondern insbesondere die Verbesserung der Datenqualität. Die Software liefert einerseits eine Rückmeldung über die Zahl der Datenfehler in der Datensammlung, andererseits unterstützt sie den stichprobenartigen Abgleich mit den Originaldaten. Hier liegt ein ganz besonderer Vorteil: Stellt die Leitlinie für eine bestimmte Datensammlung eine hohe Qualität fest, kann die Zahl der Stichproben in den Originaldaten entsprechend verringert werden.

 

Sehen Sie noch zusätzliche Einsatzmöglichkeiten für die Leitlinie?

Stausberg: Eine weitere Anwendungsmöglichkeit ist die Auszeichnung von Datenbeständen mit einer Qualitätsnote. In Deutschland nutzen Wissenschaftler in der medizinischen Forschung häufig Datenbestände aus unterschiedlichen Quellen. Über die Auszeichnung der Datenbestände mit einer Qualitätsnote könnten sie sofort beurteilen, wie gut die Daten sind, die sie vor sich haben.

 

Werden Forschungsergebnisse besser, wenn Forschungsregister genutzt werden, die anhand der Leitlinie Datenqualität eingerichtet wurden?

Jacke: In jedem Fall. Bislang kommen trotz sorgfältigster Prozesse und Vorgehensweisen in Forschungsregistern immer wieder Fehler vor. Diese lassen sich schwer und nur mit sehr hohem Aufwand aufdecken, korrigieren und zukünftig vermeiden. Die Leitlinie bietet demgegenüber eine Möglichkeit, die Datenqualität systematisch zu steigern. Insbesondere wenn es um die Einschätzung der Genauigkeit oder der Vollständigkeit bzw. Vollzähligkeit von Daten geht, liegt ein transparenter und nachvollziehbarer Bewertungsrahmen vor. Register und deren Nutzer können daher durch die Anwendung der Leitlinie profitieren.

 

Bringt die Anwendung der Leitlinie auch wirtschaftliche Vorteile bei der Finanzierung medizinischer Forschungsregister und Studien? Kann man durch ihre Anwendung Geld sparen?

Stausberg: Man kann Geld sparen, da der Aufwand zielgerichtet dort eingesetzt wird, wo ein Problem zu vermuten ist. Die aufwändigen Originaldatenabgleiche werden nicht mehr nach dem Gießkannenprinzip durchgeführt, sondern nur dort, wo es Probleme gibt. Belastbare Zahlen zu den Einsparpotentialen der Leitlinie gibt es jedoch nach meiner Kenntnis bislang nicht.

 

Würden Sie es für sinnvoll halten, ein Validierungsprojekt hinsichtlich des Nutzens der Leitlinie durchzuführen?

Stausberg: Das halte ich auf jeden Fall für sinnvoll. Entsprechende Überlegungen in der TMF wurden jedoch zurückgestellt, weil seinerzeit ein Projekt zum Monitoring im Rahmen klinischer Studien durchgeführt wurde. Herr Jacke hat zwischenzeitlich gezeigt, dass die Leitlinie bei vertretbarem Aufwand eine Verbesserung der Datenqualität bewirken kann.

 

Was sind Ihre Erwartungen an den Workshop, Herr Jacke?

Jacke: Ich freue mich sehr darauf und erhoffe mir neue Denkanstöße, wie man die normativ-analytisch festgelegten Schwellenwerte, die den Kern der Leitlinie ausmachen, validieren könnte. Auch hoffe ich, neue Argumente für eine tiefer gehende Differenzierung zwischen Krebsregistern und Kohortenstudien zu sammeln.

 

Herr Prof. Stausberg, Herr Jacke, wir danken für das Gespräch!


Prof. Dr. Jürgen Stausberg ist am Institut für Medizinische Informationsverarbeitung, Biometrie und Epidemiologie (IBE) an der Ludwig-Maximilians-Universität München tätig. In der TMF wirkt er als Vertreter des Kompetenznetzes Hepatitis mit und ist stellvertretender Sprecher der Arbeitsgruppe IT-Infrastruktur und Qualitätsmanagement. Er ist Autor des Buches „Datenqualität in der Medizinischen Forschung, das 2007 in der TMF-Schriftenreihe erschienen ist.

Christian Jacke ist Diplom-Sozialwirt und hat die Leitlinie als Mitarbeiter in der Klinik für Gynäkologie, gynäkologische Endokrinologie und Onkologie an der Philipps-Universität Marburg angewendet und erprobt.

News Archiv

September 2018 (4)

August 2018 (3)

Juli 2018 (2)

Juni 2018 (7)

Mai 2018 (1)

April 2018 (1)

März 2018 (7)

Februar 2018 (2)

Januar 2018 (7)

Dezember 2017 (6)

November 2017 (2)

Oktober 2017 (3)

September 2017 (4)

August 2017 (1)

Juli 2017 (8)

Juni 2017 (9)

Mai 2017 (4)

April 2017 (2)

März 2017 (5)

Februar 2017 (2)

Januar 2017 (4)

Dezember 2016 (8)

November 2016 (5)

Oktober 2016 (4)

September 2016 (7)

August 2016 (5)

Juli 2016 (8)

Juni 2016 (5)

Mai 2016 (3)

April 2016 (11)

März 2016 (5)

Februar 2016 (3)

Januar 2016 (8)

Dezember 2015 (6)

November 2015 (3)

Oktober 2015 (8)

September 2015 (5)

August 2015 (4)

Juli 2015 (7)

Juni 2015 (7)

Mai 2015 (5)

April 2015 (2)

März 2015 (6)

Februar 2015 (7)

Januar 2015 (8)

Dezember 2014 (6)

November 2014 (9)

Oktober 2014 (10)

September 2014 (3)

Juli 2014 (6)

Juni 2014 (5)

Mai 2014 (4)

April 2014 (8)

März 2014 (8)

Februar 2014 (6)

Januar 2014 (7)

Dezember 2013 (8)

November 2013 (6)

Oktober 2013 (5)

September 2013 (10)

August 2013 (4)

Juli 2013 (8)

Juni 2013 (7)

Mai 2013 (4)

April 2013 (9)

März 2013 (9)

Februar 2013 (5)

Januar 2013 (5)

Dezember 2012 (7)

November 2012 (5)

Oktober 2012 (5)

September 2012 (5)

August 2012 (3)

Juli 2012 (4)

Juni 2012 (4)

Mai 2012 (3)

April 2012 (3)

März 2012 (5)

Januar 2012 (7)

Dezember 2011 (2)

November 2011 (8)

Oktober 2011 (10)

September 2011 (2)

August 2011 (5)

Juli 2011 (3)

Juni 2011 (5)

Mai 2011 (8)

April 2011 (4)

März 2011 (5)

Februar 2011 (3)

Januar 2011 (5)

Dezember 2010 (3)

November 2010 (3)

Oktober 2010 (5)

September 2010 (9)

August 2010 (5)

Juli 2010 (6)

Juni 2010 (12)

Mai 2010 (3)

April 2010 (4)

März 2010 (4)

Februar 2010 (4)

Januar 2010 (1)

Dezember 2009 (1)

November 2009 (1)

Oktober 2009 (5)

September 2009 (8)

August 2009 (1)

Juli 2009 (8)

Juni 2009 (6)

Mai 2009 (2)

April 2009 (6)

März 2009 (5)

Februar 2009 (4)

Januar 2009 (2)

Dezember 2008 (3)

November 2008 (6)

Oktober 2008 (3)

September 2008 (5)

August 2008 (3)

Juli 2008 (5)

Juni 2008 (4)

Mai 2008 (3)

April 2008 (6)

März 2008 (3)

Februar 2008 (1)

Januar 2008 (2)

Dezember 2007 (2)

November 2007 (4)

Oktober 2007 (4)

September 2007 (5)

Juni 2007 (2)

Mai 2007 (1)

April 2007 (6)

Januar 2007 (1)

Dezember 2006 (8)

November 2006 (4)

Oktober 2006 (1)

September 2006 (4)

August 2006 (1)

Juli 2006 (1)

Juni 2006 (3)

Mai 2006 (1)

April 2006 (3)

März 2006 (1)

Februar 2006 (1)

Januar 2006 (2)

Dezember 2005 (3)

November 2005 (1)

Oktober 2005 (1)

September 2005 (2)

August 2005 (2)

Juli 2005 (3)

Juni 2005 (2)

April 2005 (4)

November 2004 (1)

Oktober 2004 (1)

September 2004 (1)

August 2004 (1)

Juni 2004 (2)

Mai 2004 (1)

Presseschau

Termine

MII-Jahresversammlung (Berlin)

28.09.2018



MII-Dialogforum (Berlin)

28.09.2018




Interviews

„Wir brauchen dringend einen bundesweit einheitlichen Dokumentations­standard für die gesamte Versorgungskette des Notfallpatienten“

Interview mit Univ.-Prof. Dr. med. Rainer Röhrig (Universität Oldenburg) und Univ.-Prof. Dr. med. Felix Walcher (Universität Magdeburg) zum Aufbau eines nationalen Notaufnahmeregisters


 
© TMF e.V. Glossar     Datenschutzhinweis     Info an den Webmaster     Seite drucken      Seitenanfang