Home
Über uns
Mitglieder
Arbeitsgruppen
Projekte
Produkte
Publikationen
Stellungnahmen
News
Interviews
Newsletter
Infos abonnieren
Presse
Termine
Stellenmarkt
Online-Services
 

 

„Die Qualität der Analyseergebnisse hängt von der Qualität der Eingangsdaten ab.“

Automatisierte Verfahren zur Auswertung großer Datenmengen werden in der Medizin immer wichtiger. Prof. Dagmar Krefting erklärt, worauf es ankommt, wenn man hier mit Big-Data-Technologie zuverlässige Ergebnisse erzielen will.

September 2013. Neue Messverfahren und Fortschritte in der medizinischen Bild‐ und Signalanalyse führen zu einer stetig zunehmenden Menge an Bild‐ und Biosignaldaten. Durch die bisher praktizierte interaktive und manuelle Inspektion von Bild- und Biosignaldaten können die erzeugten Datenvolumina bereits heute nicht mehr adäquat ausgewertet werden. Analysen mit Big Data-Technologie können hier weiterhelfen. Allerdings hängt die Qualität der Ergebnisse stark von der Qualität der Eingangsdaten ab. Um hierfür Lösungen zu entwickeln, ist Prof. Krefting deshalb gemeinsam u.a. mit der TMF und der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin aktuell an einem Forschungsantrag zum Thema "Management und Analyse großer Datenmengen (Big Data)" beteiligt.




Das Interview führte Beate Achilles. Es erscheint auch in der Zeitschrift E-Health-COM 5 | 2013.

 

Was ist das Ziel des Big-Data Projekts und was sind dabei die zentralen Fragestellungen?  

Bei dem Projekt geht es darum, sowohl technische als auch organisatorische Lösungen zur Sicherung der Ergebnisqualität von Big Data Verfahren im Bereich der medizinischen Bild‐ und multidimensionalen Sensordatenanalyse zu entwickeln. Die Standardtechnologien der Big Data Analyse kommen dabei zum Einsatz und werden um Funktionalitäten für das Qualitätsmanagement und die Datensicherheit erweitert. Wir wollen uns in dem Projekt vor allem auf Bilddaten aus der Pathologie und auf Biosignaldaten aus der Schlafforschung konzentrieren.  

Daten‐ und rechenintensive Anwendungen aus der medizinischen Bild‐ und Signalverarbeitung wurden bisher durch eine Integration in verteilte Grid‐ und Cloud-Infrastrukturen realisiert. Welche neuen Möglichkeiten bringt die Big-Data Technologie?  

Die Big-Data Technologie kommt aus der Webanalyse und wurde für die Verarbeitung großer Datenmengen entwickelt, die aus unterschiedlichen Quellen stammen,  an unterschiedlichen Orten vorliegen und in verschiedenen Formaten. Mit den existierenden Big-Data Lösungen kann man sehr große  Mengen (in der Dimension von PetaByte) solch heterogener Daten in kurzer Zeit analysieren. In der Medizin finden sich sehr viele Fragestellungen, für die man genau diese Art der Technologie benötigt. Von Grid und Cloud unterscheidet sich Big-Data beispielsweise dadurch, dass es die Daten dort analysiert, wo sie anfallen. Lediglich die Ergebnisse von Auswertungen werden auf andere Rechner übertragen.  Bei Grid und Cloud hingegen müssen die Daten vor der Auswertung auf externe Rechner übertragen und anschließend wieder zurück transferiert werden. Dadurch kommt es bei größeren Datenvolumina zu Engpässen mit entsprechenden  Zeitverlusten.

Inwiefern eignet sich gerade die Schlafmedizin als Anwendungsszenario für dieses Projekt?  

In der Schlafmedizin werden mit der Polysomnographie Biosignale aufgezeichnet, z.B. Hirnströme,  Atmung etc. Dadurch entstehen sehr schnell große Datenmengen. Bisher werden die Somnographiedaten in der Regel manuell ausgewertet. Ein Schlafmediziner  versucht am Ende einer Nacht, die der Patient im Schlaflabor verbracht hat –  oder schon zwischendurch –  Auffälligkeiten in den Daten zu finden. Die Daten vollständig zu analysieren ist auf diese Weise jedoch gar nicht möglich – im Gegensatz zu automatisierten Verfahren wie Big Data Analysen. Damit kann man in sehr kurzer Zeit die Daten eines bestimmten Patienten mit den Referenzdaten abgleichen und gewinnt so schnell wichtige Informationen für die Diagnostik. Der Zeitfaktor spielt in der Schlafmedizin eine große Rolle, denn viele Patienten können nicht drei Wochen auf ein Ergebnis warten. Dieses zeitkritische Moment ist ein klassisches Setting für Big Data-Analysen.

Wo liegen die Herausforderungen für die BigData-Technologie in Hinblick auf andere Anwendungsszenarien wie die virtuelle Mikroskopie in der digitalen Pathologie?  

Ein wesentlicher Teil von Big Data Herausforderungen liegt in der Organisation und Bewertung von Daten und Anwendungen und somit in den wissenschaftlichen Prozessen. Die Qualität der Analyseergebnisse hängt von der Qualität der Eingangsdaten ab. Bei der hochauflösenden Digitalisierung von histologischen Schnittpräparaten in der virtuellen Mikroskopie beispielsweise wirken verschiedene Faktoren auf die Bildqualität. Dies beginnt mit der überwiegend manuell erfolgenden Präparation, nicht standardisierten Routinefärbungen (HE, PAS, etc.), unterschiedlichen Scannern, der korrekten Erfassung des Bildausschnittes hin zu einer kontrastreichen Digitalisierung. Es ist deshalb sehr wichtig, solche Daten mit guten Metadaten zu beschreiben, damit die Datenqualität für spätere Analysen einschätzbar wird. Die Datenqualität umfasst aber auch ihre rechtmäßige Verwendung unter Berücksichtigung der Datenschutzgesetze, Krankenhausgesetze und weiterer rechtlicher Bestimmungen.

Wie kann die Einhaltung von datenschutzrechtlichen Vorgaben in verteilten Systemen gewährleistet werden?

In dem von uns geplanten Projekt enthalten die Daten kein implizites Reidentifizierungspotential. Maßnahmen zum Schutz der Vertraulichkeit können sich im Rahmen des Projektes deshalb auf das Metadatenmanagement konzentrieren, die Aufnahmedaten selber bieten keine Möglichkeiten zur Identifizierung des Patienten. Generell  gibt es jedoch im TMF-Umfeld sehr viele Ansätze z.B. aus den früheren Grid-Projekten oder dem laufenden cloud4health Projekt, um über Anonymisierung und Pseudonymisierung die persönlichen Daten der Patienten in großformatigen Auswertungen zu Forschungszwecken zu schützen.

Frau Prof. Krefting, wir danken für das Gespräch!  


Prof. Dr. Dagmar Krefting ist Professorin an der HTW Berlin.  Sie lehrt und forscht im Bereich verteilter Systeme und Informationssicherheit mit Schwerpunkt auf der medizinischen Bild- und Signalanalyse. Prof. Krefting koordiniert das Projekt Somnonetz.

 

Weiterführende Links

  1. Homepage des Somnonetz
  2. Homepage des cloud4health-Projekts 
  3. Homepage des MediGrid-Projekts 
  4. TMF-Arbeitsgruppe IT-Infrastruktur und Qualitätsmanagement 
  5. TMF-Arbeitsgruppe Datenschutz
  6. Produkte und Publikationen der TMF zu den Themen Pseudonymisierung und Datenschutz  

News Archiv

Juli 2018 (2)

Juni 2018 (7)

Mai 2018 (1)

April 2018 (1)

März 2018 (7)

Februar 2018 (2)

Januar 2018 (7)

Dezember 2017 (6)

November 2017 (2)

Oktober 2017 (3)

September 2017 (4)

August 2017 (1)

Juli 2017 (8)

Juni 2017 (9)

Mai 2017 (4)

April 2017 (2)

März 2017 (5)

Februar 2017 (2)

Januar 2017 (4)

Dezember 2016 (8)

November 2016 (5)

Oktober 2016 (4)

September 2016 (7)

August 2016 (5)

Juli 2016 (8)

Juni 2016 (5)

Mai 2016 (3)

April 2016 (11)

März 2016 (5)

Februar 2016 (3)

Januar 2016 (8)

Dezember 2015 (6)

November 2015 (3)

Oktober 2015 (8)

September 2015 (5)

August 2015 (4)

Juli 2015 (7)

Juni 2015 (7)

Mai 2015 (5)

April 2015 (2)

März 2015 (6)

Februar 2015 (7)

Januar 2015 (8)

Dezember 2014 (6)

November 2014 (9)

Oktober 2014 (10)

September 2014 (3)

Juli 2014 (6)

Juni 2014 (5)

Mai 2014 (4)

April 2014 (8)

März 2014 (8)

Februar 2014 (6)

Januar 2014 (7)

Dezember 2013 (8)

November 2013 (6)

Oktober 2013 (5)

September 2013 (10)

August 2013 (4)

Juli 2013 (8)

Juni 2013 (7)

Mai 2013 (4)

April 2013 (9)

März 2013 (9)

Februar 2013 (5)

Januar 2013 (5)

Dezember 2012 (7)

November 2012 (5)

Oktober 2012 (5)

September 2012 (5)

August 2012 (3)

Juli 2012 (4)

Juni 2012 (4)

Mai 2012 (3)

April 2012 (3)

März 2012 (5)

Januar 2012 (7)

Dezember 2011 (2)

November 2011 (8)

Oktober 2011 (10)

September 2011 (2)

August 2011 (5)

Juli 2011 (3)

Juni 2011 (5)

Mai 2011 (8)

April 2011 (4)

März 2011 (5)

Februar 2011 (3)

Januar 2011 (5)

Dezember 2010 (3)

November 2010 (3)

Oktober 2010 (5)

September 2010 (9)

August 2010 (5)

Juli 2010 (6)

Juni 2010 (12)

Mai 2010 (3)

April 2010 (4)

März 2010 (4)

Februar 2010 (4)

Januar 2010 (1)

Dezember 2009 (1)

November 2009 (1)

Oktober 2009 (5)

September 2009 (8)

August 2009 (1)

Juli 2009 (8)

Juni 2009 (6)

Mai 2009 (2)

April 2009 (6)

März 2009 (5)

Februar 2009 (4)

Januar 2009 (2)

Dezember 2008 (3)

November 2008 (6)

Oktober 2008 (3)

September 2008 (5)

August 2008 (3)

Juli 2008 (5)

Juni 2008 (4)

Mai 2008 (3)

April 2008 (6)

März 2008 (3)

Februar 2008 (1)

Januar 2008 (2)

Dezember 2007 (2)

November 2007 (4)

Oktober 2007 (4)

September 2007 (5)

Juni 2007 (2)

Mai 2007 (1)

April 2007 (6)

Januar 2007 (1)

Dezember 2006 (8)

November 2006 (4)

Oktober 2006 (1)

September 2006 (4)

August 2006 (1)

Juli 2006 (1)

Juni 2006 (3)

Mai 2006 (1)

April 2006 (3)

März 2006 (1)

Februar 2006 (1)

Januar 2006 (2)

Dezember 2005 (3)

November 2005 (1)

Oktober 2005 (1)

September 2005 (2)

August 2005 (2)

Juli 2005 (3)

Juni 2005 (2)

April 2005 (4)

November 2004 (1)

Oktober 2004 (1)

September 2004 (1)

August 2004 (1)

Juni 2004 (2)

Mai 2004 (1)

Presseschau

Termine

Arbeitstreffen der DFG-Projekte (Berlin)

27.08.2018



Sitzung der AG IT-Infrastruktur und Qualitätsmanagement (Berlin)

11.09.2018




Interviews

„Wir brauchen dringend einen bundesweit einheitlichen Dokumentations­standard für die gesamte Versorgungskette des Notfallpatienten“

Interview mit Univ.-Prof. Dr. med. Rainer Röhrig (Universität Oldenburg) und Univ.-Prof. Dr. med. Felix Walcher (Universität Magdeburg) zum Aufbau eines nationalen Notaufnahmeregisters


 
© TMF e.V. Glossar     Datenschutzhinweis     Info an den Webmaster     Seite drucken      Seitenanfang