50 Jahre Uniklinikum: Mit Big Data Krankheiten besser verstehen

50 Jahre Uniklinikum: Mit Big Data Krankheiten besser verstehen

Warum tritt eine Krankheit auf? Kann ihr Ausbruch verhindert werden? Warum sprechen manche Patienten auf ein bestimmtes Medikament an, andere aber nicht? Wie sieht die optimale Therapie im Einzelfall aus? An der TU München arbeiten interdisziplinäre Gruppen aus Medizinern und Methodenwissenschaftlern daran, diese Fragen mit Hilfe von Datenintegration und Methoden von „Big Data“-Analysen zu beantworten. Eingebunden sind unter anderem die Medizinische Informatik und die IT-Abteilung des Klinikums.

Datenintegration zielt heute darauf ab, alle für die Entscheidungen in der Krankenversorgung benötigten Daten zur richtigen Zeit am richtigen Ort in der richtigen Verdichtung bereitzustellen. Dabei spielen neue Arten von Daten, darunter genetische Daten und zunehmend auch Daten aus Biosensoren, eine erhebliche Rolle. Auch die Vernetzung zwischen Krankenhäusern und Arztpraxen ist von zunehmender Relevanz.

Ein Ziel heißt: Präzisionsmedizin

Daneben entwickeln sich durch Datenintegration und Datenaustausch neue und wichtige Perspektiven für die Forschung. Angestrebt sind neue Forschungsergebnisse hinsichtlich einer optimal auf den einzelnen Patienten ausgerichteten Therapie, man spricht hier von Präzisionsmedizin. Auch ein besseres Verständnis von Krankheitsentwicklung und -verlauf ist ein wichtiges Ziel. Ebenso bedeutsam ist die Suche nach Biomarkern, um Krankheitsverläufe beziehungsweise die Wirksamkeit einer Therapie prognostizieren zu können.

Die weit verbreiteten und häufigen Krankheiten haben oft nicht nur einzelne Auslöser, sondern viele verschiedene Ursachen. Dies gilt für Herzkrankheiten, den Schlaganfall und viele Krebsarten; aber auch bei der Multiplen Sklerose sind verschiedenste Risikofaktoren bekannt. Wie diese Faktoren zusammenspielen und die Krankheit beeinflussen, ist komplex und in weiten Teilen bisher unverstanden. Wenn jedoch große Mengen von heterogenen, also nach Art und Herkunft vielfältige Daten zusammengeführt werden, besteht eine gute Chance, Krankheitsprävention, Krankheitsverläufe, Diagnostik und Therapie besser zu verstehen. Mithilfe von Informationstechnologie und anschließenden Analysen unter Einsatz von Vorhersagemodellen können methodische Ansätze den Weg zu einer personalisierten Medizin bereiten. Dabei ist die einmalige Bündelung von Kompetenzen an der TUM von nicht zu unterschätzendem Vorteil, da Medizin, Informatik und Mathematik zusammenarbeiten. Neben der datenschutzkonformen Integration der Daten geht es um intelligente Wissensextraktion und um die mathematische Modellierung biologischer Systeme.

 

Messbare Verbesserungen für Patienten

Für die Integration der Daten werden an der TUM verschiedene Ansätze verwendet, unter anderem der Data Warehouse-Ansatz. Ein Warehouse ist eine große Datenbank, die Daten aus verschiedenen Systemen integriert und dabei repliziert. Werden Abfragen durchgeführt und Daten umorganisiert, geschieht dies, ohne die Originalquellen „anfassen“ zu müssen. Die Idee ist dabei, alle nach bisherigem Wissensstand möglicherweise relevanten Faktoren zusammen zu betrachten und dabei auch Daten einzubeziehen, die in ihrer Art und Herkunft sehr unterschiedlich sind. Wenn es um Integrationsfragen geht, die mehr als einen Standort einbeziehen, stehen virtuelle Ansätze (die Daten bleiben zunächst an ihren Standorten) sowie konsequent auf Datenschutz ausgerichtete Verfahren (die Analyse kommt zu den Daten, nicht die Daten zur Analyse) im Vordergrund.

Ein Ziel ist es, in großen Datenmengen Patientengruppen zu identifizieren, beispielsweise für die Verlaufsbeobachtung einer Krankheit in Gruppen, die nach Therapie und nach Nebenwirkungen (kombiniert mit weiteren, zum Beispiel genetischen, Faktoren) definiert werden. Hieraus sollen mit Hilfe analytischer Methoden Zusammenhänge und Muster erkannt werden. Fernziel ist es immer, messbare Verbesserungen für den Patienten zu erzielen, indem Entscheidungen am Krankenbett unterstützt werden. Hierzu müssen neue Erkenntnisse zuvor sorgfältig bewertet und bestätigt werden.

 

Standardisierung und Qualitätskontrolle

Quantität bringt jedoch nicht zwangsläufig Qualität. Zunächst gibt es ein Problem der Vergleichbarkeit und auch der Qualitätskontrolle. Während der Behandlungen werden immer mehr technische Geräte eingesetzt, die riesige Datenmengen produzieren, speziell die bildgebenden Verfahren wie Röntgen, CT oder MRT. Zusammen mit ärztlichen Berichten, Patientencharakteristika, sowie den Analyseresultaten aus den neuen Laborverfahren, die sich als sogenannte Omics-Technologien nach der Entschlüsselung des menschlichen Genoms rasant entwickelt haben, ist das Datenvolumen seit einigen Jahren explosionsartig angewachsen. Hier und auch bei der modernen Bildgebung ist Standardisierung eine zentrale Herausforderung, da beispielsweise verschiedene Geräte und Aufnahmetechniken zu unterschiedlichen Ergebnissen führen können. Dies erfordert eine Harmonisierung beziehungsweise Standardisierung von Daten, aber auch von Prozessen sowie Qualitätskontrollen.

Von höchster Relevanz sind die ethischen und rechtlichen Vorgaben, die beim Umgang mit sensiblen Patientendaten strikt zu beachten sind. Datenschutzkonzepte sind in diesem Sinn wichtiger als Machbarkeit. Gerade im Bereich des Datenschutzes ist die TU München sehr gut aufgestellt, insbesondere im Bereich der Anonymisierung, und sie setzt auf Methoden wie das Rechnen in sicheren Umgebungen sowie vor allem auf hoch entwickelte Verfahren des verteilten Rechnens, also Analysen von Daten ohne deren Transfer.

TUM / dfr

 

 

 

 

 

 

Back to top