Editorial

Eine neue Wissenschaft-(lichkeit)?

Big Data, Innovation, Personalisierte Medizin und Co. – Sind dies die Markenzeichen einer neuen Wissenschaft-(lichkeit) in der Medizin? Ein Essay von Gerd Antes, Freiburg.
editorial_bild

Wenn man Editorials, Kommentare oder Meinungsartikel in wissenschaftlichen Zeitschriften liest und ihnen glaubt, so stehen wir am Beginn eines goldenen Zeitalters für Patienten und Gesunde. Patienten werden viel früher und fehlerfrei diagnostiziert und dann mit personalisierter Medizin zielgenau, wirksam und nebenwirkungsfrei behandelt. Gesunde kommen erst gar nicht in die Gefahr, weil sie durch perfekte Vorsorge vor dem Schritt geschützt werden, überhaupt erst krank zu werden.

Erreicht wird dies mit „Systemmedizin”, in der die biologischen Mechanismen der Krankheitsentstehung unter Nutzung der Methoden von „Omics”-Forschung, Systembiologie, Informatik und Netzwerktheorie besser verstanden werden – was dann wiederum durch „Translation“ scheinbar wie von selbst in der personalisierten oder individualisierten Medizin genutzt wird. Überall dabei ist „Big Data“ als Universalwerkzeug; Hindernisse und Barrieren gibt es praktisch nicht. Erforderlich sind nur unbegrenzte Rechnerleistung, Datenerfassung ohne Behinderung samt deren Speicherung in grenzenlosen Clouds, sowie freier Zugang zu den Daten und den daraus entstandenen Zeitschriftenartikeln – Open Access macht’s möglich. Die nötigen Ressourcen für all dies sind natürlich selbstverständlich. 

Editorial

Diesem Schlaraffenland steht allerdings die düstere, konservative Welt der Wissenschaft gegenüber, in der Verzerrungen, Irrwege, Versagen und Verschwendung alltäglich und damit eher die Regel als die Ausnahme sind. Die Schwachstellen erstrecken sich dabei über den gesamten Prozess der Wissensgenerierung – von den ersten Ideen und Grundlagenforschung bis hin zur entscheidenden klinischen Prüfung am Menschen und der Implementierung des daraus gewonnenen Wissens. Dies beschrieb unter anderem im Januar 2014 der beeindruckende Sonderband „Research: increasing value, reducing waste“ von The Lancet (www.thelancet.com/series/research), in dem sich fünf Artikel aus verschiedenen Perspektiven mit den Defiziten des medizinischen Wissenschafts- und Anwendungsprozesses beschäftigten und Vorschläge zu deren Überwindung oder wenigstens deren Reduzierung machten. Im Fokus stand dabei, auf welche Weise mehr Wert und weniger Verschwendung für die Gesundheitsforschung und Patientenversorgung erreicht werden können.

 

„Die vielbeschworene ‚Translation‘ funktioniert nicht.“

 

Einige Schwächen stechen besonders hervor, da sie einerseits besonders schädliche Auswirkungen haben und anderseits relativ leicht untersucht werden können – womit sie letztlich als zweifelsfrei nachgewiesen akzeptiert werden müssen. Die größte Quelle der Verschwendung liegt in der systematischen Ignoranz gegenüber dem bereits vorhandenen Wissen bei der Planung, Durchführung und Berichterstattung der nächsten Forschungsschritte. Die vielbeschworene „Translation“ funktioniert daher weder bei der Anwendung, noch genau so wenig innerhalb des Wissenschaftsprozesses.

Besonders eklatant erscheint dieser Mangel bei klinischen Studien. Eigentlich sollte man davon ausgehen, dass klinische Studien sehr zielgerichtet und sorgfältig geplant genau dort ansetzen, wo für eine relevante Wissenslücke Antworten gesucht werden, die wiederum als Grundlage für diagnostische oder therapeutische Entscheidungen essentiell sind. Zuallererst sollte dabei natürlich die Frage entscheidend sein, ob es schon identische oder ähnliche Studien gab. Doch weit gefehlt – wie eine Fülle tiefgehender methodischer Untersuchungen der letzten Jahrzehnte zeigt. Wissenschaftler, Ethikkommissionen und Behörden übertreffen sich gegenseitig darin, vorhandene Studien nur für einen kurzen, zurückliegenden Zeitraum zu berücksichtigen und alles davor in einer Art kollektivem Gedächtnisschwund zu vergessen.

Besonders die Ethikkommissionen müssten hier in höchstem Maße alarmiert nach Verbesserung streben, da jede unnötig wiederholte Studie unethisch ist und damit schon bei ihrer Beantragung kein positives Votum erhalten dürfte. Auch hier ist die Realität eindeutig: Ethikkommissionen sind in aller Regel weder von ihrer Kapazität her noch hinsichtlich ihrer Kompetenz in der Lage, zu prüfen, ob ein Antrag aufgrund der bereits vorhandenen Studien berechtigt ist. Förderer von Studien sind diesem Lager ebenfalls noch zuzurechnen: Sie hätten die Möglichkeit, wenn nicht die Pflicht, den systematischen Blick auf vorhandenes Studienwissen zur Voraussetzung für die Förderung einer Studie zu machen.

Das kollektive Wegducken wird begünstigt durch ein Publikationssystem, das bezüglich Vollständigkeit der Präsentation von Studienergebnissen seinen Namen nicht verdient. Eine Fülle von Untersuchungen in den letzten Jahrzehnten zeigt weltweit völlig konsistent eine Publikationsrate von rund 50 Prozent. Das heißt, neben den jährlich in Medline hinzukommenden 20.000 randomisierten klinischen Studien existieren weitere 20.000, die nie öffentlich erscheinen und damit nicht als Wissensgrundlage für Entscheidungen genutzt werden können. Die Auswirkungen sind im wahrsten Sinne des Wortes fatal: Da die „verschwindenden” Studien keine Zufallsauswahl darstellen, sondern im Mittel eher unerwünschte Resultate zeigen, führt der sichtbare Teil der Studienergebnisse zu einer deutlichen Überschätzung der untersuchten Therapien oder diagnostischen Verfahren – und damit zu chronischem Überoptimismus.

 

„Offenbar löst Mehr Daten jedes Problem.“

 

Wie groß dieser Bias tatsächlich ist, lässt sich nicht einfach feststellen. Untersuchungen über Antidepressiva zeigen beispielsweise Überschätzungen zwischen 20 und 50 Prozent. Ähnlich sieht es bei potentiellen Nebenwirkungen und Schädigungen aus; hier wird die Berichterstattung möglicher Risiken oft unterschlagen, so dass der Nutzen-Schadens-Abstand im Mittel weit überschätzt wird.

Soweit dieser kleine Auszug aus der dunklen Welt der Defizite. 

Wir scheinen ganz generell in einer Phase des Übergangs zu leben – zwischen der „Alten Welt“ der Wissenschaft, die sich geradezu lustvoll mit den eigenen Qualitätsmängeln beschäftigt, und einer „Neuen Welt“, in der uns die selbstquälerische Auseinandersetzung mit den Mängeln des Wissenschaftsprozesses erspart bleibt. Wie lassen sich nun die optimistischen Ausblicke in die goldene Zukunft einerseits und der düstere Blick auf die Empirie der Gegenwart unter einen Hut bringen? Ganz einfach, indem die goldene Zukunft sich zwar als Wissenschaft verkauft, dabei jedoch konsequent auf die üblichen Qualitätsansprüche an Wissenschaft verzichtet und sich auf Versprechungen, Glauben und anekdotische „Beweise” beschränkt. Folgerichtig müssen die heute unter den Schlagworten „Integrität der Wissenschaft“ oder „Good Scientific Practice“ zusammengefassten Grundregeln der Wissenschaftlichkeit, wie sie auf den Webseiten der meisten medizinischen Fakultäten und Großforschungseinrichtungen dargestellt werden, konsequent ignoriert werden, da sie sehr schnell die leuchtenden Perspektiven und den Optimismus trüben würden. Irren – eigentlich das Grundelement von Wissenschaft und Forschung – wird abgeschafft. Evaluation, Validierung, Plausibilität und Qualitätssicherung brauchen wir in Zukunft nicht mehr – was das Leben natürlich enorm erleichtert.

Besonders eindrücklich wird dieser Kontrast zwischen dem langweiligen und aufwändigen, nie endenden Kampf um mehr Qualität in der Wissenschaft einerseits und der davon unbelasteten Zukunft andererseits, wenn man sich anschaut, mit welch vollmundigen Versprechungen und Zukunftsvisionen „Big Data” daherkommt. Es beginnt mit der Definition, die einerseits sehr schillernd ist (Wikipedia: „Massendaten, die sich mit klassischen Methoden nicht auswerten lassen“) und gleichzeitig als Schlagwort einem steten Wandel unterliegt – womit sie viele Interpretationsmöglichkeiten zulässt und nicht wirklich fassbar ist. Big Data ist einfach alles – die Daten selbst, der Komplex der Technologien, die zum Sammeln und Auswerten dieser Datenmengen verwendet werden, wie auch die Methoden, mit denen die Datenkuh gemolken werden kann.

Während auf technologischer Seite der Fortschritt durch die Weiterentwicklung hin zu immer höherer Verarbeitungsgeschwindigkeit nicht überraschend ist, kann man den methodischen Aussagen nur mit Erstaunen folgen. Das alles dominierende Credo ist der Glaube an die Korrelation als alleinigen Träger von Information. Das Zeitalter der Kausalität ist vorüber, wir sind nun im Zeitalter der Korrelation. Jede Suche nach Begründungen ist überflüssig und Ressourcenverschwendung – vertrauen wir einfach auf die Macht der Daten und die Korrelationen, die daraus entspringen. Dass Korrelationen zwar Zusammenhänge zeigen, hinsichtlich Kausalität jedoch auch extrem irreführend sein können, wird zwar am Rande erwähnt, jedoch nur als Problem angesehen, wenn man nicht genug Daten hat. „Mehr Daten“ löst also jedes Problem.

 

„Jede unnötig wiederholte Studie ist unethisch.“

 

Dass aber gleichzeitig rückläufige Storchenpopulationen und Geburtsraten nicht den Schluss auf den Storch als Babybringer zulassen, dürfte weithin bekannt sein. Was Scharen von Dozenten anhand dieses Beispiels Generationen von Studenten in Anfänger-Vorlesungen mit auf den Weg gegeben haben, wird von den Vertretern von Big Data im Handstreich einkassiert. Notwendig dafür ist nur der Hinweis auf die neue Philosophie, dass Daten alles sind.

Sucht man nach Belegen für diese alles Alte umstülpende Behauptung, sieht es allerdings mehr als mager aus. Die Argumentation läuft fast immer über Beispiele, in denen Google, Amazon, Yahoo oder andere Konzerne richtige Entscheidungen gefällt haben, gemessen am Zielkriterium „Steigerung des Umsatzes“. Dass die „Beweisführung” anhand einzelner Beispiele und damit fast ausschließlich anekdotisch erfolgt – übrigens ein weiterer zentraler Kritikpunkt orthodoxer Methodik –, zeigt ein weiteres Mal, wie Big Data die Grundsätze des über viele Jahrzehnte entwickelten, wissenschaftlich begründeten methodischen Vorgehens ignoriert oder konterkariert. 

In Deutschland hat die Diskussion mit der üblichen Verzögerung begonnen. Man spürt die Not, einer Entwicklung so schnell wie möglich hinterherzulaufen (auch wenn „Big Data“ in der Medizin laut „Gartner’s Hype Cycle“ den Höhepunkt der Erwartungen schon deutlich überschritten hat) – und sieht auch hier die großzügige Naivität, Behauptungen zum Erfolgskonzept von Big Data kritiklos zu übernehmen oder selbst dort Big Data zu sehen, wo keine sind. Die Angst, nicht dabei zu sein, scheint alles andere zu überwiegen. Zwar stellen die Rufer fest, dass das Gesundheitswesen eine der Branchen mit dem größten Potential für Big Data ist, worin dieses Potential liegen soll, beantworten sie jedoch meist nicht. Vielmehr bedienen auch sie sich des Mantras, dass Big Data eben per se gut sind.

Wo Beispiele genannt werden, sind es meistens sehr große Datenkörper (wie etwa von der Nationalen Kohorte). Diese sind jedoch in der Regel gut strukturiert und damit zwar aufwändig, aber klassisch erfasst und auswertbar – womit sie nicht unter Big Data fallen. Die oft missachtete Grenzziehung liegt einfach zwischen sorgfältig geplanter und strukturierter Datenerfassung und Datenhaltung einerseits und dem Zugriff auf beliebige Daten samt deren Verknüpfung andererseits. Gerade in der Medizin dürfte für die Anhänger von Big Data in Deutschland wenig Freude aufkommen, da hierzulande die rechtlichen Einschränkungen für Datenzugriff und unkontrollierte Datenverwendung eine Realisierung der Versprechungen von Big Data schon auf dieser Ebene verhindern. 

 

„In der Big-Data-Zukunft ist jede Form von stringenter Methodik störend.“

 

Die systematische „Hyperisierung“ von Big Data ist jedoch zugleich die Grundlage für den Glauben an deren grenzenloses, innewohnendes Potential. Dass damit eine teils atemberaubende Kritiklosigkeit einhergeht, überrascht deswegen nicht unbedingt. Überraschend ist jedoch, dass auch aus Kreisen der Wissenschaft eine nicht akzeptable Kompromissfähigkeit zugunsten weniger wissenschaftlicher Qualität gezeigt wird. Die Literatur zeigt, dass Big Data eher ein Marketingkonzept denn ein wissenschaftlich tragfähiger Blick in die Zukunft ist. Besonders deutlich wird das bei der Diskussion um die Grenzen und mögliche Schäden durch Big Data. Mögliche Falschaussagen werden geflissentlich übersehen. Da es Validierung, Goldstandards und ähnlicher methodischer Eckpfeiler nicht bedarf, tauchen entsprechende Limitationen der Methode kaum auf.

Sehr wohl wird jedoch diskutiert, dass Big Data unbehinderten Zugriff auf Daten braucht, um sich entfalten zu können. Eingestanden wird, dass damit eine Generalattacke auf die Privatheit von Bürgern, Institutionen und Betrieben einhergeht. Die Lösung dafür erstaunt umso mehr: Man muss die Verantwortung für die Daten einfach nur vom Besitzer der Daten auf den Nutzer übertragen und der Weg in die Big-Data-Zukunft ist frei (entsprechend dem exemplarischen Zitat: „Big Data: Die Revolution, die unser Leben verändern wird”). Diese ungebrochen gestellte Forderung ist entweder von grenzenloser Naivität geprägt oder getrieben vom Wunsch, Datenschutz und Privatheit konsequent aufzuweichen. Wenn man sich die Beispiele für den Nutzen von Big Data ansieht, scheint eher Letzteres der Fall, um immer mehr persönliche Daten für die kommerzielle Nutzung zu erhalten. Es erklärt sich von selbst, dass damit jede Form von stringenter Methodik störend ist.

Unterstützt wird der Hype zugunsten der Schönen Neuen Welt durch die alles durchziehende Forderung nach „Innovation“. Die mantrahafte Wiederholung und Allgegenwärtigkeit scheint zu zeigen, dass es heute schon einer gewissen Portion Mut bedarf, um eine Veranstaltungsankündigung, einen Artikel über eine neue Methode oder eine Pressemitteilung über eine Verfahrensentwicklung ohne die Eigenschaft „innovativ” zu präsentieren („Innovation” hat 391 Mio. Google-Treffer). Auch hier gibt es indes frontale Gegensätze in der Medizin und Gesundheitsversorgung. Die vor allem ökonomisch getriebene Forderung nach Innovation ist gerade nicht automatisch identisch mit dem medizinisch Nützlichen. Im Gegenteil, insbesondere bei neuen diagnostischen oder therapeutischen Verfahren oder medizintechnischen Geräten gilt, dass das Neue seine Überlegenheit gegenüber dem Etablierten beweisen muss, zumindest aber nicht schlechter sein darf. Bei Arzneimitteln, aber auch bei nichtmedikamentösen Verfahren ist das durch den Zulassungsprozess geregelt – in der Medizintechnik bisher nicht. 

 

„Die ökonomisch getriebene Forderung nach Innovation ist nicht automatisch identisch mit dem medizinisch Nützlichen.“

 

Wer durch die kompromisslose Anwendung von etablierter Methodik die Einführung neuer Verfahren oder Streben nach mehr Umsatz und Profit behindert, wird demnach schnell zur Behinderung für Innovation. Ein geradezu schulmäßiges Beispiel dafür beschrieb die Süddeutsche Zeitung am 5. September 2015 unter dem Titel „Systemfehler”. Ein Gesetz, dass Schein-Innovationen verhindern soll, „versagt” bei einem speziellen Epilepsiemedikament, von dem faktisch viele Patienten „profitieren” könnten – nur weil die Behörden dennoch nicht davon überzeugt waren, dass das Medikament einen eindeutigen Zusatznutzen hat, und die Hersteller dadurch nicht den angemessenen Erlös erzielen können.

Die Ingredienzien sind hier wie üblich: die Beschreibung einzelner Patienten; Missachtung der Relation von Nutzen zu Schaden; die Behauptung, dass diese Krankheit etwas Besonderes sei und damit die gängige Methodik hier nicht angewendet werden könne; das gesetzlich verankerte Regelwerk, das Innovation verhindert. Denn bei Letzterem geht es ja gar nicht darum, ein Medikament zu verhindern – vielmehr droht es zu verschwinden, da der Hersteller nach dem Urteilsspruch nicht die gewünschten Preise dafür verlangen kann. Innovationsverhinderung scheinbar durch methodisch abgeleitete Regeln, tatsächlich jedoch wegen schlichter Ökonomie. 

Auf der Skala der Übertreibungen verdient die personalisierte oder individualisierte Medizin ebenfalls einen Platz in der Spitzengruppe. Schlagzeilen wie „Personalisierte Medizin als Innovationsstrategie“ und ähnliche Formulierungen zeigen, wie sich die Begriffe auf der Hype-Skala gegenseitig aufbauschen. „Mit Big Data und Medizintechnik zur personalisierten Medizin” ist ein weiteres Beispiel für solche Verbindungen. Google ist sehr hilfreich, die Existenz und Häufigkeit solcher Kombinationen zu prüfen. Das Ergebnis ist überwältigend – es gibt alles, was vorstellbar ist.

Die Verbindung zu Big Data läuft demnach vor allem über die „Omics“-Schiene. Die großteils naiven Erwartungen, dass man über die Identifikation von genetischen Konstellationen eine eindeutige Verbindung zu Krankheitssymptomen findet und daraus leicht therapeutische Ansätze entwickeln kann, ist inzwischen großer Ernüchterung gewichen. Entsprechend hat die Komplexität der Zusammenhänge zwischen genetischer Grundlage und Symptomatik insbesondere zu einem massiv erhöhten Ausbau der Rechnerkapazitäten für die Bioinformatik geführt. Nimmt man noch die sich rapide entwickelnde Gensequenzierungs-Industrie hinzu, ist der Wunsch verständlich, auch hier Big Data haben zu müssen. Tatsächlich liegen hier inzwischen auch große Datenmengen vor, allerdings nur streng strukturierte Daten – also wiederum keine Big Data, gemessen an deren Definition und Ansprüchen. 

Doch zurück zur personalisierten Medizin. Diese erscheint vielfach wie ein Synonym für die Aufweichung von methodischen Anforderungen. Das Zuschneiden einer Therapie auf einzelne Patienten ist ein verständlicher Wunsch, dessen Erfüllung vielleicht in ferner Zukunft möglich ist. Gegenwärtig bedeutet die Realisierung jedoch, für begrenzte Gruppen von ähnlichen Patienten eigene Therapien zu entwickeln. Damit steht man allerdings unmittelbar vor dem Problem, die etablierte Studienmethodik wegen der Knappheit der entsprechenden Patienten nicht mehr routinemäßig nutzen zu können. Die Versuchung, die Anforderungen an Wirksamkeitsnachweise und Unbedenklichkeit daher zu senken, ist naturgemäß groß. Neben den objektiven Herausforderungen an die Methodik schimmert hier jedoch auch der tiefe Wunsch durch, statt biologischer Variabilität, Umgang mit Populationen, Unsicherheit der Aussagen und notwendigen statistischen Analysen zu einer sicheren, deterministischen und wahrlich personalisierten Medizin zu gelangen. Dass das nicht gelingen wird, liegt auf der Hand. 

 

„Personalisierte Medizin erscheint vielfach wie ein Synonym für die Aufweichung von methodischen Anforderungen.“

 

Wir beobachten also eine zunehmende Polarisierung zwischen selbstkritischer Reflektion gerade in den Lebenswissenschaften und der Medizinforschung sowie andererseits den Heilsversprechen durch die Revolution, die unter anderem Big Data bringen wird. Die Fortführung der oben erwähnten The Lancet-Initiative durch die „Reward/Equator“-Konferenz Ende September in Edinburgh (http://tiny.cc/rewardequator) wie auch entsprechende Aktivitäten der Zeitschriften Nature und Science zusammen mit den US-National Insitutes of Health (NIH) zeigen jedoch, wie ernst die Krise inzwischen weithin genommen wird.

Auf der anderen Seite jedoch steigt der Druck auf die Wissenschaft durch steigende Ökonomisierung speziell in der Medizin – insbesondere durch das zunehmende Auseinanderdriften von wachsender Biologisierung auf der Forschungsseite und den tatsächlichen Realitäten in der Versorgung. Wenn dies am Ende zu verstärkter Erosion der methodischen Qualität führt, wäre es sicherlich zum Schaden beider Seiten. Kurzfristig mögen hier leicht gewonnene Erkenntnisse und „Innovationen“ beeindrucken, langfristig gibt es jedoch zu rigiden, wissenschaftlich gewonnenen Grundlagen – sowohl aus der Qualitäts- wie auch aus der Ökonomieperspektive – keine Alternative.

 

Gerd Antes ist Biometriker und Direktor des Deutschen Cochrane Zentrums am Universitätsklinikum Freiburg.


(Der Essay erscheint in Laborjournal 10/2015 und ist hier vorab online veröffentlicht. Illustration: Tim Teebken)



Letzte Änderungen: 14.01.2016