Editorial

Von Maus zu Mensch durch das Tal des Todes

(18.08.2020) Die Translation von Grund­lagen­forschung in die Klinik klappt nicht gut. Einige schwache Glieder der Trans­lationskette ließen sich aber leicht ersetzen.
editorial_bild

„Translation“ – von der Maus zum Mensch und zurück. Oh, du Mantra und ewig blaue Blume der Univer­sitätsmedizin! Klar, wo gibt es das schon unter einem Dach: Biomedi­zinische Grund­lagen­forschung und klinische Forschung, die dafür nötigen Studien­patienten, einen staatlichen Auftrag inklusive Finan­zierung – sowie motiviertes und dafür exzellent ausgebildetes Personal. Zwar ist Translation prinzipiell so alt wie die akademische Medizin, nur wurde der Begriff dafür erst in den Achtziger­jahren des vorigen Jahr­hunderts geprägt und ziert seither die Websites und Mission Statements sämtlicher Unikliniken – und zwar weltweit.

Im Blick zurück ist Translation ganz sicher ein Erfolgs­modell – man denke nur an Antibiotika, Epilepsie­behandlung, moderne Tumor­therapie, HIV-Therapie. Doch nicht nur ewige Mäkler wie der Wissen­schaftsnarr – nein, sogar die DFG und der Wissen­schaftsrat beklagen seit geraumer Zeit, dass es nicht mehr so rund läuft mit der Translation. Allerlei poetische Metaphern werden dazu bemüht, wie der „Trans­lational Roadblock“, oder gar das trans­lationale „Tal des Todes“.

Editorial

Auf vielen Feldern der Medizin geht es nämlich trotz massivem inter­nationalen Forschungs­einsatz nicht mehr so recht vorwärts. In meinem Fach, der Schlag­anfallmedizin, forschen wir etwa seit Jahr­zehnten mit Begeisterung an patho­physiologischen Grundlagen, schreiben tolle Paper und werden dadurch mit ein bisschen Glück auch verbeamtet – bei Schlaganfall-Patienten ist von alledem bisher jedoch überhaupt nichts angekommen! Ist der Schlaganfall womöglich eine Ausnahme, und die Schlag­anfallforscher vielleicht einfach unfähig? Was ist dann aber mit den Alzheimer-Forschern? Wo bleiben die so lange versprochenen, im Tiermodell so effektiven Stamm­zelltherapien? Wo die wunder­samen Behandlungen, die sich aus der Ent­schlüsselung des menschlichen Genoms ergeben sollten?

Wer sich noch nicht vollends in den schützenden Kokon der Univer­sitätsmedizin einge­sponnen hat und deshalb den eigenen Erfolg ausschließlich an der Höhe der einge­worbenen Drittmittel oder dem Impact Factor von Publi­kationen misst, kann da schon ins Grübeln kommen. Wie erfolgreich sind wir in der Translation, gemessen an den eingesetzten Ressourcen und unseren eigenen Versprechungen?...

Nicht nur, aber auch wegen solcher Gedanken wird schon länger nach den Ursachen für die enttäuschende Bilanz translationaler Forschung gesucht. Und man ist fündig geworden. Vermeintlich liegt es am „Tal des Todes“, das es lebendig zu durch­queren gilt, sowie am fehlenden Mindset der beteiligten Wissen­schaftler und Kliniker – womit deren innere Einstellung gemeint ist.

Aber schon die Metapher vom „Tal des Todes“ führt uns auf die falsche Fährte. Es suggeriert zwei Antipoden: Hier die Grund­lagen­forschung, dort die klinische Forschung, in beiden läuft es ganz prima– aber die unwirtlichen Bedingungen dazwischen sind das Problem.

Aus diesem Bild leiten sich dann die gängigen Strategien zur Verbesserung der Erfolgsrate des Trans­lations­prozesses ab: Man müsse die Forscher und Kliniker an die Hand nehmen und ihnen erklären, wie sie es richtig machen sollen. Immer schön an die Patienten denken, wenn man Krank­heitsmecha­nismen experimentell untersucht – oder an die Mäuse, wenn man Menschen behandelt. Man müsse also nur für das richtige Mindset sorgen. Und dann seien den so Aufgeklärten nur noch ein paar Infra­strukturen zur Seite zu stellen, die sie dabei unterstützen. So jedenfalls sieht das die DFG in ihren kürzlich veröffentlichten „Empfehlungen zur Förderung trans­lationaler Forschung in der Univer­sitätsmedizin“.

Ich fürchte jedoch, so einfach ist das nicht. Vielmehr noch verpasst man mit diesem Ansatz womöglich gar die wichtigsten Ursachen für die enttäuschende Bilanz von Translation. Und das wäre tragisch, denn einige davon sind eigentlich recht leicht zu beseitigen.

Die vielleicht trivialste Hürde ist natürlich die unglaubliche Komplexität der Biologie. Paradoxer­weise entfernt man sich mit zunehmendem Verständnis eines Krankheits­mechanismus oftmals weiter von einer potenziellen Therapie, als ihr näher zu kommen. Eingriffe in Signalweg A, die den erwünschten Effekt haben, führen oft zu schädlichen Effekten im Signalweg B. Was aber hilft gegen solche Komplexität? Natürlich noch mehr Forschung, und zwar meist sehr grund­lagenmäßige.

Mit der Komplexität zusammen­hängend und ebenso unangenehm ist das Phänomen der „niedrig hängenden Früchte“, die wir schon gepflückt haben. Die wenigen Krankheits­mechanismen, die einfach und neben­wirkungsarm therapierbar sind, haben wir bereits beherrschbar gemacht – beispielsweise mit Penicillin, Insulin, Dopamin, Beta-Blockern, Protonen­pumpen-Blockern oder Cyclo­oxygenase-Hemmern (wenn auch selbst da noch einiges schiefgehen konnte, man denke etwa an Vioxx). Viele Volks­krankheiten können wir schon sehr erfolgreich therapieren. Den Blut­hochdruck aber noch besser zu behandeln, oder Epilepsien oder Multiple Sklerose – das ist sehr schwierig. Sehr zum Leidwesen übrigens der Pharma­industrie, die nicht von Nature-Papern, sondern von profitablen Medikamenten lebt. Nachdem sie die Blockbuster „gepflückt“ hat, und ihr seit geraumer Zeit wenig wirklich Neues einfällt, lebt sie im Wesentlichen von Me-Too-Präparaten – also von vergangenen Erfolgen.

Und dann ist da noch das Problem der niedrigen internen Validität, vor allem in der präklinischen Forschung – oder drücken wir es etwas direkter aus: deren niedrige Qualität. Die Mehrheit aller experi­mentellen Studien, auf deren Resultaten klinische Entwick­lungen ja fundamental aufbauen, kontrollieren nicht für Verzerrungen (Bias) und werden weder randomisiert noch verblindet durchgeführt. Dazu liegen die Gruppen­größen fast immer unter Zehn, was bei der biologisch normalen Varianz der Ergebnisse einem Würfeln gleichkommt. Allerdings mit präpariertem Würfel, denn durch das Fehlen einer Präregis­trierung der geplanten Experimente und Analysen hat der Wissen­schaftler weitgehende Freiheit in der Auswahl erwünschter beziehungs­weise im Weglassen uner­wünschter Resultate. Unterstützt wird die selektive Daten­nutzung dann noch durch fehlerhafte Statistik – insbesondere durch das so beliebte p-Hacking, also die Durch­führung statistischer Tests, bis sich ein signifikantes Ergebnis einstellt.

Und steht die Story dann erstmal, heißt die Devise: Take the paper and run! Von der Wieder­holung der Ergebnisse (Replikation), vielleicht sogar durch unabhängige Unter­sucher, nimmt man unter diesen Umständen besser Abstand. Gefördert wird dies ja ohnehin nicht, und karriere­mäßig bringt das auch nichts – insbesondere, weil dann die vorher so tolle Story im biologischen Halb­schatten womöglich gar nicht mehr so schön eindeutig schwarz-weiß aussieht. Und weil die Null- beziehungs­weise negativen Resultate, mit denen also nicht das rauskam, was man sich erhofft hatte, allenfalls in F1000Research oder PLoS One veröffentlicht werden können, kontaminiert man sich mit so was besser nicht den Lebenslauf – und archiviert es auf der eigenen Festplatte.

Wo die interne Validität niedrig ist, muss man sich da aber auch automatisch Sorgen um die externe Validität machen? Leider ja – denn die Mehrzahl der präklinischen Modelle ist nicht nur hinsichtlich ihrer Spezies recht weit von den Patienten mit der untersuchten Erkrankung entfernt.

Hierzu wieder ein Beispiel aus der Schlag­anfallforschung: Unsere Mäuse sind genetisch praktisch identisch (Inzucht), überwiegend männlich-juvenil und werden allesamt mit einer Vitamin-geladenen Müslidiät ernährt sowie unter Reinraum­bedingungen (SPF) gehalten. Sie hatten also noch nie eine Infektion oder sonstige Erkrankungen und haben damit sogar im Erwach­senenalter unreife, ja neonatale Immun­systeme. Ich erspare mir die Gegen­überstellung dieser Mäuse zu den typischen Schlaganfall-Patienten. Meine einzige Erklärung dafür, warum das seit Jahr­zehnten so gemacht wird, obwohl keine der in diesen Modellen so effektiven Therapien auch beim Menschen erfolgreich war? Weil wir uns daran gewöhnt haben, und weil sich damit tolle Publikationen erzielen lassen. Und diese wiederum helfen, Drittmittel zu akquirieren, mit denen man wieder tolle Publikationen schreiben kann.

An dieser Stelle der translationalen Verwer­tungskette – also der Beschreibung eines neuen Krankheits­mechanismus oder gar einer neuen, im Tierversuch wirksamen Therapie – ist damit das Kind meist schon mitsamt dem Wasser aus dem Bade. Sprich: Eine klinische Entwicklung beginnt, die auf einem unsoliden präklinischen Fundament steht. Wenn es wirklich so wäre, dass man über Tierversuche mit niedriger interner und externer Validität, geringen Fallzahlen trotz hoher Varianz, selektiver Auswahl von Daten und proble­matischer statistischer Auswertung erfolgreiche Therapien für Patienten begründen könnte – dann bräuchte man doch gar keine Tier­versuche!

Aber trotzdem mal angenommen, man habe einen wirklich soliden Kandidaten für eine klinische Über­prüfung gefunden – so was gibt’s ja trotz der genannten Widrig­keiten manchmal. Wie sieht es damit aus? Ich überspringe hier ein paar gesetzlich nötige Zwischen­schritte, die allesamt auch noch zum Abbruch der trans­lationalen Kette führen können – etwa Pharma­kologie/Toxiko­logie sowie Unter­suchung von Absorption, Distribution, Metabo­lismus und Elimination (ADME) des Medikaments. Wie groß sind dann die Chancen, dass wir in einer rando­misierten klinischen Studie eine wirksame Therapie finden werden?

Im Durchschnitt darf sie nicht größer als fünfzig Prozent sein! Denn dies ist aus ethischen Gründen bei klinischen Studien gefordert. Man nennt es Equipoise: Möglicher Nutzen und Risiko müssen für den Patienten vor Studien­beginn im Gleich­gewicht stehen. Es darf also nicht von vorn­herein feststehen, dass die Studien­medikation besser als Placebo wirkt. Ansonsten wäre es ja unethisch, dem Patienten diese vorzu­enthalten und stattdessen ein Schein­medikament zu geben.

Darin liegt letztlich ein weiterer Grund, warum wir gar nicht erwarten dürfen, dass Translation eine hundert­prozentige Effektivität haben kann. Klinische Studien müssen scheitern dürfen! Nur müssen sie so angelegt sein – und das gilt genauso für präklinische Experimente –, dass auch ein negatives Resultat verwertbare und relevante Evidenz generiert. Zum Beispiel das Wissen um eine unwirksame Dosis, woraufhin man eine andere probieren kann, oder um eine Neben­wirkung und so weiter. Und genau deshalb müssen die Resultate auch zeitnah publiziert werden.

Womit wir einen weiteren Grund für trans­lationales Versagen haben. Sechzig Prozent aller klinischen Studien der deutschen Univer­sitätsmedizin haben zwei Jahre nach deren Beendigung noch keine Ergebnisse veröffentlicht, bei vierzig Prozent ist das auch noch nach fünf Jahren so. Das ist nicht nur unwissen­schaftlich, sondern auch unethisch. Schließlich haben die Patienten an den Studien teil­genommen, weil das hieraus generierte Wissen nach­folgenden Patienten­generationen nützen soll. Sie selbst konnten, wegen Placebo und Equipoise, zwar auf eigenen Nutzen hoffen, durchschnittlich ist die Wahr­scheinlichkeit dafür aber selbst bei Erhalt der Studien­medikation nicht größer als bei einem Münzwurf.

Unterstellt habe ich dabei, dass die klinischen Studien robustere Ergebnisse liefern als die präklinischen Studien, auf denen sie häufig beruhen. Dies weil sie durch verschiedene Behörden reguliert und kontrolliert sowie unter dem im Sozial­gesetzbuch geforderten klinischen Qualitäts­management durch­geführt werden. In den meisten Fällen gilt das wohl auch, dennoch ist ein falsches Studien­design vermutlich eine häufige Ursache für trans­lationales Scheitern. Auch hier wieder ein typisches Beispiel aus der Schlag­anfallforschung: Wenn neuro­protektive Substanzen – also solche, die das Hirn vor weiteren Schäden nach einem Schlaganfall schützen – im Nagetier nur in den ersten Stunden nach Gefäß­verschluss wirksam sind, sollte man sich eigentlich nicht wundern, dass sie im Patienten nicht wirken, wenn man ihn erst nach zwölf Stunden therapiert. So geschehen in sehr vielen (erfolglosen) akuten Schlag­anfallstudien.

Die translationale Kette kann also an ganz verschiedenen Stellen abreißen, ich habe nur ein paar genannt. Allerdings genügt der Bruch des schwächsten Gliedes in der Kette, um Tausende von Patienten unnötigen Risiken auszusetzen und gigantische Ressourcen zu verschleudern. Schließlich kostet der gesamte Prozess in der Regel hunderte von Millionen Euro.

Die gute Nachricht jedoch: Trans­lationaler Erfolg muss und kann sich nicht in hundert Prozent der Fälle einstellen. Und zudem: Ein nicht uner­heblicher Teil der schwachen Glieder lässt sich relativ einfach ersetzen. Eine Erhöhung interner und externer Validität sowie ausreichende Gruppen­größen und ordentliche Statistik, dazu Präregis­trierung der Studien, Publikation von Null-Resultaten wie auch Replikation von wichtigen Befunden – all das würde die Translation schon auf ein solides Fundament stellen. Dazu analog im klinischen Bereich: Sicher­stellung, dass robuste präklinische Evidenz vorliegt; ausreichend gepowerte Studien; Studien­designs, die auch bei Verfehlung des erhofften Ergebnisses informativ sind; und nicht zuletzt zeitnahe Veröffent­lichung der Ergebnisse. Wenn wir dies erreicht haben, können wir uns auch um das „trans­lationale Mindset“ der Beteiligten kümmern.

Doch jetzt die schlechte Nachricht: Von alledem steht nichts in den Empfehlungen der DFG. Ich fürchte, das liegt daran, dass viele der genannten Maßnahmen nicht so recht in unser akademisches Karriere- und Fördersystem passen. Nach einer Verbesserung des Erfolges von Translation zu streben, hieße nämlich auch: Die Maßstäbe zu ändern, von denen das berufliche Fortkommen in der univer­sitären Medizin abhängt!

Ulrich Dirnagl

Weiterführende Literatur und Links finden sich wie immer unter: http://dirnagl.com/lj




Letzte Änderungen: 18.08.2020