Editorial

Warum wissenschaftlicher Wumms ...

(07.03.2023) … weltweit weniger wird: Trotz jährlich Millionen von Artikeln nimmt gleichzeitig die effektive Produktion wirklich neuartigen Wissens ab.
editorial_bild

„Paper und Patente werden immer weniger disruptiv” – so alliterierte der Titel einer Studie von Michael Park und Kollegen von der University of Minnesota, die kürzlich in Nature erschien (doi.org/grkxs9; weitere Referenzen wie immer unter http://dirnagl.com/lj). Sie untersuchten darin, wie sich Netzwerke von Zitationen in Wissenschaft und Technologie über die letzten sechzig Jahre hinweg verändert haben – und nahmen dazu 45 Millionen Artikel und 3,9 Millionen Patente als Daten­grundlage. Kern ihres quantitativen Ansatzes war der folgende einfache Gedanke: Wenn eine Arbeit oder ein Patent etwas wirklich Neues zutage fördert, werden nachfolgende Arbeiten, die sich darauf via Zitierung beziehen, weniger wahrscheinlich auch deren Vorgänger zitieren. Schließlich sind die Ideen, die zuvor zur Produktion der zitierten Arbeit oder des zitierten Patents geführt haben, für zukünftige Wissen­schaftler weniger relevant. Wenn eine Arbeit oder ein Patent dagegen eher konfirmatorisch war, steigt die Wahrschein­lichkeit, dass nachfolgende Arbeiten, die sich darauf berufen, auch ihre Vorgänger zitieren. In dem Fall ist für künftige Forscher­generationen das Wissen, auf dem die Arbeit aufbaut, immer noch – oder sogar umso stärker – relevant.

Editorial

Tageszeitungen rund um den Globus berichteten daraufhin aufgeregt über das beunruhigende Fazit der Studie, dass die Innova­tionskraft der Wissenschaft demnach ganz offensichtlich schwächelt. Das Paper wurde allerdings gleichsam auch zum Beleg für die eigene Botschaft: Dass wissenschaftliche Innovationen, Paradigmen­wechsel, Revolutionen, Durchbrüche – wie immer man so etwas auch nennen mag – seit Jahrzehnten kontinuierlich weniger werden, hatten nämlich zuvor bereits viele Studien mit sehr unterschiedlichen Methoden und Ansätzen gezeigt. Die Botschaft, dass wissen­schaftliche Durchbrüche immer seltener werden, ist also selbst alles andere als disruptiv, sie ist vielmehr konfirmatorisch – oder wie die Autoren der Studie das formulieren würden: „konsolidierend”.

Disruptiv oder konsolidierend – bemerkenswert ist das Phänomen aber allemal. Forschen doch heutzutage so viele Forscherinnen und Forscher wie niemals zuvor: Neunzig Prozent aller jemals tätigen Wissen­schaftlerinnen und Wissenschaftler sind heute noch am Leben. Weltweit sind das etwa acht Millionen an der Zahl, die aktuell pro Jahr rund sieben Millionen wissen­schaftliche Artikel in 34.000 im Web of Science gelisteten Journalen veröffentlichen. All diese Zahlen steigen seit Jahrzehnten exponentiell. Trotzdem nimmt das von uns produzierte wirklich neuartige Wissen gleichzeitig ab – daran kann kein Zweifel bestehen.

Wie aber kann es sein, dass trotz dieses gigantischen Outputs immer weniger Weltbewegendes hinten rauskommt? Wissen wir vielleicht schon (fast) alles? Waren die früheren Wissen­schaftler­generationen einfach genialer? Ist das, was die Welt im Innersten zusammenhält, mittlerweile einfach zu komplex für uns? Gibt es schon zu viel Wissen, und wir kommen nicht mehr hinterher? Oder nimmt gar die Qualität und Originalität der Forschung kontinuierlich ab?

Bevor wir uns auf die Suche nach Antworten begeben, ein kurzer Exkurs in die in diesem Diskurs verwendeten Begriff­lichkeiten Disruption, Revolution und Innovation in der Wissenschaft.

Der oben zitierte Artikel beklagt das Abnehmen von Disruption, bei gleichzeitiger Zunahme der Konsolidierung des Wissens. Disruption (vom Lateinischen disrumpere: zerbrechen, zerreißen) ist allerdings vielmehr ein Begriff aus der Mottenkiste der Unternehmens­berater, und gehört gar nicht in die Wissenschaft und deren Theorie. Ökonomen lieben disruptive Technologien, die alte Produktions­prozesse oder Produkte „zerbrechen” – und damit überflüssig machen. Mit diesen kann man sich dann trefflich gegen die Konkurrenz durchsetzen, die noch auf die alte Technologie setzt. Wissenschaft dagegen ist nicht disruptiv. Einstein hat Newton nicht „gebrochen”, seine „Gesetze” gelten immer noch. Und auch Heisenberg, Schrödinger und Dirac haben Einstein nicht „zerrissen”, die allgemeine Relativitäts­theorie ermöglicht Ihrem Handy immer noch die Ortsbestimmung mittels GPS. Sie haben alle aufeinander aufgebaut. Man steht auf den Schultern der anderen, die dabei immer noch eine solide Standfläche bieten.

Wissenschaft schreitet vielmehr in Paradigmen fort. Diese müssen, wie von Thomas S. Kuhn 1962 in seinem Klassiker „Die Struktur wissenschaftlicher Revolutionen“ beschrieben, von Zeit zu Zeit gewechselt werden. Solche „revolutionären“ Änderungen in den grundlegenden Konzepten und experimentellen Praktiken von wissen­schaftlichen Disziplinen werden aber offensichtlich immer seltener. Denn es kommt nur dann zum Wechsel, wenn das vorherrschende Paradigma, unter dem die „normale“ Wissenschaft arbeitet, mit neuen Phänomenen unvereinbar wird. Dann wird die Annahme einer neuen Theorie oder eines neuen Paradigmas erleichtert, ja nachgerade notwendig gemacht. Und dann führt ein Paradigmen­wechsel unter Anwendung neuer Ideen und Techniken häufig zu geplanter und kontrollierter Veränderung im System, also zur Innovation. Muss er aber nicht zwingend.

In dem Zusammenhang ist die „normale“ Wissenschaft übrigens das, was die meisten von uns tagsüber – und manchmal auch nachts und am Wochenende – betreiben: ordentliche Wissenschaft innerhalb des vorherrschenden Rahmens oder Paradigmas. Ich hoffe, Sie nehmen mir das nicht übel, aber wir sind eben keine Einsteins – zumindest die meisten von uns.

Eine naheliegende Erklärung für den immer größeren Aufwand, der trotzdem immer weniger neue Paradigmen – und in der Folge Innovationen – hervorbringt, könnte darin begründet liegen, dass wir die „einfach” rauszu­findenden Prinzipien schlichtweg schon wissen. Um es bäuerlich auszudrücken: Die niedrig hängenden Früchte wurden schon gepflückt. Jetzt müssen wir uns mehr und mehr strecken, um an die in der Krone verbliebenen Früchte heranzukommen.

Zur Illustration des Gedankens ein paar Beispiele aus meinem Gebiet, den Neuro­wissenschaften. Epilepsien sind heutzutage sehr gut therapierbar, wobei fast alle Medikamente auf dem gleichen Prinzip aufbauen – nämlich darauf, die Übererregung von Nervenzellen zu dämpfen. Mehr als drei Viertel aller Patienten mit Epilepsie können damit anfallsfrei gemacht werden. Bei den verbleibenden Patienten ist das leider nicht der Fall – hier sind oft selbst komplexeste und neben­wirkungs­reiche Medikamenten­kombinationen wenig effektiv. Ähnliches gilt für viele andere Erkrankungen: Multiple Sklerose, Morbus Parkinson et cetera.

Für einen Großteil der hieran Erkrankten hat das patho­physio­logische Verständnis (ein „Paradigma”) zur Entwicklung von effektiven Therapien („Innovationen”) geführt. Das waren die niedrig hängenden Früchte. Die Patho­physiologie war offenbar noch recht übersichtlich: Übererregung, autoimmuno­logische Reaktion auf Proteine des Nervensystems, Untergang einer ganz bestimmten Neuronen-Population und damit Ausfall eines spezifischen Neuro­transmitters et cetera. Zur Behandlung der therapie­resistenten Patienten fehlen uns nun neue Paradigmen – und vielleicht wäre ein Paradigmen­wechsel ja sogar auch im Verständnis der schon im Lehrbuch gedruckten Krankheits­mechanismen fällig. Aber das hängt eben weit oben im Baum, genauso wie bei Krebs, Alzheimer und – um ein Beispiel aus der Physik zu bringen – der dunklen Materie.

Mit dem Obstbauern-Argument verbunden ist zudem die Vorstellung, dass ein zunehmendes Problem für die Wissenschaft unserer Zeit die „Last des Wissens” sein könnte. Wir wissen in allen Feldern schon so viel, dass es insbesondere für den einzelnen Forscher immer schwieriger wird, dies alles zu überblicken und Verknüpfungen – idealerweise sogar mit anderen Wissensgebieten – herzustellen. Die Ära der „Renaissance-Forscher” ist definitiv zu Ende; vielmehr fokussieren wir uns als Wissenschaftler auf immer winzigere Segmente des Wissens, wodurch das Gesichtsfeld für größere Zusammenhänge immer mehr schrumpft.

Überdies muss hier auch das sogenannte „Diversity Innovation Paradox” genannt werden. Eine Reihe von Studien zeigte nämlich, dass unter­repräsentierte Gruppen anteilig eine höhere Rate an wissen­schaftlichen Neuerungen generieren als der Mainstream. Allerdings werden deren neue Beiträge von anderen Wissenschaftlern in geringerem Maße aufgegriffen. All dies sind Argumente für Team Science sowie für Inter- und Transdiszi­plinarität, aber auch für „Equity, Diversity, Inclusion” (EDI) – Ziele, die zwar häufig beschworen, aber umso seltener umgesetzt werden.

Ein weiterer gewichtiger Grund für die Stagnation wissen­schaftlicher Innovationen könnte zudem sein, dass das viele Geld, das in die Wissenschaft fließt, nicht optimal verteilt wird. Deutschland steckte 2020 laut Weltbank immerhin 3,4 Prozent seines Brutto­inlands­produkts in Forschung und Entwicklung, das ist eine ganze Menge Asche. Ein substantieller Teil dieses Geldes, von der Sachbeihilfe bis zum Exzellenz­cluster, wird mittels Peer Review verteilt – wir begutachten uns also gegenseitig. Das wesentliche Kriterium ist dabei der bisherige „Erfolg” – in der Regel gemessen an der Reputation der Journale, in denen wir veröffentlichten. Solch ein System ist notwen­digerweise risikoavers, statisch und homophil. In ihm regiert das Matthäus-Prinzip, nach dem bevorzugt auf große Haufen gesch... wird. Was dabei herauskommt, ist dann gehobener Mainstream – aber eher selten Paradigmenwechsel.

Nun sagt das beileibe nicht nur der Narr, den reichen Nationen dämmert das schon seit geraumer Zeit. Sie setzen gigantische Programme auf, bei denen sehr viel Geld über ganz andere Mechanismen verteilt wird. In den USA ist das beispielsweise ARPA-H (Fokus auf Gesundheits­forschung, 10 Milliarden US-Dollar), in England ARIA (Advanced Research and Invention Agency, 800 Millionen Pfund) und in Deutschland die Agentur für Sprung­innovationen (SPRIN-D, 1 Milliarde Euro). Aber auch Losverfahren bei der Förder­entscheidung, wie sie in Deutschland von der Volkswagen­stiftung eingeführt wurden und mittlerweile von einer Vielzahl von Fördergebern eingesetzt werden, könnten neuen Ideen besser auf die Sprünge helfen. Sogar der Nationalfonds in der sonst so konservativen Schweiz ist inzwischen mit von der Partie.

Doch zurück zum Peer-Review-Verfahren. Wenn dadurch dann noch ein substantieller Teil des verteilten Geldes in Forschung von zweifelhafter Qualität versenkt wird und deshalb nicht reproduzierbar ist, könnte das zusätzlich die Chancen vermindern, dass was wirklich Innovatives herauskommt. Der Narr hat an dieser und anderer Stelle schon häufiger die hierbei zum Einsatz kommenden fragwürdigen Praktiken gebrandmarkt. Dazu gehören zum Beispiel die nicht offengelegte Flexibilität bei der Datenerhebung und -analyse, das Aufstellen von Hypothesen nach dem Bekanntwerden von Ergebnissen (HARKING), das Erzeugen vermeintlicher statistischer Signifikanz der Ergebnisse (p-Hacking), das Fehlen von Verblindung und Randomisierung oder die Nicht-Veröffentlichung von relevanten, aber nicht ins Konzept passenden – vornehmlich negativen – Studien. Damit will ich Sie aber heute verschonen.

Übrigens findet das Nature-Paper von Park et al. keine Evidenz dafür, dass die schon gepflückten, also niedrig hängenden Früchte für die Misere mitverant­wortlich sind – denn „Disruption” nahm in ihrer Analyse über die Zeit in allen untersuchten Gebieten etwa gleichförmig ab. Genauso scheint ihnen abnehmende Forschungs­qualität kein relevanter Faktor, denn sie fanden schwindende Disruption in gleichem Maße in den Top-Journalen wie im Rest des Blätterwaldes. Ich halte diese Argumente für geradezu grotesk. Natürlich werden in allen Forschungs­feldern gleichermaßen jene Äpfel zuerst gepflückt, die am einfachsten erreichbar sind. Und dass Nature, Cell und Science Forschung besserer Qualität abdrucken als andere „Scholarly Journals”, müsste erst noch bewiesen werden. Die Beweislage spricht hier eher für das Gegenteil. Ich muss mich wirklich wundern, dass die Reviewer das von Park et al. geschluckt haben.

Schließen möchte ich dennoch mit dem letzten Paragraphen aus deren Artikel, denn schöner hätte es der Narr auch nicht sagen können: „Insgesamt vertiefen unsere Ergebnisse das Verständnis für die Entwicklung des Wissens und können als Orientierungs­hilfe für die Karriere­planung und die Wissenschafts­politik dienen. Um bahnbrechende Wissenschaft und Technologie zu fördern, sollten Wissenschaftler dazu ermutigt werden, viel zu lesen und sich Zeit zu nehmen, um mit dem schnell wachsenden Wissen Schritt zu halten. Die Universitäten sollten den Schwerpunkt nicht mehr auf Quantität legen, sondern die Qualität der Forschung stärker belohnen und vielleicht einjährige Forschungs­pausen stärker subventionieren. Bundesbehörden könnten in die risiko­reicheren und länger­fristigen individuellen Zuwendungen investieren, die Karrieren und nicht nur spezifische Projekte unterstützen – um Wissenschaftlern die Zeit zu schenken, die sie brauchen, um aus der Masse herauszutreten, sich gegen die ‚Publish-or-Perish‘-Kultur zu immunisieren und wirklich folgenreiche Arbeit zu leisten. Ein umfassenderes Verständnis des Rückgangs der disruptiven Wissenschaft und Technologie ermöglicht ein dringend erforderliches Überdenken der Strategien zur Organisation der Produktion von Wissenschaft und Technologie in der Zukunft.“

Ulrich Dirnagl

Weiterführende Literatur und Links finden sich wie immer unter:
http://dirnagl.com/lj.


Weitere Einsichten unseres Wissenschaftsnarren


- Warum klemmt’s bei Open Science und der Reform des akademischen Bewertungssystems?

Schon lange herrscht weitgehende Einigkeit: Das wissenschaftliche Bewertungssystem gehört reformiert und Open Science flächendeckend eingeführt. Befriedigend realisiert wurden bisher nur Bruchteile davon. Ein Implementierungsdefizit, das auch die Wissenschaftler selbst zu verantworten haben.

- Mehr Handys, mehr Dicke?

Eine Studie über vermeintliche Gesundheitsfolgen von Mobiltelefonieren versammelt beispielhaft all die Probleme, die die biomedizinische Forschung seit Jahren plagen.

- Back to the Future: Von industrieller zu inhaltlicher Forschungsbewertung

Wie effizient kann ein Bewertungssystem sein, dessen Messgrößen sich von den Inhalten, der Relevanz und der Qualität der Forschung verabschiedet haben? Sie haben es gemerkt: Wir sprechen von der schrägen Forschungs­evaluation anhand reiner Zahlen aus bibliometrischen Daten und Drittmittel­einwerbung. Ist solch ein System, das sich weltweit durchgesetzt hat, überhaupt noch reformierbar? Unser Wissenschaftsnarr meint: Aber sicher!

 



Letzte Änderungen: 07.03.2023