Info

Vom Ertrinken in der Literatur

(13.5.16) Weniger publizieren! Niemand kann das alles lesen! Ja, wenn das so einfach wäre. Und müssten Forscher nicht sogar eher noch mehr veröffentlichen, anstatt  Daten verstauben zu lassen? Ein Kommentar von Hans Zauner.
Info
editorial_bild

© gemenacom / iStcok

Wir ertrinken! In Paper-Bergen!  Auch Daniel Sarewitz (vom Consortium for Science, Policy and Outcomes an der Arizona State University) stimmt nun in einem Nature-Editorial in diesen Chor ein. Seine Forderung: Forscher sollen weniger und selektiver publizieren.

"... sagt ein Professor, der schon eine Festanstellung  hat"

wirft die australische Astrophysikerin Katie Mack via Twitter ein. Aber mit der Diagnose hat Sarewitz ja recht, keine Frage. Die Zahl der wissenschaftlichen Publikationen geht durch die Decke (wir stehen bei etwa 2 Millionen Fachartikeln pro Jahr) und man fragt sich, ob all diese oft mit Mühe und mit Herzblut verfassten Ergüsse überhaupt gelesen werden. Denn die potentiellen Rezipienten haben immer weniger Muße für das Lektürestudium – getrieben vom Zwang, selbst immer mehr und in immer kürzeren Abständen zu publizieren. Und längst nicht jedes Paper, das pflichtschuldig zitiert wird, wurde auch tatsächlich gelesen.

Info

ANZEIGE

Info

Kommen Sie mit auf eine virtuelle Reise durch das Labor und betrachten Sie es aus ganz neuen Blickwinkeln! mehr

Masse statt Klasse

Dass die gestiegene Quantität nicht mit höherer Qualität einhergeht, scheint auch klar. Aber Sarewitz' Lösungsvorschlag – weniger und selektiver publizieren!  – greift zu kurz und reibt sich mit einem anderen Problem im Korpus der wissenschaftlichen Literatur: dem Publication Bias, also dem Befund, dass zu oft nur positive, eindeutige Ergebnisse den Weg in die Literatur finden. Berichte über Negativergebnisse, gescheiterte Experimente oder unklare Datenlagen verstauben dagegen oft in den Laborschubladen; im Giftschrank, sozusagen.

Die Lösung für das Problem des Publication Bias ist nun aber gerade nicht, weniger und selektiver zu publizieren – sondern tatsächlich alle Ergebnisse und Daten zu veröffentlichen. Also eher noch mehr als im Moment. Und gerade Journale wie PLOS ONE, die den potentiellen Impact nicht zum Annahmekriterium machen, und somit der verzerrten Berichterstattung entgegenwirken, häufen den Literaturberg dadurch noch weiter auf.

Die metaphorische Klage über das "Ertrinken" in der Paper-Flut und das "Verdünnen" der Literatur durch zu viel Geräusch ist auch ein wenig anachronistisch.

Das Signal im Geräusch finden

Alles unter sich begrabende Papierberge gibt es dank Digitalisierung gar nicht mehr. Niemand stapelt gedruckte Journale auf Bibliothekstischen und wühlt sich manuell durch Inhaltsverzeichnisse. Literaturdatenbanken machen die Suche nach den Nadeln im Heuhaufen einfacher, und Fortschritte im Text- und Datamining, mit ausgefuchsten, lernenden Algorithmen, werden den Forschern in Zukunft dabei helfen, große Literaturmengen noch effizienter nach relevanten Fundstellen zu durchforsten.

Wobei es eventuell dem Ego der Autoren abträglich ist, wenn ihre Werke demnächst vielleicht eher von Maschinen als von Menschen gelesen und ausgewertet werden. Aber das ist ein anderes Thema.

Jedenfalls ist das Problem weniger die Flut der Publikationen an sich. Denn mit der Menge  könnte man umgehen, und mehr Daten sind eigentlich immer besser als weniger Daten – sofern sie denn verlässlich sind. Das ist doch der eigentliche Knackpunkt. 

Das Problem ist also eher der dahinter stehende Geschwindigkeitswahn in der Forschung (siehe das Interview mit Johannes Jäger in Laborjournal 11/2015); die falschen Anreize, die verkrusteten Strukturen der Karrierewege, der ignorante oder schlicht faule Gebrauch von Metriken.

Erzeugen die 'produktivsten' Forscher die am wenigsten verlässlichen Daten?

Anders gesagt: Das Anreizsystem belohnt tendenziell die falschen, eben die augenscheinlich "produktivsten" Nachwuchsforscher.  Darauf geht Sarewitz leider nicht direkt ein, obwohl doch genau da der Hund begraben liegt. Der Neurowissenschaftler Björn Brembs hat das gestern in einem Blog-Beitrag auf den Punkt gebracht, mit Verweis auf einen Artikel von Daniel Lakens :

"In den experimentellen Naturwissenschaften besteht das statistische Risiko, dass der produktivste Forscher auch derjenige ist, der die am wenigsten verlässlichen Publikationen produziert."

Die Produktivität, gemessen an Zahl und "Impact" der Publikationen, ist eines der wichtigsten Kriterien für die Forscher-Bewertung. Nicht selektiver publizieren, sondern langsamer und sorgfältiger forschen wäre aber das Gebot der Stunde – und dann alle Ergebnisse vollständig publizieren.

Aber: was wäre der Lohn für dieses löbliche Verhalten?

 

Hans Zauner

 



Letzte Änderungen: 27.07.2016