Editorial

Jetzt mal ehrlich

Publizieren im Umbruch

Von Alexander Grossmann, Berlin/Leipzig


(07.07.2015) Die überwiegende Mehrheit aller wissenschaftlichen Zeitschriften funktioniert noch wie im Zeitalter, als es noch kein Internet, keine sozialen Netzwerke oder Crowd-basierte Wissensplattformen gab. Ist diese Form der Verbreitung von Forschungsergebnissen im 21. Jahrhundert überhaupt noch angemessen? Der Autor sagt: Nein.

Vor einem Jahr sprach der Neurogenetiker Björn Brembs an dieser Stelle von der „digitalen Steinzeit“, als er den derzeitigen Zustand der digitalen Infrastruktur in der Wissenschaft charakterisierte und dabei vom Versäumnis vieler Institutionen sprach, auf eine effizientere und womöglich auch kostengünstigere Weise als bisher Forschungsergebnisse zu dokumentieren und zu kommunizieren [1]. Neben etlichen Beispielen nannte er das Unvermögen von Fachzeitschriften, sich an die Möglichkeiten des digitalen Zeitalters anzupassen, was die Aufbereitung von Daten, aber auch den ungehinderten Zugang zu wissenschaftlichen Ergebnissen sowie den daraus resultierenden akademischen Diskurs betrifft. Andreas Degkwitz, Direktor der Universitätsbibliothek der Humboldt-Universität formulierte es in einem Aufsatz im Tagesspiegel (16.6.2014) drastisch: „Weg mit den Wissenskonserven“ [2]. Sind Artikel in Fachzeitschriften also wirklich „Auslaufmodelle“, wie Degkwitz sie bezeichnet, und wie könnte digitales Publizieren die Arbeit von Wissenschaftlern im 21. Jahrhundert prinzipiell verändern?

Essays
Illustration: Tim Teebken

Über Jahrzehnte, wenn nicht Jahrhunderte war die Aufgabe von Fachzeitschriften in der Wissenschaft klar definiert: sie dienten dazu, Forschungsergebnisse in einer zitierfähigen Form niederzulegen und zu verbreiten. Offensichtliche Aufgabe der im Zuge dessen aufkommenden Wissenschaftsverlage war es dabei, diesen Prozess zu organisieren und produktionsseitig umzusetzen. Die Verbreitung der Inhalte erfolgte zunächst ausschließlich über Bibliotheken, die die Fachzeitschriften über Abonnements bezogen. Was vielenen Wissenschaftlern heute jedoch nicht bekannt ist: erst in den späten fünfziger Jahren des letzten Jahrhunderts begannen wissenschaftliche Zeitschriften den Prozess des Peer Review als Maßnahme der Qualitätssicherung einzuführen. Dabei prüfen zunächst unabhängige Fachleute aus der wissenschaftlichen Community (peers) das eingereichte Manuskript, bevor es zur Publikation angenommen oder in dieser Form abgelehnt wird. Zusätzlich wenden viele Herausgeber ein weiteres Verfahren zur Filterung von Arbeiten in „ihren“ Zeitschriften an, indem sie eingereichte Manuskripte bereits vor dem Peer Review aus unterschiedlichen Gründen ablehnen (editorial pre-selection). In dieser Weise arbeiten bis heute weltweit mehr als 20.000 überwiegend englischsprachige wissenschaftliche Zeitschriften allein in den naturwissenschaftlichen, technischen und medizinischen Disziplinen (engl. Abk.: STM).

Dieser Prozess und die damit verbundene Verteilung der Aufgaben war im Zeitalter gedruckter Werke bis etwa Mitte der neunziger Jahre nicht nur ein etablierter, sondern auch der beste Weg, Forschungsergebnisse zu dokumentieren und zu verbreiten. Das änderte sich allerdings mit den vielfältigen Möglichkeiten, die sich ab der Jahrhundertwende durch den Einzug des Internets und der digitalen Medien nicht nur im Alltagsleben neu ergaben. Auf einmal war es möglich, überall und jederzeit digitale Kopien von Inhalten abzurufen, mit anderen Nutzern im Internet zu diskutieren, Daten zu verändern oder zu aktualisieren, diese mit einem Mausklick weiterzugeben usw. Soziale Netzwerke wurden zu einer aus dem Alltag vieler Menschen heute nicht mehr wegzudenkenden Komponente des unkomplizierten Austauschs von Informationen. Blogs stellten eine neue Art dar, eigene Beiträge zu veröffentlichen, ohne auf eine Zeitschrift oder Zeitung angewiesen zu sein. In einigen Wissenschaftsdisziplinen, wie der Mathematik, Physik oder Informatik, wurden diese Möglichkeiten bereits seit 1991 aktiv genutzt; der Erfolg des Repositoriums arXiv, in das Anfang 2015 der millionste Beitrag als Preprint eingestellt wurde, belegt dies eindrucksvoll. Mittlerweile wurde dieses Konzept durch eine unabhängige Initiative am Cold Spring Harbor Laboratory auf die Biowissenschaften erweitert (bioRxiv). Auch wenn diese Beiträge nicht durch das Peer-Review-Verfahren begutachtet werden, nutzen viele Forscher das arXiv, um sich unmittelbar nach der Veröffentlichung eines Beitrags über neueste Ergebnisse konkurrierender Forschergruppen zu informieren. Die möglicherweise erst Monate später in einer Fachzeitschrift erscheinende, begutachtete Fassung spielt für die reine Information nur noch eine untergeordnete Rolle – vor allem, nachdem das arXiv ein eigenes Zitierungssystem eingeführt hat, um die dort eingestellten Beiträge eindeutig referenzierbar zu machen.

Warum verfahren Forscher derart und posten ihre Beiträge zunächst auf einem Repositorium, statt auf die Veröffentlichung in einer renommierten Zeitschrift zu warten? Neben dem Zeitgewinn bei der Veröffentlichung spielt auch der Anspruch auf Priorität eine immer größere Rolle, nicht nur in der biomedizinischen Forschung. Außerdem stehen die Beiträge auf diese Weise einem Diskurs unmittelbar zu Verfügung, der dann noch zu Anpassungen oder Ergänzungen des Textes in weiteren Versionen führen kann – statt irgendwann wie in Stein gemeißelt in einer Fachzeitschrift zu erscheinen.

Trotz dieser Vorzüge hat dieses Verfahren in vielen Gebieten der Wissenschaft bislang nicht Einzug gehalten, was möglicherweise eher dem Fehlen einer entsprechenden technischen Plattform, als einer grundlegenden Skepsis der Forscher zuzuschreiben ist. Das immer wieder von Kritikern zu hörende Argument, ein System wie das arXiv mache nur Sinn, weil Physiker in riesigen Gruppen arbeiten und ohnehin alle Ergebnisse kennen und miteinander teilen, verkennt sowohl die Struktur der physikalischen Forschung, als auch die tatsächliche Nutzung des arXiv: Die überwiegende Mehrheit der Arbeit dort wurde von wenigen oder nur einem Autor verfasst, und die wenigsten Physiker arbeiten in der Hochenergiephysik. 2006 erhielt der Mathematiker Grigori Perelman für den Beweis der Poincaré-Vermutung, die er ausschließlich auf dem arXiv veröffentlicht hatte, die Fields-Medaille zugesprochen, die in der Mathematik den Stellenwert des Nobelpreises hat [3]. Wäre es daher nun nicht folgerichtig, über ein System zur Dokumentierung und Verbreitung wissenschaftlicher Ergebnisse nachzudenken, das sich des Prinzips eines Preprint-Servers wie erwa arXiv bedient, aber ergänzt ist um die bewährten Verfahren der Qualitätssicherung? Und alles das realisiert mit den heutigen technischen und digitalen Möglichkeiten statt durch Prozesse, die vom Workflow her auf analogen Verfahren fußen, wie etwa der Drucktechnik aus dem letzten Jahrhundert?

Wie müsste so ein System aussehen, das wir losgelöst von etablierten Verfahren und Geschäftsmodellen in der Verlagsbranche auf der grünen Wiese entwickeln könnten? Der Physiker bezeichnet diese Herangehensweise als ein Gedankenexperiment. Wir benötigen zunächst einen virtuellen Raum, der es Forschern erlaubt, ihre neuesten Ergebnisse als Manuskript abzulegen. Das müsste nicht notwendigerweise eine einzige physikalische Plattform sein, da wir wissen, dass nahezu alle Institutionen hinreichende Serverkapazitäten besitzen, um diese Anforderung erfüllen zu können. Es würde also ausreichen, lediglich die Metadaten mit den üblichen bibliografischen Angaben sowie den Abstract und einen Link zum dezentral abgelegten Dokument auf der neuen Plattform zu speichern. Verwendet der Autor ein Repositorium wie zum Beispiel das arXiv, erfüllt dieses bereits ohnehin die Aufgabe des dezentralen Servers. Das Format, in dem die Beiträge auf dem Server oder Repositorium vorliegen, ist unerheblich, da es in jeder Form plattform­unabhängig lesbar dargestellt werden kann, nachdem es als XML konvertiert wurde. Zusätzlich kann der Autor optional weitere Daten und Quellenmaterial auf seinem Instituts-Server mit dem abgelegten Beitrag verlinken, um die Überprüfbarkeit seiner Ergebnisse zu unterstützen – eine wichtige Voraussetzung zur Reproduzierbarkeit von Forschungsergebnissen heutzutage. Der Beitrag erhält sofort nach dem Ablegen auf der Plattform einen Document Object Identifier (DOI), der eine eindeutige Kennzeichnung und damit die Zitierbarkeit des Artikels gewährleistet.

Quasi als zentrale Anlaufstelle für neueste wissenschaftliche Ergebnisse „klammert“ die neue Plattform auf diese Weise nun die dezentral vorliegenden Arbeiten aus allen Forschungsgebieten. Um eine leichtere Auffindbarkeit der relevanten Arbeiten zu gewährleisten, kann der Nutzer über eine Volltextsuche navigieren oder die Suche gezielt nach bestimmten Kriterien eingrenzen. Semantische Verfahren oder Nutzerprofile, wie wir es zum Beispiel von anderen Plattformen im Alltag kennen, unterstützen den Leser dabei, relevante Arbeiten zu finden, die möglicherweise von anderen Forschern mit dem gleichen Interessenschwerpunkt gelesen wurden – natürlich anonymisiert. Auf diese Weise findet man unter den wöchentlich hundert oder mehr neuen Arbeiten im eigenen Fachgebiet rasch die Beiträge, die die eigene Forschung am meisten unterstützen. Vorteilhaft ist hierbei auch, dass man in seiner Suche nicht durch „Silos“ oder „Konserven“ (Degkwitz) in Form von Fachzeitschriften in seiner Suche eingeengt ist, oder die interdisziplinäre Recherche durch eine zu eng fixierte Themenstellung der verschiedenen Zeitschriften beschränkt wird.

Im zweiten Schritt wollen wir für unsere Plattform nun ein Instrument zur Qualitätssicherung einführen, das sich vom Grundsatz her am Verfahren des Peer Review orientiert, diese aber um die heutigen Möglichkeiten digitaler Netzwerke und Kommunikation erweitert: Wissenschaftler können jeden Beitrag auf der Plattform positiv bewerten (ähnlich des „+1“-Konzeptes bei Google+ oder Math­Overflow) oder einen Kommentar abgeben. Zusätzlich ist es möglich, einen vollständigen Gutachterbericht zu verfassen, der dieselben Elemente enthält, wie wir es vom klassischen Peer Review kennen – wie zum Beispiel Originalität, Neuheit der Ergebnisse, Vollständigkeit, Sprache und Form. Diese Kriterien können einzeln bewertet und dann zu einem Gesamturteil zusammengefasst werden. Zusätzlich muss der Gutachter eine (ausführliche) Stellungnahme zur Arbeit abgeben, wie in einem konventionellen Referee Report. Zwei Faktoren sind hierbei wichtig: gutachterliche Stellungnahmen wie auch Kommentare sind nicht anonymisiert, sondern werden jeweils mit dem vollen Namen des Verfassers gekennzeichnet, dessen vollständiges Forschungsprofil (über ORCID) einsehbar ist. Das ist wichtig, um größtmögliche Transparenz zu erzeugen, die im Falle einer verdeckten Identität von Gutachter oder Kommentaren nicht gewährleistet wäre. Dieses Verfahren heißt Open Peer Review (OPR) – erfolgt es wie in unserem Gedankenexperiment erst nach der Veröffentlichung wird es als (Open) Post-Publication Peer Review (PPPR) bezeichnet. PPPR wird zum Beispiel von F1000, The Winnower oder ScienceOpen angewandt, während OPR inzwischen auch von einer Reihe von neueren Plattformen oder Megajournalen unterstützt wird (PLoS Medicine, PeerJ).

Ein weiteres neues Element hierbei ist die Freiwilligkeit: Gutachter können spontan selbst entscheiden, ob sie einen Kommentar oder eine Stellungnahme verfassen wollen. Es ist naheliegend, dass diese Bereitschaft eher bei einem Beitrag vorliegt, den ein Wissenschaftler aus eigenem Forschungsinteresse bereits ohnehin selbst gelesen hat, als bei einem Artikel, den ihm eine Fachzeitschrift von außen zur Begutachtung anträgt – meist auch noch zum zeitlich unpassendsten Zeitpunkt.

Ein wesentlicher Vorteil in diesem offenen, transparenten Verfahren liegt einerseits in der Qualität der verfassten Stellungnahmen, die sicherlich mindestens so gut, wenn nicht größer ist als im klassischen anonymisierten Gutachterverfahren. Zu dieser Einschätzung kam knapp die Hälfte der befragten Wissenschaftler in einer Umfrage der STM-Organisation im Jahr 2008 [4]. Die Bereitschaft, eine fundierte Stellungnahme abzugeben, steigt vor allem dann, wenn das Gutachten zitierbar ist, was über die Vergabe eines DOI, wie beim Artikel selbst, realisiert werden könnte. Der Autor hat die Möglichkeit, auf die Kommentare oder Gutachten direkt zu antworten, wie wir es sonst nur vom geschlossenen Peer-Review-Verfahren kennen. Auf diese Weise entwickelt sich das Konzept vom klassischen Peer Review weiter zu einem regelrechten Diskurs, dem unverzichtbaren Element der Kommunikation unter Forschern, wie es die Wissenschaft über Jahrhunderte geprägt hat. Als Ergebnis des Feedbacks, das ein Autor auf diese Weise erhält, ist es möglich, Korrekturen oder Bearbeitungen vorzunehmen, die der Verbesserung des ursprünglichen Beitrags dienen. Dabei ist dieser Prozess zeitlich vollkommen entkoppelt von der Veröffentlichung, er kann wenige Woche oder Jahre nach der ersten Veröffentlichung erfolgen – je nachdem, ob und in welchem Maße eine Anpassung vom Autor für erforderlich gehalten wird. Die neuen Fassungen des Beitrags erhalten jeweils einen angepassten DOI, der die betreffende Version des Beitrages genau kennzeichnet. Dadurch ist weiterhin ein exaktes Zitieren aller Fassungen gewährleistet.

Der Vorteil gegenüber klassischen Fachzeitschriften liegt auf der Hand. Hier geben in der Regel lediglich zwei ausgewählte Gutachter zu einem bestimmten Zeitpunkt kurz nach der Einreichung des Manuskriptes eine Stellungnahme ab, weitere Gutachter können aufgrund späterer Erkenntnisse oder Hinweise keinen Einfluss mehr nehmen. Der Beitrag steht danach „wie in Stein gemeißelt“ im Internet oder als gedruckter Zeitschriften-Band im Regal einer Bibliothek. Änderungen oder Korrekturen sind, wenn überhaupt, nur über „Comments“ oder als „Note added in Proof“ möglich – ein altmodisches Verfahren aus einer Zeit, als der druckbasierte Workflow kein anderes Verfahren zuließ. Nichtsdestotrotz ist es bemerkenswert, dass dieser Prozess von fast allen der 20.000 STM-Fachzeitschriften heute noch genauso unterstützt wird.

Die Unzulänglichkeit des Journal Impact Factors (JIF) wird mittlerweile von vielen Wissenschaftlern und Bibliothekaren bemängelt. Bereits 1997 wiesen Studien darauf hin, dass der JIF nicht zur Evaluierung von Forschung genutzt werden solle [5]. Sogar der „Erfinder“ des JIF, Eugene Garfield, stellt 1999 fest, dass der Impact Factor kein perfektes Werkzeug zur Messung der Qualität von Fachartikeln sei [6]. Dennoch nutzen bis heute Institutionen nach wie vor den JIF, um Forscher und Forschung miteinander zu vergleichen und zu bewerten. Ein verhängnisvoller Fehler, wie eine Zeitschrift selbstkritisch bemerkte, die besonders stark von dem Hype um den Impact Factor profitiert: Nature stellt 2005 fest, dass nur ein kleiner Bruchteil der veröffentlichten Arbeiten überproportional zum JIF beiträgt, im Betrachtungszeitraum also 89% des JIF gerade einmal nur von einem Viertel aller Veröffentlichungen generiert wurde [7]. Das Editorial von Nature bestätigte außerdem die Feststellung von Eugene Garfield, dass die Qualität eines Beitrages mit dem Impact Factor der Zeitschrift, in der er publiziert wurde, kaum korreliert [7]. Statt des Impact Factors ist die Erfassung der Zitate pro Artikel eine weitaus sinnvollere Größe, wobei diese natürlich nur eindimensional die bloße Zahl der Nennungen einer Arbeit in neueren Veröffentlichungen erfassen kann. Diese Zahl enthält beispielsweise keinerlei Angaben darüber, ob es eine positive oder negative Zitierung war, oder auch was konkret zitiert wurde – nur ein bestimmtes Detail, wie eine Abbildung oder eine der Methoden, oder vielmehr die zusammenfassende Schlussfolgerung,...

Zusätzlich ist heute daher die Erfassung aller Erwähnungen des Artikels in sozialen Netzwerken hilfreich, wie es vom Londoner Start-Up Altmetric angeboten wird und mittlerweile auch schon von einer Reihe etablierter Verlage und Fachzeitschriften als Article Level Metrics verwendet wird. Neben der Anzahl der Erwähnungen in sozialen Netzen wie zum Beispiel Twitter, Google+ oder Mendeley erhält der Leser eines Beitrags so auch Informationen über den Verfasser eines Tweets oder Posts, sowie dessen Inhalt. Diese zusätzlichen Informationen können dazu dienen, die Qualität eines Beitrages viel genauer und vor allem zeitnah zur Veröffentlichung einzuschätzen als es bisher möglich ist. Außerdem könnte damit jedes Institut oder jede Community selbst individuelle Kriterien festlegen, die anhand dieser Article Level Metrics transparent und nachvollziehbar zu einer faireren Bewertung des wissenschaftlichen Beitrags einzelner Artikel zu einem Forschungsgebiet und damit letztlich der Leistung einzelner Forscher oder deren Institutionen führen.

Ein letzter verbleibender Kritikpunkt an unserer neuen Plattform könnte darin liegen, dass die individuelle Zusammenstellung von Beiträgen wegfiele, wie sie Herausgeber oder Redakteure, wie auch anlässlich dieser Sonderausgabe des Laborjournals, tagtäglich vornehmen. Das ist zunächst richtig, aber in unserem Gedankenexperiment können wir auch dieses Merkmal klassischer Fachzeitschriften durch ein Verfahren ersetzen, das sich durch eine weitaus größere Flexibilität auszeichnet: Klassische Fachzeitschriften und deren Erscheinungsweise in Bänden (Volumes) oder Jahrgängen sind nämlich zeitlich und räumlich beschränkt auf den Zeitpunkt der Veröffentlichung und den Verlag, in dem sie erscheinen. Auf unserer Plattform wollen wir eine Möglichkeit schaffen, davon losgelöst jederzeit jeden Beitrag, den wir auswählen, in eine Collection einzufügen. Dieses flexible Konzept wurde von F1000 Anfang 2014 vorgestellt und wird von PLoS seit längerem praktiziert, bleibt aber in der Auswahl begrenzt auf die Artikel in der eigenen Plattform. Diese räumliche Beschränkung heben wir nun dadurch auf, dass wir prinzipiell jeden Artikel, der zu irgendeinem Zeitpunkt auf irgendeinem Server oder in einer beliebigen Quelle erschienen ist, mit in eine Collection integrieren können. Diese Auswahl wird von einem oder mehreren Editoren getroffen, welche ähnlich wie bei einem Herausgeber einer Fachzeitschrift ein bestimmtes Fachgebiet vertreten. Im Unterschied zu klassischen Herausgebern arbeiten diese jedoch nicht für den Verlag, der diese Zeitschrift herausgibt, sondern freiwillig und unabhängig. Diese Collections können jederzeit ergänzt oder verändert werden, und die Nutzung aller Beiträge wird kumulativ in ihrer Gesamtheit erfasst [8]. Die von mir auf der Plattform ScienceOpen Mitte April 2015 erstellte Collection über das zugegebenermaßen sehr spezielle Thema „Perspectives of Scholarly Publishing“ mit 38 Fachartikeln wurde innerhalb von zwei Monaten bereits mehr als 5.000mal genutzt. Beiträge können so auch verschiedenen Collections zugeordnet werden, was ein weiterer entscheidender Unterschied zu Fachzeitschriften ist und einen großen Vorteil im Zeitalter mehr und mehr interdisziplinär geprägter Forschung darstellt. Auf diese Weise können Leser Collections nutzen, um „gefiltert“ zum Beispiel die wichtigsten Arbeiten in einem Fachgebiet zu überschlagen, wobei die Auswahl subjektiv durch einen Fachkollegen erfolgt. Hier übernehmen also Collections die Rolle des „Filterns“, was wir bisher nur von klassischen Fachzeitschriften kannten.

Einen offensichtlichen Aspekt haben wir in der Diskussion unserer neuen Plattform bisher außer Acht gelassen – möglicherweise, weil er inzwischen eine fast selbstverständliche Forderung vieler Forscher und ihres erweiterten Umfelds geworden ist: Open Access. Das beschriebene Verfahren funktioniert nur dann, wenn sämtliche Informationen, Ergebnisse, Daten und Gutachten offen und frei zugänglich verfügbar sind. Klassische Abonnement-basierte Geschäftsmodelle, mit denen üblicherweise Fachzeitschriften jahrzehntelang an Bibliotheken verkauft wurden, stellen sich daher als unvereinbar dar mit der Aufgabe einer Plattform, welche einen freien und ungehinderten Diskurs von Wissenschaftlern ermöglichen soll. Bereits 2002 hat Peter Suber die wesentlichen Aspekte von Open Access und dessen Vorteile zusammengefasst [9]. Verfolgt man die neuesten Entwicklungen in Holland und momentan auch auf EU-Ebene, ist wohl weniger die Frage, ob – sondern vielmehr, wann dieses Modell flächendeckend als Geschäftsmodell in der wissenschaftlichen Forschungslandschaft implementiert wird.

Die hier skizzierte Vision einer neuen Plattform zur wissenschaftlichen Kommunikation und Dokumentation ist nicht neu. Bereits 2011 stellte der britische Mathematiker und Fields-Medaillen-Gewinner Timothy Gowers ähnliche Gedanken zur Erweiterung des arXiv um ein offenes Gutachtersystem auf, die auf seinem Blog von vielen Forschern sehr intensiv diskutiert wurden [10]. Bereits diese Beobachtung verrät, dass das von Blogs entlehnte Konzept auch in der Wissenschaft funktioniert und eine vielversprechende Form zur Förderung des wissenschaftlichen Diskurses darstellen kann.

Die Verknüpfung von Open Access und Open Peer Review wird von Nikolaus Kriegeskorte sehr ausführlich beschrieben und diskutiert [11]. Die mittlerweile intensive Auseinandersetzung mit den hier beschriebenen Aspekten zeigt, dass diese Ideen nicht mehr nur Gedankenexperimente oder Hirngespinste einiger Open-Access-Fanatiker sind, sondern vielmehr eine immer näher rückende Realität. Mittlerweile nutzen eine Reihe von neugegründeten Publikations-Plattformen oder Megajournals einzelne Elemente, wie zum Beispiel offenes Peer Review. Dennoch macht die Zahl der dort veröffentlichten Beiträge derzeit noch einen fast verschwindend kleinen Anteil aus, gemessen an den etwa 1,8 Millionen publizierten Artikeln, die in klassischen STM-Fachzeitschriften 2014 veröffentlicht wurden. 2013 betrug zudem die Zahl der Open-Access-veröffentlichten Artikeln weltweit nur etwa 130.000 jährlich, was allerdings 32% mehr war, als im Vorjahr [12]. Gelingt es, durch entsprechende Vorgaben der fördernden Organisationen oder Institutionen, alle Forschungsbeiträge Open Access zu publizieren, wäre eine wesentliche Voraussetzung für die Umsetzung des beschriebenen Verfahrens geschaffen. Allerdings ist das keine notwendige Bedingung, um den Weg wissenschaftlicher Kommunikation im 21. Jahrhundert zu beschreiten.

Klassische Fachzeitschriften haben, zumindest in den Naturwissenschaften und der Medizin, ausgedient. Es gibt keinen technischen oder prozessualen Grund mehr, neue Forschungsergebnisse ausschließlich in Form von Fachzeitschriften zu veröffentlichen. Neue interdisziplinäre Plattformen, die auf vorhandenen Repositorien oder Servern an den Institutionen aufbauen, werden die Fachzeitschriften mittelfristig bis auf wenige Ausnahmen ersetzen. Erst mit diesen neuen Plattformen wird der wissenschaftliche Diskurs mittels der Möglichkeiten einer vernetzten Forscher-Community und den digitalen Technologien des 21. Jahrhunderts vorangetrieben. Jeder Wissenschaftler hat es heute selbst in der Hand, ob er weiterhin die Zeitschriften, in denen er oder seine Mitarbeiter publizieren, nach Prestige und Impact Factor auswählt – oder ob er die weitaus größeren Chancen nutzen möchte, die sich heutzutage durch die vielfältigen neuen Möglichkeiten sozialer Netzwerke und digitaler Infrastruktur ergeben. Wie Letzteres funktionieren könnte, demonstriert bereits jetzt unsere Plattform ScienceOpen, auf der derzeit etwa 1,5 Millionen Open-Access-Artikel verfügbar sind.

Alexander Grossmann ist Physiker und Professor für Verlagsmanagement an der HTWK University of Applied Sciences in Leipzig. Er gründete 2013 mit einem Partner die Internetplattform ScienceOpen.

Referenzen

[1] Björn Brembs: Laborjournal 7/8, 22-25 (2014)

[2] Andreas Degkwitz: Tagesspiegel, 16.6.2014 – http://www.tagesspiegel.de/wissen/wie-open-access-die-forschung-veraendert-weg-mit-den-wissenskonserven/10058452.html (2014)

[3] SpiegelOnline, 22.8.2006 – http://www.spiegel.de/wissenschaft/mensch/jahrhundert-beweis-einsiedler-verschmaeht-mathe-medaille-a-432910.html (2006)

[4] Alexander Grossmann: ScienceOpen Blog, 29.9.2014 – http://blog.scienceopen.com/2014/09/peer-review-mojo/ (2014)

[5] Per O. Seglen: BMJ 314:497 (1997)

[6] Eugene Garfield: CMAJ 161 (8), 979-980 (1999)

[7] Editorial: Nature 435 (7045) 1003-1004 (2005)

[8] Alexander Grossmann: ScienceOpen Research, DOI: 10.14293/S2199-1006.1.SOR-EDU.EYYXOX.v1 (2015)

[9] Peter Suber: Journal of Biology, 1:3 (2002)

[10] Timothy Gowers: Gower’s Weblog Blog, 31.10.2011 – https://gowers.wordpress.com/2011/10/31/how-might-we-get-to-a-new-model-of-mathematical-publishing/ (2011)

[11] Nikolaus Kriegeskorte: Frontiers in Computational Neurosciences, 6 (79) 1-18 (2012)

[12] Wim van de Stelt: Vortrag, Academic Publishing in Europe (APE-15), Berlin (2015)


Letzte Änderungen: 07.07.2015