Info

Der MDPI-Verlag – Wolf im Schafspelz?

Henrik Müller


(13.06.2022) Die unorthodoxen Methoden des schweizerischen Verlagshauses MDPI spalten die Wissenschaftsgemeinde. Fördert es mit seiner Flut an Sonderausgaben und ultraschnellem Peer Review den wissenschaftlichen Austausch? Oder schafft es wissenschaftliche Qualität ab? Kritiker und Befürworter sind ganz unterschiedlicher Auffassung.

Von mehreren Lesern erhielt die Laborjournal-Redaktion in den vergangenen Wochen ähnliche Zuschriften: „Der MDPI-Verlag gehört unbedingt in die öffentliche Diskussion. Bitte bewahren Sie […] insbesondere junge Forscher:innen davor […], in seinen möglicherweise fragwürdigen Zeitschriften zu publizieren, […] sodass wissenschaftliches Denken und Handeln […] wieder eine Zukunft haben.“ Harte Worte. Worauf fußt der geäußerte Verdacht?

Das Multidisciplinary Digital Publishing Institute (MDPI) veröffentlichte vergangenes Jahr 236.000 Artikel in 383 Fachjournalen. Damit ist es laut dem Portal „SCImago Journal & Country Rank“ der viertgrößte Wissenschaftsverlag weltweit. Zum Vergleich: Die Marktführer Elsevier, Springer Nature und Wiley verantworteten im selben Jahr 766.000, 440.000 und 278.000 Artikel in 2.874, 2.953 und 1.685 Fachzeitschriften. Außerdem ist MDPI seit 2019 der weltgrößte Open-Access-Verlag.

hg_22_06_03a
Illustr.: Adobe Stock/hisa-nishiya

Info

Aufsehenerregend ist sein exponentielles Unternehmenswachstum. Im Mai 2010 von Shu-Kun Lin und Dietrich Rordorf in Basel gegründet, publizierte das Schweizer Verlagshaus 2013 knapp zehntausend Manuskripte. Seitdem verlegte es jedes Jahr fünfzig Prozent mehr Artikel als im Jahr zuvor. Einzelne ­MDPI-Journale wie Biomolecules, Cancers, Cells und Microorganisms wuchsen sogar noch extremer. Von 2018 auf 2019 steigerten sie die Zahl ihrer Artikel beispielsweise um 392, 280, 499 und 486 Prozent. Marktführer Elsevier vervielfältigte sein Verlagsgeschäft im vergangenen Jahrzehnt dagegen nur um drei Prozent pro Jahr.

Schwarze Schafe

Ein derartiges Verlagswachstum macht MDPI in den Augen der Wissenschaftsgemeinde verdächtig. Seine Kritiker argumentieren, dass das nur mit mangelnder Qualität veröffentlichter Manuskripte einhergehen kann. MDPI sei ein chinesischer Raubtier-Verlag mit schweizerischem Postfach.

Entsprechend fand sich das Verlagshaus bereits 2014 auf der vom ehemaligen US-Bibliothekar Jeffrey Beall kuratierten Liste „of potential, possible, or probable predatory scholarly open-access publishers” (beallslist.net). Genauso trägt MDPI zur 2021 veröffentlichten „Early Warning Journal List“ der chinesischen Akademie der Wissenschaften sieben von 41 Fachzeitschriften bei. Cell Press, Elsevier, Frontiers, SAGE, Taylor & Francis und Wiley sind auf ihr mit jeweils einem bis drei Journalen vertreten. Auch das norwegische Register wissenschaftlicher Fachzeitschriften nahm MDPI zum Anlass, 2021 ein neues Level X potenzieller Raubtier-Journale einzuführen. Unter ihren sieben Einträgen finden sich zwei Fachzeitschriften von MDPI und eine von Taylor & Francis.

Info

Allen diesen schwarzen Listen liegt natürlich die Frage zugrunde, was einen Raubtier-Verlag überhaupt ausmacht. Im Dezember 2019 einigten sich fünfzig Vertreter von Verlagen, Forschungsförderern und Wissenschaftseinrichtungen aus zehn Ländern hierauf: „Predatory publishers are entities that prioritize self-interest at the expense of scholarship and are characterized by false or misleading information, deviation from best editorial and publication practices, a lack of transparency, and/or the use of aggressive and indiscriminate solicitation practices” („Predatory journals: no definition, no defence”, Nature, 11.12.2019).

Entzug des Impact-Faktors

Was davon trifft auf MDPIs Verlagsmentalität zu? Ein erster Blick verrät: Derzeit besitzen 85 MDPI-Zeitschriften einen Journal-Impact-Faktor (JIF) zwischen eins und sieben, sind also ebenso zitierfähig wie durchschnittliche Zeitschriften der jeweiligen Fachrichtungen. Laut eines Beitrags in Frontiers Science News vom 11.7.2018 werden Peer-Review-Publikationen von Elsevier, Springer Nature, Wiley und MDPI durchschnittlich 3,2-mal, 2,4-mal, 3,0-mal beziehungsweise 3,1-mal zitiert (bit.ly/3PU2aQ6). Außerdem ist der MDPI-Verlag Mitglied der Open Access Scholarly Publishing Association (OASPA) und des Committee on Publication Ethics (COPE). Ähnlich sieht es in Literaturdatenbanken aus: 310 MDPI-Journale sind im Directory of Open Access Journals (DOAJ) indexiert, 209 im Web of Science, 187 in Scopus, 83 in PubMed und 16 in Medline.

MDPI-Kritiker überzeugt das nicht. Weder bibliometrische Faktoren noch Datenbankeinträge sind ein verlässliches Kriterium für die Legitimität eines Wissenschaftsverlags – zumindest nicht im Fall von MDPI. Denn leicht lassen sich Zitationsmetriken wie der JIF manipulieren – zum Beispiel durch Selbstzitierungen. Da das für Fachzeitschriften riskant ist, liegen die Selbstzitationsraten von neunzig Prozent aller Wissenschaftsjournale zwischen null und 25 Prozent (JOI 15(4): 101221). Überschreitet nämlich ein Fachjournal eine bestimmte Quote, entzieht ihnendas Analyseunternehmen Clarivate Analytics ihren JIF wieder. 2021 geschah das bei Selbstzitationsraten größer 45 Prozent. Unter den sieben Negativpreisträgern fanden sich je ein Journal von Begell House, Elsevier, SAGE und Springer sowie drei Fachzeitschriften von Taylor & Francis. Kein MDPI-Journal musste dagegen jemals von Clarivate Analytics zur Raison gebracht werden.

Zitationszauber

Dennoch analysierte María de los Ángeles Oviedo-García von der Universität Sevilla die Selbstzitationsraten derjenigen 53 MDPI-Journale, die 2019 über einen JIF verfügten (Research Evaluation 30(3): 405-19). Ihr Ergebnis: Von 2018 bis 2019 stiegen deren Selbstzitationsraten um bis zu 16,9 Prozentpunkte; 29 von ihnen erreichten Raten von mindestens 15 Prozent; drei von ihnen überstiegen die 25-Prozent-Grenze. Biomolecules, Cancers, Cells und Microorganisms zitierten sich beispielsweise zwischen sieben und 13 Prozent selbst. Keiner dieser Werte fällt im Vergleich mit durchschnittlichen Selbstzitationsraten anderer Verlage auf. Entscheidend ist für die spanische Autorin jedoch der Unterschied zu den renommiertesten Journalen der jeweiligen Fachgebiete wie etwa Elseviers Cell oder Springers Nature Reviews Microbiology. Denn nur drei dieser 53 Vergleichsjournale verließen den einstelligen Prozentsatz.

Ebenso hält Oviedo-García MDPIs verlagsinterne Zitationsraten für verdächtig: 51 der 53 MDPI-Zeitschriften ließen ihre Artikel zwischen 20 und 57 Prozent von anderen MDPI-Artikeln zitieren. Biomolecules, Cancers und Co. liegen mit Werten zwischen 22 und 29 Prozent im Mittelfeld. Ist das ungewöhnlich? Auf Vergleichswerte anderer Verlage verzichtet Oviedo-Garcías Analyse. Laut dem Web of Science wurden ihre 53 reputationsstarken Vergleichsjournale in den vergangenen fünf Jahren bis zu 20 Prozent von den eigenen Verlagen zitiert. MDPIs verlagsinterne Zitationsraten lagen also tatsächlich höher.

Das Urteil der Tourismus- und Marketing-Expertin Oviedo-García steht somit fest: Mithilfe von Selbst- und Intra-MDPI-Zitationen hat das schweizerische Verlagshaus sein Ansehen künstlich erhöht, um Autoren anzulocken. MDPI ist als Raubtier-Verlag bloßgestellt. Rechnete die spanische Autorin Selbstzitationen heraus, verringerten sich die bibliometrischen Impact-Werte aller seiner Journale um durchschnittlich 14,8 Prozentpunkte. Die JIFs von beispielsweise Biomolecules, Cancers, Cells und Microorganisms würden von Werten zwischen 4,1 bis 6,6 auf 3,5 bis 5,6 herabgestuft.

MDPI erwiderte in einer Pressemitteilung vom 19. August 2021, es sei methodischer Unsinn, Selbstzitationsraten von Journalen unterschiedlichen Renommees zu vergleichen (mdpi.com/about/announcements/2979). Eine Elsevier-Studie zu Zitationsmustern bestätigt das: Selbstzitationen nehmen mit steigendem Renommee ab (JOI 15(4): 101221). Jegliches Journal schneidet im Durchschnitt schlechter ab als die führende Zeitschrift der Fachrichtung – unabhängig vom Verlag. Seit September 2021 ist Oviedo-Garcías Publikation mit einer „Expression of concern“ versehen. Eine Untersuchung ist im Gang. Für Nachfragen durch Laborjournal stand die Autorin nicht zur Verfügung.

Masse statt Klasse?

Eines detaillierten Blicks bedarf auch der Grund für MDPIs explosives Verlagswachstum – seine Flut an Sonderausgaben. Traditionelle Fachzeitschriften geben pro Jahr vier bis 24 Ausgaben heraus. Zusätzlich verlegen sie vereinzelt Special Issues (SI), die zeitlich begrenzt Beiträge zu einem bestimmten Forschungsthema, einer Wissenschaftspersönlichkeit oder einer Konferenz sammeln. Nicht so MDPI, wie Paolo Crosetto, Wirtschaftswissenschaftler am französischen Nationalen Forschungsinstitut für Landwirtschaft, Ernährung und Umwelt, im April 2021 in seinem Privatblog aufzeigte: Die 74 MDPI-Journale, die ab 2016 einen JIF besaßen, steigerten die Zahl ihrer regulären Artikel bis 2020 um das 2,6-Fache („Is MDPI a predatory publisher?“, 12.4.2021). ­Ihre SI-Artikel nahmen dagegen um Faktor 7,5 zu und machten mittlerweile zwei Drittel aller Publikationen aus. Gab das Verlagshaus 2013 noch 388 Sonderausgaben – also etwa fünf pro Fachzeitschrift – heraus, waren es 2021 ganze 39.587 Special Issues – also fünfhundert pro Fachzeitschrift.

Nur schnöder Mammon?

Zwangsläufig nährt das den Verdacht auf ein lukratives Geschäftsmodell. Denn je mehr SI-Artikel erscheinen, umso mehr Article Processing Charges (APC) kassiert MDPI. Zum Vergleich: Raubverlage verlangen APCs von je nach Quelle 45 Euro bis 160 Euro. Dagegen lassen sich Springer Nature und Wiley im Rahmen der Projekt-DEAL-Verträge ihre Dienstleistung mit 2.750 Euro pro Open-Access(OA)-Artikel vergüten. Elsevier verlangt laut aktueller Preisliste APCs von durchschnittlich 2.500 Euro (170 Euro bis 8.500 Euro) pro OA-Artikel. MDPI nimmt durchschnittlich 1.300 Euro (480 Euro bis 2.500 Euro) pro OA-Artikel ein. Mit 223.627 (Elsevier), 174.800 (Springer Nature), 101.155 (Wiley) und 228.614 (MDPI) laut Web of Science im Jahr 2021 publizierten OA-Artikeln ergeben sich rein rechnerisch Einnahmen von 559 (Elsevier), 481 (Springer Nature), 278 (Wiley) und 297 (MDPI) Millionen Euro. Open Access lohnt sich offensichtlich für alle Wettbewerber.

Die entscheidende Frage bei alldem lautet: Macht es einen Unterschied, ob Verlage ihre Publikationen über reguläre Journalausgaben oder über Special Issues generieren? Philipp Aerni, Direktor des Zentrums für Unternehmensverantwortung und Nachhaltigkeit (CCRS) an der School of Management Fribourg und Bereichseditor beim MDPI-Journal Sustainability verneint: „Dank MDPIs Sonderausgaben kann ich Aufmerksamkeit auf unterrepräsentierte und interdisziplinäre Forschungsthemen lenken. Was spricht im digitalen Zeitalter dagegen, Wissen in einer uneingeschränkten Anzahl von Themenkomplexen zu organisieren, anstatt in verstaubten Journalen mit festgelegter Zahl an Ausgaben?“ Christian Binz, Arbeitsgruppenleiter am Wasserforschungsinstitut EAWAG im Kanton Zürich, widerspricht: „Die Kernlogik unseres Wissenschaftssystems ist es doch, Qualität hochzuhalten. Ein gutes Special Issue, das das Forschungsfeld weiterbringt, braucht mehrere Jahre Denk- und Koordinationsarbeit. MDPIs Flut an Spezialausgaben gefährdet das. Alles wird dort publiziert und wenig Qualität garantiert.“

Verkürzte Bearbeitungszeiten

Wie verläuft MDPIs Peer-Review-Prozess? Laut Jahresbericht 2021 vergehen durchschnittlich 17 Tage zwischen Einreichen und erster Einschätzung eines Manuskripts plus weitere 21 Tage bis zur Veröffentlichung angenommener Artikel. Das ist auffällig. Denn üblicherweise vergehen in Medizin und Naturwissenschaften 12 bis 14 Wochen für den Peer-Review-Prozess (Scientometrics 113: 633-50). Neunzig Prozent aller Manuskripte sind erst binnen sechs Monaten veröffentlicht. Ein Peer Review innerhalb weniger Tage bis Wochen gilt entsprechend als Identifizierungsmerkmal räuberischer Verlage, da sie es schließlich nur auf Artikelgebühren abgesehen haben.

Noch etwas fällt auf: Unterscheiden sich die individuellen Bearbeitungszeiten einzelner Manuskripte bei anderen Verlagen zum Teil um Wochen, weist MDPI nur eine minimale Heterogenität auf. Laut Wirtschaftswissenschaftler Crosetto streuten MDPIs individuelle Peer-Review-Zeiten im Jahr 2016 noch zwischen zehn und 150 Tagen. 2020 brauchte beinahe kein MDPI-Journal für irgendein Manuskript noch länger als 60 Tage. Können ­MDPIs weltweit 115.000 Editoren von 383 Fachzeitschriften mehrerer Dutzend Fachrichtungen derart gleichgeschaltet sein?

Eine Frage der Arbeitsabläufe?

Martin Kröger, MDPIs Section-Editor-in-Chief bei Polymers sowie Editor bei sieben Nicht-MDPI-Journalen, zieht den Vergleich: „Polymers ist anderen Journalen nicht überlegen, weil Manuskripte durchgewunken würden, sondern weil MDPIs Manuskript-Management-System informationstechnologisch weit überlegen ist. Assistenzeditoren bereiten Manuskripte vor und nach und beseitigen zuverlässig alle technischen Probleme – auch am Wochenende. Ich selbst agiere immer binnen 24 Stunden – auch in den Ferien.“ Mittlerweile stehen 5.700 Redaktions- und Produktionsmitarbeiter an 19 Standorten in elf asiatischen, europäischen und nordamerikanischen Ländern dafür zur Verfügung. Kröger fährt fort: „Für Reviewer ist der Arbeitsaufwand dann viel geringer, da jedes Detail, jeder Kommentar, jede Änderung und jeder Link nachvollziehbar, vollständig und direkt einsehbar ist. Bei anderen Journalen dauert es Stunden, was hier in Minuten geht. Kein Manuskript liegt bei MDPI auch nur einen Tag unbearbeitet herum. Der Verlag hat jegliche Pufferzeit auf null optimiert.“

In der Wissenschaftsgemeinde schürt das Argwohn und Abneigung. Exemplarisch für unzählige Anekdoten zu MDPI erklärt der schweizerische Umweltsozialwissenschaftler Christian Binz den zugrundeliegenden Interessenskonflikt: „Meine persönliche Erfahrung mit MDPI ist katastrophal. Ich wurde als Reviewer angefragt. Als ich nach zehn Tagen mein Gutachten einreichte und eine Ablehnung empfahl, war das Manuskript schon akzeptiert. Ein offizielles Entscheidungsschreiben vom Editor inklusive der Reviews anderer Gutachter habe ich nie erhalten. Den Review-Prozess hat MDPI also durch die Hintertür abgeschafft. Binnen einer Woche ein vernünftiges und bedachtes Review zu verfassen, das Qualität sichert, ist für Forschungstreibende unmöglich.“

Wie stressig Letzteres sein kann, bestätigt Philipp Aerni als Editor von MDPIs Sustainability: „Assistenzeditoren schicken auch mir ständig Erinnerungs-E-Mails. Doch das muss man akzeptieren. Wenn ich in der nächsten Woche keine Zeit für ein Gutachten habe, muss ich eine Anfrage eben ablehnen. MDPIs Richtlinien sind rigide, seine Mitarbeiter dafür aber uneingeschränkt engagiert. Und das macht den Unterschied.“

Qualitätskriterien

Entscheidender Qualitätsindikator einer Fachzeitschrift ist natürlich nicht ihre Schnelligkeit, sondern die Rigorosität ihres Peer-Reviews. Im Durchschnitt lehnen naturwissenschaftliche und medizinische Fachjournale 60 bis 65 Prozent aller Manuskripte ab. OA-Zeitschriften sind im Mittel weniger streng. Sie weisen nur 50 Prozent zurück (Prof. de la Inf., doi: 10.3145/epi.2019.jul.07). Die OA-Megajournale Biology Open, BMJ Open, FEBS Open Bio, Medicine, PeerJ, PLOS One, Scientific Reports und SpringerPlus verweigerten in den vergangenen Jahren sogar nur 44 bis 50 Prozent aller Manuskripte eine Veröffentlichung (PeerJ 3:e981). Räuberische Verlage weisen dagegen nur selten eine Verdienstmöglichkeit ab. Im Jahr 2013 schickte der US-Wissenschaftsjournalist John Bohannon ein eindeutig fehlerhaftes Manuskript an 121 Raubtier-Journale auf Bealls schwarzer Liste. Nur 19 Prozent lehnten es ab. Und MDPI? Von 2018 bis 2021 verweigerte der Verlag laut Jahresberichten 59, 61, 57 beziehungsweise 50 Prozent aller Manuskripte eine Veröffentlichung.

Eine überdurchschnittliche Qualität von MDPIs Review-Prozess begründet Polymers-Editor-in-Chief Kröger so: „Polymers hat sich auferlegt, unter den stets zwei bis drei Gutachtern immer mindestens einen mit h-Index größer 15 auszuwählen. Der zugehörige Aufwand ist bei vielen anderen Journalen undenkbar. Außerdem wird ein Manuskript nur veröffentlicht, wenn alle Reviewer einverstanden sind. In seltenen Streitfällen werden zusätzliche Gutachter herangezogen.“ Und er hebt noch einen Unterschied hervor: „MDPI entschädigt seine Editoren und Gutachter für ihre Arbeitsleistung mit Rabattgutscheinen für eigene Publikationen, streicht Gebühren für unterfinanzierte Forschungstreibende und hat auch alle Artikel zu COVID-19 kostenlos publiziert. Von anderen Verlagen kenne ich sowas nicht.“
Ist der Ruf erst ruiniert

Werden alle MDPI-Journale diesen Ansprüchen gerecht? Regelmäßig gerät der Verlag durch unseriöse Praktiken in die Schlagzeilen. 2013 veröffentlichte Entropy zum Beispiel einen pseudowissenschaftlichen Review über das Unkrautvernichtungsmittel Glyphosat als Ursache von Fettleibigkeit über Autismus bis Krebs. 2016 führte eine Publikation in Behavioral Sciences erektile Dysfunktion auf Pornografie-Konsum zurück. Erst das Committee on Publication Ethics deckte verschwiegene Geschäftsbeziehungen zu Anti-Pornografie-Gruppen auf. 2018 traten zehn Editoren von Nutrients zurück, da sie keine minderwertigen Manuskripte akzeptieren wollten. 2019 zog Magnetochemistry einen Artikel über den Elektrosmog von Smartphones infolge mangelnder Wissenschaftlichkeit zurück. Ebenfalls 2019 veröffentlichte Psych rassistische Studien zum Zusammenhang zwischen „Rasse“ und Intelligenz. 2021 erklärte ein mittlerweile zurückgezogener Vaccines-Artikel COVID-19-Impfstoffe als nutzlos für die Gesellschaft.

Gegenüber dieser Auswahl an Anekdoten erwidert MDPI-Editor Aerni: „Ist es gerechtfertigt, einen ganzen Verlag wegen ein paar schwarzer Schafe aufzuhängen?“ Doch tatsächlich listet die Retraction-Watch-Datenbank seit MDPIs Gründung 2010 ganze 116 Retractions und Expressions of Concern für den Schweizer Wissenschaftsverlag – gleichzeitig aber auch 3.026 für Elsevier, 2.639 für Springer Nature und 1.259 für Wiley. Pro 1.000 Publikationen entspricht das 0,5 Beanstandungen bei Elsevier, 0,6 bei Springer Nature, 0,4 bei Wiley und 0,2 bei MDPI. Auch wenn Schlagzeilen also ein anderes Bild vermitteln, fällt MDPI in dieser Metrik mitnichten negativ auf.

Offene Bücher

Ein weiteres Charakteristikum von Raubtier-Verlagen ist mangelnde Transparenz. Trifft das auf MDPI zu? Seine Internetseiten stellen detaillierte Informationen über alle Verlagsjournale, ihre Redaktionsleitungen, Gebühren, Indexierungen in Literaturdatenbanken, bibliometrischen Faktoren, Identifikationsmerkmale wie ISSNs und DOIs sowie Veröffentlichungs- und Copyright-Praxis zur Verfügung. Seine Jahresberichte geben Auskunft über redaktionelle Eckzahlen und Finanzdaten. Seine Literaturdatenbank Scilit ermöglicht es sogar, die Kennzahlen der Journale von 19.672 Verlagshäusern zu vergleichen.

Darüber hinaus bietet MDPI ein offenes Peer Review an, bei dem Autoren sowie Gutachter alle Reviews, Redaktionsentscheidungen und Namen aller Beteiligten auf Wunsch offenlegen können. 2021 machten Autoren von 52.000 der 236.000 MDPI-Artikeln davon Gebrauch. Tatsächlich stammt ein Drittel der weltweit etwa 600 Open-Peer-Review-Journale von MDPI. Marktführer wie Elsevier und Wiley bieten offenes Peer Review dagegen nur für sieben beziehungsweise vierzig ihrer Journale an (Scientometrics 125: 1033-51).

Ein Wermutstropfen bleibt

Einig sind sich Kritiker und Befürworter von MDPI indes in einem Aspekt: Das Verlagshaus muss aufhören, Forschungstreibende mit Massen-E-Mails zu überschütten. Denn diese aggressive Werbepolitik ist es, die so sehr an Raubtier-Verlage erinnert. MDPI-Editor Aerni gesteht: „Die Verlagsstrategie, Spam-E-Mails zu Special Issues, Review-Anfragen und Konferenzen zu verschicken, ist ein Riesen-Problem. Das macht Leute sauer. Auch den Übereifer, neue Journale zu lancieren, finde ich kontraproduktiv.“

Mit einer solchen Verlagsmentalität weicht MDPI zugegebenermaßen von der Norm klassischer Verlage ab. Doch was bleibt – abgesehen von Spam-E-Mails und Schlagzeilen – nach trockener Analyse übrig, um das Baseler Verlagshaus als Predatory Publisher zu verteufeln? Eines steht schließlich fest: Mit seinen unorthodoxen Methoden erschüttert es die Vorherrschaft etablierter Verlage, die sich als Torwächter wissenschaftlicher Meinungsäußerung sehen.