Editorial

Taxonomie und Beobachtung von Forschenden

(01.08.2023) Wissenschaftliche Verlage sind zu Datenkraken mutiert. Gierig greifen sie Daten von Forschenden ab, um sie zu analysieren und zu monetarisieren.
editorial_bild

Wer hat nicht schon über die großen Verlage und deren Journale geschimpft? Entweder veröffentlichen sie die falschen Artikel oder lehnen die eigenen ab, oder sie verlangen zu viel Geld, das System zum Einreichen und Begutachten ist vorsintflutlich, oder es dauert ewig, bis der akzeptierte Artikel endlich erscheint. Es ist schwer, noch etwas Gutes zu finden bei diesem System von zehntausenden Journalen, in denen wir seit 1665 veröffentlichen.

Als wäre all das nicht schon schlimm genug, deckte die Deutsche Forschungs­gemeinschaft (DFG) vor ein paar Jahren auch noch auf, dass die großen Verlage in den letzten Jahren noch ein ganz anderes Geschäftsfeld für sich entdeckt haben: die Beobachtung und Verwertung des Verhaltens von Forschenden auf ihren digitalen Plattformen und Werkzeugen.

Ähnlich wie ihre Vorbilder aus dem nicht-akademischen Überwachungs­kapitalismus greifen die akademischen Datenkraken mittlerweile großzügig Nutzenden­daten ab, um sie zu analysieren und zu monetarisieren. Dabei fließen ihnen nicht nur die Daten der Nutzenden ihrer Journal-Plattformen zu, sondern die Konzerne überwachen nun großflächig den gesamten Research Lifecycle.

Editorial

Nutzen Sie beispielsweise Scopus oder Web of Science für die Literatur­recherche, Mendeley zum Zitieren, Authorea zum Schreiben, FigShare, um Ihre Daten zugänglich zu machen, oder LabGuru für Ihr Labormanagement? Vielleicht nutzt ja Ihre Uni-Leitung Plum Analytics, Pure oder Elements, um die Forschungs­leistung Ihrer Fakultät mit der von anderen Fakultäten zu vergleichen? Alle diese Werkzeuge sind mittlerweile Überwachungstools für die Data-Analytics-Konzerne, die sich früher „Verlage“ nannten. Elsevier zum Beispiel verlautbarte kürzlich, dass weniger als 50 Prozent des Umsatzes noch aus ihren Journalen käme.

Auch wenn die Ex-Verlage dabei vielfach auf die gleichen Werkzeuge aus der digitalen Werbetechnik zurückgreifen wie die Unternehmen im außer-akademischen Überwachungs­kapitalismus, so geht es ihnen wohl kaum um personalisierte Werbung auf den Seiten ihrer Journale – schließlich erhalten sie für diese ja bereits das Fünf- bis Zehnfache der Publikations­kosten über die diversen Zahlungen wissenschaftlicher Institute und Autor*innen. Nein, die Überwachung eröffnet den Konzernen ein viel breiteres Einkommens­spektrum als schnöde Werbung – auch wenn die gewonnenen Beobachtungsdaten vielfach in deren Infrastrukturen landen.

Kürzlich wurde etwa eine Angebotsliste des Daten­marktplatzes Xandr (Microsoft) veröffentlicht, auf der unzählige Gruppen von „scientist“ oder „researcher“ zu finden waren, von „data scientist“ über „chemist“ oder „applied research scientist“ bis hin zur „Union of Concerned Scientists“. Sie alle waren von digitaler Werbetechnik ausspioniert worden und standen listenweise zum Verkauf. Amüsanterweise führt die Datei unter „science“ neben „biology“, „chemistry“, „physics“ auch „astrology“. An Angeboten im Bereich der Biologie finden sich unter Rubriken wie „education“, „interests“ oder „professors“ die Einträge „biology majors“, „biological products“, „flora & fauna“, „genetics“, „neuroscience“ und „molecular & cell biology“. Gleichzeitig enthält diese Liste auch diverse Schlagworte zu sensibleren Themen wie Religions­zugehörigkeit, Gesundheits­zustand, LGBTQ, „climate change believer“/„climate change non-believer“, „vaccine propensity“, „don’t trust vaccine“ und „pro life high-income Republican voter“, die es jedem mit genug Geld ermöglichen, eben auch Datensegmente mit entsprechenden Wissenschaftler*innen zu kaufen, oft inklusive Geofencing- bzw. Geolocation-Daten.

Dabei tummeln sich auf diesen Datenmärkten weit mehr als nur Online-Werbeanbieter. Diverse Behörden und Strafverfolgungsorgane zum Beispiel dürfen derartige Daten nur mit einem Durchsuchungs­beschluss selbst erheben; beim Erwerb von Daten sind solche Beschränkungen gewöhnlich nicht vorgesehen. So erfreut sich der Datenkauf auch bei Nachrichten­diensten großer Beliebtheit, spart man sich mit Data Shopping doch eine Menge Arbeit. Laut einem kürzlich zugänglich gemachten Report tritt „commercially available information“ immer mehr in Konkurrenz zur klassischen Intelligence-Arbeit und ist im Gegensatz zu dieser auf Massenbasis verfügbar.

Für diese Art personalisierter Daten werden die Datensätze aus den verschiedenen Werkzeugen und wohl auch aus verschiedenen Tochterfirmen der Mutterkonzerne algorithmisch aggregiert und zu Paketen geschnürt. Schon 2021 schloss Elseviers Schwesterfirma LexisNexis Risk Solutions (nicht zu verwechseln mit dem Fachanbieter für Rechts­wissenschaften) einen viel beachteten Vertrag für personalisierte Daten über 16,8 Millionen US-Dollar mit der US-amerikanischen Grenzschutzbehörde ICE ab. Wie groß sind diese Datenbanken? Nach RELX-Verlautbarungen überwachte der Konzern über die Tochterfirma ThreatMetrix damals bereits 4,5 Milliarden Endgeräte von 1,4 Milliarden Personen aus weit über 100 Ländern. Mittlerweile dürften diese Zahlen deutlich gewachsen sein.

Welches Interesse hat ICE an einer derartigen Datensammlung? Wie andere Law Enforcement Agencies nutzt ICE diese Werkzeuge für Razzien und Deportationen von Migrant*innen. Auch viele US-Bürger*innen selbst sind betroffen, weil beispielsweise Führerschein­datenbanken und Bewegungsmuster ihrer Fahrzeuge ausgewertet werden. Über andere Szenarien können wir immer noch nur spekulieren: Zum Beispiel könnten Recherchen von Jurist*innen darauf hindeuten, dass sie rechtlichen Beistand „illegaler“ Migranten vorbereiten. Durch Kombination mit personalisierten Daten aus anderen Quellen und diversen Endgeräten können die Nutzenden identifiziert und per Bewegungsmuster auch deren Aufenthaltsorte festgestellt werden. Mit Kenntnis dieser Daten könnte ICE die entsprechenden Migranten lokalisieren und deportieren.

Ein weiteres Geschäftsfeld sind Fachbereichs­analysen: Durch die Kenntnis, wer in welchen Bereichen gerade welche Daten analysiert, wen zitiert und welche Texte schreibt, lassen sich detaillierte Echtzeit-Analysen erstellen, die reinen Publikations­analysen teils um Jahre voraus sein können. Regierungen, Industrie-Vertreter oder finanzkräftige Forschungs­institute können hier Informationen über die Arbeit unliebsamer Intellektueller, die nächste umwälzende Erfindung oder die kommenden Stars des jeweiligen Forschungsfeldes einkaufen, noch bevor man darüber in den Journalen lesen kann.

Die Science Foundation Ireland etwa fürchtet die internationale Konkurrenz und nutzt einen Deal mit Datenanalyst Elsevier für „eine vorausschauende Übung, um zum frühest­möglichen Zeitpunkt im Voraus über neue und aufkommende Technologien informiert zu werden“. Auch die kommerzielle Konkurrenz der öffentlich finanzierten Forschung könnte Geld in die Hand nehmen und sich durch die Trackingdaten ein Bild davon verschaffen, wie weit man an den Universitäten und Forschungs­instituten wohl so ist bei einem lukrativen Thema.

Ein dritter Nutzen, den die Konzerne von ihren gesammelten Daten haben, ist die gezielte Verwendung der Daten zur Lenkung der Wissenschaft. Wenn man Daten hat, die zeigen, was „gute Wissenschaft“ ist, kann man diese Daten gezielt nutzen, um die eigenen Produkte nicht nur in solchen Analysen von anderen Anbietern hervorzuheben, sondern auch um eigene Neu-Akquisitionen strategisch zu planen und zu lancieren.

Damit verbunden ist ein vierter Vorteil, den die Datenkraken nutzen, um ihre Moneta­risierungs­ströme zu verstetigen. Die nahezu vollständige Abdeckung des Research Lifecycles erlaubt es den Konzernen, ihre Werkzeugpalette als Pakete zu verkaufen: alles, was den Forschenden und vor allem der Leitungsebene bei ihrer Arbeit hilft, „aus einer Hand“. Institute, die ein solches Paket einmal gekauft haben, können nie wieder auf einen anderen Anbieter wechseln – ein Vendor Lock-in par excellence, der vor Jahren schon von Claudio Aspesi als „the next battleground“ beschrieben wurde.

Waren die Verlage von früher bereits in einer Monopolstellung, was die Journale anging, so streben sie nun danach, diese Monopolstellung auf den gesamten Workflow der Forschenden auszuweiten – „from cradle to grave“ sozusagen. Dabei gilt das beschwingte Wort des Überwachungs­kapitalismus – „if you are not paying for the product, you are the product“ – in der Academia nicht. Akademiker bezahlen auch noch das Vielfache der Publikations­kosten für das Privileg, zu einer Corporate Commodity werden zu dürfen. Eine Wahl, diese Plattformen beziehungsweise Werkzeuge einfach nicht zu nutzen, haben Akademiker oft nicht: Entweder müssen sie dort publizieren, um eine Stelle, Beförderung oder Forschungs­mittel zu bekommen, oder die Artikel, Datenbanken oder Dienstleistungen gibt es eben nur bei den Überwachungs­verlagen – der übliche wissenschaftliche Vendor Lock-in.

Bei dieser Art von Big Brother könnte man schon verzweifeln: Egal wohin man sich wendet, überall spionieren, klassifizieren und vermarkten schon die datafizierten Linnés unserer Zeit. Doch seit dem 23. Mai 2023 erscheint ein Silberstreif am Horizont. Der Rat der EU hat an diesem Tag Beschlüsse zum „hochwertigen, transparenten, offenen, vertrauenswürdigen und fairen wissenschaftlichen Publizieren“ veröffentlicht. Hinter dem sperrigen Titel steckt bei näherem Hinsehen ein echter Hammer: Die EU-Kommission und die Mitgliedsländer der EU werden unter anderem dazu angehalten, in digitale Informations­infrastrukturen zu investieren. Dabei sollen folgende Eigenschaften erzielt werden:

- Interoperabel
- Gemeinnützig
- Open-Source-Software
- Offene Standards
- Vermeidung von Bindung zu Diensten und proprietären Systemen
- Verbindung mit der European Open Science Cloud
- Keine Gebühren für Autor*innen oder Leser*innen

Die traditionellen Verlage erfüllen nicht einen einzigen Punkt dieser Checkliste! Eine Umsetzung dieser Vorgaben aus der EU würde unser jetziges Zeitschriften-System aus dem 17. Jahrhundert durch eine moderne Infrastruktur aus dem 21. Jahrhundert ersetzen. Damit entspricht der Rat der EU langjährigen Forderungen und Wünschen aus der wissenschaftlichen Gemeinschaft, die bis auf die Erfindung des Internets zurückgehen. Bereits in den 1990er-Jahren wurde nach so einer Modernisierung gerufen und auch der Autor dieser Zeilen macht sich seit über 15 Jahren für genau diese Reformen stark. Jedoch standen dem Ganzen bisher die Beharrungs­tendenzen der Wissenschaft und die Marktmacht der Konzerne entgegen.

Was könnten die Gründe sein, die die EU veranlasst haben, den jetzigen Schritt endlich und nach so langen Diskussionen nun doch zu gehen? Haben TAFKAP („The Associations Formerly Known As Publishers“) nun vielleicht doch den Bogen überspannt? Was in der Politik als „digitale Souveränität“ gehandelt und in die Datenstrategie der EU gegossen wird, steht ja ganz eindeutig solchen Geschäftsmodellen entgegen.

Die Gesetzespakete „Digital Services Act“ und „Digital Markets Act“ (DSA/DMA) wurden aus genau diesen Gründen für die „großen Brüder“ der Überwachungs­verlage auf den Weg gebracht. Vielleicht haben auch die jahrzehnte­langen Open-Science-Kampagnen und -Aktivitäten Spuren im Rat der EU hinterlassen, nachdem sie bereits seit Langem auch bei der UNESCO Widerhall gefunden haben. Klar ist zumindest, dass Vertreter*innen der Open-Science-Bewegung seit vielen Jahren auch mit der EU im engen Dialog stehen – ein Dialog, der zum Beispiel letztes Jahr in der Gründung der „Coalition for Advancing Research Assessment“ (CoARA) mündete, die Evaluationen nach bibliometrischen Gesichtspunkten zurückdrängen will. Aus der Perspektive von CoARA ist ein Beschluss, der die veralteten Publikationsorte durch moderne ersetzt, nur ein konsequenter und folgerichtiger nächster Schritt.

Während große Wissen­schafts­organisationen schnell deutliche Unterstützung für die Beschlüsse des Rates signalisierten, bleibt es in Deutschland bisher seltsam still. Vom Wissenschaftsrat hört man nichts, in der Allianz der Wissenschafts­organisationen scheint man noch zu sehr mit sich selbst beschäftigt zu sein und DEAL verhandelt munter weiter mit Elsevier und betoniert damit wissen­schafts­schädigende Strukturen, so als gäbe es keinen EU-Beschluss, der in letzter Konsequenz eigentlich derartige Verhandlungen komplett ablehnt. Lediglich die DFG stellte sich noch am selben Tag an die Seite der anderen EU-Wissen­schafts­organisationen und begrüßte ebenfalls explizit die Schlussfolgerungen des Rats der EU, vielleicht weil die DFG als einzige bisher realisiert hat, wie besonders gut aufgestellt Deutschland mit der DFG-geförderten Nationalen Forschungs­daten­infrastruktur (NFDI) wäre, was die Implementierung der geforderten Infrastrukturen angeht?

Für den Autor sind die Schlussfolgerungen des EU-Rates auch eine Bestätigung des jahrelangen Engagements in genau die Richtung, in die die EU nun marschiert. Erst vor zwei Jahren hat der Autor mit neun weiteren Expert*innen ein Papier veröffentlicht, in dem sie exakt so eine Infrastruktur vorschlagen, wie sie der EU-Rat nun ebenfalls fordert („Replacing academic journals“). Diese Vorschläge von internationalen Expert*innen aus diversen Fachbereichen waren eben keine spinnerten Aktivisten­fantasien, sondern sind überlebens­notwendig, wenn wir nicht alle in einer Art Linnés Herbarium 4.0 landen wollen.

Dem Herbarium zu entgehen, ist jedoch nur einer von vielen Vorteilen, die uns ein Ersatz unserer Altlasten von 1665 durch zeitgemäße Strukturen bringen würde. Durch Automatisierung und Standardisierung von Open-Science-Strukturen werden Forschungsdaten und Quellcode ohne zusätzlichen Aufwand zugänglich und überprüfbar, was uns bei der Replikationskrise helfen würde. Moderne Funktionalitäten, die das Begutachten erleichtern und unterstützen, helfen dabei ebenfalls. Die Zeitersparnis beim Begutachten, Finden oder Einreichen von Artikeln erlaubt mehr Fokus auf das Wesentliche. Durch Ausschreibungs­verfahren für Dienstleistungen an der Infrastruktur statt Verhandlungen mit Monopolisten werden Mittel frei, die in die Weiter­entwicklung der Infrastruktur investiert werden können. Den Schlussfolgerungen des Rates der EU zu folgen, und zwar so schnell wie möglich, verspricht also eine Vielzahl von Vorteilen und kaum Nachteile – außer für TAFKAP-Datenkraken, die sich nun woanders nach Proben für ihr Herbarium umsehen müssen.

Zur Person
Björn Brembs ist Professor für Neurogenetik an der Universität Regensburg und bloggt auf bjoern.brembs.net über wissenschaftspolitische Themen.

Bild: T. Teebken (Bearb.: U. Sillmann)

Dieser Essay erschien zuerst in Laborjournal 7-8/2023.


Weitere Essays aus dem aktuellen Laborjournal


- Wie geht disruptive Forschung? (Essay von Patrick Cramer, Göttingen)

Bringen heutige wissenschaftliche Projekte seltener bahnbrechende Ergebnisse hervor? Ist die Spitzenforschung in Gefahr, weil Anreize für interdisziplinäre Forschung fehlen? Welche Rolle spielt Serendipity?

- Über Exzellenz, Geld & Wissenschaft (Essay von Gerald Schweiger, Graz)

Wissenschaftliche Institutionen brüsten sich mit Exzellenz. Dass es keine klare Definition für diesen Begriff gibt, stört sie nicht. Gleichzeitig sind ihre Peer-Review-Verfahren und Panel-Entscheidungen fehleranfällig. Hemmen hoher Wettbewerb und niedrige Erfolgsraten vielleicht sogar Innovationen?

- Fortschritt wider die Fairness? Ethische Betrachtungen zum Umgang mit Forschungsdaten (Essay von Katrin Frisch, Berlin)

Das Narrativ des wissenschaftlichen Fortschritts ist einseitig und verzerrt. Noch immer bestehen unethische Forschungspraktiken und strukturelle Ungleichheiten in der Wissenschaft fort. Bevor sie aufgearbeitet werden können, müssen sie anerkannt werden.

 

 



Letzte Änderungen: 01.08.2023