Editorial

Glücksfall oder
Büchse der Pandora?

(21.03.2023) Ohne Zweifel krempelt ChatGPT den Wissenschafts­betrieb um. Jetzt schon. Wir fragen Computer- und Neuro­wissen­schaftler nach ihren Prognosen.
editorial_bild

Das künstliche, neuronale Netzwerk ChatGPT der kalifornischen Non-Profit-Organisation OpenAI schreckt Forscher und Wissen­schaftlerinnen weltweit auf. Über kurz oder lang wird auch Ihr Wissen­schaftsalltag, liebe Leserinnen und Leser, mit ihm oder seinen Geschwistern in Berührung kommen – und ihn letztendlich auf den Kopf stellen. Warum?

Weil ChatGPTs Texte so hochwertig sind, dass wissen­schaftliche Sachverständige sie nur teilweise entlarven: Mediziner der Northwestern University in Chicago ließen ChatGPT 50 biomedizinische Abstracts schreiben und diese anschließend von Plagiats- und KI-Detektions­software sowie von menschlichen Fachleuten validieren. Softwaretools fanden in keinem der Abstracts Plagiate. Auch der KI-Detektor identifizierte nur zwei Drittel aller Abstracts als computer­generiert. Erstaunlich war aber: Auch menschliche Gutachter demaskierten in einer Mischung echter und künstlicher Abstracts nur zwei Drittel von ChatGPTs Texten. Sie erachteten 32 Prozent aller Fake-Zusammen­fassungen als wissenschaftlich authentisch (bioRxiv. doi.org/grmz3m). ChatGPT kann Forschungs­expertise also vortäuschen, indem es nicht nur die wissen­schaftliche Diktion nachahmt, sondern auch inhaltlich überzeugt – selbst Fachleute. ChatGPT findet sich sogar bereits als Ko-Autor seriöser PrePrints und Peer-Review-Publkationen.

Editorial

Tendenz zum Halluzinieren

Für Fachmanuskripte und Projekt­anträge hat das natürlich Konsequenzen. So fügte beispielsweise der Wissen­schaftsverlag Springer-Nature seinen Autoren­richtlinien Ende Januar 2023 bereits zwei Paragraphen hinzu: Zum einen verbietet der Verlag Sprachmodelle als Autoren. Zum anderen müssen menschliche Autoren jedwede Verwendung von Sprachmodellen im Abschnitt Material und Methoden beschreiben oder im Abschnitt Acknow­ledgements dokumentieren. Auch Science-Journale und die PrePrint-Server aRxiv, bioRxiv und medRxiv aktualisierten ihre Richtlinien bereits um entsprechende Abschnitte.

Unbegründet sind diese Vorbehalte gegenüber Sprachmodellen nicht. So erklärt Simon Eickhoff, der als Professor für Kognitive Neuro­wissen­schaften in Düsseldorf die Organisations­prinzipien des menschlichen Gehirns mithilfe maschineller Lern­algorithmen erforscht: „ChatGPT zeigt eine klare Tendenz zum ‚Halluzinieren‘. Es erfindet auf den ersten Blick glaubwürdige Referenzen und Zitate, stellt falsche Informationen bereit und vermischt Dinge – alles aber in gut formulierter Sprache und in einem insgesamt korrekten Kontext.“ Zusätzlich stolpert es bei Rechen­aufgaben, bei arithmetischen Umrechnungen und sobald es logische Schlüsse ziehen soll.

Die Entwickler­firmen haben natürlich diese Problematik längst erkannt. Bereits jetzt stehen fortgeschrittene Sprachmodelle in den Startlöchern, ihre Antworten über Datenbank-Recherchen zu überprüfen.

Tech-Unternehmen entscheiden

Noch stehen aber menschliche Anwender selbst in der Pflicht. Noch müssen sie künstliche Texte auf Wahrheits­gehalt, Genauigkeit, Plausibilität und Relevanz durchleuchten. Für eine fachfremde Leserschaft und bei wissen­schaftlichen Aufsätzen bleibt das natürlich mühsam – vor allem wenn Texte formale Ansprüche erfüllen und von Stil und Sprache her überzeugen.

Darin sieht Christophe Trefois, Leiter des Support-Teams „Verant­wortungsvolle und Reprodu­zierbare Forschung“ am Luxembourg Centre for Systems Biomedicine der Universität Luxemburg, die eigentliche Heraus­forderung: „ChatGPT ist intrinsisch voreingenommen, da es nur die Vorurteile seiner Trainings­daten widerspiegelt. Wenn es dabei so überzeugend und menschlich klingt, wie kann man Fehler oder Ungewissheit erkennen? Können wir einer KI jemals blind vertrauen?“ Burkhard Rost, Lehrstuhl­inhaber für Bioinformatik an der Technischen Universität München, gibt zu bedenken: „Natürlich lassen sich Trainings­datensätze modifizieren. Doch wer entscheidet über diese Zensur? Wer darf den moralischen Zeigefinger erheben und festlegen, welche Vorurteile Sprachmodelle integrieren dürfen und welche nicht?“ Rosts Doktorand Konstantin Weißenow bringt es auf den Punkt: „Gegenwärtig entscheiden Tech-Unternehmen, was zensiert wird, und geben damit gesellschafts­politische Richtungen vor.“

Befähigung ja, Verbote nein

Es gibt gegenwärtig mehr Fragen als Antworten, das ist klar. Aber vielleicht sollten Forschungs­treibende ChatGPT auch einfach als Unterstützung betrachten? Abigail Morrison, Leiterin des Simulations­labors Neuro­wissenschaften am Supercomputing Centre des Forschungs­zentrums Jülich, sieht das so: „Erstens können Sprachmodelle uninteressante und anspruchslose Schreibaufgaben beschleunigen, also Konzepte in Artikeln und Förder­anträgen erläutern, frühere Arbeiten und ihre Grenzen erörtern sowie Abstracts erstellen – alles natürlich unter Aufsicht menschlicher Experten, die ihrerseits dann Wissenslücken aufzeigen und Forschungs­ideen entwickeln. Zweitens erlauben es Sprachmodelle, sich schnell einen Überblick über andere Wissenschafts­gebiete zu erarbeiten, und sogar Folgefragen zu stellen, anstatt nur passiv Informationen aufzusaugen. Bald werden wir interaktive Übersichts­artikel auf Abruf für jedes Thema haben.“

Folglich hat generative Texttechnologie das Potenzial, die Wissenschaften zu demokratisieren. Gleichzeitig weist Iva Pritišanac, Assistenz­professorin für computer­gestützte Strukturbiologie an der Medizinischen Universität Graz, darauf hin: „Diese Werkzeuge bieten Abkürzungen an, um bestimmte Aufgaben zu beschleunigen oder ganz zu eliminieren. Allerdings warne ich davor, ‘jedes Problem‘ mit ihnen und ihren Abkürzungen lösen zu wollen. Es gibt immer noch keinen Ersatz für richtiges Denken und die Mühe, die man sich mit dem Erwerb von Fachwissen macht.“

Nützlicher Forschungsasssistent

Auch der Münchner Bioinformatiker Burkhard Rost ist eher optimistisch: „Sprachmodelle können Nicht-Mutter­sprachlern kooperativ helfen, Fachartikel und Förder­anträge zu formulieren.“ Außerdem stellen sie Nachwuchs­wissenschaftlern, Forschenden in Schwellen­ländern und Studierenden, denen finanzielle Ressourcen fehlen, künstliche Forschungs­assistenten zur Verfügung, die Computercode erzeugen, experimentelle Protokolle überprüfen, Publikationen zusammen­fassen, eigene Kritzeleien, Gedanken und Ideen organisieren und Feedback geben. Rosts Postdoktorand Michael Heinzinger geht noch weiter: „Generierten solche Systeme in Rücksprache mit menschlichen Experten nicht nur Forschungs­ideen, sondern gingen ihnen gekoppelt an einen Pipettier­roboter sogar aktiv nach und stellten ihre Forschungs­ergebnisse direkt online, könnten wir die Geschwindigkeit unseres wissen­schaftlichen Fortschritts unglaublich erhöhen. Das wäre transformativ!“

Denn ob es gefällt oder nicht: Große Sprachmodelle entwickeln sich rasant weiter. Ihre Leistungs­stärke korreliert mit der Anzahl ihrer Parameter, die während des Netzwerk­trainings optimiert werden. Programmierte OpenAI im Jahr 2019 GPT-2 noch mit 1,5 Milliarden Parametern, verfügte GPT-3 bereits über 175 Milliarden Variablen. Googles Switch Transformer und die Sprach-KI Wu Dao der Pekinger Akademie für künstliche Intelligenz warten bereits mit 1.600 und 1.750 Milliarden Parametern auf. Sprachmodelle wachsen also exponentiell – und damit ihre Leistungs­fähigkeit. Es wäre weise, sich darauf vorzubereiten.

Henrik Müller

Dieser hier stark gekürzte Artikel erschien zuerst in ausführlicher Form in Laborjournal 3-2023.

Bild: Pixabay/geralt


Weitere Artikel zum Thema künstliche Intelligenz


- Verborgene Muster in Peptidfragmenten

Die Analyse von Proteinproben mit Flüssigchromatographie und Massenspektrometrie ist den Proteomikern inzwischen in Fleisch und Blut übergegangen. Viel größeres Kopfzerbrechen bereitet ihnen die Auswertung der Massenspektren. Ohne Bioinformatik und künstliche Intelligenz stünden sie hier auf verlorenem Posten.

- Künstlich-intelligente Wissenschaftsbegutachtung

Maschinelle Sprachverarbeitung und neuronale Netzwerke versprechen, Peer-Review-Verfahren zu beflügeln und von menschlichen Schwächen zu befreien. Evaluieren sie eventuell sogar wissenschaftliche Qualität effizienter?

- Peptidmechanik lernende Proteinsprachmodelle

Im Kielwasser von AlphaFold2 jagt gegenwärtig ein Programm zur Vorhersage von Proteinstrukturen das nächste. Was müssen sie mitbringen, um auch die Mechanismen der Proteinfaltung zu enträtseln?

 




Letzte Änderungen: 21.03.2023