Stärkere Einbindung
Eine gemeinsame Studie vom Open Innovation in Science Center der österreichischen Ludwig Boltzmann Gesellschaft, der Copenhagen Business School und der European School of Management and Technology in Berlin hat jedoch gezeigt, dass zumindest unter bestimmten Bedingungen auch die Einbeziehung einer Gruppe von Freiwilligen, das sogenannte Crowdsourcing, wertvolle Forschungsfragen generieren kann. „Wir haben bereits verschiedene Versuche gesehen, bei welchen Forscher:innen Forschungsfragen von Bürger:innen mit Erfahrungswissen zum jeweiligen Thema crowdsourcen wollten. Allerdings war bisher unklar, wie genau sich Forschungsfragen von Bürger:innen von jenen unterscheiden, die im konventionellen Forschungsprozess entwickelt werden“, erklärt Susanne Beck vom Open Innovation in Science Center in Wien. „Wir wollten deshalb untersuchen, ob eine stärkere Einbindung von Bürger:innen in die frühen Phasen von Forschungsstudien der Schlüssel zu neuen, innovativen Perspektiven und zur Förderung wirkungsvoller Forschung sein könnte.“ Gemeinsam mit ihren Kollegen und Kolleginnen aus Österreich, Dänemark und Deutschland hat Beck dafür zwei Projekte im Gesundheitswesen analysiert, bei denen Menschen aus bestimmten Zielgruppen über verschiedene Kampagnen dazu aufgefordert worden waren, eigene Forschungsfragen einzureichen.
Patienten und Krankenschwestern
Die Personen, die eine Forschungsfrage eingereicht haben, waren mit dem Forschungsthema vertraut; es handelte sich entweder um Patienten und ihre Angehörigen oder um Beschäftigte im Gesundheitssektor wie Krankenschwestern, Therapeuten und praktizierende Ärzte. Letztere wurden als wissenschaftliche Laien eingestuft, solange sie Wissen nur anwendeten und nicht als Forscher selbst welches generierten. Während bei Projekt 1 aus dem Bereich der psychischen Gesundheit rund die Hälfte der Fragen von Ärzten eingereicht wurde, beteiligten sich bei Projekt 2 aus der Traumaforschung überwiegend Patienten und Angehörige.
Im ersten Projekt konnten die Teilnehmer so viele Fragen einreichen, wie sie wollten und waren auch in der Textlänge nicht beschränkt. Verwendbar waren am Ende 746 Fragen von 155 Teilnehmern. Im zweiten Projekt durfte ausschließlich eine einzige Frage formuliert werden. Hier kamen 147 verwertbare Fragen zusammen. Das Durchschnittsalter lag bei 45 Jahren bzw. 37 Jahren, wobei in beiden Fällen eine große Alterspanne von jungen Erwachsenen bis Rentnern abgedeckt wurde. Frauen waren bei Projekt 1 überproportional vertreten und machten bei Projekt 2 etwa die Hälfte der Teilnehmenden aus. Die Fragen wurden anschließend sowohl von Sozialwissenschaftlern als auch von unabhängigen Wissenschaftlern und Wissenschaftlerinnen aus den Gesundheitswissenschaften auf einer 5-Punkte-Skala hinsichtlich dreier Aspekte bewertet: Neuheit der Frage, wissenschaftliche Bedeutung und praktische Bedeutung. Zum Vergleich nutzen Beck et al. Fragen aus der akademischen Forschung, die sie Tagungsbeiträgen entnommen hatten.
In allen Dimensionen übertroffen
Bei beiden Projekten erreichten die Fragen die höchsten Bewertungen bei der praktischen Relevanz. Im Vergleich mit den akademischen Forschungsfragen schnitten die crowdgesourcten Fragen hinsichtlich Neuheit und wissenschaftlicher Bedeutung im Durchschnitt deutlich schlechter ab. Selbst bei der praktischen Bedeutung konnten sie nicht punkten. Dieses Bild änderte sich aber, wenn nur die besten der eingereichten Fragen zum Vergleich herangezogen wurden.
Bei Projekt 1 war dieser Effekt besonders ausgeprägt: Zählte von jedem Teilnehmer nur die beste Frage, erhielten die Crowdsourcing-Fragen in allen drei Aspekten eine bessere Bewertung als die akademischen Fragen. Am größten war der Vorsprung bei der praktischen Bedeutung. Bei Projekt 2 zogen die besten 20 % der Fragen aller Teilnehmer hinsichtlich Neuheit und wissenschaftlicher Relevanz mit den akademischen gleich, überrundeten diese aber bei der praktischen Relevanz. „Die Ergebnisse zeigen, dass die Bewertenden die Fragen aus dem Crowdsourcing im Durchschnitt als weniger neu und wissenschaftlich relevant einstuften, dafür aber bei ihnen eine ähnliche oder höhere praktische Bedeutung sahen. Nachdem wir die Fragen einer Vorauswahl unterzogen hatten, übertrafen die besten 20 % der von Bürger:innen entwickelten Forschungsfragen die der Fachleute in allen Dimensionen“, fasst Beck zusammen. „Darüber hinaus waren die Fragen aus dem Crowdsourcing-Prozess tendenziell interdisziplinärer und kombinierten häufig Konzepte aus verschiedenen medizinischen Bereichen oder bezogen Ideen von außerhalb der Medizin mit ein.“
Die Menge macht‘s
Offensichtlich kann Crowdsourcing also eine echte Bereicherung sein, wenn die Beiträge vorab auf Qualität geprüft werden. Seine große Stärke ist, dass relativ einfach eine große Zahl an potenziellen Forschungsfragen gewonnen werden kann. Da die meisten Fragen vor allem eine hohe praktische Bedeutung aufwiesen, bietet dieser Ansatz wohl hauptsächlich einen Mehrwert bei angewandten Projekten wie Beck ausführt: „Angewandte Forschungsprojekte, die sich mit gesellschaftlichen Themen befassen, können am meisten von Crowdsourcing profitieren, wenn sie Ideen und Forschungsfragen von Bürger:innen oder bestimmten Untergruppen wie Patient:innen oder medizinisches Fachpersonal einbeziehen. Solche Projekte gibt es häufig in der Medizin, aber auch in Bereichen, die mit Nachhaltigkeit zu tun haben, wie Umweltwissenschaften, Bildung und wirtschaftliche Entwicklung. Aber auch in Bereichen wie Astronomie, Biologie oder Quantenphysik haben Bürger:innen wichtige Beiträge geleistet. Dies deutet auf viele weitere Möglichkeiten hin, die ‚Weisheit der Masse‘ zu nutzen, um die wissenschaftliche Forschung voranzubringen.“
Larissa Tetsch
Beck S. et al. (2022): Crowdsourcing research questions in science. Research Policy, 51(4): 104491
Bild: Pixabay/AngelikaGraczyk (Taube) & Pixabay/geralt (Fragezeichen)
Weitere Artikel zum Thema Citizen Science
- Gemeinsam mehr erreichen
Bürger sammeln Daten für die Wissenschaft – Citizen Science ist seit einiger Zeit der absolute Renner. Die Bürgerwissenschaft bringt aber nicht nur Chancen mit sich, es gibt auch Risiken.
- Citizen Science – Gemeinsam Wissen schaffen! (Essay von Anett Richter, Julia Siebert und Aletta Bonn; Leipzig)
Wissenschaft und Gesellschaft können durch die Einbindung engagierter Bürgerinnen und Bürger in Forschungsprojekte profitieren. Die Wissenschaft muss sich aber dafür öffnen.
- Kollegiale Rechenhilfe
Use your power – und zwar die eines Computers. Mit „Distributed Computing“ lässt sich ganz einfach zum Beispiel die RNA-Forschung vorantreiben.