Neben der unermüdlichen Arbeit, die Ärzte und Pflegepersonal während der Pandemie leisten, spielt datenintensive Forschung eine zunehmend wichtige Rolle im Kampf gegen Covid-19. Modelle, Statistiken und Grafiken sind in traditionellen und sozialen Medien allgegenwärtig. Der populäre Kampagnen-Hashtag #flattenthecurve versinnbildlicht, welche zentrale öffentliche Bedeutung Datenanalysen inzwischen beigemessen wird.
In Deutschland bilden aufbereitete Gesundheitsdaten wie tägliche Infektionszahlen, örtliche Inzidenzwerte oder Reproduktionszahlen, die vom Robert Koch-Institut (RKI) erhoben und veröffentlicht werden, aber auch datenintensive wissenschaftliche Studien die Grundlage für politische Entscheidungen. Im Zuge des aktuellen Anstiegs der Covid-19 Fallzahlen ist die datenintensive Forschung nun erneut in den Mittelpunkt der öffentlichen Diskussion gerückt.
Qualitativ hochwertige Daten, mit einem klaren Ziel analysiert, ermöglichen eine solide und transparente Grundlage für soziale Debatten und politische Entscheidungen. In diesem Zusammenhang sind drei Aspekte wichtig, die den potenziellen Nutzen, aber auch die Grenzen der datenintensiven Forschung aufzeigen:
Datenintensive Forschung hilft
Datenanalysen können dabei helfen, internationale Covid-Maßnahmen zu evaluieren und vergleichbar zu machen. Darüber hinaus können präzise Analysen auch dazu eingesetzt werden, Kapazitäten in Krankenhäusern zu planen und frühzeitig auf Anstiege zu reagieren. In den Niederlanden hat beispielsweise ein Forschungsprojekt der Eindhoven University of Technology maßgeblich dazu beigetragen, die notwendige Zahl der Intensivbetten zu bestimmten Zeitpunkten zu planen. Im weiteren Verlauf des Projekts konnte anhand der genutzten Daten auch die Wirksamkeit einzelner Regierungsmaßnahmen evaluiert und verglichen werden: So hatten Veranstaltungsverbote und Schulschließungen einen direkten Effekt, während dieser bei Lockdowns und Restaurant-Schließungen weniger eindeutig war. Ähnliche Vergleichsstudien werden europaweit von zahlreichen Forscherteams durchgeführt – etwa von Forschern der University of Edingburgh oder der Oxford University. Die Zuverlässigkeit solcher Studien hängt allerdings von einem wichtigen Faktor ab: der Datenqualität.
Zuverlässige Analysen erfordern qualitativ hochwertige Daten
Vorhersagen und Modelle sind nur so gut wie die Daten, auf denen sie beruhen. In der aktuellen Situation ist es wichtiger denn je, dass akkurate Daten gesammelt werden und dass es ein Verständnis dafür gibt, was diese Daten zeigen können und was nicht. Ohne zuverlässige Daten können politische Entscheidungsträger keine guten Entscheidungen treffen.
Im Kontext der Pandemie spielen einerseits Gesundheitsämter und Behörden eine wichtige Rolle, die Testdaten sammeln, nachverfolgen und weitergeben. Andererseits kann aber auch die Erschließung neuer Datenquellen datenintensive Forschung in Zukunft deutlich verbessern und kleinteiligere und lokal begrenzte Aussagen ermöglichen. Ein vielversprechender Ansatz, dem in Deutschland ein Team des Helmholtz Zentrums für Umweltforschung nachgeht, ist etwa die Untersuchung von Abwasser: So kann uns die Covid-19-Konzentration im Abwasser früher als andere Indikatoren vor einer lokalen Ausbreitung warnen.
Gerade bei der Erschließung neuer, vielfältiger und lokalisierter Daten ist es besonders wichtig, dass Datenwissenschaftler, Behörden aber auch andere Akteure des Wissenschaftssystems wie Verlage und Förderinstitutionen in Zukunft noch enger zusammenarbeiten. Der Wissenschaftsrat fordert aktuell etwa einen Kulturwandel hin zum stärkeren Teilen von Daten und der Entwicklung gemeinsamer wissenschaftlicher Standards bei der Aufbereitung und Dokumentation. Initiativen wie das Humboldt-Elsevier Advanced Data & Text Centre (HEADT) tragen zudem zur Stärkung der Forschungsintegrität und Datenqualität bei und beschäftigen sich dabei auch mit wichtigen Datenschutzaspekten.
Forschungsergebnisse müssen klar und verständlich kommuniziert werden
Datenintensive Forschung ist im Zuge der Pandemie weit über den wissenschaftlichen Diskurs hinaus sichtbar geworden. In den letzten Monaten hat damit auch die politische Bedeutung von Datenanalysen spürbar zugenommen – eine Entwicklung, die wir in den nächsten Jahren auch in anderen Bereichen sehen werden.
In diesem Kontext ist es umso wichtiger, dass die Forschungsergebnisse der Öffentlichkeit klar und verständlich kommuniziert werden. Modelle und Analysen die von Datenwissenschaftlern verstanden werden, werden von Laien möglicherweise als zu abstrakt wahrgenommen oder sogar fehlinterpretiert. Gerade die Vielfalt von Kennzahlen, die bei politischen Entscheidungen herangezogen werden, können mitunter zu Verwirrung führen.
Eine klare Kommunikation kann nicht nur Missverständnisse aufklären, sondern darüber hinaus auch die Akzeptanz für Maßnahmen und wissenschaftliche Befunde steigern. Die Wissenschaftskommunikation kann dies etwa mit Hilfe von verständlichen Datenvisualisierungen und Infografiken unterstützen, die Forschungsergebnisse und -daten in den richtigen Kontext setzen und komplexe Sachverhalte verständlicher machen.
In den letzten Monaten ist das Potenzial datenintensiver Forschung bei der Prognosebildung und der Auswertung von Schutzmaßnahmen deutlich geworden. Forscher aus diesem Feld werden auch in den nächsten Monaten neben Ärzten, Virologen und Pflegepersonal eine wichtige Rolle im Kampf gegen Covid-19 spielen. Daher ist es wichtig, dass Wissenschaftler, Behörden und andere Akteure zusammenarbeiten, um eine hohe Datenqualität zu gewährleisten und Forschungsergebnisse verständlich zu machen, damit Gesellschaft und Politik auf dieser Grundlage künftig bessere Entscheidungen treffen können.
Dr. Mark Siebert ist Director of Research Collaborations bei Elsevier und ist als solcher für Partnerschaften mit Institutionen aus den Bereichen KI, Life Science und Data Science zuständig.