Man diskutiert Daten derzeit überwiegend unter dem Blickwinkel eines möglichst leichten Zugangs – ihrer „Openness“ zwecks vielfältiger Nutzbarkeit. Auch Forschungsdaten sollen offen sein – allgemein zugänglich, und zwar innerhalb der Wissenschaft wie auch als Ressource für Wirtschaft, öffentliche Verwaltung und Zivilgesellschaft. Die Politik hofft, durch Forschungsdaten wirtschaftlich-industrielle Innovationszyklen zu beschleunigen und gesellschaftlich relevante Problemlösungen voranzutreiben.
Wissenschaftliche Initiativen, die entstanden sind rund um Open Science und die FAIR-Prinzipien (das Akronym für Findable, Accessible, Interoperable, Re-Usable), sind Ausdruck dieser Entwicklung. Gleichwohl sagt das Bekenntnis zur Offenheit und zum niedrigschwelligen Zugang noch nichts über die Qualität oder über die Qualitätserfordernisse aus, denen Daten im Hinblick auf ihre Nachnutzbarkeit genügen müssen – und gerade auch wissenschaftliche Daten.
Wissenschaft produziert besonders qualifiziertes („wahres“) Wissen. Das macht die Sicherung von Datenqualität für die wissenschaftliche Forschung zu einem ebenso unabschließbaren wie ressourcenintensiven Prozess. Wer „Openness“ fordert, setzt die Qualität von wissenschaftlicher Forschung zwar voraus – übergeht aber, dass Datenqualität nicht vom Himmel fällt, dass Qualität mit Methodenfragen untrennbar verbunden ist und dass man die methodische Gewinnung und Verwendung von Forschungsdaten beherrschen muss.
Das Thema Datenqualität ist unbequem, es ist ein möglicher Showstopper auf der großen Openness-Party. Für die Wissenschaft heißt dies: Soll aus der digitalen Verfügbarkeit von Daten ein Mehrwert für alle entstehen, muss man nicht nur Daten und Algorithmen zusammenbringen. Sondern es kommen unweigerlich Herausforderungen des wissenschaftlichen Arbeitens in den Blick, die in der Breite noch zu lösen sind:
- Wie verändern digital gewonnene, digital zu prozessierende Forschungsdaten fachliche Methoden und lassen sie sich überhaupt losgelöst von Methodenwissen verwenden?
- Wie lassen sich gute Standards für die Datendokumentation entwickeln, die das Teilen von Daten über Fachgrenzen hinweg ermöglichen – und darüber hinaus?
- Wie stärkt man die intrinsische Motivation der Forscherinnen und Forscher, Mühe in die Dokumentation von Daten zu investieren, deren exzellenter Zustand dann anderen zugutekommen soll?
Tatsächlich existieren Widerstände, die auch Gründe haben. Der RfII hat auf ungünstige Anreizstrukturen heutiger Wissenschaft hingewiesen, etwa dem Imperativ des „Publish or Perish“, wie auch andere Signale, die auf Quantität statt Qualität setzen. Der Wettbewerb im System verschlingt Ressourcen, die für eine Qualitätssicherung von Forschungsdaten gebraucht werden. Der RfII empfiehlt deshalb in seinem Positionspapier „Herausforderung Datenqualität“, durch innerwissenschaftliche Anstrengungen und eine kluge Wissenschafts- und Förderpolitik neue Impulse zu setzen. Das bedeutet:
- ein Bewusstsein für Datenqualität im methodischen Verständnis von Fachgemeinschaften zu verankern und im Studium zu vermitteln,
- innovative Datenprodukte zu belohnen, um Reputationsgewinne auch für die Dokumentation von Forschungsprozessen zu organisieren,
- die Dauer von Projektförderungen zu verlängern, um Forschungsdatenmanagement als legitimen, zum Ergebnis gehörigen Teil des Forschungsprozesses zu etablieren,
- Clearingstellen zu schaffen und Verhandlungsmacht zu organisieren, um bessere Nutzungsbedingungen für oftmals intransparente Hard- und Softwareprodukte zu erzielen,
- Organisationseinheiten der Forschung und solche der Dateninfrastrukturen besser zu verzahnen, damit methodisch Hand in Hand gearbeitet werden kann,
- Datenqualität in den Entwicklungsstrategien der Einrichtungen zu verankern.
Dies ist, wohlgemerkt, nur eine Auswahl der Stellschrauben, an denen gedreht werden sollte, will man die Steigerung von Datenqualität zu einer selbstverständlichen wissenschaftlichen Aufgabe im digitalen Zeitalter weiterentwickeln. Wissenschaft sollte – wo sie den Weg Richtung „Offenheit“ beschreitet – gute, verantwortliche Datenprodukte entwerfen. Ein Disziplinen und Domänen übergreifender Qualitätsdiskurs muss daher erstens geführt werden, und zweitens führt er weit über die Frage der Zugänglichkeit und Offenheit von Forschungsdaten hinaus. Die aktuelle Konferenz des RfII ist hierzu ein erster Impuls.
Petra Gehring ist Professorin für Philosophie an der TU Darmstadt und seit 2017 Vorsitzende des Rats für Informationsinfrastrukturen (RfII). Der Text ist die Kurzfassung einer Keynote auf der heutigen Konferenz „Herausforderung Datenqualität – Forschung im digitalen Wandel“ in Hannover, die der RfII mit Unterstützung der Volkswagenstiftung durchführt. Der RfII berät im Auftrag der Gemeinsamen Wissenschaftskonferenz (GWK) Politik und Wissenschaft zu Ausbau und Entwicklung wissenschaftlicher Informationsinfrastrukturen.