Erweiterte Suche

Digitalisierung & KI

Standpunkte Von Mastodon für eine offenere Forschungsinfrastruktur lernen

Lambert Heller vom Open Science Lab
Lambert Heller vom Open Science Lab Foto: C Bierwagen

Als Elon Musk begann, Twitter einige Daumenschrauben anzulegen, gab es im vergangenen Jahr eine Menge Aufmerksamt für die dezentrale Alternative Mastodon. Dessen zugrundeliegende Technik hätte auch Potenzial, die Infrastrukturen der Forschung wieder zu öffnen, meint Lambert Heller vom Leibniz-Informationszentrum Technik und Naturwissenschaften.

von Lambert Heller

veröffentlicht am 24.04.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Zu den größten Profiteuren des Internets in den letzten 15 Jahren gehören zweifellos die großen Social-Media-Plattformen. Ihr Erfolg beruht auf ihren Nutzern, die durch Inhalte und Interaktionen diese Plattformen mit Leben füllen. Und die kommerziell erfolgreichsten von ihnen werden von einigen wenigen Unternehmen betrieben – ob Facebook und Twitter oder Snapchat und TikTok.

Technisch ist diese Zentralisierung sozialer Interaktion nicht notwendig. Das World Wide Web an sich ist von Beginn an dezentral gedacht. Immer wieder gab es durch verschiedene Standards getriebene Blütezeiten der Dezentralisierung: So waren um das Jahr 2000 etwa Syndikations-Protokolle wie ATOM und RSS Nährboden für Weblogs und Podcasts, die später als originäre Medien-Genres des Webs bekannt geworden waren. Doch nachdem die großen Social-Media-Plattformen eine kritische Masse von Benutzern für sich gewonnen hatten, brauchten sie die zunächst hilfreichen dezentralen Protokolle nicht mehr. Die Benutzer hinderten sich gegenseitig in einer Art wechselseitigem Stockholm-Effekt an der Abwanderung in andere Dienste.

Die Wissenschaft sieht sich mit einem ähnlichen Problem konfrontiert.

Wenige Firmen teilen sich den akademischen Informationsmarkt auf – und ihr Geschäftsfeld, das früher vor allem von Verlagstätigkeit geprägt war, geht nun in eine andere, von Facebook & Co. bekannte Richtung. Elsevier, das Schwergewicht der Branche, beschreibt sein eigenes Geschäftsfeld inzwischen mit dem Begriff „Information Based Analytics“. Das Problem ist erkannt, die Gefahr keineswegs gebannt: Der Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (DFG) hat dem Problem des „Datentrackings in der Wissenschaft“ 2021 ein viel diskutiertes Positionspapier gewidmet.

Neues Geschäftsmodell der Wissenschaftsverlage

Jedem Klick der Forschenden wird über diverse Online-Tools hinweg gefolgt, bei der Sicherung und Archivierung von Forschungsdaten, bei der Einreichung und Lektüre von wissenschaftlichen Artikeln, selbst bei der Verwaltung von Literaturlisten. Neben den Nahezu-Monopolen ihrer etablierten Zeitschriften-Portfolios bauen diese Marken mittlerweile ein Portfolio datengetriebener Produkte und Indikatoren für die Forschungsverwaltung und -politik auf.

Dieses Wissenschaftstracking hat nicht nur problematische Implikationen für die Wissenschaftsfreiheit, sondern auch für die Innovationsoffenheit des Wissenschaftssystems – sowohl auf der Ebene sozialer als auch technischer Innovationen. Die sozialen Interaktionen, auf denen Zugänglichkeit, Vertrauen und Transparenz wissenschaftlicher Forschungsergebnisse beruhen (Einreichen eines Papers, Peer Review, Zitation, Metastudie, Zurückziehen eines Papers, Korrekturen etc.), können auf beliebigen Plattformen stattfinden, solange sie dort standardisiert, offen und nachhaltig vorgehalten werden. Nichts davon müsste exklusiv auf den gebrandeten Plattformen der ehemaligen Verlage stattfinden, deren einziges Geschäftsmodell das Absaugen und Verkaufen der Nutzungsdaten von Forschenden geworden zu sein scheint.

Und hier kämen offene Webprotokolle wie ActivityPub ins Spiel, und somit die Technik auch hinter der dezentralen Twitter-Alternative Mastodon. Sie sorgen dafür, dass der „Absender“ einer Interaktion (Bezugnahme auf ein Forschungsergebnis X) nicht „User“ der Plattform werden muss, auf der Ergebnis X liegt, nicht deren Bedingungen und Policies akzeptieren muss. Die dokumentierten Inhalte und Interaktionen der Forschenden sind in diesem Ansatz mittels offener Webprotokolle für jedermann frei zugänglich. Eine Zitation gehört zum zitierten Dokument und nicht zum Beispiel einem zentralisierten Anbieter von Zitationszählung „as a service“, mitsamt daraus abgeleiteter „Wissenschaftsindikatorik“, intransparentem Datentracking oder ähnlichem. Viele Beta-Versionen forschungsnaher Online-Dienste auf Basis von AcitivityPub machen das heute bereits vor, darunter dokie.liSkohub und das TIB VIVO.

Offene Standards brauchen Zeit

Im Kleinen geht es also irgendwie doch voran. Doch lassen sich aus der Geschichte des „Fediverse“, der über ActivityPub miteinander verbundenen Dienste und Anwendungen, Schlüsse ziehen für die Weiterentwicklung von offener Software und offenen Daten-Allmenden für die Forschungsinfrastruktur? ActivityPub wurde 2018 nicht von mächtigen Internet-Konzernen am grünen Tisch entworfen, sondern als subversive Idee von „Indyweb“-Entwicklern, die sich eine Welt jenseits dieser geschlossenen Plattform-Welten ausmalten. Selbst die Mastodon gGmbH, Zugpferd der Nutzung von ActivityPub, arbeitet bis heute ohne einen Euro Wagniskapital.

Von 2018 an sollte es noch einmal vier Jahre dauern, bis diese Innovation in der Hand der ersten Million Endnutzer*innen landete. Mittlerweile hat ActivityPub auch die Aufmerksamkeit der Industriegrößen geweckt, sei es bei Facebooks Mutterkonzern Meta wie auch Automattic, dem Unternehmen von WordPress-Erfinder Matt Mullenweg.

Dieser für das Internet große Zeitraum verdeutlicht eines: Das Implementieren und Betreiben neuer Software, die das Potenzial offener Webstandards ausreizt, um neue Ebenen der Zusammenarbeit im Web zu eröffnen, erfordert Geduld und einen langen Atem. Wenn Forschung finanziert wird, um diese „exzellent“ zu machen, müsste dabei eigentlich die dauerhafte Betreuung forschungsnaher Open-Source-Software-Ökosysteme ebenso mitgedacht werden wie das Gemeindegut offener strukturierter Forschungsinformationen. Innovative Vorreiterprojekte für diese Allmenden haben heute bemerkenswert häufig ihren Sitz in den USA, wie im Fall von OpenAlex oder dem FatCat des Internet Archive, beide finanziert durch private Stiftungen.

Neue Impulse müssen gefördert werden

Eigentlich sollten in Deutschland und in Europa keine nach Exzellenz strebenden Forschungsprojekte mehr aus öffentlichen Mitteln finanziert werden, die nicht benennen können, auf welcher offenen Software ihre Aktivitäten beruhen (sie tun es fast immer –  zunehmend selbst in den Geisteswissenschaften, wie wir aus dem Forschungsdateninfrastruktur-Projekt NFDI4Culture wissen), wie diese institutionenübergreifend genutzt wird, und gegebenenfalls wie sie mit offenen Informations-Allmenden zusammenhängt – seien es Werkzeuge zur Datenanalyse oder Publikationssysteme.

Die Förderung von Entwickler*innen-Teams, die dazu in der Lage sind, Werkzeuge so am Leben zu halten, dass auch neue Impulse wie ActivityPub aufgenommen und ausprobiert werden können, sollte als Abgabe in die Forschungsförderung eingepreist werden. Der vom Bundesforschungsministerium finanzierte Prototype Fund sowie die DFG-Förderlinie VIGO sind bereits erste Schritte in die richtige Richtung.

Lambert Heller leitet das Open Science Lab (OSL) an der TIB - Leibniz-Informationszentrum Technik und Naturwissenschaften. Christian Hauschke leitet die Lab-Gruppe Offene Forschungsinformationen im OSL.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen