RamBot, ClueBot und LsjBot

Die Wikipedia wurde im Jahr 2001 gegründet. Anfangs bestand die Gemeinschaft hinter Wikipedia noch aus wenigen hundert Menschen. Eine Gemeinschaft aus freiwilligen Autoren, die ihre Freizeit dem gemeinsamen Verfassen und gegenseitigen Lektorieren von frei verfügbaren enzyklopädischen Artikeln widmeten. Damals war es einem einzelnen Mitglied dieser Gemeinschaft noch möglich, alle täglichen Bearbeitungen an der virtuellen Enzyklopädie innerhalb von wenigen Minuten manuell zu verfolgen, sie zu ergänzen oder allenfalls rückgängig zu machen.

Dies begann sich spätestens im Jahr 2004 zu ändern. In diesem Jahr wurde die virtuelle Enzyklopädie von einem abrupten Wachstum an öffentlicher Aufmerksamkeit, an nicht-registrierten Mitgliedern, neuen Artikeln und täglichen Bearbeitungen erfasst. Gegen Ende des Jahres verzeichnete Wikipedia bereits mehrere hundert Bearbeitungen.Innerhalb von wenigen Minuten [1].

Kein Mensch vermochte die unzähligen Urheberrechtsverletzungen, die streitbaren Bearbeitungen und offenkundigen Fälle von Vandalismus noch manuell zu verfolgen, geschweige denn zu ergänzen oder rückgängig zu machen. Auf das abrupte Wachstum der virtuellen Enzyklopädie reagierte die Gemeinschaft mit der Entwicklung und der Implementierung von sogenannten Bots.

Bots, das sind selbsttätige Computerprogramme, die nach ihrer Implementierung bestimmte Aufgaben eigenständig abzuarbeiten vermögen. Bots bestehen aus einem Programmcode, der fortwährend abläuft und sich selbst zu einer Handlung anzuweisen vermag, sobald er einmal eine für ihn bearbeitbare Aufgabe erkannt hat. Während der Arbeit an dieser Aufgabe kann ein Bot ohne fortwährende Anweisung des Menschen aus einer vorgegeben Auswahl eine Handlung auswählen und diese selbstständig ausführen. Es ist keine unzulässige Verkürzung zu sagen, dass sich ein implementierter Bot ohne weiteres Zutun des Menschen dynamisch an Aufgaben abzuarbeiten vermag und auf Veränderungen in seiner Umgebung reagieren kann.

Bots, das sind selbsttätige Computerprogramme, die bestimmte Aufgaben eigenständig abzuarbeiten vermögen.

Ein neuer Bot erscheint auf Wikipedia denn auch als herkömmliches Mitglied der Gemeinschaft. Um als registriertes Mitglied in die Gemeinschaft der Wikipedianer aufgenommen zu werden, muss ein Bot zwar zunächst von einer menschlichen Arbeitsgruppe, der sogenannten Bots Approvals Group, geprüft und zugelassen werden. Sobald der  Bot aber von dieser Arbeitsgruppe zugelassen wurde, braucht er in der Gemeinschaft nur noch durch die obligatorische Buchstabenfolge „bot“ im Benutzernamen und durch ein sogenanntes „botflag“ als selbsttätiges Computerprogramm ausgewiesen zu werden.

Für einen jeden aufgenommenen Bot wird auf Wikipedia denn auch eine herkömmliche Benutzerseite angelegt. Auf dieser Benutzerseite wird der Bot als registriertes Mitglied der Gemeinschaft vorgestellt. Es findet sich darauf eine kurze Beschreibung seiner Aufgaben und seiner Funktionsweise. Manche der Benutzerseiten enthalten darüber hinaus den Programmcode des Bots und eine Sperrfunktion mit der er sich bei einem allfälligen Fehlverhalten manuell abschalten lässt.

Während die Bots ursprünglich entwickelt wurden, um die Mitglieder der Gemeinschaft vom abrupten Wachstum an repetitiven redaktionellen Aufgaben zu entlasten, sind sie nunmehr in beinahe allen Bereichen der virtuellen Enzyklopädie selbsttätig: Bots löschen Spam und Vandalismus, korrigieren Rechtschreibfehler und unterbreiten den menschlichen Mitgliedern Vorschläge zur Verbesserung der Syntax. Bots stellen Vorlagen und Anregungen für noch zu schreibende Artikel bereit und importieren eigenständig Text- und Bilddateien aus externen Quellen. Bots verweisen eigenständig auf Fachliteratur, setzen Links zwischen bereits bestehenden Artikeln und re-kategorisieren diese Artikel gegebenenfalls. Sie begrüssen neu registrierte Mitglieder. Bots erklären den neuen Mitgliedern auch, wie man sich den anderen Mitgliedern gegenüber zu verhalten hat. Sie patrouillieren die Diskussionsseiten auf Verstösse gegen dieses erklärte Verhalten und setzen allfällige Sperrungen von unerwünschten Mitgliedern durch. Und einige Bots haben eigene Artikel verfasst. Eben ohne weiteres Zutun des Menschen.

«Autaugaville is a town located in Autauga County, Alabama. As of the 2000 census, the population of the town is 820». Dieser kurze Artikel wurde am 9. Dezember 2002 von RamBot geschrieben. Es war der allererste Artikel eines selbsttätigen Computerprogramms auf Wikipedia. Während der darauffolgenden Woche verfasste RamBot 30'000 weitere derartige Artikel. Allesamt zu amerikanischen Kleinstädten. Die Daten hierfür entstammten einem Datensatz der Volkszählungsbehörde. Doch ein Fehler in diesem Datensatz führte zu 2000 fehlerhaften Artikeln, worauf in der Gemeinschaft der Wikipedianer eine lebhafte Debatte um die Kontrolle zukünftiger Bots entfacht wurde. Die Artikel von RamBot bilden nach wie vor die Vorlage für menschliche Bearbeitungen von Artikeln zu amerikanischen Kleinstädten.

Während die Bots einen verschwindend geringen Anteil an der Gemeinschaft hinter Wikipedia ausmachen, sind sie doch für einen massgeblichen Anteil der täglichen Bearbeitungen auf Wikipedia verantwortlich. Wie eine Forschergruppe um Milena Tsvetkova des Oxford Internet Institute im Februar 2017 zeigen konnte, lag der Anteil der aktiven Bots an der Gemeinschaft zwischen 2001 und 2010 im Durchschnitt aller Sprachversionen bei weniger als 0.1 Prozent. Der Anteil dieser wenigen Bots an den täglichen Bearbeitungen der Wikipedia erreichte in demselben Zeitraum im Durchschnitt aller Sprachversionen indes rund 25 Prozent. In manchen Sprachversionen der Wikipedia waren die Bots sogar für die Hälfte aller täglichen Bearbeitungen verantwortlich. Vergleicht man die folgenden zwei Grafiken aus Tsvetkovas Studie wird rasch ersichtlich, wie unverhältnismässig sich der Einfluss der wenigen Bots auf die vielen täglichen Bearbeitungen ausnimmt – gerade weil die verschwindend kleine Anzahl der Bots in der linken Abbildung gar nicht sichtbar gemacht werden kann:

Die schreibende Gemeinschaft hinter Wikipedia besteht längst nicht mehr ausschliesslich aus menschlichen Mitgliedern: Anteil der aktiven Bots. Grafik: Milena Tsvetkova

Der wachsende Einfluss der Bots lässt sich auch in dessen historischer Entwicklung verfolgen. Denn während sich die Anzahl der täglichen Bearbeitungen durch registrierte und anonyme menschliche Benutzer seit dem Höhepunkt des Wachstums von Wikipedia im Jahr 2006 leicht rückläufig zeigt, hat die Anzahl der täglichen Bearbeitungen durch Bots bis heute fortwährend zugenommen [2].

In Anbetracht dieser historischen Entwicklung und der einfach zugänglichen Daten ist es äusserst verblüffend, dass die Bots in vielen techniksoziologischen und literaturwissenschaftlichen Studien zu Wikipedia bis anhin schlicht übergangen wurden. In vielen Studien, welche die vielfältigen Aufgaben der Bots auf Wikipedia ausdrücklich ansprechen, werden die Bearbeitungen der Bots entweder vorsätzlich aus den Ergebnissen herausgefiltert, deren Einfluss auf den Inhalt der Enzyklopädie wird als marginal abgetan oder es wird versucht, die Bots lediglich als Instrumente zu deuten, die zwar das Handlungsvermögen ihrer menschlichen Entwickler verstärken, indes weder ein eigenes und noch ein indirektes Handlungsvermögen zu erlangen vermögen.

All diesen Studien scheint gemeinsam zu sein, dass sie die bis heute anhaltende Stabilität und Zuverlässigkeit der virtuellen Enzyklopädie implizit auf die nostalgische Vorstellung einer Gemeinschaft aus wenigen hundert Freiwilligen zurückbinden möchten. Sie versuchen den beispiellosen Erfolg von Wikipedia ausschliesslich anhand von sozialen Strukturen zu erklären (z.B. anhand der dezentralisierten Verwaltungsstruktur, angeblich geteilter demokratischer Werte oder anhand konventioneller Standards der Artikel usw.). All diesen Studien unterliegt also gleichsam die grundlegende Annahme, dass die schreibende Gemeinschaft hinter Wikipedia ausschliesslich aus menschlichen Mitgliedern bestehe.

Menschen und Bots scheinen sich während der letzten Jahre zunehmend unauflösbar zu einer hybriden Autorschaft verbunden zu haben.

Und eben diese Annahme ist grundlegend falsch. Wie die beiden Grafiken aus Tsvetkovas Studie deutlich zeigen, besteht die schreibende Gemeinschaft hinter Wikipedia längst nicht mehr ausschliesslich aus menschlichen Mitgliedern, sondern aus menschlichen und nicht-menschlichen Mitgliedern gleichermassen. Während der letzten Jahre haben Menschen und Bots in zunehmend komplexer Zusammenarbeit an ein und derselben Enzyklopädie geschrieben. Menschen und Bots scheinen sich während der letzten Jahre zunehmend unauflösbar zu einer hybriden Autorschaft verbunden zu haben. Doch was soll unter dem Neologismus einer hybriden Autorschaft eigentlich verstanden werden?

Einer der profiliertesten Autoren der englischen Sprachversion von Wikipedia ist ClueBot NG. Dieses selbsttätige Programm wurde am 3. Dezember 2010 zugelassen. Seitdem durchsucht ClueBot NG die virtuelle Enzyklopädie unermüdlich nach Spam und Vandalismus und löscht unerwünschte Bearbeitungen innerhalb von wenigen Sekunden. Das besondere an ClueBot ist, dass er lernfähig ist. Der Programmcode hinter ClueBot mimt ein Bayes’sches neuronales Netzwerk, dass sich anhand von Beispielen menschlicher Bearbeitungen (z.B. der Entfernung von gängigen Fluchworten) trainieren lässt. Er kann durch diese Beispiele von menschlichen Bearbeitungen allmählich an menschliche Schreibkonventionen gewöhnt werden und vermag seinen Aufgabenbereich über Zeit selbstständig zu erweitern. Auf der Benutzerseite von ClueBot finden sich zahlreiche Auszeichnungen (sog. Barnstars), die von der Gemeinschaft für besondere Verdienste um Wikipedia vergeben werden.

In seiner Monographie Art and Intention aus dem Jahr 2005 definiert der Philosoph Paisley Livingston den Begriff einer kollaborativen Autorschaft als eine Zusammenarbeit von mehr als einem menschlichen Beitragenden, bei der das Ziel die gemeinsame Bearbeitung einer Äusserung oder eines Werkes ist. Von kollaborativer Autorschaft kann gemäss Livingston genau dann gesprochen werden, wenn alle beteiligten Beitragenden vorausschauend Inhalte erzeugen und bearbeiten, die später öffentlich wahrnehmbare Teile eines gemeinsamen Werkes bilden. Livingston zufolge muss den einzelnen Beitragenden dabei ein eigenes Handlungsvermögen zukommen. Dieses Handlungsvermögen muss indes mit denen der anderen Beitragenden abgestimmt werden, wodurch alle Handlungen nach einer gewissen Zeit unweigerlich ineinanderzugreifen beginnen. Die Autorschaft über das gemeinsame Werk wird nach einer gewissen Zeit gleichsam auf alle beteiligten Beitragenden verteilt. Der Prozess dieser kollaborativen Produktion führt dazu, dass alle Beitragenden gleichermassen und gemeinsam als Autoren des Gesamtwerkes berücksichtigt werden müssen [3]. Für diese Definition der kollaborativen Autorschaft bedachte Livingston ein mögliches Mitschreiben von selbsttätigen Computerprogrammen freilich noch nicht.

Dennoch bieten sich Livingstons Bedingungen als Grundlage für einen Definitionsversuch einer hybriden Autorschaft an: Die hybride Autorschaft soll nämlich als eine Zusammenarbeit von menschlichen und nicht-menschlichen Beitragenden definiert werden, deren Ziel die gemeinsame Bearbeitung einer Äusserung oder eines Werkes ist. Von hybrider Autorschaft soll genau dann gesprochen werden, wenn alle menschlichen und nicht-menschlichen Beitragenden möglichst vorausschauend Inhalte erzeugen und bearbeiten, die später öffentlich wahrnehmbare Teile des gemeinsamen Werkes bilden. Den Bots kann dabei freilich nur ein sehr eingeschränktes bzw. indirektes Handlungsvermögen zukommen. Auf den Handlungsbegriff in der hybriden Autorschaft wird gleich zurückzukommen sein. Sicher ist, dass auch das indirekte Handlungsvermögen eines jeden Bots mit den Handlungen der anderen Menschen und Bots abgestimmt sein muss, wodurch alle Handlungen nach einer gewissen Zeit unweigerlich ineinanderzugreifen beginnen. Die Autorschaft über das gemeinsame Werk wird so nach einer gewissen Zeit gleichmässig auf alle menschlichen und nicht-menschlichen Beitragenden verteilt.

Diese gewisse Zeit ist seit 2004 längst vergangen. Die Autorschaft über die Wikipedia hat sich längst gleichmässig auf alle menschlichen und nicht-menschlichen Beitragenden verteilt. Menschen und Bots haben sich mit der wachsenden Abstimmung ihrer jeweiligen Handlungen unauflösbar zu einer gemeinsamen Autorschaft verbunden und sie müssen fortan als unauflösbar hybride Gemeinschaft hinter der virtuellen Enzyklopädie berücksichtigt werden.

Wie weit dieses hybride Autorenkollektiv von Menschen und Bots hinter Wikipedia im Jahr 2017 bereits fortgeschritten ist, wird augenfällig, sobald man sich eingehender mit den virtuellen Palimpsesten der Enzyklopädie, mit den Beobachtungslisten der einzelnen Artikel beschäftigt. Auf diesen Beobachtungslisten werden jeweils die neuesten Bearbeitungen eines bestimmten Artikels der Wikipedia aufgeführt. Die Listen lassen sich von Menschen und Bots gleichsam auf bestimmte Bearbeitungen hin durchsuchen und versenden im Falle von neuen Bearbeitungen des Artikels automatische Benachrichtigungen, so dass Menschen und Bots umgehend ihre eigenen Bearbeitungen dazwischenschalten können. Bei der nachträglichen Durchsicht dieser virtuellen Bearbeitungsspuren zeigt sich deutlich, dass sich Bots (wie vorgesehen) umgehend selbst zum Überschreiben oder gar zum Löschen einer vorangehenden menschlichen Bearbeitung anweisen, sobald sie diese menschliche Bearbeitung als verbesserungswürdig erkannt haben. Die Bots reagieren in Echtzeit auf die Bearbeitungen der Menschen und werden durch diese unweigerlich selbst zum Schreiben angeregt. Umgekehrt zeigt sich, dass sich Menschen genauso ans Überschreiben oder gar ans Löschen einer maschinellen Bearbeitung machen, sobald sie diese als verbesserungswürdig erkannt haben. Die Menschen reagieren so rasch wie möglich auf die Bearbeitungen der Bots und werden durch sie ebenfalls unweigerlich zum Schreiben angeregt. Es scheint nicht verfehlt zu behaupten, dass sich das Schreiben von Menschen und das Schreiben von Bots auf Wikipedia nach einer gewissen Zeit wechselseitig zu bedingen beginnt. Menschen und Bots schreiben, überschreiben und löschen in gleichem Masse als Reaktion auf die Bearbeitungen der anderen Menschen und Bots. Und genau an dieser Stelle muss den Bots im Rahmen der hybriden Autorschaft ein eigenes, wenn auch indirektes Handlungsvermögen zugestanden werden: Sobald die Bots nämlich nicht mehr länger nur repetitive redaktionelle Aufgaben in vorhersehbarer Weise abarbeiten, sondern die menschlichen Mitglieder durch ihre Selbsttätigkeit und die programmierte Entscheidungsfreiheit plötzlich zu mehr Aufmerksamkeit und eigenen Handlungen verpflichten, können sie auch nicht mehr länger als blosse Instrumente eines abwesenden Entwicklers interpretiert werden.

In zukünftigen Studien zu Wikipedia gilt es der hybriden Autorschaft von Menschen und Bots mehr Aufmerksamkeit zu schenken.

Anhand einer längeren Beobachtung und Erfassung der Beobachtungslisten liesse sich denn auch historisch nachzeichnen, wie sich Menschen und Bots über die Zeit hinweg zunehmend zur heutigen Gemeinschaft aus menschlichen und nicht-menschlichen Autoren verbunden haben: Ein hybrides Autorenkollektiv aus Menschen und Bots, deren Handlungen sich heute nicht mehr entflechten lassen und deren internen wechselseitigen Abhängigkeiten längst einem jeden Artikel der virtuellen Enzyklopädie buchstäblich eingeschrieben sind.

In zukünftigen Studien zu Wikipedia gilt es der hybriden Autorschaft von Menschen und Bots mehr Aufmerksamkeit zu schenken. So dürfen die Bearbeitungen der Bots nicht mehr länger aus den Endergebnissen der Studien herausgefiltert werden. Der Einfluss der Bots auf die Enzyklopädie darf in Anbetracht ihrer vielfältigen Aufgabenbereiche nicht mehr länger als marginal abgetan werden. Und die Bots dürfen auf keinen Fall mehr als blosse Instrumente ihrer menschlichen Entwickler fehlgedeutet werden. Von techniksoziologischen und literaturwissenschaftlichen Studien zu Wikipedia wird stattdessen ein neues Vokabular gefordert, mit dem sich das Mitschreiben von Programmcodes, die wachsende nicht-menschliche Autorschaft und die wechselseitigen Abhängigkeiten zwischen schreibenden Menschen und schreibenden Bots unter dem Begriff einer hybriden Autorschaft angemessen beschreiben lassen.

Am 15. Juni 2013 erreichte die schwedische Sprachversion der Wikipedia zum ersten Mal die vielbeachtete Grenze von einer Million Artikeln. Der millionste Artikel befasste sich mit der Schmetterlingsart Erysichton elaborata. Dieser Meilenstein wurde indes nicht von einem selbstlosen Entomologen geschrieben. Sondern von einem selbsttätigen Computerprogramm. LsjBot sammelte die Informationen zu dieser Schmetterlingsart eigenständig aus verschiedenen digitalisierten Nachschlagewerken zusammen und passte sie an das Format der Wikipedia an. Bis heute hat der Programmcode hinter LsjBot rund eine halbe Million schwedischer Artikel verfasst. Im Mai 2017 umfasste die schwedische Sprachversion der Wikipedia insgesamt 3.8 Millionen Artikel.

 


Anmerkungen

[1] vgl. https://stats.wikimedia.org/EN/TablesWikipediaZZ.htm (Stand 16. 7. 2017)

[2] vgl. https://stats.wikimedia.org/EN/PlotsPngEditHistoryTop.htm (Stand 14.7.2017)

[3] Livingston 2005, S.83: „First of all, if two or more persons jointly author an utterance or work, they must intentionally generate or select the text, artefact, performance, or structure that is its publicly observable component; in so doing, they act on meshing sub-plans end exercise shared control and decision-making authority over the results; furthermore, in making the work or utterance, they together take credit for it as a whole, a condition that can be satisfied even in cases where parts of the work can be attributed to one of the individual contributors“

 

Bibliographie

Geiger, Stuart: „The Social Roles of Bots and Assisted Editing Programs“, in: Proceedings of the 5th International Symposium on Open Collaboration, ACM Digital Library, 2009, Artikel Nr. 30.

Geiger, Stuart: „The Lives of Bots“, in: Lovink, Geert / Tkacz, Nathaniel (Hrsg.): Critical Point of View: A Wikipedia Reader, Institute of Network Cultures, Amsterdam, 2011, S.87-94.

Geiger Stuart: „Bots, Bespoke Code, and the Materiality of Software Platforms“, in: Information, Communication & Society, Vol. 17, 2014, S.342-356.

Geiger Stuart / Ribes, David: „The Work of Sustaining Order in Wikipedia: The Banning of a Vandal“, in: Proceedings of the 2010 ACM Conference on Computer Supported Cooperative Work, 2010, S. 117-126.

Geiger, Stuart / Halfaker, Aaron: „When the Levee breaks: Without Bots, what happens to Wikipedia's Quality Control Processes?”, in: Proceedings of the 9th International Symposium on Open Collaboration, ACM Digital Library, 2013, Artikel Nr. 6.

Livingston, Paisley: Art and Intention - A Philosophical Study, Clarendon Press, Oxford, 2005.

Tsvetkova, Milena et al.: „Even good bots fight: The case of Wikipedia“, in: PLoS ONE, Vol. 12 (2), 2017, ohne Paginierung.