Die Geschichte der Wikipedia ist auch eine der korrigierten Fehler und enttarnten Fälschungen. Wie verlässlich ist die größte Enzyklopädie der Welt? Und wie wird sie gepflegt?
"Das Konzentrationslager Warschau war ein deutsches Konzentrationslager in Warschau auf den Ruinen des Warschauer Ghettos. […] Laut mehreren Schätzungen wurden dort während des Krieges 200.000 Menschen von Deutschen umgebracht." So stand es jahrelang in der englischsprachigen Version der Wikipedia. Das Problem: das stimmt nicht ganz. Das Konzentrationslager in Warschau gab es, dort wurden aber nicht 200.000 Menschen umgebracht.
"Die Geschichtswissenschaft weiß das seit den 70er Jahren", sagt Pavel Richter, der den Fall für sein Buch "Die Wikipedia-Story" nachrecherchiert hat. Vermutlich hätten polnische Nationalisten diese Falschinformation in der Online-Enzyklopädie platziert. "Diejenigen, die die Lüge injiziert haben, waren geschickt: Sie haben nicht einfach einen falschen Artikel eingestellt. Sie haben zu einem wahren Eintrag – es gab ja ein Konzentrationslager in Warschau, die polnische Bevölkerung hat ganz entsetzlich gelitten unter der Besatzung der Deutschen – ihre Lüge hinzugefügt." Erst nach 15 Jahren fiel die Falschbehauptung einem Wikipedianer auf und wurde korrigiert.
2,5 Millionen Artikel allein in deutscher Sprache
Immer wieder gibt es Versuche bestimmte Artikel, Sichtweisen oder (Falsch-)Informationen in die Wikipedia hineinzuschmuggeln. Mal aus Jux, mal um die gigantische Reichweite der Online-Enzyklopädie auszunutzen.
Wichtig sei es, dass man Mechanismen schaffe, um mit Angriffen umzugehen, so Richter. "Da ist die Wikipedia in den letzten 20 Jahren schon sehr gut geworden." Wie viele Falschinformationen noch in der Wikipedia schlummern, das kann allerdings niemand sagen.
Es gibt auch eine sehr banale Fehlerquelle, um die sich die Wikipedianer kümmern müssen: Zeit. Die Informationen, Daten und Links in der Wikipedia sollen aktuell sein. Eine gewaltige Herausforderung. Allein in der deutschsprachigen Version finden sich über 2,5 Millionen Artikel. Bei der Lösung des Problems helfen den menschlichen Wikipedianern Bots, automatisierte Programme, die einfache, regelmäßige Aufgaben übernehmen: z.B. Tippfehler korrigieren oder tote Links aussortieren.
Schwedische Wikipedia größtenteils von Bots geschrieben
Theoretisch könnten Bots auch Texte schreiben. In manchen Sprachversionen passiert das auch. Die schwedische Wikipedia, mit fast 3,5 Millionen Einträgen eine der größten der Welt, besteht zu einem Großteil aus Einträgen, die ein Bot geschrieben hat. Ob Artikel von Bots geschrieben werden dürfen, entscheiden die länderspezifischen Wikipedia-Communities selbst.
In Deutschland hat man sich klar dagegen entschieden. "Wir wollen unsere Inhalte nicht von Maschinen schreiben lassen", erklärt Franziska Heine, Leiterin der Software-Entwicklung bei Wikimedia Deutschland. "Das trägt auch zur Bedeutung der Wikipedia bei: da passiert nicht einfach irgendwas. Es ist immer ein Aushandlungsprozess. Und den würde man mit dem Einsatz von zu viel Automatisierung zerstören."
Hierzulande setzt man dafür auf ein anderes Projekt: Wikidata. Eine Datenbank, die nach dem Wikipedia-Prinzip funktioniert. Kostenlos, alle können mitmachen, alle können es nutzen. Nur dass es nicht um Lexikon-Artikel geht, sondern um Datensätze. Damit sollen auch Maschinen Zugriff auf Informationen bekommen. Sprachassistenten greifen beispielsweise auf Wikidata zurück um ihren Nutzern Antworten geben zu können. Und in der deutschsprachigen Wikipedia speisen sich die grauen Info-Boxen, die in vielen Artikeln angezeigt werden, aus Wikidata.