2005-05 StadtRevue Kölnmagazin: WikiWiki

aus LuftschiffWiki - http://www.luftschiff.org/
Wechseln zu: Navigation, Suche
Stadtrevue Kölnmagazin vom Mai 2005

WikiWiki

Einst galt das World Wide Web als Zukunft demokratischer Wissensvermittlung. Die Wiki-Szene will mit diesem Anspruch Ernst machen und ermöglicht den freien Internet-Zugang zu Wissen. Klaus Fehling hat sich das Netzwerk angeschaut

Im frühen Mittelalter gab es sie praktisch in jedem Dorf und mancherorts gibt es sie noch heute: Die Allmende - ein Gemeingut, das als Ressource von allen Mitgliedern einer Gemeinschaft genutzt werden kann. Das kann z.B. ein Gewässer zur Löschwasserversorgung oder eine Gemeindewiese sein. Im globalen Dorf des Internetzeitalters wird die Idee der frei verfügbaren Quellen (»Open Source«) zunehmend auch für die Nutzung und Entwicklung von Information und Wissen angewendet. Auf einem Open-Source-Kongress im Jahr 2000 sprach der Sozialwissenschaftler und Medienforscher Volker Grassmuck von dieser modernen Art der gemeinsam genutzten Ressourcen als »Wissensallmende«.

Erst drei Jahre zuvor hatte der Programmierer Eric S. Raymond mit seinem Essay »Die Kathedrale und der Basar« die Vorteile der Open-Source-Methode auf den Punkt gebracht. Bei der herkömmlichen »Kathedralenmethode« arbeitet ein festes, hierarchisch organisiertes Team nach einem vorgegebenen Plan und unter der Leitung eines Chefs so lange an einem Projekt, bis dieses für fertig erklärt wird. Auf einem Basar hingegen bieten viele gleichberechtigte Händler verschiedenste Waren an und anstelle eines Chefs gibt es jemanden, der darauf achtet, dass das Marktrecht von allen eingehalten wird. Für Projekte, die mit der »Basarmethode« entwickelt werden, gilt: jeder kann etwas vom Basar aufgreifen, nutzen und verändern - solange er seine Ergebnisse wiederum dem Basar zur Verfügung stellt. Solche Projekte werden ständig verbessert und weiterentwickelt, was bei einer großen Anzahl von Basarteilnehmern sehr schnell voran gehen kann. In der Welt der Computersoftware hat sich die »Basarmethode« längst durchgesetzt. Mit ihr werden u.a. das freie Betriebssystem GNU/Linux und der verbreitete Webbrowser Firefox entwickelt. Warum sollte man also nicht das Erfolgsprinzip der freien Software auch auf andere Bereiche - außerhalb der nerdigen Welt kauziger Computerfreaks - anwenden? Die Idee, Wissen nach der Basarmethode zusammenzutragen und für jedermann zugänglich zu machen, stammt bereits aus den Gründungstagen der Freien-Software-Bewegung Mitte der 1980er-Jahre. Aber erst mit der Verbreitung des Internet bot sich die Möglichkeit, eine große Zahl von Menschen an einem solchen Projekt zu beteiligen. Zunächst gab es noch ein paar Hindernisse aus dem Weg zu räumen: Die Hemmschwelle zur Teilnahme an solchen Wissenssammlungen musste gesenkt werden, damit auch weniger technophile Menschen etwas in den Basar hineingeben konnten, ohne die zugrundeliegende Technik oder gar eine Programmiersprache beherrschen zu müssen. Ausserdem musste die Frage nach dem Copyright der auf diese Weise zusammengetragenen Inhalte ein für alle Mal geklärt werden.

Ein wichtiger erster Schritt war die Schaffung einer »Lizenz für freie Dokumentation« - eines Vertrags, dem jeder Nutzer einer solchen offenen Quelle (z.B. eines Lexikonartikels) zustimmen muss. Diese Vereinbarung erlaubt die Vervielfältigung, Verbreitung und Veränderung der durch sie lizensierten Inhalte, verpflichtet aber den Nutzer, alle daraus abgeleiteten Werke ebenfalls unter diese Lizenz zu stellen. Dieses Prinzip des »Copyleft« (im Gegensatz zum herkömmlichen Copyright) hatte sich schon als Erfolgsgrundlage der Open-Source-Softwareentwicklung bewährt. Rechtlich war der Weg zu einem universellen Basar des Wissens damit frei. Für alle - also auch für Nicht-Nerds - zugänglich wurde dieser Weg aber erst durch eine Erfindung des amerikanischen Software-Gurus Ward Cunningham. Im Jahr 1995 entwickelte er ein einfaches Werkzeug für das Sammeln von Wissen. Sein Computerprogramm erzeugt Webseiten, deren Inhalte von jedem Websurfer nicht nur gelesen, sondern auch direkt online bearbeitet oder ergänzt werden können - ohne, dass spezielle technische Kenntnisse dazu nötig wären - unkompliziert und schnell. Das hawaiianische Wort für »Schnell« lautet »Wikiwiki«, also erhielt die neue Technik den Namen »Wiki«.

Das World-Wide-Web wird zum Mitmachnetz. Dank der zunehmenden Benutzerfreundlichkeit der Technik werden immer mehr Netzteilnehmer vom nur passiven Surfer zum aktiven Informationsanbieter. Die Zahl der »Blogger«, die in sogenannten Weblogs tagebuchartig Neuigkeiten ins Netz stellen - von Erlebnissen im Urlaub oder dem täglichen Befinden des Haustiers bis zu persönlichen Kommentaren zum aktuellen Weltgeschehen - steigt ständig. Das Wiki-Prinzip bewährte sich raschgeht noch einen Schritt weiter, dadurch, dass das hier zur Verfügung gestellte Wissen von jedem ergänzt und verbessert werden kann.. Zahlreiche Wissenssammlungen zu den unterschiedlichsten Themen entstehen seitdem auf diese Weise - von Informatik-Kompendien, über ein Jura-Wiki bis hin zum gesammelten Fanwissen über die Science-Fiction-Welten von Star Trek oder Perry Rhodan. Ständig kommen neue Wikis hinzu, in denen jeder sein Wissen zum jeweiligen Thema der Allgemeinheit zur Verfügung stellen kann. Wie auf dem Basar sorgt auch hier im Idealfall die Gemeinschaft aller Nutzer dafür, dass die Qualität der Information ständig überwacht und verbessert wird. Streitfälle werden durch die Mehrheit entschieden. Der Feind des Guten ist in einer funktionierenden Wiki-Gemeinschaft höchstens das Bessere. Doch weil auch hier der Cyberspace nur ein Abbild der realen Welt (RealLife?) ist, schließt die Qualitätssicherung durch die Gemeinschaft immer wieder auch das Aufspüren und Beseitigen von mutwilliger Zerstörung einzelner Beiträge durch Unsinn, Werbung oder Propaganda, mit ein. Je mehr Nutzer sich verantwortlich fühlen, desto besser funktioniert die Kontrolle. Im größten und bekanntesten aller Wikis, der freien Online-Enzyklopädie Wikipedia, dauert es selten länger als einige Minuten bis solche Fälle von Wiki-Vandalismus wieder behoben sind. Die Verursacher werden im Wiederholungsfall so gut es geht durch die von den Nutzern gewählten Administratoren ausgesperrt.

Das im Jahr 2001 vom Amerikaner Jimmy Wales ins Leben gerufene Wikipedia-Projekt zeigt, wie gut die Basarmethode im Internet funktioniert - aber auch, wo sie vielleicht an ihre Grenzen stößt. Heute gibt es die Wikipedia in mehr als 100 Sprachen mit einer Gesamtzahl von über einer Million Artikeln. Die deutschsprachige Enzyklopädie ist darunter mit mehr als 214.000 Artikeln (Stand: 1. April 2005) und einem monatlichen Zuwachs von neun Prozent die zweitgrößte. Zwischen »A-Team« und »Zandvoort« finden sich hier auch die Einträge zu »Bielefeldverschwörung« oder »StadtRevue«. Kommerzielle Online-Lexika wie die Britannica Online oder Microsofts Encarta hat man damit mengenmäßig längst überholt, wie bald auch den Brockhaus, dessen digitale Ausgabe mit etwas mehr als 260.000 Artikeln daherkommt. Doch die Menge der Einträge allein ist bei einem Lexikon noch kein Garant für Qualität. Noch erscheint das redaktionell bearbeitete und meist von anerkannten Fachleuten zusammengetragene Wissen der kommerziellen Nachschlagewerke dem Nutzer zuverlässiger als eine Enzyklopädie, an der auch Laien mitarbeiten. Die Wikipedianer versuchen dem mit einer wachsenden Auswahl geprüfter und für »exzellent« befundener Beiträge etwas entgegen zu setzen.

Die Wikipedia-Hardware, die Computer auf denen das Projekt im Internet beheimatet ist, wird größtenteils durch Spenden finanziert und ist im Besitz der Wikimedia Foundation, einer internationalen gemeinnützigen Stiftung mit Sitz im US-Bundesstaat Florida. Von hier aus werden auch die Schwesterprojekte der Wikipedia betreut, darunter u.a. das Wörterbuch Wiktionary, die Zitatensammlung Wikiquote und das biologische Artenverzeichnis Wikispecies, deren Inhalte - wie auch die Wikipedia - sämtlich unter der Lizenz für freie Dokumentation stehen. Der neueste Wikimedia-Coup ist der Versuch mit dem Ende 2004 gestarteten Projekt »Wikinews« eine freie und neutrale Nachrichtenquelle im Internet zu etablieren. Die Vision der Initiatoren ist ein offenes Netzwerk von »Bürgerjournalisten«, die aktuell über Ereignisse aus allen Teilen der Welt berichten. Doch dieses Netz ist momentan noch sehr dünn. Bisher entsteht ein Großteil der Wikinews durch das Aufbereiten von Informationen aus anderen Quellen. Die Qualität und Aktualität der Nachrichten nimmt aber mit der Anzahl der aktiven Nutzer erkennbar und schnell zu.

Oberster Grundsatz der Wikinews und Wikipedia ist die Einhaltung eines neutralen Standpunkts in den Beiträgen. Hierin unterscheidet sich das freie Nachrichtenportal von verwandten Projekten wie www.indymedia.org/de/, wo meist aus einer dezidierten, in diesem Fall linken Perspektive berichtet wird.

Das offene Nachrichtenangebot nach dem Wikiprinzip ist bisher einzigartig. Das Projekt, das sich noch in der Testphase befindet, wird von heftigen Diskussionen über Abläufe und Regeln auf einem solchen Nachrichtenbasar begleitet. Noch ist vieles unklar und noch zweifeln viele an der Machbarkeit der Idee. Aber zu einem Wiki gehört schließlich auch das Scheitern, so ist auf der Wikinews-Seite zu lesen. Und weiter heißt es dort: »Wir haben das Recht und die Möglichkeit, Ideen einfach auszuprobieren. Wenn sie schiefgehen, tut es in der Regel nicht weh. In einem Jahr werden wir hoffentlich eine lange Liste von gescheiterten Ansätzen, idealerweise samt Analyse ihres Scheiterns und alternativen Handlungsoptionen, vorweisen können. Andernfalls ist das Projekt eingeschlafen - zumindest vorläufig: It's still a wiki.«

Klaus Fehling

© 2005 StadtRevue Köln Magazin