Schlagwort-Archive: Wissenschaft

ZB-Kolloquium zur Zitierbarkeit von Wikipedia

nichtzitierfaehig

Erstmals führte die Zentralbibliothek am letzten Dienstag ein Kolloquium am Mittag durch, und behandelte gleich ein Thema, das dem Zuschaueraufmarsch nach zu urteilen von grossem Interesse zu sein scheint: Wikipedia und die Wissenschaften. Geleitet wurde das Kolloquium von ZB-Bibliothekar Magnus Wieland und wurde unterstützt von Nando Stöcklin von der PH Bern, der zugleich Pressesprecher der Wikimedia Foundation Schweiz ist und in unserem Weblog auch schon Erwähnung gefunden hat. Vor wenigen Wochen haben die beiden Referenten bereits in einer öffentlichen Veranstaltung die Frage behandelt, wie Wikipedia genutzt werden kann. Nun richtete sich die Veranstaltung der ZB, die sich ja aktiv an Wikipedia beteiligt, an die wissenschaftlichen Nutzer/innen, wie im letzten April auch das von Peter Haber an der Universität Basel ausgerichtete Werkstattgespräch. Weiterlesen

Chronologs: Geschichtsblog des Monats April 2008

Chronologs

Chronologs ist in mancher Hinsicht eine bemerkenswerte Ausnahme in der Geschichts-Blogosphäre: Es handelt sich nicht nur um einen, sondern gleich um mehrere geschichtlich ausgerichtete Weblogs. Und sie tummeln sich in einem kommerziellen Umfeld: Sie sind Teil des Webauftritts des Verlags „Spektrum der Wissenschaft„, der eine ganze Reihe von Weblogs hostet – naturwissenschaftliche und historische. Interessantes, nicht unwesentliches Detail: wer will, kann sich mit seinem Blog-Projekt anmelden und (falls der Verlag einverstanden ist) auf die Chronologs-Plattform aufspringen. Weiterlesen

Das „Risorgimento“ in Wikipedia: Kleiner Praxis-Bericht

Eine kleine Veranschaulichung, wie und unter welchen Bedingungen Wikipedia nicht nur als Nachschlage-Werk hilfreich sein kann, sondern sogar zu neuen Einsichten und Erkenntnissen führen kann: Ich suchte für die Vorbereitung einer Sitzung nach Grundlagen-Material zur italienischen Geschichte des 19. Jahrunderts, konkreter zum Risorgimento. Weiterlesen

Kompetenzen, Theorien, Medien (?) der Geschichte

Wenn Kollega Haber schon darauf hinweist, sollen hier auch ein paar Worte darüber verloren werden, über meine Reise nach Eichstätt im malerischen Altmühltal (die schöne landschaftliche Lage muss man sich mit schlechten Bahnverbindungen erkaufen), wo an der katholischen Universität ziemlich intensiv Geschichtsdidaktik betrieben wird, was dank eines umfassenden mehrjährigen Forschungsprojektes auch in Zukunft so sein wird.

Die Tagung konzentrierte sich primär auf die Frage, über welche Kompetenzen Lehrpersonen verfügen müssen, um bei Ihren Schüler/innen Kompetenz fördern und diagnostizieren zu können; also um „Kompetenzen zweiter Ordnung“. Und da die Geschichtsdidaktiker/innen diese Lehrpersonen ausbilden, müssen die ja auch Kompetenzen-kompetent sein. Bin ich in der Lage, bei meinen Lehramts-Studierenden festzustellen, ob sie ihre Schüler/innen in der Entwicklung ihrer Kompetenzen fördern können, muss ich folgerichtig kompetenzförderkompetenzdiagnosekompetent sein.
Weiterlesen

Die letzten Zuckungen eines maroden Marktes?

buchzentrum.jpg

Vor einigen Tagen ist in inetbib eine heftige Diskussion über den Verlag Dr. Müller oder auch VDM-Verlag (was ja schon Unsinn ist, wenn doch „Verlag“ in der Abkürzung enthalten ist) entbrannt. Dieser Verlag produziert jährlich Hunderte Bücher von zum Teil fragwürdigster Qualität und verkauft sie zu haarsträubenden Preisen an wissenschaftliche Bibliotheken. Zu den zahllosen Schwerpunkten des Verlages gehört auch der Bereich Bibliothekswesen. Die Mehrheit der Arbeiten basiert auf Diplomarbieten und erfüllt nur selten die Anforderungen an eine wissenschaftliche Arbeit.

Eric Steinhauer, promovierter Jurist und Bibliotheksrat an der Bibliothek der Technischen Universität in Ilmenau/Thür, hat in seinem Weblog Skriptorium das Thema aufgegriffen und den Büchermarkt für Diplomarbeiten kurz skizziert (übrigens: ein äusserst lesenswertes Weblog!)

Mein Eindruck ist, dass im wissenschaftlichen Büchermarkt, der alles in allem äusserst marode ist, nun so eine Art von letzte Schlachtenrunde läuft. Bevor der Markt endgültig zusammenbrechen wird, versuchen einige Verlage noch einmal so viel Geld wie möglich abzuschöpfen. Mit dem bevorstehenden Kollaps meine ich übrigens weder die populärwissenschaftlichen Bücher noch den Bereich, der in einer internationalen Liga spielt, sondern den Niedrigstauflagenbereich von Sammel- und Tagungsbänden, Dissertationen und Diplomarbieten, der nur Dank DFG- und SNF-Geldern überleben kann.

Einen schönen Einblick in das Feld der geschichtswissenschaftlichen Buchproduktion gewährt der Sammelband (ja, manchmal gibt es auch gute …) von Olaf Blaschke und Hagen Schulze:

Olaf Blaschke / Hagen Schulze (Hg.): Geschichtswissenschaft und Buchhandel in der Krisenspirale? Eine Inspektion des Feldes in historischer, internationaler und wirtschaftlicher Perspektive, München: Oldenbourg 2006

Eine kurze Rezension des Buches gibt es bei sehepunkte.

Buch der Woche: Perspektiven der Forschung

dfg2007-2011.jpg

Alle vier Jahre bilanziert die Deutsche Forschungsgemeinschaft ihre Arbeit in Form eines Berichtes, der jeweils auch in Buchform erscheint. Ziel ist, die Arbeit der letzten Jahre zu verbinden mit einem exemplarischen Ausblick auf die zu erwartende Wissenschaftentwicklung der nächsten Zeit. Nun liegt der 12. Band in dieser Reihe vor.

Auffallend dabei ist, dass – anders als bei ähnlichen Berichten aus der Schweiz – die Geisteswissenschaften nichts als eine randständige Last auftauchen, sondern als selbstverständlicher Teil des wissenschaftlichen Lebens dargestellt werden. So lesen wir in diesem Buch Beiträge vom Theologen Hubert Wolf („Von guten Gutachtern und schlechten Zensoren“) ebenso wie von der renommierten Historikerin Ute Frevert („Internationalisierung: Schlagwort oder Problem?“). Für weitere Informationen siehe hier.

Deutsche Forschungsgemeineschaft: Perspektiven der Forschung und ihrer Förderung. Aufgaben und Finanzierung 2007-2011, Weinheim 2008. 256 S., 49.90 €.

Das Buch der Woche: Geschichte. Ein Grundkurs

goertz.jpg

Das heutige Buch der Woche hat eigentlich mit digitaler Geschichtswissenschaft oder Neuen Medien gar nichts zu tun. Trotzdem möchten wir es heute hier kurz vorstellen, denn es ist ein hifreiches Kompendium durch die vielen Themen und Felder der aktuellen Geschichtsdebatten. Für die kürzlich erschienene dritte Auflage des von Hans-Jürgen Goertz herausgegebenen „Grundkurses“ wurden zahlreiche Beiträge gründlich überarbeitet und drei neue Themen fanden Eingang in das dickleibige, 860 Seiten umfassende Buch: Linguistic Turn, Diskursanalyse und Globalgeschichte.

Die drei Grosskapitel des Buches sind überschreiben mit „Der historische Erkenntnisprozess“, „Epochen der Geschichtsschreibung, historische Fächer und Spezialdisziplinen“ sowie „Konzeptualisierung von Geschichte“. Die einzelnen Beiträge sind dicht und knapp und mit weiterführenden Literaturhinweisen versehen. Die Themenpalette ist sehr gross, von der Kirchengeschichte über die „Varianten des historischen Erzählens“ bis hin zu Geschichtsdidaktik und Geschichtstheorie sind die meisten heute im Feld der Geschichtswissenschaft diskutierten Themen angesprochen.

Dass das Thema der Medialität der Geschichte und mithin die Frage nach den Auswirkungen des digitalen Zeitalters auf die Geschichtswissenschaft in einem Grundkurs gar keine Erwähnung findet, erstaunt auf den ersten Blick. Bleibt zu hoffen, dass in der vierten Auflage auch diese Aspekte Eingang finden werden.

Goertz, Hans-Jürgen (Hrsg.): Geschichte. Ein Grundkurs, Reinbek 2007 (3. Auflage).

Zitieren von und in Weblogs

blogzitat1.pngIn der Wissenswerkstatt (welch passender Name für einen Wissenschaftsblog), die von Marc Scheloske geführt wird, ((Scheloske steht auch hinter dem Wissenschafts-Café, das wir hier kürzlich erwähnt haben)) habe ich zwei Beiträge gefunden, die sich aus unterschiedlicher Warte mit der wissenschaftlich elementaren Arbeitstechnik des Zitierens befassen: Wann darf man im wissenschaftlichen Kontext aus Weblogs zitieren, und wie? Und welche Regeln gelten für Zitate in Weblogs? Weiterlesen

weblog.hist.net im wissenschafts-café

Für einen Kaffee (respektive Espresso, im Falle von Kollege Haber) sind wir ja jederzeit gerne zu haben. Umso erfreulicher finde ich, dass wir vor kurzem ins Wissenschafts-Café eingeladen wurden. Dabei handelt es sich um ein Projekt von Mark Scheloske, das als Portal einen Überblick über wissenschaftliche Spuren in der Blogosphäre ermöglichen will. Verschiedene Weblogs werden dort kurz charakterisiert (in der Regel mit Selbstdarstellungen) und mit anderen, ähnlichen Weblogs verlinkt (clever gemacht). Man kann dort nicht nur die einzelnen Einträge kommentieren, sondern auch Bewertungen vornehmen. Also, wer schon immer Lust hatte, uns Noten zu geben, kann sich beim Eintrag zu weblog.histnet.ch austoben…

WorldWideScience-Portal jetzt online

wws500.png

CORDIS, der offizielle Nachrichtendienst der EU zum Thema Forschungspolitik, meldet: «Ein neues weltweites Wissenschaftsportal ist jetzt online und bietet Forschern und dem interessierten Publikum freien Zugang zu über 200 Millionen Seiten internationaler Forschungsinformationen. WorldWideScience.org wurde gemeinsam von der British Library und dem US-Ministerium für Energie (Department of Energy, DOE) zusammen mit wissenschaftlichen und technologischen Organisationen aus Dänemark, Frankreich, Deutschland, den Niederlanden, Australien, Brasilien, Kanada und Japan entwickelt.»

Wikipedia aufgemotzt

wikimindmap500.jpg

Dass Wikipedia als Quelle für wissenschaftliche Arbeiten nicht taugt, scheint mir weitgehend unbestritten und im Grunde genommen hat die Frage, ob man nun aus Wikipedia zitieren darf oder nicht, auch nur einen ziemlich beschränktem intellektuellen Nährwert. Wer das Bedrüfnis verspürt, in seiner wissenschaftlichen Arbeit Wikipedia als (Haupt-)Quelle zu nutzen, ist vermutlich an einer Universität sowieso nur suboptimal gut aufgehoben. Das heisst aber nicht, dass man Wikipedia nicht wissenschaftlich nutzen kann – und soll. Die Transparenz und die Komplexität des Redaktionssystems, mit dem Wikipedia erstellt wird, eignet sich nämlich ausgezeichnet, um zum Beispiel diskursive Konjunkturen und semantische Netzwerke zu analysieren. Spannend wird dies, wenn man für diese Arbeiten auf entsprechende Tools zurückgreifen kann. Sehr praktisch ist zum Beispiel Wikipedia Page History Statistics, das hilft, die Bearbeitungsverläufe einzelner Wikipedia-Seiten zu analysieren. Hübsch ist auch das Tool Wikimindmap, das den Kontext einzelner Begriffe visuell darstellt. Wir sammeln weitere hilfreiche Instrumente auf unserer Wiki-Seite, das für Ergänzungen und Kommentare offen steht.

Geschichte digital

Wieder einmal gilt es, eine neue Publikationen zur Situation und Befindlichkeit der Geschichtswissenschaften im digitalen Zeitalter anzuzeigen:

Hering, Rainer / Sarnowsky, Jürgen / Schäfer, Christoph / Schäfer, Udo (Hrsg.): Forschung in der digitalen Welt. Sicherung, Erschließung und Aufbereitung von Wissensbeständen, Hamburg 2006 (= Veröffentlichungen aus dem Staatsarchiv der Freien und Hansestadt Hamburg; 20).

Das rund 200 Seiten umfassende Buch gibt es auch komplett als digitale Edition zum kostenlos herunterladen und die Texte repräsentieren einen spannenden Mix von essayistischen Beobachtungen und konkreter Quellenarbeit. Ausführlichere Leseeindrücke folgen in Bälde!

Aus der Welt der Wikis: Die vielen Einzelnen und das eine Kollektiv in Wikipedia

Internet-Autorität (wobei, was heisst das schon?) Jaron Lanier (Bio bei Wikipedia/Stanford University/Laniers Website) rechnet in seinem Essay „Digital Maoism“ ab mit dem Hype um den HiveMind, die Schwarmintelligenz, die ich hier (als „kollektive Intelligenz“) und hier (als „Weisheit der Vielen“) auch schon erwähnte und die immer wieder gerne zitiert wird im Zusammenhang mit allen möglichen Aspekten des „web 2.0“ und der Tätigkeiten der Internet-Communities.

Dabei plädiert Lanier für eine Kombination von kollektiver und individueller Intelligenz, die mit ihren jeweiligen Stärken ihre jeweiligen Schwächen auszugleichen vermögen. Genau genommen wehrt sich Lanier lediglich dagegen, der kollektiven Intelligenz eine alles lösende Macht zuzuschreiben und geisselt die Tendenz, mit dem Schlagwort von kollektiver Intelligenz Verantwortung zu vermeiden und den Wert des Individuums gering zu schätzen. Zugespitzt sieht er die Gefahr in der Vorstellung, das Internet selber werde durch die kollektive Intelligenz zu einem handelnden und denkenden Subjekt.

The beauty of the Internet is that it connects people. The value is in the other people. If we start to believe that the Internet itself is an entity that has something to say, we’re devaluing those people and making ourselves into idiots.

Nun führte es zu weit, den ur-amerikanischen Topos des „freien Individuums“ in seiner digitalen Ausprägung und sein Erscheinen in der Argumentation von Lanier genauer zu analysieren. Doch bleibt bei mir eine gewisse Skepsis bei seiner Kritik an der kollektiven Intelligenz bestehen, die ja nun wirklich nicht einfach „Die Intelligenz des Internets“, sondern durch das Zusammenwirken von Individuen entsteht.

Lanier wendet sich zwar nirgends explizit gegen Wikipedia, aber doch gegen die (seiner Ansicht nach) dahinter stehende Vorstellung davon, dass eine unpersönliche Gestalt namens „Kollektiv“ eine Enzyklopädie bauen und irgendwie auch automatisch für seine Qualität bürgen werde. Stattdessen brauche es Individuen, welche die Qualität kontrollierten. Nun, was ist Wikipedia anderes als eine Ansammlung von Individuen, die jeweils ihre Interessen verfolgen und darüber kommunizieren? Und was machen die Nutzer und Administratoren (alles Individuen) anderes, als Qualität beständig zu überprüfen? Die Rolle der Einzelnen in der Wikipedia wurde bereits mehrfach (und zwar auch von Gründer Jimmy Wales selbst) skizziert: Dass sich nur wenige tausend Autoren, die sich mit dem Projekt identifizieren, mit einer Grosszahl an „Edits“ (Bearbeitungen von Texten) an der Entwicklung der Wikipedia beteiligten (Link muss ich noch nachliefern, zitiert wird Wales von Swartz im folgenden Link). Zugespitzt: einige wenige schreiben und entwickeln die Artikel, die grosse Masse korrigiert vereinzelte Kommafehler. Aaron Swartz hat neuerdings genau die umgekehrte These vertreten, die noch stärker die Paradoxie von Kollektiv und Individuum beleuchtet (Who writes Wikipedia? – Deutsche Übersetzung von Tim Bartels in Wikipedistik). Swartz vermutet (nach der Analyse einiger Artikel), dass Aussenseiter (oft anonyme Sachexperten) einen Sachverhalt einmal grundsätzlich schreiben, und diese dann in vielen Einzelschritten von der „Kerngruppe“ geordnet, geglättet und strukturiert wird. Der Blog „Social Software“ erklärt das mit einem bekannten Modell: Autoren schreiben, Redaktoren überarbeiten. Ist das nun „Schwarmintelligenz“?

Letztlich geht es ja nicht um „Kollektiv“ und „Individuum“, sondern (meiner Ansicht nach) um Zufall gegen Planung und dann um Entscheidungs- und Gestaltungs-Macht. Wie die Debatte zwischen Exklusionisten und Inklusionisten zeigt, ist das Spannende (und zugleich Ärgerliche) an Wikipedia die Rolle des Zufalls bei der Auswahl und Gestaltung der Artikel. Die Exklusionisten wollen alle „seichten“ Einträge, die nicht in ein richtiges, akzeptiertes Lexikon mit kanonisiertem, wissenschaftlichen Wissen gehören, aus Wikipedia streichen. Aber zuweilen gehören gerade die Artikel über die so genannten Trivia zu den besseren (weil persönlicheren); zum anderen machen gerade diese Artikel den interessante Mix von Wikipedia aus. Es gibt keinen „Masterplan“, der top-down die Wissensinhalte strukturiert, sondern die Inhalte entstehen bottom-up und chaotisch – wie das Internet als Ganzes ja auch. Und wie ich das verstehe, ist gerade das chaotische Entstehen eines

Deshalb gibt es in Wikipedia die Möglichkeit, aufgrund eines Masterplans Inhalte oder Autor/innen ein- oder auszuschliessen. Es gibt Regeln dafür, aber vor allem beständige Aushandlungsprozesse, die auf flexible Kriterien hindeuten; bis hin zum Risiko der Willkür. Aber ist das Kollektivismus? Vielleicht verstehe ich auch Laniers Vorwurf nicht ganz (oder das Prinzip der Schwarmintelligenz oder beides). Jedenfalls diskutieren in den einzelnen Artikeln und zu den jeweiligen Fragen zur Gestaltung der Wikipedia sehr konkrete einzelne Individuen. (Allerdings – dies ist Stärke und Schwäche zugleich – können diese auch anonym bleiben). Problematisch wird dies dort, wo statt Konsens verkappte Mehrheitsentscheide „durchgedrückt“ werden – also derjenige oder diejenige Recht behält, der oder die den längeren Atem hat.

Kollektivistisch (um wieder auf diese Frage zurückzukommen) im Sinne der Schwarmintelligenz ist nach meiner Einschätzung die Annahme, dass früher oder später die Enzyklopädie als Ganzes durch wundersame Selbstheilkräfte von selbst auf ein akzeptables Niveau gelangen kann. Dies halte ich anders als Lanier nicht für naiv oder gefährlich, sondern einfach für wenig wahrscheinlich. Ich vermute, diese kollektive Intelligenz wird nicht spielen: Die Unterschiede werden bleiben (wenngleich vielleicht nicht so ausgeprägt) und sie sind stark von der zufälligen Konstellation abhängig, ob sich sachkompetente Individuen zusammenfinden, die ein Thema behandeln, das sich gut für enzyklopädische Abhandlung eignet, und sich auf einen Konsens bei der Darstellung des Themas einigen können. Gute Artikel leben vom Engagement von Menschen, die sich um diese guten Artikel kümmern – genauso lebt die Wikipedia vom Engagement einer Gruppe von Menschen, die sich (aus welchen Gründen auch immer) für diese Projekt einsetzen (siehe Aaron Swartz: Who runs Wikipedia? Ich habe mir die Frage auch schon gestellt, aber nicht so gut beantwortet.)

Und bei diesen Diskussionen geht es – natürlich – auch um Entscheidungsmacht. Diese ist bei Wikipedia (wie oft in solchen Community-basierten Projekten des web 2.0) nicht abgeleitet aus einer hierarchischen, auf (angenommener, oft auch behaupteter) Sachkompetenz beruhender Struktur (Abteilungs-, Forschungsleiter, Herausgeber, Lektor), sondern eher auf einer auf Engagement und Tätigkeitsausweis beruhender Meritokratie. Aber Konflikte wie jene von Bertrand Meyer, der noch vor wenigen Monaten Wikipedia lobte, und nun verzweifelt das Handtuch wirft, weil er sich mit seiner Auffassung eines Sachverhalts in einem spezifischen Artikel der Wikipedia nicht durchsetzen kann, gibt es auch in „Offline“-Situationen. Menschen haben verschiedene Ansichten, sie streiten darüber, am Schluss können sich gewisse Personen mit ihren Ansichten durchsetzen und – nein, auch in der Wissenschaft sind es nicht immer die wissenschaftlichen Argumente, die ausschlaggebend sind. In der Wikipedia wird der Konflikt immerhing transparent gemacht – er ist nachzulesen, jeder Interessierte kann sich selbst über den Gang der Argumentation ins Bild setzen. Ob das zum Verständnis des Konflikts bereits ausreicht, ist noch einmal eine andere Frage; ebenso, wer den Prozess überhautp analysieren will.

Jedenfalls scheint mir bei der Debatte um die „wissenschaftliche Gültigkeit“ von Wikipedia das Ergebnis (also die Inhalte) zu Unrecht mehr Beachtung zu finden als der Prozess, durch den die Inhalte entstehen und sich verändern. Hat nicht Jimmy Wales das Wiki-Prinzip treffend zusammengefasst

„The basic thing I think makes it work is turning from a model of permissions to a model of accountability. It isn’t that you are allowed or not allowed to edit a certain thing; it’s when you do it, that change is recorded, and if it’s bad, people can see that.“

Mir scheint, es fehlt noch die Gewohnheit im Umgang mit einem System, in dem ein Modell der „accountability“, also der Verantwortlichkeit im Detail, angewendet wird.

Was mich mehr beschäftigt bei der „kollektiven Intelligenz“ ist die Frage nach der „Aggregation“ bereits vorhandenen Wissens, wie es Wikipedia als Community-basiertes Enzyklopädie-Projekt in Reinkultur darstellt: was wird eigentlich „neu“ geschaffen? Und wer verdient mit dieser Aggregation sein Geld? Und was hat diese (neue?) „Kulturtechnik“ der Aggregation für Auswirkungen auf das wissenschaftliche Arbeiten: hier ist ja das Zusammentragen des Forschungsstandes (=aggregieren) gang und gäbe. Zutreffend bemerkt Lanier:

Accuracy in a text is not enough. A desirable text is more than a collection of accurate references. It is also an expression of personality.

Das gilt bei historischen Texten besonders, auch Rosenzweig hat auf diesen Mangel bei den kollaborativ erstellten Texten der Wikipedia hingewiesen.

Literatur

Aus der Welt der Wikis: Wikipedia bittet darum, nicht zitiert zu werden

Der Begründer von Wikipedia, Jimmy Wales, hat (laut CNet) in einer Rede vor College-Studierenden darum gebeten, dass diese Wikipedia nicht mehr zitieren sollen. Er erhalte wöchentlich etwa zehn Mails von enttäuschten Studierenden, die darüber klagen, dass ihre Dozenten die Nachweise nicht akzeptiert hätten. Wales hält die Verwendung einer Enzyklopädie (auch einer gedruckten…) ohnehin nicht sonderlich geeignet für eine wissenschaftliche Referenz. Er erwägt sogar das Bereitstellen eines Fact-Sheets, das die Zielsetzung von Wikipedia erläutert (und seine beschränkte Tauglichkeit für wissenschaftliche Zwecke), das von den Dozenten an die Studierenden abgegeben werden könnte. Bis dahin gibt es zumindest eine Liste mit „Frequently Asked Questions“ zur Nutzung von Wikipedia in Schulen (und auch Universitäten – leider noch nicht auf Deutsch).

Ob sich die Studierenden nun nicht mehr auf Wikipedia stützen oder dies einfach nicht mehr in ihren Arbeiten nachweisen, würde mich brennend interessieren!

Nachtrag: Ok, ich gestehe es ein, ich war nicht ganz auf der Höhe: Schon letztes Jahr (anlässlich der Seigenthaler-Kontroverse) meinte Jimmy Wales, Wikipedia (oder überhaupt Enzyklopädien) sollte nicht zitiert werden.

Übersicht: Aus der Welt der Wikis.