Schlagwort-Archive: Wiki

Search Wikia: Das Wiki-Prinzip für Suchmaschinen

Wikipedia-Gründer Jimbo Wales will etwas Neues anpacken. Warum nicht, so dachte er sich wohl, die Welt der Suchmaschinen aufmischen. Denn die gängigen Suchmaschinen von Google bis Yahoo seien ohnehin kaputt:

It is broken for the same reason that proprietary software is always broken: lack of freedom, lack of community, lack of accountability, lack of transparency. Here, we will change all that. (J. Wales@Wikia, 23.12.2006)

Drum will Wales ein neues Projekt namens Search Wikia lancieren, das die Entwicklung einer Open-Source-Suchmaschine zum Ziel hat. Der Index soll jedermann zugänglich sein, und die Kriterien, die zur Rangierung der Suchergebnisse herangezogen werden, sollen transparent gemacht werden und sich auf Einschätzungen einer vertrauenswürdigen Community stützen.

Und was meint die Internet-Community dazu? Sie berichtet relativ gelassen und reiht die Wikia-Initiative unter die vielen „Killer“-Meldungen ein von Projekten, die einem erfolgreichen Web-Unternehmen das Fürchten lehren wollen. (Heise, C-net, TechCrunch (mit Screenshot)).

Ach ja, Amazon soll sich an dem Projekt finanziell beteiligen, heisst es da und dort. Allerdings hat Amazon vor allem in die Firma Wikia von Jimbo Wales Geld eingeschossen, zu der Search Wikia gehört. Ein direkter Link von Amazon zu Wikiasari ist nicht bekannt. Und: das Projekt heisst nicht „Wikiasari“ (als Vermengung von Wiki und dem japanischen Wort „Asari“ für „Suchen“), obwohl es in fast allen Meldungen mit diesem Namen bezeichnet wird.

Was das für die Praxis der Internet-Recherche für Historiker und Historiker bedeutet, ist mir noch unklar: Bessere oder andere Suchergebnisse? Oder noch mehr Wikipedia-Artikel? Wir berichten, sobald mehr (und Essentielleres) bekannt ist.

HOK Reden: Über die Zeit

Als Historiker setzen sich von Berufs wegen mit zeitlichen Phänomen auseinander. Gehört da auch das Sinnieren über die Zeit dazu? Mir sind in letzter Zeit einige Gedanken zur Zeit durch den Kopf gegangen, als ich mich mit Fragen der Historischen Online-Kompetenz beschäftigt habe.

Zeit ist eine knappe Ressource. Deshalb erscheint ja, grob vereinfacht, die Informationsflut so bedrohlich. Denn die Zahl von Websites hat sich in den letzten zweieinhalb Jahren verdoppelt, denn Informationen lassen sich fast unbegrenzt vermehren. Die Zeit hingegen, die für Auffinden, Aufnehmen und Auswerten der Informationen benötigt wird, lässt sich nicht vermehren. Zeit kann allenfalls „effizienter genutzt“ werden. Dieser Widerspruch ist die Grundlage der Aufmerksamkeits-Ökonomie, denn was ist Aufmerksamkeit anderes als die zeitliche Beschränkung der Verarbeitungskapazität des Gehirns?

Zeit und Kompetenz
Das ist jetzt nur ein oberflächliches Zusammenfassen von Debatten, die seit langem geführt werden. Doch für mich stellt sich das Problem (nicht nur im Zusammenhang mit der Historischen Online-Kompetenz) ziemlich konkret: wann nehme ich mir die Zeit, die verschiedenen Blogs und Website zu lesen, und diese Informationen noch für meinen Weblog zu verarbeiten?

Da wirkt es paradox, von den Nutzer/innen zu verlangen, dass sie sich selbst kompetent machen sollen für den fachgerechten Umgang mit den Informationen aus dem Internet – aber genau darauf laufen alle Empfehlungen für die Internet-Nutzung hinaus. Die fachliche Überprüfung der Informationen erfolgt durch die Nutzer/innen selbst. Das entspricht der Erfassung von Zahlungsaufträgen durch die Kunden beim Online-Banking. Dafür braucht es aber Zeit: Einerseits, um die notwendigen Kompetenzen zu erwerben, zu schulen und a jour zu halten, und andererseits, um die Überprüfung vorzunehmen.

Schön, den Nutzer/innen zu erklären, wie sie die Qualität einer Internet-Information überprüfen können – in der Alltagswirklichkeit muss es schnell gehen, und da wird das erstbeste, einigermassen plausible Ergebnis verwendet, zum Teil wider besseres Wissen.

Zeit und Projekt
Wieviele Websites kann denn ein Mensch auf Dauer inhaltlich vernünftig betreuen? Und damit meine ich nicht das Handhabung eines Workflows, wenn in Daten in einem Content-Management-System organisiert werden müssen. Nein, ich meine inhaltliche Aufbereitung von Inhalten, das Verfassen von Texten, das Setzen von Links wie hier in diesem Blog. Wieviele? Eine, zwei, vielleicht drei? Und wieviele Websites kann eine Institution betreiben? Eine pro Mitarbeiter, oder weniger?

Ich frage mich, wer denn die hundert Millionen Websites betreut, Tag für Tag. Oder werden die gar nicht alle betreut? Sind da vielleicht viele Datenfriedhöfe oder Web-Bücher dabei?

Mit Web-Büchern meine ich solche Websites, die wie Bücher geplant und produziert wurden. Zwei Jahre lang werden Inhalte zusammengetragen und aufbereitet. Dann gehen die Projektgelder zu Ende, die Website wird nicht mehr betreut, die Inhalte jedoch bleiben weiterhin zugänglich. Denn gerade in den Wissenschaften ist die Generierung von Inhalten noch immer projektartig angelegt, in einer Art, die für die Herstellung des Informationsträgers Buch geeignet ist – aber nicht unbedingt für Websites.

Zeit und Community
Nun werden in letzter Zeit viele Hoffnungen in die Social Software, in die Community gesetzt. Die „Wikipedia-Formel“ sozusagen: man öffnet ein Wiki, und die Inhalte generieren sich gleichsam von selbst, da die „Community“ sich rund um die Uhr für deren Erstellung und Erweiterung zuständig hält.

Aber auch hier ist die Frage zu stellen: an wie vielen Wikis kann ein Mensch sich inhaltlich vertieft beteiligen? An einem, zwei, drei? Vielleicht ist ja Wikipedia überhaupt ein Einzelfall, bzw. ein Ausnahmefall einer dauerhaften Beteiligung einer genügend grossen Menge von Menschen an einem gemeinsamen Projekt? Vielleicht kann es nur ein Wikipedia geben?

Oder ist es nur eine Frage der Übung? Brauchen wir noch ein entsprechendes jahrelanges Training, bis wir in mehreren Foren, Wikis und Blogs pointiert unsere Stellungnahmen plazieren können, ohne die eigene Tätigkeit total zu vernachlässigen?

Übersicht HOK Reden

HOK Lesen: Suchen und Finden: Google macht in Wikis

Google hat letzte Woche die Firma JotSpot aufgekauft, die Wikis mit einfacher zu bedienender Benutzeroberfläche anbietet. CNet bringt die Strategie von Google (unter dem plakativen Titel „Google goes wild for wikis„) mit einem Zitat eines (der vielen) Experten auf den Punkt:

Why pick a fight with where Office is today when you can look at where the Web is going tomorrow?

Google denkt über die Suchmaschinen-Technologien hinaus und versucht, Terrain in jenen technologischen Bereichen zu besetzen, wo in Zukunft die alltägliche Arbeit stattfinden wird. Nach dem Motto: Heute mag Microsoft mit Windows und Office einen De-Facto-Standard setzen. Morgen wird es Google sein.

Was heisst das für die Wiki-Technologie? Wird die jetzt in Google „eingemeindet“? Lohnt es ich gar nicht mehr, sich mit Wikis auseinander zu setzen? Beat Döbeli weist darauf hin, dass die Technologie sich ändern oder verschwinden mag. Entscheidend sind die Prinzipien, welche die Art der Kommunikation in Wikis prägen: die einfache Art, gemeinsam Inhalte zu erstellen, zu verändern, zu diskutieren und die Entstehung der Inhalte nachzuverfolgen. Mit welcher Technologie dies erreicht wird, ist nicht so wichtig.

P.S.: Ja, ich habe mir auch die Frage gestellt, wann Google wohl Wikipedia übernimmt. Das ist aber nicht so einfach, da Wikipedia keine Firma ist. Zudem: die Wikipedia-Inhalte sind schon sehr prominent im Google-Such-Index vertreten.

Übersicht: HOK Lesen: Suchen und Finden

Aus der Welt der Wikis: DRSWiki – kollaborativ Radio-Geschichte schreiben

Das Schweizer Radio (bzw. die Schweizerische Rundfunkanstalt) DRS hat im letzten Jahr ein interessantes Projekt gestartet: ein Wiki, das die Geschichte des Schweizer Radios darstellen soll. Mitarbeiten kann, wer will (und sich registriert – es gelten also mehr oder minder die gleichen Regeln wie bei wiki.hist.net).

Eine erste, vorläufige Zwischenbilanz: das Projekt wirkt noch sehr unvollständig, nur wenige Leute arbeiten mit, und folglich gibt es nur wenige neue Artikel und Überarbeitungen bestehender Artikel. Und doch: es wird kontinuierlich an diesem Wiki gearbeitet.

Es scheint nicht so einfach, mit Wikis grössere Projekte durchzuführen; Wikipedia ist wohl eher die Ausnahme, was den Schneelawinen-Effekt der Mitarbeit angeht. An einem Enzyklopädie-Projekt können (und wollen) mehr Leute mitwirken, weil ihr Interesse grösser ist (und die Wahrscheinlichkeit, dass sie etwas beizutragen haben). Zudem ist das Format klar (was und wie soll ich schreiben) und die Mitwirkungshürde bei Wikipedia (anonymes Beitragen ist möglich) niedrig.

Ich bin gespannt, wie sich dieses Radio-Wiki-Projekt entwickelt und zu welcher Form historischer Darstellung es führt.

Übersicht: Aus der Welt der Wikis

HOK Lesen/Schreiben: Stuff & Stir

Ich nutze eine kleine Gelegenheit, den historischen mit dem Online-Teil bei der Historischen Online-Kompetenz zu verbinden. Via Beats Blog bin ich auf die Unterscheidung zwischen Stuff and Stir in der Online-Didaktik (=eLearning) gestossen. Die Bezeichnung wurde vermutlich von Allison Rossett geprägt. Stuff steht für vorgegebene, stoffbasierte, zuweilen auch hochkomplexe und interaktive programmierte eLearning-Szenarien (Lernumgebungen und Online-Kurse), die vor allem für individuelles Selbstlernen genutzt werden. Stir steht für informelle Umgebungen, in welchen die Teilnehmer/innen sich vor allem selber organisieren, miteinander kommunizieren und die Themen und Fragestellungen selber formulieren müssen, also gemeinschaftlich lernen.

Nun, vereinfacht gesagt geht es da um den Gegensatz von Konstruktivismus (=Stir), den die Geschichtsdidaktik seit Jahrzehnten als bevorzugten Weg zu historischem Wissen (oder zu historischen Kompetenzen) postuliert, und Instruktionismus (=Stuff), der im real existierenden Geschichtsunterricht noch immer vorherrscht.

Die Geschichtswissenschaft neigt zur Gewissheit, in der Hochschullehre herrsche ein (geschichtstheoretisch begründetes) konstruktivistisches Paradigma. Ich wage das etwas zu bezweifeln. Nur weil man den Studierenden (abgesehen von inhaltlich vollgestopften und haarscharf am Instruktionismus vorbeischrammenden Einführungskursen) kaum Anleitung bei der Erlernung des geschichtswissenschaftlichen Handwerks zu teil werden lässt, sollte man nicht auf konstruktivistische didaktische Ansätze schliessen.

Vielleicht lohnte es sich, da einmal zwei Sekunden länger darüber nachzudenken, ehe man die „Copy/Paste“-Mentalität der Studierenden beklagt (dazu mehr unter dem Stichwort „Aggregatoren“).

Um auf Stuff and Stir zurückzukommen. Wo sind die Konzepte und Ideen, ICT/Neue Medien im Sinne des „Stir“ auch in den Geschichtswissenschaften (in Lehre und Forschung) anzuwenden? Insbesondere die Komponente des „gemeinschaftlichen“ (oder auch kollaborativen) Lernens ist ja meines Erachtens noch wenig ausgelotet worden. Darin fliessen die Kompetenz-Dimensionen des Lesens und des Schreibens in der Praxis zusammen. Eine erste (noch sehr luftig-abstrakte) Idee habe ich mit dem „hist.collaboratory“ mal skizziert. (PrePrint zum Download).

Übersicht: HOK Lesen/Schreiben

Aus der Welt der Wikis: Die vielen Einzelnen und das eine Kollektiv in Wikipedia

Internet-Autorität (wobei, was heisst das schon?) Jaron Lanier (Bio bei Wikipedia/Stanford University/Laniers Website) rechnet in seinem Essay „Digital Maoism“ ab mit dem Hype um den HiveMind, die Schwarmintelligenz, die ich hier (als „kollektive Intelligenz“) und hier (als „Weisheit der Vielen“) auch schon erwähnte und die immer wieder gerne zitiert wird im Zusammenhang mit allen möglichen Aspekten des „web 2.0“ und der Tätigkeiten der Internet-Communities.

Dabei plädiert Lanier für eine Kombination von kollektiver und individueller Intelligenz, die mit ihren jeweiligen Stärken ihre jeweiligen Schwächen auszugleichen vermögen. Genau genommen wehrt sich Lanier lediglich dagegen, der kollektiven Intelligenz eine alles lösende Macht zuzuschreiben und geisselt die Tendenz, mit dem Schlagwort von kollektiver Intelligenz Verantwortung zu vermeiden und den Wert des Individuums gering zu schätzen. Zugespitzt sieht er die Gefahr in der Vorstellung, das Internet selber werde durch die kollektive Intelligenz zu einem handelnden und denkenden Subjekt.

The beauty of the Internet is that it connects people. The value is in the other people. If we start to believe that the Internet itself is an entity that has something to say, we’re devaluing those people and making ourselves into idiots.

Nun führte es zu weit, den ur-amerikanischen Topos des „freien Individuums“ in seiner digitalen Ausprägung und sein Erscheinen in der Argumentation von Lanier genauer zu analysieren. Doch bleibt bei mir eine gewisse Skepsis bei seiner Kritik an der kollektiven Intelligenz bestehen, die ja nun wirklich nicht einfach „Die Intelligenz des Internets“, sondern durch das Zusammenwirken von Individuen entsteht.

Lanier wendet sich zwar nirgends explizit gegen Wikipedia, aber doch gegen die (seiner Ansicht nach) dahinter stehende Vorstellung davon, dass eine unpersönliche Gestalt namens „Kollektiv“ eine Enzyklopädie bauen und irgendwie auch automatisch für seine Qualität bürgen werde. Stattdessen brauche es Individuen, welche die Qualität kontrollierten. Nun, was ist Wikipedia anderes als eine Ansammlung von Individuen, die jeweils ihre Interessen verfolgen und darüber kommunizieren? Und was machen die Nutzer und Administratoren (alles Individuen) anderes, als Qualität beständig zu überprüfen? Die Rolle der Einzelnen in der Wikipedia wurde bereits mehrfach (und zwar auch von Gründer Jimmy Wales selbst) skizziert: Dass sich nur wenige tausend Autoren, die sich mit dem Projekt identifizieren, mit einer Grosszahl an „Edits“ (Bearbeitungen von Texten) an der Entwicklung der Wikipedia beteiligten (Link muss ich noch nachliefern, zitiert wird Wales von Swartz im folgenden Link). Zugespitzt: einige wenige schreiben und entwickeln die Artikel, die grosse Masse korrigiert vereinzelte Kommafehler. Aaron Swartz hat neuerdings genau die umgekehrte These vertreten, die noch stärker die Paradoxie von Kollektiv und Individuum beleuchtet (Who writes Wikipedia? – Deutsche Übersetzung von Tim Bartels in Wikipedistik). Swartz vermutet (nach der Analyse einiger Artikel), dass Aussenseiter (oft anonyme Sachexperten) einen Sachverhalt einmal grundsätzlich schreiben, und diese dann in vielen Einzelschritten von der „Kerngruppe“ geordnet, geglättet und strukturiert wird. Der Blog „Social Software“ erklärt das mit einem bekannten Modell: Autoren schreiben, Redaktoren überarbeiten. Ist das nun „Schwarmintelligenz“?

Letztlich geht es ja nicht um „Kollektiv“ und „Individuum“, sondern (meiner Ansicht nach) um Zufall gegen Planung und dann um Entscheidungs- und Gestaltungs-Macht. Wie die Debatte zwischen Exklusionisten und Inklusionisten zeigt, ist das Spannende (und zugleich Ärgerliche) an Wikipedia die Rolle des Zufalls bei der Auswahl und Gestaltung der Artikel. Die Exklusionisten wollen alle „seichten“ Einträge, die nicht in ein richtiges, akzeptiertes Lexikon mit kanonisiertem, wissenschaftlichen Wissen gehören, aus Wikipedia streichen. Aber zuweilen gehören gerade die Artikel über die so genannten Trivia zu den besseren (weil persönlicheren); zum anderen machen gerade diese Artikel den interessante Mix von Wikipedia aus. Es gibt keinen „Masterplan“, der top-down die Wissensinhalte strukturiert, sondern die Inhalte entstehen bottom-up und chaotisch – wie das Internet als Ganzes ja auch. Und wie ich das verstehe, ist gerade das chaotische Entstehen eines

Deshalb gibt es in Wikipedia die Möglichkeit, aufgrund eines Masterplans Inhalte oder Autor/innen ein- oder auszuschliessen. Es gibt Regeln dafür, aber vor allem beständige Aushandlungsprozesse, die auf flexible Kriterien hindeuten; bis hin zum Risiko der Willkür. Aber ist das Kollektivismus? Vielleicht verstehe ich auch Laniers Vorwurf nicht ganz (oder das Prinzip der Schwarmintelligenz oder beides). Jedenfalls diskutieren in den einzelnen Artikeln und zu den jeweiligen Fragen zur Gestaltung der Wikipedia sehr konkrete einzelne Individuen. (Allerdings – dies ist Stärke und Schwäche zugleich – können diese auch anonym bleiben). Problematisch wird dies dort, wo statt Konsens verkappte Mehrheitsentscheide „durchgedrückt“ werden – also derjenige oder diejenige Recht behält, der oder die den längeren Atem hat.

Kollektivistisch (um wieder auf diese Frage zurückzukommen) im Sinne der Schwarmintelligenz ist nach meiner Einschätzung die Annahme, dass früher oder später die Enzyklopädie als Ganzes durch wundersame Selbstheilkräfte von selbst auf ein akzeptables Niveau gelangen kann. Dies halte ich anders als Lanier nicht für naiv oder gefährlich, sondern einfach für wenig wahrscheinlich. Ich vermute, diese kollektive Intelligenz wird nicht spielen: Die Unterschiede werden bleiben (wenngleich vielleicht nicht so ausgeprägt) und sie sind stark von der zufälligen Konstellation abhängig, ob sich sachkompetente Individuen zusammenfinden, die ein Thema behandeln, das sich gut für enzyklopädische Abhandlung eignet, und sich auf einen Konsens bei der Darstellung des Themas einigen können. Gute Artikel leben vom Engagement von Menschen, die sich um diese guten Artikel kümmern – genauso lebt die Wikipedia vom Engagement einer Gruppe von Menschen, die sich (aus welchen Gründen auch immer) für diese Projekt einsetzen (siehe Aaron Swartz: Who runs Wikipedia? Ich habe mir die Frage auch schon gestellt, aber nicht so gut beantwortet.)

Und bei diesen Diskussionen geht es – natürlich – auch um Entscheidungsmacht. Diese ist bei Wikipedia (wie oft in solchen Community-basierten Projekten des web 2.0) nicht abgeleitet aus einer hierarchischen, auf (angenommener, oft auch behaupteter) Sachkompetenz beruhender Struktur (Abteilungs-, Forschungsleiter, Herausgeber, Lektor), sondern eher auf einer auf Engagement und Tätigkeitsausweis beruhender Meritokratie. Aber Konflikte wie jene von Bertrand Meyer, der noch vor wenigen Monaten Wikipedia lobte, und nun verzweifelt das Handtuch wirft, weil er sich mit seiner Auffassung eines Sachverhalts in einem spezifischen Artikel der Wikipedia nicht durchsetzen kann, gibt es auch in „Offline“-Situationen. Menschen haben verschiedene Ansichten, sie streiten darüber, am Schluss können sich gewisse Personen mit ihren Ansichten durchsetzen und – nein, auch in der Wissenschaft sind es nicht immer die wissenschaftlichen Argumente, die ausschlaggebend sind. In der Wikipedia wird der Konflikt immerhing transparent gemacht – er ist nachzulesen, jeder Interessierte kann sich selbst über den Gang der Argumentation ins Bild setzen. Ob das zum Verständnis des Konflikts bereits ausreicht, ist noch einmal eine andere Frage; ebenso, wer den Prozess überhautp analysieren will.

Jedenfalls scheint mir bei der Debatte um die „wissenschaftliche Gültigkeit“ von Wikipedia das Ergebnis (also die Inhalte) zu Unrecht mehr Beachtung zu finden als der Prozess, durch den die Inhalte entstehen und sich verändern. Hat nicht Jimmy Wales das Wiki-Prinzip treffend zusammengefasst

„The basic thing I think makes it work is turning from a model of permissions to a model of accountability. It isn’t that you are allowed or not allowed to edit a certain thing; it’s when you do it, that change is recorded, and if it’s bad, people can see that.“

Mir scheint, es fehlt noch die Gewohnheit im Umgang mit einem System, in dem ein Modell der „accountability“, also der Verantwortlichkeit im Detail, angewendet wird.

Was mich mehr beschäftigt bei der „kollektiven Intelligenz“ ist die Frage nach der „Aggregation“ bereits vorhandenen Wissens, wie es Wikipedia als Community-basiertes Enzyklopädie-Projekt in Reinkultur darstellt: was wird eigentlich „neu“ geschaffen? Und wer verdient mit dieser Aggregation sein Geld? Und was hat diese (neue?) „Kulturtechnik“ der Aggregation für Auswirkungen auf das wissenschaftliche Arbeiten: hier ist ja das Zusammentragen des Forschungsstandes (=aggregieren) gang und gäbe. Zutreffend bemerkt Lanier:

Accuracy in a text is not enough. A desirable text is more than a collection of accurate references. It is also an expression of personality.

Das gilt bei historischen Texten besonders, auch Rosenzweig hat auf diesen Mangel bei den kollaborativ erstellten Texten der Wikipedia hingewiesen.

Literatur

HOK Schreiben: Google eröffnet Writely

Nun ist es soweit: die Online-Textverarbeitung, die gleichzeitiges Erfassen und Bearbeiten von Text erlaubt (samt Festlegung, wer den Text bearbeiten, bzw. ihn nur ansehen darf), mit Namen Writely, die Google im März gekauft hat, ist nun (nach einer längeren Phase interner Arbeiten) zugänglich. Wer will kann sich einen Account anlegen. Der Dienst ist kostenlos – es gibt also keinen Grund, ihn nicht auszuprobieren. Allerdings gilt Writely noch als Beta, ist also noch nicht ganz fertiggestellt (und kostet dann irgendwann vielleicht doch etwas). Writely wird in der Presse weniger als Konkurrenz zu kollaborativen Texterfassungs-Systemen wie Wikis, sondern eher als Konkurrent zur Microsofts Textverarbeitung Word aufgefasst. Das heisst meines Erachtens zweierlei:

  1. Kollaboratives Schreiben ist auch mit Word möglich (mit Einschränkungen und: es ist nicht die zentrale Art der Nutzung dieser Software)
  2. Die mutmassliche Nutzung ist wohl wirklich die einer „Online-Textverarbeitung“: A schreibt einen Text und B und C schauen mal drauf und machen Anmerkungen (was mit Wikis nicht so einfach möglich ist). Einfacher, als den Text hin und her zu mailen.

Übersicht: HOK Schreiben

HOK Schreiben: Wiki und Blogs vereint

Nicht genug, dass freie Blog-Angebote zum Ausprobieren verfügbar sind (zum Beispiel nur zwei sehr bekannte: blogger und twoday), bzw. sogar die Möglichkeit besteht, sich seine eigene Weblog-Software auf ein Stück Web-Space zu laden (zum Beispiel WordPress): mit infogami bietet Aaron Swartz eine Möglichkeit, Blogs und Wikis zu kombinieren: Wer will, kann seine Blog-Einträge gleich zum Editieren für jedermann freigeben.
Hinweis gefunden bei Text & Blog

Übersicht HOK Lesen/SchreibenAus der Welt der WikisAus der Welt der Blogs

HOK Schreiben: Neues Kollaborationstool

Writely bietet einen neuen webbasierten Dienst, um kollaborativ Texte zu erstellen. Die Arbeitsweise erinnert an die Office-Umgebung, mit dem Unterschied, dass die Texte auf einem Server der Firma Writely abgelegt werden und daher Mitarbeiter/innen (die ich als Eröffner eines Dokumentes auswählen kann) jederzeit via Web Zugriff darauf haben. Der Dienst ist momentan im Beta-Stadium und (noch) umsonst nutzbar.

Verblüffend an diesem Dienst ist die Vielzahl von Befehlsoptionen, die mit der neuen Technologie AJAX implementiert werden. Damit können lassen sich auf Webseiten viele Befehle ausführen, ohne dass die Seite vom Server neu geladen werden muss. So wird die Arbeit sehr viel komfortabler.

Während Writely zu stark auf die Office/Dokumenten-Metapher setzt, um etwa ein besseres Wiki zu werden, wäre die stärkere Berücksichtigung von AJAX für die Bedienung von Wikis oder Blogs (oder Lern-Management-Systemen) durchaus zu begrüssen. Dass hier weitere Ideen möglich sind als die Abbildung einer Office-Umgebung zeigen die AJAX Programmier-Ideen zu Microcontent (Kleine Inhalte innerhalb einer Webseite, die separat nachgeladen werden können), Microlinks (Links, die Microcontent aufrufen, also nur einen Teil der Webseite neu laden) oder Live-Suche (beim Eintippen in Suchfenster wird eine laufend aktualisierte Trefferliste angezeigt).

Übersicht: HOK Schreiben

HOK: Schreiben: Blogs und Wikis

Erik Möller kommt bei der Frage „Sind Blogs Journalismus“ (die ich hier auch schon behandelt habe) zum Schluss: „Tatsächlich sind die meisten politischen Blogs eher vergleichbar mit täglichen Kolumnen“ (Die heimliche Medienrevolution, 133). Gibt es eine Tendenz zu einer unausgesprochenen „Arbeitsteilung“ bei der Webpublikation:

  • einerseits die sehr subjektiven, von Einzelpersonen verantworteten, zugespitzt formulierten Blogs, die Meinungen, Haltungen, Deutungen präsentierten und
  • andererseits die kollaborativ erstellten, lexikalischen, einem neutralen Standpunkt verpflichteten (und daher so viel mehr umstrittenen und diskutierten) Wikis – wie im Paradebeispiel Wikipedia, das eher Faktenwissen generiert?

Wikis, so scheint mir, tendieren dazu, Texte mit grösstem gemeinsamen Nenner zu generieren – oder sie werden schnell unübersichtlich. Dies ist leicht nachzuvollziehen, wenn man die Diskussionseiten zu den verschiedenen Wiki-Seiten aufruft. Die verschiedenen Diskussionstränge werden schnell unübersichtlich und schwer nach zu verfolgen.

Möller hat diese Schwäche nicht nur erkannt, sondern mit Liquid Threads einen Vorschlag unterbreitet, der die Diskussion nicht nur besser gliedern soll, sondern durch regelmässige Zusammenfassungen (offensichtlicher Unsinn wird dann „weg-zusammengefasst“) und differenziertes Rechtemanagement (Autoren können selber festlegen, ob sie anderen Usern das Verändern des Textes erlauben wollen) auch deren inhaltliche Qualität besser sichern könne.

Darüberhinaus kann sich Möller durchaus vorstellen, dass die unterschiedlichen Funktionalitäten bzw. Nutzungen von Blogs und Wikis sich in Zukunft dank besserer technischer Lösungsmodelle vermischen können.

Literatur:
Möller, Erik: Die heimliche Medienrevolution.Wie Weblogs, Wikis und freie Software die Welt verändern, Hannover: heise 2005.

Übersicht: HOK Schreiben

HOK: Lesen oder Schreiben? From Wreader to Wiki…

Krameritsch spricht in seinem Artikel „Geschichte(n) im Hypertext“ von „Wreadern“, das sind Reader, die zugleich durch ihr Leseverhalten zu Writern werden, einer Vermischung von Lesen und Schreiben (der Begriff wurde von George Landow erstmals verwendet: „Technology transforms readers into reader-authors or ‚wreaders'“, Landow 1994, 14). Diese Vermischung entsteht etwa beim Lesen von Hypertexten, da jedes Individuum anderen Hyperlinks in anderen Reihungen folgt und damit einen eigenen Hypertext zusammenstellt. Dieses Zusammenstellen entspricht den Suchpfaden, die ich bei den Informationsräumen beschrieben habe.

Doch wo genau hört dann der Akt des Lesens auf und wo beginnt jender des Schreibens? Beim „Wreading“ handelt es sich ja nur um eine Teil-Interaktion. Die User wählen aus bestehenden Möglichkeiten aus, sie bestimmt lediglich die Reihenfolge und die Übergänge der Informationseinheiten. Wirklich interaktiv wird das Geschehen erst, wenn die Leserinnen und Leser das Gelesene verändern oder mitgestalten können.

Hier setzt die Idee von Wiki ein, jene technische Lösung, die es einer Gruppe von Menschen erlaubt, gemeinsam mit wenig Aufwand Texte auf dem Internet zu erstellen und zu bearbeiten (es gibt auch andere Lösungen, von Foren mit ausgefeilten Texteditoren-Funktionen, netzwerkfähigen, kollaborativen Textverarbeitungen (wie SubEthaEdit oder MoonEdit) bis hin zu Web-Applikationen wie „Writely“). Dabei gilt es zwischen verschiedenen Interaktionsformen (Kommunikation, Kooperation und Kollaboration) und verschiedenen Textformen (Lauftexte und Hypertexte) zu unterscheiden.

Literatur

  • Krameritsch, Jakob: „Geschichte(n) im Hypertext. Von Prinzen, DJs und Dramaturgen“, in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 33-56
  • Landow, George P. (Hg.): Hyper text theory, Baltimore (Md.) [etc.]: The Johns Hopkins University Press 1994

Übersicht: HOK Lesen/Schreiben