Alle Beiträge von Jan Hodel

Aus der Welt der Wikis: Jagd auf Experten

Die Ankündigung eines neuen, Wikipedia ähnlichen Web-Dienstes namens Digital Universe wirft (wieder) die Frage auf, wie kollaboratives Wissen im Internet erstellt und wie die wissenschaftliche Qualität der Beiträge gesichert werden sollen. Digital Universe, das im Jahr 2006 mit ersten Resultaten an die Öffentlichkeit gehen will, versucht Fachexperten für die (freiwillige) Mitarbeit zu gewinnen, um den wissenschaftlichen Qualitätsanspruch zu erfüllen. Dabei soll ein komplexes System von Fachportalen die Experten zum Mitmachen bewegen.

Genau dort liegt aber wohl die Schwierigkeit. Warum sollten Experten ihr Fachwissen in ein offenes Gratis-Projekt investieren? Die Experten haben meist ihre eigenen Kanäle und Wissensräume, wo der Austausch von relevanten Informationen stattfindet (in Geschichte nimmt für den deutschsprachigen Raum Clio-Online etwa eine solche Funktion ein). Warum sollten sie sich noch in einem anderen Umfeld betätigen?

Der Versuch eines kollaborativen Enzyklopädie-Projekt, deren Beiträge Fachleute im Peer-Review-Modus erstellen sollten, hatte auch Wikipedia-Gründer James Wales mit dem Projekt „Nupedia“ (nicht mehr erreichbar, nur noch im Internet Archiv) versucht. Als dann nach drei Jahren nur 30 Artikel zusammengekommen waren, kam Wales auf die Idee, eine Art „Notizblock für Jedermann“ zu eröffnen: Wikipedia. Hier sollten gleichsam ohne grossen Peer-Review-Druck Entwürfe für Artikel entstehen, die später in Nupedia aufgenommen werden sollen. Wikipedia hob ab. Nupedia ist vergangen und vergessen. Nun gründete der ehemalige Angestellte von Wales, der das Projekt Nupedia betreute, Larry Sanger, die mögliche Konkurrenz Digital Universe.

Die Jagd nach Experten hat aber auch bei Wikipedia, von Wikipedia-Nörglern nicht ganz zu unrecht als grosse Dilettanten- und Schüleraktionsplattform verspottet, nicht aufgehört. Wales selber wünscht sich mehr Mitarbeit von Fachwissenchaftlern. Zur Veränderung des Prozesses bei der Erstellung der Artikel gehören auch Pläne, wie bei der Entwicklung von Software „stabile“, nicht mehr von jedermann veränderbare Versionen zu haben und daneben „live“-Versionen zu führen, die weiter entwickelt werden und erst nach Absolvierung eines Review-Vorganges in eine neue stabile Version überführt werden sollen.

Vielleicht brauchen die Experten diese Enzyklopädie-Portale weniger als die Portale die Experten?

Aus der Welt der Wikis: Ökonomie und Wikipedia

Nachtrag zum letzten Eintrag: Wikipedia hat einen neuerlichen Spendenaufruf lanciert, um die steigenden Kosten für Hardware, Unterhalt und Administration zu bewältigen. Das kostet bald eine Million Dollar pro Jahr. Die Redaktoren arbeiten derweil weiterhin umsonst. Der nächste Schritt wären Google Ads auf Wikipedia. Damit könnten (so Dana Blankenhorn im seinem Blog-Eintrag) die Redaktoren bezahlt werden – und ein erster Schritt zur Verbindung des konventionellen und des gruppenbasierten Wegs zur Strukturierung im Internet wäre getan.

Aus der Welt der Wikis: Academia und Wikipedia

Zunächst dies: Die renommierte Wissenschafts-Zeitschrift „nature“ stellt in Ausgabe 438 fest, dass Wikipedia fast so gut ist wie die Encyclopaedia Britannica (EB). Beunruhigend: in den ausgewählten Artikeln (leider steht in den Zusammenfassungen weder die genaue Zahl noch der genaue Inhalt der beurteilten Artikel) fanden die angeschriebenen Experten bei der Version der EB vier schwere Fehler, genau so viele wie bei Wikipedia. Bei mittleren und kleineren Fehlern (Auslassungen und unklare Formulierungen) schlug die EB die Wikipedia 123 zu 162. Dazu meint der Informationswissenschaftler Michael Twidale von der University of Illinois, dass die User davon ausgehen, dass Print-Enyklopädien der Goldstandard des Wissens seien. Es zeige sich, dass es sich nur um einen 18-karat, nicht um einen 24-karat-Standard handle.

Interessanter finde ich den Blogeintrag Academia vs. Opensource. Dana Blankenhorn weist darauf hin, dass laut einer Studie des Centre for Information Behaviour and the Evaluation of Research (CIBER) über 90 Prozent der befragten Wissenschafter den „Closed-Source“-Prozess des Peer-Reviews zur Qualitätssicherung vor der Publikation einer Open-Source-Methode vorziehen, bei der nach der Publikation die Qualität durch die Öffentlichkeit der interessierten Leserschaft gesichert werde. (Ich nannte es das „Das Wiki-Prinzip: erst publizieren, dann kontrollieren„). Man kann es auch anders bezeichnen: der konventionelle vs. den gruppenbasierten Weg, um Wissen herzustellen.

Doch Blankenhorn weist auf ein entscheidendes Detail hin. In der Studie meint etwa die Hälfte der Befragten, Publikationen im „Open Access“-Modus könnten die herkömmlichen Publikationsroutinen unterlaufen; und in grosse Minderheit fand dies eine gute Sache. Vielleicht ist es nur eine Frage der Zeit, bis sich das Wikipedia-Prinzip auch bei den Wissenschaftlern durchsetzt? Die Gepflogenheit der Pre-Prints gehen doch in eine ähnliche Richtung. „Some preprints are great science; some are mediocre; some are nonsense“, sagt Wikipedia. Das könnte man auch von Wikipedia-Artikeln sagen. Letzlich bleibt die Erkenntnis, dass den Usern nichts anderes übrig bleibt, als selbst ein wenig gedankliche Anstrengung dazu zu verwenden, um zu beurteilen, ob ein Wikipedia-Eintrag Unsinn enthält oder nicht.

HOK: Lesen – Vom Suchen und Finden XI: Die drei Königswege zur Ordnung im Chaos

Die Meldung von Heise, wonach Yahoo den Bookmark-Dienst Delicious (genauer de.lico.us) aufgekauft hat (ich erwähnte die Firma beim Thema „Tagging“ und „Communities„) stiess mich auf eine Erkenntnis. Yahoo ist einer der führenden Suchmaschinen-Dienste der Welt, ein Konkurrent von Google. Angefangen hatte Yahoo als Verzeichnisdienst, als redaktionell betreutes Angebot von Internet-Adressen, dessen Kategorisierungskriterien ebenso gut gehütet waren und sind wie die Such-Algorithmen und Ranking-Kriterien der Suchmaschinen. So sind nun bei Yahoo die „drei Königswege, Ordnung in das Chaos Internet zu bekommen“ unter einem Dach vereint:

  1. Der konventionelle Weg
  2. Der maschinelle Weg
  3. Der gruppenbasierte Weg

Der konventionelle Weg: Hier werden Fachredaktoren angestellt, die auf professioneller Basis nach fachlichen Kriterien Strukturen erstellen und Inhalte in diese Strukturen einfüllen. Die Analogie zur Arbeit der Bibliotheken ist offensichtlich, aber nicht immer so konsequent umgesetzt wie bei den Subject Gateways, etwa dem History-Guide. Drum ist die Arbeit der Subject Gateways wohl auch immer noch so unbekannt, dass nicht einmal ein Eintrag bei Wikipedia besteht (eine Übersicht über verschiedene Subject Gateways, wobei dort der Begriff sehr weit gefasst ist, ist bei Pinakes zu finden). Das Hauptproblem dieses Weges: die Arbeit ist schier endlos und ihre Bewältigung daher sehr teuer. Viele Projekte, die diesen Weg beschreiten, lassen in der Qualität nach, bzw. genügen wissenschaftlichen Kriterien nicht, oder müssen irgendwann die Arbeit einstellen.

Der maschinelle Weg: Die Hoffnung, dass Computerprogramme das Netz von alleine strukturieren können. Mit anderen Worten: die Suchmaschinen werden immer mehr besser programmiert, gesammelte Datenmengen zu strukturieren. Der Gipfel der Träume: Das semantische Web, in dem die Dokumente derart clever strukturiert sind, dass sie sich gegenseitig erkennen und aufsuchen können. Trotz jahrelangen Ankündigungen gibt es kaum Anzeichen dafür, dass der Durchbruch bevorstehe. Das Internet ist einfach schon zu chaotisch und voller unstrukturierter Inhalte. Das ist kaum „rückgängig“ zu machen.

Der gruppenorientierte Weg: Entweder Projekte im Sinne von Grassroot-Bewegungen: jeder leistet einen kleinen, freiwilligen Beitrag zum grossen Ganzen, und weil das Internet die ganze Welt verbindet, sind die Gruppen gross genug, dass aus dem vielen Kleinen etwas Grosses wird: siehe Open-Source-Software, Wikipedia oder das Webverzeichnis dmoz. Die Gruppenorientierung findet sich in vielen Feedback-Funktionalitäten: bei Amazon etwa „Menschen die diese Buch gekauft haben, kauften auch…“ oder „Kundenrezensionen“. Vom Tagging, dem freien Verwenden von Schlagworten, das auch für Suchmaschinen-Optimierungen gebraucht werden kann, hatten wir es schon mal.

So schliesst sich der Kreis. Bei Yahoo ist alles unter einem Dach. Und auch das hatten wir vor ein paar Jahren schon einmal. Damals hiess es „Portal“. Die Suche nach dem Gral oder dem Ei des Kolumbus wird wohl weitergehen auf den drei Königswegen. Wie ist Struktur in das Chaos zu bringen?

Aus der Welt der Wikis: Rufmord bei Wikipedia? (II)

Heise reportiert die Fortsetzung der Geschichte um den falschen Eintrag zu John Seigenthaler bei Wikipedia. Es war ein Angestellter einer Lieferfirma, der mit seiner Manipulation bei seinen Kollegen Eindruck schinden wollte. Als er den Rummel um seinen Aktion bemerkte, hat er sich bei Seigenthaler entschuldigt und gekündigt. Seigenthaler zeigte sich nachsichtig und empfahl der Firma, den Mann wieder einzustellen. Mittlerweile gibt es bereits einen eigenen Wikipedia-Eintrag zu Kontroverse.
Bemerkung am Rande: Sogar Witz-Einträge, die als Gag eines Comics erfunden wurden, landeten flugs in Wikipedia selbst – und wurden umgehend wieder gelöscht.

HOK: Schreiben: Umgewöhnungsprozesse: Kommunikation – Kooperation – Kollaboration

Geschichts-Wissenschafter und -Wissenschafterinnen sind nicht wirklich geübt, gemeinsam Texte, geschweige denn Hypertexte zu verfassen. Am ehesten sind noch Co-Autorschaften anzutreffen. Oder es publizieren Gruppen, wobei eine Person den Artikel schreibt und die anderen noch den einen oder anderen Ergänzungsvorschlag beisteuern. Dies geschieht aber auch fast nur bei Zeitschriftenartikeln oder Beiträgen zu Sammelbänden. Bei Monographien zeichnen nur einzelne Autorinnen und Autoren verantwortlich, wie ein kurzer Blick in einen x-beliebigen Bibliothekskatalog zeigt.

Dabei gilt es eine Abgrenzung über verschiedene Formen der Zusammenarbeit in Gruppen zu machen (erweitert nach Dillenbourg 1999, 11 – dieser bezieht sich zwar auf „Kollaboratives Lernen“ – dennoch sollen diese Ausführungen auch für die Forschung gelten).

  • Kommunikation: Die einfachste Form der Arbeit in Gruppen ist jene, wo sich die Mitglieder der Gruppe über ihre Inhalte und Ansätze informieren und diese dann eigenverantwortlich erstellen. Die Verteilung der Arbeiten erfolgt von einer externen Stelle oder von einem verantwortlichen Redakteur.
  • Kooperation: Die Gruppenmitglieder verständigen sich in einem gemeinsamen Prozess über die Verteilung der Aufgaben und Arbeiten: also beispielsweise eine gemeinsame Erarbeitung einer Struktur eines Textes und eine gemeinsame Verteilung der jeweiligen Subtexte auf die Mitglieder.
  • Kollaboration: Die Gruppenmitglieder führen gemeinsam alle Arbeiten durch: sie schreiben gemeinsam den gesamten Text. Diese Form ist ausserordentlich anspruchsvoll und kann mit vertretbarem Aufwand nur im Rahmen von Klausuren oder mittels der Möglichkeiten von ICT durchgeführt werden.

Die Dominanz der Einzelautorschaft ist sicherlich dem zusätzlichen Arbeitsaufwand geschuldet, die ein gemeinschaftliches Verfassen von Text bedeutet. Und dieser Aufwand ist im Rahmen eines kurzen Textes eher zu erbringen. Das selten mehrere Autoren und Autorinnen historische Publikationen gemeinsam verfassen, hängt auch damit zusammen, dass Geschichtsdarstellungen immer auch Deutungen enthalten, die stark vom jeweiligen persönlichen theoretischen und methodischen Ansatz und Hintergrund geprägt sind. Hier müssen entsprechende Metakommunikationen zwischen den Gruppenmitgliedern nicht nur über die Fakten einer Darstellung, sondern auch über die Deutungen stattfinden (vgl. Epple 2005).

Die Verknüpfung von Darstellung mit Deutung ist auch ein Grund für eine implizite, aber wirkungsmächtige Vorstellung von Autorenhoheit: Wer den Text verantwortet, entscheidet auch über die konkrete Wortwahl. Entsprechend habe auch eine gewisse Irritation festgestellt, wenn ich mit Historikerinnen und Historikern auf Wiki-Umgebungen gearbeitet habe, wo zwar die Veränderungen einfach zu beobachten, aber (im Vergleich zu Word, wo ein Mausklick „Ablehnen“ ausreicht) nur umständlich rückgängig zu machen sind. Die unausgesprochene Frage im Raum: Wem „gehört“ der Text?

Kollaboratives Schreiben von Geschichte? Das setzt Umgewöhnungsprozesse voraus.

Literatur:

  • Dillenbourg, Pierre: „Introduction: What do you mean by „collaborative learning“?“, in: ders. (Hg.): Collaborative Learning: Cognitive and Computational Approaches, Amsterdam: Pergamon 1999, S. 1-19
  • Mayrberger, Kerstin: „Kooperatives Lernen in der computerunterstützten Präsenzlehre der Hochschule“, in: Pape, Bernd, Krause, Detlev, Oberquelle, Horst (Hg.): Wissensprojekte. Gemeinschaftliches Lernen aus didaktischer, softwaretechnischer und organisatorischer Sicht, Münster: Waxmann 2004, S. 35-54
  • Epple, Angelika: „Verlinkt, vernetzt, verführt – verloren? Innovative Kraft und Gefahren der Online-Historiographie“, in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 15-32

Übersicht HOK Schreiben

HOK: Lesen – Vom Suchen und Finden X: Browsen

Eibl (2004, 135) unterscheidet in Anlehnung an Kuhlen und MacAleese folgende Formen des Browsen:

  • Gerichtetes Browsen mit Mitnahmeeffekt
  • Gerichtetes Browsen Serendipity-Effekt
  • Ungerichtetes Browsen
  • Assoziatives Browsen

Beim gerichteten Browsen schränkt man die Menge der zu durchforschenden Informationen ein. Am Beispiel einer Bibliothek: man durchstöbert die Bücher einer bestimmten Signatur zu einem interessierenden Sachgebiet. Findet man ausser dem ursprünglich gesuchten Titel andere Bücher, die zum gewünschten Thema passen, nimmt man diese mit (Mitnahme). Findet man ein interessantes Buch zu einem anderen Thema, hat man einen Serendipity-Effekt erzeugt. (Ist es Zufall, dass hier als Beispiel wieder eine Bibliothek auftaucht?).

Das ungerichtete Browsen ist eher einem „internet-globetrotting“, einem ungezielten Wandern durch den Cyberspace zu vergleichen. Treffer sind zufällig (und können ebenfalls als Serendipity-Effekte bezeichnet werden). Assoziatives Browsing wird (irritierenderweise) etwas abschätzig, bzw. wissenschaftlich wenig relevant als „lustbetontes“ Stöbern bezeichnet, das zu Konzentrationsschwäche und Orientierungsverlust führe, weil man einfach den subjektiven Bedeutungszuweisungen bei Verknüpfungen folgen würde. Doch gerade das Bilden von Assoziationsketten scheint mir, sinnvoll eingesetzt, eine stark gestaltende Form des Hypertext-Lesens zu sein, hier wird der Reader zum Wreader.

Neben dem Browsen gibt es weitere Formen der Informationsentnahme aus Hypertexten:
das Anwenden von Suchalgorithmen (dazu gehören Suchmaschinen ebenso wie durchsuchbare Verzeichnissystem, aber auch Website-Suchfunktionen) und das Verfolgen vorgefertigte Pfade (wie bei „guided tours“).

Literatur:
Eibl, Thomas: Hypertext. Geschichte und Formen sowie Einsatz als Lern- und Lehrmedium. Darstellung und Diskussion aus medienpädagogischer Sicht, München: Kopaed 2004

Aus der Welt der Wikis: Das Wiki-Prinzip: erst publizieren, dann kontrollieren

Mit der Diskussion um die Sicherheit vor Falschinformationen in Wikipedia, bzw. dem Problem, dass sich unzählige Leute auf der ganzen Welt wie selbstverständlich auf die Korrektheit dieser grossen Freiwilligenarbeit verlassen, geht gerne vergessen, dass die Wiki-Software eigentlich mit anderen Zielsetzungen entwickelt wurde, als zu einem wissenschaftlichem Referenzwerk zu werden. Wikiwiki ist hawaiianisch und bedeutet „schnell“. Die Entwickler der Wiki-Technologie wollten eine schnelle und einfache Art, wie Inhalte im Internet gemeinsam (eben: kollaborativ) erstellt, ergänzt und entwickelt werden sollten.

Dabei ging es bei Wikis um einen neuen Ansatz, Inhalte zu erstellen: Statt vorgängiger Kontrollen, die über Berechtigungen gesteuert wurden, sollte jeder Änderungen anbringen können, diese aber auch zu verantworten haben. Jimmy Wales, Gründer des Wikipedia-Projekts, fasste es wie folgt zusammen: „The basic thing I think makes it work is turning from a model of permissions to a model of accountability. It isn’t that you are allowed or not allowed to edit a certain thing; it’s when you do it, that change is recorded, and if it’s bad, people can see that.“

Wikipedia ist dabei ein Sonderfall. Aber einer, der sehr viel Aufmerksamkeit auf sich zieht.

Der Netzanalytiker Clay Shirky beschreibt die Funktionsweise von Netzpublikationen, die von Gruppen erstellt werden, mit folgenden Worten zusammen, die meinem Titel Pate standen: “ The order of things in broadcast is ‚filter, then publish.‘ The order in communities is ‚publish, then filter.“ Dies unter dem Zwischentitel: „Participation matters more than quality“.

Aus der Welt der Wikis: Rufmord bei Wikipedia?

Nach den Blogs ist ja hier im Rahmen meiner Erörterungen der historischen Online-Kompetenz auch die Welt der Wikis zu einem Thema geworden, das auch im weiteren Sinne beobachtet werden soll.
Und hier folgt gleich eine Meldung, die bestehende Vorurteile gegenüber diesem Phänomen (oder nüchterne Einschätzungen, ja nach Standpunkt des Betrachters) auf den Punkt bringt.

John Seigenthaler ist ein geachtetes Mitglied der US-Gesellschaft, unter anderem Mitbegründer der Tageszeitung USAtoday. Mittlerweile ist er 78 Jahre alt. Monatelang war der Eintrag zu seiner Person in Wikipedia mit der Unterstellung versehen, er sei in die Morde an John F. Kennedy und seinem Bruder Robert verwickelt gewesen. Der Umstand, dass diese Aussagen nicht korrigiert wurden und es Seigenthaler auch nicht möglich war, den Urheber dieser Diffamierung ausfindig zu machen, hat ihn ein sehr kritisches Editorial in der USAtoday schreiben lassen. Damit trug er zu einem neuen Zuspitzung der Debatte bei, wie anfällig das OpenSource-Projekt für Falsch-Informationen ist. Immerhin ist im aktuellen Eintrag in Wikipedia nicht nur die Fehlinformation gelöscht, sondern der ganze Vorgang dargelegt und dokumentiert worden. Dafür sind in den letzten Tagen mehrere hundert Änderungen vorgenommen worden, teilweise, um üble Beschimpfungen wieder aus dem Artikel zu entfernen.

Bislang schien sich diese Debatte vor allem um Einträge rund um den Nationalsozialismus zu drehen, aber offenbar sind die Manipulationsfantasien (oder abweichende Meinungen) nicht auf dieses Gebiet beschränkt. Die Diskussionen haben nun den Wikipedia-Gründer Jimmy Wales erstmals zu einer Änderung der Regeln veranlasst. Ab heute, 5. Dezember 2005, können neue Einträge nicht mehr anonym angelegt werden, anonyme Änderungen sind hingegen noch immer möglich.

Die Wiki-Gemeinde befasst sich seit längerem mit dem Phänomen der Vandalen, Trolle und Geschichtsklitterer, die entweder die Offenheit von Wiki-Projekten zu ihren Gunsten ausnutzen wollen oder einfach nur Spuren hinterlassen möchten. Und insofern erstaunt es, dass nicht noch viel mehr Informationen gefälscht werden (denn bemerkt werden solche bösartigen Entstellungen nur in viel gelesenen Inhalten). Auch wenn sich die Macher von Wikipedia der Probleme sehr wohl bewusst sind: Dennoch bleibt der nicht mehr so neue Aufruf aktuell, mit gewisser Skepsis den Inhalten auf dem Internet zu begegnen.
Übrigens kämpft die Wiki-Gemeinde mit einem anderen, weniger spektakulären und schlagzeilenträchtigen, aber umso wirksameren Problem: WikiSpam. Immer öfter werden Wikis missbraucht, um Links auf Website zu setzen, die gar keinen inhaltlichen Zusammenhang mit dem entsprechenden Inhalt des Wikis haben. Es geht darum, das Suchmaschinen-Ranking, dass auf Verlinkung achtet, zu manipulieren. Das Problem gibt es übrigens auch bei Blogs. Womit der Kreis zu den Einträge der Rubrik „Suchen und Finden“ und „aus der Welt der Blogs“ geschlossen wäre.

Schliesslich steht ja bei all den Vandalen-Akten auch die Frage im Raum, woher das vandalisierte Wissen eigentlich kommt? Wer in seinem Spezialgebiet mal in Wikipedia herumstöbert, wird schnell „Handschriften“ erkennen. Einzelne Themen werden aus (oft nicht näher genannten) Publikationen abgekupfert. Abgesehen vom Problem der fehlenden Zitation (oder schlicht des Plagiats): So werden in einer Gesellschaft, die sich nur auf Google und Wikipedia verlässt auch wissenschaftliche Wahrnehmungen beeinflusst.

Literatur

Aus der Welt der Blogs V: Blogs sind unwichtig

Noch ein Beweis, dass Blogs eigentlich nur ein selbstbezügliches, ausserordentlich überschätztes Phänomen seien? Hier: Die neue Studie von w3b hat herausgefunden, dass zwar 75 Prozent der Web-User schon von Blogs gehört haben. Aber nur 4 Prozent benutzen Blogs regelmässig zur Beschaffung von Informationen. Gar nur 2 Prozent schreiben regelmässig eigene Beiträge in Blogs (mehr als einmal pro Woche).

HOK: Lesen – Vom Suchen und Finden IX: Mainstream

Da wir es gerade von Google hatten (wer spricht zur Zeit nicht von Google, wenn es um „Digitales Wissen“ und dergleichen geht?): Google hat mit der Ankündigung, die Bestände berühmter Bibliotheken (vor allem in den USA) in globo einzuscannen und zur Suche bereitzustellen (Google Book Search), einiges an Widerstand und Skepsis geerntet, zuletzt an der „Semantics“ in Wien.

Dabei geht es ja nicht nur um die Kommerzialisierung des Wissenszugangs (den Google zwar bestreitet, aber bitte: Google ist ein kommerzielles Unternehmen – keine gemeinnützige Institution), sondern auch um die unvermeidliche Fokussierung auf bereits mit Aufmerksamkeit bedachter Informationen und Wissensbestände. Oder mit den Worten von Max Kaiser, Koordinator für Forschungs- und Entwicklungsprojekte bei der österreichischen Nationalbibliothek: „Die Leute werden aber davon ausgehen, dass alles digital zu finden ist. Was nicht aufgenommen wird, wird komplett in Vergessenheit geraten.“ Die Aussage: „Was bei Google nicht zu finden ist, existiert nicht“, gilt dann nicht nur für Web-Inhalte, sondern auch für Bücher.

Dieser Trend zum Mainstream stellt auch Christiane Floyd bei der Digitalisierung der historischen Recherche-Rahmenbedingungen fest: Viele Datenbestände werden überhaupt erst in feste Formen gebracht, wenn sie für die Abfrage mittels Internet aufbereitet werden, bzw. diese Strukturen werden einer breiten Öffentlichkeit sichtbar. Dafür setzt sich aber auch ein Trend durch, der bei der Strukturierung der Daten zu einem Mainstream führt. Die Daten werden auf ähnliche Weise strukturiert.

Dies gilt in einem sich selbst verstärkenden Prozesse wohl auch für die Inhalte. Auch hier bietet Google ein schönes Beispiel: Letzte Woche lancierte Google das Projekt Google Base. Dabei handelt es sich um eine Datenbankinfrastruktur, die von jedermann (und jeder Frau) benutzt werden kann. Wer seine CD-Sammlung der Welt mitteilen will oder Autos oder Backwaren verkaufen will, kann die Daten dorthin hochladen. Aber auch Gemeinde-Bibliotheken oder andere Institutionen können ihre Daten dort kostengünstig in strukturierter Form publizieren.

Da die Struktur vorgegeben ist, führt dies unweigerlich zu einer verkappten Standardisierung. Auch das Tagging hat einen Mainstream-Effekt, wie Google als Suchmaschine ja auch: Bekanntes wird bekannter. Die Nischen werden immer weniger beachtet und verschwinden – ausser sie bezahlen für die Aufmerksamkeit in Form einer Google-Anzeige. Beim Tagging ist die Strukturierung relativ weich und wird durch die User gesteuert, bei Google Base kann man das nicht behaupten.

Mag die Struktur von Wissensbeständen (wie Floyd erklärt) durch eine Publikation im Internet „veräussert“, bzw. expliziert und damit erkennbar werden: nicht immer erschliessen sich die Kriterien, die zur Auswahl geführt haben. Google Scholar, das letztes Jahr eingeführt wurde, hat wie die Google Print bzw. Google Books bei den Bibliotheken für viel Aufsehen gesorgt. Doch wie genau die Inhalte (zumeist Fachzeitschriften) ausgewählt werden, ist nirgends dokumentiert. Auch hier lässt eine erste Analyse den Schluss zu, es handle sich um einen Trend zum Mainstream – zu den gut betuchten grossen Verlagen. Es entbehrt nicht einer gewissen Ironie, dass die Bibliotheken nun die Fachverlage gerade aufgrund der Erfahrung mit Google Scholar unter Druck setzen, da die Fachzeitschriften-Abonnemente so horrend sind.

Literatur:
Floyd, Christiane: „Esse est percipi. To Be is to Be Accessed.“, in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 57-71

HOK: Lesen oder Schreiben? From Wreader to Wiki…

Krameritsch spricht in seinem Artikel „Geschichte(n) im Hypertext“ von „Wreadern“, das sind Reader, die zugleich durch ihr Leseverhalten zu Writern werden, einer Vermischung von Lesen und Schreiben (der Begriff wurde von George Landow erstmals verwendet: „Technology transforms readers into reader-authors or ‚wreaders'“, Landow 1994, 14). Diese Vermischung entsteht etwa beim Lesen von Hypertexten, da jedes Individuum anderen Hyperlinks in anderen Reihungen folgt und damit einen eigenen Hypertext zusammenstellt. Dieses Zusammenstellen entspricht den Suchpfaden, die ich bei den Informationsräumen beschrieben habe.

Doch wo genau hört dann der Akt des Lesens auf und wo beginnt jender des Schreibens? Beim „Wreading“ handelt es sich ja nur um eine Teil-Interaktion. Die User wählen aus bestehenden Möglichkeiten aus, sie bestimmt lediglich die Reihenfolge und die Übergänge der Informationseinheiten. Wirklich interaktiv wird das Geschehen erst, wenn die Leserinnen und Leser das Gelesene verändern oder mitgestalten können.

Hier setzt die Idee von Wiki ein, jene technische Lösung, die es einer Gruppe von Menschen erlaubt, gemeinsam mit wenig Aufwand Texte auf dem Internet zu erstellen und zu bearbeiten (es gibt auch andere Lösungen, von Foren mit ausgefeilten Texteditoren-Funktionen, netzwerkfähigen, kollaborativen Textverarbeitungen (wie SubEthaEdit oder MoonEdit) bis hin zu Web-Applikationen wie „Writely“). Dabei gilt es zwischen verschiedenen Interaktionsformen (Kommunikation, Kooperation und Kollaboration) und verschiedenen Textformen (Lauftexte und Hypertexte) zu unterscheiden.

Literatur

  • Krameritsch, Jakob: „Geschichte(n) im Hypertext. Von Prinzen, DJs und Dramaturgen“, in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 33-56
  • Landow, George P. (Hg.): Hyper text theory, Baltimore (Md.) [etc.]: The Johns Hopkins University Press 1994

Übersicht: HOK Lesen/Schreiben

HOK: Lesen – Vom Suchen und Finden VIII: Informationsräume, Pfade und Navigation

Das World Wide Web verfügt über Hypertext-Funktionalität, das ist eine wichtige Eigenschaft des Mediums. Jedoch nutzen nicht alle Autorinnen und Autoren diese Funktionalität in gleichem Masse. Und gerade bei der Informationskompetenz stellt sich hier die Frage: Handelt es sich hier um digital bereitgestellte Bücher, in denen man Volltext-Suchen durchführen kann, oder um neue Konstrukte: um Netzwerke oder Räume? (Stahl)

Wenn wir die Metapher des Raumes nutzen stellen sich gleich weitere Fragen: Wie orientieren wir uns in diesem Informationsraum? Und wie unterscheiden sich digitale (WWW-) Informationsräume von analogen Informationsräumen (also Bibliotheken beispielsweise)? (Krüger)

Hypertextuelle Verknüpfungen und fehlende Strukturierungen lassen beim Suchen im Internet sehr unterschiedliche Suchpfade entstehen. Die User müssen diese im Gedächtnis gleichsam „virtuell“ abspeichern. Der PC zeigt ja immer nur gerade die aktuellste Sicht von Informationen an. Den Pfad hat der Browser zwar gespeichert, aber für die Interpretation des gerade sichtbaren Inhalts und für die Entscheidung, was mit diesem Inhalt gemacht werden soll, bzw. welcher Hyperlink verfolgt werden soll, bleibt den Usern überlassen.

Die Fähigkeiten zur Navigation und zur Orientierung über den aktuellen „Ort“ im World Wide Web sind zentral für den Erfolg bei der Informationssuche (Edwards/Hardman). Weil die Orientierung „virtuell“ erfolgt, sind Metapher so prägend (Stahl) und lehnen sich oft an bekannten Repräsentationsformen an, vor allem am Buch (Hodel). Das gilt auch für die so genannte Bread-Crumb-Navigation, die Brotkrümel-Navigation, die in Anlehnung an – sagen wir – Orientierungskompetenz von Hänsel und Gretel jende Navigation meint, die die User immer einen Schritt zurückgehen lässt (Zurück-Knopf des Browser). Einzelne Websites bieten diese Navigation auch automatisch generiert an – allerdings nur, solange die User auf der gleichen Website unterwegs sind (wieder die räumliche Metapher…).

Interessant wären die Pfade, die beim Durchstreifen (um der Metapher gerecht zu werden) der Informationsräume entstehen. Hier sind erst wenige Untersuchungen vorgenommen worden und es gibt auch kaum Vorschläge, wie diese Pfade aufgezeichnet, reflektiert oder anderen zur Verfügung gestellt werden könnten. Denn die Pfade sind eigentlich kleine individuelle schöpferische Akte, bei denen kurzlebige virtuelle Sinneinheiten hergestellt werden.

Literatur

  • Hodel, Jan: Wie kommen wir dahin? Das Internet verlangt nach neuen Fähigkeiten bei der Aufnahme von Informationen. Verfasst für die Online-Publikation im Bereich „Reflexionen“ der Website www.pastperfect.at., 15.9. 2003. (PDF)
  • Edwards, Deborah M., Hardman, Lynda: „Lost in hyperspace: cognitive mapping and navigation in a hypertext environment“, in: McAleese, Ray (Hg.): Hypertext: theory into practice, Edinburgh: 1999, S. 90-105
  • Krüger, Stefanie: „Die Erschliessung digitaler und analoger Suchräume. Anforderungen an heuristische Verfahren“, in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 91-105
  • Stahl, Elmar: Is a hypertext a book or a space? The impact of different introductory metaphors on hypertext construction, in: Computers & Education Volume 44 , Issue 2 (February 2005) S. 115-133. (Abstract)

Aus der Welt der Blogs IV: der beste Blog der Welt

Nun ist es amtlich, eine Jury hat im Rahmen des Wettbewerbs „Best of Blog“ den besten Blog der Welt ausgezeichnet. Titel „Mehr Respekt, ich bin Deine Mutter!“ (Mas respeto, que soy tu madre!)

  • Inhalt: eine fiktive Fortsetzungeschichte aus einer argentinischen Familie.
  • Die Jury: „Eine gelungene fiktionale Mischung aus Telenovela und Komödie“.
  • Der Autor Hernan Casciari: „Ich warte sehnsüchtig darauf, dass die Leute endlich die kreative Kraft der Weblogs erkennen und etwas Neues schaffen. Derzeit schreiben 80 Prozent der Blogger ausschliesslich über sich oder über Weblogs. Unter Bloggern ist die Nabelschau leider immer noch weit verbreitet.“

Tja, trifft für diesen meinen Blog-Eintrag leider auch zu, ich nehme es zur Kenntnis…

HOK: Lesen – Vom Suchen und Finden VII: Informationskompetenz

Die historische Online-Kompetenz ist ja definiert als Schnittmenge zwischen historischer Kompetenz und der Medienkompetenz (dabei besonders auf die Neuen Medien, bzw. ICT, und besonders auf das Internet bezogen).

Allerdings ist zu fragen, ob nicht die Informationskompetenz, wie sie die ACRL als Standards definiert hat, den Bereich „Lesen/ Analyse“ der Historischen Online-Kompetenz besser zu erfassen mag (Mehr Links am Ende des Eintrag). Wer über Informationskompetenz verfügt, ist in der Lage,

  1. Art und Umfang der benötigten Informationen zu bestimmen,
  2. sich effizienten und effektiven Zugang zu den benötigten Informationen zu verschaffen,
  3. Informationen und seine Quellen kritisch zu evaluieren und die ausgewählten Informationen in sein Wissen und sein Wertsystem zu integrieren,
  4. Informationen effektiv zu nutzen um ein bestimmtes Ziel zu erreichen und
  5. die ökonomischen, rechtlichen und sozialen Streitfragen zu kennen und zu verstehen, die mit der Nutzung von Informationen zusammenhängen und Zugang und die gefundenen Informationen in einer ethischen und legalen Weise zu nutzen.

Die Medienkompetenz wäre in diesem Falle umfassender: Sie beschreibt dann auch die Fähigkeiten, die Medien und ihre Eigenschaften zu kennen und auch zur Produktion von Inhalten zu nutzen. Jakob Krameritsch schreibt daher von „Medienkreativität“.
Offen bleibt die Frage, ob Navigations- und Orientierungsfähigkeit Teil der Informationskompetenz ist oder nicht. In den Standards tauchen die Begriffe jedenfalls nicht auf.

Literatur/Links: