HOK: Lesen – Vom Suchen und Finden IX: Mainstream

Da wir es gerade von Google hatten (wer spricht zur Zeit nicht von Google, wenn es um „Digitales Wissen“ und dergleichen geht?): Google hat mit der Ankündigung, die Bestände berühmter Bibliotheken (vor allem in den USA) in globo einzuscannen und zur Suche bereitzustellen (Google Book Search), einiges an Widerstand und Skepsis geerntet, zuletzt an der „Semantics“ in Wien.

Dabei geht es ja nicht nur um die Kommerzialisierung des Wissenszugangs (den Google zwar bestreitet, aber bitte: Google ist ein kommerzielles Unternehmen – keine gemeinnützige Institution), sondern auch um die unvermeidliche Fokussierung auf bereits mit Aufmerksamkeit bedachter Informationen und Wissensbestände. Oder mit den Worten von Max Kaiser, Koordinator für Forschungs- und Entwicklungsprojekte bei der österreichischen Nationalbibliothek: „Die Leute werden aber davon ausgehen, dass alles digital zu finden ist. Was nicht aufgenommen wird, wird komplett in Vergessenheit geraten.“ Die Aussage: „Was bei Google nicht zu finden ist, existiert nicht“, gilt dann nicht nur für Web-Inhalte, sondern auch für Bücher.

Dieser Trend zum Mainstream stellt auch Christiane Floyd bei der Digitalisierung der historischen Recherche-Rahmenbedingungen fest: Viele Datenbestände werden überhaupt erst in feste Formen gebracht, wenn sie für die Abfrage mittels Internet aufbereitet werden, bzw. diese Strukturen werden einer breiten Öffentlichkeit sichtbar. Dafür setzt sich aber auch ein Trend durch, der bei der Strukturierung der Daten zu einem Mainstream führt. Die Daten werden auf ähnliche Weise strukturiert.

Dies gilt in einem sich selbst verstärkenden Prozesse wohl auch für die Inhalte. Auch hier bietet Google ein schönes Beispiel: Letzte Woche lancierte Google das Projekt Google Base. Dabei handelt es sich um eine Datenbankinfrastruktur, die von jedermann (und jeder Frau) benutzt werden kann. Wer seine CD-Sammlung der Welt mitteilen will oder Autos oder Backwaren verkaufen will, kann die Daten dorthin hochladen. Aber auch Gemeinde-Bibliotheken oder andere Institutionen können ihre Daten dort kostengünstig in strukturierter Form publizieren.

Da die Struktur vorgegeben ist, führt dies unweigerlich zu einer verkappten Standardisierung. Auch das Tagging hat einen Mainstream-Effekt, wie Google als Suchmaschine ja auch: Bekanntes wird bekannter. Die Nischen werden immer weniger beachtet und verschwinden – ausser sie bezahlen für die Aufmerksamkeit in Form einer Google-Anzeige. Beim Tagging ist die Strukturierung relativ weich und wird durch die User gesteuert, bei Google Base kann man das nicht behaupten.

Mag die Struktur von Wissensbeständen (wie Floyd erklärt) durch eine Publikation im Internet „veräussert“, bzw. expliziert und damit erkennbar werden: nicht immer erschliessen sich die Kriterien, die zur Auswahl geführt haben. Google Scholar, das letztes Jahr eingeführt wurde, hat wie die Google Print bzw. Google Books bei den Bibliotheken für viel Aufsehen gesorgt. Doch wie genau die Inhalte (zumeist Fachzeitschriften) ausgewählt werden, ist nirgends dokumentiert. Auch hier lässt eine erste Analyse den Schluss zu, es handle sich um einen Trend zum Mainstream – zu den gut betuchten grossen Verlagen. Es entbehrt nicht einer gewissen Ironie, dass die Bibliotheken nun die Fachverlage gerade aufgrund der Erfahrung mit Google Scholar unter Druck setzen, da die Fachzeitschriften-Abonnemente so horrend sind.

Literatur:
Floyd, Christiane: „Esse est percipi. To Be is to Be Accessed.“, in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 57-71

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert