Archiv der Kategorie: Allgemein

Wisskom2007 (1)

wisskomm550jpg

Angekommen in Jülich, irgendwo weit hinter Köln in Richtung niederländischer Grenze. Hier befindet sich das Forschungszentrum Jülich, früher Kernforschungszentrum und heute Arbeitsort des diesjährigen Physik-Nobelpreisträgers Peter Grünberg, und hier findet die WissKom2007 statt: «Wissenschaftskommunikation der Zukunft» lautet das Motto der Tagung, an der Haber & Hodel wieder einmal beide gemeinsam auftreten werden

Letzte Woche nämlich, das hatten wir unterschlagen, waren wir in Frankfurt an der Konferenz 1hoch4. Interaktivität, Information, Interface und Immersion lauteten die vier „I“, die zum eigenwilligen Tagungstitel geführt haben. Haber & Hodel (wobei Haber für beide sprechen musste) referierten zum Thema «Von der digitalen Geschichte zur digitalen Geschichtswissenschaft».

An der WissKom2007 werden wir am gleichen Punkt ansetzen und versuchen, den Arbeitsplatz des Historikers im digitalen Zeitalter zu skizzieren. Wir nennen das Projekt «h-desk 0.1». Dieser virtuelle Schreibtisch ist ein Teil der Computer Aided Historiography, die wir an dieser Stelle bereits erwähnt haben und zusammen mit der Wiener Elektronischen Schule weiterentwickeln werden.

OpenSocial: wie offen ist SocialSoftware?

Das Google seit neustem im Bereich der Mobiltelefonie mitmischt (bzw. nach Meinung verschiedener Medien das Mobiltelefon neu erfindet), sei hier nur der Anlass, auf eine andere interessante Neuerung im Google-Universum hinzuweisen. Seit letzter Woche bietet Google mit OpenSocial eine Möglichkeit für Betreiber von Social Software-Anwendungen, die Daten Ihrer Nutzer/innen einfach von einem Dienst zu anderen zu transferieren. ((Konkurrent Facebook bietet eine ähnliche Programmierschnittstelle allerdings schon seit geraumer Zeit an. Dort gibt es einige tausend (!) Anwendungen, die sich an die offene Schnittstelle von Facebook anklinken. Dies war vermutlich auch ein Grund für Google, sich hier zu engagieren. Dafür hat sich mit Myspace ein weiterer grosser Anbieter einer Community-Plattform)) Dies kommt einem Paradigmenwechsel im Social-Software-Universum gleich, waren bzw. sind doch Dienste wie Flickr, YouTube, MySpace und dergleichen eher darauf ausgelegt, dass die Nutzer/innen auf immer und ewig an den eigenen Dienst gebunden werden – auch wenn die Nutzungsbedingungen sich verschlechtern oder verteuern (oder beides). Weiterlesen

Ordnungssysteme à la web 2.0

Ein wenig spektakulärer Bericht bei CNet über eine neue Funktion einer Social-Web-Anwendung hat mir (wieder mal) das Potential von web 2.0 für wissenschaftliche Anwendungen jenseits allen Hypes gezeigt. Es geht um den Dienst StumbleUpon, der einem im Zufallsmodus Websites vorschlägt, die den bei StumbleUpon mitwirkenden Internet-Nutzer/innen interessant erscheinen. StumbleUpon bietet nun neu ein Addon ((Addon ist ein Stück Software, das die Funktionalität des Firefox-Browsers erweitert)) für Internet Explorer und Firefox an, das bei der Nutzung von Google und Wikipedia Informationen der StumbleUpon-Community in die Suchergebnisse, bzw. die Wikipedia-Seite einblendet. Weiterlesen

Digitale Information: Evolution, Revolution, Erosion?

Ein sehr schöner Kurzfilm von Michael Wesch, dem wir auch den Beitrag zu Web 2.0 (The Machine is Us/ing Us) verdanken (vor einiger Zeit hier besprochen), thematisiert die Veränderung der Handhabung von Information (insbesondere die Strukturierung und Ordnung, aber auch die Generierung und Speicherung), die auf ihre digitale Gestalt zurückzuführen ist. Kernaussage: Da die Informationen keine physikalischen Beschränkungen mehr unterworfen sind, wird die Ordnung der Informationen vielfältiger, flexibler und für jedermann einfacher zugänglich.

Also, wenn dieser Film keine Diskussion auszulösen vermag (Sollen, bzw. können wirklich Tag-Clouds von Laien die Referenzsysteme von Fachexperten ablösen?), dann weiss ich auch nicht mehr weiter. In diesem Sinne wünsche ich dem Film die von Beat Döbeli vorhergesagte „Durchreichung“ durch die einschlägigen Blogs. Denn er scheint mir die Kernfrage zu behandeln: wie organisiert die Wissengesellschaft im digitalen Zeitalter ihre Informationen? Verschwinden innerhalb kurzer Zeit die etablierten Kulturtechniken der Suche, die sich auf hierarchische Strukturierungssysteme beziehen, die einem sachlogischen Aufbau folgen und die die Informations-Recherchen entsprechend gliedern, indem sie der eigentlichen Suche die Entscheidung des Suchenden verlangen, welcher Kategorie er sein Themengebiet zuordnet? Die Volltext-Suche legt ja nach dem Trial & Error-Prinzip einfach mal los, die Strukturierung entsteht ja ad hoc beim Akt des Recherchierens aus dem Vorwissen des Suchenden und den Ergebnissen der Suchmaschinen. Es braucht keine hierarchische Struktur mehr, meint Wesch, „the links alone are enough“.

Remembering Roy Rosenzweig – digitales Gedenken

Mag es mir schon etwas ungewohnt vorkommen, dass Nachrufe in Weblogs verfasst werden (und nicht nur wie gewohnt in Zeitungen), so überrascht mich der Weblog thanksroy erst recht (via Historia i Media). Für mitteleuropäische Verhältnisse mag es seltsam anmuten, dass ein Kondolenz-Buch gleich als Weblog veröffentlicht wird. Offenbar haben die amerikanischen Kollegen hier weniger Vorbehalte gegenüber dieser Art des Gedenkens, denn der Weblog ist voll mit sehr unterschiedlichen und persönlichen Einträgen. Ich vermute, dass dieser Weblog eine Einzelerscheinung bleibt, die auf die besondere Rolle Rosenzweigs als Protagonist des digitalen Wissenschaftsbetriebs zurückzuführen ist, und gehe davon aus, dass sich Kondolenz-Blogs nicht so rasch als Formen des Trauerns und Gedenkens etablieren werden. Aber vielleicht irre ich mich auch.

HOK Reden: Internet Governance

Wer regiert das Internet? Die Frage ist in einem Blog-Eintrag nicht zu beantworten – wenn sie überhaupt zu beantworten ist. Ein guter Ausgangspunkt ist die Artikel-Sammlung von Telepolis, die sich unter dem Titel „Cyber-Weltgipfel“ seit der WSIS in Genf Ende 2003 mit Fragen der Internet-Regulierung befasst. Im Wesentlichen dreht sich die Auseinandersetzung darum, wer die Informationen verwalten darf, die das Internet überhaupt am Laufen halten: die Domain-Informationen, bzw. die Informationen darüber, wer welche Domains verwaltet. Das war jahrelang eine informelle Sache von US-amerikanischen Hochschul-Angestellten und Verwaltungsinstanzen der US-Regierung, welche die Entwicklung des Internets (zumindest seiner Ursprünge) finanzierte. Neuerdings wacht die ICANN, eine Stiftung nach amerikanischem Recht, über die Namensgebung im Internet.

Der jüngste Artikel „Weiter Uneinigkeit über Kontrolle des Internet“ behandelt die momentan unklare Interessenlage. Neben der US-Regierung, die noch immer massgeblich Einfluss nehmen will, ist auch die UNO-Tochterorganisation ITU (Internationale Telecommunication Union) daran interessiert, hier ihren Einflussbereich zu definieren. Dies steht im Widerspruch zum Internet Governance Forum (IGF), das im Oktober unter der Leitung der UN erstmals zusammentraf. Im IGF arbeiten im Gegensatz zur ITU nicht nur Regierungsdelegationen, sondern auch Vertreter der Wirtschaft und der Zivilgesellschaft zusammen. Dies soll einen Ausgleich der verschiedenen Interessen an der Regulierung des Internets gewährleisten, bedeutet aber eine Einschränkung des staatlichen Vorrechts auf Regelsetzung.

Dabei geht es noch gar nicht um technische Spezifikationen, welche das W3C durchzusetzen versucht (mit mässigem Erfolg, weil fast alle grossen Web-Unternehmen oder auch Microsoft die Standards ignorieren und lieber selber welche etablieren), und auch nicht um die Bereitstellung der technischen Infrastruktur, also der physikalischen Netze (die etwa beim Streit um die (hier bereits besprochene) Net Neutrality im Mittelpunkt stehen).

Sollen Aber sie wirft eine weitere Frage auf: inwiefern sind die Machtverhältnisse im Internet für die Historische Online-Kompetenz von Relevanz? Und in welchen Kompetenz-Bereich sind diese Fragen anzusiedeln? Hier ist zugleich anzufügen, dass Kompetenzen nicht mit Wissen gleichzusetzen ist. Dennoch bleiben viele Kompetenzmodelle unklar in der Frage, inwiefern Wissen Bestandteil, Gegenstand oder Voraussetzung von Kompetenzen ist.

Das Wissen über die Funktionsweise von ICT (Neuen Medien) und den Interessengruppen, welche die Entwicklung von Anwendungen vorantreiben und die Nutzungsmöglichkeiten regeln, ist für alle Kompetenzbereiche von Bedeutung. Ich weise es in erster Linie dem Bereich „Lesen“ zu, da die Kompetenz, sich über die Interessen und Machtverhältnisse zu informieren, Grundlage dafür ist, ihre Auswirkungen für „Lesen“, „Schreiben“ und „Reden“ einzuschätzen. Die Fähigkeit zur Einschätzung ist wiederum mit der Kompetenz der Reflexion und der Erörterung („Reden“) verbunden.

Übersicht: HOK Reden

HOK Lesen: Suchen und Finden: Das unsichtbare Web

Die Informationswissenschaftler Mayr und Lewandowski nehmen in einer aktuellen Publikation das Thema des „unsichtbaren Webs“ oder des „Deep Web“ (oder in ihrem Fall präziser: des „invisible academic web“) auf: jener Teil des Webs, der von Suchmaschinen nicht erfasst wird und damit für die meisten Nutzer/innen des Internets unsichtbar bleibt. Dazu gehören einerseits Seiten, die aus technischen Gründen von den Suchrobotern nicht gefunden werden oder deren Inhalte nicht indiziert werden können. Nicht gefunden werden Seiten, zu welchen keine oder falsche Links führen, aber auch Bereiche oder ganze Websites, deren Betreiber willentlich die Suchroboter mit entsprechenden Einstellungen ausschliessen und ihre Inhalte nicht in die Suchmaschinen indiziert haben wollen (ein Umstand, den Mayr und Lewandowski in ihren Übelegungen nicht berücksichtigen). Zu den nicht indizierbaren Dateien gehörten früher auch PDF-Dateien, heute sind es Musik-, Video- aber auch Flash-Dateien, während Bild-Dateien ja schon ziemlich gut in die Suchmaschinen-Abfragen eingebunden wurden.

Zum unsichtbaren Web (und hierauf konzentrieren sich Mayr und Lewandowski) gehören auch die zahlreichen via Web erreichbaren Datenbanken: angefangen von öffentlich zugänglichen Bibliothekskatalogen bis hin zu kostenpflichtigen Text- und Bilddatenbanken. Nicht (mehr) dazu gehören datenbankbasierte Web-Angebote wie etwas Amazon, deren Inhalte durch zahlreiche dynamische Verlinkungen von den Suchrobotern umfassend indiziert werden können.

Eine Studie von Michael K. Bergman aus dem Jahr 2001 schätzte, dass die Datenmenge in den Datenbanken jene des in Suchmaschinen indizierten Webs um das 550-fache (!) übersteige. Mayr und Lewandowski kommen bei einer kritischen Würdigung nun zum Schluss, dass die wirklich für wissenschaftliche Zwecke interessanten und relevanten Text-Datenbanken vielleicht gleich viel Daten beherbergen wie das „offene Web“ auch: also in der Grössenordnung von einigen Milliarden Dokumenten. Weggerechnet wären dabei Datenbanken mit technischen Inhalten oder Rohdaten und Bilder (zum Beispiel Satellitenbilder). Ob sie beispielsweise Patentrecht- oder Zeitungsvolltext-Datenbanken auch zu der relevanten Menge gezählt haben, erläutern Mayr und Lewandowski nicht näher.

Sie gehen auch nicht näher auf den (von ihnen erwähnten) Umstand ein, dass im „offenen Web“ nur ein Bruchteil der Inhalte wissenschaftlichen Ursprungs sind. Eine Schätzung von Lawrence und Giles (aus dem Jahr 1999) geht davon aus, dass 6% der im Web auffindbaren Inhalte als wissenschaftlich bezeichnet werden können. Folglich sind im unsichtbaren Web fast zwanzigmal mehr wissenschaftlich relevanten Daten vorhanden als im offenen Web.

Natürlich versuchen die Suchmaschinen, die sich als Suchinstrumente zu stark etabliert haben, um den Nutzer/innen wieder Datenbankabfragen beliebt machen zu können, die Inhalte des unsichtbaren Webs zu erschliessen: Google Scholar oder Scirus suchen gezielt Inhalte dieser Datenbanken ab und sind zu diesem Zweck Kooperationen mit wissenschaftlichen Verlagen und Datenbankbetreibern eingegangen. Oftmals kann man Inhalte zwar finden, muss diese aber bezahlen, wenn man sie einsehen will.

Mayr und Lewandowski plädieren einerseits dafür, genauere Untersuchungen über Art und Umfang des unsichtbaren Webs anzustellen (sie selber stellen nach eigener Deklaration nur plausible Überlegungen an), und andererseist, dass sich verschiedene Körperschaften und Institution in Kooperationen zur Erschliessung des unsichtbaren Webs zusammenschliessen sollten (ähnlich dem von ihnen erwähnten, aber nicht sehr erfolgreichen Projekt Vascoda). Ähnliche Forderungen zu europäischen Gegeninitiativen zu den US-amerikanischen Projeken zur Erschliessung des Webs (insbesondere durch Google) sind auch schon erhoben worden, etwa im Zusammenhang mit dem Buch-Digitalisierungsprojekt von Google.

Literatur:

Übersicht: HOK Lesen: Suchen und Finden

HOK: Lesen – Vom Suchen und Finden XI: Die drei Königswege zur Ordnung im Chaos

Die Meldung von Heise, wonach Yahoo den Bookmark-Dienst Delicious (genauer de.lico.us) aufgekauft hat (ich erwähnte die Firma beim Thema „Tagging“ und „Communities„) stiess mich auf eine Erkenntnis. Yahoo ist einer der führenden Suchmaschinen-Dienste der Welt, ein Konkurrent von Google. Angefangen hatte Yahoo als Verzeichnisdienst, als redaktionell betreutes Angebot von Internet-Adressen, dessen Kategorisierungskriterien ebenso gut gehütet waren und sind wie die Such-Algorithmen und Ranking-Kriterien der Suchmaschinen. So sind nun bei Yahoo die „drei Königswege, Ordnung in das Chaos Internet zu bekommen“ unter einem Dach vereint:

  1. Der konventionelle Weg
  2. Der maschinelle Weg
  3. Der gruppenbasierte Weg

Der konventionelle Weg: Hier werden Fachredaktoren angestellt, die auf professioneller Basis nach fachlichen Kriterien Strukturen erstellen und Inhalte in diese Strukturen einfüllen. Die Analogie zur Arbeit der Bibliotheken ist offensichtlich, aber nicht immer so konsequent umgesetzt wie bei den Subject Gateways, etwa dem History-Guide. Drum ist die Arbeit der Subject Gateways wohl auch immer noch so unbekannt, dass nicht einmal ein Eintrag bei Wikipedia besteht (eine Übersicht über verschiedene Subject Gateways, wobei dort der Begriff sehr weit gefasst ist, ist bei Pinakes zu finden). Das Hauptproblem dieses Weges: die Arbeit ist schier endlos und ihre Bewältigung daher sehr teuer. Viele Projekte, die diesen Weg beschreiten, lassen in der Qualität nach, bzw. genügen wissenschaftlichen Kriterien nicht, oder müssen irgendwann die Arbeit einstellen.

Der maschinelle Weg: Die Hoffnung, dass Computerprogramme das Netz von alleine strukturieren können. Mit anderen Worten: die Suchmaschinen werden immer mehr besser programmiert, gesammelte Datenmengen zu strukturieren. Der Gipfel der Träume: Das semantische Web, in dem die Dokumente derart clever strukturiert sind, dass sie sich gegenseitig erkennen und aufsuchen können. Trotz jahrelangen Ankündigungen gibt es kaum Anzeichen dafür, dass der Durchbruch bevorstehe. Das Internet ist einfach schon zu chaotisch und voller unstrukturierter Inhalte. Das ist kaum „rückgängig“ zu machen.

Der gruppenorientierte Weg: Entweder Projekte im Sinne von Grassroot-Bewegungen: jeder leistet einen kleinen, freiwilligen Beitrag zum grossen Ganzen, und weil das Internet die ganze Welt verbindet, sind die Gruppen gross genug, dass aus dem vielen Kleinen etwas Grosses wird: siehe Open-Source-Software, Wikipedia oder das Webverzeichnis dmoz. Die Gruppenorientierung findet sich in vielen Feedback-Funktionalitäten: bei Amazon etwa „Menschen die diese Buch gekauft haben, kauften auch…“ oder „Kundenrezensionen“. Vom Tagging, dem freien Verwenden von Schlagworten, das auch für Suchmaschinen-Optimierungen gebraucht werden kann, hatten wir es schon mal.

So schliesst sich der Kreis. Bei Yahoo ist alles unter einem Dach. Und auch das hatten wir vor ein paar Jahren schon einmal. Damals hiess es „Portal“. Die Suche nach dem Gral oder dem Ei des Kolumbus wird wohl weitergehen auf den drei Königswegen. Wie ist Struktur in das Chaos zu bringen?