Schlagwort-Archive: Suchen und Finden

HOK Lesen: Suchen und Finden: Keine Anzeichen für eine „Googlearchy“

Die Popularität von Google führte einige Beobachter/innen zur Annahme, dass die Suchmaschine einen selbstverstärkenden Effekt erzeugen könnte: Populäre Websites (also solche, auf die viele Links führen) tauchten weiter oben in den Suchergebnissen auf, was wiederum ihre Popularität (also ihre Verlinkung) steigerte – es entsteht eine so genannte „Googlearchy„.

Doch eine Studie der Indiana University School of Informatics hat ergeben, dass diese selbstverstärkenden Effekte viel weniger zum Tragen kommen, als vermutet, ja dass die Suchmaschinen sogar eher einen ausgleichenden Effekt bewirkten.

“Our study demonstrates that popular sites receive on average far less traffic than predicted by the Googlearchy theory and that the playing field is more even.” (Filippo Menczer)

Dennoch lässt sich eine Verteilung der „Popularität“ in den Suchmaschinen-Rankings zeigen, die den Erwartungen der Netzwerk-Theorie entspricht: eine langsam auslaufende Kurve mit wenigen sehr populären und vielen wenig populären Websites. Trotz des Wachstums des Webs verändert sich an dieser Verteilung wenig. Die Netzwerk-Theorie ist fasziniert, weil sich das Web ähnlich wie ein soziales Netzwerk verhält, bzw. beschreiben lässt. Es gibt Anzeichen, die von den Teilnehmer/innen richtig gedeutet werden – so können Menschen in ihrer Gesellschaft erkennen, wer über mehr und wer über weniger Einkommen verfügt, ohne das genaue Vermögen oder Einkommen der entsprechenden Personen zu kennen. Ähnlich, so die Aussage der Studie, verhält es sich mit der Popularität von Websites: Suchmaschinen zeigen auf, wer populärer ist, ohne die genaue Zahl und die genaue Herkunft der Links zu zeigen, die auf die Websites führen.
(via Recherchen-Blog.)

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Das unsichtbare Web

Die Informationswissenschaftler Mayr und Lewandowski nehmen in einer aktuellen Publikation das Thema des „unsichtbaren Webs“ oder des „Deep Web“ (oder in ihrem Fall präziser: des „invisible academic web“) auf: jener Teil des Webs, der von Suchmaschinen nicht erfasst wird und damit für die meisten Nutzer/innen des Internets unsichtbar bleibt. Dazu gehören einerseits Seiten, die aus technischen Gründen von den Suchrobotern nicht gefunden werden oder deren Inhalte nicht indiziert werden können. Nicht gefunden werden Seiten, zu welchen keine oder falsche Links führen, aber auch Bereiche oder ganze Websites, deren Betreiber willentlich die Suchroboter mit entsprechenden Einstellungen ausschliessen und ihre Inhalte nicht in die Suchmaschinen indiziert haben wollen (ein Umstand, den Mayr und Lewandowski in ihren Übelegungen nicht berücksichtigen). Zu den nicht indizierbaren Dateien gehörten früher auch PDF-Dateien, heute sind es Musik-, Video- aber auch Flash-Dateien, während Bild-Dateien ja schon ziemlich gut in die Suchmaschinen-Abfragen eingebunden wurden.

Zum unsichtbaren Web (und hierauf konzentrieren sich Mayr und Lewandowski) gehören auch die zahlreichen via Web erreichbaren Datenbanken: angefangen von öffentlich zugänglichen Bibliothekskatalogen bis hin zu kostenpflichtigen Text- und Bilddatenbanken. Nicht (mehr) dazu gehören datenbankbasierte Web-Angebote wie etwas Amazon, deren Inhalte durch zahlreiche dynamische Verlinkungen von den Suchrobotern umfassend indiziert werden können.

Eine Studie von Michael K. Bergman aus dem Jahr 2001 schätzte, dass die Datenmenge in den Datenbanken jene des in Suchmaschinen indizierten Webs um das 550-fache (!) übersteige. Mayr und Lewandowski kommen bei einer kritischen Würdigung nun zum Schluss, dass die wirklich für wissenschaftliche Zwecke interessanten und relevanten Text-Datenbanken vielleicht gleich viel Daten beherbergen wie das „offene Web“ auch: also in der Grössenordnung von einigen Milliarden Dokumenten. Weggerechnet wären dabei Datenbanken mit technischen Inhalten oder Rohdaten und Bilder (zum Beispiel Satellitenbilder). Ob sie beispielsweise Patentrecht- oder Zeitungsvolltext-Datenbanken auch zu der relevanten Menge gezählt haben, erläutern Mayr und Lewandowski nicht näher.

Sie gehen auch nicht näher auf den (von ihnen erwähnten) Umstand ein, dass im „offenen Web“ nur ein Bruchteil der Inhalte wissenschaftlichen Ursprungs sind. Eine Schätzung von Lawrence und Giles (aus dem Jahr 1999) geht davon aus, dass 6% der im Web auffindbaren Inhalte als wissenschaftlich bezeichnet werden können. Folglich sind im unsichtbaren Web fast zwanzigmal mehr wissenschaftlich relevanten Daten vorhanden als im offenen Web.

Natürlich versuchen die Suchmaschinen, die sich als Suchinstrumente zu stark etabliert haben, um den Nutzer/innen wieder Datenbankabfragen beliebt machen zu können, die Inhalte des unsichtbaren Webs zu erschliessen: Google Scholar oder Scirus suchen gezielt Inhalte dieser Datenbanken ab und sind zu diesem Zweck Kooperationen mit wissenschaftlichen Verlagen und Datenbankbetreibern eingegangen. Oftmals kann man Inhalte zwar finden, muss diese aber bezahlen, wenn man sie einsehen will.

Mayr und Lewandowski plädieren einerseits dafür, genauere Untersuchungen über Art und Umfang des unsichtbaren Webs anzustellen (sie selber stellen nach eigener Deklaration nur plausible Überlegungen an), und andererseist, dass sich verschiedene Körperschaften und Institution in Kooperationen zur Erschliessung des unsichtbaren Webs zusammenschliessen sollten (ähnlich dem von ihnen erwähnten, aber nicht sehr erfolgreichen Projekt Vascoda). Ähnliche Forderungen zu europäischen Gegeninitiativen zu den US-amerikanischen Projeken zur Erschliessung des Webs (insbesondere durch Google) sind auch schon erhoben worden, etwa im Zusammenhang mit dem Buch-Digitalisierungsprojekt von Google.

Literatur:

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Google News

Google ist derzeit sehr präsent in den Medien. Da gibt es eine Ankündigung der Zusammenarbeit mit Associated Press; Google will Urheberrechtsstreitigkeiten mit den Medienunternehmen vermeiden. Ausserdem wird Google in Zukunft beim virtuellen Treffpunkt MySpace die Suchtechnologie beisteuern und die Werbeplätze verkaufen dürfen. Weiter will Google in den Ergebnislisten vor Websites mit schlechtem Ruf warnen (immer noch besser, als diese aus dem Index auszuschliessen) und die Zugänglichkeit für Behinderte zu den Suchergebnissen verbessern. In Sachen Klickbetrug hat sich Google nun mit den werbetreibenden und sich betrogen geglaubten Firmen eine aussergerichtliche Einigung erzielt, die mehr Transparenz bei der Abrechnung der Klicks vorsieht, und anschliessend Kritik an den Firmen geäussert, die behaupten, Klickbetrug nachweisen zu können. Ausserdem will die Universität von Kalifornien mit Google bei der geplanten Digitalisierung von Büchern zusammenarbeiten.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: TimeMachine

Darauf haben wir Historiker doch schon lange gewartet: Dass die Informatiker mit einer Zeitmaschine aufwarten! Nun ist sie da: TimeMachine von Apple! Ok, ist eigentlich nur ein aufgemotztes Backup-Programm; aber doch in zweierlei Hinsicht interessant.

Zum einen: Versionierung wird Mainstream (merci Beat!). Was Wikis schon lange vorführen, kann nun auf jedem Desktop Einzug halten – und damit die Art der Arbeit verändern. Bislang haben wir (ich darf doch für alle sprechen?) die Dokumente vor lauter Angst, versehentlich ein Original zu löschen, ja ständig dupliziert oder ewig aufbewahrt. Dank TimeMachine lässt sich bei Bedarf relativ einfach noch einmal die Version von vorvorgestern zurückholen.

Zum andern: Man mag die Visualisierung gar trivial finden – doch hier kündigt sich (meines Erachtens) eine Veränderung der Benutzeroberfläche für das Durchforsten von Daten an. Nicht lange, und auch Bibliothekskataloge und Suchmaschinen werden wir mit dieser Form „virtueller Karteikärtchen“ durchblättern statt mit den heutigen Listendarstellungen und „Next/Previous“-Navigationshilfen.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Meta-Tag-Regelungen

Meta-Tags (Definition bei Suchfibel.de) sind Schnippsel im HTML-Code einer Website, die vom Browser nicht dargestellt werden (ausser, man ruft den Quelltext auf). Suchmaschinen (bzw. die Suchroboter, welche für die Suchmaschinen das Internet abgrasen) sehen diese Meta-Tags nicth nur, sie nutzen die Informationen darin für die Gewichtung bei Suchanfragen. Denn Meta-Tags werden in der Regel genutzt, um die wichtigsten Schlagworte aufzuführen, die den Inhalte der entsprechenden Seite zusammenfassen.

Nun wird immer wieder mit diesen Meta-Tags Schindluder getreiben – gerade, weil dies eine beliebte und einfache Möglichkeit bietet, die Trefferanzeige in Suchmaschinen zu manipulieren. Pornoseiten etwa schreiben „Golf, Auto, Fussball“ und so weiter in die Meta-Tags. Die Suchmaschinenbetreiber haben dazu gelernt, diese Art von Manipulation funktionert praktisch nicht mehr.

Anders sieht dies aus, wenn Namen in den Meta-Tags genannt werden. Auch hier kann manipuliert werden: BMW setzt zum Beispiel VW, Opel, General Motors in seine Meta-Tags und wird zuoberst angezeigt, wenn jemand ein Suche nach Opel in der Suchmaschine absetzt (das Beispiel ist natürlich fingiert).

Diese Praxis ist schon eine Weile verboten. Neuerdings dürfen nebst Markennamen auch bürgerliche Namen nicht missbräuchlich in Meta-Tags verwendet werden: das ist etwa bei Anwaltskanzleien oder anderen Branchenein Problem, wo die Anbieter mit ihrem bürgerlichen Namen auftreten.

Metadaten (und Meta-Tags gehören dazu) sind Hoffnungsträger für die Strukturierung des Internets, zum Beispiel auch für das Anliegen des „Semantic Web„. Sie sind attraktiv – auch für Tricksereien. Nutzer/innen von Suchmaschinen sollten die Bedeutung dieser Metadaten daher kennen. Und: es gibt Verbindungen zur Problematik des Urheberrechts. Sowohl Markennamen, aber erst recht bürgerliche Namen sind nicht immer eindeutig. Was macht ein Anwalt mit dem Namen Müller?

Übersicht: HOK: Lesen: Suchen und Finden

HOK: Lesen: Suchen und Finden: Einschub zum Thema „Google“

Ein Kommentar zu meinem letzten Eintrag fragte nach dem Zusammenhang der Meldung über Index-Auschlüsse aus Google mit historischer Online-Kompetenz. Meiner Meinung nach ist Google ein Schlüsselthema für die historische Online-Kompetenz. Alle arbeiten damit (auch GeschichtswissenschaftlerInnen). Wenige legen sich Rechenschaft darüber ab, was hinter diesem nützlichen Tool steckt an ökonomischen Interessen, Datenmacht und Innovationskraft, die einem jeweils einen blanken Schrecken einjagen können (je nachdem, wie man die Gerüchte über potentielle Entwicklungen mit kleinen Meldungen aus dem Alltag der Suchmaschinen verbindet und extrapoliert). Google ist eben nicht einfach ein Tool, ein Werkzeug wie der Fotokopierer, ein Telefonbuch oder ein Bibliothekskatalog.

Natürlich geht es hier um Vertrauen. Das weiss Google selber und verhält sich ja in der Praxis in der Regel oft auch so, wie die Firma in der eigenen Philosophie das postuliert. Aber mit der Vertrauen in der Welt der Informations- und Kommunikationstechnologien ist das so eine Sache. Wer vertraut da wem? Die KundInnen den Unternehmen – oder die Unternehmen den KundInnen? (Verschwörungstheoretiker dürfen – allerdings ohne gross übertreiben zu müssen – nach „Unternehmen“ auch noch „Behörden“ in Klammern dazu setzen. CIA usw.) Siehe die nette Animation zu Trusted Computing von Benjamin Stephan und Lutz Vogel.

Noch mal zu Google. Hier eine kleine, nicht abschliessende Auswahl von Meldungen des Suchmaschinenbetreibers.

Ökonomische Interessen
Google wehrt sich (gemeinsam mit Yahoo und Microsoft) gegen Vorwürfe US-amerikanischer Politiker, die die Geschäftpraktiken der Internetfirmen in China kritisieren. Google hat mit der chinesischen Regierung ausgehandelt, gewisse Inhalte nicht in den Index der chinesischen Variante von Google aufzunehmen, vor allem regierungskritisches Material. Dies war gleichsam der Eintrittspreis in den Grossmarkt China. Auch andere Firmen haben sich mit den chinesischen Machthabern eingelassen, um an diesem Wachstumsmarkt profitieren zu können. Aber wer wie Google mit dem Anspruch antritt, „die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen„, wird eben mit anderen Ellen gemessen. Darum argumentiert Google auch nicht ökonomisch, sondern mit einer Abwandlung des Slogans „Wandel durch Annäherung“ der bundesdeutschen Ostpolitik in den 1970er Jahren:

We believe that our continued engagement with China is the best (and perhaps only) way for Google to help bring the tremendous benefits of universal information access to all our users there.

Datenmacht
Als Hinweis soll eine Zwischenstandsmeldung reichen aus der Auseinandersetzung darüber, ob Google die gespeicherten Daten über Suchanfragen (und die Personen, die die Anfragen gestellt haben, bzw. deren IP-Adressen) an die US-Behörden ausliefern müssen, wenn diese Straftaten verfolgen wollen, oder ob Google (und Co.) solche Daten überhaupt speichern (und für eigene Zwecke auswerten) dürfen soll.

Noch ein Hinweis: Google bietet einen neuen Gratisdienst namens Google-Base an. Das ist (kurz und salopp) eine Art Gratis-Online-Datenbank für jedermann. Wer will, kann hier seine/ihre CD’s eingeben, oder Bücher oder Möbel oder Gebrauchtwagen, die er/sie verramschen will. Vgl. ersten Absatz.

Innovationskraft
Zum Schluss noch wilde Spekulationen, was Google mit seinem Geld machen könnte. Baut Google ein eigenes Internet aus Glasfaser-Leitungen, die in der Internet-Euphorie der 1990er Jahre gebaut, aber nie in Betrieb genommen wurden? Bringt Google einen eigenen Rechner mit eigenem Betriebssystem auf den Markt? Können nur dieser Rechner an das Google-eigene Parallel-Internet angeschlossen werden, wo Unmengen digitaler Inhalte verteilt werden können (Musik, Filme, Spiele?)? Werden diese PC gar verschenkt und das Geld mit den Inhalten verdient? Oder baut Google einen PC für Asien und Afrika? Ein Navigationssystem für Autos, das auf Google Earth basiert? …? (Fortsetzung folgt)

HOK: Lesen: Suchen und Finden: Aktenzeichen „Versteckte Suchwörter“

Eine kleine Episode aus der Welt der Suchmaschinen. Heise berichtet, dass Google neu auch deutschsprachige Seiten aus dem Index ausschliesst (auf deutsch: diese Seiten werden in Google nicht mehr gefunden), die entgegen den Google-Richtlinien versteckte Wörter enthalten. Mit versteckten Wörtern kann die automatische Beurteilung einer Seite durch Google beeinflusst werden: die Berechnung des Rankings (also der Platzierung einer Seite innerhalb der Google-Ergebnisliste) berücksichtigt, wie oft das vom User bei Google gesuchte Wort auf einer Seite vorkommt – ob es unsichtbar ist oder nicht, kann die Maschine bei der Berechnung nicht ermitteln, da sie den Quelltext auswertet (und nicht auf die Erscheinung im Broswer achten kann).Das klingt ja vernünftig. Denn die User wollen nicht nach Britney Spears suchen und dann auf eine Porno-Seite gelangen, die versteckt 100 Mal den Namen der Popgöre auflistet. Das mag nebensächlich erscheinen (wer nach Britney Spears sucht, muss mit solchen Fallen halt rechnen…), aber man ersetze Britney Spears mit „Gebrauchtwagen“ und Porno-Seite mit „Gebrauchtwagen-Händler Z“, der damit alle anderen Gebrauchwagen-Händler aussticht – und das grundlegende Problem wird deutlich.

Für wissenschaftliche Recherchen (sofern man diese überhaupt mit Google machen möchte) ist dies vielleicht nicht von zentraler Bedeutung, da Wissenschaftler in der Regel ihre Suchwörter nicht verstecken und in der Regel auch keine ausgeklügelten datenbankbasierten Websites betreiben.

Doch die Meldung bestärkt in der grundsätzlichen Erkenntnis, die man im täglichen Umgang mit Google (aber auch mit anderen Suchmaschinen) gerne vergisst: hier wird enorm viel manipuliert. Google legt zwar offen, nach welchen Prinzipien die Suchmaschinen-Betreiber ihrerseits diese Manipulationen entgegentreten. Was Google hier mitteilt und offenlegt und was nicht, liegt aber im Ermessen der Firma.

Übersicht: HOK Lesen: Suchen und Finden

HOK Schreiben

Das „Schreiben“ ist im Gegensatz zum „Lesen“ jener Teil der Historischen Online-Kompetenz, die bei der Auseinandersetzung um die Rolle der Informations- und Kommunikationstechnologien auf die Geschichtswissenschaften noch wenig Beachtung gefunden hat. Die erstaunt umso mehr als das „Schreiben der Geschichte“ ein zentrales konstituierendes Element der Geschichtswissenschaft ist und die Debatte über ihre Ausrichtung und Ausgestaltung seit zwei Jahrhunderten die Geschichtswissenschaften immer wieder beschäftigt. Zu beachten ist dabei auch der Grenzbereich „Lesen/Schreiben„, der ebenfalls einigen Einfluss auf die Überlegungen zur Kompetenz-Dimension des „Schreibens“ hat (Letztes Update 22.8.2006).

HOK: Lesen/Schreiben: Non-Linearität und Konstruktion

Eckhard Schumacher wirft in seinem Aufsatz die Frage auf, inwiefern der Anspruch der Hypertext-Apologeten Jay David Bolter und George P. Landow wirklich zutrifft, dass Hypertext die Theorien von Textualität von Jacques Derrida oder Roland Barthes abbilde. Diese haben bereits in den sechziger Jahren Textformen gefordert, die nicht mehr als geschlossene Textkörper den Leser, bzw. die Leserin zu einem passiven Konsum zwingen, sondern durch ein „Brechen“ des Textzusammenhangs dem Leser eine gestaltende Rolle zuweisen.

Bolter und Landow postulierten, dass genau diese Forderung durch die Hypertext-Technologie erfüllt würden. Landow bezeichnet die virtuellen Texte, die durch das Verfolgen der Hyperlinks einen jeweils individuellen Textablauf konstruieren, als Resultat des „wreading“, also einer Mischung aus „write“ und „read“. Doch die technische Möglichkeit der nicht-linearen Darstellung von Texten führt noch nicht automatisch zu Texten, die dem Leser eine andere Rolle einzunehmen ermöglichen.

Schumacher hält den Hypertext-Theoretikern einerseits vor, dass sie Hypertext als Ende einer Entwicklung zu offenen Textformaten bezeichnen. Hypertext ist sozusagen der absolute Text. Derrida wollte mit seiner Unterscheidung von (herkömmlichen) „lesbaren“ und (neu zu erfindenden) „schreibbaren“ Texten aber genau diese Abgeschlossenheit von Textverständnis aufbrechen. Das Rezipieren von Texten sollte ein offener Prozess bleiben.

Denn gerade die Realität von Hypertext zeigt die Grenzen dieser Technologie (in ihrer Umsetzung) auf: Viele Hypertexte sind herkömmliche Texte, die einfach anders angeordnet wurden. Und vor allem: Der Autor oder die Autorin verfügt mit den Links noch immer über eine Steuerungsmöglichkeit, wie der Hypertext rezipiert wird. Es findet eine Auswahl der Inhalte durch den Autor statt, wenngleich nicht über die Sequenzierung beim Lesen.

Zwei Erkenntnisse von Schumacher:

  • Zur Non-Linearität gehört ein Element der Unvorhersehbarkeit („programmed unpredictability“), die neue und überraschende Lesevorgänge ermöglicht.
  • Hypertext müssen nicht auf Computer beschränkt sein. Auch gedruckte Hypertexte sind denkbar, wenn sie die Idee der Non-Linearität konsequent umsetzen.

Dies hat auch Auswirkungen darauf, wie in der Geschichtswissenschaften Texte gelesen und geschrieben werden und wie die immer wieder postulierte Selbssteuerung in Lernprozessen realisiert werden kann.

Literatur:
Schumacher, Eckhard: „Hyper/Text/Theorie: Die Bestimmung der Lesbarkeit“, in: Andriopoulos, Stefan, et al. (Hg.): Die Adresse des Mediums, Köln: Du Mont 2001, S. 121-135.

Übersicht: HOK Lesen/Schreiben

Aus der Welt der Wikis: Dubito, ergo sum

Bertrand Meyer, Professor für Software Engineering an der ETH, befasst sich in seinem Paper „Defense and Illustration of Wikipedia“ (PDF, 106KB) mit den verschiedentlich vorgetragenen Analysen, wonach das Prinzip von Wikipedia, jedem Schreibrecht zu gewähren, gar nicht funktionieren könne und über kurz oder lang die Qualität der Einträge sich auf einem niederen, wissenschaftlich unhaltbaren Niveau einpendeln müsse (Denning et al.; McHenry).
Meyer erwidert, die Praxis belege eher das Gegenteil: Dafür, dass dieses Projekt theoretisch gar nicht brauchbare Ergebnisse hervorbringen könne, funktioniere es im Alltag ganz hervorragend. Er bringt zwei Punkte an:

  • Vergleich: Der Vergleich mit den herkömmlichen Enzyklopädien (ob von Kritikern oder Befürwortern vorgebracht) ziele am Nutzen von Wikipedia vorbei: Es sei vielmehr eine Alternative zur schnellen Internet-Suche nach Informationen, die sonst über Suchmaschinen, bzw. über Google vorgenommen werden.
  • Nachvollziehbarkeit und Veränderbarkeit: Ausserdem biete Wikipedia (im Vergleich zu gedruckten Büchern, aber auch zu herkömmlichen Websites oder Posts im UseNet) die Möglichkeit, Fehler innert nützlicher Frist zu korrigieren. Auch wenn Fehler zuweilen lange unentdeckt blieben: sie können dann schnell und mit wenig Aufwand behoben werden.

Natürlich gilt diese Beobachtung besonders für fachlich wenig umstrittene Inhalte. Allerdings führt Meyer an, dass auch in der Informatik zuweilen die Diskussion-Seiten in Wikipedia gefüllt werden mit Vorwürfen der einseitigen Bevorzugung der einen oder anderen Software in gewissen Artikeln.
Meyer differenziert: Wikipedia nimmt eine besondere Rolle ein neben der für fachwissenschaftlichen Publikationen unverzichtbaren, wenn auch nicht vor Fehlern gefeiten Peer-Review-Methode. Es wird verschiedene Arten der Wissensrepräsentationen geben, die sich nicht ausschliessen sondern ergänzen. Wikipedia ist schnell aktualisiert und breit in den abgedeckten Themen; Fachpublikationen können dafür mehr in die Tiefe eines Phänomens gehen.

Letztlich kommt Meyer zum Schluss, der allgemein für die Nutzung des Internets gilt und als Leitmotto der Historischen Online-Kompetenz gelten könnte: dubito, ergo sum.

Since when are we supposed to trust everything that we read, printed, electronic or otherwise?

Einen besonderen Dreh erhält die Darlegung von Bertrand Meyer durch den Umstand, dass er in Wikipedia über die Weihnachtstage totgesagt wurde. Er wurde also selber Opfer jener Anfälligkeit von Wikipedia, die er analysiert. Dieser Wikipedia-Vandalenakt (oder in den Worten von Meyer: schlechter Studentenscherz) schaffte es in verschiedene Zeitungen und Online-Medien (zuerst bei Heise Online). Meyer beschreibt in einem Anhang die Entstehungs- und Rezeptionsgeschichte zu dieser Episode, die sich auch als Fallstudie eignen würde und natürlich Parallelen zum Fall Seigenthaler aufweist. Was mich bedenklich stimmte, war die Bemerkung Meyers, die Version, welche seinen Tod vermeldete, wurde mittlerweile gelöscht (ein Screen-Shot der Datei ist hier zu finden). Offenbar gibt es Möglichkeiten, alte Versionen in Wikipedia zu beseitigen, was ich als Historiker bedauerlich, ja bedenklich finde. Braucht es eine verbindliche Leitlinie zur Archivierung der Wikipedia?

Literatur

Übersicht: Aus der Welt der Wikis

Social Software in Mediotheken

Beat Döbeli schlägt eine interessante Idee vor, die im Zusammenhang mit kollaborativen Arbeitsweisen und historischen Online-Kompetenzen zu sehen ist: Social Software in Mediotheken. Er definiert Social Software als jene Software-Tools, die bei der Wissensgenerierung Gruppenprozesse unterstützt oder abbildet. Beispiele, die wir hier auch schon besprochen haben und mittlerweile sehr en vogue sind: Tagging, Social Bookmarking und mehr (siehe auch in der Rubrik „Suchen und Finden“ die Beiträge „Drei Königswege„, „Communities“ und „Tagging„).
(Die angesehene Computer-Zeitschrift c’t spricht angesichts dieser Gruppenfunktionalitätenbereits vom „Web 2.0“, der nächsten Version des Webs; c’t 1/2006, S. 174).

Döbeli erhofft sich davon vor allem, dass die Benutzer miteinander in Kontakt kommen, weil sie dank der Darstellung in der Social Software, die gleichen Bücher ausgeliehen zu haben, von ähnlich gelagerten Interessen Kenntnis erhalten. Ich bin da etwas skeptischer, da ich vermute, dass Datenschutz-Bedenken bei den Bibliotheks-Benutzerinnen und Benutzern die möglichen Vorteile einer solchen Verknüpfung von Namen und Titel überwiegen werden.

Übersicht: HOK Lesen/Schreiben

HOK: Fallstudie: „Rendezvous mit dem Tod“ – Etablierte Medien (Contra)

Klaus Wiegriefe kontert in Spiegel Online („Steile These, schwache Belege“) die Aussagen des Films mit den Hauptargumenten der Kritiker: Die These ist nicht wirklich neu und die Indizien halten einer genaueren Prüfung nicht ausreichend Stand.

Doch hält der Film wirklich, was seine Macher versprechen: Die Auflösung des spektakulärsten Politikermordes der vergangenen Jahrzehnte? (…)
Und in der Tat wirken die von ihm gesammeltem Indizien auf den ersten Blick überwältigend: Mitschnitte von abgehörten Telefonaten der kubanischen Botschaft in Mexico City, Unterlagen des sowjetischen Geheimdienstes KGB, Aussagen zahlreicher kubanischer Geheimdienstoffiziere. Doch bei genauerem Hinsehen erweisen sich die Glieder der Beweiskette als wenig belastbar.
Keiner der Zeugen Huismanns war an der angeblichen Operation persönlich beteiligt. Unklar bleibt, auf welche Weise die Kubaner dem Attentäter Oswald geholfen haben sollen. Viele Zeugen sind – obwohl Huismann einen gegenteiligen Eindruck erweckt – der Kennedy-Forschung bekannt und ihre Aussagen von verschiedenen Untersuchungskommission und Historikern verworfen worden. Und was Huismann an Neuem zusammengetragen hat, wirft zu viele Fragen auf, als dass sich damit die Geschichte umschreiben ließe.

Ähnlich kritisch beurteilt Andreas Förster in der Berliner Zeitung („Spur nach Havanna„) die Belege für die These, Kuba stecke hinter der Ermordung Kennedys.

Eine Version, die so, wie sie der Film präsentiert, plausibel klingt. Die aber auch nicht mehr als eine neue Verschwörungstheorie ist.Denn an wirklich harten Beweisen mangelt es dem Film. Huismann präsentiert stattdessen die Aussagen von ehemaligen kubanischen Geheimdienstlern, die seit Jahren im Ausland leben und offenkundig mit dem Castro-Regime gebrochen haben.

Dass Kuba Oswald vor den Augen der amerikanischen Geheimdienste in Mexico-City, einem berüchtigten Tummelplatz für Agenten zur Zeit des kalten Krieges, mit dem Mord an Kennedy beauftragt haben soll, hält Förster für wenig plausibel. „Huismanns Dokumentation jedenfalls kann diese Zweifel nicht ausräumen“. In die gleiche Kerbe schlägt Jochen Bittner bei der Zeit („Liess Castro Kennedy ermorden?“). Die These von Huismann klinge zwar plausibel: „Doch wer heute abend genau hinguckt, wird entdecken, dass viele Bindeglieder der Argumentationskette fehlen.“

Gar kein gutes Haar lassen Harald Neuber in Telepolis („Rendezvous mit der Quote“) und Horst Schäfer in einem Interview jungen Welt („Huismanns Behauptungen sind ein uralter Ladenhüter“) an Huismanns These. Neuber:

Während fehlende Beweise durch eine schmissige Aufmachung und Bewerbung durch den WDR und andere Beteiligte ersetzt werden, drängt die Frage nach dem Sinn. Diese ist vielleicht am ehesten in dem finanziellen Aufwand zu suchen. Die 850.000 Euro Produktionskosten müssen schließlich wieder eingespielt werden.

Schäfer kennt sich mit der Materie aus, er hat als Korrespondent in den 1960er Jahren in Washington gearbeitet, mit Insidern aus der Verwaltung gesprochen, interne Akten eingesehen und ein Buch über die Kuba-Politik der USA in dieser Zeit publiziert („Im Fadenkreuz: Kuba“). Dabei gewann er einen gänzlich anderen Eindruck als Huismann:

Mir fiel auf, daß ein großer Teil der Beteiligten an den Mord- und Terroraktionen von CIA, Mafia und Exilkubanern gegen Kuba bei den Untersuchungen des US-Kongresses als Verdächtige im Kennedy-Mord wieder auftauchen. Und viele von denen starben dann eines plötzlichen Todes, oft kurz vor ihrer geplanten Vernehmung durch den US-Kongreß. Sollte der kubanische Geheimdienst alle diese Top-Funktionäre der CIA, Mafiosi und Exilkubaner zuerst umgedreht und dann auch noch ermordet haben?

In einem Auszug aus seiner Publikation legt Schäfer seine Ansicht dar, wonach Kennedy nachweisbar kurz vor seiner Ermordung bereit war, mit der kubanischen Regierung Verhandlungen aufzunehmen und diese bereits eingefädelt worden waren. Castro hätte demnach kein vernünftiges Interesse gehabt, Kennedy umzubringen.

In die Reihe der Kritiker reiht sich auch Ronald D. Gerste ein, der in der NZZ am Sonntag vom 8. Januar: „Der grösste Schwachpunkt des Films aber ist seine ausschliessliche und kritiklose Fixierung auf Lee Harvey Oswald als den alleinigen Täter.“ Das Castro das Risiko eines solchen Attentats wirklich in Kauf nehmen wollte, dies vermöge „kein pensionierter Geheimdienstmann, welcher Ideologie auch immer, dem Zuschauer wirklich glaubhaft zu machen.“

Übersicht HOK Fallstudie „Rendezvous mit dem Tod“ und zu Reaktion etablierter Medien

HOK: Fallstudie: „Rendezvous mit dem Tod“ – Etablierte Medien (Pro)

Nils Minkmar, Feuilleton-Redaktor der Frankfurter Allgemeinen Sonntagszeitung, kann dem Beitrag in seiner Besprechung in FAZ.net (Wie ein geladenes Gewehr) am meisten abgewinnen. Er hält die Argumentation von Huismann für überzeugend, das geht dann soweit, dass er den kubanischen Geheimdienst als den „Verein“ bezeichnet, „der den Mord an JFK geplant und in Auftrag gegeben hat“. Da wird aus der These bereits Gewissheit. Gegen Ende wird Minkmar dann philosophischer und grundsätzlicher.

Der ehemalige kubanische Geheimdienstchef Fabian Escalante etwa greift zur Verwirrungstaktik: „Was ist denn schon die Wahrheit?” fragt er und „Waren denn die Amerikaner je auf dem Mond? Viele bezweifeln es!” Es klingt, als hätte man Markus Wolf 1987 gefragt, ob die DDR RAF-Täter versteckt.
An diesem Punkt wird deutlich, worum es in diesem Dokumentarfilm geht: In den vergangenen zehn Jahren wurde der gesamte Komplex Kennedy-Mord dem Bereich des Irrationalen, ja Spinnerten zugerechnet. Wer hier mehr wissen wollte, konnte ebensogut die Realität der Mondflüge anzweifeln, nach vergrabenen Ufos suchen oder sich von schwarzen Helikoptern verfolgt fühlen. Dabei gab und gibt es noch etwas zu entdecken. Keine andere Verschwörungsthese konnte bislang mit einem Zeugen aufwarten. Freilich: Kuba ist nach wie vor eine Diktatur, und die Macht Castros ist nahezu unumschränkt. Es wird erst nach dem Ende des Systems möglich sein, das wahre Ausmaß und die Natur der Kontakte zwischen den kubanischen Diensten und Lee Harvey Oswald darzustellen und noch weitere Zeugen zu finden.

Auch bei Spiegel Online bespricht Minkmar den Film („Befahl Castro den Mord an JFK?“, Übernahme aus der FAZ am Sonntag), lobt seine „Dichte“ und seinen „konzentrierten Stil“, die der Vernebelungstaktik eines Fabian Escalante Paroli biete, weil er auf der Suche nach der Wahrheit sei, und diese nicht verschleiern wolle. Er endet mit dem Lob:

Es ist wieder Bewegung in die Ermittlungen gekommen. Dass hieran ausgerechnet die ARD beteiligt ist, dafür kann man ihr so manchen Stadl verzeihen.

Auch Stern.de (Claus Lutterbeck: „Castro hat Kennedy zuerst erwischt„) widmet sich ausführlich der im Film vertretenen These und schildert die Vorgänge in einer Art, wonach die Wirklichkeit eigentlich offen zu Tage liegt:

Erstmals spricht auch der ehemalige Chef des kubanischen Geheimdienstes, Fabian Escalante. Seit Jahren versucht er erfolgreich, der CIA die Tat in die Schuhe zu schieben. Natürlich weist er jede kubanische Verstrickung weit von sich: „Wir hatten kein Motiv“ behauptet er.
Ach ja? Dem damaligen AP-Korrespondenten Daniel Harker vertraute Castro an: „Wenn die Kennedys mir weiter nach dem Leben trachten, können sie sich ihres Lebens nicht sicher sein.“ Dem WDR liegt ein geheimgehaltenes Memo an den Kennedy-Nachfolger Lyndon B. Johnson vor, in dem beschrieben wird, wie Escalante im November 1963 via Mexiko City nach Dallas flog, um die Ermordung Kennedys zu überwachen.

Übersicht HOK Fallstudie „Rendezvous mit dem Tod“ und zu Reaktion etablierter Medien

HOK: Fallstudie: „Rendezvous mit dem Tod“ – Blogosphäre

Wie reagiert die Blogosphäre auf den Dokumentarfilm von Wilfried Huismann? Einige Einträge sind Blogs etablierter Medien, die ich gesondert betrachte: hier gibt es (getreu den allgemeinen Beobachtungen zu Blogs) eben Überschneidungen… Eher überraschend als die kritschen und zustimmenden Äusserungen ist die Vielzahl abgeklärter Reaktionen: Ach, noch so eine Komplott-Theorie…

Die Statistik

  • Es finden sich bei technorati 175 Blog-Einträge mit den Suchworten „Huismann AND Kennedy“ (20.1.2006; 209 am 30.1.2006).
  • Am meisten Einträge wurden am 6.1.2006 angelegt.
  • Es gibt Einträge in Spanisch, Englisch, Deutsch, Holländisch, Französisch.

Die Berichterstatter
Der früheste Eintrag stammt von Ende November und ist eine Abschrift einer AP-Meldung, die die wesentlichen inhaltlichen Aussagen von Huismanns Film wiedergibt, sich aber jeglicher Einschätzung enthält. Dies tun auch die meisten Blog-Einträge, die oft ganze Abschnitte von Agentur-Meldungen abdrucken.

Die Zustimmer

  • I believe that in the wider interests of the world, this trail was not pursued to Cuba. (southwestsun, 9.1.2006)
  • This would fit the idea that the assassination was Oswald’s idea, by virtue of him being a lone assassin type. But I think it’s more than plausible that if he walked into the Cuban embassy and said he was going to assassinate JFK that the Cubans might have said, “Hey, what do we have to lose by helping this guy out a little?” (Lee, Right Thinking on the Left Coast, 7.1.2006)
  • So please tell me why it is that the United States refuses to ever, ever, ever deal with Premier Fidel Castro…?
    Surely it’s not because of lack of human rights in the country. Remember China has “favored nation” status.
    Nope. It has been a sneaky suspicion of mine that just maybe Castro might be a pariah in Washington because of that nasty business of November 22, 1963. Maybe Castro had more than a little something to do with it.
    I mean, after all, Kennedy was gun-ho in trying to bump Castro off. Perhaps Castro figured that he would return the favor; and what was good for the gander was good for the goose; in this case, Kennedy’s goose. He had Kennedy killed before he could kill him. (…) In a documentary being aired in Germany this week, Wilfried Huismann, a world renown filmaker, provides evidence that strongly supports Castro had Kennedy killed in retaliation for the many attempts on his own life.
    (howlinglatina, 6.1.2005)
  • While this isn’t necessarily a new theory, I guess it offers the most compelling case for a Cuba backed assassination. (peachflavour, 5.1.2006)
  • This film sounds like it would be of interest, and I just might have to check it out if I ever get the chance. And for those of you wondering about the legitimacy of this project, the director spent three years researching „Rendezvous with Death“, so it sounds like he put a lot of work and effort into this. (thatsdougslife, 5.1.2006)
  • as a believer in conspiracy theories, this one actually makes sense (Fakeplasticnews; 4.1.2006)
  • Dieser [atemberaubende Dokumentarfilm] belegt nichts weniger als den Verdacht, dass Fidel Castro John F.Kennendy ermorden ließ. (Richard Herzinger, Ideen und Irrtümer, 1.1.2006)

Die Abgeklärten

  • Huismann lässt Ex-Geheimdienstler, Mitwisser und Zeugen auftreten, zeigt Verstrickungen und versteckte Absichten und lässt den Zuschauer an den Originalschauplätzen Geheimdienstatmosphäre spüren. Eine Frage bleibt: Haben diese alten Männer, die als Zeitzeugen auftreten, noch eine Rechnung offen – oder sagen sie die Wahrheit? (…)
    Selbst wenn an Huismann-These nichts dran sein sollte, allein die Minuten mit den Kubanischen Ex-Geheimdienstchef General Escalante vor der Kamera sind ein schauerlicher Genuss. Escalante, die Unschuld in Person im blütenweißen, kurzärmeligen Hemd: „Wissen Sie, ob die Amerikaner wirklich auf dem Mond waren?“ fragt er den Interviewer und relativiert mit diesem Satz die ganze Arbeit Huismanns. Er würde Huismann alles erzählen, nur nicht wie es wirklich war. – „Hey Gringo, weißt du eigentlich, dass du mit dem Feuer spielst?“ Ist die Botschaft seines Lächelns, und man spürt: Escalante kann auch anders, mit ihm möchte man keine nähere Bekanntschaft machen. (Robert Lynd, handelsblatt-blog „ad hoc“, 7.1.2006)
  • Ob die angeblichen Geständnisse ehemaliger kubanischer Geheimdienstmitarbeiter ausreichen, Castro als Auftraggeber des Attentats zu entlarven, ist fraglich. Nicht, weil dem kubanischen Staatschef der Mordauftrag nicht zuzutrauen wäre, sondern eher, weil keiner der von Huismann präsentierten „Kronzeugen“ an der Geheimdienstoperation persönlich beteiligt war. Mit anderen Worten: Deren „Geständnisse“ stammen letztlich nur vom Hörensagen bzw. beruhen auf der Interpretation von Beobachtungen. Wer hinter dem Kennedy-Mord steckt, bleibt folglich weiterhin offen. (Michael Schöfer, Leisetreter, 9.1.2006)
  • Huismanns Film deckt – mehr oder minder freiwillig – die dürftige Beweislage auf und gibt damit den Anstoss zu Überlegungen – ganz im Gegensatz zu seinen Behauptungen – den Fall eben doch nicht als abgeschlossen zu den Akten zu legen. (amy, Amys Welt, 8.1.2006)
  • Ich persönlich denke nicht, dass Wilfried Huismann mit seiner gestern bei der ARD ausgestrahlten Doku “Rendezvous mit dem Tod” allzuklares Licht in den Fall Kennedy bringt. (hein3301, Trierer Medienblog, 7.1.2006)
  • Will it ever stop? The conspiracy theories about Kennedy’s assassination, I mean. It’s a rhetorical question. Heck, there are still strange stories about Lincoln’s assassination that still pop up now and then. (oldhickorysweblog, 1.6.2006)
  • As if by clockwork, here’s more fuel for the JFK assassination conspiracy theory. This kind of thing pops-up pretty regularly. (Steven Moyer, the tension, 5.1.2006)
  • Mysteries; they surround us (…) Who was behind the assassination? Did Lee Oswald act alone? Was the CIA involved? What about the mob? Some have even suggested that Lyndon Johnson had a hand in it. Maybe aliens even? The possibilities are endless and so too, those who dabble in them. The latest comes from German filmmaker Wilfried Huismann and is called “Rendezvous with Death”. (..) For anyone even mildly interested in the subject, I recommend reading the full article. Like so many conspiracy theories, it offers compelling evidence of how the entire thing actually happened but this one also gives us a taste of the forbidden fruit of a foreign connection. (SinCity, 5.1.2006)

Die Kritiker

  • Bei näherem Hinsehen löst sich die Beweisführung jedoch in Schall und Rauch auf (Ulrich Speck, Kosmoblog, 5.1.2006)
  • Im Auftrag eines großen deutschen Verlags habe ich im Sommer Huismanns Material und Thesen überprüft. (Er wollte den Film zu einem Buch verarbeiten.) Ich kam zu dem Ergebnis, dass seine These, so charmant sie auch ist, leider nicht haltbar ist. Oder besser: dass Huismann seine These nicht beweisen kann. (Alan Posener, Apocalypso, 5.1.2006/30.8.2005)

Übersicht zu HOK: Fallstudie: „Rendezvous mit dem Tod“

Aus der Welt der Wikis: Ein Blick hinter den Vorhang

Ein Artikel in der Weltwoche 50.05 von Markus Schär mit dem Titel „Sieg der Köpfe“ war weniger wegen des Hinweises auf die (bereits besprochene) „Weisheit der Vielen“ (von James Surowiecki) von Interesse, sondern weil einmal ein Einblick in die sozialen Aspekte der Erstellung von Inhalten gewährt wurde. Wer opfert da eigentlich aus welchen Gründen seine Zeit; welche Debatten und Diskussionen werden zwischen den Autorinnen und Autoren und den Moderatorinnen und Moderatoren geführt? Erstaunlicher Befund: Deutsche und Schweizer Autorinnen und Autoren streiten um Helvetismen (Doppel-S oder Differenzierung von Skiläufer und Skirennfahrer und dergleichen), bezichtigen sich der dilettantischen Schreibweise und der inhaltlichen Voreingenommenheit – zumindest in der (zufälligen, aber interessanten) Auswahl, die Markus Schär gewählt hat. Diese umfasst einerseits Beiträge, die weniger wegen ihrer politischen Ausrichtung als grundsätzlich wegen ihrer enzyklopädischen Bedeutung umstritten sind (wie ein Artikel über das Dorf Weiach, ZH), aber auch heiss umkämpfte Biographien aktiver Politiker (wie Christoph Blocher, Moritz Leuenberger (beider Bundesräte) oder Alexander Tschäppät (Berner Stadtpräsident)). Inkonsistent ist der Autor in seiner Grundaussage. Er sieht in Wikipedia einen Beleg für die Weisheit der Vielen, porträtiert dann aber doch Individuen. Klar, ist es interessant zu wissen, was da für Personen ihre Freizeit für Wikipedia opfern. Dass die „Weisheit der Vielen“ funktioniert (so dies bei Wikipedia zutrifft), hat aber eben nichts mit den interessanten Eigenschaften der Individuen zu tun. (Und der Artikel endet erst noch mit einem irreführenden Link auf wikimedia.ch…)

Der Blick „hinter den Vorhang“ von Wikipedia ist allerdings von besonderem Interesse. Als User muss man sich zunächst daran gewöhnen, dass es mehr gibt als nur die publizierte Version, sondern dass auf mehrere Versionen zurück die Entstehung des Artikels (und auch die Autorinnen und Autoren und selbst die Diskussion zum Artikel) verfolgt werden können (vgl. Eintrag Legendenbildung). Allerdings ist die Archiv-Funktion nicht ganz einfach zu lesen und zu gebrauchen und die Diskussionen oft unübersichtlich, sodass bereits Alternativen dazu erwogen werden.

Für Historikerinnen und Historiker ist das gleich doppelt bedeutsam. Einerseits können die Artikel in ihrer Entstehungsgeschichte analysiert werden, und andererseits ist auch die Methode der Quellenkritik entsprechend anzupassen.

Das Projekt „history flow“ von IBM setzt genau hier und erstellt grafische Darstellungen von der Entwicklung der Artikel in Wikipedia über die Zeit, wobei die Veränderung des Umfangs über die Zeit und der Anteil verschiedener Autorinnen und Autoren bei diesen Veränderungen berücksichtigt werden. Dies ergibt interessante Grafiken, die auf einen Blick verschiedene Typologien der Enstehung und damit der Nutzung anzeigen. Leider sind bislang nur Auszüge aus den Ergebnissen dieses Projekts publiziert.