Vor kurzem schrieben wir an dieser Stelle respektive in der Neuen Zürcher Zeitung einige Male über die wachsende Bedeutung von Daten für die historische Forschung und insbesondere über die noch weitgehend unerschlossenen Möglichkeiten der Visualisierung grosser Datenmengen – Stichwort «Data Driven History».
Nun hat uns die Affaire um Guttenberg sehr anschaulich vorgeführt, wie grosse Textmengen schnell und erst noch im Kollektiv analysiert werden können. Das GuttenPlag-Wiki ist sicherlich eine der konzertiertesten Textanalyse-Aktionen, die das Web 2.0 bisher bieten konnte. Wikileaks trägt zwar die Silbe «Wiki» im Namen, hat aber bisher keinerlei Anstalten gemacht, in diese Richtung aktiv zu werden.
Zurück also zur Guttenberg-Affaire: Bereits wurden mehere Versuche unternommen, die Daten nicht nur textuell auszuwerten, sondern visuelle Interfaces dazu zu bauen. Der «Interaktiver Guttenberg Report» färbt die einzelnen Seite je nach Abschschreibintensität unterschiedlich stark ein und zeigt so auf einen Blick, welche Kapitel besonders von den Schummeleien betroffen sind (im Bild Kapitel B.II.). Ein weiteres Projekt mit dem Titel «Identifizierte Fragmente in Karl-Theodor Freiherr zu Guttenbergs Dissertation» konnten wir noch nicht testen, da die Schnittstelle zur Zeit offenbar nicht funktioniert.
Das Positive an der ganzen Plagiatsaffaire ist, dass dank der grossen Publizität, die dieser Causa zuteil wird, auch das Interesse an solchen heute noch zum Teil experimentellen Textvisualisierungen wachsen könnte. Denn die hier ausprobierten Techniken eigenen sich ja zum Glück nicht nur zur Überführung schummelnder Promis, sondern durchaus auch für ernsthaftere wissenschaftliche Textkonvolute.