Hinweis: Dieser Text erschien zuerst bei den Kollegen von Docupedia Zeitgeschichte.
Ist Facebook eine zeithistorische Quelle, und wer archiviert die Tweets der Politiker? Wie nutzt man digitale Quellen, und wie verändert sich die Quellenkritik, wenn die Kopie sich vom Original nicht mehr unterscheiden lässt? Mit dem digitalen Wandel der letzten Jahre stellen sich einige grundlegende Fragen der Zeitgeschichtsschreibung neu. Nicht nur die Art und die Menge der Quellen haben sich verändert, der gesamte Arbeitsprozess von Zeithistoriker/innen hat etliche Modifikationen erfahren.
Seit Beginn der 2010er-Jahre wird zudem unter dem Stichwort „Digital Humanities” insbesondere im angelsächsischen Raum eine intensive Debatte über neue Potenziale für die Geisteswissenschaften geführt. Das Themenfeld ist vielschichtig und nicht klar konturiert, denn der Begriff Digital Humanities bezeichnet ein sich neu bildendes Forschungsfeld, bei dem noch viele Fragen ungeklärt sind: Sind Digital Humanities ein eigenständiges Fach? Ein Set von neuen geistes- und kulturwissenschaftlichen Methoden? Oder handelt es sich lediglich um digitale Ergänzungen zu bestehenden Fragestellungen und Methoden?
Die derzeit laufenden Debatten haben eine rund fünfzigjährige Vorgeschichte, und viele der nun unter dem Stichwort Digital Humanities diskutierten Fragen werden innerhalb der Geschichtswissenschaft – wenn auch mit anderen Begrifflichkeiten – bereits seit Jahren verhandelt. Eine Historisierung der Wechselbeziehungen zwischen den Geschichtswissenschaften und dem Einsatz von Computertechnologien tut deswegen not, ebenso eine Bestandsaufnahme der heutigen historiografischen Arbeitspraxis im digitalen Zeitalter. ((Ich danke Christine Bartlitz, Frank Bösch, Jürgen Danyel, Achim Saupe und ganz besonders Julia Schreiner für die kritischen Anmerkungen zu diesem Text. Die Studierenden meiner Vorlesung „Historische Methode(n) im 21. Jahrhundert“ an der Universität Zürich im Frühjahrssemester 2012 haben mit mir viele der hier behandelten Fragen vertieft; auch ihnen danke ich herzlich.))
Historische Entwicklung
Die Beschäftigung innerhalb der Geistes- und Kulturwissenschaften mit den Möglichkeiten computergestützter Arbeitsweisen setzte erstaunlich früh ein. Eine der ersten Konferenzen zu diesem Thema fand 1962 in Österreich statt. ((Dell H. Hymes (Hrsg.), The Use of Computers in Anthropology (= Studies in General Anthropology; 2), London 1965.)) Zu den dort behandelten Fragen gehörten der allgemeine Einsatz von Computern in den Geisteswissenschaften sowie die elektronische Verarbeitung von kulturellen Daten. Schnell etablierte sich ein Kreis von Spezialisten, der diese und ähnliche Fragen in einem internationalen und auch interdisziplinären Kontext diskutierte. Das vielleicht wirkungsmächtigste Themenfeld, das sich in diesen frühen Jahren herausbildete, war die computergestützte Textanalyse. Zahlreiche Textcorpora vor allem aus der Literatur und aus der Antike wurden damals digitalisiert und für eine maschinelle Verarbeitung aufbereitet. So ließen sich etwa Worthäufigkeiten berechnen oder Wortregister erstellen. Ein zweites, für die Geschichtswissenschaft folgenreicheres Feld war die automatisierte Auswertung von seriellen historischen Quellen wie etwa Geburtsregistern oder Sterbeurkunden. Diese quantitative Art der Geschichtsschreibung erreichte in den 1970er- und 1980er-Jahren ihren Höhepunkt, als zahlreiche Arbeiten insbesondere aus den Bereichen der Sozial- und Bevölkerungsgeschichte auf computergestützte Methoden zurückgriffen. Die Arbeit mit dem Computer wurde dabei weniger als methodisch innovativ, sondern eher als eine Arbeitserleichterung wahrgenommen: „Die Computerschwelle ist daher qualitativ nichts Neues, sondern die EDV ermöglicht genauere und schnellere Antworten auf traditionelle Fragestellungen.” ((Konrad H. Jarausch, Möglichkeiten und Probleme der Quantifizierung in der Geschichtswissenschaft, in: ders. (Hrsg.), Quantifizierung in der Geschichtswissenschaft. Probleme und Möglichkeiten, Düsseldorf 1976, S. 11-30, hier S. 13. Ferner: William O. Aydelotte, Quantifizierung in der Geschichtswissenschaft, in: Hans-Ulrich Wehler (Hrsg.), Geschichte und Soziologie, 2. Aufl. Königstein 1984, S. 259-282.))
Als Sammelbegriff für diese neuen Arbeitsweisen hatte sich „Humanities Computing” durchgesetzt. ((Susan Hockey, The History of Humanities Computing, in: Susan Schreibman/Ray Siemens/John Unsworth (Hrsg.), A Companion to Digital Humanities (= Blackwell Companions to Literature and Culture; 26), Malden, MA 2004, S. 3-19.)) Unter diesem Dach entstanden sowohl in den Philologien als auch in den historischen Wissenschaften je eigene Fachinfrastrukturen mit Tagungen, Fachgesellschaften und Zeitschriften. So gründeten 1972 Soziologen und Historiker an der Universität Köln eine informelle Arbeitsgruppe, um die Verknüpfung von sozialwissenschaftlichen und geschichtswissenschaftlichen Methoden zu diskutieren. Kurze Zeit später, nach dem Historikertag 1974 in Braunschweig, kam es ebenfalls in Köln zu einem ersten Treffen von Historikern, die an quantitativen Methoden interessiert waren, und aus diesem Kreis entstand 1975 die „Arbeitsgemeinschaft für Quantifizierung und Methoden in der historisch-sozialwissenschaftlichen Forschung”. In Köln wurde 1977 auch das Zentrum für Historische Sozialforschung gegründet, das später ins GESIS Leibniz-Institut für Sozialwissenschaften integriert wurde. ((Wilhelm Heinz Schröder, Historische Sozialforschung: Identifikation, Organisation, Institution (= Historial Social Research; Supplement/Beiheft; 6), Köln 1994.)) Auf internationaler Ebene ist insbesondere die 1987 gegründete Association for History and Computing zu nennen und die von ihr herausgegebene Zeitschrift „History and Computing”.
Doch während in den Philologien sich bis heute weitgehend ungebrochene Traditionslinien ausmachen lassen, verlief die Entwicklung in den historischen Wissenschaften weniger geradlinig. Einer der Gründe dafür ist der Umstand, dass die Geschichtswissenschaft stark in nationalen und lokalen Zusammenhängen verwurzelt ist und sich dadurch weniger als in anderen geisteswissenschaftlichen Disziplinen ein internationales Feld etablieren konnte. Zum anderen konzentrierte sich die Computernutzung in der Geschichtswissenschaft in dieser Frühphase auf quantitative Ansätze. Mit der Krise der [[for_linking::Sozialgeschichte]] in den 1990er-Jahren wurden auch die EDV-gestützten Verfahren eher an den Rand gedrängt.
Mehr als für andere geisteswissenschaftliche Disziplinen bedeuteten die Anfänge des World Wide Web deswegen für die Geschichtswissenschaft eine Art Neustart: Ab den 1990er-Jahren konnten Historiker/innen ihre Bemühungen um eine Integration der Computertechnik in die Forschung neu justieren und positionieren. Dabei war das dominierende Interesse an den digitalen Techniken jedoch vor allem bibliothekarisch-kommunikativ und weniger genuin kulturwissenschaftlich. Im Vordergrund standen demnach Möglichkeiten der historischen Informationsverarbeitung, Informationserschließung und der historischen Fachkommunikation.
Gerade im Bereich der historischen Fachkommunikation entstand bereits recht früh eine große Dynamik. Ein wichtiger Schritt dabei war die Etablierung eines umfassenden Mail-Netzwerks in den USA namens H-Net, das 1993 startete. ((http://www.h-net.org/.)) Das Prinzip war einfach: Wer an einem bestimmten historischen Thema interessiert war, konnte sich in eine entsprechende Liste eintragen und erhielt fortan jede Meldung automatisch zugestellt, die an diese Liste adressiert wurde. Der Anspruch von H-Net war ursprünglich breiter, als nur der Betrieb der Mailinglisten: Die Initiatoren wollten auch die Medienkompetenz ihrer Kollegen verbessern und die Nutzung von historisch relevanten Online-Ressourcen fördern. Die erste Liste widmete sich dem Thema Stadtgeschichte und historische Stadtforschung (H-URBAN) ((http://www.h-net.org/~urban/.)), es folgten Listen zu den Themen Frauen- und Geschlechtergeschichte sowie Holocaust Studies. ((Richard Jensen, Internet’s Republic of Letters: H-Net for Scholars, 1997 (nicht mehr zugänglicher Online-Text; http://web.archive.org/web/20000903084512/http://members.aol.com/dann01/whatis.html).)) Heute zählt das Netzwerk rund 180 verschiedene Fachlisten. 1996 startete ein deutschsprachiger Ableger des Netzwerks mit dem Kürzel H-Soz-u-Kult, was für Sozial- und Kulturgeschichte steht. ((http://hsozkult.geschichte.hu-berlin.de/; Rüdiger Hohls/Peter Helmberger (Hrsg.), Humanities-Net Sozial- und Kulturgeschichte (H-Soz-u-Kult). Bilanz nach 3 Jahren (= Historical Social Research; 24/3), Köln 1999; Klaus Gantert, H-Soz-u-Kult – Informationsdienst für die Geschichtswissenschaften, in: Geschichte in Wissenschaft und Unterricht 62 (2011), H. 11/12, S. 645-650.)) Anders als bei den englischsprachigen Listen fand beim deutschsprachigen Pendant keine thematische Aufteilung statt. Heute hat die Liste rund 20.000 Abonnentinnen und Abonnenten und veröffentlicht jedes Jahr mehrere tausend Fachrezensionen, Tagungsberichte, Stellenausschreibungen und Call for Papers aus dem Bereich der historischen Wissenschaften.
Perioden der Web-Nutzung in der Geschichtswissenschaft
Bezogen auf die Nutzung des World Wide Web durch die geschichtswissenschaftliche Zunft lassen sich rückblickend verschiedene, zeitlich aufeinander folgende und sich jeweils ergänzende Zugriffe unterscheiden. In einer ersten, ungefähr in der Mitte der 1990er-Jahre einsetzenden Periode stand die reine Informationsbeschaffung im Vordergrund. Die Auswahl an zur Verfügung stehenden Informationsquellen war recht bescheiden, und es waren vor allem Bibliothekskataloge, die historisch relevante Informationen in Form von bibliografischen Angaben zur Verfügung stellten. In dieser Zeit war erst wenig nachträglich digitalisiertes („retrodigitalisiertes”) Material im Netz greifbar, was sich auch mit den geringen Bandbreiten der damaligen Netzverbindungen erklären lässt. ((Ellen Collins/Michael Jubb, How do Researchers in the Humanities Use Information Resources?, in: Liber Quarterly 21 (2012), H. 2, S. 176-187.))
Rund ein halbes Jahrzehnt später, um die Jahrhundertwende, ließ sich eine neue Nutzungsart des World Wide Web beobachten: die Publikation eigener Forschungsergebnisse durch Historikerinnen und Historiker respektive durch einschlägige Institutionen. Dies war zwar noch mit einem nicht geringen technischen Aufwand auf Seiten der Informationsanbieter verbunden, versprach aber den Zugang zu neuen Leserkreisen sowie die Möglichkeit, neuartige Publikationsformen zu erproben. Wegweisend für den deutschen Sprachraum war zum Beispiel das Projekt „pastperfect.at”, ((http://pastperfect.univie.ac.at.)) das an der Universität Wien von einem Team von Historikern, Programmierern und Grafikern entwickelt wurde und die Zeitenwende vom 15. zum 16. Jahrhundert dokumentierte. Das Thema wurde in Form eines Hypertextes mit mehreren hundert Texten und tausenden von Verknüpfungen realisiert. ((Jakob Krameritsch, Geschichte(n) im Netzwerk. Hypertext und dessen Potenziale für die Produktion, Repräsentation und Rezeption der historischen Erzählung, Münster u.a. 2007.))
Zeitgleich fingen viele große Institutionen an, einen Teil ihrer Bestände zu digitalisieren und im Netz einer interessierten Fachöffentlichkeit zur Verfügung zu stellen. Die gezielte Förderpolitik – etwa in Deutschland durch die Deutsche Forschungsgemeinschaft und in den USA durch das National Endowment for the Humanities – führte zu einer großen Zahl von online verfügbaren historischen Quellensammlungen wie „Compact Memory” ((http://www.compactmemory.de.)) für Jüdische Studien, den „Open Society Archives” ((http://www.osaarchivum.org.)) (OSA) in Budapest zur mitteleuropäischen Zeitgeschichte oder die „Scripta Paedagogica Online” ((http://bbf.dipf.de/digitale-bbf/scripta-paedagogica-online.
|)) zur Bildungsgeschichte.|}
In der zweiten Hälfte der 2000er-Jahre kam zu den bisherigen Nutzungsmodi des Netzes ein weiterer Aspekt hinzu. Unter dem Schlagwort Web 2.0 entstand eine Reihe von neuen, niederschwellig interaktiven Netz-Diensten. Das potenziell soziale Element dieser neuen Dienste hat dazu geführt, dass statt vom eher technisch konnotierten Begriff Web 2.0 immer mehr auch von Social Web oder von Social Media gesprochen wird. Den unterschiedlichen Diensten lassen sich verschiedene funktionale Schwerpunkte zuordnen: zusammenarbeiten, Material teilen und soziale Kontakte pflegen. ((Peter Haber/Jan Hodel, Geschichtswissenschaft und Web 2.0. Eine Dokumentation (= The hist.net Working Paper Series; 2), Basel 2010, online unter http://www.histnet.ch/repository/hnwps/hnwps-02.pdf; Michael Nentwich/René König, Cyberscience 2.0. Research in the Age of Digital Social Networks (= Interaktiva; 11), Frankfurt a.M. 2012.))
In der Zeitgeschichte sind in dieser Zeit mehrere wegweisende Netzprojekte aufgebaut worden, die unterschiedlich stark Elemente von Social Media integriert haben. Als zentrale Plattform für den deutschen Sprachraum hat sich das seit 2004 existierende Portal „Zeitgeschichte-online” ((http://www.zeitgeschichte-online.de.)) etabliert, das gemeinsam vom Zentrum für Zeithistorische Forschung (ZZF) in Potsdam und der Staatsbibliothek zu Berlin – Preußischer Kulturbesitz (SBB) betrieben wird. Der Dienst umfasst Verzeichnisse von Zeithistoriker/innen und zeithistorischen Institutionen, bietet einen Rezensionsdienst und einen umfassenden Terminkalender. Ein ähnliches Grundkonzept verfolgen auch die übrigen Themenportale, die vom ZZF aufgebaut wurden. Das Portal „www.17juni53.de” ((http://www.17juni53.de.)) fordert zusätzlich die Besucher auf, eigenes Material zum Aufstand von 1953 über entsprechende Formulare zur Verfügung zu stellen, beim Themenportal „www.chronik-der-mauer.de” ((http://www.chronik-der-mauer.de.)) stehen hingegen die multimedialen Elemente im Vordergrund. Mit „www.ungarn1956.de” ((http://www.ungarn1956.de.)) wird eher ein Fachpublikum angesprochen, das hier umfassende Literaturlisten und Online-Materialien zum ungarischen Aufstand 1956 abrufen kann.
Einen anderen Ansatz verfolgt „The September 11 Digital Archive”, ((http://911digitalarchive.org.)) das vom Roy Rosenzweig Center for History and New Media (CHNM) an der George Mason University in Fairfax (Virginia) konzipiert wurde. Es versteht sich als ein lebendiges Archiv, das Erinnerungsmaterial zu den Anschlägen vom 11. September 2001 sammelt, aufbereitet und der Öffentlichkeit zur Verfügung stellt. Seit 2002 sind über 150.000 digitale Objekte zum Thema zusammengekommen.
Nicht ausschließlich der Zeitgeschichte widmen sich Portale wie „Europäische Geschichte Online” ((http://www.ieg-ego.eu.)) vom Leibniz-Institut für Europäische Geschichte (IEG) in Mainz und „historicum.net” ((http://www.historicum.net/home.)) des Zentrums für Elektronisches Publizieren der Bayerischen Staatsbibliothek. Sie bündeln Online-Ressourcen, Rezensionen und einführende Texte zu einzelnen Schwerpunktthemen und versuchen damit auch ein breiteres Publikum anzusprechen.
Neben diesen thematischen Portalen haben sich in den letzten Jahren auch funktionale Portale etabliert. Die „sehepunkte” ((http://www.sehepunkte.de.)) zum Beispiel sind ein ausschließlich online erscheinendes Rezensionsjournal für das gesamte Gebiet der Geschichtswissenschaft, während bei „recensio.net” ((http://www.recensio.net.)) Rezensionen aus verschiedenen Zeitschriften nochmals online abgebildet werden. Autoren haben hier zudem die Möglichkeit, ihre eigenen Arbeiten mit den wichtigsten Thesen zu präsentieren.
Seit einiger Zeit wächst schließlich auch im deutschen Sprachraum das Interesse an wissenschaftlichen Blogs, wie sich das im amerikanischen und französischen Raum bereits seit längerer Zeit beobachten lässt. Das französischsprachige Blog-Portal „hypotheses.org” ((http://hypotheses.org.)) zum Beispiel umfasst als Teil von „openedition.org” ((http://www.openedition.org.)) mehrere hundert Blogs aus dem Bereich der Geistes- und Sozialwissenschaften. Anfangs 2012 lancierten fünf Partner aus Deutschland, Österreich und der Schweiz einen deutschsprachigen Ableger namens „de.hypotheses.org”. ((http://de.hypotheses.org.)) Als Portal für historische Fotografien hat sich „Flickr Commons” ((http://www.flickr.com/commons.)) etabliert, eine Plattform, auf der rund fünfzig Gedächtnisinstitutionen wie die Nationalarchive von Großbritannien oder den USA, das Smithsonian Institute und zahlreiche Forschungsbibliotheken ihre digitalen Bildersammlungen zur Verfügung stellen. Ebenfalls zu den funktionalen Portalen lässt sich „Docupedia-Zeitgeschichte” ((http://docupedia.de.)) zählen, das ein Online-Nachschlagewerk zu zentralen Begriffen, Konzepten, Forschungsrichtungen und Methoden der zeithistorischen Forschung darstellt.
Vom Mangel zum Überfluss?
Alle diese Entwicklungen der letzten Jahre haben die Geschichtswissenschaft und damit auch die Zeitgeschichte bereits tiefgreifend verändert. Praktisch der gesamte Arbeitsprozess („workflow”) ist vom Wandel betroffen, wenn auch unterschiedlich stark. ((Martin Gasteiner/Peter Haber (Hrsg.), Digitale Arbeitstechniken für die Geistes- und Kulturwissenschaften, Stuttgart/Wien 2010.)) Dies fängt bei der Themenwahl an. Durch die einfache Zugänglichkeit einer schier unendlichen Menge an Informationen entsteht bei der Themensuche und der Eingrenzung eines Forschungsvorhabens oder einer geplanten Qualifikationsarbeit beim Suchenden sehr schnell der Eindruck, dass es zu fast jedem Thema bereits „etwas” gibt.
Damit könnte eine der wichtigsten Grundprämissen geschichtswissenschaftlichen Arbeitens modifiziert werden: Die Heuristik der Geschichtswissenschaft basierte bisher auf der Annahme, dass aus der Vergangenheit grundsätzlich zu wenig Material überliefert sei und es zu den Aufgaben der Geschichtsforschung gehöre, diese Lücken mit den Methoden der Hermeneutik interpretativ zu schließen. Der Subtext der historischen Methode, wie sie von Ranke, Droysen und vor allem auch Bernheim im 19. und im beginnenden 20. Jahrhundert begründet und expliziert wurde, lautete, dass an dem, was aus der Vergangenheit erhalten geblieben ist, tendenziell Mangel herrscht, dass die Überlieferung unvollständig und lückenhaft ist. Dies galt insbesondere für die ältere und mittelalterliche Geschichte, prägte aber insgesamt die historische Arbeitsweise.
Die Digitalität von immer mehr zeithistorischen Quellen kehrt dieses Prinzip – zumindest scheinbar – um. ((Roy Rosenzweig, Scarcity or Abundance? Preserving the Past in a Digital Era, in: The American Historical Review 108 (2003), H. 3, S. 735-762; Andreas Fickers, Towards a New Digital Historicism? Doing History in the Age of Abundance, in: Journal of European History and Culture 1 (2012), H. 1, online unter http://journal.euscreen.eu/index.php/jethc/article/view/878/1555.)) Nicht das Zuwenig ist das Thema, sondern das Zuviel. Nicht Mangel, sondern Überfluss scheinen immer mehr die arbeitsleitenden Paradigmen bei der „opération historiographique” (Michel de Certeau) zu sein. Wenn dem tatsächlich so sein sollte, dann gilt es, die hermeneutischen Grundprinzipien des geschichtswissenschaftlichen Arbeitens neu zu hinterfragen. Statt Lücken in der Überlieferung verstehend und – wie es Gadamer betont hat – mit Intuition und manchmal auch Irrationalität zu schließen, muss das im Überfluss Vorhandene aggregiert werden. Dann müssen nicht nur statistische Mittelwerte errechnet, sondern auch komplexe Muster in den Informationsmassen erkannt werden. Die Herausforderung dabei ist, bei dieser neuen Herangehensweise nicht dem Reiz simplifizierender statistischer Methoden zu verfallen und in eine Art von Positivismusfalle zu geraten. ((Danah Boyd/Kate Crawford, Critical Questions for Big Data. Provocations for a Cultural, Technological, and Scholarly Phenomenon, in: Information, Communication & Society (2012), iFirst Article, S. 1-18, online unter http://dx.doi.org/10.1080/1369118X.2012.678878; Tim Hitchcock, Academic History Writing and the Headache of Big Data (Weblogeintrag), in: Historyonics vom 30. Januar 2012, online unter http://historyonics.blogspot.com/2012/01/academic-history-writing-and-headache.html.)) Das hermeneutische Verfahren des Verstehens gilt es, auch im Kontext eines für die statistische Analyse scheinbar prädestinierten Datenüberflusses zu bewahren. Entscheidend bleiben dabei zweifellos immer die Fragen, die Historiker/innen an das Material richten. Doch das Kontingent aller möglichen Fragen ist geprägt von der Beschaffenheit des Materials und davon, wie es sich dem Fragenden präsentiert. Das heißt, dass die schiere Menge an Daten die Art und Weise des Fragens beeinflussen wird.
Auch wenn es schon immer zu den Aufgaben der Historiker/innen gehört hat, aus einer bestimmten Menge von Unterlagen die aus historiografischer Sicht relevanten Informationen auszuwählen, so war dies doch eine jeweils intellektuell zu erledigende Arbeit. Mit der Verfügbarkeit von großen digitalen Datenmengen stellt sich die Frage, was sinnvollerweise intellektuell und was algorithmisiert zu bearbeiten ist. Die rund 250.000 Depeschen aus dem Afghanistan- und dem Irak-Krieg, die durch WikiLeaks zum Beispiel veröffentlicht wurden, hätten manuell kaum analysiert werden können. Die Maschinenlesbarkeit der Daten aber machte es möglich, dass bestimmte Strukturen herausgelesen und analysiert werden konnten.
Mit dem vermehrten Aufkommen von digitalem Archiv- und Sammlungsgut in der Zeitgeschichte verändert sich auch die Bestandsbildung. So bestehen bisher nur punktuelle Strategien, um die Zeugnisse der immer dominanter werdenden Netzkultur zu sichern und zu archivieren. Zwar hat der Microblogging-Dienst Twitter ((https://twitter.com.)) mit der Library of Congress in Washington D.C. eine Vereinbarung zur Archivierung der Millionen Tweets getroffen, die täglich über den Dienst verschickt werden. Doch weder Facebook noch die anderen Social Network Services kennen eine solche Politik, sodass mit einem „Gedächtnissturz” zur rechnen ist. ((Kiran Klaus Patel, Zeitgeschichte im digitalen Zeitalter. Neue und alte Herausforderungen, in: Vierteljahrshefte für Zeitgeschichte 59 (2011), H. 3, S. 331-352, hier S. 340.))
Die schwindende Bedeutung staatlichen Archivguts und die zunehmend disparater werdende Archivierung nicht-staatlicher Quellen dürften dazu führen, dass die Diskrepanz zwischen sehr einfach zugänglichen Online-Quellen und fast gar nicht zugänglichen Offline-Quellen zunehmen wird. So ist ein Teil der Dokumente für eine breite Öffentlichkeit digital sehr einfach zugänglich, während nicht-veröffentlichte Dokumente auch für Historikerinnen und Historiker noch mehr in den Hintergrund rücken. Die inkonsistente Archivierungs- und Digitalisierungspolitik der verschiedenen involvierten Stellen wie Archive, Behörden sowie wissenschaftliche und private Dokumentationszentren hat auch zur Folge, dass die bisher themenbeeinflussende 30-Jahre-Sperrfrist staatlicher Archive de facto aufgeweicht wird.
Vom Umgang mit dem „Google-Syndrom”
Eng verbunden mit diesem paradigmatischen Wechsel vom Mangel zum Überfluss ist ein Phänomen in der historischen Heuristik, welches sich mit dem Begriff „Google-Syndrom” umschreiben lässt: Alle großen Suchhilfen im Netz suggerieren eine Vollständigkeit in ihrer Suche. Der Umstand, dass dank der Digitalität jede Information, jeder Datenbestand vollständig erfasst, indexiert und durchsucht werden kann, nährt das Phantasma einer umfassenden Wissensmaschine, die auf jede Antwort eine Frage weiß. Tatsächlich ergibt fast jede Suchanfrage an Google einen Treffer, und sei er noch so unsinnig. Der simple Suchschlitz von Google, der an den Suchenden keine ergänzenden Fragen zu stellen braucht, symbolisiert den Blick des Suchenden ins Unendliche, aus dessen Tiefen Google innerhalb von Sekundenbruchteilen eine Antwort hervorzuziehen versteht. Zu den unnützesten, aber symbolisch bedeutendsten Angaben auf der Trefferliste von Google zählt die Zeit, die Google benötigt hat, um die Suche durchzuführen. Sie ist deswegen eines der wenigen Elemente, das bisher sämtliche Design-Revisionen bei Google überdauert hat.
Gleichzeitig mit der Erfahrung, dass jede Suche bei Google irgendeinen Treffer generiert, stellt sich das schale Gefühl ein, dass es mehr als die hier präsentierten Treffer geben muss oder einfach auch nur bessere Treffer, als auf der Liste sichtbar. Die Suchalgorithmen von Google (wie auch von anderen Suchmaschinen) sind nicht öffentlich, damit die Inhaltsanbieter ihre Seiten nicht auf ein möglichst hohes Ranking hin optimieren können. So ist jedes Arbeiten mit Google nicht nur ein Ankämpfen gegen das phantasmatische Allwissen der Suchmaschine, sondern auch ein Ringen mit der vermuteten, aber nicht überprüfbaren Lückenhaftigkeit der Ergebnisse.
Die Frage nach einer geschichtswissenschaftlichen Heuristik ist heute deshalb ganz stark auch eine Frage nach der Funktionsweise, der Kontrolle und der Macht von Suchmaschinen. Konkret würde dies eine vertiefte Auseinandersetzung mit den Strukturen, den technischen Möglichkeiten und auch den realen Machtverhältnissen bei Suchmaschinenbetreibern bedingen. ((Marcel Machill/Markus Beiler (Hrsg.), Die Macht der Suchmaschinen – The Power of Search Engines, Köln 2007; Konrad Becker/Felix Stalder (Hrsg.), Deep Search. Politik des Suchens jenseits von Google, Innsbruck u.a. 2009; Theo Röhle, Der Google-Komplex. Über Macht im Zeitalter des Internets, Bielefeld 2010.)) In der Realität ist es aber so, dass aufgrund der Unstrukturiertheit der Bestände in modernen Suchmaschinen – und das gilt für Google ebenso wie für alle anderen Suchmaschinen – das Vorwissen des Einzelnen an Bedeutung gewinnt. Gemeint ist zum Beispiel die Fähigkeit, die je nach Suchmaschine richtigen Suchbegriffe zu kennen oder den Kontext und damit die Grenzen eines bestimmten Informationssystems einschätzen zu können. „Wer hat, dem wird gegeben”, gilt im digitalen Suchraum in verstärktem Maße. Der Digital Divide im akademischen Kontext bedeutet, dass zwar alle Zugang zu den neuen Technologien haben, aber nicht alle in der Lage sind, die neuen Möglichkeiten adäquat anzuwenden. Die Frage, welche Kompetenzen heute zum Rüstzeug eines Historikers, einer Historikerin gehören, erhält unter diesem Aspekt eine neue Bedeutung.
Seit einiger Zeit schon arbeitet Google daran, die Suchergebnisse auf die Bedürfnisse des einzelnen Suchenden zuzuschneiden. Dies geschieht mit einer Auswertung des bisherigen Suchverhaltens, mit einer Analyse der Inhalte der Mails, die gegebenenfalls über Google Mail versandt werden, oder über die Vorlieben, die bei Google+, einem weiteren Dienst des Konzerns, angegeben wurden. Mit der zunehmenden Personalisierung fragmentiert sich aber auch der kollektive Wissensraum, weshalb ein Austausch über bestimmte Themen und Fragestellungen im Laufe der Zeit immer mehr erschwert werden könnte. ((Eli Pariser, The Filter Bubble. What the Internet Is Hiding from You, London 2011.))
Die Alternativen zu Google sind vielfältig und äußerst eng zugleich. Vielfältig deshalb, weil es zahlreiche Fachangebote wie etwa „Historical Abstracts”, ((http://www.ebscohost.com/public/historical-abstracts.)) „JSTOR” ((http://www.jstor.org.)) oder die Online-Contents-Sondersammelgebietsausschnitte „OLC-SSG” ((http://www.gbv.de/gsomenu/?id=home&ln=de.)) der deutschen Bibliotheken gibt. Sie gehen allesamt mehr in die Tiefe als Google das kann, bilden aber niemals die Breite ab, die Google oder auch Google Scholar bieten.
Data Driven History
Die großflächige Retrodigitalisierung historisch relevanter Ressourcen in den letzten Jahren hat dazu geführt, dass riesige Datenmengen maschinenlesbar vorhanden sind. Die Digitalisate verfügen über mehr oder weniger brauchbare Metadaten. Auf jeden Fall aber war die Menge der nun online erreichbaren Quellen noch vor wenigen Jahren kaum vorstellbar. ((Manfred Thaller (Bearb.), Retrospektive Digitalisierung von Bibliotheksbeständen. Evaluierungsbericht über einen Förderschwerpunkt der DFG, Köln 2005, online unter http://wayback.archive.org/web/*/http://www.dfg.de/forschungsfoerderung/wissenschaftliche_infrastruktur/lis/download/retro_digitalisierung_eval_050406.pdf; McKinsey Global Institute: Big Data: The Next Frontier for Innovation, Competition and Productivity, San Francisco 2011.)) Ein beträchtlicher Anteil der Digitalisate stammt aus dem Projekt Google Books, ((http://books.google.com/books.)) mit dem Google alle verfügbaren Bücher der Welt – nach Schätzungen zwischen 85 und 130 Millionen Titel – digitalisieren und online verfügbar machen will.
In Bezug auf diese großen Datenmengen stellt sich die Frage, ob neue Analyseverfahren möglich und gegebenenfalls auch sinnvoll sind. Es geht dabei um die methodischen Herangehensweisen und die Schlussfolgerungen, die sich aus solchen Datenanalysen ziehen lassen. Eine zentrale Bedeutung kommt bei einer solchen „Data Driven History” der Quellenkritik zu. Am Beispiel des bekanntesten einschlägigen Projekts lässt sich das illustrieren: Mit dem Online-Tool „Ngram Viewer” ((http://books.google.com/ngrams.)) lassen sich Buchstabenfolgen von rund 5,2 Millionen Büchern analysieren. Ein simples Suchfeld erlaubt die Eingabe von verschiedenen Begriffen, auszuwählen sind ferner Sprache und der gewünschte Zeitraum. Als Ergebnis visualisiert eine Grafik die Anzahl Bücher, welche die gesuchten Zeichenfolgen mindestens einmal enthalten – ausgedrückt in Prozent der Zahl der eingescannten Bücher eines bestimmten Jahres. Es stellt sich dabei die Frage, ob ein solches Tool Spielerei oder forschungsrelevant ist. Und: Wie verlässlich sind die Daten? Erfährt man etwas, was man sonst nicht hätte herausfinden können? Das Tool macht es jedenfalls möglich, einen Textkorpus dieses Ausmaßes nach bestimmten Mustern und Unregelmäßigkeiten zu befragen. Es handelt sich also um ein Instrument, das die Geschichtsforschung zu Forschungsfragen hinführen kann. ((Philipp Sarasin, Sozialgeschichte vs. Foucault im Google Books Ngram Viewer. Ein alter Streitfall in einem neuen Tool, in: Pascal Maeder/Barbara Lüthi/Thomas Mergel (Hrsg.), Wozu noch Sozialgeschichte? Eine Disziplin im Umbruch. Festschrift für Josef Mooser zum 65. Geburtstag, Göttingen 2012, S. 151-174; Jean-Baptiste Michel u.a., Quantitative Analysis of Culture Using Millions of Digitized Books, in: Science 331 (2011), Nr. 6014, S. 176-182.))
Der Ngram Viewer lässt sich als ein Versuchslabor für den geistes- und geschichtswissenschaftlichen Umgang mit großen Textbasen verstehen. Der verwendete Textkorpus reicht bis in die Anfänge des Buchdrucks zurück, die besten Ergebnisse indes lassen sich bisher für englische Texte aus den Jahren 1800 bis 2000 erzielen. Für die historischen Methoden könnte Ngram (oder ähnliche elaboriertere Projekte) durchaus von großer Bedeutung sein. Insbesondere die bisher kaum quantitativ arbeitende historische [[Diskurs und Diskursgeschichte|Diskursanalyse]], aber auch die [[Begriffsgeschichte und Historische Semantik|Begriffsgeschichte und Historische Semantik]] könnten sich mit lexikalischen Zeitreihenanalysen ein ergänzendes, algorithmisch fundiertes Standbein geben. Dies knüpft methodisch an die Arbeit großer digitaler Textcorpora wie zum Beispiel des „Digitalen Wörterbuchs der deutschen Sprache” ((http://www.dwds.de.)) (DWDS) oder der im „COSMAS II” ((http://www.ids-mannheim.de/cosmas2.)) (Corpus Search, Management and Analysis System) versammelten Textcorpora an.
Eng verbunden mit der Frage nach dem Umgang mit großen Datenmengen in der Geschichtswissenschaft ist die Frage nach den möglichen Darstellungsformen im Kontext digitaler Systeme. Der Ngram Viewer präsentiert keine Zahlenreihe, sondern eine (wenn auch sehr simple) Visualisierung der Ergebnisse. Die Visualisierung von historischen Zusammenhängen stellt eine neue Möglichkeit dar, deren Potenzial noch längst nicht ausgeschöpft ist. Die meisten Anwendungen in diesem Bereich konzentrieren sich auf die Verwendung von historischen Karten, auf die entsprechende Zusatzinformationen gelegt werden. So verspricht die Entwicklung Geografischer Informationssysteme (GIS) für die Geschichtswissenschaft ein wichtiges neues Forschungsfeld zu werden. ((David J. Staley, Computers, Visualization, and History. How new Technology will Transform our Understanding of the Past, Armonk, N. Y. 2003; Ian N. Gregory/Paul S. Ell, Historical GIS. Technologies, Methodologies and Scholarship, Cambridge 2007; Ian N. Gregory/Anne Kelly Knowles, Using Historical GIS to Understand Space and Time in the Social, Behavioural and Economic Sciences: A White Paper for the NSF, Washington 2011, online unter http://eprints.lancs.ac.uk/39650/1/Gregory_Ian_78.pdf.)) Und auch die Konzeption neuer, zum Beispiel auch interaktiv zu bedienender Visualisierungstools könnte für die Geschichtswissenschaft von großer Bedeutung sein, um im Sinne einer Public History auch in Zukunft ein größeres Publikum über die engen Fachgrenzen hinaus anzusprechen.
Digital verzeichnen, digital publizieren
Verfolgt man den historiografischen Arbeitsprozess weiter, dann lässt sich auch bei der Erfassung und der Auswertung der Rechercheergebnisse ein tiefgreifender Umbruch beobachten. Der einfachere Zugang zu einem Mehrfachen an Information erfordert nicht nur bei der Arbeit mit Quellen, sondern auch bei der persönlichen Literaturverwaltung ein Umdenken. Die mit dem Zettelkasten verbundenen Kulturtechniken haben ausgedient, die Zettelwirtschaft wurde abgelöst von der Datenbank. ((Markus Krajewski, Zettelwirtschaft. Die Geburt der Kartei aus dem Geiste der Bibliothek, Berlin 2002.)) Waren es lange Zeit lokale Systeme, die vor allem verwendet wurden, so sind es mehr und mehr Online-Datenbanken, die für die eigene bibliografische Arbeit zum Einsatz kommen. Sie bieten den Vorteil, von jedem Rechner aus erreichbar zu sein, und die Datensätze können bei Bedarf mit Kolleginnen und Kollegen geteilt oder gemeinschaftlich erstellt werden. ((Amanda Morton, Digital Tools: Zotero and Omeka, in: Journal of American History 98 (2011), H. 3, S. 952-953.))
Mit „Zotero” ((http://www.zotero.org.)) und „Litlink” ((http://www.litlink.ch/home.)) stehen zwei mächtige, sowohl lokal als auch online arbeitende Literaturverwaltungssysteme zur Verfügung. Sie weisen unterschiedliche Schwerpunkte auf: Während Zotero vor allem die Zusammenarbeit in Gruppen und das Verzeichnen von Web-Ressourcen perfektioniert hat, liegt die Stärke von Litlink in der Fähigkeit, Literaturnachweise, Exzerpte und biografische Informationen engstens miteinander zu verknüpfen. Beide Programme sind kostenlos.
Während sich die Recherche nach und die Verzeichnung von Material in den letzten Jahren massiv verändert haben, lässt sich beim eigentlichen Schreibprozess eine gewisse Beharrlichkeit beobachten. Schreibprogramme, die das assoziative und strukturierte Schreiben unterstützen sollen, haben sich in der wissenschaftlichen Textproduktion kaum etablieren können. ((Oliver Klaffke, Schreibtools – mit Software bessere Texte schreiben, in: Gasteiner/Haber (Hrsg.), Digitale Arbeitstechniken, S. 123-130.)) Plattformen, die die kooperative Textarbeit in Gruppen unterstützen, führen ebenfalls ein Schattendasein, zum einen, weil sie eine reduzierte Palette an Formatierungs- und Strukturierungsoptionen bieten, zum anderen, weil das Vertrauen in entsprechende Anbieter wie etwa Google mit Google Drive (früher: Google Docs) ((https://docs.google.com und https://drive.google.com.)) nicht besonders groß ist. Die gemeinschaftliche Arbeit an wissenschaftlichen Texten rüttelt aber auch am Selbstbild von Historiker/innen, das immer noch gerne davon ausgeht, dass ein Text das Ergebnis eines solitären, individuell erarbeiteten Forschungsprozesses ist. Die kooperative Textproduktion hat sich hingegen bei protowissenschaftlichen (Thomas S. Kuhn) Texten durchaus etabliert: etwa bei Projektanträgen und Abschlussberichten insbesondere von großen Vorhaben wie etwa Sonderforschungsbereichen.
Mehr Dynamik ist bei der Entwicklung neuer digitaler Publikationsformen zu beobachten. Bei den historischen Fachzeitschriften erscheinen immer mehr Titel hybrid, das heißt zusätzlich zu einer gedruckten Ausgabe sind elektronische Versionen, zumeist als PDF-Datei, abrufbar. In der Regel sind die elektronischen Versionen gegen Bezahlung zugänglich, ein wachsender Anteil an Fachperiodika erscheint aber als Open Access. Dabei werden in den meisten Fällen die Kosten von den Lesern auf die Autoren umgelagert, die eine sogenannte author fee zu entrichten haben. Lange Zeit galten elektronische Publikationen als weniger seriös, weil ihnen nachgesagt wurde, die qualitätssichernden Maßnahmen, die sich bei den etablierten gedruckten Zeitschriften eingespielt hätten, seien hier nicht anwendbar. Doch hier werden zwei unterschiedliche Fragen miteinander vermischt, denn der Prozess der Qualitätssicherung hat im Grunde genommen mit der Frage nach dem Distributionskanal wenig zu tun. Peer Review-Verfahren lassen sich bei elektronischen Publikationen ebenso gut, auf jeden Fall aber flexibler anwenden als bei gedruckten Produkten. Bei elektronischen Publikationen lassen sich nämlich verschiedene Prozessschritte implementieren, etwa ein Open Peer Review oder auch ein Peer Review ex post, bei dem verschiedene öffentliche Kommentierungsphasen eingeplant werden.
Das Roy Rosenzweig Center for History and New Media ((http://chnm.gmu.edu.)) hat mit „PressForward” ((http://pressforward.org.)) ein Projekt lanciert, bei dem verschiedene digitale Publikationsformen an der Schnittstelle von Blog, Plattform und eJournal ausgelotet werden. Das amerikanisch-schweizerische Teilprojekt „Global Perspectives on Digital History” ((http://gpdh.org.)) zum Beispiel aggregiert aus einem Kompendium von rund 200 einschlägigen Blogs und Newslettern die relevantesten Beiträge, die wiederum die Grundlage für längere, eigens angefertigte Essays bilden, die dann schließlich in einer stabilen Version als eJournal erscheinen.
Entsprechende Experimente gibt es auch bei Buchprojekten, wobei es dort vor allem um die Möglichkeiten geht, ein vorgegebenes Thema in einem offenen Diskussionsprozess gemeinschaftlich zu erarbeiten. Beim Buchprojekt „Hacking the Academy” ((http://hackingtheacademy.org.)) etwa wurde innerhalb sehr kurzer Zeit ein Textkonvolut erstellt, aus dem dann in einem anschließenden Redaktionsprozess eine Auswahl erarbeitet wurde. Das erste deutschsprachige Projekt dieser Art, „historyblogosphere.org”, ((http://historyblogosphere.org.)) beschäftigt sich auf ähnliche Weise mit dem Thema wissenschaftliches Bloggen, arbeitet mit einem Open Peer Review und wird in Zusammenarbeit mit dem Oldenbourg Verlag in München realisiert.
Der historische Publikationsmarkt ist also im Umbruch – wer die Verlierer und wer die Sieger sein werden, scheint noch nicht klar. Eng wird es auf jeden Fall für diejenigen werden, die sich jeglicher Veränderung widersetzen und ausschließlich am gedruckten Medium festhalten wollen. Zugleich ist auch unbestritten, dass die gedruckte und womöglich schön gebundene Monografie im Feld der historischen Wissenschaften weiterhin ihren Platz haben wird. Auf dem akademischen Reputationsmarkt bleibt diese Publikationsform wohl noch für einige Zeit die wichtigste Währung, gleichsam der „Goldstandard” der historischen Zunft. Doch der gesamthaft schrumpfende Markt für historische Publikationen dürfte dazu führen, dass die bisherige Infrastruktur nicht mehr aufrechtzuhalten sein wird.
Fazit
Zweifellos ist die Zeitgeschichte ebenso wie die meisten anderen geisteswissenschaftlichen Disziplinen vom digitalen Umbau der Wissenschaften stark betroffen. Anders als in den letzten Jahren könnte diesmal nicht nur die Arbeitsweise, sondern mit dem Aufkommen wirklich großer Datenmengen auch der epistemologische Kern der geschichtswissenschaftlichen Arbeit in Frage gestellt werden. Etwas überspitzt ließe sich formulieren, dass wir in den ersten rund fünfzehn Jahren seit dem Aufkommen des World Wide Web tatsächlich über alten Wein in neuen Schläuchen diskutiert haben und dass die Entwicklung heute so weit ist, dass sich wirklich Grundlegendes verändern könnte. Veränderungen in der Medialität der Vergangenheit haben immer wieder auch die methodische Herangehensweise der Historikerinnen und Historiker beeinflusst. ((Vgl. Armin Heinen, Mediaspektion der Historiographie. Zur Geschichte der Geschichtswissenschaft aus medien- und technikgeschichtlicher Perspektive in: zeitenblicke. Onlinejournal für die Geschichtswissenschaften 10 (2011), H. 1, online unter http://www.zeitenblicke.de/2011/1/Heinen/dippArticle.pdf.)) So hat die Telegrafie den Sinn für den Zusammenhang von Raum und Zeit ebenso beeinflusst wie das Fernsehen den Sinn fürs Performative und Visuelle geschärft hat. Das Universalmedium World Wide Web, das ja vor allem alle anderen Medien zu inkorporieren begonnen hat, schärft ganz offensichtlich den Blick für die Fragen der Medialität an und für sich.
Die scheinbare Raum- und Körperlosigkeit digitaler Medien lenkt zugleich die Aufmerksamkeit auf die Frage nach der Persistenz und der Endlichkeit des Archivierten. Das klassische Archiv folgte der Prämisse, dass alles archivierte Material für eine nicht näher spezifizierte Ewigkeit aufzubewahren sei. Das digitale Archiv kennt – zumindest in seinen heutigen technischen Ausprägungen – das Konzept der Ewigkeit gar nicht, denn alle bisherigen digitalen Datenträger haben eine sehr überschaubare Lebenserwartung. Was bedeut dies für die Arbeit der Geschichtswissenschaft? In welchem Wechselverhältnis stehen kulturelles und digitales Gedächtnis? Welche Rolle spielen dabei die technischen Bedingtheiten des Archivs, welche die intellektuellen Konzepte der Geschichtswissenschaft?
Die Rede von den Digital Humanities bildet gleichsam das semantische Zelt über eine Vielzahl von Baustellen: technische, intellektuelle, ökonomische und politische Debatten über nichts weniger und nichts mehr als über die Zukunft unserer Vergangenheit.
Hinweis
Dieser Text erschien zuerst bei bei den Kollegen von Docupedia Zeitgeschichte unter der URL: https://docupedia.de/zg/Digital_Humanities?oldid=84521. Dort finden sich auch weiterführende Literatur und eine PDF-Version dieses Textes. Die empfohlene Zitation lautet: Peter Haber, Zeitgeschichte und Digital Humanities, Version: 1.0, in: Docupedia-Zeitgeschichte, 24. 9.2012, URL: https://docupedia.de/zg/Digital_Humanities?oldid=84521.
Nutzungsbedingungen für diesen Artikel
Dieser Text steht unter der Lizenz „Creative Commons by-nc-nd 3.0“. Eine Nutzung ist für nicht-kommerzielle Zwecke in unveränderter Form unter Angabe des Autors bzw. der Autorin und der Quelle zulässig. Detaillierte Angaben zu dieser Lizenz finden Sie unter: http://creativecommons.org/licenses/by-nc-nd/3.0/de/. Das Bild wurde erstmals veröffentlicht unter URL: www.flickr.com/photos/ph64/8020428721 und steht unter einer Creative Commons Attribution 2.0 Generic license.
Anmerkungen