Search Wikia: Das Wiki-Prinzip für Suchmaschinen

Wikipedia-Gründer Jimbo Wales will etwas Neues anpacken. Warum nicht, so dachte er sich wohl, die Welt der Suchmaschinen aufmischen. Denn die gängigen Suchmaschinen von Google bis Yahoo seien ohnehin kaputt:

It is broken for the same reason that proprietary software is always broken: lack of freedom, lack of community, lack of accountability, lack of transparency. Here, we will change all that. (J. Wales@Wikia, 23.12.2006)

Drum will Wales ein neues Projekt namens Search Wikia lancieren, das die Entwicklung einer Open-Source-Suchmaschine zum Ziel hat. Der Index soll jedermann zugänglich sein, und die Kriterien, die zur Rangierung der Suchergebnisse herangezogen werden, sollen transparent gemacht werden und sich auf Einschätzungen einer vertrauenswürdigen Community stützen.

Und was meint die Internet-Community dazu? Sie berichtet relativ gelassen und reiht die Wikia-Initiative unter die vielen „Killer“-Meldungen ein von Projekten, die einem erfolgreichen Web-Unternehmen das Fürchten lehren wollen. (Heise, C-net, TechCrunch (mit Screenshot)).

Ach ja, Amazon soll sich an dem Projekt finanziell beteiligen, heisst es da und dort. Allerdings hat Amazon vor allem in die Firma Wikia von Jimbo Wales Geld eingeschossen, zu der Search Wikia gehört. Ein direkter Link von Amazon zu Wikiasari ist nicht bekannt. Und: das Projekt heisst nicht „Wikiasari“ (als Vermengung von Wiki und dem japanischen Wort „Asari“ für „Suchen“), obwohl es in fast allen Meldungen mit diesem Namen bezeichnet wird.

Was das für die Praxis der Internet-Recherche für Historiker und Historiker bedeutet, ist mir noch unklar: Bessere oder andere Suchergebnisse? Oder noch mehr Wikipedia-Artikel? Wir berichten, sobald mehr (und Essentielleres) bekannt ist.

Cliopatra: Geschichtsblog des Monats Dezember 2006

Ehe das Jahr zu Ende geht, folgt hier der Dezember-Eintrag in der Rubrik „Geschichtsblog des Monats„. Die Wahl fällt nicht deshalb auf cliopatra, weil der Titel wieder aus einem Wortspiel besteht (wie im November) und auch nicht aus Gefälligkeit (weil der Vorgänger-Blog von weblog.histnet.ch bei Cliopatra auf einer Liste nicht-englischsprachiger Websites aufgeführt wird). Vielmehr ist cliopatra ein Beispiel dafür, wie Weblogs zur Vernetzung und zum Informationsaustausch von Historikerinnen und Historikern beitragen können.

Cliopatra widmet sich vielfältigen Aspekten der Geschichtswissenschaft. Entwicklungen im Bereich der Neuen Medien, geschichtswissenschaftliche Debatten oder politische Ereignisse werden thematisiert. Vielfach werden (ganz blog-typisch) Fundstücke aus dem Netz präsentiert, die den Autorinnen und Autoren von geschichtswissenschaftlichem Interesse erscheinen.

Cliopatra verleiht auch die cliopatra-Awards für die besten Geschichts-Blogs in verschiedenen Kategorien: Einzel-Blog, Gruppen-Blog, Newcomer-Blog, Blog-Autor, einzelner Blog-Beitrag, Serie von Blog-Beiträgen. Die Awards wurden letztes Jahr bereits einmal verliehen. Die Nominationen für die Awards 2006 sind Ende November gesammelt worden, die Gewinner werden Anfang 2006 anlässlich der Jahrestagung der American History Association bekannt gegeben.

Cliopatra startete als Gruppen-Blog vor etwas mehr als drei Jahren mit einem Eintrag von Spiritus Rector Ralph E. Luker. Laut diesem Eintrag stammt der Blog-Titel aus Finnegans Wake und ist der Blog die Fortsetzung eines älteren Blogs mit anderem Namen (wie bei weblog.histnet.ch). Neben Luker tragen noch weitere 16 Autorinnen und Autoren zu cliopatra bei, die oft auch eigene Weblogs führen.

Cliopatra ist Teil des „History News Network“ (HNN), selbst ein interessantes Projekt, das eine ausführlichere Beschreibung verdiente: HNN ist ein News-Portal, das von Historikerinnen und Historikern betrieben wird und sich mit dem aktuellen (vorab US-amerikanischen und politischen) Geschehen befasst. HNN wird auf einem Server der George Mason Universität (Fairfax, Virginia, USA) gehostet, der gleichen Institution, an der auch des Center for History and New Media angesiedelt ist. HNN bietet neben cliopatra noch einer ganzen Reihe weiterer Blogs Gastrecht.

Alles in allem ist cliopatra als Ergänzung zu den e-Mail-basierten wissenschaftlichen Kommunikationsformen zu sehen, wie sie sich in unzähligen H-Net-Listen bereits etabliert haben. Mir scheint es daher durchaus denkbar, dass auch im deutschsprachigen Raum ein cliopatra ähnlicher Gruppen-Blog H-Soz-u-Kult ergänzen könnte.

Eckdaten
Titel: cliopatra
URL: http://hnn.us/blogs/2.html
Autor: Diverse (Ralp E. Luker)
Region: USA
Frequenz: täglich

Plagiatsdebatte

Stefan Weber, habilitierter Medienwissenschafter, Herausgeber eines sehr hilfreichen Readers und mehrfaches Plagiatsopfer, hat in einem kürzlich erschienenen Buch die leidige Plagiatsfrage aufgegriffen. Das Buch trägt den Titel «Das Google-Copy-Paste-Syndrom». Ein schöner und passender Titel. Ein schöner Zufall ist auch, dass die gleichen Elemente bereits im gleichen Kontext verwendet wurden: Unter dem Titel «copy/paste. Zur Kultur des Kopierens» fand 2004 an der Hochschule für Gestaltung und Kunst in Basel eine Lehrveranstaltung zum Thema Plagiate und Kopieren statt. Und zum Google-Syndrom erschien wenig später ein Aufsatz mit dem Titel «Google-Syndrom. Phantasmagorie des historischen Allwissens im World Wide Web». Wir freuen uns natürlich über diesen lustigen Zufall und werden das anregende Buch in Kürze ausführlicher hier vorstellen.

Webzitate verbieten? Plagiatoren bestrafen?

In seinem dritten Teil über die Bedrohung der Wissenschaften durch das Web, das intensives Copy/Paste-Verhalten und das Verfassen von Plagiaten begünstigen, geht Stefan Weber soweit, die Zitation von Web-Zitaten ganz grundsätzlich in Frage zu stellen:

Wie war es möglich, dass die Kulturwissenschaften einhellig „entschieden“ haben, Webquellen nahezu jedweder Art in die höheren Weihen der wissenschaftlichen Zitierbarkeit aufzunehmen?

Zwar differenziert Weber diese Aussage im gleichen Artikel noch, und plädiert dafür, Internet-Inhalte nur noch als Gegenstand (im geschichtswissenschaftlichen Sinne also als Quelle) zu akzeptieren, ausser sie seien nachweislich von wissenschaftlichem Rang. Aber war und ist das nicht auch bei Print-Medien so?

Geht die Kritik nicht eher in die Richtung, dass nicht nur die einfache Verfügbarkeit von allerlei Wissen bei den Studierenden zu einem sorglosen Umgang mit Arbeitsmaterialien geführt hat, sondern eben auch die Überforderung der Lehrenden, bzw. der Institutionen, die bislang keine Anleitung haben bieten können, wie die Studierenden im Netz zu wissenschaftlich validen Informationen kommen, die dem früher obligaten Bibliotheks-Besuch in der wissenschaftlichen Bibliothek (und eben nicht in der Stadtbücherei) entspricht? Ob dies sich auch belehren lassen, ok – das ist auch noch mal eine andere Geschichte.

Zudem scheint mir grundsätzlich die Auseinandersetzung mit dem Copy/Paste-Zugang zu Informationen etwas zu kulturpessimistisch angelegt zu sein. Handelt es sich nicht einfach um einen normalen Übergangsprozess bei einem grundlegenden Medienwandel, der eben auch Unsicherheiten und Miss-Konzepte erzeugt, die aber eher mit dem Übergang, als mit den Spezifika der neuen Medien zu tun hat?

Dennoch ist die konkrete Frage nach dem Umgang mit Plagiatsverhalten aktuell und bedarf der Klärung. Pranger-Lösungen, wo Studierende, die des Plagiats überfuhrt wurden, auf einer Schwarzen Liste geoutet werden, können es ja wohl auch nicht sein. Vor allem, wenn betroffene Studierenden vorbringen, sie hätten lediglich versäumt, bei einzelnen Zitaten das Abführungszeichen zu setzen, was bereits als Plagiatsvergehen eingestuft wurde. Da stellt sich auch die Frage, welche Möglichkeiten zur Verteidigung Studierenden zugestanden werden, wenn Hochschulen durchsetzen wollen, dass Plagiatsvergehen hart bestraft werden sollen. Schliesslich: Ist die Vermeidung von Plagiaten nicht auch eine Aufgabe angemessener Ausbildung in einer veränderten Medienwelt (wie Eva Pfanzelter an der Weiterbildung in Innsbruck vermerkte, an der ich mein Konzept der Historischen Online-Kompetenz vorstellte)?

Finding Quaero

Quaero ist (oder besser war) zwar nicht die Antwort auf Google – beteuerte zumindeste der Projektleiter Wolfgang Wahlster vom DFKI, denn (so zitierte ihn Heise):

Ein Ansatz „Kill Google“ wäre seiner Ansicht nach schon allein deswegen kontraproduktiv, weil der gegenwärtige Suchmaschinenprimus noch im Web-1.0-Zeitalter verhaftet sei.

Doch Quaero soll nicht zuletzt deshalb als deutsch-französische Kooperation zur Entwicklung einer Suchmaschine der nächsten Generation zustande gekommen sein, weil Monsieur le Président Jacques Chirac im Frühling 2005 Gerhard Schröder davon überzeugen konnte, dass man den Amerikanern den zukunftsträchtigen Markt der Web-Suche nicht überlassen dürfe.

Wie auch immer, seit wenigen Tagen ist diese Kooperation Geschichte (oder, mit den Worten von Spiegel Online: Quaero ist geplatzt – bitte zeichnen!). Franzosen und Deutschen können nicht miteinander (Die Zusammenarbeit war – wie es heisst – „nicht einfach“), denn die französische Seite will eher schnell eine klassische Suchmaschine entwickeln (eben doch web 1.0), während die deutschen Partner noch immer das Ziel verfolgen (neuerdings unter dem Namen „Theseus“ – ja genau, der im Labyrinth des Minotaurus, der dank des roten Fadens von Ariadne… usw.) eine web-2.0-artige Suchtechnologie zu entwickeln. Da tauchen Schlagworte wie semantisches Web und Metadaten und Strukturierung auf und die Hoffnung, durch die Zähmung des wilden web-2.0-taggings endlich Ordnung in das chaotis Web bringen zu können (gute Zusammenfassung in der Rede von Wolfgang Wahlster anlässlich der Abschlussveranstaltung des Informatikjahres des BMBF, darin wird der Unterschied zwischen einer semantischen Suche nach Bedeutung und der heute in Suchmaschinen üblichen Suche nach Zeichenketten geschildert).

Keiner bestreitet, dass dies ein echter Mehrwert wäre. Aber irgendwie scheint das Projekt trotz der ca. 90 Millionen Euro Fördergelder (plus weiterer 90 Millionen von den Wirtschafts-Partnern) nicht unter dem besten Stern zu stehen. Aber schauen wir mal, was der Stand in einem Jahr ist.

Kollege Jakob Voss zumindest hat seine Meinung gemacht: „Millionen verplempern mit Suchmaschinen-Grossprojekt“ schreibt er im Blog der Informationswissenschafter an der Humboldt-Universität Berlin. Ich bin ja kein Freund neoliberaler Konzepte, aber hier könnte man ins Sinnieren kommen, inwiefern solche Top-Down-Projekte wirklich zu den gewünschten Resultaten führen können, oder ob das web 3.0, wie es grossmundig angekündigt wird, nicht doch eher als Produkt chaotischer, ungesteuerter Prozesse entstehen wird.

Übrigens: Weder zu Quaero noch zu Theseus gibt es Projekt-Selbstdarstellungen oder gar „proof of concepts“. Das ist (oder war) alles noch sehr luftig. Einem konkreten Hinweis am nächsten kommt ein Blog-Eintrag, den ich bei Helge Städtlers Blog Theta Welle fand und in dem Städtler Google-Alternativen vorstellte. Dabei ordnete er die Suchmaschine ExaLead (die zu jedem Link ein Thumbnail der gefundenen Seite anzeigt) dem Projekt Quaero zu (getreu den eigenen Angaben von ExaLead im About-Text).

HOK intern: Medienkompetenz für Historiker/innen an der Universität Innsbruck

Am 18. Dezember habe ich an der Universität Innsbruck anlässlich einer Fortbildung für Lehrende der Philosophisch-Historischen Fakultät das Konzept der Historischen Online-Kompetenz vorgestellt (PDF-Datei, 1 MB).

Ich habe dabei folgende URL von verschiedenen Diensten erwähnt:

Ausserdem waren noch folgende Referate zu hören (Ich füge ganz impressionistisch meine Eindrücke und Notizen dazu)

Ingrid Böhler: Qualitätskriterien im Netz. Hier wurde vor allem auf eine neue Version des Internet Detective hingewiesen, einem Online-Tutorial zur Evaluierung von Internet-Quellen (davon gibt es auch eine leicht abgewandelte Version für Historiker/innen).

Wolfgang Meixner: Hibidat, eine Bilddatenbank am Institut für Geschichte der Universität Innsbruck. Die Sammlung entstand als beschreibende Textdatenbank zu einer Sammlung von Dias, die in Vorlesungen gezeigt wurden. Probleme sind einerseits die ungeklärte Frage, wie mit Bildrechten umgegangen werden soll (die Universität kann die Abgeltung der Bilder nicht bezahlen – folglich wird der Zugang zur Datenbank auf Angehörige der Universität eingeschränkt) und die Verschlagwortung (hier zeigt sich der -meiner Ansicht nach – „heilige Gral“ des umfassenden, mit anderen Datenbanken kompatiblen Thesaurus, der immer herbeigesehnt, aber nie erreicht wird; so bleibt die Frage, ob nicht eine intelligente Stichwortvergabe besser geeignet wäre, da sie flexibel und sofort einsetzbar wäre).

Michael Kröll: Google-Mania vs. Fachportale. Basierend auf seiner Diplomarbeit „A Field Study of Subject Gateways on „Zeitgeschichte“, Applied Historical Information Science“ schilderte Michael Kröll die Unterschiede zwischen Google und Fachportalen. Interessant, dass selbst Fachportale des gleichen Fachgebiets sich kaum überschneiden, wenig gemeinsame Schlagworte benützen. Ein Problem der mangelnden Akzeptanz scheint die auf Datenbankfelder ausgelegte Suche in Fachportalen, die weniger Erfolgserlebnisse generiert als Googles Volltext-Suche. Ausserdem ist die Betreuung von Fachportalen relativ kostenintensiv, da Fachredakteure die laufend sich verändernden Informationen beurteilen müssen. Es gibt daher einen Trend zur Konzentration (mit anderen Worten, die meisten Fachportale werden eingestellt). Interessanter Aspekt in der Diskussion: Entwickeln sich Konvergenzen zwischen den Ansätzen? Gibt es Kombinationen von Google mit Fachportalen, z.B. mit einer Google-Suche nur auf die Auswahl der in Clio-Online vorhandenen Websites (vgl. Eintrag zu entsprechender Google-Schnittstelle)?

Eva Pfanzelter: Erklären oder Strafen. Zur Plagiatsproblematik und dem Umgang damit an der Universität Innsbruck. Der Plagiats-Jäger Stefan Weber macht in Österreich Furore, wird mit seinem Übereifer und seinem Alarmismus aber auch kritisch beäugt. Das Thema ist jedenfalls mit dem neuen Buch von Stefan Weber (siehe diesen früheren Eintrag) in den Publikumsmedien lanciert. Sehr passend der Hinweis auf einen Artikel bei Spiegel Online, der die zunehmenden Plagiate beklagt, aber an prominenter Stelle auf einschlägig bekannte Websites wie „hausarbeiten.de“ verlinkt! Eva Pfanzelter stellte vor allem die Plagiats-Erkennunssoftware von „safeassignement.com“ vor, welche die Universität Innsbruck testet. Dort können Dozierende (oder auch Studierende) Arbeiten hochladen, die mit Inhalten der eigenen Datenbank (die durch das Hochladen von zu prüfenden Arbeiten laufend erweitert wird, safeassignment.com erlaubt sich nämlich, diese einzubehalten und kommerziell zu nutzen – nämlich als Vergleichsbasis, was Fragen zur Rechtmässigkeit dieses Tuns aufwarf…) und mit dem Internet vergleicht. Das Ergebnis wird farblich ausgezeichnet, mit Fundstellen im Internet (oder mit anderen Arbeiten) ergänzt und mit einer Prozent-Zahl versehen, welche den Anteil der abgeschriebenen Elemente wiedergibt. Mit Schreibfehlern Wortumstellungen lässt sich die Software nicht austricksen. Im Plenum der Anwesenden stiess diese Software-Lösung auf wenig Gegenliebe – viel eher sei auf gute Betreuung der Studierenden-Arbieten zu setzen – und den Studierenden klar zu machen, warum Plagiate nicht akzeptiert werden, bzw. was Plagiate überhaupt sind (vgl. die Einträge in diesem Blog zu „Plagiaten„). Hierzu eignet sich das (bereits erwähnte) Tutorial an der FTHW Berlin.

Welcome Wikipedia and goodbye?

Nach einer Flut von zum Teil unsäglich nichts sagenden Beiträgen zum Thema Wikipedia und die Geschichtswissenschaften scheint eine ernstzunehmende Debatte endlich auch im deutschen Sprachraum angekommen zu sein. In der neuesten Ausgabe der WerkstattGeschichte greift Maren Lorenz (Hamburg) das Thema fundiert und sachkundig auf. Sie beschreibt dabei die Mechanismen von Wikipedia und diskutiert Relevanz und Auswirkungen für das wissenschaftliche Schaffen. Ebenfalls in diesen Tagen scheint die Debatte um das Citizendium – citizens‘ compendium of everything – anzulaufen. Ob dieses vermeintliche Wikipedia 2.0 uns von den Grundübeln von Wikipedia befreien wird, darf allerdings bezweifelt werden.

HOK Lesen: Quellen: Politik und Gesellschaft in PC-Games

Irgendwann werden auch PC-Games zu Quellen historischer Fragestellungen werden. Zum Beispiel könnte danach gefragt werden, welche Vorstellungen von Gesellschaft und Politik darin vermittelt werden. Tobias Bevc hat dies bereits untersucht und kommt zum (wenig überraschenden) Schluss, dass hier vor allem „Affirmation des Bestehenden“ zu finden sei.

Bemerkenswert fand ich zwei Dinge in dieser kurzen Abhandlung: Zum einen weist Bevc auf die Eigenheiten von PC-Spielen hin, die nicht nur aus Narrationen bestehen, die lesend interpretiert werden müssen, sondern durch die Nutzer selber gesteuert und gestaltet werden. Interessanterweise spielt die Zeitebene eine wichtige Rolle, und zwar nicht die Zeitlichkeit der Geschichte des PC-Spiels, sondern jene, die aus der Interaktion von Nutzer und Ereignissen im Spiel entsteht. Spiele ich ein PC-Game, dessen Handlung zur Zeit des Mauerfalls angesiedelt ist, dann gibt es die faktische Zeit des historischen Rahmens (Demonstrationen, Abdankung Honeckers, Reisefreiheit, Öffnung der Mauer, Wiedervereinigung) und meine eigene Zeit, wie ich mit meinen Entscheidungen durch das Spiel steuere. Leuchtet ein, ist aber nicht ganz unwesentlich für die Beurteilung von PC-Spielen mit historischen Inhalten.

Bevc untersucht die PC-Spiele unter dem Aspekt eines Einsatz in der politischen Bildung. Er unterscheidet beim Spielcharakter zwischen „Game“ und „Play“.

Play meint das freie Spiel, das sich nur ein bisschen oder kaum an die Regeln und an die Erzählung des Spiels hält. Game hingegen bezeichnet das regelkonforme Spiel, das dazu dient, das Ziel, das von den Spieldesignern ausgegeben wurde, zu erreichen, also der übergeordneten Narration zu folgen.

Beim „Game“ ist der Nutzer also an die Narration gebunden, er muss ihr folgen, um das Spiel erfolgreich abschliessen zu können. Beim „Play“ hingegen ist der Nutzer freier, er kann die Narration ignorieren oder gar umschreiben. Folglich ist die Einhaltung der durch die narrativen Vorgaben für den Spielerfolg nicht ausschlaggebend.

Bevc kommt für die politische Bildung zum Schluss:

Für die Zwecke der politischen Bildung ist ein Bildschirmspiel besser geeignet, das in einem bestimmten Maße Elemente von Play zulässt, will man die Spieler zu demokratischen Verhaltensweisen ermuntern. Es macht schließlich einen Unterschied, ob man etwas aus Gehorsam gegenüber den Regeln und der Narration macht oder aber aus eigener Einsicht. Durch das Konzept des Play wird dem Spieler erlaubt, autonom zu handeln. Nur so lassen sich zentrale demokratische Werte wie Pluralität, Perspektivübernahme, Respekt vor dem Anderen usw. erzielen.

Ich frage mich gerade, wie das wohl für PC-Spiele in Geschichte wäre. Ein Kriegsabenteuer im 2. Weltkrieg (wie etwa „Call of Duty“), bei dem die Spieler/innen entscheiden können, ganz unheldenhaft Kampfhandlungen auszuweichen, lieber Konzentrationslager zu befreien statt Feinde zu verfolgen, oder ein Sonderkommando aufzustellen, dass ein Attentat auf Hitler plant? Wäre das wünschenswert, anregend oder eher problematisch?

Für die politische Bildung jedenfalls kommt Bevc zum Schluss, dass die „politisch korrekten“ Spiele meistens den Charakter von Games haben – also kaum Spielraum lassen, von der vorgegebenen Narration abzuweichen. Was mich nicht sehr erstaunt, denn schliesslich will man vorgegebene Aussagen vermitteln.

Spannender finde ich die Anmerkung Bevc zu den sehr erfolgreichen virtuellen Multi-User-Spielwelten (wie beispielsweise „World of Warcraft„), in denen es darum geht, in Clans oder Gilden einzutreten und dort nach klaren Regeln in einer Hierarchie aufzusteigen.

Warum ist es für so viele Menschen so attraktiv, sich auch in ihrer Freizeit freiwillig in ein System einzuordnen, in dem sie mindestens genauso regelbestimmt sind und einem ebenso großen Konformitätsdruck unterliegen, wie in ihrem realen Leben?

Interessant wäre auch zu ergründen, mit welcher Motivation sich Menschen an Spielen beteiligen, die das wirkliche Leben gleichsam real nachbauen, dabei stark auf wirtschaftliche Aspekte der Beziehungen setzen und extrem populär sind (wie etwa die „Sims“ oder „Second Life„). Das wären spannende Forschungsfragen.

Literatur

HOK Lesen: Quellen

HOK Lesen: Suchen und Finden: Informationsplattform OpenAccess

Noch ein Nachtrag zum letzten Post bezüglich OpenAccess: Es gibt seit kurzem eine DFG-unterstützte Informationsplattform OpenAccess, die von der Freien Universität Berlin – Center für Digitale Systeme, der Niedersächsischen Staats- und Universitäts-Bibliothek Göttingen, der Bibliothek der Universität Bielefeld und der Bibliothek der Universität Konstanz getragen wird.

Vielmehr als eine Projektbeschreibung ist auf der undatierten (seit Ende November aufgeschalteten) Website allerdings noch nicht zu finden.

Die Diskussion um Open Access soll zukünftig intuitiv auch zu dem neuen Informationsangebot führen, sowohl um sich zu informieren, als auch um eigene Erfahrungen Anderen mitzuteilen.

Diese Ankündigung klingt da (noch) etwas gar vollmundig. Das Projekt entspricht aber sicherlich einem wachsenden Bedürfnis.

HOK Lesen: Suchen und Finden

HOK Reden: Plagiate – Fluch der Verfügbarkeit?

Ich habe letzthin über die Deutung zunehmender Plagiate sinniert. Darauf sind auch interessante Kommentare verfasst worden. Das Thema hat mich in der Auseinandersetzung mit einer Kollegin auf einen Artikel von Arthur Sterngold gebracht, der auf den Zusammenhang mit den Unterrichtsmethoden verwies. Er plädiert für einen Wechsel von einem instruktionsbasierten zu einem lernbasierten Unterrichtsstil: Besser durchdachte und begleitete Aufträge an die Studierenden und mehr Interaktion mit ihnen.

Dies führte mich zu folgender Überlegung, ob nicht einfach nur Faulheit der Studierenden, sondern eben auch unterschiedliche Verständnisse überr den Nutzen der erteilten Aufträge Plagiarismus fördert. Wenn Dozierende (und ich zähle mich jetzt selbstkritisch auch dazu) Aufträge erteilen, heisst es oft: Tragen Sie Informationen zum Thema X zusammen, vergleichen Sie diese und präsentieren Sie ihre Schlussfolgerungen. Erwartet wird oftmals Fleissarbeit: Zusammentragen möglichst vieler Literatur und klare Darstellung des Inhalts. Meist schliesst keine Auseinandersetzung daran an, oft sind diese Arbeiten am Ende des Semesters, oder gar danach abzuliefern und versanden mit einem kurzen Dank in der Schublade des Dozenten.

Im prädigitalen Zeitalter mag noch gegolten haben, dass das Zusammentragen und zusammenschreiben ein intellektueller Akt sei (Bücher finden und lesen, Inhalte neu formulieren), der zu einem Lernerfolg führe. Wiewohl selbst diese Auffassung umstritten ist, so ist ihr Sinn heutzutage erst recht nicht ersichtlich. Warum sollten die Studierenden Informationen zusammentragen, zusammenfassen, zusammenschreiben, da dies von unzähligen Vorgänger/innen bereits einmal geleistet worden ist und die Informationen ja ohnehin jederzeit zugänglich und in Sekundenschnelle abrufbar sind. Fluch der Verfügbarkeit.

Da erscheint mir die Forderung einsichtig, dass die Aufgaben an die Studierenden besser durchdacht, begründet und begleitet werden sollten. Sterngold macht folgende Vorschläge:

  • Schriftliche Arbeiten in kleinere Aufträge aufteilen, und die Ergebnisse jeweils kontrollieren und besprechen, bevor die Studierenden weiterarbeiten
  • Themen der schriftliche Arbeiten mit dem Inhalt des Kurses in Verbindung bringen
  • (Zwischen-)Ergebnisse der individuellen schriftlichen Arbeiten in den Kurs integrieren

Im Vergleich mit der Praxis in den Geschichtswissenschaften klingt das vertraut, wenn man etwa an die Seminar-Referate denkt, die anschliessend zu schriftlichen Arbeiten ausgebaut werden. Doch wie konsequent wird das gehandhabt?

Literatur:

HOK Reden

HOK Reden: Internet Governance

Wer regiert das Internet? Die Frage ist in einem Blog-Eintrag nicht zu beantworten – wenn sie überhaupt zu beantworten ist. Ein guter Ausgangspunkt ist die Artikel-Sammlung von Telepolis, die sich unter dem Titel „Cyber-Weltgipfel“ seit der WSIS in Genf Ende 2003 mit Fragen der Internet-Regulierung befasst. Im Wesentlichen dreht sich die Auseinandersetzung darum, wer die Informationen verwalten darf, die das Internet überhaupt am Laufen halten: die Domain-Informationen, bzw. die Informationen darüber, wer welche Domains verwaltet. Das war jahrelang eine informelle Sache von US-amerikanischen Hochschul-Angestellten und Verwaltungsinstanzen der US-Regierung, welche die Entwicklung des Internets (zumindest seiner Ursprünge) finanzierte. Neuerdings wacht die ICANN, eine Stiftung nach amerikanischem Recht, über die Namensgebung im Internet.

Der jüngste Artikel „Weiter Uneinigkeit über Kontrolle des Internet“ behandelt die momentan unklare Interessenlage. Neben der US-Regierung, die noch immer massgeblich Einfluss nehmen will, ist auch die UNO-Tochterorganisation ITU (Internationale Telecommunication Union) daran interessiert, hier ihren Einflussbereich zu definieren. Dies steht im Widerspruch zum Internet Governance Forum (IGF), das im Oktober unter der Leitung der UN erstmals zusammentraf. Im IGF arbeiten im Gegensatz zur ITU nicht nur Regierungsdelegationen, sondern auch Vertreter der Wirtschaft und der Zivilgesellschaft zusammen. Dies soll einen Ausgleich der verschiedenen Interessen an der Regulierung des Internets gewährleisten, bedeutet aber eine Einschränkung des staatlichen Vorrechts auf Regelsetzung.

Dabei geht es noch gar nicht um technische Spezifikationen, welche das W3C durchzusetzen versucht (mit mässigem Erfolg, weil fast alle grossen Web-Unternehmen oder auch Microsoft die Standards ignorieren und lieber selber welche etablieren), und auch nicht um die Bereitstellung der technischen Infrastruktur, also der physikalischen Netze (die etwa beim Streit um die (hier bereits besprochene) Net Neutrality im Mittelpunkt stehen).

Sollen Aber sie wirft eine weitere Frage auf: inwiefern sind die Machtverhältnisse im Internet für die Historische Online-Kompetenz von Relevanz? Und in welchen Kompetenz-Bereich sind diese Fragen anzusiedeln? Hier ist zugleich anzufügen, dass Kompetenzen nicht mit Wissen gleichzusetzen ist. Dennoch bleiben viele Kompetenzmodelle unklar in der Frage, inwiefern Wissen Bestandteil, Gegenstand oder Voraussetzung von Kompetenzen ist.

Das Wissen über die Funktionsweise von ICT (Neuen Medien) und den Interessengruppen, welche die Entwicklung von Anwendungen vorantreiben und die Nutzungsmöglichkeiten regeln, ist für alle Kompetenzbereiche von Bedeutung. Ich weise es in erster Linie dem Bereich „Lesen“ zu, da die Kompetenz, sich über die Interessen und Machtverhältnisse zu informieren, Grundlage dafür ist, ihre Auswirkungen für „Lesen“, „Schreiben“ und „Reden“ einzuschätzen. Die Fähigkeit zur Einschätzung ist wiederum mit der Kompetenz der Reflexion und der Erörterung („Reden“) verbunden.

Übersicht: HOK Reden

Aus der Welt der Wikis: studentisches Wikipedia-Missverständnis

Heute überraschte mich eine Kollegin mit der erstaunten Frage: Könne es sein, dass ich unseren Lehramtsstudierenden gesagt habe, dass man in einer schriftlichen Arbeit aus Wikipedia zitieren dürfe?

Nun, offenbar habe ich die Differenzierungsfähigkeit der Studierenden etwas überschätzt. Denn: Nein, selbst Wikipedia-Gründer Jimmy Wales (wie hier im Blog bereits zitiert) sagt: aus Wikipedia soll man in schriftlichen Arbeiten auf Hochschulniveau nicht mehr zitieren. In der Regel. Natürlich sind Ausnahmen denkbar: wenn es etwa um den Vergleich von Definitionen geht, oder um die Darstellung spezieller Sachverhalte (etwa biografische Angaben zu Jimmy Wales), die nirgends sonst in zitierfähiger Form publiziert sind. Aber das heisst ja weder, dass „man aus Wikipedia zitieren darf“ noch, dass man „Wikipedia nicht brauchen darf“.

Jimmy Wales bringt es ganz gut auf den Punkt (auch dies im Blog bereits einmal zitiert):

Es ist einfach lächerlich, Studenten zu sagen, sie dürften die Wikipedia nicht nutzen. Sie tun es ja doch. Professoren sollten wieder ihre Verantwortung wahrnehmen, den Studenten beizubringen, mit der Welt auf eine erwachsene Art und Weise umzugehen.(…) Wenn Sie einen Roman über den Zweiten Weltkrieg lesen und da ein Begriff auftaucht, den sie nicht kennen, greifen Sie zu einer Enzyklopädie und schauen es nach. Müssen Sie eine Seminararbeit zu dem Begriff schreiben, sind weder Britannica noch Wikipedia die richtige Quelle.
(TR-Interview vom 11.8.2006)

Also mache ich das hier einmal ganz ausdrücklich. Ob Brockhaus oder Wikipedia: Lexikon-Einträge gelten nicht als wissenschaftliche Literatur. Wenn in wissenschaftlichen Arbeiten, wie sie an Hochschulen von den Studierenden erwartet werden, solche Literatur zitiert werden soll – dann kein Wikipedia.

Natürlich kann Wikipedia als aktuelle Quelle (wie ein Zeitungsartikel) zitiert werden. Dann ersetzt sie nicht die wissenschaftliche Literatur, sondern wird für die Erläuterung eines bestimmten Sachverhaltes beigezogen.

Ein Grenzfall sind wissenschaftliche Handbücher: Es ist möglich, dass einzelne Wikipedia-Artikel die Qualität von Handbuch-Artikeln haben (vor allem, wenn sie von dort abgeschrieben wurden, aber das Thema Plagiat wollen wir hier nicht vertiefen) und dass in wissenschaftlichen Arbeiten unter Umständen auch aus Handbüchern zitiert werden kann (vor allem bei Begriffsbestimmungen). Daraus lässt sich aber keine allgemeine „man kann aus Wikipedia zitieren“-Regel ableiten.

Hingegen können gute Lexikon-Artikel (und solche finden sich auch in Wikipedia) durchaus als erste Orientierung und als Einstieg in eine Recherche zu einem wissenschaftlichen Sachverhalt geeignet sein.

Übersicht: Aus der Welt der Wikis

HOK (in eigener Sache): Geschichte lehren an der Hochschule

Heute hab ich ein verfrühtes Weihnachtsgeschenk erhalten: Die Publikation „Geschichte lehren an der Hochschule„, die meinen Aufsatz zur Historischen Online-Kompetenz enthält und die auf jene Tagung zurückgeht, die der Anlass zur Eröffnung dieses Blogs war, ist bei mir in Form eines Belegexemplars eingetroffen.

Der Klappentext erläutert:

Wer als Dozent je vor einem schweigenden Seminar gestanden hat, weiß um die Bedeutung didaktischer Kompetenzen und Methoden.

Doch das Buch ist eigentlich das Gegenteil von Geschichte, als Erscheinungsjahr ist 2007 eingedruckt und entsprechend kann man es zwar schon vorbestellen, aber die Auslieferung dürfte für Nicht-Autoren nicht mehr vor Weihnachten stattfinden. Dennoch: eine lohnende Investition (nicht meines Aufsatzes wegen! Jedenfalls nicht nur…).

Literatur:

  • Pöppinghege, Rainer (Hg.): Geschichte lehren an der Hochschule. Bestandsaufnahme, methodische Ansätze, Perspektiven, Schwalbach: Wochenschau 2007 (ISBN: 978-3-89974294-7; 24.80 EUR).

Aus der Welt der Blogs: Welcome as new member of the category „Primarily Non-English Language“ History Blog

Also bitte, Cliopatra, der Geschichts-Blog im englischsprachigen Raum (und zukünftiger Blog des Monats), hat meinen Blog entdeckt – und im über 500 Einträge umfassenden Blog-Verzeichnis („Blogroll“ für Insider, noch umfassender als in meinem letzten Hinweis) in der Kategorie „Primarily Non-English Language“ eingeordnet. Prima. Wie meint Blog-Gründer Ralph E. Luker:

Even if English is your primary language, try exploring these in other languages

Ja, genau! Und auch wenn die Muttersprache Deutsch ist, darf man diesen Blog erforschen!

Übersicht: Aus der Welt der Blogs

HOK Lesen: Suchen und Finden: Literaturverwaltung und Web-Integration

Am Montag war ich an eine Diskussion über zukünftige Features des Literatur-Verwaltungsprogramms Lit-Link (das noch einiges mehr als Literatur-Verwaltung beherrscht) eingeladen. Dabei ging es unter anderem auch um die Frage, in welche Arbeitsumgebung die Literaturverwaltung eingebunden werden soll:

  • in ein Textverarbeitungsprogramm (à la EndNote – meiner Ansicht ein Ansatz aus der Vor-Web-Ära)
  • in einen Browser (also webbasiert – ein aktueller Ansatz des web 2.0)
  • in einer Literatur-Verwaltungssoftware (die als Schnittstelle agiert)

Jeder beantwortet diese Frage gemäss seinen Arbeitsgewohnheiten und -überzeugungen wohl anders. Feststeht jedenfalls, dass alle drei Lösungsvarianten sich aufeinander zu bewegen, dass mit anderen Worten Import- und Exportschnittstellen wichtig werden.

Wie viel da an Integration schon geboten wird, zeigen zwei kleine Beispiele. Zotero habe ich hier schon kurz vorgestellt, mich damals aber über mangelnde Zeit beklagt, das Ding zu testen, Prompt habe ich ein wesentliches Merkmal übersehen. Zotero ist ein FireFox-Plugin, das auf einer Website automatisch erkennt und mit einem Symbol (1) anzeigt, ob Daten vorliegen (2), die in die Literatur-Verwaltung übernommen werden können (3). Ein Klick, und die Daten sind in der Zotero-Datenbank.

Ähnliches leistet das Firefox Plugin XML-Dump (hier die Installations-Seite bei Litlink), das mit Lit-Link zusammenarbeitet – aber auch für andere Literatur-Verwaltungslösungen geeignet ist, da es das Austausch-Format XML produziert. Das XML-Dump-Plugin stöbert ebenfalls auf Knopfdruck (1) in der angezeigten Web-Seite Informationen auf, die auf eine bibliographische Angabe hinweisen, und bereitet diese als XML auf (2) und legt diese an einen frei wählbaren Ort ab.


In den Einstellungen kann auch spezifiziert werden, welche Angaben im Text wie interpretiert werden soll.


Auch die (Windows only-)Literaturverwaltung citavi bietet eine solche Web-Integration, die aber anders funktioniert: hier werden markierte Daten extrahiert, bzw. in bestimmten Literatur-Datenbanken abgefragt und die dort gelieferten Ergebnisse in die Datenbank aufgenommen.

Was fehlt? Eine Literaturverwaltung nur auf dem Netz? Gibt es auch: zum Beispiel Bibsonomy (auch schon hier kurz erwähnt), das stark an den Social Bookmark-Dienst de.licio.us erinnert (von wo auch Einträge samt Tags importiert werden können, habe ich mal gemacht). Dort können auch Literaturangaben erfasst und ge-„taggt“ werden. Auch Import und Export in verschiedenen Formaten sind möglich; so habe ich Zotero-Einträge im BibTex-Format exportiert und in Bibsonomy eingelesen.

P.S.: natürlich gibt es noch weitere gute und sinnvolle Literatur-Verwaltungsprogramme. Wer will, darf seine Favoriten in die Kommentare schreiben.

Übersicht: HOK Lesen: Suchen und Finden