Schlagwort-Archive: Google

Digitale Geschichte der Zukunft (nach William J. Turkel)

Den Weblog Digital History Hacks von William J. Turkel habe ich schon als Geschichtsblog des Monats März vorgestellt. Turkel hat letzthin in drei Blog-Beiträgen seine Vorstellungen von der Zukunft der Geschichtswissenschaften im digitalen Zeitalter erläutert. Die Stichworte: Links, Informationsmenge, Interaktion (Mashups).

Weiterlesen

Europeana – La Grande Nation fights back!

Wir wussten es ja: Das wird sich die Grande Nation nicht bieten lassen! Die kulturelle Vorherrschaft sich von ein paar amerikanischen EDV-Schnöseln mit einem dicken Portemonnaie wegschnappen zu lassen – so nicht! Jean-Noel Jeanneney, der ebenso visionäre wie auch kampfeslustige Direktor der Bibliothèque Nationale de France, kündigte ja an, dass man das Vorpreschen von Google bei der Massendigitalisierung von historischen Büchern nicht einfach so akzeptieren werde. Nun wissen wir, wass die BNF ausgebrütet hat: Europeana.

«Ich hatte (bald?) einen Wikipedia-Artikel»

Wie fühlt es sich an, wenn man mitgeteilt bekommt, dass in Wikipedia ein Artikel über einen erschienen ist – gefolgt von der Ankündigung, er sei zur Löschung beantragt, weil der Inhalt nicht relevant genug für einen Wikipedia-Eintrag sei?

Darüber berichtet der Journalist Daniel Terdiman (Link zu vielleicht schon gelöschtem Artikel bei Wikipedia) in einem Artikel bei CNet. Darin las ich auch erstmals vom „Professor-Test“, den die Wikipedia-Administratoren offenbar anwenden, um die „Bedeutsamkeit“ einer Person zu beurteilen, über die ein biographischer Artikel in Wikipedia erscheint: Wer bekannter ist als ein „durchschnittlicher College-Professor“ hat Chancen, dass der Eintrag stehen bleibt. Wie die Bekanntheit gemessen wird? Genau: Anzahl Hits bei Google oder Yahoo. Daniel Terdiman hatte 105.000 bzw. 126.000 Hits vorzuweisen. Ich: naja…. 13.100…

Stellt sich die Frage: Ist man wer, wenn man nicht bei Wikipedia vorkommt? Und: was ist man, wenn man mal bei Wikipedia vorkam? Da passt doch der Song bestens: „Ich habe keinen Eintrag bei Wikipedia, drum frag‘ ich mich manchmal, bin ich wirklich da?“ (mp3, 2MB, von Mr. Renz, einem bekennenden Fussball-Fan von Dynamo Dresden – von der sprachlichen und musikalischen Qualität durchaus passend zum Thema). Immerhin: es gibt auch andere Songs zu Wikipedia: Hotel Wikipedia (nach Eagles) zum Beispiel, oder Wikipedian Rhapsody (nach Queen) oder We Will Block You (auch nach Queen, mit Warnung „Dies ist ein Scherz“…).

Plagiatsdebatte ff.

Vor einigen Tagen habe ich hier geschrieben, ich werde Stefan Webers Buch über Plagiate und das «Das Google-Copy-Paste-Syndrom» noch vorstellen. Das dünne Buch war schnell gelesen, der schale Eindruck, den es indes hinterlassen hat, wirkte noch recht lange nach.

Weber legt mit seinem Pamphlet zweifelsohne den Finger auf einen wunden Punkt: Moral, intellektuelle Disziplin und vor allem auch wissenschaftliches Interesse vieler Studierender lassen eindeutig zu wünschen übrig. Weber überspitzt diesen Befund allerdings, wenn er daraus eine „Austreibung des Geistes aus der Textproduktion“ konstruiert und von einer „Textkultur ohne Hirn“ schreibt.

Unter dem Titel „Vorboten“ übt sich Weber gleich zu Beginn des Buches in Rundumpolemik gegen die Medienwissenschaften. Zehn Mythen meint er identifizieren zu können, angefangen bei einer „Apriorisierung“ über den angeblichen Mythos der Substitutionseffekte bis hin zur „Rhetorik der Konstruktivität“ reicht die Brandbreite der Weberschen Kollegenschelte.

A propos Kollegenschelte: Sven Grampp, Mitarbeiter und Lehrbeauftragter am Instituts für Theater- und Medienwissenschaft der Universität Erlangen-Nürnberg, besprach unlängst Webers Habilitationsschrift mit dem Titel „Non-dualistische Medientheorie. Eine philosophische Grundlegung“ nicht ohne einige recht unmissverständliche Zustandsbeschreibungen der gegenwärtigen medientheoretischen Fachsimpeleien der Rezension voranzustellen:

„Schaut man sich neuere Publikationen aus diesem Bereich an, wird deutlich, dass der Avantgardegestus auch weiterhin fester Bestandteil medientheoretischer Legitimationsrhetorik ist.“ [S. 8]

Und weiter:

„‚Medienphilosophie‘ ist so eine Oppositionsmarkierung, die seit ein paar Jahren zirkuliert. Betrieben wird die Medienphilosophie vor allem von einigen philosophisch gestimmten Medientheoretikern, die das Versprechen eines Paradigmenwechsels ihrer Disziplin auch explizit und vollmundig artikulieren.“ [ebd.].

Aber kehren wir zum Plagiatsbuch von Stefan Weber zurück. Das Problem, das ich mit dem Buch oder vielmehr mit Stefan Webers Ansatz habe ist, dass ich nicht a priori davon ausgehe, dass alle Studierende faul und unehrlich sind. Für mich gilt grundsätzlich und bis ich mindestens einen konkreten Hinweis habe, dass es anders sein könnte, die Unschuldsvermutung. Ich möchte Weber auf keinen Fall unterstellen, dass er nicht auch von diesem Grundsatz ausgeht, aber ich habe vermisst, dass er dies auch klar formuliert.

Unter dem Titel „Bullshit-PR und heisse Luft: in neuen Medien und über neue Medien“ schreibt sich Weber gegen Ende des Buches seine Wut gegen die Kulturwissenschaften aus dem Bauch. Zugegeben, der folgende Absatz, den Weber zitiert, ist, um es höflich zu formulieren, ziemlich grenzwertig:

Meine transdisziplinäre Herangehensweise im Sinn einer kritischen Repräsentationstheorie verbindet Ansätze strukturaler psychoanalytischer Theorie mit Ansätzen neuerer Hegemonie- bzw. Demokratietheorie sowie der Film- und Medientheorie, der Gender- und der Cultural Studies, um Perspektiven auf aktuelle Medienkonstellationen zu eröffnen, die sich jenseits technikdeterministischer oder kulturpessimistischer Einschätzungen bewegen.*

Weber vergibt aber leider eine Chance, indem er in einem gehässigen Stil („Das Geschwafel von Transdisziplinarität […] heisse Luft statt Substanz“) zu einem Rundumschlag ausholt und es dabei leider selber hin und wieder an Substanz vermissen lässt. Er schliesst mit folgenden Worten:

Die Produktion von postmoderner heißer Luft durch eine gewisse Gruppe von Wissenschaftlern und die Reaktion mancher Studierender mit dem Google-Copy-Paste-Syndrom sind symptomatisch für die gegenwärtige akademische Kultur der Heuchelei: Copy/Paste als Reaktion auf Bullshit-Diskurse, auf gut Deutsch: die Verdopplung der Scheiße. [S. 147]

Schade. Eine differenzierte Darstellung der kulturwissenschaftlichen Diskussionskulturen – tatsächlich im Anschluss an Sokal und Bricmont, wie Weber schreibt – wäre notwendig und erwünscht. Aber wieso eigentlich in diesem aufgeregten Ton …?

Plagiatsdebatte

Stefan Weber, habilitierter Medienwissenschafter, Herausgeber eines sehr hilfreichen Readers und mehrfaches Plagiatsopfer, hat in einem kürzlich erschienenen Buch die leidige Plagiatsfrage aufgegriffen. Das Buch trägt den Titel «Das Google-Copy-Paste-Syndrom». Ein schöner und passender Titel. Ein schöner Zufall ist auch, dass die gleichen Elemente bereits im gleichen Kontext verwendet wurden: Unter dem Titel «copy/paste. Zur Kultur des Kopierens» fand 2004 an der Hochschule für Gestaltung und Kunst in Basel eine Lehrveranstaltung zum Thema Plagiate und Kopieren statt. Und zum Google-Syndrom erschien wenig später ein Aufsatz mit dem Titel «Google-Syndrom. Phantasmagorie des historischen Allwissens im World Wide Web». Wir freuen uns natürlich über diesen lustigen Zufall und werden das anregende Buch in Kürze ausführlicher hier vorstellen.

HOK intern: Medienkompetenz für Historiker/innen an der Universität Innsbruck

Am 18. Dezember habe ich an der Universität Innsbruck anlässlich einer Fortbildung für Lehrende der Philosophisch-Historischen Fakultät das Konzept der Historischen Online-Kompetenz vorgestellt (PDF-Datei, 1 MB).

Ich habe dabei folgende URL von verschiedenen Diensten erwähnt:

Ausserdem waren noch folgende Referate zu hören (Ich füge ganz impressionistisch meine Eindrücke und Notizen dazu)

Ingrid Böhler: Qualitätskriterien im Netz. Hier wurde vor allem auf eine neue Version des Internet Detective hingewiesen, einem Online-Tutorial zur Evaluierung von Internet-Quellen (davon gibt es auch eine leicht abgewandelte Version für Historiker/innen).

Wolfgang Meixner: Hibidat, eine Bilddatenbank am Institut für Geschichte der Universität Innsbruck. Die Sammlung entstand als beschreibende Textdatenbank zu einer Sammlung von Dias, die in Vorlesungen gezeigt wurden. Probleme sind einerseits die ungeklärte Frage, wie mit Bildrechten umgegangen werden soll (die Universität kann die Abgeltung der Bilder nicht bezahlen – folglich wird der Zugang zur Datenbank auf Angehörige der Universität eingeschränkt) und die Verschlagwortung (hier zeigt sich der -meiner Ansicht nach – „heilige Gral“ des umfassenden, mit anderen Datenbanken kompatiblen Thesaurus, der immer herbeigesehnt, aber nie erreicht wird; so bleibt die Frage, ob nicht eine intelligente Stichwortvergabe besser geeignet wäre, da sie flexibel und sofort einsetzbar wäre).

Michael Kröll: Google-Mania vs. Fachportale. Basierend auf seiner Diplomarbeit „A Field Study of Subject Gateways on „Zeitgeschichte“, Applied Historical Information Science“ schilderte Michael Kröll die Unterschiede zwischen Google und Fachportalen. Interessant, dass selbst Fachportale des gleichen Fachgebiets sich kaum überschneiden, wenig gemeinsame Schlagworte benützen. Ein Problem der mangelnden Akzeptanz scheint die auf Datenbankfelder ausgelegte Suche in Fachportalen, die weniger Erfolgserlebnisse generiert als Googles Volltext-Suche. Ausserdem ist die Betreuung von Fachportalen relativ kostenintensiv, da Fachredakteure die laufend sich verändernden Informationen beurteilen müssen. Es gibt daher einen Trend zur Konzentration (mit anderen Worten, die meisten Fachportale werden eingestellt). Interessanter Aspekt in der Diskussion: Entwickeln sich Konvergenzen zwischen den Ansätzen? Gibt es Kombinationen von Google mit Fachportalen, z.B. mit einer Google-Suche nur auf die Auswahl der in Clio-Online vorhandenen Websites (vgl. Eintrag zu entsprechender Google-Schnittstelle)?

Eva Pfanzelter: Erklären oder Strafen. Zur Plagiatsproblematik und dem Umgang damit an der Universität Innsbruck. Der Plagiats-Jäger Stefan Weber macht in Österreich Furore, wird mit seinem Übereifer und seinem Alarmismus aber auch kritisch beäugt. Das Thema ist jedenfalls mit dem neuen Buch von Stefan Weber (siehe diesen früheren Eintrag) in den Publikumsmedien lanciert. Sehr passend der Hinweis auf einen Artikel bei Spiegel Online, der die zunehmenden Plagiate beklagt, aber an prominenter Stelle auf einschlägig bekannte Websites wie „hausarbeiten.de“ verlinkt! Eva Pfanzelter stellte vor allem die Plagiats-Erkennunssoftware von „safeassignement.com“ vor, welche die Universität Innsbruck testet. Dort können Dozierende (oder auch Studierende) Arbeiten hochladen, die mit Inhalten der eigenen Datenbank (die durch das Hochladen von zu prüfenden Arbeiten laufend erweitert wird, safeassignment.com erlaubt sich nämlich, diese einzubehalten und kommerziell zu nutzen – nämlich als Vergleichsbasis, was Fragen zur Rechtmässigkeit dieses Tuns aufwarf…) und mit dem Internet vergleicht. Das Ergebnis wird farblich ausgezeichnet, mit Fundstellen im Internet (oder mit anderen Arbeiten) ergänzt und mit einer Prozent-Zahl versehen, welche den Anteil der abgeschriebenen Elemente wiedergibt. Mit Schreibfehlern Wortumstellungen lässt sich die Software nicht austricksen. Im Plenum der Anwesenden stiess diese Software-Lösung auf wenig Gegenliebe – viel eher sei auf gute Betreuung der Studierenden-Arbieten zu setzen – und den Studierenden klar zu machen, warum Plagiate nicht akzeptiert werden, bzw. was Plagiate überhaupt sind (vgl. die Einträge in diesem Blog zu „Plagiaten„). Hierzu eignet sich das (bereits erwähnte) Tutorial an der FTHW Berlin.

HOK Lesen: Suchen und Finden: Bildungs-Suchmaschine dank neuer Google-Schnittstelle

Eine Schnittstelle zu den Suchmaschinen-Ergebnissen, die Google neuerdings zur Verfügung stellt, lässt nicht nur den Einbau von Google-Suchergebnissen in die eigene Website zu (das ist schon länger möglich), sondern lässt auch Einschränkungen zu, von welchen Websites Treffer berücksichtigt werden sollen. Das hat nun Bildungs-Suche.de gleich in eine Bildungs-Suchmaschine umgesetzt, in der ausgewählte Websites zu Bildungsfragen in der Suche berücksichtigt werden. Leider fehlt eine Dokumentation, welche Websites dies sind, und warum gerade diese Auswahl getroffen wurde. Allerdings regt dieses Praxisbeispiel auch die Phantasie an: Wer programmiert als Erster eine „Geschichts-Suchmaschine“?

Via Beats Blog

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen/Schreiben: Wo ist das „Persönliche“ am PC – oder: vom Auftauchen des Neo-Netzwerk-Computers

Zwei Ereignisse führen zu diesem Eintrag, der eine Erkenntnis erst einmal ahnen lässt:

Zum Einen die Erfahrung im Gespräch mit dem IT-Verantwortlichen unserer Hochschule. Bislang habe ich die Hochschulen (bzw. vor allem die Universitäten) als relativ flexibel und offen in den IT-Fragen erlebt (relativ…). Man konnte seine Plattform, seine Ausstattung, sein Modell, seine Software-Ausstattung auswählen und hatte dennoch gute Möglichkeiten, mit auftauchenden Support-Anliegen auf offene Ohren zu stossen. Aber das waren wohl noch die Zeiten, als die IT-Mittel für Technik und Personal unter dem Motto „Schulen ans Netz“ und „Wir müssen das Bildungswesen fürs 21. Jahrhundert fit machen“ noch reichlich flossen. Dies scheint nun bereits Geschichte zu sein.

Nun gilt es, IT-Infrastruktur kostengünstig zu führen und zu pflegen. Sonderwünsche sind support-aufwendig, daher teuer, daher nicht mehr zu haben, ausser man kann dringlichen Bedarf anmelden und beteuert mit mehrfacher Unterschrift (zugespitzt formuliert), dass man sämtliche Folgen selber trägt.

Diese Harmonisierung geht ja über Plattform-Fragen (Mac/Win) oder Software-Ausstattungen (Office oder Alternativen) hinaus. Weil die IT-Infrastruktur immer komplexer wird (Kompatibilität von Funknetz-Treibern, Software-Verträglichkeit mit Drucker-Abrechnungs-Systemen usw.), wird immer mehr auch das konkrete Modell und die konkrete Installation von der IT-Abteilung vorgegeben. Anpassungen/Änderungen nur auf eigenes Risiko. So treibt man dem Computer das „Persönliche“ aus (sofern man nicht die Auffassung vertritt, dass das P in PC sowieso nur ein Marketing-Trick war – hat aber bei vielen PC-Bastlern recht gut funktioniert). Vielleicht ist nun eben der Moment gekommen, wo der Computer einfach auf dem Niveau eines Kopiergerätes angekommen ist: ist ja wurscht wie, Hauptsache er tut.

Nun kommt (andererseits) Google ins Spiel (und eigentlich überhaupt das schillernde Konzept von web 2.0). An einer Tagung über wirtschaftlichen Potentiale von web 2.0 in San Francisco wurde die Strategie von Google gedeutet, das sich in letzter Zeit mit dem Zukauf zahlreicher Web-Anwendungen hervorgetan hat. Kern-These: Google setzt auf den „Neo-Netzwerk-Computer“. Die Kernanwendungen werden in Zukunft im Internet ausgeführt. Konkret: Texte schreiben, Tabellenkalkulationen zusammenschustern, Präsentationen planen, Daten ordnen werden wir in Zukunft in einem Browser-Fenster – egal, ob wir uns im Büro befinden, zuhause oder in einem CyberCafé, am Rechner eines Kollegen an einer Tagung, unterwegs mit dem Smartphone.

Wird mein „Personalisierungs“-Wunsch der digitalen Arbeitsumgebung in Zukunft im Netz befriedigt? Oder hänge ich zu sehr an „meinem PC“, den ich liebevoll in stundenlanger Arbeit konfiguriert und eingerichtet und optimiert habe? Wäre ich überhaupt bereit, mein digitales Dasein dem Netz zu überantworten? Den PC kann ich vom Internet abkoppeln, vom Stromnetz trennen, die Festplatte ausbauen – er ist physisch erkennbar vorhanden. Was ist da schon ein Web-Server in irgend einem gekühlten Server-Raum in…. Minnesota? Minsk? Ulan Bator?

Zum Schluss die obligate HOK-Frage: was hat das für Konsequenzen für die Arbeit in der Geschichtsdidaktik und Geschichtswissenchaft? Inwiefern betrifft dies die Informationsbeschaffung, -ordnung, -auswertung; inwiefern werden neuartige Quellen geschaffen, neue Kommunikations-Systeme etabliert, neue Formen der Vermittlung entwickelt? Time will tell.

Übersicht: HOK Schreiben/Lesen; Reden

HOK Lesen: Suchen und Finden: Google macht in Wikis

Google hat letzte Woche die Firma JotSpot aufgekauft, die Wikis mit einfacher zu bedienender Benutzeroberfläche anbietet. CNet bringt die Strategie von Google (unter dem plakativen Titel „Google goes wild for wikis„) mit einem Zitat eines (der vielen) Experten auf den Punkt:

Why pick a fight with where Office is today when you can look at where the Web is going tomorrow?

Google denkt über die Suchmaschinen-Technologien hinaus und versucht, Terrain in jenen technologischen Bereichen zu besetzen, wo in Zukunft die alltägliche Arbeit stattfinden wird. Nach dem Motto: Heute mag Microsoft mit Windows und Office einen De-Facto-Standard setzen. Morgen wird es Google sein.

Was heisst das für die Wiki-Technologie? Wird die jetzt in Google „eingemeindet“? Lohnt es ich gar nicht mehr, sich mit Wikis auseinander zu setzen? Beat Döbeli weist darauf hin, dass die Technologie sich ändern oder verschwinden mag. Entscheidend sind die Prinzipien, welche die Art der Kommunikation in Wikis prägen: die einfache Art, gemeinsam Inhalte zu erstellen, zu verändern, zu diskutieren und die Entstehung der Inhalte nachzuverfolgen. Mit welcher Technologie dies erreicht wird, ist nicht so wichtig.

P.S.: Ja, ich habe mir auch die Frage gestellt, wann Google wohl Wikipedia übernimmt. Das ist aber nicht so einfach, da Wikipedia keine Firma ist. Zudem: die Wikipedia-Inhalte sind schon sehr prominent im Google-Such-Index vertreten.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen – Suchen und Finden: Google-Gigantismus

Kaum hatte ich meine ersten Videos auf YouTube eingespielt, wurde das Unternehmen verkauft. Nun, da Google auch noch im Film-Geschäft eingestiegen ist (auch wenn auf YouTube zunächst einmal 30’000 vermutlich illegale Dateien entfernt werden müssen), greifen die Journalisten zu grossen Lettern bei den Schlagzeilen: „Google gigantisch“ titelt die ARD, da das Suchmaschinenunternehmen neue Rekorde bei Umsatz und Gewinn vermeldet.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen/Schreiben: Von Aggressionen und Aggregatoren

Der Fall einer belgischen Zeitung, die sich gegen die ungefragte Verwertung durch GoogleNews wehrt, weist auf eine bemerkenswerte Eigenschaft der Internet-Gesellschaft. Die Aggregation von Daten, die von anderen erstellt worden sind, wird zu einem Mehrwert generierenden (und damit Profit abwerfenden) Service. Google programmiert die Suchmaschinen, welche die Websites der bekannten Zeitungen abgrasen, lässt die Inhalte gescheit darstellen und kassiert für diese Aggregation eine Menge Werbegeld, dass den Produzenten der Informationen fehlt.

Auf dieses Ungleichgewicht der web 2.0-Ökonomie weist auch Geert Lovink in seiner kritischen Würdigung „Kein Zugriff“ hin (Zusammenfassung seiner kommenden Publikation bei „Jungleworld„). Er zeigt das Prinzip auch anhand community-basierter Aggregations-Leistungen auf. Die Tagging-Funktionen habe nicht nur strukturierenden Nutzen für die angemeldeten User einer Community. Sie lassen auch Profilierungen und Marktstudien zu. Wikipedia (um noch einen Schritt weiter weg von den technischen Aggregations-Definitionen zu gehen) ist nicht nur eine Gratis-Dienstleistung, die locker alle bezahlten Modelle der Wissensaggregation (Lexika) punkto Popularität aussticht – es ist auch ein Rekrutierungsfeld für Autor/innen, die sich bereits profiliert haben und nun in anderen Projekten genutzt werden können. Wikipedia ist auch eine beliebte Quelle für so genanntes DataMining: das Auswerten der Datenbestände mit verschiedensten Fragestellungen.

Bei Google kann man noch der Meinung sein, es handle sich um eine Produktivitätssteigerung bei der Datenverwertung, wie dies die Mechanisierung und Informatisierung bei der Produktfertigung im 19. und 20. Jahrhundert war. Doch bei den Geschäftsideen im web 2.0 wird mit dem Community-Effekt günstig produziert, dank Idealismus, Altruismus, Spieltrieb, Exhibitionismus. Jüngstes Beispiel ist der Versuch von Google, mit einem Online-Game durch die Community seine Bilddatenbank beschlagworten zu lassen. Wikipedia ist zwar im Gegensatz zu Google (und anderen web 2.0-Firmen) ein Non-Profit-Unternehmen. Doch es generiert auch ziemlich viel Geld – durch Spenden. Davon können einige Leute leben, nicht zuletzt Gründer Jimmy Wales. Doch weitaus wichtiger: die Wikipedia-Community beschert dem Wikipedia-Gründer wertvolle Aufmerksamkeit, die er auch für kommerzielle Projekte (wie Wikia) nutzen kann. Letztlich geht es bei Projekten wie bei Wikipedia nicht nur um die Frage der wissenschaftlichen Güte der gemeinschaftlich-ehrenamtlich erstellten Inhalte. Es ist auch eine Verdrängung bezahlter Professionals durch idealistische Freiwillige.

Zuletzt noch ein gewagter Schlenker in die akademische Welt. Wer die Bedeutung des Aggregations-Prinzips für das web 2.0 verstanden hat, und sieht, wie dieses Prinzip bei Google, Flickr, Wikipedia und in privaten Blogs zur Anwendung kommt, staunt nicht mehr darüber, dass mit den Nutzer/innen des web 2.0 auch Copy/Paste-Verhalten und Plagiats-Vergehen in den Universitäten Einzug halten. Doch einfach nur ein sorgloses Umgehen mit fremdem geistigen Eigentum bei den jungen Studienanfängern zu beklagen, greift zu kurz. Was wird denn von Ihnen verlangt – und was haben Sie für Vorbilder?

In einem zunehmend verplanten und modularisierten, auf Leistung (= in Credits messbaren Output) getrimmten Bologna-Hochschul-System kann es nicht überraschen, dass die Aufgaben im Grundstudium oft einfachen Aggregationen gleichen. „Fassen Sie zusammen!“ ist als wissenschaftliche Herausforderung so dürr, dass es zum Copy/Paste einlädt. Stattdessen wären klare Fragestellungen zu verlangen, bzw. auch zu vermitteln, was eine klare Fragestellung ausmacht und wie diese eine wissenschaftliche Arbeit schon grundlegend strukturieren kann. Denn: auch wer sauber ein Zitat nachweist, muss es noch lange nicht gelesen oder gar verstanden haben.

Generell sollte nicht nur mit dem Argument der wissenschaftlichen Redlichkeit (keine fremden Erkenntnisse als eigene ausgeben) gearbeitet werden. Denn oft sind die Vorbilder nicht so vorbildlich, wie sie sein sollten: Auch bestandene Akademiker werden immer öfter beim Tricksen und Klauen entlarvt – nicht immer mit Konsequenzen. Und ist eine Paraphrase nicht oft einfach eine elegante Vermeidung des offensichtlichen Bekenntnisses, dass einem selber nichts Besseres eingefallen ist, man dies aber elegant in eigene Worte fassen kann?

Immerhin, und dies sei hier auch erwähnt, kann nicht genug auf die lernpsychologische Wirkung des epistemischen Schreibens hingewiesen werden: Sachverhalte besser verstehen, indem man sie verständlich niederzuchreiben versucht.

Zu den Argumenten der Redlichkeit und der Lernpsychologie kommt auch noch jenes der Urheberrechte: man ist in der Regel nicht befugt, ohne Nachweis längere Passagen aus Werken anderer abzuschreiben/ zu kopieren. Hier gilt jedoch zu beachten, dass die GNU Public License die bestehenden Regeln verändert. Aus Wikipedia darf ohne Zitatnachweis wörtlich zitiert (auch in beliebig abgeänderter Form) werden – solange das Ergebnis auch der GNU Public License untersteht und frei weitergegeben und weiter bearbeitet werden kann.

Noch zum Titel: Angesichts der starken Überzeugungen, die zur Disposition stehen (Konzepte der Wissenschaftlichkeit), und der ökonomischen Realitäten (Wer bezahlt und wer kassiert?) wundert mich der zuweilen scharfe Ton nicht, mit dem über die „schlimmen Entwicklungen“ des Internets – und des web 2.0 als Untermenge davon – hergezogen wird. Aber bleibt nur Euphorie, Fatalismus oder Beklagen?

Literatur:

Übersicht HOK Lesen/Schreiben

HOK Lesen: Suchen und Finden: Open Access

Eine sehr gute Übersicht über Motive, Absichten und Risiken des Open Access-Ansatzes liefert Ulrich Herb in einem zweiteiligen Artikel in Telepolis. In „Schöne neue Welt des Open Access“ stellt er zu Beginn die Unverträglichkeits-Stelle zwischen Neuen Meidum Internet und der Welt der etablierten Wissenschaftspublikationen fest: Wissenschafter publizieren in Journalen, Journale wollen Lizenzgebühren.

Da aber keine Hochschulbibliothek der Welt die Lizenzgebühren für alle wissenschaftlichen Journale entrichten kann, bleiben die Verheissungen des Internets unerfüllt und sein Potential für die wissenschaftliche Kommunikation liegt brach.

Ein Glück, gibt es den Journal Impact Factor (JIF): ein Faktor, der feststellt, wie oft in wissenschaftlichen Abhandlungen Artikel aus den verschiedenen Fach-Journalen zitiert werden. Je öfter ein Journal genannt wird – umso besser für’s Image. Darum haben viele Verlage nichts dagegen, wenn die Autoren ihre Artikel auch noch umsonst im Netz zur Verfügung stellen: Ihre Journale (wo die Erstveröffentlichung stattfand, wie auch auf dem Gratisdokument vermerkt) gewinnen auch bei Zitaten, die sich auf die Gratisversionen beziehen, an JIF.

Im zweiten Artikel „Journale, Impact Factor, radikale Monopole und Karriere“ bringt Herbig auf den Punkt, weshalb sich der Widerstand in der Scientific Community in Grenzen hält:

Wer als Wissenschaftler Karriere machen will, muss nicht nur Talent haben, sondern auch in den richtigen Journalen, die über einen hohen Journal Impact Factor (JIF) verfügen, publizieren. Andernfalls wird die Karriere scheitern, die Devise lautet: Publish or Perish.

So nährt sich das System selbst, nur langsam geht der Glaube an die „wichtigen Journale“ verloren – damit bleiben aber Open Access-Publikationen Veröffentlichungen mit minderem Wert. Dabei wäre das nicht nur einer Erleichterung für den vereinfachten, kostenlosen Zugang zu Wissen, sondern auch für das Publizieren von wissenschaftlichen Inhalten, was besonders für Wissenschaftler der so genannten Dritten Welt Chancen böte, sich der Scientific Community anzuschliessen.

Passend dazu auch das Interview bei Golem.de mit Hal R. Varian, der das bestehende Urheberrecht für „skandalös ineffizient“ hält, da es die Vorteile der schnellen weltweiten Verfügbarkeit von Informationen nicht nutzen lässt. Dies gilt insbesonder für so genannte „orphan works“, also Werke, deren Urheber (oder Inhaber der Urheberrechte) sich nicht ausfindig machen lassen. Zur Rolle von Open Source (auch eine Variante des OpenAccess-Gedankens) meint Varian:

Google wäre beispielsweise ohne Open Source praktisch nicht denkbar. Google nutzt mehrere hunderttausend Server und es wäre ziemlich teuer, wenn Google für jeden neuen Server Lizenzgebühren abführen müsste. So kann Google Software wirklich ausreizen und erweitern, um sie an die eigenen Bedürfnisse anzupassen. Open Source ist dadurch ein Kernbestandteil des Geschäfts.

Dazu passt die Meldung bei Heise, wonach die Zeitungsverleger in Zukunft verhindern wollen, dass die Suchmaschinen ihre kostenlos zugänglichen Seiten abgrasen und indexieren können. Die Medien der letzten Jahrhunderte wehren sich gegen das Medium dieses Jahrhunderts (siehe noch einmal den Eintrag zu EPIC 2015) – gegen das Aggregieren und Syndizieren.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Quellen: Anmerkungen zu Google Books

Erste Erfahrungen mit Google Books, das etliche Bücher als Scans im PDF-Format anbietet – nicht wenige darunter auch kostenlos. Hardy Green berichtet in Business Week von seinen Erfahrungen mit dem Download (brach wegen der Grösse der Datei ab) und dem Lesen (er entdeckte Anmerkungen wohl aus Studentenhand aus der Zeit der Jahrhundertwende im Buch) mit seinem Google Book, einer Ausgabe von Charles Dickens‘ A Tale of Two Cities aus dem Jahr 1908 (die ich zwar bei Google gefunden habe, aber nicht als Full-View-Datei, die frei heruntergeladen werden kann).

Ist Google hier nicht eine Gefahr für jene Verlage, die von der Neuausgabe von Klassikern leben?

Peter Gale Nelson, assistant director of Brown University’s creative writing program, also questions the economic impact. „It may be less expensive to buy a printed version than to pay the cost of toner and paper.“ The Google mechanism, he added, „could be most useful for a book that’s hard to find, one where this is the only way to get it.“

Derweil weisen Verantwortliche des Bereichs Distributed Proofreaders des Gutenberg Projects (wo urheberrechtsfreie Klassiker von Freiwilligen zunächst eingetippt, mittlerweile aber auch eingescannt werden) auf die Notwendigkeit von Qualitätssicherungsmassnahmen hin (gefunden bei O’Reilly-Radar). Nicht selten geht die eine oder andere Seite beim Massen-Scannen ? la Google verloren – oder Bildlegenden werden abgeschnitten. Das kann im Einzelfall ausserordentlich ärgerlich sein. Doch ein kontrollierendes Gegenlesen (Proof-Reading) gibt es bei Google nicht – zu teuer. Eine Gelegenheit, über die Vor- und Nachteile von so genannten „Laien-Projekten“ nachzudenken, wo Freiwillige gemeinsam Inhalte erarbeiten.

Übersicht: HOK Lesen: Quellen