Schlagwort-Archive: Urheberrecht

Geschichtstage: Technikgeschichte

Monika Dommann (Uni Zürich) berichtete unter dem Titel „Von der Druckerpresse zum Wissenssystem (1960-1975)“ über die Umbrüche und Automatisierungsprozesse in der Bibliothek. In einem ersten Teil ging es um Siegfried Giedion und das Zeitalter der Mechanisierung. Giedion hat in seinem erstmal 1948 englisch erschienen Buch die Prozesse der Mechanisierung untersucht und – zu einem sehr frühen Zeitpunkt – kritisch analysiert. Der zweite Teil des Vortrages behandelte McLuhan, der 1962 in seinem vielzitierten Buch „The Gutenberg Galaxy“ das (vermeintliche) Ende der Buchkultur beschrieben hat. Den Hauptteil des Referates bildete eine Fallstudie über die Mechanisierung des Abschreibens in der Bibliothek. Dommann ging es dabei um die Frage, wie die Geschichtswissenschaft die Nutzung neuer Medien – hier des Photokopierers – untersuchen kann. Sehr anschaulich zeichnete Dommann die Durchsetzung von Kopiermaschinen im bibliothekarischen Kontext nach und spannte einen weiten Bogen hin zu den aktuellen Copyright-Diskussionen. Nur ein Beispiel: Wenn Photokopien von Aufsätzen den Sonderdruck ersetzen, dann verändert sich natürlich auch das Kommunikationsverhalten von Wissenschaftern. Fazit: Ein schönes Beispiel für den fruchtbaren Zwischenraum zwischen Technikgeschichte, Wissensgeschichte und Bibliothekswissenschaft.

P.S.: Die Tatsache, dass in diesem Panel nur drei Vorträge eingeplant waren, erwies sich als sehr angenehm! Schade, dass dies nicht Standard ist an den Geschichtstagen.

Plagiatsdebatte ff.

Vor einigen Tagen habe ich hier geschrieben, ich werde Stefan Webers Buch über Plagiate und das «Das Google-Copy-Paste-Syndrom» noch vorstellen. Das dünne Buch war schnell gelesen, der schale Eindruck, den es indes hinterlassen hat, wirkte noch recht lange nach.

Weber legt mit seinem Pamphlet zweifelsohne den Finger auf einen wunden Punkt: Moral, intellektuelle Disziplin und vor allem auch wissenschaftliches Interesse vieler Studierender lassen eindeutig zu wünschen übrig. Weber überspitzt diesen Befund allerdings, wenn er daraus eine „Austreibung des Geistes aus der Textproduktion“ konstruiert und von einer „Textkultur ohne Hirn“ schreibt.

Unter dem Titel „Vorboten“ übt sich Weber gleich zu Beginn des Buches in Rundumpolemik gegen die Medienwissenschaften. Zehn Mythen meint er identifizieren zu können, angefangen bei einer „Apriorisierung“ über den angeblichen Mythos der Substitutionseffekte bis hin zur „Rhetorik der Konstruktivität“ reicht die Brandbreite der Weberschen Kollegenschelte.

A propos Kollegenschelte: Sven Grampp, Mitarbeiter und Lehrbeauftragter am Instituts für Theater- und Medienwissenschaft der Universität Erlangen-Nürnberg, besprach unlängst Webers Habilitationsschrift mit dem Titel „Non-dualistische Medientheorie. Eine philosophische Grundlegung“ nicht ohne einige recht unmissverständliche Zustandsbeschreibungen der gegenwärtigen medientheoretischen Fachsimpeleien der Rezension voranzustellen:

„Schaut man sich neuere Publikationen aus diesem Bereich an, wird deutlich, dass der Avantgardegestus auch weiterhin fester Bestandteil medientheoretischer Legitimationsrhetorik ist.“ [S. 8]

Und weiter:

„‚Medienphilosophie‘ ist so eine Oppositionsmarkierung, die seit ein paar Jahren zirkuliert. Betrieben wird die Medienphilosophie vor allem von einigen philosophisch gestimmten Medientheoretikern, die das Versprechen eines Paradigmenwechsels ihrer Disziplin auch explizit und vollmundig artikulieren.“ [ebd.].

Aber kehren wir zum Plagiatsbuch von Stefan Weber zurück. Das Problem, das ich mit dem Buch oder vielmehr mit Stefan Webers Ansatz habe ist, dass ich nicht a priori davon ausgehe, dass alle Studierende faul und unehrlich sind. Für mich gilt grundsätzlich und bis ich mindestens einen konkreten Hinweis habe, dass es anders sein könnte, die Unschuldsvermutung. Ich möchte Weber auf keinen Fall unterstellen, dass er nicht auch von diesem Grundsatz ausgeht, aber ich habe vermisst, dass er dies auch klar formuliert.

Unter dem Titel „Bullshit-PR und heisse Luft: in neuen Medien und über neue Medien“ schreibt sich Weber gegen Ende des Buches seine Wut gegen die Kulturwissenschaften aus dem Bauch. Zugegeben, der folgende Absatz, den Weber zitiert, ist, um es höflich zu formulieren, ziemlich grenzwertig:

Meine transdisziplinäre Herangehensweise im Sinn einer kritischen Repräsentationstheorie verbindet Ansätze strukturaler psychoanalytischer Theorie mit Ansätzen neuerer Hegemonie- bzw. Demokratietheorie sowie der Film- und Medientheorie, der Gender- und der Cultural Studies, um Perspektiven auf aktuelle Medienkonstellationen zu eröffnen, die sich jenseits technikdeterministischer oder kulturpessimistischer Einschätzungen bewegen.*

Weber vergibt aber leider eine Chance, indem er in einem gehässigen Stil („Das Geschwafel von Transdisziplinarität […] heisse Luft statt Substanz“) zu einem Rundumschlag ausholt und es dabei leider selber hin und wieder an Substanz vermissen lässt. Er schliesst mit folgenden Worten:

Die Produktion von postmoderner heißer Luft durch eine gewisse Gruppe von Wissenschaftlern und die Reaktion mancher Studierender mit dem Google-Copy-Paste-Syndrom sind symptomatisch für die gegenwärtige akademische Kultur der Heuchelei: Copy/Paste als Reaktion auf Bullshit-Diskurse, auf gut Deutsch: die Verdopplung der Scheiße. [S. 147]

Schade. Eine differenzierte Darstellung der kulturwissenschaftlichen Diskussionskulturen – tatsächlich im Anschluss an Sokal und Bricmont, wie Weber schreibt – wäre notwendig und erwünscht. Aber wieso eigentlich in diesem aufgeregten Ton …?

HOK Lesen/Schreiben: OpenAccess (Übersicht)

Wer sich zu OpenAccess informieren will, ist beim Weblog Archivalia bestens bedient, gleich mehrere Einträge der letzten Zeit fassen wesentliche Informationen zusammen und verweisen auf wichtige weitergehende Quellen:

Auch sonst ist die Rubrik „OpenAccess“ dieses Weblogs als Informationsquelle zu empfehlen, zusammen mit dem Blog von OpenAccess-Spezialist Peter Suber. Siehe auch die in diesem Eintrag besprochenen Artikel zu OpenAccess in Telepolis.

Übersicht HOK Lesen/Schreiben, HOK Lesen: Quellen

HOK Reden: Wozu HOK? Ein Zwischenstand.

Anlässlich meines Besuchs und Referats am Georg-Eckert-Instituts habe ich wieder einmal versucht, mir den Sinn und Zweck der Historischen Online-Kompetenz zu vergegenwärtigen.

Verbindung von Medien- und Fachperspektive
Im wesentlichen geht es um eine fachdidaktische, aber auch fachwissenschaftliche Konkretisierung der vielbesagten Medienkompetenz, die durch die digitalisierte Mediengesellschaft erfordert wird. Was heisst denn „kompetent mit Medien umgehen können“ in der Praxis der Geschichtswissenschaften und der Geschichtsvermittlung? Dabei ging ich davon aus, dass „die Medien“ (ich sage dazu ICT: (digitale) Informations- und Kommunikationstechnologien) weder das Zentrum der Überlegungen (wozu naturgemäss die Medienpädagogik und die Medienwissenschaften neigen) bilden, noch einfach als Werkzeuge verstanden werden (wie dies die Fachwissenschaften und Fachdidaktiken gerne tun).

Bezeichnung von Kompetenz-Dimensionen
Um eine Passung dieser unterschiedlichen Sichtweisen zu ermöglichen, beschränkte ich mich auf die Basis-Kompetenzen jedes wissenschaftlichen Vorgehens: die Analyse, die Synthese und die wissenschaftliche Reflexion. Dabei wollte ich Kompetenz-Dimensionen bilden, welche sowohl die fachlichen als auch die technisch-instrumentellen Methoden umfassten, die für die Nutzung von ICT benötigt werden.

Bei einer Internet-Recherche sind einerseits technische Fähigkeiten des „Bedienens“ erforderlich, genauso aber Kenntnisse davon, wie Suchmaschinen funktionieren, wie Suchabfragen formuliert werden müssen, wie Suchergebnisse bewertet und organisiert werden sollen. Daran schliesst sich schliesslich die eigentiche inhaltliche Analyse der gefundenen Informationen an.

Aus diesem Grund wählte ich zur Bezeichnung der Kompetenz-Dimensionen die allgemeineren Begriffe „Lesen“, „Schreiben“ und „Reden“, da sie in verständlicher Weise die Bereiche der jeweiligen Dimensionen umschrieben. Ich setzte sie bewusst in Anführungszeichen, denn es ging mir nicht um das Aufnehmen und Erstellen von Texten und auch nicht um Kommunikationsakte. Dennoch sehe ich mich mit dem Umstand konfrontiert, dass diese Bezeichnung nicht sehr trennscharf sind und oft im Sinne von „Lesekompetenz“ verstanden werden, wo es um die Aufnahme von Informationen aus schriftlichen Texten geht. Die Dimensionen sind jedoch breiter angelegt, sie sind eher als „Er-fassen“ (statt „Lesen“) und „Ver-fassen“ (statt „Schreiben“) zu verstehen; sie betreffen nicht nur Texte, sondern alle medialen Formen der Information. Wie genau verstehe ich diese Kompetenz-Dimensionen?

„Lesen“
Die Dimension „Lesen“ der Historischen Online-Kompetenz umfasst neben der Entnahme von Information aus Informationsträgern unterschiedlicher medialer Ausprägung (also Texte, Bilder, Filme, Töne, sowie Medienverbünden) und damit zusammenhängend der Fähigkeit, diese Quellen auf ihre medienspezifischen Eigenheiten und ihre Authentizität hin bewerten zu können, auch medienkundliches Wissen (sozioökonomischer Kontext, Urheberrecht, technische Grundlagen) sowie die Fähigkeiten, die ICT für Auffinden und Ablage von Informationen nutzen zu können (Orientierung, Arbeitstechniken). Hier findet ein Zusammenzug ehemals getrennter Fähigkeiten statt: Das Auffinden von Büchern in einer Bibliothek war nocht klarer getrennt von der Analyse-Tätigkeit beim Lesen des Buches, als dies heute bei Recherchen im Internet der Fall ist.

„Schreiben“
„Schreiben“ umfasst einerseits die gestalterischen Tätigkeiten zur Herstellung von Darstellungen in Informationsträgern verschiedener medialer Ausprägungen: also das Verfassen von Text, das Produzieren von Podcasts oder von Filmen, die Konzeption und Umsetzung von Websites oder Computer-Games. Diese Kompetenz-Dimension umfasst aber auch die Kenntnis der spezifischen Eigenheiten der jeweiligen Darstellungsmedien, bzw. deren Auswirkungen auf die Darstellung historischer Sachverhalte. Narrationen sind nicht medienneutral. Und Narrationen werden – selbst in den Wissenschaften – je länger je weniger in schriftliche Texte verpackt. Die Darstellung von Geschichte in Form von hypertextuellen oder multimedialen Präsentationen wird zunehmen. Und zu wissen, wie man mit der DigiCam ein Video dreht und auf YouTube hochlädt, reicht für den kompetenten Umgang mit Geschichte, bzw. mit Geschichtsschreibung nicht aus. Aber auch die Darstellung historischer Sachverhalte mit Texten wird im Zeitalter der modularen Hypertexte und des kollaborativen Schreibens neuartige Kompetenzen erfordern.

„Reden“
Die Dimension „Reden“ umfasst einerseits jene Kompetenzen, über die Auswirkungen, Chancen und Risiken nachzudenken, welche die Nutzung von ICT für Geschichtswissenschaften und Geschichtsvermittlung bedeuten. Andererseits geht es um die Möglichkeiten, welche ICT für die geschichtswissenschaftliche Reflexion eröffnen. Dazu gehören der wissenschaftliche Diskurs ebenso wie die wissenschaftlichen Arbeitsschritte der Fragestellung, der Hypothesenbildung und der Hypothesenüberprüfung.

Verbindung zwischen den Dimensionen
Mir ist es ein besonders Anliegen, bei der Frage der Bedeutung von ICT für die Geschichte nicht nur die Dimension „Lesen“ in den Blick zu nehmen, sondern auch die anderen Dimensionen zu beachten. Dabei interessiert mich auch, wie diese Kompetenz-Dimensionen miteinander verbunden sind. Denn mir scheint, dass die ICT auch zu einer stärkeren Konvergenz der Dimensionen beitragen; dass sich also die Vorgänge des Analysierens, Synthetisierens und Reflektierens einander immer stärker durchdringen: dass Analyseprozesse frühzeitig kommuniziert und zum Gegenstand von Austausch und Reflexion werden; dass Reflexionsprozesse festgehalten und veröffentlicht und zum Gegenstand von Analysen werden können; dass Synthesen deutlicher als bisher die Anteile der analytischen Prozesse sichtbar machen. Dies könnte auch dazu führen, dass einerseits der konstruktivistische Charakter der Geschichtsschreibung, aber auch die Wissenschaftlichkeit der angewandten Methoden deutlicher erkennbar werden.

Wie der Blog insgesamt bildet dieser kurze Abriss nur einen Zwischenstand des Denkprozesses rund um die Historische Online-Kompetenz ab (die eben nicht „historisch“, sondern sehr aktuell ist; also korrekter, aber auch umständlicher als „geschichtswissenschaftliche/geschichtsdidaktische Online-Kompetenz verstanden werden möchte). Wenn ich weitere Einsichten in Aussicht stelle, ist dies also nicht zu viel versprochen.

Übersicht: HOK Reden

HOK Lesen/Schreiben: Von Aggressionen und Aggregatoren

Der Fall einer belgischen Zeitung, die sich gegen die ungefragte Verwertung durch GoogleNews wehrt, weist auf eine bemerkenswerte Eigenschaft der Internet-Gesellschaft. Die Aggregation von Daten, die von anderen erstellt worden sind, wird zu einem Mehrwert generierenden (und damit Profit abwerfenden) Service. Google programmiert die Suchmaschinen, welche die Websites der bekannten Zeitungen abgrasen, lässt die Inhalte gescheit darstellen und kassiert für diese Aggregation eine Menge Werbegeld, dass den Produzenten der Informationen fehlt.

Auf dieses Ungleichgewicht der web 2.0-Ökonomie weist auch Geert Lovink in seiner kritischen Würdigung „Kein Zugriff“ hin (Zusammenfassung seiner kommenden Publikation bei „Jungleworld„). Er zeigt das Prinzip auch anhand community-basierter Aggregations-Leistungen auf. Die Tagging-Funktionen habe nicht nur strukturierenden Nutzen für die angemeldeten User einer Community. Sie lassen auch Profilierungen und Marktstudien zu. Wikipedia (um noch einen Schritt weiter weg von den technischen Aggregations-Definitionen zu gehen) ist nicht nur eine Gratis-Dienstleistung, die locker alle bezahlten Modelle der Wissensaggregation (Lexika) punkto Popularität aussticht – es ist auch ein Rekrutierungsfeld für Autor/innen, die sich bereits profiliert haben und nun in anderen Projekten genutzt werden können. Wikipedia ist auch eine beliebte Quelle für so genanntes DataMining: das Auswerten der Datenbestände mit verschiedensten Fragestellungen.

Bei Google kann man noch der Meinung sein, es handle sich um eine Produktivitätssteigerung bei der Datenverwertung, wie dies die Mechanisierung und Informatisierung bei der Produktfertigung im 19. und 20. Jahrhundert war. Doch bei den Geschäftsideen im web 2.0 wird mit dem Community-Effekt günstig produziert, dank Idealismus, Altruismus, Spieltrieb, Exhibitionismus. Jüngstes Beispiel ist der Versuch von Google, mit einem Online-Game durch die Community seine Bilddatenbank beschlagworten zu lassen. Wikipedia ist zwar im Gegensatz zu Google (und anderen web 2.0-Firmen) ein Non-Profit-Unternehmen. Doch es generiert auch ziemlich viel Geld – durch Spenden. Davon können einige Leute leben, nicht zuletzt Gründer Jimmy Wales. Doch weitaus wichtiger: die Wikipedia-Community beschert dem Wikipedia-Gründer wertvolle Aufmerksamkeit, die er auch für kommerzielle Projekte (wie Wikia) nutzen kann. Letztlich geht es bei Projekten wie bei Wikipedia nicht nur um die Frage der wissenschaftlichen Güte der gemeinschaftlich-ehrenamtlich erstellten Inhalte. Es ist auch eine Verdrängung bezahlter Professionals durch idealistische Freiwillige.

Zuletzt noch ein gewagter Schlenker in die akademische Welt. Wer die Bedeutung des Aggregations-Prinzips für das web 2.0 verstanden hat, und sieht, wie dieses Prinzip bei Google, Flickr, Wikipedia und in privaten Blogs zur Anwendung kommt, staunt nicht mehr darüber, dass mit den Nutzer/innen des web 2.0 auch Copy/Paste-Verhalten und Plagiats-Vergehen in den Universitäten Einzug halten. Doch einfach nur ein sorgloses Umgehen mit fremdem geistigen Eigentum bei den jungen Studienanfängern zu beklagen, greift zu kurz. Was wird denn von Ihnen verlangt – und was haben Sie für Vorbilder?

In einem zunehmend verplanten und modularisierten, auf Leistung (= in Credits messbaren Output) getrimmten Bologna-Hochschul-System kann es nicht überraschen, dass die Aufgaben im Grundstudium oft einfachen Aggregationen gleichen. „Fassen Sie zusammen!“ ist als wissenschaftliche Herausforderung so dürr, dass es zum Copy/Paste einlädt. Stattdessen wären klare Fragestellungen zu verlangen, bzw. auch zu vermitteln, was eine klare Fragestellung ausmacht und wie diese eine wissenschaftliche Arbeit schon grundlegend strukturieren kann. Denn: auch wer sauber ein Zitat nachweist, muss es noch lange nicht gelesen oder gar verstanden haben.

Generell sollte nicht nur mit dem Argument der wissenschaftlichen Redlichkeit (keine fremden Erkenntnisse als eigene ausgeben) gearbeitet werden. Denn oft sind die Vorbilder nicht so vorbildlich, wie sie sein sollten: Auch bestandene Akademiker werden immer öfter beim Tricksen und Klauen entlarvt – nicht immer mit Konsequenzen. Und ist eine Paraphrase nicht oft einfach eine elegante Vermeidung des offensichtlichen Bekenntnisses, dass einem selber nichts Besseres eingefallen ist, man dies aber elegant in eigene Worte fassen kann?

Immerhin, und dies sei hier auch erwähnt, kann nicht genug auf die lernpsychologische Wirkung des epistemischen Schreibens hingewiesen werden: Sachverhalte besser verstehen, indem man sie verständlich niederzuchreiben versucht.

Zu den Argumenten der Redlichkeit und der Lernpsychologie kommt auch noch jenes der Urheberrechte: man ist in der Regel nicht befugt, ohne Nachweis längere Passagen aus Werken anderer abzuschreiben/ zu kopieren. Hier gilt jedoch zu beachten, dass die GNU Public License die bestehenden Regeln verändert. Aus Wikipedia darf ohne Zitatnachweis wörtlich zitiert (auch in beliebig abgeänderter Form) werden – solange das Ergebnis auch der GNU Public License untersteht und frei weitergegeben und weiter bearbeitet werden kann.

Noch zum Titel: Angesichts der starken Überzeugungen, die zur Disposition stehen (Konzepte der Wissenschaftlichkeit), und der ökonomischen Realitäten (Wer bezahlt und wer kassiert?) wundert mich der zuweilen scharfe Ton nicht, mit dem über die „schlimmen Entwicklungen“ des Internets – und des web 2.0 als Untermenge davon – hergezogen wird. Aber bleibt nur Euphorie, Fatalismus oder Beklagen?

Literatur:

Übersicht HOK Lesen/Schreiben

HOK Lesen: Suchen und Finden: Open Access

Eine sehr gute Übersicht über Motive, Absichten und Risiken des Open Access-Ansatzes liefert Ulrich Herb in einem zweiteiligen Artikel in Telepolis. In „Schöne neue Welt des Open Access“ stellt er zu Beginn die Unverträglichkeits-Stelle zwischen Neuen Meidum Internet und der Welt der etablierten Wissenschaftspublikationen fest: Wissenschafter publizieren in Journalen, Journale wollen Lizenzgebühren.

Da aber keine Hochschulbibliothek der Welt die Lizenzgebühren für alle wissenschaftlichen Journale entrichten kann, bleiben die Verheissungen des Internets unerfüllt und sein Potential für die wissenschaftliche Kommunikation liegt brach.

Ein Glück, gibt es den Journal Impact Factor (JIF): ein Faktor, der feststellt, wie oft in wissenschaftlichen Abhandlungen Artikel aus den verschiedenen Fach-Journalen zitiert werden. Je öfter ein Journal genannt wird – umso besser für’s Image. Darum haben viele Verlage nichts dagegen, wenn die Autoren ihre Artikel auch noch umsonst im Netz zur Verfügung stellen: Ihre Journale (wo die Erstveröffentlichung stattfand, wie auch auf dem Gratisdokument vermerkt) gewinnen auch bei Zitaten, die sich auf die Gratisversionen beziehen, an JIF.

Im zweiten Artikel „Journale, Impact Factor, radikale Monopole und Karriere“ bringt Herbig auf den Punkt, weshalb sich der Widerstand in der Scientific Community in Grenzen hält:

Wer als Wissenschaftler Karriere machen will, muss nicht nur Talent haben, sondern auch in den richtigen Journalen, die über einen hohen Journal Impact Factor (JIF) verfügen, publizieren. Andernfalls wird die Karriere scheitern, die Devise lautet: Publish or Perish.

So nährt sich das System selbst, nur langsam geht der Glaube an die „wichtigen Journale“ verloren – damit bleiben aber Open Access-Publikationen Veröffentlichungen mit minderem Wert. Dabei wäre das nicht nur einer Erleichterung für den vereinfachten, kostenlosen Zugang zu Wissen, sondern auch für das Publizieren von wissenschaftlichen Inhalten, was besonders für Wissenschaftler der so genannten Dritten Welt Chancen böte, sich der Scientific Community anzuschliessen.

Passend dazu auch das Interview bei Golem.de mit Hal R. Varian, der das bestehende Urheberrecht für „skandalös ineffizient“ hält, da es die Vorteile der schnellen weltweiten Verfügbarkeit von Informationen nicht nutzen lässt. Dies gilt insbesonder für so genannte „orphan works“, also Werke, deren Urheber (oder Inhaber der Urheberrechte) sich nicht ausfindig machen lassen. Zur Rolle von Open Source (auch eine Variante des OpenAccess-Gedankens) meint Varian:

Google wäre beispielsweise ohne Open Source praktisch nicht denkbar. Google nutzt mehrere hunderttausend Server und es wäre ziemlich teuer, wenn Google für jeden neuen Server Lizenzgebühren abführen müsste. So kann Google Software wirklich ausreizen und erweitern, um sie an die eigenen Bedürfnisse anzupassen. Open Source ist dadurch ein Kernbestandteil des Geschäfts.

Dazu passt die Meldung bei Heise, wonach die Zeitungsverleger in Zukunft verhindern wollen, dass die Suchmaschinen ihre kostenlos zugänglichen Seiten abgrasen und indexieren können. Die Medien der letzten Jahrhunderte wehren sich gegen das Medium dieses Jahrhunderts (siehe noch einmal den Eintrag zu EPIC 2015) – gegen das Aggregieren und Syndizieren.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Quellen: Urheberrecht behindert den Unterricht (mit neuen Medien)

Der Einfachheit halber zitiere ich hier ausführlich eine Meldung von irights.info (statt sie in eigenen Worten zusammenzufassen – soviel zu Shake and Paste).

Eine Studie des Berkman Center for Internet and Society, einem Institut der Universität Harvard, untersucht die Rolle des US-Copyrights bei der Entwicklung und Nutzung neuartiger Methoden und Technologien im Unterricht. Fazit: Derartige Initiativen werden durch das Copyright nicht gefördert, sondern behindert.

Dieses Fazit ist deshalb so bedeutend, weil in der US-Verfassung, die die Grundlage für das Gesetz bildet, festgelegt ist, dass der Kongress dafür sorgen muss, dass das Copyright den wissenschaftlichen Fortschritt fördert. (…)

Auch in Deutschland gibt es deutliche Kritik an den Regelungen des Urheberrechts mit Bezug auf Bildung und Unterricht. Sowohl das Urheberrechtsbündnis für Bildung und Wissenschaft, als auch der Bundesrat und die Organisation „Schulen ans Netz“ haben mehrfach das bestehende Gesetz kritisiert. Sie befürchten, dass sich die Situation für Bildung und Lehre erheblich verschlechtern wird, wenn die Bundesregierung die bisher vorgelegten Vorschläge zur Reform des Urheberrechts umsetzt.

Zur Situation in der Schweiz ist mir nichts bekannt (Hinweise gerne bei den Kommentaren erwünscht!).

Übersicht: HOK Lesen: Quellen

HOK Lesen: Suchen und Finden: Google News

Google ist derzeit sehr präsent in den Medien. Da gibt es eine Ankündigung der Zusammenarbeit mit Associated Press; Google will Urheberrechtsstreitigkeiten mit den Medienunternehmen vermeiden. Ausserdem wird Google in Zukunft beim virtuellen Treffpunkt MySpace die Suchtechnologie beisteuern und die Werbeplätze verkaufen dürfen. Weiter will Google in den Ergebnislisten vor Websites mit schlechtem Ruf warnen (immer noch besser, als diese aus dem Index auszuschliessen) und die Zugänglichkeit für Behinderte zu den Suchergebnissen verbessern. In Sachen Klickbetrug hat sich Google nun mit den werbetreibenden und sich betrogen geglaubten Firmen eine aussergerichtliche Einigung erzielt, die mehr Transparenz bei der Abrechnung der Klicks vorsieht, und anschliessend Kritik an den Firmen geäussert, die behaupten, Klickbetrug nachweisen zu können. Ausserdem will die Universität von Kalifornien mit Google bei der geplanten Digitalisierung von Büchern zusammenarbeiten.

Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Meta-Tag-Regelungen

Meta-Tags (Definition bei Suchfibel.de) sind Schnippsel im HTML-Code einer Website, die vom Browser nicht dargestellt werden (ausser, man ruft den Quelltext auf). Suchmaschinen (bzw. die Suchroboter, welche für die Suchmaschinen das Internet abgrasen) sehen diese Meta-Tags nicth nur, sie nutzen die Informationen darin für die Gewichtung bei Suchanfragen. Denn Meta-Tags werden in der Regel genutzt, um die wichtigsten Schlagworte aufzuführen, die den Inhalte der entsprechenden Seite zusammenfassen.

Nun wird immer wieder mit diesen Meta-Tags Schindluder getreiben – gerade, weil dies eine beliebte und einfache Möglichkeit bietet, die Trefferanzeige in Suchmaschinen zu manipulieren. Pornoseiten etwa schreiben „Golf, Auto, Fussball“ und so weiter in die Meta-Tags. Die Suchmaschinenbetreiber haben dazu gelernt, diese Art von Manipulation funktionert praktisch nicht mehr.

Anders sieht dies aus, wenn Namen in den Meta-Tags genannt werden. Auch hier kann manipuliert werden: BMW setzt zum Beispiel VW, Opel, General Motors in seine Meta-Tags und wird zuoberst angezeigt, wenn jemand ein Suche nach Opel in der Suchmaschine absetzt (das Beispiel ist natürlich fingiert).

Diese Praxis ist schon eine Weile verboten. Neuerdings dürfen nebst Markennamen auch bürgerliche Namen nicht missbräuchlich in Meta-Tags verwendet werden: das ist etwa bei Anwaltskanzleien oder anderen Branchenein Problem, wo die Anbieter mit ihrem bürgerlichen Namen auftreten.

Metadaten (und Meta-Tags gehören dazu) sind Hoffnungsträger für die Strukturierung des Internets, zum Beispiel auch für das Anliegen des „Semantic Web„. Sie sind attraktiv – auch für Tricksereien. Nutzer/innen von Suchmaschinen sollten die Bedeutung dieser Metadaten daher kennen. Und: es gibt Verbindungen zur Problematik des Urheberrechts. Sowohl Markennamen, aber erst recht bürgerliche Namen sind nicht immer eindeutig. Was macht ein Anwalt mit dem Namen Müller?

Übersicht: HOK: Lesen: Suchen und Finden

HOK: Lesen: Quellen: Urheberrecht (Grundlagen)

Ich habe mich freimütig zu meiner Unlust bekannt, mich mit Fragen des Urheberrechtes auseinander zu setzen, wiewohl ich ausdrücklich darauf hinweisen möchte, wie zentral diese Fragen im Zusammenhang mit Quellenkritik und wissenschaftlichem Arbeiten sind. Denn es geht nicht nur um Tauschbörsen für Songs und Filme, sondern auch um die Frage, inwiefern die Auslieferung digitaler Kopien durch Universitätsbibliotheken zu Zwecken der wissenschaftlichen Nutzung (bzw. das Bereitstellen von Arbeitsplätzen in Universitäten und Bibliotheken, die kostenlosen Zugriff auf elektronische Zeitschriften ermöglichen) weiterhin gestattet, bzw. geregelt sein soll .

Eine Übersicht zur Entwicklung des Urheberrechts im digitalen Zeitalter findet sich im Anschluss an diesen Artikel bei Heise, der die Geschichte des deutschen Urheberrechts (bzw. seiner Revision im Hinblick auf die Erfordernisse des digitalen Zeitalters) von 2003 bis Anfang 2006 zusammenfasst. Im Anschluss findet sich eine laufend aufdatierte Liste mit zahlreichen Links zu Meldungen, die Fragen des Urheberrechts betreffen. Darunter auch ein Hinweis auf die Rubrik „Copyright“ bei Telepolis, die eher essayistische Artikel zu diesem Fragenkomplex umfasst.

In Frankreich herrscht derweil Ratlosigkeit, weil das oberste Verfassungsgericht eine sehr harte Linie beim Schutz von Urheberrechten fährt. Das behagt nicht einmal den Vertretern der Urheberrechts-Inhaber. Erstaunlich, wie unterschiedlich die Debatten selbst in Zeiten der globalisierten Digitalisierung in zwei benachbarten Ländern verlaufen können und zu welch unterschiedlichen Ergebnissen sie führen können.

Übersicht HOK Lesen: Quellen

HOK Lesen: Quellen: Urheberrecht und Medienkunst

Der Medienkunstschaffende Hans Bernhard, Mitglied des Künstlerkollektivs ubermorgen, kündigte eine Aktion an, ab Herbst mittels eines eigenen Programms Inhalte aus den bei Amazon digital bereitgestellten Büchern legal zu kopieren und weiter zu verbreiten. Amazon will sich (nach eigenen Worten) mit geeigneten Mitteln gegen dieses Vorhaben wehren. Die Zuschauer sind gespannt – und fragen sich, ob nicht die Ankündigung selbst bereits das Kernelement der Aktion ist.

Auch eine interessante Art, sich mit dem ungeliebten Thema des Urheberrechts auseinander zu setzen.

Übersicht: HOK Lesen: Quellen

HOK Lesen: Quellen: Urheberrecht (und ein leises Seufzen)

Ich fürchte, dass die Problematik des Urheberrechts für die Historische Online-Kompetenz von zentraler Bedeutung ist. Ich fürchte dies daher, weil ich zugeben muss, dass ich nicht besonders viel Elan beim Durchdringen dieser Problematik aufzubringen vermag: es ist mir zu verkopft und zu widersprüchlich. Vermutlich geht das 98% der Geschichtstudierenden (und Dozent/innen) auch so.

Kevin Kelly hat da ja seine eigenen Ansichten, und ich habe hier ja auch schon einmal einen ersten Versuch gestartet, diese Problematik anzuschneiden und (sehr verkürzt) darzustellen. Derweil geht die Diskussion um die Neuformulierung des Urheberrechts (in Deutschland beispielweise) munter weiter – und auch die Anstrengungen Googles, immer mehr Inhalte zu erschliessen, schreiten voran, ebenso wie die Bemühungen verschiedener anderer Gruppierungen (etwa Bibliothekskonsortien oder Verlage) oder der OpenAccess-Initiative.

Nun kommen schon die ersten Darstellungen als Kinderbuch und als Comic, um die Position der Copyright-freien Nutzung von Inhalten zu propagieren. Diese wenden sich zunächst einmal gegen die rigorose Haltung der Unterhaltungsindustrie, die Musik und Filme rigoros geschützt haben wollen (neuerdings sollen auch Rundfunkprogramme entsprechend vor digitaler Raubkopie geschützt werden…was jedoch nicht unwidersprochen bleibt). Schön.

Aber um die Problematik wirklich zu verstehen, ist wohl doch eine eingehende Auseinandersetzung mit der Sachlage, den Pros und Contras nötig…

Übersicht: HOK Lesen: Quellen