Filtersysteme sind grundsätzlich abzulehnen Von Dragan Espenschied und Alvar C.H. Freude, 27.01. 2001, 04:53:37 |
|||||||||||||||||||||||
|
|||||||||||||||||||||||
Filter lösen keine Probleme |
|||||||||||||||||||||||
[1] Siehe Pressemitteilung des BGH sowie Urteil im Volltext bei Juramail |
Wie ist mit »unerwünschten Inhalten« umzugehen? Die Leugnung der Massenvernichtung der Juden während der NS-Herrschaft ist in Deutschland verboten. Fredrick Töben, Australier deutscher Abstammung, ist Leiter des »Adelaide Institute« und bezeichnet dort immer wieder die Ermordung der Juden während des zweiten Weltkrieges als Erfindung und Verschwörung. Diese in Australien nicht strafbaren Behauptungen sind übers Internet auch in Deutschland abrufbar.
Der Bundesgerichtshof hatte nun zu urteilen, ob Töben dafür in Deutschland bestraft werden darf und stellte in einem Grundsatzurteil[1] fest: ja, er kann dafür haftbar gemacht werden. |
||||||||||||||||||||||
[2] Die Entscheidung des BGH hat international für viel Unverständnis gesort, siehe Stefan Krempel in Telepolis: Besorgnis über BGH-Urteil gegen Holocaust-Leugner« (Dezember 2000); Steve Kettmann in Hotwired: »German Hate Law: No Denying It« |
Aus der Pressemitteilung des BGH[2] |
||||||||||||||||||||||
Der BGH spricht von Äußerungen, die den Frieden im Inland stören würden. Solche Argumente ist man ansonsten nur von autoritären Regimen gewöhnt, und welche Folgen dies haben kann, läßt sich einfach ausmalen: In Ländern wie dem Iran wird »der innere Frieden« massiv gestört, wenn Frauen unverhüllt abgebildet werden. Wie groß wäre der Aufstand, wenn ein Deutscher Werber im Iran zum Tode verurteilt werden würde, weil er die auch im Iran abrufbare Internetseite eines Dessous-Herstellers gestaltete? Es wirft sich unweigerlich die Frage auf: Kann es sich ein Staat wirklich erlauben, seine Gesetzgebung auf ein globales Medium auszudehnen? Wäre Töben auch verurteilt worden, wenn er den Holocaust auf seinem auch von Deutschland aus abrufbaren Anrufbeantworter leugnen würde?
Anstatt nationale Gesetze auszudehnen, sollte lieber überlegt werden wie man sinnvoll mit Holocaust-Leugnern umgehen kann. Der einzige sinnvolle Weg kann nur durch Aufklärung zum Erfolg führen. Die Behauptungen der Holocaust-Leugner zu widerlegen ist nicht schwer. Die Aufklärungs-Site Nizkor beschreitet diesen Weg erfolgreich und veröffentlicht z.B. Dokumente, die die Argumente der Revisionisten widerlegen. Eine deutsche Übersetzung ist auf Burkhard Schröders Homepage zu finden. |
|||||||||||||||||||||||
Internet ist Narrowcast |
|||||||||||||||||||||||
[3] Michael Horak auf Freedom For Links: »Gibt es noch die private Homepage?« (September 2000) [4] Siehe auch das journalistische Juwel »Kinderpornos bei Napster« im Spiegel Online (Januar 2001) |
Um die Kritik an besteheden oder geplanten Filter-Systemen für das Internet zu verstehen, ist es wichtig, die wesentlichen Unterschiede des Netzes zu anderen Medien zu kennen. Aktuelle Konzepte für Internet-Filter sind vom Aufbau an klassischen Broadcast-Medien orientiert. Das Netz ist jedoch eine globale Kommunikations-Plattform, in der sich privater und öffentlicher Raum vermischen.[3]
Da sich das Internet über nationale Grenzen hinweg erstreckt, kann für Inhalte im Netz kein nationales Recht gelten. Nachdem Bertelsmann in die Musiktauschbörse Napster investiert hatte, bat der niedersächsische Verfassungsschutz den Medienkonzern, die Verbreitung von rechtsradikalen Musikstücken in Napster zu verhindern.[4] Was sich aus deutscher Sicht wie eine gute Tat anhört, beeinträchtigt aus US-amerikanischer Sicht die Redefreiheit. Aus deren Sicht stört man sich eher an nackten Brüsten und sexuellen Anspielungen. Also sollten derlei Musikstücke am besten auch aus Napster entfernt werden. Je mehr Forderungen gestellt werden, desto weniger bleibt übrig:
Erik Möller: »Die Herrschaft der Server geht zu Ende«, taz, 4. Januar 2001, Seite 17 |
||||||||||||||||||||||
Keine zentrale Stelle kann es sich somit erlauben, für den Rest der Welt zu bestimmen, was im Netz an Inhalten vertretbar ist und was nicht. Selbst in möglichst objektiv gestalteten Kriterien zur Bewertung von Inhalten werden Wertvorstellungen transportiert. Soll es der Zweck von Filter-Systemen sein, die Auseinandersetzung mit unangenehmen Dingen oder fremden Wertvorstellungen überflüssig zu machen? Dazu braucht man aber kein Internet. Das Internet steht für Diversität.
Der Preis für globale Kommunikation und Redefreiheit ist, dass sich wirklich jeder dieser Mittel bedienen kann. Zur Untermauerung der Forderungen nach inhaltlicher Regulierung des Netzes werden besonders gerne Kinderpornografie und Neonazis herangezogen. (Siehe dazu das Kapitel » in den Medien«) Das Cybercrime-Abkommen des Europarates enthält sogar einen eigenen Paragraphen, der Kinderpornografie nochmals kriminalisiert. Man mag es kaum für möglich halten, aber schon vor dem Internet gab es Kinderpornografie und Besitz und Herstellung entsprechenden Materials sind auch ohne Cybercrime-Abkommen europaweit und nahezu weltweit illegal. Zudem ist es ein Mythos, dass man als unbedarfter Web-Surfer auf solche Angebote stoßen könnte. Das Web ist schon von daher kein anonymes Medium, da jeder Server im Netz eindeutig indentifiziert werden kann. Das Thema Neonazis wird ebenfalls hochgespielt. Selbst die äußerst kritische Simon-Wiesenthal-Stiftung kommt im April 1999 auf gerade mal 1.400 Hass-Seiten:
Zitiert nach »Simon-Wiesenthal-Center USA: Zahl rassistischer Internetseiten wächst« auf der Site Judentum in Europa |
|||||||||||||||||||||||
[5] Quelle: Stefan Krempl in Telepolis: »Berliner Erklärung gegen den Hass im Netz« (Juni 2000) |
Etwas mehr als ein Jahr später sind es gerade mal 2000 »problematische« Webseiten, die das Wiesenthal-Zentrum zählt.[5]
Filter, die den Zugriff auf solche Webseiten unterbinden, helfen jedoch nicht gegen rechtsradikale Gesinnung. Stattdessen werden Probleme einfach ausgeblendet:
Andy Müller-Maguhn im Interview mit Stefan Krempel: »Harter Diskurs und freier Meinungsaustausch statt Filter« in Telepolis (August 2000) |
||||||||||||||||||||||
Freiwillige Selbstkontrolle |
|||||||||||||||||||||||
[6] RealVideo-Aufzeichnung der Sendung bei CNN; höchst sehenswert |
Wo es noch relativ leicht fällt, sich gegen staatliche Kontrolle zu wenden, macht das System der freiwilligen Selbstkontrolle auf den ersten Blick einen vernüftigeren Eindruck. Dennoch geht auch von diesen Bemühungen eine große Gefahr für die freie Meinungsäußerung im Netz aus.
Das vom W3C vorgeschlagene PICS-System (Details im Artikel »Die Standardisierung der Zensur«) vermittelt auf technischer Ebene den Eindruck, ein flexibles und mit Bedacht konstruiertes System sein. Jeder kann die eigenen Inhalte nach beliebigen Schemata selbst bewerten, zudem können sich Rating-Services bilden, die auch fremde Inhalte einteilen. Somit kann jede Information aus jedem nur erdenklichen Blickfeld bewertet werden theoretisch. Das Problem einer Kategoriesierung besteht im Internet noch viel mehr als bei klassischen Medien. Ist Kriegsberichterstattung nun gewaltverherrlichend und muss daher von Minderjährigen ferngehalten werden? Oder dürfen Nachrichten nicht gefiltert werden? Wenn ja, was sind dann Nachrichten und was ist beispielsweise Sensations-Journalismus? Was ist Ironie, was ernstgemeint? So einfach lässt sich das glücklicherweise nicht sagen, amerikanische Juristen sahen das im Fall von vote-auction jedoch anders. Ein Jurist forderte während einer Gesprächsrunde am 24. Oktober 2000 auf CNN tatsächlich, Satire müssen man kenntlich machen, so wie die Comics auf der letzten Seite einer Zeitung.[6] Wie soll eine Filterung dieser Vorstellung nach ablaufen? Mit ein paar binären Kategorien lässt sich menschliche Kommunikation nicht einteilen. |
||||||||||||||||||||||
[7] Siehe »Standardisierung der Zensur« |
Anders als bei einem Broadcast-Medium wie beispielsweise dem Kinofilm, das innerhalb eines Jahres eine endliche Anzahl Produkte erzeugt, entsteht im Netz täglich eine schlicht unüberschaubare Menge an Daten, die niemals vollständig nach auch nur irgendeinem Bewertungs-System eingeteilt werden könnte. Konversationen im Usenet, Einträge in Foren, Nachrichten, all das kann unmöglich bewertet werden.
Ein Filter-System, das nicht kategorisierte Inhalte durchlässt, ist sinnlos, weil dadurch eine Menge unerwünschte Inhalte unbehelligt blieben. Daher ist es aus Sicht der Filter-Software logisch, unbewertete Inhalte zu sperren. Die einzigen Sites, die sich in allen populären Bewertungs-Schemen eintragen werden können, sind große kommerzielle Angebote. Alle anderen haben nicht die finanziellen Mittel, eine detaillierte Selbstbewertung vorzunehmen. Das Netz wird so zu einem homogenisierten, sauberen Distributionskanal für Mainstream-Ware. Zudem verhindert eine freiwillige Selbstkontrolle keinesfalls staatliches Eingreifen. Ähnlich wie bei unbewertenen Inhalten können von einem Filter auch keine falsch bewerteten Inhalte akzeptiert werden. Stuft sich beispielsweise ein Porno-Anbieter zur Ankurbelung des Geschäfts als »tauglich ab 16 Jahren« ein, funktioniert der Filter nicht mehr wie gewünscht. Daher sind früher oder später Maßnahmen gegen falsche Bewertungen erforderlich. Eine andere Institution als der Staat könnte diese Kontrollfunktion kaum übernehmen.[7] |
||||||||||||||||||||||
Freiwillige Selbstzensur |
|||||||||||||||||||||||
[8] Heise Newsticker: »Bertelsmann empfiehlt Filter für behütetes Surfen an Schulen« (Oktober 2000) |
Andere Filter setzen nicht bei den Erstellern von Inhalten an, sondern bei den Konsumenten. Filter-Produkte wie NetNanny oder CyberPatrol filtern auf dem lokalen Computer nach Schwarzen Listen oder Schlüsselwörtern.
Diese Schwarze Listen und Schlüsselwörter sind jedoch das Geschäftsgeheimnis der jeweiligen Herstellerfirmen; ein lokales Filterprogramm ist recht schnell geschrieben, weit mehr Arbeit macht die Unterteilung in korrekte und nicht korrekte Inhalte. Dass die Listen sehr häufig Unsinn enthalten beweist immer wieder die Jugendrechtsorganisation Peacefire durch Analysen der Filter-Programme. Informationen über Brustkrebs oder die Website des Vatikan wurden blockiert, angesehene konservative Vereinigungen wie beispielsweise Focus on Family, die sich haarsträubender Weise zum Thema Homosexualität äußern, wurden jedoch nicht als diskriminierend eingestuft. Deutlich zeigt sich, dass auch kommerzielle Filter-Software niemals neutral sein kann. Besonders kritisch wird es, sollten diese Systeme Dank ihrer einfachen Handhabung an Schulen oder in öffentlichen Bibliotheken eingesetzt werden:[8] Gefiltert wird dann zwar schon, aber was genau, fällt unter das Betriebsgeheimnis der Filterhersteller. |
||||||||||||||||||||||
Systemfeinde lauern überall |
|||||||||||||||||||||||
[9] Informationen über Carnovore: Die offiziellen FBI-Informationen, Carnivore-Informationen beim »Electronic Privacy Information Center« sowie Bericht bei Telepolis [10] siehe »Internet Verantwortung an Schulen: Ein Leitfaden«, Bertelsmann Stiftung, Oktober 2000 (PDF) [11] vgl. Carna Zacharias: Bayern zensiert Lesebücher; in: Mut zur Meinung, a.a.O. Seite 87ff [12] Zitiert nach Stefan Krempel in Telepolis: »Neue Großoffensive gegen den Hass im Netz« |
Anton-Andreas Guha: Verfassungsschutz in Bibliotheken: Spitze eines Eisbergs; in: Ingeborg Drewitz, Wolfgang Eilers (Hrsg.): Mut zur Meinung, Gegen die zensierte Freiheit, Fischer Taschenbuch Verlag GmbH, Frankfurt am Main 1980, Seite 80f In den 70ern sollten die Bibliotheken überwacht werden, heute das Internet. Staatsschützer und Kriminalitätsbekämpfer jeglicher Art wollen möglichst alle Schritte der Bürger nachvollziehen können. So entwickelte das FBI mit Carnivore[9] ein Überwachungssystem, dass einmal zwangsweise beim Provider installiert die komplette Kommunikation der Internet-Nutzer überwachen, aufzeichnen und anlysieren soll. Natürlich zum Schutz der Bürger vor Kriminalität. Heute wünscht Bertelsmann, dass in Schulen MP3s verboten werden und das Internet gefiltert wird[10] in den 70ern wurden in Bayern Schulbücher zensiert, Autoren wie Wolf Biermann und Günter Wallraff waren in Bayerischen Schulbüchern nicht erlaubt.[11]
Paul Levinson, New Yorker Schriftsteller und Publizist[12] |
||||||||||||||||||||||
|