Claus Schönleber

Über den Sinn von Filtern

Digitale Version eines Artikels für die Junge Presse Schleswig-Holstein, 3/2001

Vielleicht kennen Sie ja sogar die Fundstelle des folgenden Zitates: "Eine Zensur findet nicht statt." Na, erkannt? Artikel 5, Absatz 1, Grundgesetz. Wie kann es dann sein, daß sogar seriöse Menschen sogenannten "Internetfiltern" nicht abgeneigt sind?

Die Autoren des Grundgesetzes wie übrigens auch andere Autoren ähnlicher Werke schrieben solche Grundrechte aus schlimmer Erfahrung aus der Vergangenheit als Verfassung oder Gesetz fest. Wer einmal eine Periode der Zensur1,2 erlebt hat, weiß Meinungs- und Pressefreiheit zu schätzen. Ein Konflikt tritt erst dann auf, wenn es sich nicht mehr um freie Meinungsäußerung im Sinne der rechtlichen Regelung dreht, sondern niedere Motive wie kommerzielle Gewinnabsicht oder Indoktrination ins Spiel kommen. Hier setzt die Fassungslosigkeit eines normalen Menschen ein, wenn er erleben muß, daß kriminelle Machenschaften, Volksverhetzung oder andere abstoßende Veröffentlichungen ebendiese Grundrechte als Schutzmantel zu genießen scheinen, die eigentlich für "vernünftige" Meinungen gedacht waren.

So darf man es wohl als Konsens betrachten, daß es durchaus Texte oder Bilder gibt, die schlimme Ideen oder Ereignisse zumindest verbreiten helfen, ja vielleicht sogar einen schlechten Einfluß nicht nur auf Jugendliche oder Kinder haben können. Wie ist damit umzugehen? Die älteste und schlichteste Idee ist die Zensur. Die Geschichte zeigt, daß es sich um ein langfristig in der Sache ineffektives, aber nur schlecht wirkendes Instrument erweist, kurzfristig manche Machtstrukturen zu stützen. Darüberhinaus verlocken Verbote, sich mit dem Verbotenen zu beschäftigen. Es ist ein verbreitetes Marketinginstrument von Spielesoftwareherstellern, das Spiel auf den "Index" setzen zu lassen, um eine größere Zielgruppe anzusprechen. Und nicht zuletzt funktioniert Zensur schon deswegen nicht, weil es unmöglich ist, die Ehrenhaftigkeit der Kriterien langfristig zu gewährleisten.

Nichtsdestotrotz werden solche Maßnahmen in unterschiedlicher Stärke und Ausprägung inzwischen wieder innerhalb einer erstaunlichen Allianz aus demokratisch-liberalen und totalitären Staaten (natürlich jeder aus anderen Gründen) erwogen, um mehr oder weniger definierte Inhalte aus mehr oder weniger nachvollziehbaren Gründen wenigstens einigermaßen unter Kontrolle zu halten.

Bevor man über Filter spricht, muß man sich allerdings darüber einigen, welches Medium man überhaupt mit einem Filter beschicken will.

Vom "Internetfilter" spricht man schnell, aber gezieltes Nachfragen endet oft in Unkenntnis der technischen Grundlagen und offenbart dadurch schnell mangelnde Kompetenz, überhaupt sinnvolle Entscheidungen zu treffen.

Technisch gesehen ist das Internet3 ein logistischer Transportdienst, mit dessen Hilfe unterschiedlichste Dienste befördert werden. Die gelinde gesagt extrem unscharfe Benutzung des Begriffs "Internet" nicht nur in den Medien, sondern auch in der Fachpresse, erleichtert die Diskussion nicht. Die transportierten Dienste decken das ganze Spektrum der Kommunikation ab. Die gebräuchlisten Dienste sind:

Filterung kann auf unterschiedlichen Ebenen ansetzen. Auf die Transportebene angewandt, erweist sich ein Filter als sehr wirksam (vor allem, wenn die Kommunikationsleitungen zentral kontrolliert werden), gleichzeitig wird darauf aufbauende Kommunikation ganz allgemein extrem behindert, da eine effiziente Selektion praktisch nicht durchführbar ist. Die Filterung bestimmter Dienste kann da schon eher ein wirksames Instrument sein. Letztendlich würde aber auch das die kommunikativen Möglichkeiten sehr stark einschränken. Schließlich bliebe noch die Filterung von Inhalten übrig. Hier taucht, ob automatisch oder manuell durchgeführt, das Problem der Bewertung auf, was sich trotz unterschiedlichster Ansätze eigentlich immer wieder als undurchführbar erweist und manchmal schon absurde Blüten5 trägt.

Die Grundlagen für Filterung sind vielfältig:

Die Bewertung von Inhalten kann durch den Autoren, durch (gerne unabhängigen) Dritten, durch eine allgemeine Bewertung beteiligter Nutzer oder durch den einzelnen Endnutzer vorgenommen werden. Eine Bewertung durch den Autoren fordert höchste Seriosität und Ehrenhaftigkeit, was als generelle Eigenschaft wohl ausfallen mag. Eine Bewertungsstelle kann das schon eher leisten, wenn sie paritätisch besetzt und weitgehend unabhängig organisiert ist. In einem demokratischen Rechtsstaat sollte soviel vernünftige Energie vorhanden sein, um solch einen Mechanismus so er vorhanden sein muß - akzeptabel zu gestalten. Da der Aufwand zur Bewertung mit steigender Anzahl von Angeboten jedoch erheblich ansteigt, werden Bewertungen meistens nur von Gruppen durchgeführt, die eigene Interessen verfolgen. Es ist also eine Bewertung der Bewertungsgruppe notwendig, eine Offenlegung der benutzten Bewertungsprinzipen ist notwendig. Die Bewertung durch alle Anwender dagegen könnte unterschiedliche Bewertungsaspekte ergeben. Eine passive Sammelstelle hält dafür alle eingegangenen Einzelbewertungen mit Begründungen vor und kann so von Interessierten zu einem bestimmten Angebot konsultiert werden. Schließlich kann auch der Endnutzer für sich selbst eine Bewertung einführen, entweder durch Auswahl vorgegebener Kriterien (zum Beispiel sogenannte family filter von Onlinediensten) oder es erfolgt völlig eigenständige Einzelbewertung, die jedoch eine gewisse Medienkompetenz12 und keinen unerheblichen Aufwand erfordert.

Eine der meistgebrauchten Begründungen für die Notwendigkeit, Filter einzusetzen, ist der Jugendschutz. Gleich vorneweg: Jugendschutz kann nicht das eigentliche Problem sein. Verträge mit welchen Providern auch immer, können nur Erwachsene abschließen. Kommen Kinder oder Jugendliche unkontrolliert an einen PC mit Netzanbindung, und damit an jugendgefährdende Inhalte, so hat ein Erwachsener (Elternteil, Lehrer, etc.) in seiner Aufsichtspflicht gegenüber den Minderjährigen versagt. Es ist also notwendig, den aufkeimenden Übereifer in dieser Richtung genauer zu beobachten.

Gesetze sind tatsächlich ein Problem, wenigstens für den Staat. In diesem Falle zunächst ein technisches. Deutlich wurde das am Mediengesetz, das es vor einiger Zeit zu erneuern galt. Kultur ist Ländersache, Telekommunikation ist Bundeshoheit. Also werden Rundfunksender durch die Länder organisiert, Telefondienste durch den Bund. So war das wenigstens bisher. Nun gibt es ein Medium, das die Unterscheidung Telekommunikation/Rundfunk nicht mehr erlaubt. Wer ist also für dieses Medium (das Internet) zuständig? Genauso ist das mit juristisch relevanten Inhalten, also zum Beispiel volksverhetzende Texte. Ein Flugblatt oder eine Zeitung, die im Inland hergestellt wird, macht den Hersteller verantwortlich. Ein Import kann an der Grenze festgestellt und verhindert werden (Beschlagnahme). Mit digitalen Signalen ist das anders. Während des Transports handelt es sich um bedeutungslose Bitketten, die erst beim Empfänger zu lesbaren Inhalten werden. Allerdings kann die gesamte Produktion und Verteilung im oder aus dem Ausland stattfinden, denn im Gegensatz zu materiellen Datenträgern, die einen erheblichen Zeitverlust beim Transport über längere Strecken erleiden, ist in einem globalen Datennetz geographische Entfernung kein nennenswertes Problem mehr. So kann ein im Inland strafrechtlich relevantes Dokument im Ausland vielleicht sogar (dort ) legal angefertigt, passiv zum Versand angeboten werden (World Wide Web) und somit einer Strafverfolgung auf Anbieterseite entgangen werden, wohingegen der abrufende Teilnehmer sich schon während des Anforderns strafbar macht könnte. Damit erwischt man zwar im Zweifelsfalle die Verbraucher, aber nicht die Anbieter. Somit ist der Gesetzgeber irritiert; es gibt keine traditionellen Verfahren, die es erlauben, ihn bei der Erfüllung seiner Pflichten zu unterstützen.

Inhaltsbasierte Filter sollen etwa die verteilenden Stellen (Netzprovider) zwingen, strafrechtlich relevante Inhalte auszufiltern. Eine Erweiterung solcher Filter sind geographische Filter, wie sie auch schon in vielen Staaten der westlichen Welt diskutiert werden.

So merkwürdig moralbasierte Filter klingen mögen, sie gehören zu denen, die am schwierigsten zu bewerten oder juristisch zu bewerten sind. Die Bandbreite der Rechtfertigungen ist groß: von Jugendschutz (child indecency act, USA) bis zum Schutz der Bevölkerung vor unerwünschten Einflüssen aus fremden, westlichen Kulturen (China, Saudi Arabien). Dies ist keinesfalls lächerlich, die Motivationen sind durchaus ernst zu nehmen. Allerdings gibt es naturgemäß außer den durchaus verbreiteten ehrenwerten Gründen auch profane, wie den Erhalt der gegenwärtigen Machtverteilung. Überraschenderweise haben auch Länder solche Regelungen eingeführt, von denen man so etwas auf den ersten Blick nicht erwarten sollte, zum Beispiel Australien13.

Die technische Einrichtung von Filtern kann auf der Leitungsebene erfolgen. Damit ist Kommunikation allgemein eingeschränkt. Ein leistungsfähiger Staat kann so etwas auf Dauer nicht durchhalten. In der Paketebene können komplette Wege gesperrt werden. Zugänge zu ganzen Rechnersystemen werden dadurch unterbunden. Da keine Selektion möglich ist, sind auch "harmlose" Angebote betroffen. In der Praxis hat sich das als ebenso unpraktisch wie leicht abzuwehren herausgestellt. In der darüberliegenden Transportebene14 kann man eher ansetzen. Mit firewalls15 oder proxies16 können einzelne hosts (IP-Adressen), einzelne Dienste (ports), zusammenhängende Angebote (sites) oder einzelne Dokumente (Nachrichten, Seiten) gefiltert werden. Da der direkte Zugang durch Zwischenrechner oder Vermittlungsprozesse nachgebildet wird, muß die verwendete Hard- und Software sehr leistungsfähig sein und erfordert darüber hinaus einen intensiven laufenden Administrationsaufwand.

Die Sperrung ganzer IP-Adressen ist dann zu unterlaufen, wenn der Anbieter dafür sorgt, daß der anbietende server seine Adresse ständig wechselt17 oder der Zugang über einen Relaisrechner erfolgt, der von der Filterung nicht betroffen ist. Solche Rechnerzugänge werden international angeboten. Der Pflegeaufwand in entsprechenden Filtern wird dadurch unzumutbar groß.

Die Sperrung eines Angebots (ports) läßt zumindest eine Selektion auf die Art des Angebots zu. Ein interessierter Anwender kann aber auch solche Sperren leicht unterlaufen, indem die zahlreichen Dienstumsetzer benutzt werden. So gibt es Web-to-mail-Gateways, mit deren Hilfe Webseiten indirekt per e-mail bestellt und empfangen werden können. Zwar ist der Betrieb weitaus langsamer und umständlicher als eine direkte Benutzung des WWW-Dienstes, fragliche Inhalte können aber eben trotzdem empfangen werden. Die Sperrung eines Angebots, beispielsweise eines kompletten Webangebots eines Anbieters kann durch liberale Fremdproxies oder Anonymizer18 umgangen werden. So war etwa bei einer Kieler Bildungsstätte im lokalen proxy die Web-Seite playboy.com versehentlich gesperrt worden, was der Dozent zum Anlaß nahm, den Teilnehmern gleich vorzuführen, wie man trotz der Sperre die Seite durch einen Web-Anonymizer anfordern kann, was auch augenblicklich erfolgreich gelang.

Problematisch sind inhaltliche Sperrungen. Beispielsweise versuchte man im Usenet Diskussionsgruppen kollektiv dann zu sperren, wenn sie in ihrem Namen die Zeichenkette "sex" führten. Das führte zu skurrilen Resultaten. Harmlose Foren wie zum Beispiel rec.arts.startrek.sexy-captain (Fans des Schauspielers Patrick Stewart) wären plötzlich nicht mehr erreichbar, während sich die Diskussiongruppe de.talk.sex an einer deutschen Universität in de.talk.verkehr umbenannte und weiterhin als Forum für Fragen zum Thema Sexualität zur Verfügung stand. Überhaupt sind Namen kein gutes Kriterium, Namen sind bedeutungsleer, nur Konvention, kein Zwang. So können sich unter anstößigen Namen "harmlose" Angebote verstecken19, demgegenüber stehen Dokumente mit volksverhetzenden, anstößigen oder anderen rechtlich relevanten Inhalten, die sich unter "harmlosen" Namen tarnen20.

Inhalte selbst sind nur sehr mühsam kategorisierbar. Die Grenzen zwischen Dokumentation, Kunst und geschmacklicher, ethischer oder gar rechtlicher Entgleisung sind eher fließend und ständig Stoff für Gazetten und Gerichte. Davon abgesehen gibt es überraschenderweise eher simple, syntaktische Verfahren, die eine semantische Zuordnung erlauben21. Solche Verfahren werden bereits in automatischen Abhörsystemen benutzt (siehe Echelon22). Inhaltsfilter können mit Bewertungen kombiniert werden, die mit Auswahl (positive Bewertung, Jugendschutz) oder Ausschluß (negative Bewertung, law enforcement) arbeiten. Inhaltsfilter sind schwerer zu umgehen, da sie im Zweifelsfalle in Vermittlungsknoten (Provider, proxies) installiert werden können. Inhaltliche Filter sind jedoch nur dann effizient, wenn sie an zentraler Stelle implementiert werden. Ist ein Anwender frei in der Wahl seiner Anbindung, so ist ein solcher Filter leicht im Sinne des Wortes - zu umgehen. Ist dagegen die Auswahl der Anbindung stark eingeschränkt, so muß auf andere, eher konspirative Verfahren ausgewichen werden, um an gefilterte Inhalte zu gelangen. Beispielsweise könnte ein internationaler Inhaltsanbieter seine Daten verschlüsselt übertragen23, so daß ein Inhaltsfilter nicht in der Lage wäre, den importierten Inhalt zu kontrollieren. Die Tarnung kann beliebig komplex und phantasievoll sein, so daß die Tatsache der Verschlüsselung selbst getarnt werden könnte (Steganographie). Solche Ansätze sind aber für normale Anwender nicht mehr praktikabel. Nichtsdestotrotz kann sich aber zumindest eine kleine Wissenselite mit entsprechenden "verbotenen" Inhalten weiterhin versorgen.

Nach all diesen Erkenntnissen drängt sich der Gedanke auf, daß Filterung zumindest zum Zwecke der Prohibition nicht funktionieren kann. Jedoch würden sich Verbraucher, wegen der "guten Gründe" und der ständigen Präsenz, schnell an deren Existenz gewöhnen und bald nicht mehr realisieren, daß Filterung nicht nur Verbreitung entsprechender Inhalte verhindert, sondern in der Lage ist, zu verschweigen, welche Angebote den Filter nicht mehr passieren können. So geschehen mit der Aussage Bill Clintons vor dem Kongreßausschuß 199824- angeboten auf der Webseite des Kongresses, die inhaltlich vom Familienfilter des Providers AOL völlig korrekt - als pornographischer Text eingestuft und somit die Existenz der Präsidentenaussage vielen AOL-Kunden gar nicht bewußt wurde. Anwender mit echtem Internetanschluß hatten das Problem nicht.

Die einzige sachliche Rechtfertigung ist der Zwang des Staates, sich an eigene Gesetze halten zu müssen. Die anzuwendenden Methoden müssen dafür aber neu entwickelt werden. Die übrigen Wünsche25, seien sie staatlich oder privat, bestimmte Inhalte sich selbst und den Schutzbefohlenen vorzuenthalten, ehrenhafte Motivation vorausgesetzt, ist langfristig nicht mit Filterung, sondern nur mit (Aus)Bildung zu begegnen. Eine Immunität gegen schlechte Gedanken ist eine kompetente Erziehung, nicht das Vorenthalten. Vielleicht ist es an der Zeit, neue, bessere Methoden26 zu entwickeln. Auf jeder Ebene.
 


Fußnoten

  1. Zensur: per definitionem von Staats wegen verordnet, bei Firmen könnte man diese Maßnahme als AGB, "Allgemeine Geschäftsbedingungen" bezeichnen.
  2. http://www.heise.de/tp/deutsch/inhalt/te/4764/1.html
  3. http://www.schoenleber.org/internet/f-prolog.htm l
  4. World Wide Web ist im Gegensatz zur verbreiteten Auffassung kein öffentlicher Dienst. Die Dokumente liegen passiv auf dem Server des Anbieters und werden stets nur dem abrufenden Benutzer zugesandt. Dabei kann der Inhalt des Dokumentes anhand der vom Anwender automatisch mitgeteilten Daten speziell auf den Anwender zugeschnitten sein. Im Extremfalle erhält jeder Benutzer einen anderen Inhalt.
  5. http://www.heise.de/tp/deutsch/inhalt/te/4814/1.html
  6. http://www.w3.org/PICS/
  7. http://www.heise.de/tp/deutsch/inhalt/te/8787/1.html
  8. M.Köhntopp, D.Neundorf: Inhaltsfilterung und Jugendschutz im Internet; Wiesbaden: Vieweg-Verlag, 1999: Datenschutz und Datensicherheit (DuD), S.113-126
  9. http://www.heise.de/tp/deutsch/inhalt/te/4723/1.html
  10. http://www.cdt.org/ciec/
  11. http://www.heise.de/tp/deutsch/inhalt/te/4349/1.html
  12. http://www.schoenleber.org/f-media.html
  13. http://www.ozemail.com/~mbaker/amended.html
  14. Aus Platzgründen muß auf eine genauere technische Abstufung verzichtet werden.
  15. Vereinfacht: Paketfilter. Anhand von Regeln (policy) werden unscharf formuliert "böse" Pakete am Eindringen in ein lokal begrenztes Netz gehindert.
  16. Proxy: engl., Stellvertreter; Vermittlungsstelle, die im Auftrag eines client ein Angebot bei einem server bestellt und an den bestellenden client abliefert. Einem proxy können Regeln beigefügt werden, welche Dokumente oder gar server nicht weitergeleitet werden dürfen.
  17. 1997, Fall http://www.xs4all.com/: eine kurzfristige Sperrung des servers durch den DFN e.V. veranlaßte den niederländischen Anbieter, die IP-Adresse des servers im zwanzigminütigen Rhythmus zu rotieren. Sperrungen auf der IP-Ebene wurden dadurch unterlaufen.
  18. Zum Beispiel http://www.anonymizer.com/
  19. http://www.sussex.ac.uk/
  20. Ein eher harmloser Vertreter diese Genres ist das Angebot von Gabnet, http://www.gabnet.com/, das sich offensichtlich sehr verwirrt mit verschiedenen Themen aus allen Bereichen beschäftigt. Der Autor ist selbst Opfer dieser Seite geworden (http://www.gabnet.com/lit/demoh11.htm), nimmt es aber eher amüsiert hin.
  21. US Patent 5,418,951, http://164.195.100.11/netacgi/nph-Parser?Sect1=PTO1&Sect2=HITOFF&d=PALL&p=1&u=/netahtml/srchnum.htm&r=1&f=G&l=50&s1='5,418,951'.WKU.&OS=PN/5,418,951&RS=PN/5,418,951
  22. http://www.echelon.wiretapped.net/
  23. secure http, https: Sichere Webseiten; verschlüsselte e-mail, PGP (http://www.openpgp.org/, http://www.pgpi.org/)
  24. http://jurist.law.pitt.edu/transcr.htm
  25. http://www.cnn.com/ALLPOLITICS/stories/1998/12/18/censure.bierbauer/
  26. http://www.peacefire.org/

Copyright, Copyleft

Dieser Artikel unterliegt der GPL.