Autorius: RT deutsch Šaltinis: https://deutsch.rt.com/meinung... 2020-02-11 19:08:31, skaitė 750, komentavo 0
von Helen Buyniski
In der vergangenen Woche hat der Kurznachrichtendienst Twitter sein neues Regelwerk bekannt gegeben. Darin heißt es unter anderem, dass "synthetische oder manipulierte Medien, die wahrscheinlich Schaden anrichten" entfernt oder zumindest mit Warnhinweisen versehen werden.
Unter Berufung auf die überwältigende Nachfrage nach strengeren inhaltlichen Vorschriften – vielleicht in einem vorbeugenden Versuch, das zu entschuldigen, was einige bereits als Überreaktion interpretiert haben – legte die Microblogging-Plattform eine lange Liste von Kriterien vor, die angeblich vor dem Entfernen oder Kennzeichnen eines Tweets berücksichtigt werden sollen.
Medien gelten als "synthetisch oder manipuliert", wenn sie so bearbeitet werden, dass sie ihre Bedeutung, Reihenfolge oder andere Attribute signifikant verändern – "Deepfakes" wären hier natürlich das erste Ziel. Aber "jede visuelle oder auditive Information (...), die hinzugefügt oder entfernt wurde", einschließlich Untertitel oder Audio-Overdubbing, kann auch als solch ein Inhalt markiert werden. Technisch gesehen entsteht dadurch ein Schlupfloch bzw. Einfallstor, worüber selbst Inhalte, die einfach nur aus einer anderen Sprache übersetzt wurden, zu einem potenziellen Ziel werden.
Ein Tweet kann als "trügerisch" bezeichnet werden, wenn der Kontext, in dem er geteilt wird, "zu Verwirrung oder Missverständnissen führen könnte" oder "eine bewusste Absicht zur Täuschung von Menschen nahelegt". Niemand kann die (Fehl-)Interpretation des Tweets eines anderen Benutzers kontrollieren – manche Leute sind einfach leicht zu verwirren –, und ähnliche Regeln wurden bereits verwendet, um politisch aufgeladene Satire und Memes ins Visier zu nehmen. Egal, wie klar gekennzeichnet, was für den einen ein Witz ist, wird unweigerlich für andere von Twitter als Fake News deklariert. Aber eine Absicht, die Menschen zu täuschen? Wie will Twitter feststellen, wer einen unschuldigen Witz erzählt und wer als böswilliger Troll unterwegs ist?
Wenn man für den Humor des Betrachters eines Inhalts dessen Absender verantwortlich macht, hat das wahrscheinlich einen zutiefst abschreckenden Effekt auf Memes und anderen politischen Humor, der bereits von "Faktenprüfern" belagert wird, die ihre Reißzähne in alles Mögliche versenken – von der Parodie-Webseite Babylon Bee bis zum offensichtlich manipulierten Bild des US-Präsidenten Donald Trump, der einem terroristenmordenden Militärhund eine Ehrenmedaille verleiht. Da das Pentagon selbst auf "polarisierende virale Inhalte" – d.h. politische Memes – und die sogenannte "böswillige Absicht" in einem finsteren Projekt abzielt, das im September angekündigt wurde, hat sich Twitter möglicherweise unwissentlich freiwillig als erstes Schlachtfeld im "War on Memes" präsentiert.
Während Tweets mit synthetischen oder betrügerischen Inhalten bei Inkrafttreten der neuen Vorschriften am 5. März lediglich mit einem Warnhinweis versehen werden, sollen Inhalte, die "wahrscheinlich die öffentliche Sicherheit beeinträchtigen oder ernsthafte Schäden verursachen", entfernt werden. Diese scheinbar unumstrittene Regel ist bei näherer Betrachtung bedrohlich vage, da sie "Inhalte, die sprachliche Stilmittel wie Tropen und Epitheta oder Material enthalten, das darauf abzielt, jemanden zum Schweigen zu bringen" und "Bedrohungen der Privatsphäre oder der Fähigkeit einer Person oder Gruppe, sich frei auszudrücken" unter den Kategorien verbotener Sprache aufführt.
Dies scheint die Taktik von spezifischen Gruppen zu ächten, deren buchstäbliches Ziel es ist, diejenigen, die in ihren Augen "Faschisten" sind, durch das Aufwiegeln empörter Massen gegen sie auf der Plattform mundtot zu machen. Allerdings ist es angesichts des bisherigen Verhaltens von Twitter unwahrscheinlich, dass die Plattform die Opfer solcher Gruppen verteidigt.
Was die Frage aufwirft: Was ist ein "ernsthafter Schaden" bzw. die "öffentliche Sicherheit", und wer bestimmt, was zu diesem Schaden führen kann? Twitter hatte es zugelassen, dass auf seiner Plattform falsche iranische Bots der antiiranischen Sekte Modschahedin-e Chalgh-e Iran (MEK) wuchern konnten, die eine US-amerikanische Invasion "ihres" Landes forderten – einige von ihnen wurden von Trump selbst als "Beweis" dafür retweetet, dass das iranische Volk einen Regimewechsel wolle.
Die neuen Regeln lassen eine breite Palette von Inhalten offen, sodass Twitter einen Freibrief hat, die Absicht und die wahrscheinlichen Auswirkungen eines bestimmten Tweets zu bestimmen. Gewiss will niemand mit Deepfakes oder anderen wirklich trügerischen Inhalten überflutet werden, insbesondere während einer Wahlkampagne. Nur wurden diese Regeln in der Praxis ungleichmäßig angewandt, um politische und soziale Standpunkte zum Schweigen zu bringen, die von der "erweckten" Orthodoxie der Mitte abweichen. Wenn man Twitter die Macht gibt, sowohl die Wahrheit als auch die Absichten der Inhalte zu bestimmen, verleiht man diesem Medium eine Autorität, von der es gezeigt hat, dass es nicht verantwortungsvoll mit ihr umgehen kann.
Helen Buyniski ist eine US-amerikanische Journalistin und politische Kommentatorin bei RT.
RT Deutsch bemüht sich um ein breites Meinungsspektrum. Gastbeiträge und Meinungsartikel müssen nicht die Sichtweise der Redaktion widerspiegeln.