Von Lars Gräßer und Aycha Riffi.
Haben Sie schon einmal vom YouTuber „Drachenlord“ gehört? Zu seiner Geschichte titelte DIE ZEIT [1]: „Der Drache, den das Internet heimsuchte“ . Nun hat ihn nicht so sehr das Internet heimgesucht als vielmehr sogenannte Hater*innen:
„Der Ausgangspunkt ist nahezu unspektakulär. Rainer W. lebt alleine […]. Er nimmt Videos von sich selbst auf und stellt sie ins Netz, häufig streamt er sogar live. Das macht der 29-Jährige seit vielen Jahren, hauptsächlich auf YouTube und unter dem Namen Drachenlord […]. In vielen Videos erzählt W. aber auch einfach aus seinem Alltag oder antwortet auf Fragen seiner Zuschauer. Er ist oder war außerdem auch auf anderen Kanälen aktiv […]. So ist über die Jahre ein kaum zu überblickendes Sammelsurium an Videos und anderen Inhalten entstanden.“(ebenda) Das mündete zunächst in Hohn und Spott aus der Netzcommunity. Seine Reaktionen darauf waren nicht humorvoll, sondern zunehmend aggressiv. Die Kommunikation entwickelte eine Eigendynamik und die Kommentare schlugen bald in blanken Hass um. Es kam zu konzertierten Aktionen rund um sein Haus und irgendwann wurden der Drachenlord und seine Hater*innen sogar zu einem Problem für das gesamte Dorf. Das ganze Ausmaß lässt sich in der ZEIT (ebenda) oder in anderen Medien nachlesen (z. B. Felix Keßler: Alle gegen den Drachenlord“ auf spiegel.de (kostenpflichtig)) [2] und nachschauen (z. B. Y-Kollektiv: „RABIAT! Drachenlord & seine Hater – Hass ist ihr Hobby“ auf YouTube) [3]
Studien zu online hate speech
Die Drachenlord-Geschichte mag ein spezieller Einzelfall sein, der Hass im Netz ist es nicht, wie Umfragen der Landesanstalt für Medien NRW Jahr für Jahr belegen. Die aktuellen Ergebnisse einer forsa-Umfrage (PDF online bei der Landesanstalt für Medien NRW, Erhebungszeitraum: Juni 2018) verdeutlichen, dass die Wahrnehmung von Hassrede bzw. Hasskommentaren im Internet im Vergleich zu den Vorjahren zugenommen hat (+ 11 %) und vor allem Jüngere (im Alter zwischen 14 und 24 Jahren) davon betroffen sind. [4]
Zu ähnlichen Ergebnissen kommt im November 2018 auch die U25-Studie des Deutschen Instituts für Vertrauen und Sicherheit im Internet (DIVSI) in der gleichen Zielgruppe. Ergebnis: „Viele junge Menschen stellen […] eine starke ‚Verrohung‘ der Umgangsweisen im Netz fest und verhalten sich entsprechend vorsichtig und zurückhaltend. Zwei Drittel der 14- bis 24-Jährigen nehmen das Internet als Raum wahr, in dem diejenigen, die sich äußern, damit rechnen müssen, beleidigt oder beschimpft zu werden. Für 38 Prozent ist diese wahrgenommene ‚Beleidigungskultur‘ ein Grund, auf die Äußerung der eigenen Meinung im Internet zu verzichten.“ (Pressemitteilung des DIVSI zur Studie ) [5]
Eine ebenfalls repräsentative Untersuchung [6] im Auftrag von Campact e. V. in Hessen (Zusammenfassung als PDF online bei campact.de) kommt zu ähnlichen Ergebnissen und fächert auf, wen der Hass im Netz – der Wahrnehmung nach – adressiert.
Fast immer sind es Minderheiten, gegen die sich der Hass richtet, und besonders häufig wahrgenommen wird der Hass im Netz gegenüber Menschen mit Migrationshintergrund und Geflüchteten (mit jeweils 75 %).
Kampagnen, Aktivitäten und Projektarbeit gegen online hate speech
Wie umgehen also mit der zunehmenden Hassrede im Netz? Dieser Frage widmen sich mittlerweile zahlreiche Kampagnen, Aktivitäten und Projektarbeiten auf ganz unterschiedlichen Ebenen und mit sehr unterschiedlichen Ansätzen. [8] Zu den Bürgerrechtsbewegungen im Netz zählen das 2017 mit einem Grimme Online Award ausgezeichnete Projekt #ichbinhier [9] oder auch „Reconquista Internet“. Es finden sich nationale Kampagnen, wie etwa #NichtEgal/@NichtEgal_yt oder auch @nohate_speech, daneben Bildungsprojekte auf EU-Ebene, die sich in erster Linie an jüngere Zielgruppen wenden, wie das „No Hate Speech Movement“, aber natürlich auch auf nationaler Ebene bzw. Länderebene wie z. B. #denk_net. [10]
Zu den Bildungsprojekte auf EU-Ebene, die sich in erster Linie an jüngere Zielgruppen wenden, zählt auch „BRICkS – Building Respect on the Internet by Combating Hate Speech“, an dem sich das Grimme-Institut beteiligte, neben fünf weiteren europäischen Institutionen aus Italien, Spanien, Belgien und Tschechien. Das Projekt lief von November 2014 bis Dezember 2016.
Online hate speech präsentierte sich hier nicht als nationales, sondern als europäisches (und im Prinzip weltweites) Phänomen, was eine internationale Vernetzung interessant machte. Zwar hatte jedes Land seine eigenen Schwerpunkte und spezifischen Formen, virulent erschien es aber in allen. Deutlich wurde dies in überblickhaften Reports, sogenannten „Nationalen Studien“, welche die beteiligten Projektpartner*innen in einem ersten Schritt für ihre Länder und die jeweilige Situation vor Ort erstellten (Hofer von Lobenstein, Schneider 2017).
In einem zweiten Schritt wurden – gemeinsam mit Social-Media-Expertinnen und Medienpädagoginnen – Trainingsmodule und Hilfsmittel entwickelt, die als praktische Materialien in Form einer Modulbox in der schulischen und außerschulischen Jugendarbeit genutzt werden können. Schwerpunkt war hierbei die kreative, mediale Auseinandersetzung: Audio- und Videospots, Musikclips, Interviews und Onlinepräsentationen (vgl. Wenzel 2017). Sowohl die „Nationalen Studien“ als auch die Modulbox sind online kostenfrei abrufbar unter bricks-project.eu [11]. Letztere wurden für die Abteilung „Politische Jugendbildung“ des Deutschen Volkshochschulverbands im Bereich hate speech aktualisiert und weiterentwickelt sowie um den eng verwandten Begriff „Fake News“ ergänzt. Die aktualisierte Fassung steht seit Anfang 2019 allen deutschen Volkshochschulen zur Verfügung.
Learnings
Ein Learning aus den eigenen Erfahrungen im Projekt BRICkS war: Die Auseinandersetzung mit den unangenehmen Seiten des Internets erachteten vor allem junge Teilnehmende als relevant, spannend und auch hilfreich. Eine Herausforderung ist aber sicher, und das gilt altersunabhängig für alle Zielgruppen: In der Auseinandersetzung mit den Themen sind ganz unterschiedliche moralische, ethische, soziale, politische und auch juristische Kompetenzen gefragt. Denn was definieren wir überhaupt als Hass bzw. als einen Hasskommentar? Bevor über Maßnahmen gesprochen werden kann, muss eine Auseinandersetzung geführt werden, wann Onlinekommentare vielleicht nur vereinzelte Grenzüberschreitungen sind, mit denen eine demokratische Gesellschaft umzugehen lernen muss, und wann Hasskommentare durchaus Gefahren bergen. Gefahren für unsere Gesellschaft entstehen etwa dann, wenn öffentliche Debatten plötzlich durch Hassreden geprägt werden und moderate Stimmen zum Schweigen gebracht werden oder bestimmten Minderheiten die Stimme genommen wird. Gefährlich wird es für Einzelne, wenn aus Sprache Taten werden – siehe das Beispiel um YouTuber Drachenlord.
Strategien und Regeln – und das ist eine weitere Herausforderung – können nur dann entwickelt werden, wenn die Bedingungen und Möglichkeiten des Mediums verstanden werden. Sich mit online hate speech zu befassen heißt, die Funktionsweisen von Social-Media-Angeboten zu kennen und mit ihrer scheinbar permanenten Weiterentwicklung Schritt zu halten. Oder mal ganz praktisch: Wer eine Kommentarfunktion anbietet, muss sich vorher die Frage stellen, welche Kanäle er oder sie anbieten will, ob und wie eine Betreuung der Kanäle zu leisten ist. Denn einfach so nebenbei einen YouTube-Account oder eine Facebook-Seite anzulegen kann bedeuten, „die eigene Haustür“ auch potenziell unliebsamen Gästen zu öffnen.
Eine Frage der Kommunikationskultur
Welche Kommunikationskultur möchte ich auf meiner eigenen Seite fördern und schützen? Diese Frage muss von Konzernen, Firmen, Institutionen, Einzelpersonen (beruflich wie privat) beantwortet werden, um entsprechende Regeln dann zu kommunizieren. Wer auf seiner eigenen Seite moderierend tätig ist und darauf hinweist, dass diskriminierende und beleidigende Kommentare umgehend gelöscht werden, schränkt damit weder die Meinungsfreiheit ein noch zensiert er oder sie das Netz. Eine konsequent und transparent geführte Moderation zeigt die „Hausregeln“ des eigenen Angebotes auf und wendet diese an – nicht mehr und nicht weniger. Dadurch verlagert sich zuweilen der Hass eventuell nur auf andere Seiten. Allerdings ist es wichtig, selbst keinen Raum für Hasskommentare zu bieten, weil dieser wie ein Inkubator wirkt.
Am Ende muss klar sein, dass es für uns alle, also für jede und jeden – online wie offline – eine ganze Reihe von Aufgaben gibt: Justiziables über entsprechende Meldemöglichkeiten anzeigen, sich die Gegenrede zutrauen (am besten mit anderen gemeinsam), wenigstens die (geringe) Macht als Verbraucherinnen nutzen und kontrollieren, ob die professionellen Akteurinnen ihre Aufgaben erfüllen.
Und natürlich: Zivilcourage zeigen. Daran kommen wir nicht vorbei.
Autor und Autorin
Lars Gräßer ist wissenschaftlicher Mitarbeiter und Pressesprecher des Grimme-Instituts, erst als Community-Manager eines Netzwerks für Medienkompetenzförderung tätig, später Projektmitarbeiter beim Grimme Online Award und der Grimme-Akademie sowie im Bereich der Medienbildung. Er forscht am Grimme-Forschungskolleg an der Universität zu Köln zur politischen Meinungsbeeinflussung durch YouTuber, ist Autor zahlreicher Fachartikel und Herausgeber von Sammelbänden zu aktuellen Fragen der Digitalisierung, vielfach mit Blick auf politische Bildung.
Aycha Riffi ist Leiterin der Grimme-Akademie im Grimme-Institut. Nach dem Studium der Theater-, Film- und Fernsehwissenschaften, Germanistik und Pädagogik an der Ruhr-Uni Bochum folgten berufliche Stationen beim ZDF, WDR, SDR und DSF. Ab 2002 beim Grimme Online Award und 2005 Wechsel zur Grimme-Akademie. Hier war sie u. a. für die europäischen Projekte Media4us und BRICkS („Building Respect on the Internet by Combating Hate Speech“) in der Projektleitung. Mit Kai Kasper und Lars Gräßer ist sie Herausgeberin der Publikation „Online Hate Speech. Perspektiven auf eine neue Form des Hasses“.
Quellen
- Gerstmann, Markus, Lea Güse und Lisa Hempel: Wir müssen die rechte Gehirnhälfte erreichen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 141–148.
- Kaspar, Kai: Hassreden im Internet – ein besonderes Phänomen computervermittelter Kommunikation. In: ders., Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 63–70.
- Lobenstein, Marie-Joelle Hofer von, Annette Schneider: Das Projekt BRICkS: Auswertung von Hate Speech-Fallbeispielen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 127–133.
- Schmitt, Josephine: Online Hate Speech: Definition und Verbreitungsmotivationen aus psychologischer Sicht. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 135–140.
- Wentzel, Johannes: Gemeinsam gegen Hate Speech – Workshops mit Jugendlichen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 135–140.
- Die mehrfach hier aufgeführte Publikation Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, ist in voller Länge und kostenlos online verfügbar unter: https://www.grimme-institut.de/fileadmin/Grimme_Nutzer_Dateien/Akademie/Dokumente/SR-DG-NRW_04-Online-Hate-Speech.pdf [zuletzt 22.11.2018]
[1] Siehe online: https://www.zeit.de/digital/internet/2018-08/youtuber-drachenlord-altschauenberg-cybermobbing-drachengame?page=44#comments [zuletzt 22.11.2018]
[2] Siehe online: http://www.spiegel.de/plus/altschauerberg-cyber-mobbing-drachenlord-im-dauerfeuer-a-0db1cd5b-6a95-461b-b8ad-07d3f4eb7703 [zuletzt 22.11.2018]
[3] Siehe online: https://www.youtube.com/watch?v=zu9KtSvFGMI [zuletzt 22.11.2018]
[4] Ergebnisbericht einer forsa-Umfrage (2018) im Auftrag der Landesanstalt für Medien NRW, siehe online: https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien_Forschung/forsaHate_Speech_2018_Ergebnisbericht_LFM_NRW.PDF [zuletzt 22.11.2018]
[5] Pressemitteilung zur DIVSI-U25-Studie, siehe online: https://www.divsi.de/presse/pressemitteilungen/19313/
[6] Zusammenfassung einer repräsentativen Untersuchung (2018) „#Hass im Netz: Der schleichende Angriff auf unsere Demokratie“ des Instituts für Demokratie und Zivilgesellschaft im Auftrag von Campact e. V., siehe online: https://blog.campact.de/wp-content/uploads/2018/10/executive_summary.pdf [zuletzt 22.11.2018]
[7] ebenda, Grafik 1. Wahrnehmung von Hassrede (2018), S. 1
[8] Siehe hierzu die exemplarische Auflistung in: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 171–180.
[9] Siehe online: https://www.grimme-online-award.de/archiv/2017/preistraeger/p/d/ichbinhier-1/ [zuletzt 22.11.2018]
[10] Markus Gerstmann, Lea Güse und Lisa Hempel: Wir müssen die rechte Gehirnhälfte erreichen, S. 144. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 141–148.
[11] Online unter: https://www.bricks-project.eu/ [zuletzt 22.11.2018].