wir alle Es besteht die Gefahr, gelegentlich belästigt zu werden – aber für einige ist Belästigung ein täglicher Bestandteil des Online-Lebens. Insbesondere viele Frauen im öffentlichen Leben erleben chronischen Missbrauch: ständige, unerbittliche und oft koordinierte Angriffe, die bedrohlich und oft sexuell und explizit sind. So haben beispielsweise sowohl die schottische Premierministerin Nicola Sturgeon als auch die ehemalige neuseeländische Premierministerin Jacinda Ardern Misshandlungen erlitten, über die im Internet vielfach berichtet wurde. In ähnlicher Weise stellte ein kürzlich erschienener UNESCO-Bericht über Online-Gewalt gegen Journalistinnen fest, dass die mit dem Nobelpreis ausgezeichnete Journalistin Maria Ressa und die britische Journalistin Carol Cadwallader „ständigen und unaufhörlichen“ Angriffen ausgesetzt waren, wobei jeden Monat schwere Misshandlungen stattfanden.
Wir, zwei Forscher und Praktiker, die sich mit dem verantwortungsvollen Umgang mit Technologie beschäftigen und mit Social-Media-Unternehmen zusammenarbeiten, nennen das Chronischer Missbrauch, weil es keinen einzigen auslösenden Moment, keine Diskussion oder Situation gibt, die die ständigen Angriffe entzündet. Aber ein Großteil des Geredes über Online-Missbrauch – und noch wichtiger, die Werkzeuge, die wir haben, um ihm zu begegnen – konzentriert sich auf das, was wir nennen Sehen Fälle. Scharfe Beleidigungen sind oft die Reaktion auf eine Diskussion, Situation oder Idee: ein polarisierender Tweet, ein neues Buch, ein Artikel oder eine öffentliche Erklärung. Akuter Missbrauch stirbt schließlich.
Die Plattformen verfügen über Ressourcen, die dazu dienen, akuten Missbrauch zu bekämpfen. Gefährdete Benutzer können Einzelpersonen explizit blockieren und andere Inhalte oder Konten stumm schalten, was sicherstellt, dass sie auf der Plattform bleiben können, sie aber vor Inhalten schützen, die sie nicht sehen möchten. Sie können Interaktionen mit Personen außerhalb ihrer Netzwerke mithilfe von Tools wie geschlossenen Nachrichten und privaten Konten einschränken. Es gibt auch Apps von Drittanbietern, die versuchen, diese Lücke zu schließen, indem sie Inhalte proaktiv stummschalten oder filtern.
Diese Tools eignen sich gut für den Umgang mit versehentlichen Angriffen. Aber für Journalisten, Politiker, Wissenschaftler, Schauspieler – wirklich jeden, der sich bei seiner Arbeit auf Online-Konnektivität verlässt – sind sie völlig unzureichend. Das Blockieren und Stummschalten hilft bei ständigen koordinierten Angriffen wenig, da ganze Gruppen ständig von verschiedenen Konten belästigt werden. Selbst wenn es Benutzern gelungen ist, ihre Belästiger zu blockieren, sind die anhaltenden Auswirkungen auf die psychische Gesundheit, wenn sie eine Flut von Angriffen sehen, enorm; Mit anderen Worten, der Schaden ist bereits angerichtet. Dies sind rückwirkende Tools und nur nützlich, nachdem jemand infiziert wurde. Direktnachrichten zu schließen und ein Konto privat zu machen, kann das Opfer vor einem heftigen Angriff schützen; Sie können wieder in der Öffentlichkeit auftreten, nachdem die Belästigung abgeklungen ist. Dies sind jedoch keine realistischen Optionen für chronische Missbraucher, da sie die Menschen mit der Zeit nur aus dem breiteren Online-Diskurs entfernen.
Plattformen müssen mehr tun, um Sicherheit durch Design zu fördern, einschließlich vorgelagerter Lösungen wie die Verbesserung der Moderation menschlicher Inhalte, die effektivere Bearbeitung von Benutzerbeschwerden und das Drängen auf bessere Systeme zur Betreuung von Benutzern, die chronischem Missbrauch ausgesetzt sind. Organisationen wie Glitch klären Menschen über den Missbrauch von Frauen und marginalisierten Menschen im Internet auf und stellen gleichzeitig Ressourcen zur Verfügung, um Menschen beim Umgang mit diesen Angriffen zu helfen, einschließlich der Anpassung von Schulungstechniken für Zuschauer für die Online-Welt, der Aufforderung an Plattformunternehmen, ihre Meldemechanismen zu verbessern, und der Forderung nach Richtlinienänderungen. . .
Aber Toolkits und Leitfäden sind zwar sehr nützlich, lasten aber immer noch die Verantwortung auf den Missbrauchten auf. Die politischen Entscheidungsträger müssen auch ihren Teil dazu beitragen, Plattformen für die Bekämpfung des endemischen Missbrauchs zur Rechenschaft zu ziehen. Das Online Safety Act des Vereinigten Königreichs ist ein Mechanismus, der Plattformen für die Eindämmung von Missbrauch zur Rechenschaft ziehen könnte. Der Gesetzentwurf würde große Unternehmen zwingen, ihre Richtlinien zum Entfernen anstößiger Inhalte und zum Verbot von Missbrauchern in ihren Nutzungsbedingungen klarer zu gestalten. Das Gesetz würde Unternehmen auch dazu verpflichten, Benutzern optionale Tools zur Verfügung zu stellen, die ihnen helfen, die Inhalte zu kontrollieren, die sie in sozialen Medien sehen. Die Debatte um den Gesetzentwurf hat jedoch einige der vorgeschlagenen Schutzmaßnahmen für Erwachsene im Namen der Meinungsfreiheit geschwächt, und der Gesetzentwurf konzentriert sich weiterhin auf Tools, die Benutzern helfen, Entscheidungen zu treffen, und nicht auf Tools und Lösungen, die Missbrauch in den frühen Stadien stoppen.