Meta gab heute bekannt, dass es eine neue Organisation namens Take It Down finanziert, die mit Unterstützung des National Center for Missing & Exploited Children (NCMEC) jungen Menschen unter 18 Jahren helfen wird, zu verhindern, dass intime Fotos von sich online verbreitet werden. Das System funktioniert ähnlich wie eine frühere Facebook-Initiative, die darauf abzielte, die Verbreitung nicht einvernehmlicher intimer Bilder zu verhindern, die manchmal als „Rachepornos“ bezeichnet werden.
Zusammen mit dem Start werden laut Meta auch neue Tools eingeführt, die es „zwielichtigen Erwachsenen“ erschweren, mit Teenagern auf Instagram zu interagieren.
Das Unternehmen behauptet, dass das neue System zum Entfernen von nicht einvernehmlichen Intimfotos so konzipiert ist, dass die Privatsphäre der Benutzer geschützt wird, da es nicht erfordert, dass junge Menschen selbst Fotos mit Meta oder einer anderen Organisation teilen. Stattdessen weist das System dem Foto oder Video direkt vom eigenen Gerät des Benutzers einen eindeutigen Hashwert – einen Zahlencode – zu. Dieser Hash würde dann an NCMEC gesendet, sodass jedes Unternehmen Kopien dieser Bilder automatisch finden und entfernen sowie verhindern könnte, dass sie in Zukunft veröffentlicht werden.
Das ursprüngliche sogenannte „Revenge Porn“-System wurde während seiner Testphase kritisiert, weil es erforderte, dass der Benutzer geladen wurde, bevor der Hash erstellt werden konnte, wobei Sicherheitsexperten zurückwiesen, dass dies nicht der verantwortungsbewussteste Weg zum Umgang mit intimen Inhalten sei. Es wurde seitdem umgerüstet, um Hashes lokal zu generieren, wobei die Hilfedokumentation feststellt, dass “Ihre Bilder Ihren Computer niemals verlassen werden”. Jetzt scheint das neue Take It Down-System dieselbe Methodik zu verwenden.
„Ein intimes Selfie mit anderen zu teilen, kann einschüchternd und überwältigend sein, besonders für junge Menschen“, schrieb Antigone Davis, Global Head of Safety bei Meta, in der Ankündigung. „Es kann noch schlimmer sein, wenn jemand versucht, diese Bilder als Drohung zu verwenden, um zusätzliche Bilder, sexuellen Kontakt oder Geld zu erhalten – ein Verbrechen, das als Sextortion bekannt ist.“
Obwohl es sich an junge Erwachsene richtet, deren intime Bilder ohne Zustimmung – und illegal – geteilt werden, stellt Meta fest, dass das System auch von Erwachsenen verwendet werden kann, einschließlich der Eltern oder Erziehungsberechtigten eines Jugendlichen, oder sogar von Erwachsenen, die besorgt sind, dass nicht einvernehmliche Bilder aufgenommen werden … selbst, als sie jünger waren.
Take It Down verbindet Menschen auch mit anderen NCMEC-Ressourcen, einschließlich Suchwerkzeugen, um zu sehen, ob Ihre expliziten Fotos im Internet sind, einer CyberTipline, um jeden zu melden, der Sie wegen Fotos oder anderen Formen der Online-Ausbeutung bedroht, und mehr.
Während Meta hilft, das System finanziell zu unterstützen und es über Facebook und Instagram nutzen wird, sind andere teilnehmende Unternehmen, die sich zur Teilnahme an der Nutzung der neuen Technologie angemeldet haben, das soziale Netzwerk Yubo sowie die Websites für Erwachsene OnlyFans und Pornhub. Insbesondere andere große Technologieunternehmen wie Twitter und Snapchat fehlen auf der Liste.
Das System kann ein nützliches Werkzeug für Personen sein, die wissen oder besitzen, dass nicht einvernehmliche Bilder geteilt werden, vorausgesetzt, sie wissen, dass diese Entfernungsoption existiert. Während Unternehmen bereits gesetzlich verpflichtet waren, Material über sexuellen Missbrauch von Kindern (CSAM) an NCMEC zu melden, überließ es ihnen ihre Systeme oder Prozesse zur Offenlegung solchen Materials, um dies durchzusetzen. Das aktuelle Bundesgesetz schreibt nicht vor, ob sie auf ihren Plattformen nach dieser Art von Bild suchen müssen oder nicht, was zu einer plattformübergreifenden Verbreitung von CSAM führt. Angesichts der 2,96 Milliarden monatlichen Nutzer allein von Facebook ist es nicht überraschend, dass es erheblich zu diesem wachsenden Problem beiträgt. Unterdessen waren Versuche, neue Gesetze wie EARN IT zu verabschieden, die diese Lücke schließen würden, noch nicht erfolgreich. (Obwohl dieser Gesetzentwurf auch wegen seiner möglichen unbeabsichtigten Folgen für die Meinungsfreiheit und die Privatsphäre der Verbraucher umstritten war, haben Kritiker argumentiert.)
Aber der Mangel an Rechtsvorschriften in diesem Bereich hat Plattformen wie Meta dazu gezwungen, sich selbst zu regulieren, wenn es darum geht, ob und wie sie diese Art von Inhalten und andere verwalten. Da der Kongress anscheinend nicht in der Lage ist, neue Gesetze für das Internetzeitalter zu verabschieden, haben Haftungsbedenken hinsichtlich der Haftung von Big Techs für Inhalte auf ihren Plattformen nun den Weg zum Obersten Gerichtshof gefunden. Dort überprüfen die Richter Abschnitt 230 des Communications Decency Act, der in den frühen Tagen des Internets geschaffen wurde, um Websites davor zu schützen, rechtlich für von Benutzern gepostete Inhalte verantwortlich zu sein. Neue Fälle von Googles Twitter und YouTube – und den dazugehörigen Empfehlungsalgorithmen – werden darüber entscheiden, ob jahrzehntealte Schutzmaßnahmen aufrechterhalten oder sogar aufgehoben werden sollten. Obwohl es nichts mit CSAM zu tun hat, ist es ein weiteres Beispiel dafür, wie das allgemeine System der Plattformregulierung in den Vereinigten Staaten gebrochen wurde
Ohne gesetzliche Vorgaben haben Plattformen wie Meta ihre eigenen Regeln und Richtlinien in Bereichen im Zusammenhang mit der Auswahl von Algorithmen, dem Design, der Empfehlungstechnologie und dem Schutz der Endnutzer aufgestellt.
In den letzten Monaten hat Meta seinen Jugendschutz in Erwartung anstehender Vorschriften verstärkt, indem es beispielsweise neue Jugendkonten standardmäßig Privatkonten zuweist und deren restriktivere Einstellungen anwendet sowie eine Vielzahl von Sicherheitstools und Kindersicherungen einführt. Zu diesen Updates gehören bestimmte Funktionen, die erwachsene Benutzer daran hindern sollen, Teenager zu kontaktieren, die sie nicht kennen, und um Teenager vor Erwachsenen zu warnen, die verdächtiges Verhalten zeigen – wie beispielsweise das Senden einer großen Anzahl von Freundschaftsanfragen an jugendliche Benutzer.
Heute sagt Meta, dass verdächtige Erwachsene die Konten von Teenagern nicht mehr sehen können, wenn sie durch eine Liste von Personen scrollen, denen ein Beitrag gefallen hat, oder wenn sie sich die Follower- oder Follower-Liste eines Kontos ansehen, was ihren Zugriff weiter sperrt. Und wenn ein verdächtiger Erwachsener einem Teenager auf Instagram folgt, erhält der Teenager eine Benachrichtigung, in der er aufgefordert wird, den Follower zu überprüfen und zu entfernen. Es fordert Teenager auch auf, ihre Datenschutzeinstellungen zu überprüfen und einzuschränken, und benachrichtigt sie erneut und bittet sie, die Einstellungen zu überprüfen, wenn jemand ihre Posts oder Tags in einem Post kommentiert oder erwähnt oder sie in Reels Remixes oder Guides aufnimmt.