Sechs Dinge, die ADL nach dem Start der Meta-Threads im Auge behält
HeimHeim > Nachricht > Sechs Dinge, die ADL nach dem Start der Meta-Threads im Auge behält

Sechs Dinge, die ADL nach dem Start der Meta-Threads im Auge behält

Jun 23, 2023

Metas „Twitter-Killer“ Threads wurde am 6. Juli unter Medienrummel gestartet. Dank der Integration mit der riesigen Nutzerbasis von Instagram wurde Threads die schnellste Verbraucher-App, die 100 Millionen Downloads erreichte, und das in nur fünf Tagen. Meta-Manager Adam Mosseri, der mittlerweile sowohl Instagram als auch Threads betreibt, sagt, die neue textbasierte soziale App sei nicht für Nachrichten oder Politik gedacht. Ziel der App sei es, einen öffentlichen Platz für andere Arten von Gemeinschaften zu schaffen, sagt er.

Obwohl Meta einige zukunftsweisende Sicherheitsfunktionen verspricht, wie das Blockieren von Benutzern mit einem Fingertipp und das Herausfiltern von Antworten mit bestimmten Wörtern, hat das Unternehmen in der Vergangenheit seine Versprechen, Ziele von Hass und Belästigung im Internet zu schützen, nicht eingehalten.

Da eine weitere bereits politisch brisante US-Wahl bevorsteht, Online-Hass und Belästigung ein Rekordhoch erreichen und Antisemitismus und extremistische Vorfälle sowohl online als auch offline zunehmen, wird ein neues Social-Media-Produkt dieser Größenordnung ernsthafte Herausforderungen mit sich bringen. Meta kann sie nicht einfach wegwünschen, indem es behauptet, sein Ziel sei es, „einen positiven und kreativen Raum zum Ausdruck Ihrer Ideen“ zu schaffen.

Hier sind sechs Dinge, die ADL beobachten wird, während Threads weiter wächst, und einige, die erste Beobachtungen betreffen:

Die Erstellung einer neuen App war für Meta eine Gelegenheit, die Nutzungsbedingungen und Community-Richtlinien aus einer neuen Perspektive zu betrachten und die Arten von Interaktionen zu berücksichtigen, die das Produkt fördert. Stattdessen nahm Meta einige Änderungen an den bestehenden Richtlinien von Instagram vor, ohne auf die grundlegenden Unterschiede zwischen Instagram und Threads einzugehen.

Beispielsweise ist die Erklärung von Instagram, wie sie die Verbreitung falscher Informationen eindämmen, für Threads nicht relevant. Der Schwerpunkt liegt auf Instagram-spezifischen Funktionen wie „Erkunden“, Hashtags und Stories – alles Funktionen, die in Threads nicht verfügbar sind. Meta sollte erklären, ob und wie sie falsche Informationen aus Threads herausfiltern, und außerdem klarstellen, wie sie mit anderen schädlichen Medien umgehen, beispielsweise synthetischen Medien wie Deepfakes.

Die App-Suite von Meta hat ein Labyrinth von Richtlinien zu Hass, Belästigung und Extremismus geschaffen. Leider sind sie nicht besonders benutzerfreundlich. In einigen Fällen haben Facebook, Instagram und Threads unterschiedliche Richtlinien, in anderen verweisen sie jedoch auf eine übergreifende Meta-Richtlinie. Eine Richtlinie ist nur so gut wie ihre Klarheit und Durchsetzung, und die Hassrichtlinie von Threads ist besorgniserregend schwer zu finden.

Die Richtlinien von Threads zu Hass scheinen sich auf die Richtlinien von Instagram zu beziehen, die wiederum auf die Richtlinien von Meta verweisen. Wenn die Richtlinie von Meta tatsächlich vollständig sowohl auf Instagram als auch auf Threads anwendbar ist, ist die Richtlinie am Ende des Labyrinths eine starke. Die Meta-Richtlinie „definiert Hassrede als direkten Angriff gegen Menschen – und nicht gegen Konzepte oder Institutionen – auf der Grundlage von … geschützten Merkmalen: Rasse, ethnische Zugehörigkeit, nationale Herkunft, Behinderung, Religionszugehörigkeit, Kaste, sexuelle Orientierung, Geschlecht, Geschlecht.“ Identität und schwere Krankheit.“

Benutzer aller Meta-Plattformen, einschließlich Threads, verdienen klare, zugängliche Richtlinien, die auf das Design der von ihnen verwendeten App zugeschnitten sind und bei denen die Sicherheit der Menschen Vorrang hat. ADL hat Plattformen wiederholt aufgefordert, nicht nur klare und umfassende Richtlinien einzuführen, sondern auch mit ihren Nutzern über ihre Content-Management-Entscheidungen zu kommunizieren. Benutzer verdienen die Gewissheit, dass Plattformen ihre Berichte über hasserfüllte Inhalte sorgfältig prüfen. Derzeit ist die geltende Hassrichtlinie von Threads ohne eine konzertierte Suche schwer zu finden, und es ist unklar, ob und wie sie bei Threads durchgesetzt wird.

Im Bericht 2023 des ADL Center for Tech and Society (CTS) über Hass und Belästigung im Internet war Facebook die Website, auf der die meisten erwachsenen Befragten Belästigungen erlebt hatten, selbst wenn man die auf der Plattform verbrachte Zeit berücksichtigte. Instagram lag gleichauf mit Twitter an zweiter Stelle. Von denen, die online belästigt wurden, gaben 54 % an, dass die Belästigung auf Facebook stattgefunden habe.

Bisher verfügt Threads über einige vielversprechende produktbasierte Schutzmaßnahmen für Belästigungsziele, beispielsweise leicht zugängliche Tools zum Entfolgen, Blockieren, Einschränken oder Melden eines Profils. Darüber hinaus sperrt Threads automatisch alle Konten, die ein Benutzer auf Instagram gesperrt hat, und erspart den Zielpersonen so neuen oder zusätzlichen Kontakt mit zuvor gesperrten Belästigern. CTS hat sich für intuitivere, benutzerfreundlichere und effektivere Sicherheitsdesigns wie diese eingesetzt und eine soziale Musterbibliothek erstellt, die Designer nutzen können. Threads scheint in dieser Hinsicht einige positive Schritte unternommen zu haben, insbesondere angesichts der Tatsache, dass Meta es in der Vergangenheit immer wieder versäumt hat, den Benutzern angemessenen Schutz zu bieten.

Problematisch ist jedoch, dass Threads bereits wenige Tage nach der Einführung gefährdete Ziele Hass und Belästigung ausgesetzt hat. Bei einem besorgniserregenden Vorfall stellte eine Benutzerin fest, dass das automatisierte System von Meta ihren offiziellen Namen gelöscht und ihren Anzeigenamen in Threads ohne ihre Ankündigung oder Zustimmung entsprechend geändert hatte. Diese Nutzerin, eine Sexarbeiterin, verlässt sich online auf ein Pseudonym, um ihre Identität zu schützen.

Diese Funktion verletzt die Privatsphäre der Benutzer, gefährdet möglicherweise ihre Sicherheit und kann identitätsbasierte Belästigungen auslösen. Wenn beispielsweise die Profilnamen der Benutzer ohne Vorankündigung und ohne die Möglichkeit, die Entscheidung anzufechten, bevor sie in Kraft tritt, in ihre offiziellen Namen geändert werden, könnte dies dazu führen, dass queere und transgender Benutzer nicht benannt werden. Transgender-Personen, die laut ADL-Daten bereits unverhältnismäßig häufig online belästigt werden, könnten infolgedessen mit einem Outing und schwerer Belästigung rechnen. Es bleibt zwar unklar, ob es sich hierbei um ein übereiltes Design-Versehen oder eine bewusste politische Entscheidung handelte, diese Praxis ist jedoch für jeden Benutzer gefährlich, der sich zu seiner Sicherheit auf Anonymität verlässt.

Für diejenigen, die Opfer von Online-Hass werden, erscheinen die aktuellen Meldemechanismen ebenfalls unzureichend. Das Meldeformular von Threads verwendet in seinem Hassrede-Meldeablauf eine vage Sprache, die nicht die Erfahrungen marginalisierter Gruppen in den Mittelpunkt stellt, sondern Hass stattdessen als Angriff auf „jeden aufgrund seiner Identität“ definiert.

Der Schutz von Zielen erfordert auch einen robusten Trust-and-Safety-Betrieb. Das Hinzufügen einer neuen, häufig heruntergeladenen App zu seiner Suite erhöht den dringenden Bedarf an einem voll ausgestatteten Vertrauens- und Sicherheitsteam. Bemerkenswert ist, dass Meta in den letzten Monaten seine Belegschaft im Bereich Vertrauen und Sicherheit abgebaut hat. Wir werden die Praktiken von Meta weiterhin beobachten und sie ermutigen, in den Backend-Support zu investieren, den die Zielgruppen benötigen.

Zusätzlich zu den strukturellen Bedenken bei Threads nutzen Kriminelle bereits die App, um ihre Nachrichten zu verbreiten. Der weiße Rassist und Antisemit Nick Fuentes, der nach dem Aufstand vom 6. Januar von Instagram verbannt wurde, sagte, er habe einen gefälschten Account auf Threads erstellt und forderte seine Anhänger auf, dasselbe zu tun. Es gibt Hinweise darauf, dass viele der sogenannten Groyper dies getan haben. Obwohl die Suchmöglichkeiten von Threads rudimentär sind, ist es mit etwas Aufwand bereits möglich, Antisemitismus auf der Plattform zu finden. Das Tech Transparency Project stellte fest, dass innerhalb von 24 Stunden nach dem Start der App bereits Konten voller Nazi-Bilder und -Sprache Threads bevölkerten. Libs von TikTok, ein rücksichtsloser Lieferant stochastischer Belästigungen und anti-LGBTQ+-extremistischer Narrative, hat Threads bereits der Entfernung von Zensur beschuldigt einen Beitrag, der seinen Hassrede-Richtlinien unterliegt. Das schnelle Handeln von Meta ist in diesem Fall ermutigend, aber andere Threads-Benutzer haben kommentiert, dass Berichte gegen Libs von TikTok schnell zurückgewiesen werden. Das deutet darauf hin, dass ein Konto, das dafür bekannt ist, Hass und Belästigung zu verbreiten, in Threads tatsächlich eine Sonderbehandlung – das sogenannte Whitelisting – erhält. Meta muss eine starke Haltung gegenüber Nutzern wie Libs von TikTok einnehmen, die gerne eine hasserfüllte Anhängerschaft in Threads pflegen und gefährdete Ziele direkt belästigen.

Extremisten nutzen Plattformen häufig in Zeiten des Umbruchs aus. Als Elon Musk im Oktober 2022 Twitter übernahm, beobachteten wir beispielsweise „Stresstests“ von Nutzern, die bis an die Grenzen der Inhaltsmoderation gingen. Fuentes und andere scheinen mit Threads etwas Ähnliches zu tun. Weniger extreme Benutzer mit einer Vorgeschichte der Verbreitung von Fehlinformationen und der Förderung von Belästigungen haben bereits Inhalte gepostet, die gegen die Community-Richtlinien von Meta verstoßen könnten, wie etwa Wahlverschwörungstheorien und Beleidigungen gegen Transgender-Personen. Wir werden die Bemühungen von Meta, Hass, Belästigung und Fehlinformationen in Threads zu mildern, sowie die Art und Weise, wie Extremisten und andere die Plattform nutzen, genau beobachten.

Trotz Mosseris Behauptung, dass Threads nicht für „Nachrichten und Politik“ gedacht sei und dass die damit verbundenen Integritätsrisiken das „inkrementelle Engagement oder die zusätzlichen Einnahmen“ nicht wert seien, wird die Plattform zweifellos sowohl von politischen Aktivisten als auch von anderen Akteuren genutzt werden, die sich politisch äußern wollen Themen. In unserer vorherigen Analyse der Wahlintegritätsrichtlinien von Meta im Vorfeld der US-Zwischenwahlen 2022 stellten wir fest, dass den Richtlinien sowohl für Facebook als auch Instagram die notwendigen Maßnahmen fehlten. Beide stellten plattformweite Richtlinien und Tools für Fehlinformationen bereit, wie z. B. die Kennzeichnung, diese Richtlinien deckten jedoch nicht alle Formen von Fehlinformationen und Desinformationen ab. Darüber hinaus wurden sie seit 2019 nicht mehr aktualisiert. Als wir die Durchsetzung der Richtlinien zu Wahlfehlinformationen durch Social-Media-Plattformen während der Zwischenwahlen 2022 überprüften, stellten wir eine inkonsistente Durchsetzung sowohl auf Facebook als auch auf Instagram fest. Insbesondere Facebook war anfällig für die Verbreitung von Fehlinformationen über Screenshots, während Instagram die uneingeschränkte Suche nach problematischen Begriffen der Wahlverschwörungstheorie ermöglichte.

Threads müssen sich der Realität stellen, dass bei einer so großen Nutzerbasis Persönlichkeiten des öffentlichen Lebens die Plattform nutzen, um wahlbezogene Botschaften zu verbreiten und Follower zu gewinnen. Während Threads wichtige Diskussionen beherbergen können und sollten, haben einige schlechte Akteure ihre Fehlinformationstaktiken bereits in Threads importiert. Threads fügten schnell Labels zu mehreren Konten hinzu, darunter Donald Trump Jr., der Benutzer warnte, dass das Konto „wiederholt falsche Informationen veröffentlicht“. Nachdem diese Accounts auf Twitter – dem Konkurrenten von Threads – Zensur geltend gemacht hatten, entfernte Threads die Labels schnell.

Darüber hinaus wirken sich die Moderationsmaßnahmen von Meta gegen Benutzer in Threads, außer in Fällen wie dem Teilen von Bildern zur Ausbeutung von Kindern, nicht auf deren verknüpftes Instagram-Konto aus, sodass Benutzer mehr Möglichkeiten haben, falsche Behauptungen zu verbreiten. Meta hat außerdem Personal in Teams abgebaut, die für die Wahlintegrität wichtig sind und sich auf Desinformation und koordinierte Belästigungskampagnen konzentrieren. Wir hoffen zwar, dass Threads und die anderen Plattformen von Meta die Mängel vor den Wahlen 2024 beheben werden, die Geschichte des Unternehmens weckt jedoch nicht viel Vertrauen.

Wie bei Instagram verbieten die Nutzungsbedingungen von Threads das Scraping von Daten. Nachdem Meta im Zuge des Cambridge-Analytica-Skandals den API-Zugriff auf die Daten seiner Dienste eingeschränkt hatte, gab Meta im Jahr 2021 seine FORT-API für qualifizierte akademische Forscher frei, die nur für den Zugriff auf Facebook-Daten gedacht ist. Die Instagram Graph API von Meta ermöglicht den Geschäfts- und Erstellerpartnern von Instagram den Zugriff auf einige Plattformdaten. Dies dient jedoch in erster Linie der Verwaltung von Kontointeraktionen und nicht der Vertrauens- und Sicherheitsforschung. Meta hat noch keine API-Zugriffspläne für Threads angekündigt. Der Zugriff auf Plattformdaten ist ein entscheidendes Instrument für akademische und zivilgesellschaftliche Forscher, das die Überwachung von Bedrohungen und die Prüfung von Vertrauens- und Sicherheitsmechanismen ermöglicht. Wir werden uns weiterhin für den Zugang von Forschern zu Threads einsetzen, wie wir es auch für die anderen Produkte und Dienstleistungen von Meta tun.

Meta veröffentlicht, wie andere Social-Media-Unternehmen, vierteljährlich freiwillige Transparenzberichte. Wir gehen davon aus, dass Threads in zukünftige Berichte aufgenommen werden, insbesondere zur Durchsetzung von Community-Standards. Obwohl wir froh sind, dass Meta regelmäßig Transparenzberichte veröffentlicht, würde das Vertrauen erheblich gestärkt, wenn unabhängige Prüfer die Möglichkeit hätten, regelmäßige Prüfungen durchzuführen.

Threads soll in ein dezentrales System sozialer Netzwerke, ActivityPub, integriert werden, und es bleibt abzuwarten, wie Vertrauen und Sicherheit funktionieren, wenn dies geschieht. Ein dezentrales System, manchmal auch „Fediversum“ genannt, könnte Benutzern die Möglichkeit geben, ihre Erlebnisse bei der Moderation von Inhalten individuell anzupassen und gefährdeten Benutzern sichere Zufluchtsorte zu bieten. Dennoch befürchten einige, dass der Auftritt von Threads das aufkeimende Fediversum zerstören und es in Metas dominantem Griff zurücklassen wird. CTS wird die Integration von Threads in den kommenden Monaten überwachen, um sicherzustellen, dass die Bedürfnisse der Zielpersonen Vorrang haben.