Der Bericht enthält sensible Inhalte, die für einige Leser*innen verstörend sein können.
Der Bericht «A Thousand Cuts» (PDF, 78 Seiten in Englisch) beschreibt, wie das Geschäftsmodell von X und Mängel bei der Inhaltsmoderation die Verbreitung von technologiegestützter geschlechtsspezifischer Gewalt ermöglichten. Die LGBTI*-Gemeinschaft in Polen wurde auf X mit Gewaltandrohungen, Online-Belästigung, Doxing und gezieltem Online-Hass attackiert.
«Die Dinge, die man über sich liest – sie sind nicht wahr, aber irgendwie bleiben sie im Kopf. Es ist wie der Tod durch tausend Schnitte» Aleksandra Herzyk
«Durch unzureichende Inhaltsmoderation und mangelnde menschenrechtliche Sorgfaltspflicht hat X zu Menschenrechtsverletzungen gegen die LGBTI*-Gemeinschaft in Polen beigetragen», sagte Alia Al Ghussain, Researcherin und Beraterin für Technologie und Menschenrechte bei Amnesty International. Weil X zudem Schutzmassnahmen gegen Hassreden entfernt hat, wurde die Plattform zu einem Nährboden für LGBTI*-feindliche Inhalte.
In Zusammenarbeit mit dem National Conference on Citizenship’s Algorithmic Transparency Institute (ATI) richteten Researcher*innen 32 Forschungskonten ein. Diese sammelten zwischen dem 1. März und dem 31. März 2025 163'048 Tweets.
Die Analyse dieser Tweets ergab eine hohe Verbreitung von Anti-LGBTI*-Inhalten auf der Plattform. Eine Stichprobenanalyse von 1'387 Tweets zeigt, dass homophobe und transphobe Inhalte vor allem auf Konten stark verbreitet sind, denen Politiker*innen folgen, die sich gegen LGBTI*-Rechte aussprechen.
Das Empfehlungssystem von X (der Algorithmus hinter der «For you»-Timeline) ist darauf ausgelegt, die Interaktion zwischen Nutzer*innen zu maximieren. Den Benutzer*innen werden vor allem Inhalte gezeigt, die Interaktionen erzeugen, was zur Verstärkung schädlicher Inhalte führen kann.
Amnesty International hat zum ersten Mal eine menschenrechtliche Analyse des Geschäftsmodells von X durchgeführt. Dieses beruht (wie dasjenige anderer Social Media-Plattformen) auf der invasiven Erfassung der Daten von Nutzer*innen, um sie mit Werbung gezielt anzusprechen. Gekoppelt mit einer mangelhaften Inhaltsmoderation setzt dieses Geschäftsmodell die LGBTI*-Gemeinschaft in Polen einem grossen Risiko technologiegestützter geschlechtsspezifischer Gewalt aus.
Die eigenen Transparenzberichte von X zeigen, dass es nur zwei polnischsprachige Inhaltsmoderator*innen gibt – eine*r davon mit Polnisch als Zweitsprache. Diese beiden Personen sind für die Abdeckung einer Bevölkerung von 37,45 Millionen Menschen und 5,33 Millionen X-Nutzer*innen verantwortlich.
Aleksandra Herzyk, eine Künstlerin und asexuelle Frau aus Krakau, berichtete, wie gezielter Hass sie von der Plattform vertrieb, nachdem sie wegen eines Beitrags über ihre Brustverkleinerungsoperation belästigt und fälschlicherweise als Transfrau betitelt wurde.
«Die Dinge, die man über sich liest – sie sind nicht wahr, aber irgendwie bleiben sie im Kopf. Es ist wie der Tod durch tausend Schnitte», sagte Aleksandra Herzyk.
«Es gab Leute, die sagten, dass sie mir im Fitnessstudio oder so die Knochen brechen würden, dass sie sich wünschten, jemand würde mich töten.»
Maja Heban, eine 34-jährige Transfrau, die in Warschau lebt, sagte: «Was auch immer du sagen willst, es ist okay – LGBTI*-Personen [auf X] mit Tieren, Vergewaltigern, Pädophilen zu vergleichen. Alles geht.»
Gemäss dem EU-Digital Services Act (DSA) müssen sehr grosse Online-Plattformen (VLOPs) wie X systemische Menschenrechtsrisiken bewerten und mindern. Die Risikobewertung von X für 2024 erkannte Risiken von Hass und Einschüchterung auf der Plattform an, erwähnte jedoch keine spezifischen Schäden für LGBTI*. Eine unabhängige DSA-Prüfung von 2024 fand die Risikoanalyse von X schwach, ineffektiv und ohne Schutzmassnahmen für algorithmische Systeme. Die wiederholten Mängel von X in Polen zeigen das Versagen des Unternehmens, systemische Risiken für die Menschenrechte anzugehen.
Amnesty International konfrontierte X mit den Erkenntnissen der Untersuchung, erhielt jedoch keine Antwort. Die Menschenrechtsorganisation ruft die Europäische Kommission auf, ihre derzeitigen Untersuchungen zu X ausweiten und die Fähigkeit des Unternehmens zu überprüfen, das Risiko von TfGBV wirksam anzugehen.
Amnesty hat zuvor untersucht, wie X zur Verbreitung von Falschinformationen beigetragen hat, die sich gegen Muslim*innen und Migrant*innen im Vereinigten Königreich richteten und wie die Plattform zu einem Ort wurde, an dem Gewalt und Missbrauch gegen Frauen gedeihen.
Im Jahr 2019 veröffentlichte Amnesty International einen bahnbrechenden Bericht, der zeigte, wie die überwachungsbasierten Geschäftsmodelle von Google und Meta die Menschenrechte bedrohen. Es wurde festgestellt, dass die Geschäftsmodelle der beiden Unternehmen «grundsätzlich unvereinbar» mit einer Reihe von Menschenrechten sind.