Käse-Pizza? Metas Instagram ermöglichte ein riesiges Pädophilennetzwerk

von | 16. Jun 2023

Eine umfassende Untersuchung des Wall Street Journal und des Stanford Internet Observatory zeigt, dass das von Meta betriebene Instagram die Heimat eines organisierten und massiven Netzwerks von Pädophilen war.

Was diesen Fall jedoch von den meisten anderen unterscheidet, ist die Tatsache, dass die Algorithmen von Instagram selbst pädophile Inhalte für andere Pädophile förderten, während die Pädos selbst verschlüsselte Emojis verwendeten, wie z. B. das Bild einer Landkarte oder ein Stück Käsepizza.

Instagram verbindet Pädophile und führt sie über Empfehlungssysteme, die sich durch die Verknüpfung von Personen mit gleichen Nischeninteressen auszeichnen, zu Anbietern von Inhalten, so die Ergebnisse der Zeitschrift und der Wissenschaftler.

Forscher fanden heraus, dass pädophile Accounts auf Instagram eine Mischung aus Dreistigkeit und oberflächlichen Bemühungen zur Verschleierung ihrer Aktivitäten darstellen. Bestimmte Emojis fungieren als eine Art Code, wie z. B. das Bild einer Landkarte (map) – ein Kürzel für „minor-attracted person“ („minderjährige Person“) – oder eines für „Käsepizza“ (cheese pizza), das die gleichen Initialen wie „child pornography“ (Kinderpornografie) trägt, so Levine von der UMass. Viele bezeichnen sich selbst als „Liebhaber der kleinen Dinge im Leben“.

Wall Street Journal

Den Forschern zufolge konnten Pädophile auf Instagram nach Inhalten mit expliziten Hashtags wie #pedowhore und #preteensex suchen, die dann verwendet wurden, um sie mit Konten zu verbinden, die kindersexuelles Material von Nutzern zum Verkauf anbieten, die unter Namen wie „kleine Schlampe für dich“ auftreten.

Die Verkäufer von Kinderpornos geben oft das angebliche Alter der Kinder an, indem sie sagen, sie seien „auf Kapitel 14“ oder „31 Jahre alt“, mit einem Emoji eines umgekehrten Pfeils.

Meta behauptet, in den letzten zwei Jahren 27 pädophile Netzwerke ausgeschaltet zu haben, und plant nach eigenen Angaben weitere Löschungen.

„Dass ein Team von drei Akademikern mit begrenztem Zugang ein so großes Netzwerk finden konnte, sollte bei Meta Alarm auslösen“, sagte Alex Stamos, Leiter des Stanford Internet Observatory und Metas Chief Security Officer bis 2018, und fügte hinzu, dass das Unternehmen über weitaus effektivere Werkzeuge verfügt, um sein pädophiles Netzwerk zu „kartieren“, als Außenstehende es tun.

„Ich hoffe, dass das Unternehmen wieder in menschliche Ermittler investiert“, fügte er hinzu.

Forscher, die das Netzwerk untersuchten, richteten Testkonten innerhalb des pädophilen Netzwerks ein, die sofort mit „für Sie vorgeschlagenen“ Empfehlungen für kindersexuelle Inhalte überschwemmt wurden, sowie mit Konten, die zu plattformfremden Handelsplattformen verlinkten.

Die Ersteller und Käufer minderjähriger Sex-Inhalte sind nur ein Teil eines größeren Ökosystems, das sich mit sexualisierten Kinderinhalten befasst. Andere Konten in der pädophilen Gemeinschaft auf Instagram aggregieren pro-pädophile Memes oder diskutieren ihren Zugang zu Kindern. Derzeitige und ehemalige Meta-Mitarbeiter, die an Instagram-Initiativen zur Kindersicherheit gearbeitet haben, schätzen, dass die Zahl der Konten, die hauptsächlich dazu dienen, solchen Inhalten zu folgen, in die Hunderttausende, wenn nicht sogar in die Millionen geht.

Wall Street Journal

„Instagram ist eine Einstiegsrampe zu Orten im Internet, an denen es expliziteren sexuellen Kindesmissbrauch gibt“, so Brian Levine, Direktor des UMass Rescue Lab. Levine verfasste 2022 einen Bericht für das National Institute of Justice des US-Justizministeriums über die Ausbeutung von Kindern über das Internet.

Dem Bericht zufolge entfielen 85 % der Kinderpornografie-Meldungen an das National Center for Missing & Exploited Children auf Meta. „Allerdings hat Meta mit diesen Bemühungen mehr zu kämpfen als andere Plattformen, sowohl wegen der schwachen Durchsetzung als auch aufgrund von Designmerkmalen, die die Entdeckung von legalen und illegalen Inhalten fördern“, so Stanford.

„Das Problem von Instagram liegt in den Funktionen zum Auffinden von Inhalten, in der Art und Weise, wie Themen empfohlen werden, und darin, wie sehr sich die Plattform auf die Suche und Links zwischen Konten verlässt“, sagte David Thiel, leitender Technologe am Stanford Internet Observatory. „Man muss Leitplanken aufstellen, damit etwas, das so wachstumsintensiv ist, noch halbwegs sicher ist, und das hat Instagram nicht getan.“

Sarah Adams, eine kanadische Mutter von zwei Kindern, hat auf Instagram ein Publikum aufgebaut, das gegen die Ausbeutung von Kindern kämpft. Foto: Alana Paterson für das Wall Street Journal

Sarah Adams, eine kanadische Mutter von zwei Kindern, hat sich auf Instagram ein Publikum aufgebaut, das über die Ausbeutung von Kindern und die Gefahren des „Oversharing“ in den sozialen Medien diskutiert. Aufgrund ihres Schwerpunkts schicken Adams‘ Follower ihr manchmal verstörende Dinge, die sie auf der Plattform entdeckt haben. Im Februar, so sagte sie, schickte ihr einer eine Nachricht mit einem Konto, das mit dem Begriff „Inzest-Kleinkinder“ gebrandmarkt war.

Adams sagte, sie habe das Konto – eine Sammlung von Inzest-Memes mit mehr als 10.000 Anhängern – nur für die wenigen Sekunden aufgerufen, die sie brauchte, um es an Instagram zu melden, und dann versucht, es zu vergessen. Doch im Laufe der nächsten Tage hörte sie immer wieder von entsetzten Eltern. Als sie sich Adams‘ Instagram-Profil ansahen, sagte sie, dass ihnen aufgrund von Adams‘ Kontakt mit dem Konto „Inzest-Kleinkinder“ empfohlen worden seien.

Ein Meta-Sprecher sagte, dass „Inzest-Kleinkinder“ gegen die Regeln des Unternehmens verstoßen und dass Instagram bei der Durchsetzung einen Fehler gemacht habe. Das Unternehmen erklärte, es plane, solche unangemessenen Empfehlungen im Rahmen seiner neu gegründeten Arbeitsgruppe für Kindersicherheit anzugehen.

Wall Street Journal

Meta räumte gegenüber dem Journal ein, dass es eine Flut von Meldungen über die sexuelle Ausbeutung von Kindern erhalten und nicht darauf reagiert habe – und machte dafür eine Softwarepanne verantwortlich, die verhindert habe, dass ein erheblicher Teil der Meldungen von Nutzern bearbeitet wurde.

Und während Meta es zulässt, dass sich Pädophile auf seinen Plattformen austoben, ist ZeroHedge immer noch verboten.

Quelle: ZeroHedge

Telegram zensiert nicht! Wenn du diese Information wichtig findest, kannst du Legitim auf Telegram kostenlos abonnieren: hier anmelden (Telegram herunterladen)

Legitim-Newsletter

 

Abonniere den Newsletter,


um die wichtigsten Updates per E-Mail zu erhalten!

Du hast dich erfolgreich angemeldet - danke!