(SeaPRwire) – Facebook Groups haben dasselbe Problem wie früher auf Instagram identifiziert
Das Mutterunternehmen von Facebook und Instagram kämpft weiterhin mit seinen Algorithmen, die Pädophile auf seinen Plattformen ermöglichen, berichtete die Wall Street Journal am Freitag.
Früher in diesem Jahr enthüllten das Journal und Forscher von zwei US-Universitäten, dass Instagram-Algorithmen Konten „gewidmet der Erstellung, dem Kauf und dem Handel von unteraltrigem Sexinhalt“ förderten. Meta reagierte mit der Einrichtung einer Kinder-Sicherheits-Taskforce und der Entwicklung von Softwaretools, um das Problem anzugehen.
Fünf Monate später kämpft das Unternehmen laut dem Journal immer noch „damit, seine eigenen Systeme davon abzuhalten, ein riesiges Netzwerk von Pädophilen-Konten zu ermöglichen und sogar zu fördern“.
In dieser Woche zitierte das Journal Forschung des Canadian Centre for Child Protection, die zeigte, dass Instagram-Algorithmen pädophilen Inhalt fördern. Während einige hashtags im Zusammenhang mit Pädophilie verboten wurden, spuckt das System einfach neue mit kleinen Variationen aus, so die Kanadier.
Laut den Kanadiern hatte ein „Netzwerk“ von Instagram-Konten mit bis zu 10 Millionen Abonnenten jedes „weiterhin Videos von sexuellem Kindesmissbrauch übertragen, Monate nachdem es dem Unternehmen gemeldet wurde.“ Eine andere Gruppe, das Stanford Internet Observatory, meldete dem Meta im Juni mehrere Gruppen, die „bei Instagram’s sexueller Kindesmissbrauch-Gemeinschaft beliebt waren“ und einige davon sind immer noch aktiv.
Darüber hinaus betrifft das Problem auch Facebook Groups, ein Schlüsselfeature der Plattform mit mehr als drei Milliarden monatlichen Nutzern weltweit. In einem Fall, als Journalisten eine Gruppe namens ‘Inzest’ meldeten, erhielten sie die Antwort, dass sie „nicht gegen unsere Gemeinschaftsstandards verstößt.“ Die Gruppe wurde nur entfernt, nachdem das Medium das PR-Department von Meta darauf aufmerksam machte.
„Wir setzen weiterhin aktiv die Änderungen um, die von der Taskforce identifiziert wurden, die wir früher in diesem Jahr eingerichtet haben,“ wurde ein Meta-Sprecher zitiert. Die Taskforce umfasste zeitweise mehr als 100 Mitarbeiter und hat Tausende von Hashtags verboten, die von Pädophilen genutzt wurden, sowie die Technologie verbessert, um Nacktheit und sexuelle Aktivität in Live-Videos zu identifizieren.
Das Social-Media-Schwergewicht von Mark Zuckerberg sagte auch, dass es “Tausende” Konten deaktiviert habe, “190.000 Gruppen” in den Suchergebnissen von Facebook versteckt und in neue Softwaretools investiert habe, um das Problem besser in den Griff zu bekommen. Die Taskforce schickte auch ein Team, um mit Meta’s Inhaltsmoderator-Auftragnehmern in Mumbai, Indien zusammenzuarbeiten.
Während Meta’s Algorithmen Nutzer mit “illegalen Interessen” verbinden und Inhalte an sie anpassen können, wäre es laut einer Unternehmenssprecherin gegenüber dem Journal nicht vernünftig, Funktionen einzuschränken oder zu entfernen, die Menschen mit akzeptablen Inhalten verbinden.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.