In den erweiterten Suchvorschlägen der Videoplattform TikTok taucht die AfD häufiger auf als andere Parteien. Über 20 Prozent der Vorschläge sind extremistisch oder dessen verdächtig. Die Plattform tut wenig, um politische Inhalte zu moderieren oder Suchvorschläge zu sortieren. Das ist gerade im Kontext von Wahlen ein Problem, findet eine aktuelle Studie der der Nonprofit-Organisationen „AI Forensics“ und „Interface“.
[…]
Als Erklärung ziehen die Autorinnen heran, dass die AfD und ihre Kandiatinnen die aktivste politische Partei auf TikTok ist. Demnach ist es folgerichtig, dass Videos und Inhalte ihrer Kandidat*innen vom Algorithmus der Videoplattform weiterempfohlen werden. „Das ist das klassische Populismus-Ding, was bei den sozialen Plattformen so gut verfängt. Dinge, die aufsehen erregen, führen zu Klicks und dadurch wird es vom Algorithmus bevorzugt“, sagt der Co-Autor der Studie, Dr. Martin Degeling.
[…]
Die Studie zeigt auch, dass in den Suchfunktionen Inhalte vorgeschlagen werden, die oftmals in die Richtung von Fake News gehen. So werden in den vorgeschlagenen Suchbegriffen prominente Menschen mitunter für tot erklärt […] Oder es werden Verknüpfungen gezogen, die Botschaften aus dem Verschwörungsbereich suggerieren sollen. So zum Beispiel bei der Suche nach „Sozialdemokratische Partei Deutschland“. Eine vorgeschlagene Suche lautet: „Deutschland muss deutsch bleiben.“ Auch aus diesem Grund ziehen die Autoren der Studie das Fazit, dass das Suchempfehlungssystem eine systemische Gefahr für den öffentlichen Diskurs darstellt und damit für die Demokratie an sich.
[…]
Laut dem Europäischen Digital Services Act sind Soziale Medien aber eigentlich dazu verpflichtet zu verhindern, dass die Plattform einen negativen Einfluss auf die öffentliche Debatte hat. Die vorliegende Studie bietet dafür Indizien und zeigt, dass TikTok nicht auf Ausgewogenheit der politischen Debatte auf ihrem Medium achtet. Auch deshalb findet Martin Degeling, dass TikTok besonders vor Wahlen wie den kommenden Landtagswahlen in Thüringen, Sachsen und Brandenburg, mehr moderieren und ausgeglichener agieren sollte. „Das tun sie aber nicht“.
Was für eine Überraschung. Habe neulich (im Studium) ein Proseminar über recommender algorithms gehalten und da wurde es im Ethikbereich auch klar, dass eben kontroverse Inhalte und Hass mehr Engagement bekommen, und weil die Algorithmen nur daran arbeiten, das zu maximieren, das deutliche mehr verbreiten und wenn man mal anfängt, mit denen zu interagieren, in einer Art radicalization pipeline immer extremere Inhalte anzeigen und einen immer weiter radikalisieren (bzw. es zumindest versuchen).
So wird das ja immer gern dargestellt. Ich bin aber überzeugt, dass das auch Absicht dahinter steckt.
klar, mehr Engagement heißt mehr Traffic heißt mehr Geld (durch Werbung)