www.wikidata.de-de.nina.az
Unter Content Moderation versteht man das Einwirken auf Medieninhalte in Sozialen Netzwerken Internetforen Cloud Diensten Content Management Systemen und anderen informationstechnischen Systemen durch die Anbieter dieser Dienste Zu den Aufgaben eines Content Moderators zahlen das Loschen und Sperren von Inhalten Digitale Mullhalde sowie das Filtern Ordnen und Auswerten von Informationen und Daten Die Content Moderation ist Teil des Content Management und oft auch des Online Community Management Sie dient der Vermeidung bestimmter Aspekte der Internetkriminalitat und der Entfernung von Inhalten die gegen das Verbreitungsverbot verstossen Davon zu unterscheiden ist die kriminalpolizeiliche Ermittlungsarbeit etwa im Darknet zum Zweck der Strafverfolgung Inhaltsverzeichnis 1 Moderierte Inhalte 2 Arbeitsbedingungen der Moderatoren 3 Arbeitsschutz 4 Internetregulierung 5 Literatur 6 Weblinks 7 EinzelnachweiseModerierte Inhalte BearbeitenGrosse Internetdienstleister wie Facebook Google Twitter und YouTube beauftragen sogenannte Commercial Content Moderatoren um fragwurdige Inhalte zu entfernen oder zu sperren Zu den zu loschenden Inhalten zahlen unter anderem Kriminalitat Folter Gewalt Mord und Suizid Hassnachrichten und Cyber Mobbing Terrorismus Tierqualerei Vergewaltigung und Kindesmissbrauch 1 Weltweit gibt es schatzungsweise mehrere Hunderttausend Content Moderatoren die fur die Loschung von Inhalten zustandig sind In Deutschland sind in Berlin und Essen zusammen uber 1000 Content Moderatoren tatig die Eintrage kontrollieren und gegebenenfalls loschen die gegen die Facebook Standards oder das Netzwerkdurchsetzungsgesetz verstossen 2 3 4 Allerdings wird die Arbeit meist von den Konzernen in Entwicklung und Schwellenlandern outgesourct wo fur Billiglohne gearbeitet wird Die Tatigkeit des Content Moderators wird vermehrt durch kunstliche Intelligenz ersetzt oder vorsortiert und durch automatisierte Systeme wie Upload Filter reduziert 5 Arbeitsbedingungen der Moderatoren BearbeitenDer Dokumentarfilm The Cleaners stellt zumeist unsichere Arbeitsbedingungen und kurzfristige Arbeitsvertrage der Moderatoren Zeitarbeit auf den Philippinen dar wo die meisten Content Moderatoren arbeiten Es kommt zu Langeweile bei der Arbeit weil viele monotone Tatigkeiten verrichtet werden mussen Boreout Syndrom und bei anstossigen Inhalten kann es auch zu Ekel und psychischen Belastungen kommen Content Moderatoren mussen zudem schnell reagieren konnen Die Mitarbeiter mussen eine Schweigeverpflichtung unterschreiben und durfen nicht uber ihre Tatigkeit sprechen Arbeit finden Content Moderatoren in PR Agenturen Call Centern in den Unternehmen selbst speziellen Loschzentren oder Koordinierungswebseiten wie Mechanical Turk Allerdings werden aus rechtlichen Grunden feste Arbeitsplatze von Arbeitnehmern bevorzugt Spezialisierte Firmen auf dem Gebiet sind zum Beispiel TaskUS MicroSourcing und Arvato 6 7 Arbeitsschutz BearbeitenIm Jahr 2006 schlossen sich in den Vereinigten Staaten grosse IT Firmen wie Facebook Microsoft und Twitter zur Technology Coalition zusammen um gegen strafbare Kinderpornographie und sexuellen Kindesmissbrauch im Internet vorzugehen 8 Die Vereinigung begrundete unter anderem die Crimes Against Children Conference CACC und erarbeitete Arbeitsschutzrichtlinien Employee Resilience Guidebook 9 fur Mitarbeiter die bei ihrer Tatigkeit mit strafbaren Inhalten konfrontiert werden Eine Mitarbeiterin aus San Francisco loste eine Sammelklage gegen Facebook aus weil diese durch ihre Arbeit an einer Posttraumatische Belastungsstorung erkrankt sei Facebook habe gegen die erarbeiteten Arbeitsschutzbestimmungen verstossen Die Mitarbeiter wurden nicht hinreichend geschult und erhielten keine psychologische Unterstutzung Facebook solle einen Fonds grunden und die Kosten ihrer Heilbehandlung ubernehmen 10 11 12 13 14 Als Ergebnis kam im Mai 2020 eine Einigung zustande nach dem Facebook pro Kopf mindestens 1 000 USD zu zahlen hatte bei Erkrankung auch mehr 15 16 Eine weitere Klage wurde gegen TikTok angestrebt 17 Internetregulierung BearbeitenHaufig werden Darstellungen von kriegerischen Auseinandersetzungen und Gewalttaten geloscht oder zensiert 2 Die Privatisierung der Kontrolle durch die grossen Internet Plattformen sehen manche als eine Gefahr fur die freie Meinungsausserung und die Demokratie 6 18 Konzernen wird vorgeworfen sich ihrer digitalen Verantwortung zu entziehen indem sie die Arbeit fur Niedriglohne in Entwicklungs und Schwellenlander outsourcen und versuchen eine Scheinwelt zu erschaffen Content Moderation kann ebenfalls zur Platzierung von Fake News zur Internetzensur oder fur andere manipulative Zwecke missbraucht werden 19 Literatur BearbeitenTarleton Gillespie Custodians of the Internet Platforms Content Moderation and the Hidden Decisions That Shape Social Media Yale University Press 2018 ISBN 9780300173130Weblinks Bearbeitennetzpolitik org Exklusiver Einblick So funktionieren Facebooks ModerationszentrenEinzelnachweise Bearbeiten Thomas Ammann Was fur ein Horrorjob Content Moderator fur 248 000 Facebook Nutzer stern de 24 Mai 2017 a b The Cleaners Die Opfer des Bildergemetzels In ZEIT ONLINE Abgerufen am 28 September 2018 Burcu Gultekin Punsmann Ich musste fur Facebook Gewalt und Hetze loschen In Suddeutsche Zeitung Magazin 5 Januar 2018 abgerufen am 28 September 2018 Alexander Becker Facebook Polizei Bertelsmann Tochter Arvato fahndet fur US Plattform auch weiterhin nach verbotenen Inhalten 15 Februar 2018 Youtube Algorithmen ersetzen angeblich 180 000 Moderatoren Abgerufen am 28 September 2018 deutsch a b Die digitale Mullabfuhr Kommerzielle Inhaltsmoderation auf den Philippinen Abgerufen am 28 September 2018 deutsch So filtern Content Moderatoren den Inhalt von Google und Facebook In trend at 10 Februar 2015 abgerufen am 28 September 2018 The Technology Coalition Startseite englisch Employee Resilience Guidebook for Handling Child Sexual Exploitation Images The Technology Coalition 2015 Verlag DIE HARKE Ex Mitarbeiterin verklagt Facebook wegen Schock Inhalten In DIE HARKE Abgerufen am 28 September 2018 A Former Content Moderator Is Suing Facebook Because the Job Reportedly Gave Her PTSD In Motherboard 24 September 2018 abgerufen am 28 September 2018 Laurence Dodds Facebook moderator sues after developing PTSD from viewing disturbing content In The Telegraph 25 September 2018 abgerufen am 28 September 2018 Facebook is being sued by an ex content moderator who says she got PTSD from exposure to graphic and toxic content on the job In Business Insider Deutschland Abgerufen am 28 September 2018 Ex Facebook moderator sues Facebook over exposure to disturbing images In Ars Technica Abgerufen am 28 September 2018 Casey Newton Facebook will pay 52 million in settlement with moderators who developed PTSD on the job In theverge com 12 Mai 2020 abgerufen am 1 Januar 2022 englisch Kari Paul Facebook to pay 52m for failing to protect moderators from horrors of graphic content In theguardian com 13 Mai 2020 abgerufen am 1 Januar 2022 englisch Sebastian Meineck Verstorende Gewalt Loscharbeiterin klagt gegen TikTok In netzpolitik org 28 Dezember 2021 abgerufen am 1 Januar 2022 Alexander Fanta EU Parlament warnt vor Overblocking durch Internetfirmen netzpolitik org 3 Mai 2018 Reto Stauffacher The Cleaners im TV Was im Internet schieflauft NZZ In Neue Zurcher Zeitung 27 August 2018 abgerufen am 28 September 2018 Abgerufen von https de wikipedia org w index php title Content Moderation amp oldid 236483077