TikTok: DE NACHTMERRIE van moderators die verkrachtingen, misdaden of genociden analyseren

De NACHTMERRIE van TikTok-moderators analyseert verkrachtingsmisdaden en genocide

TikTok is een van de grootste sociale mediaplatforms ter wereld, met meer dan 1 miljard gebruikers die jaarlijks honderden, meer dan honderden miljoenen korte video's plaatsen, en een team van moderators moet duizenden verkrachtingsvideo's doorzoeken. van kannibalisme, en niet alleen dat.

Een recente rechtszaak die is aangespannen tegen Bytedance, het bedrijf dat eigenaar is van TikTok, beschuldigt het bedrijf ervan zijn moderators te dwingen een dagelijkse nachtmerrie te beleven vanwege de giftige video’s die ze dagelijks moeten bekijken voordat ze op het sociale mediaplatform verschijnen.

TikTok bestraft de moderators die de video's die door de gebruikers van het platform zijn geüpload niet zorgvuldig analyseren om het materiaal te ontdekken dat seksuele handelingen met minderjarigen, gewelddaden, kannibalistische daden of verschillende soorten misdaden bevat, om de publicatie ervan op het platform .

De uiterst giftige werkomgeving waarin TikTok-moderators gedwongen worden te werken heeft geleid tot de schijn van ziekten zoals posttraumatische stress, een aandoening die doorgaans voorkomt bij soldaten die missies uitvoeren in oorlogsgebieden, maar in het geval van moderators gaat het om de constant kijken naar gewelddadige video's van sommige materialen.

Het bekijken van duizenden video's met veelvouden, verkrachtingen, geweld tegen mensen en dieren, plus verschillende soorten extreem gewelddadige handelingen, tot wel 12 uur per dag, dwong de moderators om Bytedance voor de rechter te dagen en veel betere arbeidsomstandigheden te eisen.

Miljoenen van dit soort video’s worden dagelijks geüpload naar het TikTok-platform, sommige zelfs uit de tijd van de genocide in Myanmar, en sommige moderators hebben gemeld dat ze last hadden van extreme vermoeidheid, problemen met slapen ‘s nachts, extreme gewichtsschommelingen, angst, stemmingswisselingen, braken en andere lichamelijke gezondheidsproblemen.

“Hoewel we geen commentaar geven op lopende rechtszaken, streven we ernaar een zorgzame werkomgeving voor onze werknemers en aannemers te bevorderen. Ons veiligheidsteam werkt samen met externe bedrijven in het cruciale werk om het TikTok-platform en de gemeenschap te helpen beschermen, en we blijven een reeks welzijnsdiensten uitbreiden, zodat moderators zich mentaal en emotioneel gesteund voelen.”

TikTok bestraft moderators die hun werkschema niet respecteren en extreem gewelddadige inhoud niet detecteert voordat deze op het platform wordt gepubliceerd, en bestraft hen met het verlagen van percentages op hun maandsalarissen als ze niet voldoen aan hun dagelijkse controlequota voor geüploade video's.

Het bedrijf verdedigt zichzelf door te zeggen dat het probeert te zorgen voor de fysieke en mentale gezondheid van zijn werknemers, terwijl het erop vertrouwt dat hun werk buiten de ogen van de wereld blijft voor gewelddaden die door niemand mogen worden gezien, maar zoals in In het geval van Facebook zijn het de moderators die het meest onder dit proces lijden.