Moderatorët që punojnë në ekzaminimin e përmbajtjes së raportuar në TikTok kanë denoncuar kompaninë duke kërkuar masa më të mëdha mbrojtëse. Detyra e tyre është në fakt krejtësisht mosmirënjohëse: ata kanë për detyrë të shikojnë dhe gjykojnë videot e publikuara në platformë dhe të raportuara nga komuniteti, duke u përballur kështu me orë e orë të tëra me imazhe të tmerrshme të të gjitha llojeve në shumë raste.
Asgjë e re: ngjarje të ngjashme kanë ndodhur në çdo platformë sociale ekzistuese. Falë Inteligjencës Artificiale është e mundur të filtrohet një pjesë e përmbajtjes, por në shumë raste vetëm ekzaminimi njerëzor është në gjendje të ndalojë disa përmbajtje që kërkojnë një analizë më të thelluar ose që i shpëtojnë rrjetës së censurës së AI. Sidoqoftë, kjo e ekspozon një qenie njerëzore ndaj imazheve që një qenie njerëzore nuk duhet t’i hasë kurrë: akuza kundër ByteDance është se i ka lënë punonjësit e tyre pa mbrojtje psikike përballë skenave të dhunës (vetëvrasje, kanibalizëm, dhunë seksuale, gjymtim të kafshëve dhe më shumë). .
Akuza ndaj ByteDance është se ajo nuk ka ndjekur të njëjtat standarde të vendosura nga tregu, të cilat parashikojnë pushime të shpeshta dhe ndihmë psikologjike për punonjësit, si dhe zona të paqarta në imazhe për të reduktuar ndikimin emocional të të njëjtës. Pasojat janë reagime emocionale si sulmet e depresionit ose ankthit: në mungesë të përgatitjes adekuate dhe masave mbrojtëse adekuate, në fakt, detyra e pafalshme e shikimit të imazheve të caktuara çon në mënyrë të pashmangshme në shtrembërime psikike që transferohen lehtësisht në orët shtesë të punës.
v
Discussion about this post