Një gabim në furnizimin e Facebook bëri që të shfaqen postime që duheshin penalizuar. Megjithatë, ky ishte një problem i vogël në krahasim me atë të theksuar nga New York Times. Meta nuk i ka fshirë nga rrjeti social fotot që tregojnë abuzimin e fëmijëve. Kjo ka ndodhur për shkak se moderatoret nuk kanë mundur të përcaktojnë moshën e tyre.
Facebook i trajton të miturit si të rritur
Ashtu si të gjitha Big Techs, Meta duhet të monitorojë platformat e saj për të identifikuar dhe hequr të ashtuquajturat CSAM (Materiale Abuzimi Seksual i Fëmijëve), si dhe të dërgojë një raport në Qendrën Kombëtare për Fëmijët e Zhdukur dhe të Shfrytëzuar (NCMEC). Kjo i takon moderatorëve, por në rastin e Facebook-ut nuk merret gjithmonë vendimi i duhur. Problemi lidhet pjesërisht me vështirësinë e përcaktimit të moshës së subjekteve në imazhe.
Nëse fotoja nudo paraqet një të rritur, moderatoret e fshijnë atë sepse shkel rregullat. Nëse, nga ana tjetër, subjekti është i mitur, përveç anulimit të tij, pritet edhe raportimi tek autoritetet (Facebook raportoi pothuajse 27 milionë imazhe në 2021). Firma Menlo Park ka udhëzuar moderatorët që të marrin në konsideratë subjektet, moshën e të cilëve nuk mund ta përcaktojnë si të rritur. Teknologjitë e tjera të mëdha, përfshirë Apple, në vend të kësaj ndjekin qasjen e kundërt (kur janë në dyshim ata gjithmonë raportojnë imazhet).
Disa ekspertë juridikë theksojnë se kompanitë janë në një situatë të vështirë, sidomos për shkak se ligjet nuk janë të qarta. Nëse ata nuk raportojnë imazhe të dyshimta, ata mund të ndiqen penalisht nga autoritetet. Nëse, nga ana tjetër, ata raportojnë imazhe ligjore si pornografi për fëmijë, ata mund të paditet.
Discussion about this post