Pyetje – përgjigje midis Wall Street Journal dhe Facebook. Pas artikullit në gazetën njujorkeze, i cili nxjerr në pah besueshmërinë e dobët të inteligjencës artificiale në heqjen e përmbajtjeve të caktuara nga rrjeti social, kompania Menlo Park publikoi një postim për të komunikuar se gjuha e urrejtjes është ulur me 50% në tre tremujorët e fundit.
Wall Street Journal ka botuar një seri artikujsh, bazuar në dokumentet e siguruara nga ish -punonjësi Frances Haugen, të cilat demonstrojnë ritmin e ngadaltë me të cilin Facebook heq përmbajtjen e ndaluar. Sipas tyre në disa raste ka “nxitur” diskutime midis përdoruesve, pasi ka modifikuar në mënyrë specifike algoritmin e News Feed. Në këtë pikë erdhi mohimi i CEO Mark Zuckerberg.
Artikulli më i fundit i WSJ, i botuar dje, zbulon se Facebook ka rritur përdorimin e inteligjencës artificiale për të identifikuar përmbajtjen e ndaluar nga rregullat, të tilla si ato që nxisin urrejtje. Kjo zgjidhje doli të jetë joefektive, pasi postimet që gjenerojnë vetëm 3-5% të shikimeve të “gjuhës së urrejtjes” dhe 0.6% të të gjithë përmbajtjes që shkel rregullat janë eleminuar.
Facebook deklaroi se të dhënat e nxjerra nga dokumentet nuk përfaqësojnë në mënyrë adekuate punën e bërë për të kufizuar përhapjen e përmbajtjes së caktuar. Nga 10.000 shikime, vetëm 5 janë postime që nxisin urrejtje. Kompania Menlo Park gjithashtu thekson se jo vetëm përmbajtjet e fshira duhet të merren parasysh, por edhe ato që ndëshkohen (për shembull të fshehura në News Feed ose të sugjeruara). Pragu i heqjes është i lartë për të shmangur fshirjen e postimeve gabimisht.
Së fundi, Facebook pretendon se vetëm 23.6% e përmbajtjes së fshirë zbulohet automatikisht nga inteligjenca artificiale. Shumica (97%) raportohet nga vetë përdoruesit. Metrika më e rëndësishme quhet mbizotërim, që është përqindja e përmbajtjes e parë si e pazbuluar. Bazuar në të dhënat e publikuara, prevalenca ka rënë me 50% gjatë tre tremujorëve të fundit.
Discussion about this post