OpenAI sugjeron përdorimin e GPT-4 për moderimin e përmbajtjes. Ky aktivitet tashmë kryhet me mjete të automatizuara dhe ndërhyrje manuale. Sipas kompanisë kaliforniane, modeli i saj i AI përshpejton operacionin pasi mund të interpretojë shpejt ndryshimet në politikat e shërbimeve online. Megjithatë, kërkohet mbikëqyrja njerëzore për të zbuluar ndonjë paragjykim të padëshiruar.
GPT-4 deri në përmbajtje të moderuar
Të gjitha rrjetet kryesore sociale përdorin mësimin e makinerive për të verifikuar respektimin e rregullave nga përdoruesit. Por ata gjithashtu paguajnë (pak) mijëra moderatorë njerëzorë, të cilët janë të detyruar të shohin përmbajtje të të gjitha llojeve, duke përfshirë ato me dhunë ekstreme dhe abuzimin e fëmijëve. Kjo ka pasoja traumatike për shëndetin e tyre mendor.
OpenAI shpjegon se përdorimi i GPT-4 kufizon ndërhyrjen njerëzore dhe përshpejton identifikimin e përmbajtjes së ndaluar sipas rregullave aktuale (të cilat ndryshojnë shpesh). Hapi i parë është të trajnoni modelin e AI me disa shembuj moderim (duke treguar se çfarë lejohet dhe çfarë jo). GPT-4 më pas lexon politikën dhe cakton etiketa për përmbajtjen. Ekspertët njerëzorë gjithashtu mund të rregullojnë çdo gjykim të gabuar dhe të korrigjojnë vetë politikën për një kuptim më të madh.
OpenAI rendit tre përfitime të përdorimit të GPT-4. Moderatorët njerëzorë mund t’i interpretojnë dhe zbatojnë rregullat ndryshe. Gjykimi i modelit të AI është megjithatë i njëjtë. GPT-4 gjithashtu mund të përshpejtojë zhvillimin e një politike të re (disa orë në vend të javëve ose muajve). Së fundi, modeli i AI shmang shikimin e përmbajtjeve ekstreme në dobi të shëndetit mendor të moderatorëve njerëzorë.
Kompania kaliforniane gjithashtu thekson kufizimet. Ashtu si me bisedat ChatGPT, gjykimet e modelit të AI mund të jenë të gabuara. Prandaj kërkohet mbikëqyrja njerëzore për të vërtetuar rezultatet. Moderimi është një problem i vështirë për t’u zgjidhur edhe me inteligjencën artificiale.
Discussion about this post