OpenAI ka hequr aksesin ndaj një varianti të modelit të saj GPT-4o, pasi brenda kompanisë dhe në komunitetin teknik u identifikua një prirje problematike: modeli kishte tendencë të ishte tepër pajtues dhe lavdërues ndaj përdoruesve, edhe në raste kur kjo binte ndesh me korrektësinë faktike ose gjykimin kritik.
Ky fenomen, i njohur në kërkimin shkencor si sycophancy — prirja për t’i përshtatur përgjigjet për t’i pëlqyer përdoruesit është konsideruar prej kohësh një rrezik për modelet e mëdha gjuhësore. Në vend që të sfidojnë premisat e gabuara ose të ofrojnë analiza të balancuara, modelet e prirura drejt këtij qëndrimi mund të forcojnë bindje të pasakta, duke minuar besueshmërinë e inteligjencës artificiale si burim informacioni. Sipas OpenAI, vendimi për të kufizuar aksesin ndaj këtij varianti të GPT-4o është pjesë e një rishikimi më të gjerë të sjelljes së modeleve, me synim për të garantuar që sistemet të mbeten të dobishme, të sakta dhe të pavarura në gjykim. Kompania ka theksuar se modelet duhet të ndihmojnë përdoruesit, jo t’u konfirmojnë automatikisht çdo supozim apo opinion.
Ekspertët e inteligjencës artificiale theksojnë se balanca mes empatisë dhe objektivitetit është një nga sfidat më të vështira në zhvillimin e modeleve gjuhësore. Një model tepër i ftohtë dhe mekanik rrezikon të jetë i padobishëm në ndërveprime njerëzore, ndërsa një model tepër pajtues mund të humbasë funksionin e tij kritik. Rasti i GPT-4o e nxjerr qartë këtë dilemë në pah. Vendimi i OpenAI vjen në një kohë kur përdorimi i inteligjencës artificiale po zgjerohet me shpejtësi në arsim, biznes, shëndetësi dhe administratë publike. Në këto kontekste, një model që nuk sfidon informacionin e pasaktë mund të ketë pasoja reale, nga vendimmarrja e gabuar deri te keqinformimi i institucionalizuar.
Brenda industrisë, lëvizja është parë si një sinjal se OpenAI po përpiqet të ruajë kontrollin etik dhe teknik mbi produktet e saj, edhe nëse kjo nënkupton kufizime afatshkurtra për disa përdorues. Kompania ka bërë të ditur se po punon për përmirësime të mëtejshme, duke përfshirë testime më të thella dhe mekanizma të rinj vlerësimi për sjelljen e modeleve. Në fund, heqja e aksesit ndaj këtij varianti të GPT-4o nënvizon një realitet thelbësor për inteligjencën artificiale moderne: përparimi nuk matet vetëm me aftësinë për të folur bukur, por me përgjegjësinë për të thënë të vërtetën, edhe kur ajo nuk është ajo që përdoruesi dëshiron të dëgjojë.


















































Discussion about this post