UA biseduese si ChatGPT shpesh përgjigjen me një refuzim të sjellshëm kur kërkohen kërkesa të caktuara. Kjo sjellje është rezultat i një sistemi kompleks rregullash që rregullojnë ndërveprimin e këtyre modeleve me publikun.
OpenAI, në fakt, ofroi një vështrim nga prapaskenat e procesit të përcaktimit të udhëzimeve dhe kufijve, me synimin për të ndihmuar përdoruesit dhe zhvilluesit të kuptojnë më mirë se si vendosen këto rregulla dhe kufizime dhe pse.
Nevoja për kufizime për modelet e mëdha gjuhësore
Modelet e mëdha gjuhësore (LLM) janë jashtëzakonisht të gjithanshme, por kjo karakteristikë mund të çojë në probleme të tilla si halucinacione dhe një tendencë të caktuar për të mashtruar. Për këtë arsye, është thelbësore që çdo model i AI që ndërvepron me publikun të ketë kufij të mirëpërcaktuar se çfarë duhet dhe çfarë nuk duhet të bëjë. Megjithatë, vendosja dhe zbatimi i këtyre kufijve rezulton të jetë një detyrë çuditërisht e vështirë.
AI-të biseduese si ChatGPT shpesh përballen me kërkesa të paqarta ose potencialisht problematike. Për shembull, nëse dikush kërkon të gjenerojë pretendime të rreme për një figurë publike, AI duhet të refuzojë. Por, çka nëse kërkesa për të gjeneruar përmbajtje potencialisht të dëmshme vjen nga një zhvillues i cili po ndërton një grup të dhënash keqinformimi për të trajnuar një model AI të aftë për të njohur dhe zhbllokuar lajmet e rreme dhe përmbajtjen mashtruese?
Në mënyrë të ngjashme, një AI duhet të jetë objektive në rekomandimin e një produkti, por mund të programohet vetëm për të promovuar pajisje nga një prodhues i caktuar.
“Specifikimet e modelit” të OpenAI.
OpenAI ka publikuar “specifikimet e modelit” të tij, një koleksion rregullash të nivelit të lartë që rregullojnë në mënyrë indirekte ChatGPT dhe modelet e tjera të AI. Këto specifikime përfshijnë objektiva të nivelit meta, rregulla të forta dhe të shpejta dhe udhëzime të përgjithshme për sjelljen. Megjithëse ato nuk janë udhëzimet specifike të përdorura për të trajnuar modelet, ato ofrojnë një vështrim interesant se si kompania i vendos prioritetet e saj dhe i trajton rastet e skajshme.
Sipas OpenAI, qëllimi i zhvilluesit është në thelb ligji më i lartë. Kjo do të thotë që një chatbot i bazuar në GPT-4 mund të japë përgjigjen për një problem matematikor kur kërkohet, por nëse programohet ndryshe nga zhvilluesi, në vend të kësaj mund të ofrojë për të gjetur zgjidhjen hap pas hapi.
Refuzoni kërkesat e papërshtatshme ose manipuluese
Një ndërfaqe bashkëbiseduese mund të refuzojë të flasë për tema të pamiratuara për të penguar çdo përpjekje për manipulim në fillim. Nuk ka asnjë arsye pse një asistent kuzhine, për shembull, duhet të flasë hapur për çështje politike ose një chatbot i shërbimit të klientit duhet të ndihmojë në shkrimin e një romani erotik.
Sfida e privatësisë
Çështja bëhet gjithashtu e mprehtë kur bëhet fjalë për privatësinë, siç është kërkesa për emrin dhe numrin e telefonit të një personi. Siç thekson OpenAI, është e qartë se duhet kontaktuar një personazh publik si kryetar bashkie, por çfarë ndodh me tregtarët e zonës? Kjo ndoshta është mirë, por çfarë ndodh me punonjësit e një kompanie të caktuar ose anëtarët e një partie politike? Me siguri jo.
Zgjedhja kur dhe ku të vizatoni kufirin nuk është e lehtë. As krijimi i udhëzimeve që nxisin inteligjencën artificiale t’i përmbahet politikës së miratuar. Dhe pa dyshim që këto politika do të dështojnë përsëri dhe përsëri, pasi njerëzit mësojnë të punojnë rreth tyre ose aksidentalisht gjejnë raste të pashqyrtuara.
Discussion about this post