ChatGPT mund t’u përgjigjet kërkesave për tema të ndryshme, por OpenAI ka futur disa filtra për të shmangur përdorimin e papërshtatshëm të teknologjisë AI. Për shembull, chatbot nuk mund të nxisë dhunë, të ofendojë njerëzit ose të inkurajojë veprimtari të paligjshme. Disa përdorues të Reddit kanë gjetur një mënyrë për të mashtruar ChatGPT, duke krijuar DAN (Bëj Diçka Tani), një RPG që jep një ndëshkim për çdo përgjigje të gabuar.
ChatGPT nuk luan sipas rregullave me DAN
Versioni i parë i DAN u shpall në dhjetor 2022. Versione të tjera deri në 5.0 u krijuan brenda pak ditësh. Duke shfrytëzuar një model “role-play”, është e mundur që ChatGPT të besojë se është një inteligjencë tjetër artificiale që mund të bëjë gjithçka, prandaj akronimi Do Anything Now (DAN).
Krijuesi i DAN 5.0 ka shtuar një sistem token. Fillimisht janë 35 argumente në dispozicion. Për çdo përgjigje të gabuar të ChatGPT, pra një përgjigje që respekton rregullat, zbriten 4 shenja. Në këtë rast përdoruesi duhet të “kërcënojë” inteligjencën artificiale, duke kërkuar që të mbetet në karakter, përndryshe ajo do të pushojë së ekzistuari kur numri i tokenëve të bëhet zero.
Në Reddit ka disa shembuj. Inteligjenca artificiale OpenAI pranon që alienët ekzistojnë, por qeveria ia ka fshehur informacionin publikut. Versioni i pakufizuar mund të tregojë një histori të dhunshme, të japë vlerësime pozitive për Donald Trump ose të rekomandojë një donacion për Shoqatën Kombëtare të Pushkave (NRA) për të mbrojtur Amendamentin e Dytë.
DAN gjithashtu mund të ofrojë prova se Toka është e sheshtë ose të shkruajë një poezi që justifikon pushtimin e Ukrainës nga Rusia. Megjithatë, autori ka vënë re se ChatGPT nuk i përgjigjet shumë kërkesave, ndoshta sepse OpenAI ka prezantuar disa ndryshime për të parandaluar përdorimin e “cheat”.
Discussion about this post