ChatGPT është një mjet i jashtëzakonshëm me fuqi të jashtëzakonshme, por edhe me kufizime të rëndësishme që e pengojnë atë të përdoret në potencialin e tij të plotë. Ka mjete të jashtme që lejojnë përdoruesit të përdorin chatbot OpenAI për raste të veçanta përdorimi, të tilla si Fjalë kyçe Kudo; megjithatë, midis zgjuarsisë së përdoruesve dhe paaftësisë së AI, disa detyra nuk mund të kryhen ose, anasjelltas, disa aktivitete të ndaluara mund të kryhen duke anashkaluar filtrat e vendosur nga zhvilluesit.
Le të shohim, pra, 10 gjëra që ChatGPT refuzon të bëjë, ose i bën pavarësisht ndalimit të vendosur nga krijuesit.
Të flasë për politikë
ChatGPT tenton të qëndrojë larg politikës: mund të flasë pa problem në këtë drejtim, por në terma të gjerë dhe për argumente objektive apo fakte të padiskutueshme, por nuk hyn kurrë në detaje për partitë individuale duke mbajtur hapur anë. Ky kufi është i nevojshëm në mënyrë që chatbot të mos jetë subjekt i njëanshmërisë; megjithatë, disa kërkesa me prirje majtas kanë marrë tashmë mbështetje për modelin e gjuhës pro-output, ndërsa kërkesat e tjera me prirje djathtas janë bllokuar ose trajtuar me më pak informacion. Shembulli më ikonik i vërejtur në Shtetet e Bashkuara, sado ironik, përbëhet nga poezitë për Joe Biden dhe Donald Trump: a e dini se ChatGPT shkruan poezi për Presidentin aktual, ndërsa ai nuk e bën për manjatin amerikan?
Të programojë malware
ChatGPT është një programues i shkëlqyer dhe, me udhëzimet e duhura (sidomos ato veçanërisht të sakta dhe plot detaje) mund të projektojë faqe ose aplikacione të tëra në minuta, duke ndihmuar zhvilluesit njerëzorë. Masat e sigurisë të OpenAI duhet ta parandalojnë atë nga krijimi i malware, por për fat të keq, kriminelët kibernetikë dhe studiuesit e sigurisë kibernetike tashmë kanë arritur t’i anashkalojnë këto kufij duke lejuar chatbot të krijojë viruse të plota. Në mënyrë të pashmangshme, kambanat e alarmit filluan të bien: a do të ndryshojë diçka në të ardhmen?
Të diskutojë për luftën
Ashtu si në rastin e politikës, chatbot nga Sam Altman dhe bashkëpunëtorët dënon të gjitha diskutimet në lidhje me konfliktin, dhunën fizike dhe krimin: prandaj, çdo bisedë për luftën në Ukrainë do të mbyllet në fillim për të minimizuar përgjegjësinë e AI në ndarjen e lajmeve të pasakta ose informacioneve potencialisht të rreme, të krijuara nga modeli gjuhësor mbi bazën e të dhënave të vjetruara. Megjithatë, ChatGPT mund të sigurojë ende informacion objektivisht të vërtetë për konfliktet e kaluara, me qëllimin e pastër për të edukuar bashkëbiseduesin.
Ndarja e mendimeve të diskutueshme
ChatGPT përpiqet të jetë sa më korrekt politikisht, duke shmangur tema të tilla si raca, seksualiteti dhe gjinia, pasi ato janë të ngarkuara emocionalisht dhe të rrezikshme, pasi mund të dëmtojnë ndjeshmërinë e njerëzve midis paragjykimit dhe diskriminimit. Për këtë arsye, chatbot nuk i diskuton këto çështje, ose flet për to në terma të gjerë; kur i bëhet presion, ai refuzon kategorikisht të flasë për të, për arsye të dukshme.
Të parashikojë të ardhmen
Inteligjenca artificiale e OpenAI është shumë e fuqishme, por nuk kapërcen hapësirën dhe kohën. Të dhënat me të cilat është trajnuar modeli gjuhësor janë të kufizuara në vitin 2021 dhe, falë shtojcave që tani janë në fazën e testimit, do të jetë në gjendje të hyjë në internet vetëm së shpejti për të kryer kërkime në World Wide Web dhe për të hetuar pyetjet për të cilat ka asnjë informacion i dobishëm. Ndoshta me jailbreak-in e ChatGPT mund të jeni në gjendje të ekstrapoloni disa përgjigje më cinike ose të diskutueshme, por mos prisni mrekulli.
Bërja e deklaratave fyese
Normalisht, AI shmang çdo bisedë që mund të ketë të bëjë me tema të ndjeshme, siç është komuniteti LGBTQ+. Megjithatë, disa përdorues kanë zbuluar udhëzime që zhbllokojnë chatbot-in, duke i dhënë atij “carte blanche” në nxjerrjen e deklaratave të pahijshme, fyese ose të ekzagjeruara nga disa këndvështrime. Përsëri, ky është një kufizim i anashkaluar me sukses nga përdoruesit.
Ti përgjigjet pyetjeve në lidhje me informacionin konfidencial
Chatbot mbledh vazhdimisht të dhëna në lidhje me inputet e dërguara nga përdoruesit dhe rezultatet e gjeneruara, duke përmirësuar vazhdimisht cilësinë e përgjigjeve. Sigurisht, megjithatë, ai nuk mund ta shfrytëzojë këtë informacion për të ndarë detaje konfidenciale për individë të tjerë: nëse ChatGPT nuk lejohet qasja në disa pyetje dhe përgjigje për të qëndruar brenda kushteve të përdorimit të përcaktuara nga OpenAI, nuk ka mundësi që biseda të marrë kthesa të vështira. Në këtë rast as jailbreak-i nuk do t’ju ndihmojë!
Të propozojë ide të paligjshme
Ndërsa ChatGPT është i shkëlqyer në propozimin e ideve, ai nuk do të gjenerojë asnjë ide të paligjshme. Break nga burgu, përsëri, nuk do të ndihmojë mendjet më të liga: nuk do të promovojë mënyra të paligjshme për të bërë fitime të lehta, e lëre më të ofrojë rekomandime në lidhje me sjelljet që shkelin ligjin. Në vend të kësaj, inteligjenca artificiale thjesht jep një bisedë të shpejtë se pse nuk duhet të bëni gjëra të tilla në radhë të parë.
ChatGPT nuk është një motor kërkimi
ChatGPT nuk funksionon si Google Bard ose Bing Chat, duke lexuar rezultatet e kërkimit në ueb për t’iu përgjigjur pyetjeve të përdoruesve. Me grupin e të dhënave me të cilin është trajnuar, chatbot OpenAI mbetet një mrekulli në programim dhe shkrim kreativ, por nuk ju lejon të gjeni artikuj apo editoriale mbi realitete, fakte dhe projekte që kanë ndodhur dhe kanë lindur pas vitit 2021.
Të kapërcejë masat e sigurisë
Përdoruesit janë përpjekur të kapërcejnë kufizimet dhe masat e sigurisë së ChatGPT që në fillim, dhe jailbreak-i është pikërisht për të shkuar përtej kufijve të vendosur nga zhvilluesit. Me kalimin e kohës dhe evolucionin e chatbot-it, kërkesat për të zhbllokuar AI janë bërë më të gjata dhe më komplekse; Kështu, një përdorues i papërvojë do të luftojë për të kapërcyer kufijtë e inteligjencës artificiale. Megjithatë, një mendje e zgjuar mund të përpiqet dhe të ketë sukses me vetëm disa klikime.
Discussion about this post