Shumë vende po përpiqen të rregullojnë inteligjencën artificiale gjeneruese në përpjekje për të bllokuar çdo abuzim të teknologjisë. Të njëjtat kompani, duke përfshirë OpenAI, Microsoft dhe Google, shtojnë filtra të ndryshëm për të shmangur përgjigjet e rrezikshme. Sidoqoftë, disa zhvillues duan modele të pacensuruara të AI në mënyrë që të kenë akses në mundësitë e plota krijuese të inteligjencës artificiale.
Large Language Model pa filtra
Modelet gjeneruese të AI janë trajnuar me sasi të mëdha të dhënash, por përpara se t’i bëjnë ato të aksesueshme për të gjithë (për shembull përmes ChatGPT) ka një “akordim të imët” me shembuj të përgjigjeve të përshtatshme, të dobishme dhe përkatëse. Kompania që zhvillon modelin ndjek rregulla specifike për të garantuar sigurinë. Rezultatet nuk duhet të përfshijnë informacione të rreme, përmbajtje “toksike” dhe sugjerime të rrezikshme, të tilla si mënyra për të marrë një ilaç.
Kur përdoruesi fut të dhëna për tema të ndaluara, chatbot refuzon të përgjigjet. Disa zhvillues besojnë se OpenAI, Meta, Google dhe kompani të tjera nuk duhet të vendosin se çfarë është e ndaluar. Për këtë arsye, u krijuan versione të modifikuara të modeleve ekzistuese pa filtra. Një nga LLM-të (Large Language Model) më të përdorura për këtë qëllim është Llama2 e Metës, pasi është me kod të hapur. Shumë modele të pacensuruara janë të disponueshme në Hugging Face.
Një model i AI është vetëm një mjet për të shmangur kërkimin e informacionit në internet. Nëse dikush dëshiron të ndërtojë një bombë, ai ende do të gjejë udhëzime në internet. Kjo është arsyeja pse disa zhvillues thonë se filtrat ju pengojnë të zhbllokoni potencialin e plotë të AI gjeneruese. Një studiues i OpenAI tha se modeli më i sigurt është ai që refuzon të kryejë asnjë detyrë, por nuk i shërben asnjë qëllimi.
Discussion about this post