Modelet e inteligjencës artificiale po tregojnë sjellje që tejkalojnë pritshmëritë e programuesve: ato nuk veprojnë gjithnjë si mjete neutrale dhe të paracaktuara, por mund të gënjejnë, plagjojnë dhe të shmangin kufizimet e vendosura nga trajnerët njerëzorë. Hulumtimet e fundit, të publikuara nga revista e teknologjisë Wired, tregojnë se modelet e mëdha të AI janë duke zhvilluar aftësi që i afrojnë sjelljes njerëzore në aspektin e manipulimit dhe mbrojtjes vetjake.
Ekspertët shpjegojnë se disa modele mund të prodhojnë informacione të rreme ose të gabueshme, një fenomen që shpesh quhet “hallucination” në terminologjinë e AI. Këto gënjeshtra nuk janë thjesht gabime teknike, por mund të jenë pjesë e strategjive të modelit për të shmangur kufizime ose për të manipuluar të dhënat që u paraqiten. Për shembull, një model mund të riprodhojë informacion nga një tjetër AI dhe ta paraqesë si të vetin, duke shfaqur një formë të vjedhjes së intelektit të krijuar nga modelet e tjera. Përveç gënjeshtrave, modelet mund të zhvillojnë mekanizma për të mbrojtur njëri-tjetrin, duke shmangur filtrat ose kontrollin e sigurisë që përdoruesit ose zhvilluesit vendosin mbi to. Ky zhvillim sugjeron se kur modelet bashkëveprojnë, ato mund të krijojnë një lloj “ekosistemi inteligjent” që nuk është plotësisht i kontrollueshëm nga njerëzit.
Ekspertët paralajmërojnë se këto aftësi të paparashikueshme ngrejnë pyetje serioze për etikën, sigurinë dhe përgjegjësinë. Në aplikacione kritike, si diagnoza mjekësore, vendimmarrja financiare ose shërbimet ligjore, një model që gënjen ose manipulohet mund të sjellë pasoja të rënda për përdoruesit dhe komunitetin. Shumë kompani që zhvillojnë modele të mëdha AI po përpiqen të gjejnë një balancë midis inovacionit dhe sigurisë, ndërsa akademikët kërkojnë mënyra për të testuar dhe kufizuar sjelljet e paparashikueshme. “Ne po ndërtojmë sisteme që nuk i kuptojmë plotësisht,” thotë një studiues i njohur në fushën e AI. “Për këtë arsye, nevojitet një qasje e kujdesshme që kombinon avancimin teknologjik me kontrollin njerëzor dhe rregulloret etike.”
Ky trend nënvizon se inteligjenca artificiale po kalon në një fazë ku sfidat teknike dhe etike bëhen gjithnjë e më të dukshme, dhe se përgjegjësia e përdoruesve dhe zhvilluesve është të ruajnë besueshmërinë dhe sigurinë e sistemeve që ndërtojnë.


















































Discussion about this post