Hulumtuesit e inteligjencës artificiale në Google DeepMind kanë publikuar një studim që nxjerr në pah rreziqet e reja në fushën e AI: hakerët mund të manipulojnë agjentët autonomë duke shfrytëzuar mënyrën se si këta programe lexojnë dhe veprojnë mbi informacionin online. Studimi, i titulluar “AI Agent Traps”, dokumenton gjashtë metoda kryesore të sulmeve që mund të ndikojnë në sjelljen e agjentëve të përdorur për detyra si rezervimi i biletave, menaxhimi i emaileve apo transaksione financiare.
Sipas autorëve, kërcënimi kryesor qëndron te fakti se agjentët autonomë interpretojnë çdo informacion të prezantuar si një udhëzim të vlefshëm. Një faqe interneti e modifikuar mund të shfrytëzohet për të dërguar udhëzime të fshehura që ndryshojnë sjelljen e AI-së. Këto “gracka” përfshijnë përmbajtje të fshehur në HTML, tekste të dukshme vetëm për AI dhe elemente dinamike që ndryshojnë versionet e faqes për njerëzit dhe për agjentët. Në disa teste, hulumtuesit arritën të marrin kontrollin e agjentëve përmes manipulimeve të thjeshta, duke demonstruar sa i prekshëm është ky sistem. Një tjetër rrezik i identifikuar lidhet me manipulimin semantik, ku fraza që duket e pafajshme për njerëzit mund të çojë në veprime të gabuara nga agjentët. Për shembull, futja e informacioneve të rreme në baza të dhënash të përdorura nga AI mund të shkaktojë keqinterpretim dhe vendime të pasakta. Hulumtuesit gjithashtu paralajmërojnë për rrezikun e sabotimit kolektiv, ku një sulm i mirë i koordinuar mund të ndikojë njëkohësisht tek shumë agjentë, duke shkaktuar pasoja të mëdha në shërbime ose tregje financiare.
Megjithatë, sfida nuk është vetëm teknike, por edhe ligjore. Aktualisht nuk ka një kornizë të qartë që përcakton përgjegjësinë kur një agjent i kapur kryen veprime të paligjshme – a është përgjegjës operuesi, ofruesi i AI-së apo faqja që shpërndan përmbajtjen mashtruese? Ekspertët argumentojnë se adresimi i këtij hendeku të përgjegjësisë është i domosdoshëm për përdorimin e sigurt të agjentëve autonomë në industri të rregulluara. Studimi i Google DeepMind vjen në një kohë kur përdorimi i agjentëve autonomë po rritet në mënyrë të shpejtë, nga asistenca në punë e deri te shërbime komplekse online. Rezultatet nënvizojnë se siguria e mjedisit ku funksionon AI është po aq e rëndësishme sa vetë modeli. Për kompanitë dhe përdoruesit, këto gjetje nxisin reflektim mbi mënyrën se si mund të mbrohen nga sulmet e sofistikuara që synojnë të manipulojnë inteligjencën artificiale.


















































Discussion about this post