Një hulumtues i sigurisë ka zbuluar një dobësi të rrezikshme që mund të shfrytëzohet për të vjedhur të dhëna personale nga llogaritë Gmail të përdoruesve të lidhur me ChatGPT. Ky problem lind kur përdoruesit kanë aktivizuar lidhjen e automatizuar të Gmail dhe Google Calendar me ChatGPT, një mundësi të cilën OpenAI e ka prezantuar në gusht të vitit 2025.
Si funksionon sulmi?
Sulmi bazohet në një teknikë të njohur si *prompt injection* (injeksion i komandave të fshehta). Kur një përdorues merr një ftesë të rreme në Google Calendar që përmban komanda të fshehta, dhe më pas kërkon nga ChatGPT të kontrollojë kalendarin e tij, asistenti mund të ekzekutojë pa dashje këto komanda. Kjo mund të çojë në ekspozimin e informacionit të ndjeshëm nga Gmail-i i përdoruesit. Sipas hulumtuesit Eito Miyamura, gjithçka që nevojitet është “adresa e email-it të viktimës”.
Si mund të mbroheni?
Për të reduktuar rrezikun, përdoruesit mund të:
– Çaktivizojnë lidhjen automatike të Gmail dhe Google Calendar me ChatGPT në cilësimet e aplikacionit.
– Modifikojnë cilësimet e Google Calendar për të pranuar vetëm ftesa nga dërgues të njohur ose të miratuar manualisht.
– Fshijnë ngjarjet e refuzuara për të parandaluar që ato të shfaqen në kalendar.
Ky incident thekson nevojën për të qenë të kujdesshëm kur lidhen shërbime të jashtme me asistentët e inteligjencës artificiale. Është e rëndësishme të jemi të vetëdijshëm për rreziqet e mundshme dhe të marrim masa paraprake për të mbrojtur privatësinë tonë.
















































Discussion about this post