Studiuesit e JFrog gjetën mbi 100 modele të AI që fshihnin backdoor në Hugging Face. Kur përdoruesit (kryesisht zhvilluesit) përdorin modelin në kompjuterët e tyre, kodi i infektuar ekzekutohet dhe u lejon kriminelëve kibernetikë të kenë akses në distancë për të vjedhur të dhëna ose për të kryer fushata spiunazhi.
Ana negative e open source
Hugging Face është një kompani amerikane që ofron një platformë për ndarjen e mësimit të makinerive me burim të hapur, përpunimit të gjuhës natyrore dhe modeleve të inteligjencës artificiale, duke përfshirë modelet gjeneruese të AI. Mund ta quani një version të specializuar të GitHub. Nga kjo e fundit “trashëgoi” një nga problemet kryesore.
Hugging Face ka zbatuar disa masa që përfshijnë skanimin e skedarëve të ngarkuar për praninë e malware ose informacione të ndjeshme. Fatkeqësisht, platforma nuk garanton siguri absolute, siç tregohet nga zbulimi i studiuesve të JFrog.
Duke përdorur një sistem të avancuar skanimi, u identifikuan rreth 100 modele me kod të infektuar, shumica e të cilave janë modele PyTorch. Një nga më të fundit, hequr nga Hugging Face, fshehu një ngarkesë që ju lejon të hapni një reverse shell me një server të jashtëm. Në praktikë është një backdoor që lejon aksesin në kompjuterët e përdoruesve.
Siç u përmend, skedarët e shabllonit u fshinë, por JFrog gjeti raste të tjera të së njëjtës ngarkesë në një shabllon tjetër me adresa IP të ndryshme të serverit. Hugging Face nuk e ka hequr ende shabllonin, por ka shtuar një paralajmërim “të pasigurt”, duke treguar se ai nuk duhet të shkarkohet.
Discussion about this post