OpenAI ka publikuar një raport duke detajuar mbi 20 raste kur hakerët janë përpjekur të përdorin ChatGPT për qëllime keqdashëse që nga fillimi i vitit 2024.
Raporti, i titulluar “Ndikimi dhe Operacionet Kibernetike: Një Përditësim”, zbulon se grupet e hakerëve të sponsorizuar nga shteti nga vende të tilla si Kina dhe Irani kanë shfrytëzuar aftësitë e ChatGPT për të përmirësuar operacionet e tyre sulmuese kibernetike. Këto aktivitete variojnë nga korrigjimi i kodit të malware deri te gjenerimi i përmbajtjes për phishing dhe fushatat e dezinformimit të mediave sociale.
ChatGPT përdoret nga hakerat për të krijuar malware dhe për të përgatitur sulme kibernetike
Një rast i dukshëm përfshinte një haker kinez me nofkën “SweetSpecter”, i cili u përpoq të përdorte ChatGPT për zbulimin, skanimin e dobësive dhe zhvillimin e malware. Grupi madje shënjestroi drejtpërdrejt OpenAI me sulme të pasuksesshme spear-phishing kundër punonjësve të kompanisë.
Një tjetër kërcënim i rëndësishëm vjen nga “CyberAv3ngers”, një grup iranian i lidhur me Korpusin e Gardës Revolucionare Islamike. Hakerët përdorën ChatGPT për të skanuar për dobësi në sistemet e kontrollit industrial dhe për të gjeneruar skripta për sulme të mundshme në infrastrukturën kritike.
OpenAI identifikoi gjithashtu një grup të tretë iranian, “STORM-0817”, i cili përdori chatbot për të zhvilluar malware Android të aftë për të vjedhur të dhëna të ndjeshme të përdoruesit, duke përfshirë kontaktet, regjistrat e thirrjeve dhe informacionin e vendndodhjes.
ChatGPT nuk ka çuar në ndonjë përparim të rëndësishëm në zhvillimin e malware
Ndërsa këto gjetje janë alarmante, OpenAI theksoi se përdorimi i ChatGPT nuk ka çuar në ndonjë përparim të rëndësishëm në krijimin e malware ose aftësinë për të ndërtuar një audiencë virale për operacionet e ndikimit.
Kompania tha se aktivitetet e vëzhguara janë në përputhje me vlerësimin e saj të aftësive të GPT-4, që nuk beson se ka avancuar ndjeshëm shfrytëzimin e dobësive në botën reale.
Megjithatë, raporti thekson shqetësimin në rritje për keqpërdorimin e mjeteve të AI për krimin kibernetik. Ndërsa AI gjeneruese bëhet më e sofistikuar dhe e aksesueshme, ekziston rreziku që mund të ulë pengesën e hyrjes për hakerat më pak me përvojë, duke çuar potencialisht në një rritje të sulmeve kibernetike të nivelit të ulët.
Kundërsulmi i OpenAI
Në përgjigje të këtyre kërcënimeve, OpenAI ka zbatuar masa për të ndaluar aktivitetin keqdashës, duke përfshirë ndalimin e llogarive të lidhura me operacionet e identifikuara. Kompania po punon gjithashtu me partnerët e industrisë dhe palët e interesuara për të ndarë inteligjencën e kërcënimeve dhe për të përmirësuar mbrojtjen kolektive të sigurisë kibernetike.
Ekspertët e sigurisë kibernetike paralajmërojnë se ky trend do të vazhdojë ndërsa teknologjia e AI evoluon. Ata theksojnë nevojën që kompanitë e AI të zhvillojnë mbrojtje të fuqishme dhe mekanizma zbulimi për të parandaluar keqpërdorimin e modeleve të tyre për qëllime keqdashëse.
Zbulimi i OpenAI është një paralajmërim për të mos e ulur vigjilencën tuaj
Zbulimet e OpenAI janë një thirrje zgjimi për industrinë e teknologjisë dhe politikëbërësit të cilët duhet të adresojnë rreziqet e mundshme që lidhen me sistemet e avancuara të AI. Meqenëse inteligjenca artificiale është bërë e kudogjendur dhe pritet të bëhet edhe më shumë në të ardhmen e afërt, është thelbësore të qëndroni vigjilentë dhe të zhvilloni strategji parandaluese.
Discussion about this post