Tani është e kotë të fshihet se AI gjenerues është një mjet potencialisht i rrezikshëm. Që nga fillimi i vitit 2023, kur ChatGPT nisi bumin e inteligjencës artificiale, janë diskutuar rreziqet e kësaj teknologjie për popullatën. Kohët e fundit, konkretisht, ne kemi parë përdorime të mundshme keqdashëse të Google Bard, por modelet e tjera gjuhësore si Bing Chat dhe gjeneruesit e imazheve si Stable Diffusion mund të paraqesin gjithashtu rreziqe të rëndësishme.
Megjithatë, sipas IBM Cost of Data Breach, zgjidhjet dhe mjetet e gjenerimit të tekstit që mbështeten në mësimin e makinerive janë kërcënimi i vërtetë, pasi ato ulin shumë koston e sulmeve kibernetike.
Rrezik serioz për sigurinë kibernetike të AI
Siç është marrë nga kolegët e Corriere Comunicazioni, raporti i IBM Security është i qartë: kostoja mesatare për një shkelje të të dhënave po rritet dhe kostot e zbulimit po rriten gjithashtu, si në Itali ashtu edhe në pjesën tjetër të botës. Mesatarisht, duhen 235 ditë për të identifikuar dhe përmbajtur një kërcënim kibernetik, i cili mund të bëhet përmes inxhinierisë sociale, phishing, kredencialeve të vjedhura ose të komprometuara, vjedhjes së llogarive të korporatave ose personave të brendshëm me qëllim të keq.
Në të gjitha këto, AI mund të përdoret gjerësisht për të kryer ofensiva më të shpejta dhe më efektive. Koha e zbulimit të tyre është më e shpejtë dhe është pak më shumë se 100 ditë e vjetër, por kostot janë shumë më të ulëta. Në mënyrë të ngjashme, zgjidhjet e sigurisë të përmirësuara me AI gjithashtu kushtojnë shumë më pak. Megjithatë, pothuajse 38% e organizatave në Itali p.sh nuk e kanë integruar ende AI dhe automatizimin në sistemet e tyre të sigurisë kibernetike, dhe kjo çon në një hendek serioz midis cilësisë së ofensivës dhe mbrojtjes së sistemeve.
Ndalimi i AI për të parandaluar përdorimin e tij për qëllime keqdashëse tani është i pamundur. Prandaj, ekspertët do të duhet të fokusohen në zbatimin dhe integrimin e sistemeve të avancuara.
Discussion about this post