Google DeepMind njoftoi Kuadrin e Sigurisë Kufitare, një grup protokollesh që duhen ndjekur për të identifikuar aftësitë e ardhshme të AI që mund të shkaktojnë dëm dhe për të zbatuar masat e nevojshme zbutëse. Korniza do të përditësohet bazuar në evolucionin e teknologjisë dhe do të aplikohet duke filluar nga fillimi i vitit 2025.
Si të zbuloni dhe zbutni rreziqet
Tashmë është e qartë se modelet e inteligjencës artificiale (gjenerative dhe të tjera) do të përdoren gjithnjë e më shumë në sektorë të ndryshëm për të zgjidhur probleme komplekse, si studimi i ndryshimeve klimatike dhe zbulimi i barnave të reja. Megjithatë, së bashku me aftësitë e tyre rriten edhe rreziqet. Sot është tashmë e mundur të shfrytëzohet teknologjia e AI për aktivitete të rrezikshme, përfshirë sulmet kibernetike.
Korniza e Sigurisë Kufitare u prezantua për të identifikuar rreziqet që lindin nga zhvillimi i modeleve të ardhshme të AI. Ai përbëhet nga tre komponentë kryesorë. E para përfshin klasifikimin e modeleve bazuar në nivelet kritike të aftësive, duke marrë parasysh katër fusha: autonominë, biosigurinë, sigurinë kibernetike dhe kërkimin dhe zhvillimin e mësimit të makinerive.
Gjatë fazës së zhvillimit dhe përditësimit pasues, Google DeepMind do të kryejë vlerësime të shpeshta për të zbuluar nëse një model është afër arritjes së një niveli kritik të aftësisë. Bazuar në rezultatet, do të merren masa për të minimizuar rreziqet, kryesisht ato që lidhen me sigurinë (eksfiltrimi i modelit) dhe vendosjen (abuzimin me kapacitetet).
Nëse modeli tejkalon nivelin kritik të aftësisë, përpara se të zbatohen masat zbutëse, Google DeepMind do të pezullojë zhvillimin dhe vendosjen derisa të merren masa të tjera parandaluese. Të gjitha detajet mund të lexohen në dokumentin zyrtar (PDF).
Discussion about this post