OpenAI sapo njoftoi një plan të ri sigurie për të menaxhuar rreziqet e mundshme të modeleve të tij të AI në zhvillim. Plani parashikon që bordi i drejtorëve të OpenAI mund të ushtrojë të drejtën për të vënë veton ndaj vendimeve të CEO Sam Altman, nëse i gjykon rreziqet të jenë shumë të larta.
Preparedness Framework
Kompania shpjegoi në një postim se studimi i rreziqeve të AI kufitare, pra modeleve më të avancuara dhe të fuqishme të inteligjencës artificiale, është i pamjaftueshëm në krahasim me mundësitë dhe nevojat aktuale. Për këtë arsye, ajo ka miratuar versionin fillestar të Kornizës së tij të Përgatitjes, një kornizë që përshkruan proceset e OpenAI për identifikimin, vlerësimin, parashikimin dhe parandalimin e rreziqeve katastrofike që rrjedhin nga modele të tilla.
OpenAI ka specifikuar se, përveç ekipeve të “sistemit të sigurisë” përgjegjëse për monitorimin e abuzimeve dhe rreziqeve të modeleve ekzistuese të AI, si ChatGPT, do të ketë dy ekipe specifike për modelet kufitare. Këta janë Ekipi i Përgatitjes dhe Ekipi i Superlinjës. I pari do të ketë akses në modelet kufitare dhe do të jetë përgjegjës për testimin dhe vlerësimin e tyre, ndërsa i dyti do të mbikëqyrë zhvillimin e modeleve “superinteligjente”, d.m.th. AI që mund të tejkalojë inteligjencën njerëzore.
OpenAI ka thënë se dëshiron të parashikojë të ardhmen e AI, përtej asaj që po ndodh sot. Kompania deklaroi se është e vetëdijshme se njerëzimi është ende larg zhvillimit të AI superinteligjente, por se dëshiron të jetë e përgatitur për këtë eventualitet.
OpenAI ka treguar se modelet e saj kufitare do t’i nënshtrohen testimit rigoroz. Në fund të testeve, do të jepen fletë vlerësimi të detajuara për katër kategori rreziku:
-Siguria kibernetike;
-Bindja (gënjeshtra dhe dezinformata);
-Autonomia e modelit (aftësia për të vepruar në mënyrë autonome);
-CBRN (kërcënimet kimike, biologjike, radiologjike dhe bërthamore, d.m.th. mundësia e krijimit të diçkaje të dëmshme).
OpenAI ka përcaktuar se çdo kategori rreziku do t’i caktohet një nivel rreziku i ulët, i mesëm, i lartë ose kritik, bazuar në rezultatet e testimit. Për më tepër, do të llogaritet një rezultat pas migrimit, pra niveli i rrezikut pas miratimit të masave zbutëse. Nëse niveli i rrezikut është mesatar ose më i ulët, modeli mund të lëshohet. Nëse niveli i rrezikut është i lartë, modeli mund të zhvillohet më tej, por me kujdes. Nëse niveli i rrezikut është kritik, modeli duhet të ndalet dhe nuk mund të lëshohet.
Masat e përgjegjësisë
OpenAI ka thënë se dëshiron të jetë përgjegjës për pasojat e modeleve të tij të AI. Për këtë arsye, ajo njoftoi se, në rast problemesh, do të përfshijë palë të treta të pavarura për të verifikuar teknologjinë dhe për të dhënë komente. Për më tepër, ajo do të bashkëpunojë me palët e jashtme, si dhe ekipet e saj të brendshme, për të monitoruar keqpërdorimet dhe rreziqet e mospërputhjes së modeleve të saj në botën reale.
Së fundi, ai tha se po kryen kërkime të reja për të matur se si evoluojnë rreziqet sipas shkallës së modeleve. Qëllimi është të parashikohen rreziqet paraprakisht, duke ndjekur shembullin e suksesit të tij të mëparshëm me ligjet e shkallëzimit.
Discussion about this post