Gjatë muajve të fundit, ne ju kemi shpjeguar se si funksionon Akti i AI i Bashkimit Evropian, legjislacioni i BE-së për Inteligjencën Artificiale. Tani, megjithatë, vetë institucionet evropiane po bëjnë një hap më tej përpara, duke publikuar një draft të parë të Kodit të Sjelljes për Inteligjencën Artificiale të Përgjithshme (AGI).
Dokumenti u publikua nga Komisioni Evropian të enjten më 14 nëntor dhe është hapi i parë drejt një Kodi të Sjelljes që do të miratohet në nivel komuniteti për rregullimin e modeleve GPAI, ose Inteligjencës Artificiale të Përgjithshme, të cilat aktualisht janë ende në fazën e zhvillimit. Zhvillimi në kompanitë kryesore të sektorit. Prandaj, Brukseli duket se synon të mos kapet i papërgatitur: udhëzimet e tij do të jenë gati deri në maj 2025, përpara (shpresojmë) ardhjen e modeleve të para AGI në treg.
Sipas TechCrunch, drafti i publikuar ditët e fundit është një plotësim i Aktit të AI të BE-së, i cili ka hyrë në fuqi më 1 gusht, por që ende paraqet disa zona gri, veçanërisht në fushën e AI të përgjithshme. Prandaj, ideja e ligjvënësve është të qartësojnë pritshmëritë e tyre në temën e modeleve më të avancuara të AI, duke u dhënë në të njëjtën kohë kompanive që po zhvillojnë mundësinë që të japin feedback tek institucionet evropiane për përmirësimin e masës.
Në terma teorikë, ekspertët përcaktojnë Inteligjenca e Përgjithshme Artificiale (ose AGI) si çdo model i trajnuar i AI me një fuqi totale llogaritëse të barabartë ose më të madhe se 10^25 FLOP. Për momentin, kompanitë që prodhojnë modele të AI të këtij lloji janë OpenAI, Google, Meta, Anthropic dhe Mistral. Ashtu si me modelet e AI të rregulluara me Aktin e AI, ato të përgjithshme do të duhet gjithashtu të garantojnë nivele minimale të transparencës, respektimit të së drejtës së autorit, menaxhimit të rrezikut dhe zbutjes së rrezikut teknik.
Midis udhëzimeve të kodit të ri të sjelljes, për shembull, ekziston një kërkesë për kompanitë që punojnë me AI për të ofruar të dhëna në zvarritësit e tyre të internetit – softueri i përdorur për të tërhequr të dhënat që i jepen Inteligjencës Artificiale – por edhe atë të zbatimit masat për të parandaluar sulmet kibernetike që synojnë AI-n e saj dhe madje edhe mundësinë e humbjes së kontrollit njerëzor mbi këtë të fundit.
Discussion about this post