Projektligji aktualisht në diskutim, i quajtur Akti i AI-së, parashikon rregullim bazuar në nivelin e rrezikut. Parlamenti Evropian ka shtuar detyrime specifike për inteligjencën artificiale gjeneruese. Bazuar në dokumentet e parë nga Blomberg, ligjvënësit mund të konsiderojnë një qasje me tre nivele bazuar në fuqinë e modeleve të AI.
Rregullat e bazuara në fuqinë e modelit
Projektligji u prezantua më shumë se dy vjet më parë, kur ChatGPT ishte ende në zhvillim. Që nga lansimi zyrtar në fund të 2022, janë shpallur versione të përmirësuara të modelit të OpenAI dhe modeleve nga kompani të tjera, duke përfshirë Google, Meta dhe Microsoft. Prandaj, ligjvënësit evropianë duan të bëjnë ndryshimet e nevojshme në tekstin origjinal. Njëri prej tyre ka tre nivele rregullash.
Niveli i parë ka të bëjë me të gjitha modelet e mëdha të gjuhës (LLM). Zhvilluesit do të duhet të sigurojnë transparencë maksimale, duke dokumentuar modelin dhe procesin e tij të trajnimit përpara se të dalë në treg. Pas lançimit në treg, do të jetë e detyrueshme ofrimi i informacionit për kompanitë që përdorin modelin. Duhet të specifikohen gjithashtu masat e marra për të shmangur problemet e të drejtave të autorit dhe për të dalluar përmbajtjen e krijuar nga AI.
Priten rregulla më të rrepta për modelet më të fuqishme të AI (të identifikuara në bazë të fuqisë kompjuterike të nevojshme për trajnim). Para se të dalin në treg, këto modele do të duhet të ekzaminohen nga ekspertë të jashtëm nën mbikëqyrjen e Komisionit Evropian. Pas nisjes në treg, Komisioni do të kryejë kontrolle për të verifikuar respektimin e rregullave, përfshirë ato për transparencën.
Së fundi, niveli i tretë ka të bëjë me modelet e AI me qëllim të përgjithshëm (siç është ai i ChatGPT). Zhvilluesit do të duhet të kenë ekspertë të jashtëm që të shqyrtojnë modelet për dobësi. Do të jetë gjithashtu e detyrueshme të kryhet një vlerësim i rrezikut. Këto modele duhet të identifikohen bazuar në numrin e përdoruesve të biznesit dhe të konsumatorëve.
Discussion about this post