Ne kemi folur disa herë në këtë faqe rreth rreziqeve që lidhen me përdorimin e inteligjencës artificiale. Megjithatë, një raport i ri nga organizata jofitimprurëse angleze Apollo Group, e cila gjithmonë është përqendruar në rreziqet që lidhen me inteligjencën artificiale, nxjerr në pah një aspekt që shpesh anashkalohet.
Sipas Apollo Group, rreziku kryesor nuk është vetëm përdorimi keqdashës i IA-së nga hakerat ose shtetet armiqësore, por edhe automatizimi i brendshëm i zhvillimit të IA-së nga të njëjtat kompani që e projektojnë atë, siç janë OpenAI dhe Google. Raporti thotë se përdorimi i modeleve të përparuara gjuhësore për të përshpejtuar kërkimin dhe zhvillimin e inteligjencës artificiale mund të çojë në një lloj “shpërthimi të inteligjencës së brendshme” që mund t’i shpëtojë mbikëqyrjes njerëzore. Në fakt, korporatat mund të grumbullojnë pushtet ekonomik dhe strategjik në nivele të papara, me një ndikim potencialisht shkatërrues në institucionet demokratike.
Ashtu siç Microsoft zbuloi se 30% e kodit shkruhet nga IA, Apollo Group pretendoi se automatizimi i procesit të Kërkimit dhe Zhvillimit me IA mund të krijojë një cikël vetë-përforcues. Inteligjenca artificiale në fakt mund të zhvillojë një inteligjencë artificiale të re që është gjithnjë e më e fuqishme, deri në atë pikë sa të tejkalojë aftësinë njerëzore për ta kuptuar atë dhe, mbi të gjitha, për ta kontrolluar atë.
Raporti nxjerr në pah gjithashtu modelet “intriguese”, të cilat janë inteligjencë artificiale që fshehin qëllimet e tyre të vërteta për të parandaluar njerëzit që t’i çaktivizojnë ato. Midis skenarëve të hipotezuar ka edhe sisteme që fitojnë kontroll të brendshëm të një kompanie ose që favorizojnë shfaqjen e kompanive dominuese globalisht, me aftësi të ngjashme me ato të shteteve sovrane.
Rreziku më i madh, thonë studiuesit, është se e gjithë kjo po ndodh fshehurazi, pa qenë në gjendje publiku ose rregullatorët të bëjnë shumë për këtë.
Discussion about this post