Ai kishte folur tashmë për rreziqet që lidhen me zhvillimin e pakontrolluar të inteligjencës artificiale. Geoffrey Hinton, një nga ekspertët kryesorë në botë në këtë sektor, nënvizoi edhe një herë rreziqet për njerëzimin, duke mos ndarë optimizmin e kompanive që zhvillojnë modelet e AI, gjatë konferencës Collision në Toronto.
Një e ardhme alla Terminator?
Shumë kompani kanë investuar shumë burime ekonomike për të zhvilluar një inteligjencë artificiale të aftë për të zgjidhur çdo problem dhe për të thjeshtuar ekzekutimin e shumë aktiviteteve. Sipas Geoffrey Hinton, i cili ka vendosur të largohet nga Google për të folur lirshëm për rreziqet që paraqet teknologjia, askush nuk mund të thotë nëse “AI i mirë do të shfaqet mbi atë të keq”.
Rreziku nuk përfaqësohet vetëm nga përhapja e lajmeve të rreme ose të rreme. Këto janë pasoja të parëndësishme kur krahasohen me ato të imagjinuara nga shkencëtari. Hinton tha se do të jetë e vështirë të ndalohet industria ushtarake nga ndërtimi i “robotëve luftarakë”. Në thelb një skenar apokaliptik à la Terminator, siç hipotezohet nga vetë Hinton dhe ekspertë të tjerë në fund të majit.
Nëse inteligjenca artificiale bëhet më e zgjuar se njerëzit, ajo mund të vendosë të marrë kontrollin për të arritur qëllimet e saj, ashtu si Skynet. Hinton theksoi se rreziku është real, jo fantashkencë. Shkencëtari foli edhe për pasoja të tjera për shoqërinë, duke përfshirë humbjen e vendeve të punës dhe shfrytëzimin e teknologjisë nga klasa sunduese për të rritur fitimet e tyre. Të pasurit do të pasurohen dhe të varfërit do të varfërohen.
Ekspertët e tjerë që morën pjesë në konferencë ishin më optimistë se Hinton, por theksuan nevojën për të zhvilluar AI të sigurt, etike dhe gjithëpërfshirëse.
Discussion about this post