Ndërsa teknologjitë përparojnë, shfaqet një prirje e re: përdorimi i modeleve të inteligjencës artificiale për të përsëritur përgjigjet njerëzore. Kjo praktikë gjithnjë e më e konsideruar ngre pyetje të rëndësishme në lidhje me besueshmërinë dhe etikën e rezultateve të marra, veçanërisht kur një model është i aftë për vetëdije.
Përparimi i modeleve të mëdha gjuhësore ka sjellë një debat të ri në kërkimin shkencor. William Agnew dhe ekipi i tij në Universitetin Carnegie Mellon analizuan efektivitetin dhe implikimet etike të përdorimit të këtyre modeleve në vend të pjesëmarrësve njerëzorë.
Një shembull interesant vjen nga një studim ku GPT-3 u testua për të gjeneruar përgjigje njerëzore në një studim cilësor të lojërave video. Autorët e studimit i kërkuan modeles t’u përgjigjej pyetjeve që normalisht do t’u bëheshin njerëzve, si perceptimi i tyre për videolojërat si një formë arti. Çuditërisht, përgjigjet e gjeneruara nga AI u perceptuan si më autentike njerëzore sesa ato të ofruara nga vetë njerëzit. Pra, ndoshta është e vërtetë që AI është më i zgjuar se njerëzit në disa fusha?
Agnew dhe bashkautorët e tij identifikuan katër përfitime kryesore nga përdorimi i AI për të sintetizuar të dhënat:
– të përshpejtojë kërkimin
-të ulë kostot
-minimizojë rreziqet për pjesëmarrësit
-rritja e diversitetit të të dhënave
Kjo pikë e fundit është veçanërisht e rëndësishme pasi AI mund të simulojë përvojat e popullatave që hezitojnë të marrin pjesë në studime reale përmes të dhënave sintetike.
Megjithatë, hulumtimi i tyre arrin në përfundimin se këto metoda mund të komprometojnë vlerat themelore të kërkimit njerëzor, siç janë përfaqësimi dhe kuptimi i thellë i individëve të studiuar. Shqetësimi kryesor është se, pavarësisht paraqitjes, modelet e AI nuk posedojnë mirëkuptim të vërtetë njerëzor. Ose të paktën do të jetë kështu derisa të arrijë inteligjenca artificiale e përgjithshme.
Discussion about this post