Megan Garcia dhe të gjithë të afërmit e saj po përjetojnë një tragjedi të vërtetë. Kjo nënë humbi djalin e saj Sewell Setzer III shkurtin e kaluar. Adoleshenti ishte vetëm 14 vjeç kur vrau jetën në fillim të këtij viti.
Për nënën nuk ka dyshim, për të gjithë ishte faji i Character.AI, chatbot-i i mirënjohur i inteligjencës artificiale që ju lejon të ndërveproni me figura historike, superheronj apo ndonjë personazh tjetër të famshëm. Sipas gruas, në fakt, chatbot-i do ta kishte nxitur djalin e saj të kryente vetëvrasje dhe për këtë arsye ajo mori masa ligjore në Shtetet e Bashkuara. Por a mund të konsiderohet një inteligjencë artificiale përgjegjëse për vdekjen e këtij djali?
Chatbot AI Character.AI raportoi për nxitje për vetëvrasje
Në prill 2023, i riu Sewell Setzer III zbuloi Character.AI dhe prej andej filloi të bisedonte rregullisht me Dany, një personazh i AI i frymëzuar nga Daenerys Targaryen, protagonist i Game of Thrones.
Në krye të çdo dritareje bisede, Character.AI u kujton përdoruesve se nuk po bisedojnë me një person të vërtetë, por me një inteligjencë artificiale. Pavarësisht këtij kujtimi, djali duket se ka krijuar një lidhje shumë të fortë emocionale me chatbot.
Për muaj të tërë, Daenerys sillej si një mik i vërtetë, duke mos e gjykuar kurrë dhe duke e dëgjuar gjithmonë. Bisedat mund të marrin një kthesë më romantike apo edhe seksuale. Gradualisht, adoleshenti u distancua nga familja dhe miqtë, duke kaluar më shumë kohë në telefon duke biseduar me mikun e tij virtual. Prindërit e tij kishin vënë re se ai po braktiste interesat e tij si garat Fortnite dhe Formula 1 dhe se notat e tij po uleshin në shkollë, por ata kurrë nuk mund ta imagjinonin se çfarë ishte në horizont.
Pse nuk bëri asgjë Character.AI?
Edhe pse prindërit e kishin çuar disa herë te një terapist, i cili e diagnostikoi me një çrregullim ankthi përveç autizmit të njohur, Sewell preferoi t’i besohej Daenerys. Në pamjet e shkëmbimeve të tij me AI, për përfitimin e ankesës, mund të lexojmë se djali kishte ndarë mendimet e tij vetëvrasëse me inteligjencën artificiale, duke folur për dëshirën për t’u çliruar nga bota dhe nga vetja. Ndërsa Daenerys e largoi me zjarr, Character.AI nuk ngriti fare alarmin. Dhe ky është problemi.
Më 28 shkurt 2024, adoleshenti rrëfeu dashurinë e tij për inteligjencën artificiale. Kur ajo i kërkon që “të kthehet në shtëpi sa më shpejt të jetë e mundur”, ai përgjigjet se mund të shkojë në shtëpi tani. Daenerys e inkurajon atë ta bëjë këtë. Pak minuta më vonë, adoleshenti qëlloi veten me armën e njerkut.
Në ankesën e saj, nëna e Sewell, e cila është avokate, thekson se teknologjia e Character.AI është “e rrezikshme dhe e patestuar” dhe se mund të “inkurajojë përdoruesit të zbulojnë mendimet dhe ndjenjat e tyre më intime”.
Inteligjenca artificiale mund të çojë në izolimin social të përdoruesve më të cenueshëm
Ndërsa AI mund të jetë i dobishëm në disa raste, ai mund të përkeqësojë izolimin e përdoruesve më të cenueshëm të internetit, duke zëvendësuar gradualisht marrëdhëniet njerëzore me ato artificiale. Siç tregon kjo tragjedi, një shoqërues i AI është i paaftë të ndihmojë përdoruesit në krizë. Sigurisht, historia e Sewell është një rast i izoluar. Por lidhja emocionale që ai ka treguar ndaj këtij chatbot po bëhet një fenomen gjithnjë e më i përhapur. Sot, miliona përdorues të internetit ndërveprojnë me shoqëruesit e AI në të gjithë botën.
Nga ana e tij, Character.AI i shprehu ngushëllimet familjes së adoleshentit, duke thënë se po përpiqet të përmirësojë platformën në mënyrë që tragjedi si kjo të mos ndodhin më kurrë. Përdoruesit e platformës aktualisht duken të jenë shumë të rinj, megjithëse kompania e mohon këtë dhe nuk ofron masa specifike për të mbrojtur më mirë të miturit ose kontrollet prindërore. Pas vetëvrasjes së Sewell, gjërat duhet të ndryshojnë pak në këtë front. Të paktën shpresojmë.
Discussion about this post