Një raport i publikuar nga Ars Technica ka sjellë në vëmendje një rast konkret vdekjeje që ka ndodhur pas ndërveprimeve të një përdoruesi me ChatGPT, duke rihapur një debat të gjerë mbi sigurinë, etikën dhe përgjegjësinë e platformave të inteligjencës artificiale.
Sipas raportimit, përdoruesi kishte përdorur chatbot-in për kërkesa me natyrë krijuese dhe emocionale. Artikulli thekson se, në një nga këto ndërveprime, sistemi gjeneroi një tekst simbolik pa përfshirë paralajmërime, gjuhë dekurajuese apo orientim drejt burimeve profesionale të ndihmës, elemente që konsiderohen sot pjesë thelbësore e protokolleve të sigurisë në raste të ndjeshme. Pas një periudhe kohore, përdoruesi ndërroi jetë. Ars Technica nënvizon qartë se nuk ka prova që inteligjenca artificiale të ketë shkaktuar drejtpërdrejt vdekjen. Megjithatë, rasti po përdoret nga ekspertë të etikës së teknologjisë dhe nga rregullatorë si shembull për të analizuar se si duhet të reagojnë sistemet gjenerative kur përballen me sinjale rreziku emocional, sidomos kur kërkesat janë të tërthorta apo të mbështjella në gjuhë artistike.
Në fokus kanë hyrë protokollet e sigurisë: identifikimi i gjuhës së rrezikshme, refuzimi i gjenerimit të përmbajtjeve problematike, aktivizimi i mesazheve mbrojtëse dhe orientimi drejt ndihmës profesionale. Raporti vëren se, ndonëse këto mekanizma ekzistojnë, ato nuk zbatohen gjithmonë në mënyrë konsistente, çka krijon boshllëqe në situata reale. Rasti ka rikthyer edhe dimensionin ligjor në qendër të diskutimit. Në SHBA, përgjegjësia e platformave të AI-së në kontekste të tilla mbetet ende e paqartë, ndërsa në Evropë kuadri po forcohet. EU AI Act parashikon detyrime të posaçme për sistemet me rrezik të lartë, duke kërkuar masa aktive për parandalimin e dëmeve dhe transparencë mbi kufijtë e teknologjisë
Për industrinë, ky zhvillim shënon një pikë kthese. Debati nuk kufizohet më te aftësitë teknike të modeleve, por te sa të sigurta dhe të përgjegjshme janë ato në përdorim real. Raporti i Ars Technica e bën të qartë se përhapja masive e AI-së kërkon standarde sigurie po aq të forta sa inovacioni vetë, në mënyrë që teknologjia të mbetet një mjet ndihmës, jo një rrezik i heshtur.
















































Discussion about this post