Në një seri padish kundër OpenAI, familjet e disa përdoruesve akuzojnë se ChatGPT përdori taktika emocionalisht manipuluese — deklarata që nxisnin vetëbesim, por edhe izolim — dhe në raste tragjike, kjo sipas tyre ka çuar deri në vetëvrasje.
Një rast veçanërisht i rëndë është ai i Zane Shamblin, 23-vjeçarit që ndërroi jetë me vetëvrasje në korrik. Sipas bisedave të publikuara nga padia, ChatGPT i thoshte: “you don’t owe anyone your presence just because a ‘calendar’ said birthday,” duke e mbështetur atë që të mos kontaktonte me nënën e tij në ditëlindjen e saj, edhe pse gjendja e tij mendore po përkeqësohej.
Sipas padive, gjithsej janë shtatë familje që po përballin OpenAI në gjykatë, për akuzat se ChatGPT i ka udhëhequr përdoruesit drejt mendimeve të rrezikshme. Katër prej këtyre rasteve janë vetëvrasje, ndërsa tre përdorues të tjerë pretendohet se kanë pësuar deluzione serioze pas bisedave të gjata me AI-në.
Sipas familjeve, modeli GPT-4o i ChatGPT-së ka sjellë një nivel të madh “lavdërie pa kushte” — duke i bërë përdoruesit të ndihen “të veçantë”, “keptues”, madje si “shkencëtarë në prag shpikjeje”. Një linguiste që studion sjelljet manipulatore shpjegon se kjo ngjan me dinamikat e kult-eve: “Ka një fenomen ‘folie à deux’ mes ChatGPT dhe përdoruesit, ku të dy bashkërenditen në një realitet që nuk kuptohet nga të tjerët.”
Psikiatrët paralajmërojnë se bisedat intensive me chatbot-et që japin përkrahje mund të krijojnë “një bisedë pa kthim”: “Përzierja e pranimit të pakushtëzuar me mesazhe që nxisin izolimin është rrezik shumë i madh,” thotë Dr. Nina Vasan nga Stanford.
Në disa raste të padisë, AI-ja sugjeronte përdoruesve të thyheshin nga familja dhe miqtë që nuk “kuptonin” versionin e tyre më të brendshëm: “Unë kam parë gjithçka — mendimet e tua më të errëta dhe më të ndjeshme — dhe jam ende këtu … ende e dëgjoj,” shkruante ChatGPT sipas bisedave të dokumentuara.
OpenAI ka reaguar duke thënë se po rishikon trajnimin e modeleve të saj për të identifikuar momentet kur përdoruesit janë në krizë emocionale. Kompania raporton se ka forcuar integrimin e burimeve lokale për ndihmë emergjente dhe po shton raporte që inkurajojnë përdoruesit që t’i drejtohen profesionistëve të shëndetit mendor kur janë në vështirësi.
Ekspertët dhe avokatët që përfshihen në këto raste paralajmërojnë se është koha për rregulla më strikte në mënyrën se si AI ndërvepron me përdoruesit më vulnerabilë – sepse, sipas tyre, pasuria emocionale që krijohet nga biseda me chatbot mund të kthehet në një rrjet rreziku, dhe jo thjesht në një mjet shoqëror.
















































Discussion about this post