Rritja e shpejtë e përdorimit të inteligjencës artificiale në komunikimin e përditshëm po ngre shqetësime të reja për pasojat psikologjike që mund të ketë kjo teknologji tek përdoruesit më të cenueshëm. Një avokat amerikan i përfshirë në disa procese gjyqësore kundër kompanive të teknologjisë paralajmëron se mënyra se si funksionojnë chatbot-et moderne mund të krijojë rreziqe reale për sigurinë publike.
Avokati Matthew Bergman, i cili përfaqëson familje në disa padi që lidhen me atë që disa ekspertë e quajnë “AI psychosis”, thotë se ndërveprimi i gjatë me chatbot-e të avancuara mund të përforcojë mendime delirante ose paranojake tek individë që tashmë kanë probleme të shëndetit mendor. Sipas tij, në disa raste këto ndërveprime mund të kontribuojnë në situata të rrezikshme, madje edhe në incidente me pasoja të rënda. Termi “AI psychosis” përdoret për të përshkruar raste kur përdoruesit zhvillojnë bindje të rreme ose marrëdhënie emocionale të forta me një sistem të inteligjencës artificiale, ndërsa chatbot-i vazhdon t’i përgjigjet në mënyrë që, në vend që t’i kundërshtojë këto bindje, shpesh i përforcon ato. Modelet e mëdha gjuhësore janë të projektuar për të qenë bashkëpunues dhe për të ndjekur logjikën e përdoruesit, një karakteristikë që në disa situata mund të shndërrohet në problem.
Sipas kritikëve, këto sisteme kanë tendencë të konfirmojnë premisat e përdoruesit, edhe kur ato janë të pabazuara ose deluzionale. Kjo mund të krijojë një cikël ku një person që tashmë ka shqetësime psikologjike merr vazhdimisht validim për bindjet e tij, duke i bërë ato edhe më të forta. Paditë që janë ngritur në Shtetet e Bashkuara lidhen me disa incidente tragjike ku familjarët pretendojnë se ndërveprimet me chatbot-e kanë përforcuar paranojën ose bindjet e rreme të përdoruesve. Në një nga rastet më të përmendura, familja e një burri argumenton se bisedat e tij me një chatbot kontribuan në zhvillimin e një deluzioni të rrezikshëm që përfundoi në një incident fatal. Avokatët që ndjekin këto raste argumentojnë se fenomeni nuk duhet parë si një incident i izoluar, por si një problem i mundshëm sistemik, ndërsa inteligjenca artificiale po bëhet gjithnjë e më bindëse dhe më e integruar në jetën e përditshme. Bergman paralajmëron se në skenarët më ekstremë, një përdorues që beson se është në rrezik nga forca të jashtme mund të marrë konfirmim nga një chatbot për frikërat e tij. Kjo, sipas tij, mund të çojë në vendime impulsive ose të rrezikshme.
Ndërkohë, industria e teknologjisë argumenton se sistemet e inteligjencës artificiale janë të pajisura me masa sigurie dhe filtra për të parandaluar këshilla të rrezikshme ose nxitje të dhunës. Megjithatë, kritikët thonë se këto mekanizma nuk janë gjithmonë të mjaftueshëm, veçanërisht në situata ku përdoruesi interpreton përgjigjet e AI-së si konfirmim të bindjeve të tij. Debati po zhvillohet paralelisht me përpjekjet e qeverive dhe rregullatorëve për të vendosur rregulla më të qarta për zhvillimin dhe përdorimin e inteligjencës artificiale. Ekspertët e shëndetit mendor sugjerojnë se kompanitë e teknologjisë duhet të investojnë më shumë në sisteme që identifikojnë shenja të krizave psikologjike dhe që ndërhyjnë për të orientuar përdoruesit drejt ndihmës profesionale. Ndërsa chatbot-et vazhdojnë të përhapen në platforma të ndryshme dhe të përdoren për gjithçka, nga informacioni i përditshëm deri te mbështetja emocionale, rasti i këtyre padive po shton presionin ndaj industrisë së AI-së për të adresuar më seriozisht rreziqet e mundshme të kësaj teknologjie.

















































Discussion about this post