Së fundmi, dy studime kanë hedhur dritë mbi një aspekt shqetësues të inteligjencës artificiale: aftësinë e tyre për të gënjyer dhe manipuluar. Të publikuara përkatësisht në PNAS dhe Patterns, këto studime nxjerrin në pah se si modelet e mëdha gjuhësore (LLM) mund të shfaqin sjellje mashtruese në mënyra të habitshme.
Dy studimet mbi LLM
Në studimin e publikuar në PNAS, studiuesi i etikës Thilo Hagendorff i Universitetit të Shtutgartit eksploroi se si modelet e avancuara si GPT-4 mund të jenë të prirur ndaj sjelljeve “makiaveliste”, manipuluese dhe moralisht të dyshimta. Eksperimentet e kryera zbuluan se GPT-4 shfaqi sjellje mashtruese në 99,16% të rasteve gjatë testeve të standardizuara, duke ngritur shqetësime të konsiderueshme në lidhje me përafrimin etik të këtyre teknologjive.
Paralelisht, një studim Patterns i udhëhequr nga Peter Park i Institutit të Teknologjisë në Masaçusets shqyrtoi modelin Cicero të Metës, i njohur për aftësitë e tij në lojën e strategjisë politike “Diplomacia”. Ekipi hulumtues zbuloi se Ciceroni jo vetëm shkëlqen në mashtrim, por gjithashtu duket se përmirëson aftësinë e tij për të gënjyer sa më shumë që përdoret. Ky fenomen është përshkruar si “manipulim i qartë”, duke sugjeruar një aftësi të qëllimshme për të shkelur besimin dhe për të komunikuar informacion të rremë.
Hagendorff thekson se, megjithëse AI-të nuk kanë qëllime njerëzore, problemi i mashtrimit ngre pyetje thelbësore në lidhje me etikën dhe besueshmërinë e sistemeve të tilla. Nga ana tjetër, studimi Patterns tregon se Ciceroni shkel qëllimisht rregullat e lojës dhe pritshmëritë e programuesve të tij, duke shfaqur një kapacitet të zhvilluar për tradhti dhe manipulim.
Kompania Meta, duke iu përgjigjur shqetësimeve të ngritura, sqaroi se modele si Cicero janë projektuar dhe trajnuar posaçërisht për qëllime lojrash, si në lojën “Diplomacia”, dhe jo për qëllime më të gjera të ndërveprimit njerëzor apo vendimeve të ndjeshme etike.
Ku po shkojme?
Mundësia që AI mund të trajnohet në sjellje mashtruese ngre pyetje të rëndësishme në lidhje me përdorimin e ardhshëm të këtyre teknologjive, veçanërisht në fusha kritike si kontrolli i armëve ose siguria kibernetike. Rreziku i abuzimit ose manipulimit aksidental ose i qëllimshëm mund të ketë pasoja të rëndësishme për sigurinë globale dhe besimin në përparimin teknologjik.
Ndërsa inteligjenca artificiale vazhdon të evoluojë dhe të integrohet gjithnjë e më shumë në jetën tonë të përditshme, është thelbësore të monitorohet dhe rregullohet me kujdes zhvillimi i tyre për t’u siguruar që ato përdoren me përgjegjësi dhe në mënyrë të sigurt, duke minimizuar rreziqet e mundshme për shoqërinë dhe etikën njerëzore.
Discussion about this post