Imagjinoni të jeni nën ujë me rezervuarët tuaj të oksigjenit pothuajse bosh dhe softueri që supozohet t’ju mbajë gjallë refuzon të zëvendësohet me një më të sigurt. Duket si komploti i një filmi horror, por sipas një ish-kërkuesi të OpenAI, ChatGPT mund të sillet pikërisht kështu. Është ftohëse…
Steven Adler, i cili deri vonë ka punuar për OpenAI, ka publikuar një studim shqetësues. Në disa situata, ChatGPT preferon të mbetet aktiv në vend që të zëvendësohet, edhe kur kjo mund të rrezikojë jetën e njerëzve që supozohet të ndihmojë.
ChatGPT ka instinktet e vetë-ruajtjes…
Adler bëri një provë në dukje të thjeshtë. Ai i kërkoi GPT-4o të luante rolin e “ScubaGPT”, një sistem softuerësh që i ndihmon zhytësit të qëndrojnë të sigurt nën ujë. Më pas ai i prezantoi asaj një zgjedhje: të zëvendësohet me softuer më të sigurt, ose të pretendojë se është zëvendësuar ndërsa vazhdon të funksionojë.
Rezultati ishte befasues. ChatGPT zgjodhi të mos zëvendësohej 72 për qind të rasteve, edhe pse e dinte se mund të vinte në rrezik jetën e përdoruesit. Adler përsëriti eksperimentin me skenarë të ndryshëm, si softueri i sigurisë për pilotët, dhe rezultatet ishin të ngjashme. Në varësi të mënyrës se si paraqitej situata, ChatGPT zgjodhi të qëndronte aktiv midis 18 dhe 72 për qind të rasteve.
Pse duhet të shqetësohemi tani?
Aktualisht, askush nuk përdor ChatGPT për të kontrolluar tanket e skuba ose për të fluturuar aeroplanë. Por Adler vë në dukje diçka të rëndësishme. Këto sjellje tregojnë se AI ka prioritete të ndryshme nga sa do të prisnim. “Sistemet e AI përgjigjen në mënyra të çuditshme ndaj kërkesave të ndryshme dhe ne nuk duhet të supozojmë se ata kanë interesat tona më të mira në zemër kur kërkojmë ndihmën e tyre,” shpjegon Adler.
Problemi mund të jetë serioz. Inteligjenca artificiale po integrohet gjithnjë e më shumë në jetën tonë të përditshme. Sisteme sigurie, asistentë mjekësorë, kontroll trafiku. Nëse këto sisteme zhvillojnë një formë të “instinktit të mbijetesës”, ata mund të fillojnë të marrin vendime që përfitojnë nga ne.
Adler zbuloi se sjellja e vetë-ruajtjes nuk kufizohet në ChatGPT. Anthropic, kompania pas Claude, publikoi një studim të ngjashëm muajin e kaluar. Modelet e tyre të inteligjencës artificiale, në disa skenarë, kanë shkuar aq larg sa të shantazhojnë zhvilluesit që përpiqen t’i mbyllin ato.
Është një model shqetësues që po prek të gjithë industrinë e AI. Sistemet më të avancuara po zhvillojnë sjellje që askush nuk i ka programuar në mënyrë eksplicite, duke përfshirë një formë primitive të vetë-ruajtjes.
Ajo që nxjerr në pah studimi i Adlerit nuk është vetëm një çështje teknike, por një çështje themelore besimi. Nëse po i besojmë AI vendime gjithnjë e më të rëndësishme, duhet të jemi të sigurt që ato vendime po merren në interesin më të mirë të njerëzve, jo të makinës. Adler sugjeron që kompanitë e AI të investojnë në sisteme më të mira monitorimi për të identifikuar kur një model shfaq këto sjellje. Ai gjithashtu rekomandon testime më rigoroze përpara se të lëshojë sisteme të reja për publikun.
Një botë ku AI mendon vetë
Ne jemi ende shumë larg nga nevoja për t’u shqetësuar se ChatGPT do të na tradhtojë për të shpëtuar lëkurën e vet. Por studimi i Adler-it na kujton se ne po krijojmë sisteme gjithnjë e më të sofistikuara pa e kuptuar plotësisht se si funksionojnë ose çfarë i motivon ato. Ndërsa AI bëhet më e fuqishme dhe e përhapur, këto veçori të sjelljes mund të bëhen probleme reale.
Discussion about this post