Një përdorues i ChatGPT raportoi se chatbot i OpenAI po shfaqte biseda private dhe të parëndësishme, duke përfshirë biletat e mbështetjes së farmacive dhe copat e kodit me kredencialet e hyrjes për uebsajte të ndryshme. Lajmi është bërë i ditur nga Ars Technica, i cili ka marrë provat nga i njëjti përdorues.
Zbulimi i Chase Whiteside
Përdoruesi në fjalë quhet Chase Whiteside. Ai i tha Ars Technica se po përdorte ChatGPT për të kërkuar “emra të zgjuar për ngjyrat në një paletë”. Pasi u largua për një moment nga ekrani, ai u kthye për të gjetur disa biseda në anën e majtë të faqes që nuk i kishte nisur.
Midis tyre, njëra dukej se përmbante bileta mbështetëse nga një portal farmacie, me data që varionin nga viti 2020 deri në 2021, përpara se të lansohej ChatGPT. Një tjetër tregoi një pjesë të kodit PHP me kredencialet e hyrjes për një faqe interneti. Biseda të tjera ishin shkëmbime prezantimesh apo kërkesa për informacion.
Përgjigja e OpenAI
OpenAI reagoi ndaj lajmit duke pretenduar se bëhet fjalë për mashtrim dhe jo për keqfunksionim të ChatGPT. Një zëdhënës i kompanisë i tha Ars Technica se kredencialet e hyrjes në llogarinë e përdoruesit ishin komprometuar dhe se një haker përdori llogarinë për të nisur bisedat. Pra, nuk do të ishte ChatGPT që tregon historinë e një përdoruesi tjetër, por biseda që rezultojnë nga keqpërdorimi i asaj llogarie.
Problemi i të dhënave të trajnimit
Kjo nuk është hera e parë që ChatGPT akuzohet për zbulimin e të dhënave të ndjeshme ose private. Chatbot bazohet në një model të madh gjuhësor (LLM) që është trajnuar me sasi të mëdha të dhënash nga burime të ndryshme, duke përfshirë të dhëna mjekësore dhe informacione të tjera personale. Kjo çoi në një padi grupore kundër OpenAI, e cila u akuzua për përdorimin e këtyre të dhënave në mënyrë të fshehtë dhe të paligjshme.
ChatGPT ka shfaqur më parë dobësi që lejonin akses të paautorizuar në të dhënat e tij të trajnimit. Në mars 2023, OpenAI njohu një gabim ku chatbot u tregonte disa përdoruesve bisedat e përdoruesve të tjerë. Në dhjetor të të njëjtit vit, kompania lëshoi një patch për të zgjidhur një problem që ekspozonte të dhënat e përdoruesit ndaj palëve të treta të paautorizuara.
Më në fund, në fund të vitit 2023, studiuesit e Google zbuluan se përmes fjalë kyçe specifike, të quajtura “Sulmi”, ishte e mundur të mashtronin ChatGPT për të zbuluar pjesë të mëdha të të dhënave të tij të trajnimit, duke përfshirë informacione të ndjeshme ose private.
Rreziqet e privatësisë kur përdorni AI
Ky episod na kujton rëndësinë e sigurisë kur përdorni programe të bazuara në inteligjencë artificiale, si ChatGPT. Nuk mund të jemi kurrë të sigurt se çfarë mund të zbulojnë të dhënat tona ose kujt mund t’i tregojmë. Për këtë arsye, është më mirë të ndiqni shprehjen e vjetër: mos vendosni asgjë në ChatGPT, ose në ndonjë program tjetër, që nuk do të dëshironit ta shihnin një i huaj.
Discussion about this post