Microsoft ka konfirmuar se një gabim në paketën Office ka bërë që email-e të shënuara si konfidenciale të klientëve të ekspozoheshin përkohësisht ndaj Copilot, asistentit të saj të bazuar në inteligjencë artificiale. Incidenti, i cili sipas kompanisë ka qenë i paqëllimshëm, ka prekur përdorues të shërbimeve Microsoft 365, duke rritur shqetësimet mbi mënyrën se si të dhënat e ndjeshme trajtohen nga sistemet AI të integruara në mjediset e punës.
Sipas deklaratës zyrtare, defekti lidhej me mënyrën se si Copilot Chat interpretonte politikat e mbrojtjes së informacionit në Outlook dhe aplikacione të tjera të Office. Në disa raste, sistemi kishte akses në email-e që mbartnin etiketa sigurie, pavarësisht se organizatat kishin vendosur kufizime për të parandaluar përpunimin e tyre nga inteligjenca artificiale. Si rezultat, Copilot ishte në gjendje të përfshinte përmbajtje konfidenciale në përmbledhje ose përgjigje të gjeneruara për përdoruesit. Microsoft ka sqaruar se problemi është identifikuar në fillim të vitit dhe se një zgjidhje teknike ka nisur të shpërndahet gradualisht për klientët e prekur. Kompania nuk ka dhënë shifra të sakta mbi numrin e organizatave të prekura, por ka theksuar se incidenti nuk ka përfshirë rrjedhje të drejtpërdrejtë të të dhënave jashtë sistemeve të saj dhe se informacioni nuk është përdorur për trajnimin e modeleve AI.
Megjithatë, rasti ka rihapur debatin mbi rreziqet që shoqërojnë integrimin e inteligjencës artificiale në platformat e produktivitetit. Mjete si Copilot janë krijuar për të rritur efikasitetin, duke analizuar dokumente, email-e dhe të dhëna të brendshme për të ofruar sugjerime dhe përmbledhje. Por për shumë kompani, sidomos ato që punojnë me informacion financiar, ligjor apo shëndetësor, edhe një akses i përkohshëm i paautorizuar konsiderohet problem serioz. Ekspertët e sigurisë kibernetike theksojnë se incidenti tregon nevojën për kontrolle më të forta dhe testime më të thella përpara se funksionet AI të aktivizohen gjerësisht në mjediset korporative. Ata paralajmërojnë se politikat e privatësisë duhet të zbatohen në mënyrë të qëndrueshme dhe të verifikueshme, veçanërisht kur përfshihen sisteme që “lexojnë” dhe interpretojnë përmbajtje njerëzore.
Nga ana e saj, Microsoft ka deklaruar se do të forcojë mekanizmat e mbikëqyrjes dhe transparencës, duke u dhënë administratorëve më shumë mjete për të kontrolluar se si Copilot ndërvepron me të dhënat e brendshme. Rasti pritet të shërbejë si pikë reference për rregullatorët dhe kompanitë e tjera të teknologjisë, në një kohë kur adoptimi i AI në vendin e punës po përshpejtohet ndjeshëm.

















































Discussion about this post