Apple duhej të prezantonte dy veçori me iOS 15 për të mbrojtur të miturit, por në fillim të shtatorit vendosi të ndryshojë mendje, pas kritikave nga avokatët e privatësisë.
Një ekip ekspertësh tani ka publikuar një studim që demonstron rreziqet e teknologjisë së skanimit nga ana e klientit.
Apple është përpjekur të shpjegojë se teknologjia e CSAM (Child Sexual Abuse Material) është e besueshme, pasi numri i pozitivëve të rremë është pothuajse zero. Kompania Cupertino gjithashtu theksoi se nuk do t’i sigurojë qasje asnjë qeverie. Një premtim i tillë është i vështirë të mbahet, pasi Apple tenton të respektojë ligjet në fuqi në vende të ndryshme (heqja e aplikacionit Navalny në Rusi është një shembull i fundit).
Në studimin e titulluar “Bugs in our Pockets: The Risks of Client-Side Scanning” theksohet rreziku i skanimit lokal, domethënë kërkimi në pajisje për përmbajtje të paligjshme (imazhe seksuale eksplicite, në rastin e Apple). Sipas ekspertëve të sigurisë, teknologjia e skanimit nga ana e klientit CSS (Client-Side Scanning) nuk është efektive në parandalimin e krimit dhe nuk parandalon mbikëqyrjen masive.
Abuzimi me teknologjinë do të kishte pasoja negative për sigurinë dhe privatësinë. Qeveritë mund t’ju kërkojnë të kërkoni lloje të tjera të imazheve para se të ngarkoni në iCloud. Apple mban të dhënat e përdoruesve kinezë në qendrat e të dhënave të kontrolluara nga qeveria lokale, kështu që Kina mund të bllokojë ngarkimin e imazheve që lidhen me masakrën e Tiananmen, përshembull.
Në praktikë, teknologjia CSS është zgjidhja e zgjedhur nga vendet për të lehtësuar hetimet përlloje të ndryshme të krimit, duke pasur parasysh pamundësinë për të hyrë në pajisjet e mbrojtura nga kriptimi. Autorët e studimit thanë se Bashkimi Evropian së shpejti do të shpallë një ligj të ri që do të autorizojë kërkimin e fotografive, videove dhe teksteve, jo vetëm për të hetuar abuzimin seksual, por edhe për të parandaluar sulmet terroriste.
Discussion about this post