Sipas shumë ekspertëve të industrisë, OpenAI nuk do të përputhet kurrë me ligjet aktuale të privatësisë, veçanërisht me GDPR (Rregullorja e Përgjithshme e Mbrojtjes së të Dhënave) në Evropë. Nuk është e mundur sepse modelet e AI të përdorura për ChatGPT janë trajnuar me të dhëna të mbledhura në internet. Garantuesi italian pret një përgjigje deri më 30 prill, por përmbushja e të gjitha kërkesave do të duket e pamundur.
OpenAI nuk mund të pajtohet me ligjin
Garantori i Privatësisë ka vendosur një bllokim në përpunimin e të dhënave në kompaninë amerikane. Deri në fund të muajit, OpenAI duhet të ndryshojë politikën e privatësisë për të treguar se mbledhja bëhet vetëm me pëlqimin e përdoruesve ose për interes të ligjshëm.
Nëse nuk arrin të bindë autoritetet, OpenAI mund të marrë një gjobë ose të ndalohet nga Italia. Gjithashtu duhet të detyrohet të fshijë të dhënat e mbledhura. Shumë ekspertë besojnë se është praktikisht e pamundur të plotësohen të gjitha kërkesat, pasi modelet e AI trajnohen me të dhëna të nxjerra nga interneti, përfshirë ato të postuara nga vetë përdoruesit.
Kompania amerikane shkruan në blogun zyrtar se heq informacionet personale aty ku është e mundur, perfeksionon modelet për të shmangur përdorimin e informacionit personal dhe u përgjigjet kërkesave të përdoruesve për të fshirë informacionin e tyre personal.
Sipas ekspertëve, OpenAI nuk mund të kërkojë pëlqim të qartë për të “rrëshqitur” të dhënat në internet, kështu që vetëm interesi legjitim mbetet si një opsion. Më pas ai do të duhet të bindë autoritetet kombëtare (dhe ndoshta Gjykatën e Drejtësisë së Bashkimit Evropian) se mbledhja e të dhënave pa leje është e nevojshme që ChatGPT të funksionojë.
Discussion about this post