OpenAI prezantoi së fundmi Sora, sistemin e tij të ri të AI, i aftë për të transformuar përshkrimet tekstuale në video. Kjo është një teknologji revolucionare, pas suksesit të ChatGPT. Modeli Text-to-video mund të ketë një ndikim të madh në botën e medias, komunikimit dhe informacionit, veçanërisht në një vit si viti 2024, ku priten shumë zgjedhje në disa vende.
Megjithatë, Sora mund të përdoret gjithashtu për të krijuar “deepfake”, të cilat janë video të rreme që tregojnë njerëzit duke bërë ose thënë gjëra që nuk i kanë bërë apo thënë kurrë.
Si funksionon modeli tekst-në-video i OpenAI
Sora mund të gjenerojë video 60 sekondash nga një frazë e thjeshtë, si “një mace që luan me një top” ose “një astronaut që ecën në hënë”. Videot e prodhuara, edhe pse jo perfekte, tashmë janë mbresëlënëse në cilësinë dhe rrjedhshmërinë e tyre. Për ta arritur këtë, modeli tekst-në-video i OpenAI përdor dy teknologji të inteligjencës artificiale.
E para janë modelet e difuzionit, të tilla si DALL-E, të cilat ju lejojnë të krijoni imazhe të mprehta nga pikselë të rastësishëm. E dyta është ajo e arkitekturës së transformimit, e cila lejon që imazhet të organizohen në sekuenca koherente. Këto dy teknologji, të kombinuara së bashku, lejojnë Sora të krijojë video që duken reale.
Cilat janë rreziqet e Sorës
Sora është një teknologji inovative, por edhe potencialisht e rrezikshme. Nëse përdoret gabimisht, mund të shfrytëzohet për të krijuar video që mashtrojnë njerëzit dhe përhapin informacione të rreme. Kjo mund të ketë pasoja të rënda, veçanërisht në një kontekst delikat politik dhe social si ai i vitit 2024, në të cilin do të mbahen shumë zgjedhje në mbarë botën.
Siç thotë Hany Farid, një ekspert i sigurisë kibernetike në Universitetin e Kalifornisë në Berkeley, “Ashtu si me metodat e tjera gjeneruese të AI, nuk ka asgjë që të sugjerojë se konvertimi nga teksti në video nuk do të vazhdojë të përmirësohet me shpejtësi, duke na sjellë gjithnjë e më afër një koha kur do të jetë e vështirë të bëhet dallimi midis asaj që është e rreme dhe asaj që është e vërtetë.” Farid shton gjithashtu se “Kjo teknologji, kur kombinohet me klonimin e zërit të bazuar në AI, mund të hapë një fushë të re mundësish në krijimin e deepfake që tregojnë njerëzit duke thënë dhe duke bërë gjëra që nuk kanë ndodhur kurrë”.
Si të parandaloni abuzimin e Sorës
OpenAI është i vetëdijshëm për rreziqet që sjell Sora dhe për këtë arsye ende nuk e ka bërë sistemin të aksesueshëm për publikun. Përpara se ta bëjë këtë, ai po teston modelin për të vlerësuar potencialin e tij për abuzim. Për këtë qëllim, ai përfshiu një grup ekspertësh në fusha të ndryshme (dezinformim, përmbajtje urrejtjeje, etj.). Ky është një hap i rëndësishëm, por ndoshta jo i mjaftueshëm.
Për të parandaluar që Sora të përdoret për qëllime më pak se fisnike, do të ishte i nevojshëm një bashkëpunim më i ngushtë midis qeverive, kompanive të AI dhe rrjeteve sociale. Për më tepër, mund të futen mekanizma për të bërë të qartë se videot janë krijuar nga inteligjenca artificiale, të tilla si filigranë që vërtetojnë origjinën e tyre. Megjithatë, duke pasur parasysh shkallën e sfidës, është e pasigurt nëse këto masa paraprake do të jenë adekuate.
Discussion about this post