Një aplikacion i ri i OpenAI, i quajtur Sora, po tërheq vëmendjen e përdoruesve dhe ekspertëve të teknologjisë për aftësinë e tij të jashtëzakonshme për të krijuar video realiste nga teksti. Përdoruesit mund të krijojnë skenarë të çuditshëm dhe të pabesueshëm, si Freddy Krueger duke kërcyer në një shfaqje televizive ose Mr. Rogers duke mësuar Tupac Shakur tekstin e një kënge. Kjo mundësi ka sjellë një “eksplozion kambrian” të krijimtarisë, siç e përshkruan CEO i OpenAI, Sam Altman.
Megjithatë, ky avancim teknologjik ka ngritur shqetësime të mëdha për ndikimin e tij në shoqërinë dixhitale. Ekspertët e sigurisë dhe studiuesit e mediave sociale paralajmërojnë se Sora mund të kontribuojë në përhapjen e përmbajtjes mashtruese dhe të thellojë ndarjen sociale. Sistemi i aplikacionit, i ndërtuar për të qenë tërheqës dhe të lehtë për t’u përdorur, mund të nxjerrë në pah një realitet të rremë dhe të krijojë lidhje artificiale mes përdoruesve.
Për më tepër, Sora ka hasur në kritika për përhapjen e paragjykimeve seksiste, raciste dhe aftësie të kufizuar. Një hetim i WIRED mbi 250 video të krijuara nga Sora ka zbuluar se pozitat e punës shpesh janë të ndara sipas gjinive dhe grupeve etnike, duke pasqyruar stereotipe të theksuara. Kjo ka nxitur kërkesa për përmirësimin e të dhënave trajnimi dhe vlerësimin e rreziqeve shoqërore në zhvillimin e AI.
Në përgjigje të këtyre shqetësimeve, OpenAI ka angazhuar ekipe të dedikuara për të adresuar paragjykimet dhe për të përmirësuar diversitetin në përmbajtjen e krijuar nga Sora. Megjithatë, mbetet për t’u parë nëse këto përpjekje do të jenë të mjaftueshme për të balancuar potencialin krijues të aplikacionit me përgjegjësinë shoqërore.
















































Discussion about this post