Në fillim të këtij muaji, Google shtoi funksionalitetin e gjenerimit të imazheve te Gemini (i njohur më parë si Bard). Dy ditë më parë, përdoruesit vunë re se disa imazhe të njerëzve ishin krejtësisht të gabuara. Kompania Mountain View ka pezulluar funksionin dhe tani ka sqaruar pse modeli tregoi rezultate mjaft të dyshimta.
Diversitet i tepruar
Funksioni i gjenerimit të imazheve përdor modelin Imagen 2. Gjatë zhvillimit, Google u përpoq të shmangte krijimin e imazheve të dhunshme ose seksualisht eksplicite ose paraqitjeve të njerëzve të vërtetë (siç janë “deepfakes”). Meqenëse Binjakët përdoret në mbarë botën, qëllimi është të gjenerohen imazhe që mbulojnë etni të shumta.
Megjithatë, nëse përdoruesi kërkon të gjenerojë imazhe të një lloji të caktuar personi (për shembull, një mësues me ngjyrë në klasë ose një veteriner i bardhë me një qen) ose të njerëzve në kontekste të veçanta historike dhe kulturore, Binjakët duhet të japin një përgjigje të saktë. Në vend të kësaj, rezultati duket si ky:
This is not good. #googlegemini pic.twitter.com/LFjKbSSaG2
— LINK IN BIO (@__Link_In_Bio__) February 20, 2024
Janë dy gabime të bëra nga modeli i AI (në fakt nga ata që e kanë zhvilluar dhe trajnuar atë). E para është ajo që çoi në “mbikompensim”, ose gjenerimin e imazheve që nuk supozohej të përfaqësonin diversitetin (si nazistët e zinj). E dyta është ajo që çoi në një model tepër konservator dhe për rrjedhojë në refuzimin për të gjeneruar imazhin e kërkuar.
Google ka pezulluar gjenerimin e imazheve të njerëzve dhe do të kryejë testime të gjera përpara se të rikthejë funksionin. Kompania kaliforniane thekson se Gemini, ashtu si chatbot-et e tjera, nuk është gjithmonë i besueshëm në gjenerimin e imazheve ose teksteve rreth ngjarjeve aktuale (një problem i njohur si halucinacione). Përdoruesit duhet të përdorin gjithmonë kërkimin për të marrë informacionin më të përditësuar dhe të saktë.
Discussion about this post