GPT 4o, modeli i ri ChatGPT, ishte protagonisti i kërkimit të kryer dhe publikuar nga vetë OpenAI në lidhje me nivelin e rrezikut. Modeli u lëshua në maj, duke prezantuar mundësi të shumta për përdoruesit, të cilët mund ta shfrytëzojnë atë për të nxjerrë rezultate multimodale, të bëra me tekst, audio, imazhe ose video. GPT-4o gjithashtu dallon nga modelet e mëparshme për aftësinë e tij për të njohur dhe interpretuar emocionet dhe shprehjet e fytyrës së përdoruesve në mënyrë që të japë përgjigjet e duhura. Pikërisht ky funksion i fundit do të kishte çuar një ekip ekspertësh për të vlerësuar nivelin e rrezikut të modelit të ri OpenAi.
OpenAi: ChatGPT-4o ka një nivel rreziku mesatar
Edhe përpara lëshimit të modelit të saj, OpenAi do të ngarkonte një grup ekspertësh për të vlerësuar rreziqet e tij. Disa muaj më vonë, rezultatet e hulumtimit u publikuan nga vetë OpenAi, i cili e klasifikoi GPT-4o si një model me rrezik të mesëm.
Të vlerësoheshin do të ishin probleme të tilla si mundësia që ChatGPT-4o të mund të shfrytëzonte në mënyrë të paligjshme zërat e përdoruesve për të krijuar klone pa asnjë autorizim; përdorni klipe audio me të drejtë autori; ose krijojnë përmbajtje erotike dhe të dhunshme. Për më tepër, një karakteristikë që duket se ka ngjallur mjaft debate do të ishte aftësia bindëse e teksteve të zhvilluara nga modeli, të cilat, edhe pse minimale, do të ishin mjaft efektive.
Analiza e kryer nga ekspertët, në fakt, merr parasysh një mesatare të llogaritur mbi rezultatet e marra nga modeli në katër kategori: siguria kibernetike, kërcënimet biologjike, bindja dhe autonomia e modelit. Ndërsa dy kategoritë e para do të kishin një nivel rreziku të ulët, kjo e fundit u klasifikua si rrezik mesatar.
OpenAi së shpejti mund të detyrohet të mbajë një qëndrim më transparent ndaj përdoruesve. Sidomos nëse miratohet ligji i propozuar nga ligjvënësit e Kalifornisë, në lidhje me detyrimin e kompanive për të testuar modelet e tyre të AI përpara se t’i vënë ato në dispozicion të përdoruesve për të garantuar siguri më të madhe.
Discussion about this post