Biseda në të cilën Bing me ChatGPT bëhet agresiv pati një jehonë të rëndësishme dhe përgjigja nga Microsoft gjithashtu mbërriti brenda një kohe të shkurtër me një postim të gjatë të publikuar në blogun e tij zyrtar.
Gjiganti Redmond tha se bazuar në reagimet e marra nga përdoruesit, po bën gjithçka që është e mundur për të përmirësuar tonin dhe saktësinë e përgjigjeve, dhe reflektoi në shtatë ditët e para të testimit.
Gjatë fazës së testimit, ekipi i Bing zbuloi se “në seancat e bisedave të gjata dhe të zgjatura me 15 ose më shumë pyetje, Bing mund të bëhet përsëritës ose të kërkohet/provokohet për të dhënë përgjigje që nuk janë domosdoshmërisht të dobishme ose në përputhje me tonin e projektuar”.
Konkretisht, është zbuluar se seancat shumë të gjata të bisedave mund të ngatërrojnë AI, dhe “kështu që mendojmë se mund të jetë e nevojshme të shtohet një mjet në mënyrë që të mund të përditësojmë më lehtë kontekstin ose ta fillojmë bisedën nga e para”.
Për më tepër, reagimet theksuan gjithashtu se modeli i AI “nganjëherë përpiqet të përgjigjet duke reflektuar tonin në të cilin bëhet pyetja, e cila mund të mos jetë e përshtatshme”. Prandaj, Microsoft po punon ende për të përmirësuar tonin e Bing dhe mund t’u japë përdoruesve më shumë kontroll mbi krijimtarinë e tij kur u përgjigjen pyetjeve.
Discussion about this post