Microsoft ka kufizuar numrin e bisedave që përdoruesit mund të kenë me kërkimin e ri Bing, motorin e tij të kërkimit të bazuar në ChatGpt.
Testuesit e shërbimit, i cili përdor chatbotin e famshëm të AI që u përgjigjet pyetjeve të bëra në gjuhë natyrale, kanë mundësinë të marrin vetëm pesë përgjigje në të njëjtën kohë nga Bing, për maksimum 50 në ditë.
Deri në atë vendim, të gjithë mund të kalonin orë të tëra duke pyetur se çfarë donin nga platforma e testimit. Një mundësi që, me pranimin e vetë Microsoft-it, në afat të gjatë mund ta çojë algoritmin në devijimin e diskutimeve, duke iu qasur diskutimeve me qeniet njerëzore në një mënyrë të pabalancuar. Për shembull, gazetari i New York Times, Kevin Roose thotë se ai e provoi Bing AI për disa ditë, duke e quajtur atë një “adoleshent me humor, maniak-depresiv”.
Gjatë testimit të saj, Bing AI ishte përpjekur të bindte gazetarin të linte gruan e tij, për shkak të një martese që, sipas inteligjencës artificiale, ishte e pakënaqur. Microsoft shpjegoi se projekti, duke qenë ende në fillimet e tij, duhet të mësojë të menaxhojë biseda të gjata, në mënyrë ideale ato që i kalojnë pesëmbëdhjetë pyetjet. Për kompaninë, seancat e gjata të bisedave kanë tendencë të “ngatërrojnë modelin themelor të bisedës në Bing të ri”. Pas raporteve të ndryshme që kohët e fundit treguan për sjelljen e çuditshme të Bing, gjigandi amerikan shpjegoi vendimin për të vendosur një kufi në përdorimin e tij, i cili, sipas kompanisë, shpesh “nuk është domosdoshmërisht i dobishëm ose në përputhje me arsyen pse është projektuar. “. Ndërsa njerëzit vazhdojnë të bisedojnë me AI, ajo do të përmirësojë tonin dhe kontekstin edhe të temave më të vështira. Më pas Microsoft do të jetë në gjendje të heqë bllokun aktual dhe të zgjerojë më tej shërbimin.
Discussion about this post