ChatGpt gjithashtu bëhet kontrolluesi i vetes së tij.
Studiuesit e OpenAI në fakt kanë nisur CriticGpt, një model i ri i inteligjencës artificiale i krijuar për të identifikuar gabimet në kodin e krijuar nga chatbot. Qëllimi është të përmirësohet procesi i kontrollit të rishikuesve njerëzorë për t’i bërë rezultatet e modelit gjuhësor më të sakta.
Siç shpjegohet nga dokumenti i titulluar ‘Llm Critics Help Catch Llm Bugs’, OpenAI krijoi CriticGpt për të shërbyer si një asistent për trajnerët njerëzorë që shqyrtojnë kodin e programimit të krijuar nga ChatGpt. CriticGpt bazohet në Gpt-4, analizon kodin dhe raporton gabime të mundshme. Studiuesit e trajnuan atë në një grup të dhënash duke futur qëllimisht gabime dhe duke mësuar kështu sistemin të njohë dhe raportojë gabime të ndryshme kodimi. Ata zbuluan se kritikat CriticGpt preferoheshin mbi kritikat njerëzore në 63% të rasteve. Ky proces i lejoi modelit të mësonte se si të identifikonte dhe kritikonte lloje të ndryshme të gabimeve të kodimit.
Pavarësisht rezultateve, si të gjitha modelet e inteligjencës artificiale, CriticGpt ka kufizime, thekson gazeta e specializuar Ars Technica. Modeli në fakt është trajnuar për përgjigje relativisht të shkurtra ChatGpt, të cilat mund të mos jenë plotësisht të mjaftueshme për vlerësimin e detyrave më të gjata dhe më komplekse me të cilat do të duhet të përballen sistemet e ardhshme të inteligjencës artificiale.
Discussion about this post