Sipas një studimi të ri që u publikua nga ekipi hulumtues i Apple, modelet e mëdha të AI tregojnë dobësi të konsiderueshme në arsyetimin logjik. Studimi shqyrton aftësinë e modeleve të ndryshme gjuhësore, duke përfshirë ato të zhvilluara nga OpenAI dhe Meta, për të trajtuar detyrat e arsyetimit matematik. Ajo që del në pah është se edhe ndryshimet e vogla në formulimin e pyetjeve mund të ndikojnë në përgjigjet.
Apple: studimi mbi kufijtë e AI
Apple thekson faktin se modelet e inteligjencës artificiale priren të mbështeten në njohjen e modeleve dhe jo në arsyetimin logjik aktual. Ky përbën një faktor potencialisht të dëmshëm, duke pasur parasysh se ndryshimet e parëndësishme në kontekst ose informacion mund të çojnë në reagime dukshëm të ndryshme.
Një shembull i cituar në studim përfshin një problem të thjeshtë matematikor që pyet se sa kivi ka korrur një person gjatë disa ditëve. Kur u prezantuan detaje të parëndësishme në lidhje me madhësinë e disa kivit, modelet korrigjuan gabimisht totalin përfundimtar, edhe pse informacioni shtesë nuk kishte ndikim në zgjidhje.
Kjo brishtësi në arsyetim më pas i çoi studiuesit në përfundimin se “thjesht ndryshimi i emrave mund të ndryshojë rezultatet”, një shenjë potencialisht shqetësuese për të ardhmen e aplikacioneve të AI që kërkojnë arsyetim të qëndrueshëm dhe të saktë në kontekstet e botës reale.
Sipas studimit, të gjitha modelet e testuara, nga versionet më të vogla me burim të hapur si Llama tek modelet e pronarit si GPT-4o i OpenAI, treguan degradim të ndjeshëm të performancës përballë ndryshimeve në dukje të parëndësishme në të dhënat hyrëse. Apple sugjeron që AI mund të ketë nevojë të kombinojë rrjetet nervore me arsyetimin tradicional të bazuar në simbole për të arritur aftësi më të sakta vendimmarrjeje dhe zgjidhjeje të problemeve.
Discussion about this post