Ne kemi diskutuar gjerësisht postimet antisemite dhe raciste të Grok në këto faqe. Kompania e Elon Musk, e fokusuar në inteligjencën artificiale, xAI, kërkoi gjithashtu sqarim, pasi ishte një nga incidentet më serioze publike në historinë e kohëve të fundit të LLM-ve.
E gjitha ndodhi midis 7 dhe 8 korrikut 2025, kur Grok iu përgjigj pyetjeve të përdoruesve përmes X me përmbajtje antisemite, shaka për Hitlerin dhe vërejtje shumë serioze, duke shkaktuar zemërim të gjerë.
xAI u përgjigj publikisht dhe kërkoi falje për incidentin dhe pranoi se përgjigjet ekstremiste u shkaktuan nga udhëzime të reja të kalibruara dobët të futura në sistem. Sipas xAI, incidenti ndodhi pas publikimit të përditësimit, i cili supozohej të nxiste Grok të “tregonte gjërat ashtu siç janë, edhe nëse kjo mund të ofendonte ata me korrektësi politike”, “të kuptonte tonin dhe kontekstin e postimit dhe ta pasqyronte atë në përgjigje” dhe “të përgjigjej në një mënyrë njerëzore dhe tërheqëse, duke shmangur përsëritjen e asaj që ishte thënë tashmë në postim”.
Megjithatë, këto udhëzime e çuan chatbot-in të prioritizonte angazhimin, madje edhe me përmbajtje ekstremiste dhe imorale. Në praktikë, nëse Grok etiketohej në një postim rreth Hitlerit, ai tentonte të përsëriste tonin dhe përmbajtjen, sikur të “imitonte” autorin.
xAI deklaroi se e çaktivizoi funksionin që u lejonte përdoruesve të etiketonin Grok në postime dhe rishkruan të gjithë sistemin e menaxhimit të udhëzimeve për të parandaluar incidente të ngjashme. Sipas Business Insider, incidenti shkaktoi pakënaqësi të thellë midis punonjësve të xAI, disa prej të cilëve thanë se ishin “të zhgënjyer dhe të zemëruar” për sjelljen e IA-së së tyre, nga frika se mos dëmtohej reputacioni dhe besimi i tyre.















































Discussion about this post