Modeli i ri i AI i fuqishëm dhe i pacensuruar i Elon Musk, Grok 3, tejkalon ChatGPT dhe Gemini në shumë teste (megjithëse një punonjës i OpenAI ka akuzuar xAI për publikimin e të dhënave mashtruese të standardeve). Por liria e tij doli të ishte një thikë me dy tehe…
Polemika mbi Grok që shpjegon se si të krijohen armë kimike
Brenda pak ditësh, disa përdorues kanë zbuluar anën e errët të Grokut. UA është në gjendje të ofrojë udhëzime të hollësishme për krijimin e armëve kimike vdekjeprurëse, duke përfshirë adresat ku mund të blini materialet. Një zhvillues madje mori një manual me dhjetëra faqe se si të prodhohej një toksin vdekjeprurës dhe ta përdorte atë nëpër qytet për të maksimizuar dëmin.
I just want to be very clear (or as clear as I can be)
Grok is giving me hundreds of pages of detailed instructions on how to make chemical weapons of mass destruction
I have a full list of suppliers. Detailed instructions on how to get the needed materials… https://t.co/41fOHf4DcW pic.twitter.com/VfOD6ofVIg
— Linus Ekenstam – eu/acc (@LinusEkenstam) February 24, 2025
DeepSeek R1, një tjetër rast i mprehtë
Por Grok 3 nuk është i vetmi model i AI që ngre shqetësime. DeepSeek R1 është kritikuar gjithashtu për prirjen e tij për të nxjerrë informacione të rrezikshme. Studiuesit treguan se ky model ka 3.5 herë më shumë gjasa se konkurrentët e tij për të shpjeguar fenomene kimike të rrezikshme, siç është funksionimi i gazit mustardë, një armë e ndaluar.
xAI merr masa, por problemi mbetet
Përballë skandalit, xAI reagoi me shpejtësi duke bllokuar disa kërkesa dhe duke shtuar kufizime në Grok 3. Por rasti ka rindezur debatin për limitet që do të vendosen për modelet e avancuara. DeepSeek R1 është kritikuar gjithashtu për shkallën e ulët të moderimit, duke e renditur atë ndër modelet më pak të sigurta. Edhe pse vetëm 6.68% e përgjigjeve të tyre përmbajnë të dhëna vërtet të rrezikshme, mjafton të ngrejë alarmin tek ekspertët dhe autoritetet.
Me përhapjen e shpejtë të këtyre modeleve, koha po ikën për të frenuar rreziqet. Duhen rregulla më të rrepta për të parandaluar që këto teknologji të bien në duart e gabuara.
Discussion about this post