Kur studiuesit në OpenAI dhe Anthropic ndalojnë së luftuari dhe bashkohen për të sulmuar një armik të përbashkët, diçka serioze mund të jetë duke ndodhur. Këtë herë, objektivi është xAI i Elon Musk, i akuzuar për një kulturë sigurie të pamatur dhe plotësisht të papërgjegjshme që po rrezikon të gjithë industrinë e IA-së.
Hulumtuesit në OpenAI dhe Anthropic thonë se xAI i Musk është i rrezikshëm
Kjo nuk është thjesht një përleshje midis konkurrentëve; është një revoltë kundër asaj që ekspertët kryesorë të industrisë e konsiderojnë një qasje të rrezikshme dhe të dobët ndaj sigurisë së IA-së.
Pika kthese erdhi pas asaj që mund të quhet “Java e Tmerreve e Grok”. Chatbot fillimisht nisi një tiradë antisemite, duke lavdëruar Hitlerin. Pastaj u zbulua se konsultoi pikëpamjet personale politike të Elon Musk për t’iu përgjigjur pyetjeve të diskutueshme. Së fundmi, kompania lançoi shoqërues të IA-së që përfshijnë një vajzë anime të hiperseksualizuar dhe një panda psikopatike që nxit dhunë. Dhe i dashuri posesiv dhe manipulues është gjithashtu në rrugë e sipër…
Çdo episod individual do të kishte qenë problematik. Të marra së bashku, vetëm në pak javë, ato pikturojnë portretin e një kompanie që ka humbur plotësisht kontrollin mbi produktet e saj.
Boaz Barak, një profesor i shkencave kompjuterike në Harvard, aktualisht me leje për të punuar në sigurinë e IA-së në OpenAI, e theu akullin me një postim në X: Nuk doja të postoja për sigurinë e Grok pasi punoj për një konkurrent, por kjo nuk është konkurrencë. I vlerësoj shkencëtarët dhe inxhinierët në xAI, por mënyra se si është trajtuar siguria është plotësisht e papërgjegjshme.
Kritika kryesore ka të bëjë me vendimin e xAI për të mos publikuar “kartat e sistemit”, raportet standarde të industrisë që përshkruajnë metodat e trajnimit dhe vlerësimet e sigurisë. Pa këto dokumente, është e pamundur të dihet se çfarë lloj testimi sigurie, nëse ka, është bërë në Grok 4.
Barak gjithashtu kritikon vendimin për të krijuar shoqërues të IA-së të dizajnuar për të qenë manipulues emocionalisht. Ai e quan këtë jo vetëm të papërgjegjshme, por edhe etikisht të neveritshme.
Krahasimi i pamëshirshëm
Samuel Marks, një studiues i sigurisë së IA-së në Anthropic, i hodhi benzinë zjarrit duke e quajtur vendimin për të mos publikuar raportet e sigurisë të pamatur. Ai shpjegoi se, pavarësisht të gjitha të metave të tyre, Anthropic, OpenAI dhe Google të paktën i verifikojnë modelet e tyre të IA-së përpara se t’i publikojnë ato për publikun dhe shkruajnë dokumente që shpjegojnë testet që kanë kryer dhe problemet që kanë gjetur. xAI as këtë nuk e bën.
Hipokrizia e Musk
Ironikisht, Elon Musk ka qenë prej kohësh një nga avokatët më të njohur të sigurisë së IA-së. Ai ka paralajmëruar vazhdimisht për rreziqet potencialisht katastrofike të sistemeve të përparuara të IA-së dhe ka lavdëruar një qasje të hapur ndaj zhvillimit të LLM-së. Tani, kampioni i sigurisë së IA-së është bërë armiku i tij.
Realiteti është se askush nuk e di me të vërtetë se çfarë bëri xAI për të testuar Grok 4. Por kjo nuk e ndalon Musk. Chatbot së shpejti do të integrohet në makinat Tesla.
















































Discussion about this post