Një nga kompanitë kryesore të inteligjencës artificiale në Shtetet e Bashkuara, Anthropic, ka akuzuar tre laboratorë kinezë për përdorim të paligjshëm të modelit të saj të gjuhës, Claude, duke shkelur kushtet e përdorimit dhe duke nxitur shqetësime mbi sigurinë dhe rregullimin ndërkombëtar të teknologjive të avancuara.
Sipas deklaratës së publikuar nga Anthropic, kompanitë DeepSeek, Moonshot AI dhe MiniMax krijuan rreth 24,000 llogari false, duke kryer më shumë se 16 milionë ndërveprime me Claude, me qëllim që të nxjerrin aftësitë e tij dhe të përmirësojnë modelet e tyre të AI-së. Anthropic i konsideron këto veprime si një fushatë në shkallë industriale për “distillation”, një teknikë që përdoret zakonisht për të mësuar modelet e vogla duke kopjuar përgjigjet e atyre më të mëdha, por këtu e kryen në mënyrë abuzive dhe pa leje.
Distillation, si proces, mund të ndihmojë në përmirësimin e performancës së sistemeve AI, por përdorimi i tij në këtë mënyrë mund të çojë në humbjen e sigurisë, pasigurinë etike dhe abuzimin e teknologjive të ndërtuara me investime të mëdha. Anthropic thekson se ky përdorim joautorizues mund të krijojë modele të kopjuara që nuk mbajnë “mbrojtjet e sigurisë” të Claude, duke i bërë ato të rrezikshme për përdorim në botën reale. Akuzat vijnë në një kohë kur administrata e SHBA-së po diskuton rregullimet e eksportit për çipat e avancuar të AI, duke synuar të kufizojë qasjen e rivalëve strategjikë si Kina në teknologji kritike që mund të përdoren për zhvillimin e modeleve të fuqishme të AI-së. Ekspertët e industrisë vënë në dukje se këto masa mund të mbrojnë avantazhin teknologjik amerikan, por gjithashtu mund të komplikojnë bashkëpunimet ndërkombëtare dhe inovacionin global.
Anthropic ka bërë thirrje për një përgjigje të koordinuar nga ofruesit e shërbimeve cloud, rregullatorët dhe vendimmarrësit, duke kërkuar masa që të parandalojnë abuzime të ngjashme në të ardhmen. Firma paralajmëron se modelet e ndërtuara në këtë mënyrë jo vetëm që kopjojnë aftësitë e Claude, por gjithashtu mund të përdoren për qëllime keqdashëse, duke përfshirë sulme kibernetike, dezinformim apo aplikime të paqëndrueshme të inteligjencës artificiale. Ky incident nxjerr në pah tensionin mes inovacionit dhe sigurisë globale, duke vendosur sfidën për mënyrën se si teknologjitë e avancuara të AI-së duhet të rregullohen ndërkombëtarisht, ndërsa kompanitë dhe qeveritë përpiqen të ruajnë avantazhet teknologjike dhe të mbrojnë përdoruesit.

















































Discussion about this post