Në fund të gushtit 2025, kompania e inteligjencës artificiale Anthropic njoftoi se asnjë përdorues nuk do të jetë në gjendje të përdorë modelin e saj Claude për të krijuar ose përvetësuar armë bërthamore. Për realizimin e këtij qëllimi, kompania bashkëpunoi me Agjencinë Kombëtare për Sigurinë Bërthamore (NNSA) dhe Departamentin e Energjisë së SHBA-s për të zhvilluar një sistem mbrojtës që ndalon debatet ose kërkesat në fushën e proliferimit bërthamor.
Në thelb, strategjia përfshinë instalimin e një “klasifikuesi bërthamor”, një filtër inteligjent që identifikon bisedat me risk të lartë dhe i bllokon ato — ndërkohë që lejon diskutime normale mbi energjinë bërthamore apo isotopët mjekësorë. Anthropic thotë se testimet paraprake të këtij sistemi kanë treguar saktësi rreth 96 %
Megjithatë, ekspertët e fushës shprehen të rezervuar. Disa argumentojnë se modelet e tilla të gjuhës nuk kanë akses fillestar të të dhënave shumë të klasifikuara — çka do të thotë se rreziku real mund të jetë mbivlerësuar. “Nëse Claude nuk është trajnuar me material sekret bërthamor, atëherë veprimi i klasifikuesit është pothuajse simbolik,” shprehet Heidy Khlaaf nga Instituti AI Now.
Ky bashkëpunim mes një kompanie private dhe agjencive shtetërore gjithashtu ngre pyetjen: sa të qarta janë kufijtë mes privatësisë, kontrollit dhe inovacionit teknologjik? Disa argumentojnë se kjo mund të krijojë precedentë ku kompanitë kanë qasje në të dhëna jashtë regjimit publik.
















































Discussion about this post