Një përplasje e re mes industrisë së inteligjencës artificiale dhe institucioneve të sigurisë kombëtare në Shtetet e Bashkuara po shkon drejt gjykatave. Kompania amerikane e AI, Anthropic, ka bërë të ditur se do të sfidojë ligjërisht vendimin e U.S. Department of Defense për ta etiketuar si një “rrezik për zinxhirin e furnizimit”, një klasifikim që mund të kufizojë përdorimin e teknologjisë së saj në projektet e mbrojtjes.
Vendimi i Pentagonit u bë publik së fundmi dhe ka ngritur shqetësime të mëdha në Silicon Valley, pasi një etiketim i tillë mund të ndikojë drejtpërdrejt në mënyrën se si kontraktorët e mbrojtjes dhe agjencitë federale bashkëpunojnë me kompaninë. Në praktikë, klasifikimi nënkupton se produktet ose shërbimet e një kompanie konsiderohen potencialisht problematike për sigurinë e zinxhirit të furnizimit të mbrojtjes. Sipas drejtuesve të Anthropic, vendimi është i pajustifikuar dhe i interpretuar në mënyrë të gabuar. Dario Amodei, bashkëthemelues dhe drejtori ekzekutiv i kompanisë, ka deklaruar se etiketa është përdorur në mënyrë shumë më të gjerë nga sa parashikon ligji dhe se ajo nuk duhet të zbatohet për të gjitha marrëdhëniet tregtare të kompanisë.
“Ky klasifikim është ligjërisht i pabazuar dhe dëmton jo vetëm kompaninë tonë, por edhe mënyrën se si industria e AI bashkëpunon me qeverinë,” ka theksuar Amodei, duke paralajmëruar se kompania është e gatshme ta çojë çështjen deri në fund në gjykatë. Në thelb të konfliktit qëndron një debat më i thellë për rolin e inteligjencës artificiale në operacionet ushtarake. Anthropic ka vendosur kufizime të qarta mbi përdorimin e modeleve të saj të AI, duke refuzuar që teknologjia të përdoret për mbikëqyrje masive të qytetarëve amerikanë ose për sisteme armësh plotësisht autonome.Nga ana tjetër, Pentagoni kërkon që teknologjitë e AI të jenë të disponueshme për një gamë të gjerë përdorimesh në fushën e mbrojtjes, përfshirë analizën e të dhënave, planifikimin operacional dhe mbështetjen e vendimmarrjes në situata të sigurisë kombëtare. Ironikisht, teknologjia e zhvilluar nga Anthropic është përdorur tashmë në disa projekte që lidhen me sigurinë kombëtare. Modeli i saj i inteligjencës artificiale, Claude AI, është përdorur nga organizata të ndryshme për analizë të të dhënave dhe simulime strategjike.
Megjithatë, etiketa e “rrezikut për zinxhirin e furnizimit” është një masë që zakonisht aplikohet ndaj kompanive që lidhen me vende rivale ose kundërshtarë strategjikë të Shteteve të Bashkuara. Në këtë rast, ajo është vendosur ndaj një kompanie amerikane që operon në zemër të industrisë së AI në Silicon Valley, gjë që e bën vendimin edhe më të debatueshëm. Ekspertët e politikave të teknologjisë paralajmërojnë se kjo përplasje mund të krijojë një precedent të rëndësishëm për marrëdhëniet mes qeverisë amerikane dhe kompanive që zhvillojnë inteligjencë artificiale. Nëse vendimi i Pentagonit mbetet në fuqi, ai mund të ndikojë në mënyrën se si kompanitë e teknologjisë vendosin kufizime etike për përdorimin e produkteve të tyre. Për shumë analistë, çështja nuk është vetëm një mosmarrëveshje kontraktuale mes një kompanie dhe qeverisë federale. Ajo përfaqëson një debat shumë më të gjerë mbi balancën mes inovacionit teknologjik, etikës dhe interesave të sigurisë kombëtare në një epokë kur inteligjenca artificiale po bëhet gjithnjë e më e rëndësishme për fuqinë strategjike të shteteve. Beteja ligjore që pritet të zhvillohet mund të përcaktojë jo vetëm të ardhmen e Anthropic, por edhe rregullat e bashkëpunimit mes Silicon Valley dhe institucioneve të mbrojtjes në vitet që vijnë.



















































Discussion about this post