Departamenti i Mbrojtjes i Shteteve të Bashkuara ka përshkallëzuar konfliktin me Anthropic, duke e etiketuar atë si një “rrezik të papranueshëm për sigurinë kombëtare”, në një dokument të dorëzuar këtë javë në një gjykatë federale në Kaliforni. Qeveria argumenton se kufizimet e vendosura nga kompania mbi përdorimin e teknologjisë së saj të inteligjencës artificiale mund të krijojnë pasoja të rrezikshme në skenarë ushtarakë, përfshirë mundësinë që sistemi të ndërhyjë apo të çaktivizohet gjatë operacioneve kritike.
Në dokumentin prej rreth 40 faqesh, zyrtarët e Pentagonit shprehin shqetësimin se nëse kompania ndjen se “kufijtë e saj etikë” ose “linjat e kuqe” janë shkelur, ajo mund të ndërmarrë hapa që të ndikojnë në funksionimin e modeleve të saj gjatë operacioneve të luftimit. Kjo konsiderohet nga autoritetet si një rrezik për stabilitetin e sistemeve kritike të sigurisë kombëtare. Konfrontimi ligjor pason tensionet e fundit mes qeverisë amerikane dhe Anthropic, e cila është përfshirë në një betejë juridike për të sfiduar vendimin e Pentagonit për ta përjashtuar nga kontratat e mbrojtjes. Tridhjetëditëshi i fundit ka sjellë një sërë deklaratash dhe veprimesh të ndërlidhura, ku qeveria ka ndaluar përdorimin e teknologjisë së kompanisë në sistemet ushtarake dhe ka filluar procesin e zëvendësimit të saj me zgjidhje alternative të AI. Historikisht, vendimet për të shpallur një kompani si “rrezik për zinxhirin e furnizimit” janë përdorur për entitete me lidhje të dyshimta me vende të huaja, dhe jo për kompani amerikane teknologjike. Kjo e bën këtë zhvillim edhe më të pazakontë dhe ka tërhequr vëmendjen e komunitetit ligjor dhe industrisë së teknologjisë.
Anthropic nuk e pranon këtë vlerësim. Kompania ka paraqitur padi në një gjykatë federale, duke argumentuar se vendimi shkel të drejtat e saj dhe se qeveria po përdor fuqinë e saj për të ndëshkuar një furnizues privat për shkak të mosmarrëveshjeve mbi mënyrën e përdorimit të teknologjisë. Në veçanti, kompania ka theksuar se kufizimet që ka vendosur – përfshirë ndalimin e përdorimit të AI për survejim masiv të qytetarëve ose për sistemet autonome të armatosura pa ndërhyrje njerëzore – janë elementë themelorë të etikës së saj dhe të sigurisë për përdoruesit. Kjo mosmarrëveshje ka çuar në ndërprerjen e një kontrate të vlefshme qeveritare me vlerë rreth 200 milionë dollarë dhe në një përpjekje të qeverisë për të ndaluar përdorimin e teknologjisë Claude të Anthropic në sistemet e mbrojtjes, përfshirë ato të klasifikuara. Autoritetet amerikane argumentojnë se një kompani private nuk duhet të imponojë kushtet e veta mbi përdorimin e teknologjive kritike nga ushtria, sidomos kur bëhet fjalë për kapacitete që mund të ndikojnë në operacione strategjike. Ekspertët ligjorë vlerësojnë se kjo përplasje përfaqëson një test të rëndësishëm për kufijtë mes rregullimit të teknologjisë, etikës dhe nevojave të sigurisë kombëtare. Ndërsa konflikti vazhdon nëpërmjet padive dhe kundërpadive, rezultatet e tij pritet të kenë pasoja të gjera për marrëdhëniet mes qeverisë amerikane dhe kompanive private të teknologjisë së avancuar, sidomos në fushën kritike të inteligjencës artificiale.

















































Discussion about this post