OpenAI ka integruar një version të personalizuar të ChatGPT në platformën GenAI.mil, të zhvilluar nga Departamenti i Mbrojtjes së Shteteve të Bashkuara, duke e përdorur atë për analiza dhe shërbime të lidhura me të dhëna jo të klasifikuara. Ky hap shënon një zgjerim të rëndësishëm të përdorimit të mjeteve komerciale të inteligjencës artificiale në mjediset qeveritare dhe ushtarake.
Platforma ofron mundësinë që modelet të ndihmojnë në analizimin e informacionit dhe ofrimin e rekomandimeve, ndërsa OpenAI dhe Pentagon theksojnë se të dhënat e klasifikuara nuk janë të përfshira dhe sistemi funksionon brenda mjediseve të sigura cloud. Sidoqoftë, ekspertët paralajmërojnë se besimi i tepruar në modelet e AI-së mund të sjellë rreziqe serioze për sigurinë dhe vendimmarrjen në sektorë kritikë. J.B. Branch, përfaqësues i organizatës Public Citizen për përgjegjësinë teknologjike, tha se përdoruesit kanë tendencë t’u japin modeleve gjuhësore të mëdha përfitimin e dyshimit, një zakoni që mund të kompromentojë protokollet e sigurisë në situata kritike. “Kur njerëzit besojnë tek rezultatet e AI-së, rrezikojnë të nënvlerësojnë gabimet që mund të kenë pasoja të mëdha,” tha ai.
Përdorimi i ChatGPT në GenAI.mil vjen ndërsa modeli konkuron me platforma të tjera si Gemini i Google dhe Grok i xAI, gjithashtu të përdorura nga Pentagon për qëllime jo të klasifikuara. Kritikët paralajmërojnë se edhe në këtë kontekst, përdorimi i AI-së mund të krijojë një ndjenjë false sigurie, ku vendimet njerëzore mund të mbështeten në mënyrë të tepruar tek rekomandimet e agjentëve digjitalë. OpenAI dhe Pentagon po punojnë për të vendosur mbrojtje dhe rregulla të qarta, por sfidat e automatizimit dhe integrimit të AI-së në sistemet kritike mbeten të pranishme. Analistët e industrisë vlerësojnë se ekuilibri midis efikasitetit dhe sigurisë është kyç për adoptimin e suksesshëm të inteligjencës artificiale në mjedise ushtarake dhe qeveritare, duke reflektuar nevojën për përdorim të kujdesshëm dhe të monitoruar të teknologjive autonome.


















































Discussion about this post