Përdorimi i inteligjencës artificiale për qëllime ushtarake lejon përshpejtimin e identifikimit të sulmeve përmes të ashtuquajturit zinxhir të vrasjes. Teknologjia nuk do të përdoret për të zhvilluar armë dhe më pas për të vrarë njerëz. OpenAI kohët e fundit ndryshoi politikën e saj për të lejuar agjencitë ushtarake amerikane të përdorin modelet e saj.
Mbrojtja Ushtarake me AI: Përfitimet dhe Rreziqet
Në një intervistë me TechCrunch, Radha Plumb (shefi dixhital dhe AI në Pentagon) tha se inteligjenca artificiale i jep Departamentit të Mbrojtjes një “përparësi të konsiderueshme” në identifikimin, monitorimin dhe vlerësimin e kërcënimeve.
Natyrisht, ne po rrisim mënyrat se si mund të përshpejtojmë ekzekutimin e zinxhirit të vrasjes për t’u mundësuar komandantëve tanë të përgjigjen në kohën e duhur për të mbrojtur forcat tona.
“Zinxhiri i vrasjes” i referohet grupit të proceseve të përdorura nga ushtria për të identifikuar, gjurmuar dhe eliminuar kërcënimet. UA gjeneruese përdoret në fazat e planifikimit dhe përcaktimit të strategjisë. Plumb shtoi:
Inteligjenca artificiale gjeneruese na lejon të shfrytëzojmë gamën e plotë të mjeteve të disponueshme për komandantët tanë, por gjithashtu të mendojmë në mënyrë krijuese për opsionet e ndryshme të reagimit dhe kompromiset e mundshme në një mjedis kërcënimi të mundshëm.
Meta ka nënshkruar një marrëveshje me Lockheed Martin dhe kompani të tjera për të ofruar modele Llama për agjencitë e mbrojtjes. Anthropic ka nënshkruar një marrëveshje të ngjashme me Palantir, ndërsa OpenAI ka hyrë në një partneritet me Anduril.
Plumb theksoi se Pentagoni nuk blen dhe përdor armë plotësisht autonome, por gjithmonë ka një vendim njerëzor. Sistemet e vetëdijes, si Skynet, ekzistojnë vetëm në filmat fantashkencë. Ushtria izraelite ka përdorur një sistem AI, të quajtur Lavender, për të planifikuar sulme kundër Hamasit.
Discussion about this post