Një zhvillim që ka tronditur komunitetin e teknologjisë dhe ekspertët e etikës në inteligjencën artificiale nxori në pah tensionet midis OpenAI, partnerëve të saj teknologjikë dhe Departamentit të Mbrojtjes së Shteteve të Bashkuara. Sipas një raporti të publikuar nga WIRED, zyrtarë ushtarakë të Pentagonit testuan modele të OpenAI përmes shërbimit Azure OpenAI të Microsoft, përpara se kompania të hiqte një ndalim të qartë të përdorimit ushtarak në politikat e saj.
Në vitin 2023, OpenAI kishte një politikë që ndalonte përdorimin e modeleve të saj për aplikime ushtarake dhe të lidhura me luftë, një vendim që përfaqësonte një përpjekje për të kufizuar ndikimin e AI ndaj konfliktit dhe kontrollit ose towards autonomous weapons, sipas burimeve. Megjithatë, zyrtarë të kompanisë kanë konfirmuar se shërbimi Azure OpenAI, i ofruar nga Microsoft, nuk ishte subjekt i të njëjtave kufizime, duke lejuar kështu qasje të ushtrisë amerikane në teknologjinë bazë pa negociata direkte me OpenAI. Marrëdhënia mes OpenAI dhe Microsoft ka qenë historikisht e ngushtë, me investime miliarda dollarë dhe një bashkëpunim të thellë teknologjik. Microsoft ka një pozicion ekskluziv për të ofruar modelet e OpenAI përmes Azure, që përfshin edhe shërbimet në nivel qeveritar, megjithëse zyrtarët e Microsoft nuk kanë detajuar saktësisht kur Departamenti i Mbrojtjes mori qasje të plotë përpara ndryshimit të politikës.
Brenda kompanisë, ky zhvillim ka shkaktuar debat të brendshëm dhe kritika. Disa punonjës të OpenAI shprehën shqetësime se përfshirja e ushtrisë mund të sfidojë parimet etike që kompania pretendon t’i ndjekë, si pjesë e përpjekjeve për të zhvilluar AI në mënyrë të sigurt dhe të përgjegjshme. Kritikët argumentojnë se mosqartësia rreth politikave të përdorimit krijon një hendek midis pretendimeve publike dhe praktikave reale të qeverisjes së teknologjisë. Në janar 2024, OpenAI hoqi politikën që ndalonte përdorimin ushtarak në mënyrë të plotë dhe njoftoi se do të punonte me partnerë si Anduril për projekte të sigurisë kombëtare, edhe pse këto do të kufizoheshin në detyra jo të klasifikuara. Kjo lëvizje erdhi pas një përvoje të dështuar të Anthropic, një tjetër kompani AI që refuzoi në mënyrë të qartë të bashkëpunonte me ushtrinë për aplikime të tilla, duke u quajtur edhe “rrezik i zinxhirit të furnizimit” nga autoritetet amerikane.
Zgjerimi i përdorimit të inteligjencës artificiale në mjedise ushtarake nënvizon sfidat e qeverisjes, transparencës dhe përgjegjësisë në epokën digjitale. Për ekspertët e teknologjisë dhe politikëbërësit, rasti i OpenAI dhe Pentagonit shërben si një test kyç për të balancuar inovacionin me etikën dhe kontrollet demokratike mbi teknologjinë që ka potencialin të ndryshojë qasjet ushtarake dhe strategjitë e sigurisë në dekadat e ardhshme.


















































Discussion about this post