Në një postim të publikuar në blogun zyrtar të OpenAI, kompania e Sam Altman ka ngritur shqetësime në botën e teknologjisë dhe bioetikës që kur deklaroi se modelet e saj të ardhshme të IA-së mund të përdoren për të krijuar armë të reja biologjike.
Zhvilluesi i ChatGPT thotë se ndien përgjegjësi për të gjetur një ekuilibër midis “promovimit të progresit shkencor dhe ruajtjes së barrierave për aksesin në informacionin e dëmshëm”. Rreziqe të tilla përfshijnë mundësinë që modelet e IA-së “të ndihmojnë aktorët me aftësi të larta në krijimin e armëve biologjike”. Ndërsa aksesi fizik në laboratorë dhe materiale të ndjeshme është ende një barrierë e rëndësishme, OpenAI thekson se “këto mure nuk janë të pakapërcyeshme”.
Shefi i sigurisë së OpenAI, Johannes Heidecke, sqaroi në një deklaratë për Axios se, ndërsa nuk beson se modelet e ardhshme do të jenë të afta të zhvillojnë në mënyrë autonome armë të reja biologjike, ato prapë mund të ofrojnë mbështetje për jo-ekspertët në replikimin e kërcënimeve të njohura. “Ne nuk jemi ende në një botë ku po gjenerojmë kërcënime të reja biologjike që nuk i kemi parë kurrë më parë”, tha Heidecke, duke pranuar se “shqetësimi ynë më i madh është riprodhimi i gjërave që ekspertët tashmë i dinë mirë”. Heidecke tha se pasardhësit e modelit o3 të OpenAI mund të arrijnë nivele njohurish që do të kërkonin kontrolle jashtëzakonisht të rrepta. “Nuk keni pse të jeni 99 përqind të saktë ose edhe një në 100,000 gabime”, vazhdoi ajo, duke thënë, “ju nevojiten modele që janë praktikisht të përsosura, që mund të njohin dhe të sinjalizojnë çdo abuzim të mundshëm”.
Discussion about this post