Mbi 130 shkencëtarë kanë nënshkruar një letër ku renditen udhëzimet dhe angazhimet për zhvillimin e përgjegjshëm të inteligjencës artificiale në fushën e biologjisë. Rreziku, i theksuar nga të njëjtat kompani që ofrojnë modelet, është përdorimi i mundshëm i teknologjisë për krijimin e armëve biologjike.
Ne kemi nevojë për rregulla dhe kontrolle
Shkencëtarët theksojnë rëndësinë e madhe të inteligjencës artificiale në fushën e kërkimit, veçanërisht për hartimin e proteinave të reja. Aktualisht, përfitimet e teknologjisë janë shumë më të mëdha se rreziqet e mundshme për njerëzimin. Megjithatë, duke pasur parasysh progresin e pritur, mund të nevojitet një qasje e re proaktive për menaxhimin e rrezikut.
Nuk ka asnjë rrezik që lidhet me dizajnin e proteinave derisa ato të prodhohen në laborator nëpërmjet sintezës së ADN-së. Prandaj, shkencëtarët sugjerojnë krijimin e një liste furnizuesish që i përmbahen standardeve specifike të sigurisë. Objektivi kryesor është zbulimi i çdo biomolekule të rrezikshme.
Gjatë dëshmisë në Kongresin e Shteteve të Bashkuara, bashkëthemeluesi dhe CEO i Anthropic (Dario Amodei) deklaroi se inteligjenca artificiale gjeneruese do të lejojë zhvillimin e armëve të reja biologjike brenda dy deri tre viteve të ardhshme. I njëjti rrezik u theksua nga një tjetër bashkëthemelues (Jack Clark) gjatë një takimi në Kombet e Bashkuara.
Chatbot-ët aktualë nuk janë shumë më të dobishëm se një motor kërkimi. Por studiuesit kanë filluar të dizajnojnë sisteme të AI për të përshpejtuar zhvillimin e ilaçeve dhe vaksinave që mund të shfrytëzohen për të krijuar armë biologjike nëse nuk zbatohen masat e nevojshme të sigurisë. Megjithatë, nuk është e qartë se si duhet të funksionojnë këto masa. Hapi i parë është lejimi i aksesit në modelet e AI. Fatkeqësisht, fitimet shpesh kanë përparësi mbi transparencën.
Discussion about this post