Sipas fjalëve të Anthropic, startup-i i AI që krijoi chatbotin e AI Claude: “dritarja për parandalimin proaktiv të rrezikut po mbyllet me shpejtësi”. Sistemet e inteligjencës artificiale kanë bërë përparim të jashtëzakonshëm në kohë rekord, në fusha të ndryshme si siguria kibernetike, inxhinieria e softuerit dhe kuptimi shkencor.
Por, si me çdo sukses, ka një çmim për të paguar dhe ndërsa nga njëra anë këto përparime ofrojnë shumë mundësi, nga ana tjetër ato mund të tërheqin interesa më pak fisnike dhe madje shkatërruese.
Përparimet e pabesueshme të AI
Në një postim në blog, Anthropic theksoi përparimin që modelet e AI kanë bërë në kodim dhe sulme kibernetike në vetëm një vit. “Në detyrën e inxhinierisë softuerike të grupit SWE, modelet u përmirësuan nga të qenit në gjendje të zgjidhin 1,96% të një grupi testimi të problemeve të kodimit në botën reale (Claude 2, tetor 2023) në 13,5% (Devin, mars 2024) në 49% (Claude 3.5 Sonet, tetor 2024),” shkroi kompania.
“Në brendësi, Red Team ynë ka zbuluar se modelet aktuale janë tashmë të afta të ndihmojnë me një gamë të gjerë detyrash të sulmeve kibernetike dhe ne presim gjeneratën e ardhshme të modeleve, të cilat do të jenë në gjendje të planifikojnë detyra të gjata dhe në disa faza, do të jetë edhe më efektive”.
Për më tepër, postimi në blog vë në dukje se sistemet e AI përmirësuan kuptimin e tyre shkencor me gati 18% vetëm nga qershori në shtator të këtij viti, sipas testit të standardit GPQA. OpenAI o1 shënoi 77.3% në pjesën më të vështirë të testit; Ekspertët njerëzorë shënuan 81.2%.
Antropik: rregullimi i AI për të shmangur rreziqet katastrofike
Anthropic po paralajmëron qeveritë për rreziqet kibernetike dhe CBRN (kimike, biologjike, radiologjike dhe bërthamore). Sipas kompanisë, në fakt, këto sisteme tani kanë fituar aftësi që i lejojnë ata të kryejnë aktivitete që lidhen me krimin kibernetik dhe përhapjen e armëve të shkatërrimit në masë me një efektivitet gjithnjë e më të madh.
Startup-i i themeluar nga vëllezërit Amodei (ish anëtarë të vjetër të OpenAI), ka vendosur të jetë proaktiv dhe po mbështet rregullimin e synuar të AI, bazuar në “Responsible Scaling Policy” (RSP). Objektivi i kësaj politike është të identifikojë, vlerësojë dhe zbusë rreziqet katastrofike në mënyrë proporcionale, bazuar në kufijtë e kapacitetit të arritur nga modelet.
Sipas Anthropic, kjo rregullore, për të qenë e suksesshme, duhet të inkurajojë transparencën, miratimin e praktikave të sigurisë dhe thjeshtësinë dhe vëmendjen ndaj masave.
Politika Përgjegjëse e shkallëzimit si një prototip rregullator
Anthropic bën thirrje për një përpjekje kolektive për të na mbrojtur nga teprimet e AI. Është një thirrje e vërtetë, siç tregohet në blogun e saj, që kompania paraqet, duke ftuar politikëbërësit, industrinë e AI, avokatët e sigurisë, shoqërinë civile dhe ligjvënësit që të punojnë së bashku gjatë 18 muajve të ardhshëm për të zhvilluar një kuadër rregullator efektiv, të frymëzuar nga parimet e Responsible Scaling Policy.
Për më tepër, ai paralajmëron për pasojat katastrofike të mosveprimit ose reagimit shumë të ngadaltë nga autoritetet publike. Rreziku do të ishte të gjendeshim në “më të keqen e të dy botëve”, d.m.th. një rregullim “të konceptuar keq dhe instinktiv” që pengon inovacionin pa parandaluar rreziqet.
Discussion about this post