As OpenAI ka lëshuar përditësimin kryesor për ChatGPT, kompania që zhvillon modelin më të rëndësishëm gjuhësor të internetit po përgatit një ekip për të parandaluar inteligjencën artificiale që të nisë një luftë të mundshme bërthamore ose të jetë një rrezik për njerëzimin.
Çështja ka qenë në qendër të diskutimeve të ndryshme dhe do të jetë gjithashtu objekt i dokumentit për AI që duhet të përgatisë G7. Në një postim në blog, ku OpenAI njofton krijimin e ekipit Preparedness të udhëhequr nga Aleksander Madry, lexojmë se “ne besojmë se modelet e ardhshme të AI, të cilat do të tejkalojnë aftësitë e pranishme aktualisht në modelet më të avancuara ekzistuese, kanë potencialin për të sjellë i sjell dobi mbarë njerëzimit. Por ato mbartin gjithashtu rreziqe gjithnjë e më serioze”.
Ekipi Preparedness do të kërkojë të minimizojë rreziqet që vijnë nga modelet e gjeneratës së ardhshme të AI, duke përfshirë bindjen e individualizuar, sigurinë kibernetike, kërcënimet kimike, biologjike, radioaktive dhe bërthamore, si dhe replikimin dhe përshtatjen autonome.
Grupi do të jetë gjithashtu përgjegjës për një politikë zhvillimi të informuar për rrezikun që do të “detajosë qasjen tonë për zhvillimin e vlerësimeve rigoroze dhe monitorimin e aftësive të modelit, krijimin e një sërë veprimesh sigurie dhe krijimin e një strukture qeverisëse për llogaridhënien dhe mbikëqyrjen e këtij procesi zhvillimi”.
Discussion about this post