Një muaj pasi u largua nga OpenAI, ku ai mbajti për një kohë të gjatë rolin e shkencëtarit kryesor, Ilya Sutskever, një nga bashkëthemeluesit e kompanisë pioniere në inteligjencën artificiale, ka nisur një sipërmarrje të re ambicioze.
Së bashku me Daniel Gross, një ish-partner në Y Combinator dhe Daniel Levy, i cili më parë ka punuar si inxhinier për OpenAI, Sutskever themeloi Safe Superintelligence Inc. (SSI), një kompani me një mision të mirëpërcaktuar, vendimtar për të ardhmen e njerëzimit: duke krijuar një sistem të sigurt dhe të fuqishëm të AI.
Gjatë kohës së tij në OpenAI, Sutskever luajti një rol udhëheqës në përpjekjet e kompanisë për të përmirësuar sigurinë e AI, veçanërisht duke u fokusuar në kontrollin e sistemeve “superinteligjente” të AI, d.m.th., sistemeve me inteligjencë më të lartë se Human. Kjo fushë e kërkimit u trajtua nga afër me Jan Leike, i cili më vonë u largua nga OpenAI për t’u bashkuar me Anthropic, një kompani tjetër në ballë të AI.
Parashikimet dhe frika për të ardhmen
Në vitin 2023, në një postim në blogun OpenAI, Sutskever dhe Leike shprehën një parashikim sa magjepsës aq edhe shqetësues: ardhja e inteligjencës artificiale me aftësi njohëse më të larta se ato njerëzore mund të ndodhë brenda një dekade.
Megjithatë, ata paralajmëruan se një arritje e tillë, sado e jashtëzakonshme, nuk do të shoqërohet domosdoshmërisht me dashamirësi të brendshme të AI ndaj njerëzimit. Ky ndërgjegjësim ka bërë urgjente kërkimin e mënyrave për të kontrolluar dhe kufizuar inteligjencën artificiale të tillë të avancuar dhe potencialisht të rrezikshme.
Në një postim në Twitter, SSI përshkroi qartë misionin e saj, emrin dhe të gjithë udhërrëfyesin e produktit, të gjitha të përqendruara rreth qëllimit të arritjes së “Superinteligjencës së Sigurt”. Ekipi, investitorët dhe modeli i biznesit janë në linjë për të ndjekur këtë qëllim, duke trajtuar sigurinë dhe aftësitë e AI si probleme teknike që duhet të zgjidhen përmes zbulimeve inxhinierike dhe shkencore.
Superintelligence is within reach.
Building safe superintelligence (SSI) is the most important technical problem of our time.
We've started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
— SSI Inc. (@ssi) June 19, 2024
Një strategji e guximshme zhvillimi
Qasja e SSI është sa ambicioze aq edhe thelbësore: avanconi aftësitë e AI sa më shpejt që të jetë e mundur, duke siguruar që siguria të mbetet gjithmonë në krye të mendjes. Në këtë mënyrë, kompania do të jetë në gjendje të shkallëzohet me qetësi, pa u shpërqendruar nga shpenzimet e përgjithshme të menaxhimit, ciklet e prodhimit ose presionet tregtare afatshkurtra që mund të komprometojnë misionin e saj kryesor (a mund të jetë ky një gërmim në OpenAI?).
Për të ndjekur këtë mision kritik, SSI ka krijuar një prani globale, me zyra në Palo Alto, në zemër të Silicon Valley, dhe në Tel Aviv, Izrael, ku kompania aktualisht është duke rekrutuar talente teknike.
Discussion about this post