Inteligjenca artificiale po bëhet gjithnjë e më e fortë mendërisht dhe nëse lihet e pakontrolluar mund të çojë në shkatërrimin e specieve njerëzore; Për këtë temë janë kryer shumë studime të cilat kanë disa të vërteta alarmante. Sipas një studimi që mblodhi mendimet e 2778 ekspertëve të IT-së, AI do të çojë në zhdukjen e specieve tona nëse nuk ndalet menjëherë. Problemi kryesor qëndron në faktin se sa më shumë kalon koha, aq më inteligjente bëhet inteligjenca artificiale pasi i nënshtrohet një trajnimi gjithnjë e më kompleks.
Natyrisht, burimet mbi të cilat janë bazuar studimet e shumta që janë kryer bazohen në të dhënat aktuale, kështu që nëse tendenca do të ishte kjo, atëherë do të kishte pasoja të caktuara, por nëse sistemet përdoren për të frenuar avancimin e tij, atëherë mund të kishim më mirë. rezultatet. Shkaqe të tjera të avancimit të tij janë aftësia për të interpretuar pothuajse të gjitha mesazhet që ne i ofrojmë, kjo mund të çojë në manipulim më të madh të përmbajtjes duke treguar njerëzit ose duke ndryshuar zërat e figurave të përfshira.
AI, ja çfarë zbulon një studim tjetër
Një studim i kryer nga Roman Yampolskiy parashikon një fund pak më tragjik për njerëzimin: sipas tij, probabiliteti që speciet tona të zhduken brenda pak dekadash është 99,99%. Një deklaratë e tillë u kritikua menjëherë nga kompani të shumta që merren me AI si Meta e Zuckemberg ose Microsoft dhe Google. Pas aktiviteteve të shumta që janë parë se mund të kryhen nga inteligjenca artificiale, kanë nisur lajmet e reja të rreme mbi këtë temë. Sipas 68.3% të ekspertëve, AI do të përdoret për të menaxhuar AI të tjera në mënyrë që të balancojë pasojat që do të kishin në planetin tonë. Për të ruajtur këtë ekuilibër, nevojitet AI që është në gjendje të përballojë kërcënimet e reja pa marrë përsipër të tjerët në mënyrë që të mos krijojë një reaksion zinxhir që do të çonte në pasoja katastrofike.
Deklaratat si ato të Yampolskiy janë shumë të pamatur dhe duhet të studiohen gjithmonë tërësisht përpara se të zbatohen masat e kufizimit të dëmit.
Discussion about this post