Mark Zuckerberg ka bërë të ditur se Meta do të investojë shumë burime në fushën e inteligjencës artificiale. Kjo përfshin një përmirësim të infrastrukturës së AI, e përdorur tani për kërkimin dhe moderimin e përmbajtjes, si dhe nga algoritmet e rekomandimit në aplikacione dhe shërbime. Kompania më pas ndërtoi çipin e saj të parë me porosi për trajnimin e modeleve.
MTIA: çip për inteligjencën artificiale
Përditësimi i infrastrukturës së AI të Meta përfshin tre veçori të reja. E para është MTIA (Meta Training and Inference Accelerator), një ASIC (Application Specific Integrated Circuit) që ju lejon të rrisni përpunimin e modeleve të AI, të reduktoni vonesën dhe të përmirësoni efikasitetin e energjisë. Është bërë nga TSMC me teknologjinë e procesit 7 nanometër.
Çipi arrin një frekuencë maksimale prej 800 MHz dhe konsumon vetëm 25 Watts. Ekziston një nënsistem memorie LPDDR5 deri në 128 GB, 128 MB SRAM dhe një firmware që menaxhon burimet kompjuterike. Meta aktualisht përdor GPU NVIDIA, por qëllimi është të zvogëlojë varësinë nga kompania Santa Clara, duke adoptuar të njëjtën strategji si Microsoft.
Megjithatë, ky është një plan afatgjatë. Superkompjuteri i Metës, i quajtur Research SuperCluster (RSC), përdoret për trajnimin e modeleve të mëdha të AI. Pas përditësimit të fundit, RSC tani përbëhet nga 2,000 sisteme NVIDIA DGX A100 për një total prej 16,000 GPU NVIDIA A100 dhe afërsisht 5 ekzaflops të fuqisë kompjuterike. Trajnimi i modelit të modelit të Large Language Model Meta AI (LLaMA) ndodh me 2048 GPU A100 në afërsisht 21 ditë.
Meta ka filluar gjithashtu planifikimin për një qendër të re të dhënash që do të mbështesë harduerin e gjeneratës së ardhshme të AI. Më në fund, kompania Menlo Park ka zhvilluar MSVP (Meta Scalable Video Processor), një ASIC për transkodimin e videos sipas kërkesës dhe në kohë reale (transmetim). Ai gjithashtu do të përdoret për gjenerimin e përmbajtjes së AI, AR dhe VR.
Discussion about this post