Apple i bashkohet garës për AI gjeneruese me lëshimin e OpenELM, një familje e re e modeleve të mëdha të gjuhëve me burim të hapur. Ndryshe nga konkurrentët që kërkojnë një lidhje me serverët cloud, OpenELM është krijuar për të ekzekutuar tërësisht në pajisje.
Disa orë më parë, komuniteti Hugging Face publikoi OpenELM, i cili përfshin tetë modele gjithsej: katër të trajnuar paraprakisht dhe katër të drejtuar nga udhëzimet. Këto modele mbulojnë madhësi të ndryshme parametrash, nga 270 milion në 3 miliardë, duke ofruar një gamë të gjerë performancash dhe aftësish.
Apple përqafon open source
Shembulli i licencës së kodit nuk ndalon përdorimin ose modifikimin komercial, por kërkon që kushdo që rishpërndan softuerin Apple në tërësinë e tij dhe pa modifikim, duhet të ruajë njoftimin origjinal dhe mohimet në të gjitha rishpërndarjet e Softuerit. Me fjalë të tjera, përdorimi komercial lejohet për aq kohë sa ruhen njoftimet për të drejtën e autorit në kodin origjinal.
Megjithatë, kompania thekson se modelet ofrohen pa garanci sigurie dhe mund të prodhojnë rezultate të pasakta, të dëmshme ose të dyshimta.
Karakteristikat e OpenELM
Lëshimi i OpenELM, i cili qëndron për Modelet e Gjuhës Efiçente me Burim të Hapur, përfaqëson një hap befasues për Apple. Kompania Cupertino, në fakt, është e famshme për konfidencialitetin e saj dhe për të qenë një kompani tipike “e mbyllur”. Ky është i fundit në një seri lëshimesh të modeleve të AI me burim të hapur nga kompania, e cila ende nuk i ka shpallur apo diskutuar publikisht përpjekjet e saj në këtë fushë përtej vendosjes së modeleve dhe dokumenteve në internet.
Modelet OpenELM të Apple kanë katër madhësi: 270 milionë, 450 milionë, 1.1 miliardë dhe 3 miliardë parametra, secili prej të cilëve është më i vogël se shumë modele me performancë të lartë atje (zakonisht rreth 7 miliardë parametra) dhe secila prej të cilave është e disponueshme në para versionet e trajnuara dhe të tutoruara.
Modelet u trajnuan paraprakisht në grupe të dhënash publike prej 1.8 trilion argumentesh nga Reddit, Wikipedia, arXiv.org dhe të tjerë. Ato janë të përshtatshme për t’u përdorur në laptopë apo edhe disa telefona inteligjentë.
Interesante, parametrat janë ndarë në mënyrë specifike në nivele të ndryshme të modelit. Sipas Apple, kjo qasje lejon performancë më të mirë për sa i përket saktësisë, duke ruajtur efikasitetin e lartë llogaritës. Prandaj, shkallëzimi me shtresa ju lejon të balanconi performancën dhe konsumin e burimeve, një element themelor për ekzekutimin plotësisht në pajisje.
Performancë e respektueshme, por jo e jashtëzakonshme
Për sa i përket performancës, rezultatet e ndara nga Apple tregojnë se modelet OpenELM performojnë mjaft mirë, veçanërisht varianti i trajnuar me 450 milionë parametra. Megjithatë, siç vuri në dukje një përdorues që filloi të testonte modelet, OpenELM duket të jetë një “model i fortë, por shumë i linjës”, që do të thotë se përgjigjet e tij nuk janë veçanërisht kreative.
Rivali i Microsoft i prezantuar së fundmi, Phi-3 Mini, me 3.8 miliardë parametra dhe gjatësi konteksti 4k, aktualisht kryeson rrugën në këtë drejtim. OpenELM pritet të përmirësohet në planin afatgjatë. Do të jetë interesante të shihet se si komuniteti, tashmë i entuziazmuar për lëvizjen me kod të hapur të Apple, e përdor atë për aplikacione të ndryshme.
Discussion about this post