Objavljeno: 10.12.2024 10:00 | Teme: umetna inteligenca, odprta koda

Llama 3.3: zmogljivost velikih jezikovnih modelov v kompaktni obliki

Družba Meta je z izdajo velikega jezikovnega modela Llama 3.3 ponovno dokazal svojo zavezanost odprtokodni skupnosti in inovacijam na področju umetne inteligence. Najnovejši večjezični veliki jezikovni model (LLM) združuje izjemno zmogljivost z optimizacijo stroškov in porabe virov. V različici s 70 milijardami parametrov tako Llama 3.3 dosega primerljive rezultate kot v preteklem poletju predstavljeni model Llama 3.1 s 405 milijardami parametrov, sevedas z občutno nižjimi stroški in potrebami po strojni opremi.

Zahvaljujoč zmanjšani velikosti modela je potrebna količina pomnilnika GPU tudi do 24-krat manjša, kar pomeni znatne prihranke pri uporabi dragih procesorjev, kot je na primer Nvidia H100 in s tem manjši porabi energije. Če je strošek enega H100 GPU-ja ocenjen na 25.000 dolarjev, lahko prihranki pri infrastrukturi znašajo tudi do 600.000 dolarjev. Poleg tega so stroški generiranja žetonov optimizirani na le 0,01 dolarja na milijon žetonov, kar model Llama 3.3 postavlja kot stroškovno učinkovitejšo alternativo konkurentom, kot sta GPT-4 in Claude 3.5.

Model je bil usposobljen na 15 bilijonih žetonov iz javno dostopnih virov ter dodatno uglašen na 25 milijonih sintetičnih primerov. Za treniranje je bilo porabljenih 39,3 milijona ur na strežnikih opremljenih s procesorji H100 s pomnilniki velikosti 80GB.

Llama 3.3 se izkaže predvsem pri večjezičnih nalogah. Na testih, kot je MGSM, dosega kar 91,1-odstotno natančnost, pri čemer podpira jezike, kot so nemščina, francoščina, španščina, italijanščina, portugalščina, tajščina in hindijščina. Z novim kontekstnim oknom velikosti 128.000 žetonov je model idealen za generiranje dolgega besedila in obdelavo kompleksnih nalog.

Med tehničnimi izboljšavami je vključena tudi arhitektura Grouped Query Attention (GQA), ki povečuje učinkovitost med inferenčnimi postopki. Poleg tega so bili varnostni vidiki izboljšani z uporabo okrepitvenega učenja na podlagi povratnih informacij ljudi (RLHF) in nadzorovanega uglaševanja (SFT). Model se učinkovito upira neprimernim zahtevam, kar zagotavlja varno in etično uporabo.

Več novic

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

Najbolj brano

  • Kaj se zgodi, če Samsungov Galaxy Z Fold prepognete 200.000-krat?

    Ustvarjalec vsebin tech-it je s prenosom v živo na YouTubu izvedel maratonski test, v katerem je ročno odprl in zaprl Samsung Galaxy Z Fold 7 kar 200.000-krat

    Objavljeno: 8.8.2025 10:00
  • Programerska naloga, ki je ni rešil nihče

    Vsako leto se najboljši dijaki v programiranju na svetu merijo na olimpijadi iz informatike, kjer nastopa tudi slovenska ekipa. Tekmovalci v dveh tekmovalnih dneh rešujejo šest nalog, kodo pa pišejo v jeziku C++. Ene izmed nalog letos ni rešil nihče izmed 330 tekmovalci.

    Objavljeno: 6.8.2025 07:00
  • Xiaomi predstavil pametni ventilator

    Xiaomi je v poletni vročini za evropske trge predstavil Smart Desktop Air Circulation Fan, kompakten pametni ventilator, zasnovan za močan pretok zraka v manjših prostorih. 

    Objavljeno: 6.8.2025 11:00
  • Microsoft bo ukinil enoto GitHub

    Ko je Microsoft leta 2018 prevzel GitHub, se ni nič bistvenega spremenilo, saj je ostal samostojna enota z istim direktorjem. A Thomas Dohmke, ki je od leta 2021čas vodil GitHub, je napovedal odhod iz podjetja, saj ima druge podjetniške cilje. Microsoft zamenjave ne bo iskal.

    Objavljeno: 13.8.2025 05:00
  • HBO Max bo še otežil deljenje gesel

    Warner Bros. Discovery bo od prihodnjega meseca začel strožje uveljavljati prepoved deljenja gesel na pretočni storitvi HBO Max. 

    Objavljeno: 8.8.2025 09:00
  • Linus Torvalds spet ponorel

    Linus Torvalds, izumitelj in še vedno glavni skrbnik Linuxa, je vedno slovel kot vzkipljiv človek, zato tudi njegov zadnji izbruh ni zelo presenetljiv. Ob pripravi nove verzije jedra 6.17 jih je pošteno napel Palmerju Dabbeltu, ki je predložil kopico popravkov za RISC-V. Torvalds je, milo rečeno, ponorel.

    Objavljeno: 14.8.2025 05:00
 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji