AlphaGo: umetna inteligenca, ki se uči sama

Objavljeno: 19.10.2017 09:00 | Teme: umetna inteligenca

DeepMindov računalnik z nevronsko mrežo AlphaGo, ki je že večkrat prepričljivo pokazal, da je v znameniti starodavni kitajski igri go boljši od človeka, je v novi verziji AlphaGo Zero postal še neprimerno boljši. Tokrat se je od nepopisanega lista do najboljšega igralca na svetu razvil v pičlih 40 dneh, ne da bi mu kdorkoli pri tem pomagal. Kaj sploh še ostane človeštvu?

AlphaGo je že pred poldrugim letom premagal najboljšega južnokorejskega igralca goja Lee Se-dola, letos pa je zlomil še svetovnega prvaka Ke Jieja. AlphaGo se je tedaj goja učil podobno kot ljudje: poznal je pravila, potem pa si je ogledal oziroma analiziral na tisoče že odigranih partij. To je prednost, če želi premagati človeka, a se s tem hkrati naleze človeških taktik pri igranju, ki niso nujno optimalne.

Čeprav ima človeštvo za seboj več tisoč let mojstrenja v goju, še vedno ne igramo popolno. AlphaGo Zero se je zato lotil učenja povsem drugače. Vanj so sprogramirali zgolj pravila, potem pa ga pustili, da se uči sam z igranjem proti sebi. Rezultati so impresivni. V samo treh dneh je AlphaGo Zero postal boljši od verzije, ki je premagala Lee Se-dola, v 21 dneh  je premagal verzijo, s katero je neuspešno igral Ke Jie, v štiridesetih dneh pa je postal boljši od dotlej najboljše verzije AlphaGo.

Rezultati so hkrati impresivni kakor tudi strašljivi. Pokazali so, da za učenje (reinforcement learning) niso ključni predhodni podatki, ki lahko v določenih primerih celo preprečujejo doseg optimuma, niti računska moč, temveč algoritmi. Kar strašljivo pa je videti, da se lahko računalnik v manj kot mesecu dni brez mentorja in uporabe predhodnega znanja, torej od začetka in brez tuje pomoči, nauči igrati več in bolje, kot se je človeštvu uspelo v tisočletjih.

DeepMind.

Članek v Nature.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!
Prijava

Komentirajo lahko le prijavljeni uporabniki