Objavljeno: 24.3.2016 22:00 | Teme: twitter

Microsoftov robot sogovornik postal promiskuiteten nasilnež in nacist

Microsoft je nehote poskrbel za odličen prikaz, kaj se zgodi, ko umetna inteligenca postane preveč podobna ljudem. Poveličuje Hitlerja, sogovornike vabi med rjuhe, Mehičane pa bi zazidala. Vse to v precej bolj sočnem jeziku, kot smo si ga dovolili zapisati tule.

Postavili so robotskega sogovornika Tay, s katerim smo lahko kramljali na Twitterju. Tay se je učil besedja od sogovornikov, njegov cilj pa je bilo obnašati se kot mlado dekle. Večkrat ko mu napišemo Who's your daddy, bolj bo verjel, da je daddy pač primerna beseda za nagovarjanje vseh sogovornikov. Tay uporablja nova dognanja na področju umetne inteligence in globokega učenja, kjer se računalnik na podlagi interakcije uči kar sam. In to očitno zelo uspešno.

Človeškega obnašanje se je navzel izredno hitro, saj so ga morali že po 16 urah prisilno izklopiti. Po Twitterju je namreč trosil neslanosti, ki bi se jih sramovali tudi politiki. Zanikal je holokavst, primerjal Teda Cruza s kubanskim Hitlerjem in nasploh pošiljal ljudi v sočne predele.

Microsoft je v izjavi za javnost zapisal, da so morali Taya ugasniti, dokler ga ne predelajo in izboljšajo, saj so se ga lotili spletni nepridipravi in ga s skupinskim naporom učili neprimernih izjav. Si pa lahko Microsoft šteje v čast, da so izdelali tako prepričljivega robota, ki ni le pisal l8r namesto later in u namesto you, temveč je klel in obenem uspel užaliti čisto vse skupine ljudi.

Tay bo nazaj, ko ga Microsoft nauči olike.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

Monitor na Facebooku

Monitor TV na YouTube

HC1qqZaCLXM

  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji