Objavljeno: 29.10.2019 | Avtor: Miran Varga | Monitor November 2019

Ljudje so pametnejši od algoritmov

Alexey Malanov, varnostni raziskovalec v podjetju Kaspersky, je prepričan, da bodo tehnologije s področja umetne inteligence vse bolj krojile področje kibernetske varnosti. Žal na obeh straneh.

Ko govorimo o umetni inteligenci – ali sploh obstaja etika?

Obstaja, seveda. Ljudje algoritme umetne inteligence navadno ustvarimo po nekih pravilih, tudi etičnih. Že v začetku velja ločiti med močno in šibko umetno inteligenco. Prva bo znala misliti, rešiti tudi naloge, za katere ni bila programirana, medtem ko je druga danes že v uporabi, in sicer za ožje naloge, kot smo jo naučili. Etika se v teh primerih razlikuje. Močna umetna inteligenca še ne obstaja. Smo šele na začetku oziroma niti tam ne, saj ne vemo, kako tja priti. Z vidika etike velja omeniti še to, da lahko umetna inteligenca vpliva na nas in mi nanjo. Lahko nas celo napade, a to se zdi malo verjetno in rezervirano bolj za filmske scenarije. Prepričan sem, da umetni inteligenci ne bomo dali preveč moči. Na področju etike in umetne inteligence se poraja ogromno vprašanj, a še niso relevantna, ker prave umetne inteligence še ni.

Mar obstaja način, kako zapovedati etiko umetni inteligenci? Morebiti s pravili, standardi ali z zakonodajo?

Ljudje niti sami ne vemo, kaj je dobro in kaj slabo, vsaj ne vedno. Te »neidealnosti« našega sveta se nato prenašajo v algoritme. Lahko imamo pravila, ki določajo, kaj je dobro in kaj slabo, a jih bo težko implementirati. Dodatna težava je v tem, da algoritmi lahko vidijo povezave tam, kjer jih ni oziroma jih ljudje ne zaznamo.

Je mar umetna inteligenca nevarnost za človeka, se nam res obetajo izgube delovnih mest?

Srednjeročno bodo ljudje izgubljali službe, ki jih bo nadomeščala umetna inteligenca. Čez nekaj let ali desetletij bodo odveč vozniki vseh vrst, saj se bomo okoli prevažali v avtonomno vozečih vozilih. To se pravzaprav dogaja že celotno 20. stoletje, ljudje izgubljajo službe na račun tehnologije. Tudi uvajanje umetne inteligence v posel in družbo bo boleče, a sprejemljivo.

Toda algoritme je moč zlomiti ali pretentati. Kaj to pomeni za našo prihodnost?

Predvsem to, da jih bo treba ustrezno (za)varovati. Algoritmi s področja strojnega učenja so zasnovani tako, da nam pomagajo in sprejemajo (dobre) odločitve. Žal so izpostavljeni tudi napadom, ki jih bo v prihodnje vse več. Pogosto gre za napade s t. i. zastrupljanjem, posebej če razvijalci algoritmu omogočijo, da se uči »v naravi«, torej na internetu. Microsoftov klepetalni robot je v učečem se načinu na omrežju Twitter prej kot v 24 urah postal pravi rasist. A tudi če algoritem ni v učečem načinu in sprejema le programirane odločitve, ga lahko hekerji zlorabijo. To storijo s posebej oblikovanimi vhodnimi podatki – denimo uporabijo prilagojena barvna očala z namenom, da algoritem osebo prepozna kot kakšnega zvezdnika. Kdor podrobno ve, kako deluje prepoznavanje obraza, lahko pretenta tak algoritem. V splošnem velja, da smo ljudje pametnejši od algoritmov, in to je eden ključnih odgovorov, zakaj se ne moremo zanesti na algoritme. Še najbolj zanesljive so igre, kjer obstajajo jasna pravila in omejitve.

Menite, da bo umetna inteligenca na dolgi rok poskrbela, da bo naš planet varnejši?

Nisem prepričan. Vem pa, da bo spremenila naša življenja, obetajo se nam dramatične spremembe. Ta trenutek algoritmi strojnega učenja že zmorejo rešiti veliko stvari, tudi poiskati (potencialne) kriminalce, kar je dober znak za človeštvo. Mogoče je, da bo umetna inteligenca v prihodnje odgovorila tudi na vprašanja, na katera mi ne znamo.

Kako veliko grožnjo pa umetna inteligenca predstavlja na področju kibernetske varnosti? Se nam obetajo povsem nove digitalne grožnje, če jo vprežejo zli fantje?

Ne bo tako hudo. Sicer že zdaj spremljamo tehnike, kako kibernetski kriminalci izkoriščajo tehnologijo strojnega učenja. Ni jih še veliko. Znajo pa, denimo, »uganiti« geslo telefona, in sicer na način, da pretentajo uporabnika v namestitev aplikacije, ki v ozadju zbira podatke z različnih senzorjev, prepozna gibanje roke in ugane geslo, druge besede itd. Strojno učenje v rokah napadalcev predvsem avtomatizira njihovo delo, ga naredi bolj robustnega, tudi na področju pošiljanja nezaželene pošte že skrbi za personalizacijo napadov. Ta hip je sicer največja težava, povezana z omenjeno tehnologijo, ustvarjanje lažnih novic in pristnih ponaredkov (angl. deep fake). In to ne le e-poštnih sporočil, temveč tudi zvočnih in video zapisov, s katerimi je v nadaljevanju žrtve še lažje pretentati z metodami socialnega inženiringa.

Kako pa vi, ki skrbite za varnost? Uporabljate tehnologije umetne inteligence?

Kot rečeno, zavedamo se, da je algoritme mogoče pretentati. Prav zato ne stavimo vsega na strojno učenje, ne dajemo vseh jajc v eno košaro. Ta tehnologija predstavlja le eno izmed več ravni zaščite. V laboratoriju algoritme učimo na primerih, kjer jasno povemo, kaj je dobro in kaj slabo, učimo jih zaznave sumljivega obnašanja. Vsekakor pa algoritmov na teren ne spustimo v učečem se načinu, tudi Skynet v filmu Terminatorja ni poslal nazaj v učečem se načinu. (smeh)

Pa hekerji že poskušajo vplivati na vaše varnostne rešitve?

Da. Sploh pošiljatelji nezaželene pošte so resnično neumorni. Pošiljajo na tone e-sporočil, s katerimi želijo zastrupiti naše sisteme odkrivanja. Algoritem želijo speljati iz prave smeri.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji