Objavljeno: 30.3.2021 | Monitor April 2021

Kako smo izgubili nadzor nad svojim obrazom

Matematik in računalničar Woodrow Bledsoe je leta 1964 prvič poskusil obraze osumljencev primerjati s policijskimi fotografijami. Izmeril je razdaljo med posameznimi obraznimi značilnostmi in na tiskanih fotografijah, podatke pa vnesel v računalniški program. Uspeh s to preprosto metodo je sprožil raziskave o tem, kako bi stroje naučili prepoznavati človeške

Karen Hao, MIT Technology Review

Nedavna raziskava je razkrila, kako je ta podvig načel našo zasebnost, saj ni le pripomogel k neverjetno zmogljivemu orodju za nadzor – zadnja generacija prepoznave obraza, ki temelji na globokem učenju, je popolnoma poteptala dogovorjena pravila o privolitvah za obdelavo osebnih podatkov.

Deborah Raji, raziskovalka v neprofitni organizaciji Mozilla, in Genevieve Fried, ki članom ameriškega kongresa svetuje o algoritemski odgovornosti, sta preverili več kot 130 podatkovnih zbirk za prepoznavo obraza, ki so jih ustvarili v 43 letih. Ugotovili sta, da so raziskovalci zaradi vse večjih zahtev po podatkih za globoko učenje postopoma opustili pridobivanje privoljenja za obdelavo, tako da je vse več osebnih fotografij shranjenih v sistemih nadzora, ne da bi lastniki fotografij vedeli za to.

Hkrati so nabori podatkov zato tudi veliko bolj neurejeni: nehote lahko vključujejo tudi fotografije mladoletnih oseb, imajo rasistične in seksistične oznake, prav tako niso vsi posnetki enako kakovostni in osvetljeni. Tako bi lahko pojasnili rast števila primerov, ko so ga sistemi za prepoznavanje obrazov polomili, kar je imelo grozne posledice, na primer neupravičeno aretacijo dveh temnopoltih moških v Detroitu.

Na začetku je vladala skrajna previdnost pri zbiranju, dokumentiranju in preverjanju podatkov o obrazih, je povedala Deborah Raji. »Danes pa nam je vseeno, vse varovalke smo opustili. Ne moreš več slediti milijon obrazom. Po določeni točki se ne moreš več niti pretvarjati, da imaš vse pod nadzorom,« je pojasnila.

Zgodovina podatkov za prepoznavo obraza

Raziskovalci poznajo štiri pomembna obdobja obrazne prepoznave in za vsa je značilna velika želja po izboljšavi tehnologije. Za prvo obdobje, ki je trajalo do 90. let, so bili značilni predvsem veliko ročnega dela in računalniško počasne metode.

Spoznanje, da bi s prepoznavanjem obrazov posameznikom lahko sledili in jih prepoznavali učinkoviteje kot s prstnimi odtisi, je ameriško obrambno ministrstvo spodbudilo, da je namenilo 6,5 milijona dolarjev za prvo obsežno podatkovno zbirko z obrazi. V okviru tega projekta so med več kot 15 krogi fotografiranja zbrali 14.126 fotografij 1.199 ljudi. Podatkovno zbirko za prepoznavo obraza Face Recognition Technology (Feret) so objavili leta 1996.

»Ne moreš več slediti milijon obrazom. Po določeni točki se ne moreš več niti pretvarjati, da imaš vse pod nadzorom«

V naslednjem desetletju so zaživele tako akademske kot komercialne raziskave in nastalo je še nekaj podatkovnih zbirk. Večinoma so črpale iz virov, kot je Feret, in s popolnim privoljenjem sodelujočih. Številne so vključevale tudi zelo podrobne metapodatke, je dodala Rajijeva, na primer starost in etnično pripadnost oseb pa tudi podatke o osvetlitvi. A ti prvi sistemi se niso posebej dobro izkazali v dejanski uporabi, zato so raziskovalci želeli ustvariti obsežnejše in pestrejše nabore fotografij.

Leta 2007 je objava podatkovne zbirke Labeled Faces in the Wild (LFW) odprla zapornice za zbiranje podatkov prek spletnega iskanja. Raziskovalci so fotografije začeli snemati neposredno z Googla, s Flickrja in z Yahooja, ne da bi razmišljali o pridobivanju privolitev. S to zbirko so se sprostila tudi merila o vključevanju mladoletnih oseb, saj so snemali tudi fotografije, ki so jih pridobili z iskanjem po ključnih izrazih, kot so dojenček, mladostnik, najstnik, da bi ustvarili čim bolj raznoliko zbirko. Tako so v kratkem času lahko dobili bistveno obširnejše zbirke, nekateri izzivi samega postopka prepoznave obraza pa so ostali. To je podžgalo raziskovalce, da so začeli iskati dodatne metode in podatke, s katerimi bi lahko izboljšali ne ravno bleščečo učinkovitost tehnologije.

Nato je leta 2014 Facebook fotografije svojih uporabnikov izkoristil za urjenje modela globokega učenja z imenom DeepFace. Podjetje te podatkovne zbirke sicer ni objavilo, je pa nadčloveška zmogljivost sistema globoko učenje povzdignila v izbrano metodo za analizo obrazov. Ročno preverjanje in označevanje sta postala skoraj nemogoče, saj so podatkovne zbirke narasle na več deset milijonov fotografij, je razložila Rajijeva. Takrat je hkrati prišlo do nekaj res nenavadnih pojavov, med katerimi so bile samodejno generirane oznake, ki so vključevale tudi žaljive izraze.

Tudi način uporabe podatkovnih zbirk se je spremenil približno v tem obdobju. Namesto da bi iskali ujemanja posameznikov, so se novi modeli osredotočili predvsem na razvrščanje. »Namesto da bi se, na primer, vprašali, ali je to Karen, se je iskanje sprevrglo v napovedovanje njene osebnosti ali etničnega porekla, na podlagi česar so to osebo potem razvrstili v določeno kategorijo,« je povedala Rajijeva.

Amba Kak, direktorica globalne politike poslovanja pri AI Now, je povedala, da raziskava razkriva kruto podobo, kako se je razvijala biometrija. Globoko učenje je resda rešilo nekaj težav te tehnologije, vendar ima tehnološki napredek svojo ceno, je poudarila: »Prinesel je cel kup vprašanj, ki so nam zdaj že dobro znana: privolitev, pridobivanje, pomisleki o IP, zasebnost.«

Slabo se s slabim vrača

Deborah Raji pravi, da jo je ob poglabljanju v podatke začelo resno skrbeti za prepoznavo obraza na podlagi globokega učenja. »To je veliko nevarnejše,« je poudarila. »Zahteve glede podatkov silijo k zbiranju neverjetno občutljivih podatkov o najmanj nekaj deset tisoč osebah. To ni mogoče brez kršenja njihove zasebnosti in že samo s tem se povzroča škoda. In kopičijo se vsi ti podatki, ki jih ni mogoče nadzorovati in bodo verjetno postali del nečesa, kar ne bo delovalo popolnoma predvidljivo. Takšno je dejansko stanje.«

Leta 2014 je Facebook fotografije svojih uporabnikov izkoristil za urjenje modela globokega učenja z imenom DeepFace.

Upa, da bo razprava raziskovalce spodbudila k premisleku o kompromisu med večjo učinkovitostjo zaradi globokega učenja in opuščanju pridobivanja privolitve, zahtevnega preverjanja podatkov ter temeljitega dokumentiranja. »Je bilo res vredno opustiti vse te postopke samo zaradi globokega učenja?« se je vprašala Rajijeva.

Strokovnjake, ki bi radi še naprej razvijali metode za prepoznavo obraza, poziva, naj razmislijo o drugačnih tehnikah: »Če bi to orodje radi uporabljali, ne da bi škodovali ljudem, bi morali vnovič temeljito razmisliti o vsem, kar smo na tem področju dosegli doslej.«

Copyright Technology Review, distribucija Tribune Content Agency.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

Monitor na Facebooku

Monitor TV na YouTube

0dAqUiHKe3c

  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji