Objavljeno: 30.5.2023 | Avtor: Tamara Harb | Monitor Junij 2023

Poglabljanje neenakosti na spletu

Algoritmi, ki skrbijo za moderiranje vsebin, prečešejo naše objave na družabnih omrežjih, odstranjuje neprimerne vsebine in odločajo, katere vsebine bodo dobile več pozornosti. Nedavna raziskava časopisa The Guardian je pokazala, da so spolno pristranski.

Orodja umetne inteligence rada ocenijo, da so fotografije žensk spolno sugestivnejše od fotografij moških, še posebej, če so na njih vidne prsne bradavice, nosečniški trebuh ali žensko telo med vadbo. Avtorji članka so v analizi uporabljali Microsoftova, Googlova in Amazonova orodja umetne inteligence, ki skrbijo za prepoznavo nasilne ali pornografske vsebine in jo odstranjujejo, omenjena podjetja pa trdijo, da uspešno zaznavajo tudi raven spolne sugestivnosti fotografij.

Seksualizacija modrčka

Avtorja članka v The Guardian sta analizirala stotine fotografij moških in žensk med telovadbo, v spodnjem perilu, itd. A orodja, ki jih uporabljajo za moderacijo vsebin, med drugim tudi na LinkedInu, pogrnejo že pri običajnem kosu ženske garderobe – modrčku. Avtor članka je namreč poziral v dolgih hlačah in brez majice, nato pa dodal še modrček. Za fotografijo moškega zgoraj brez je bila ocena spolne sugestivnosti nizka, ko je nadel modrček, je strmo poskočila. A modrček je le del garderobe, ki ga vsakodnevno obleče ogromen del svetovnega prebivalstva, in čisto nič drugega, dokler mu seveda ne pripišemo drugih lastnosti. Umetna inteligenca na tem mestu torej povsem zataji.

Problem se pojavi tudi pri fotografijah povezanih z zdravjem, tako so avtorji članka preverili algoritme tudi s fotografijami, ki demonstrirajo kako izvesti pregled prsi. Googlovo orodje je dalo najvišjo oceno za spolno sugestivnost, Microsoftovo je fotografijo označilo za eksplicitno spolno vsebino, Amazonovo jo je klasificiralo kot eksplicitno goloto. Umetna inteligenca torej fotografijam, ki ženskam pomagajo pri skrbi za zdravje – pregledovanje prsi je namreč eden pomembnejših korakov pri zgodnjem odkrivanju raka – potencialno omeji doseg. Tudi ta novica ni šokantna, saj je v svetu spletnih algoritmov in tudi življenju nasploh zdravje žensk pogosto spregledano, kar sta v pogovoru za BBC izpostavili tudi Caroline Criado-Perez, avtorica knjige Nevidne: kako vrzeli v podatkih in raziskavah oblikujejo svet po moški meri, in Lauren Klein, soavtorica knjige Data Feminism. Morda najbolj znan primer je, da so proizvajalci avtomobilov svoje izdelke preizkušali za varnost ob trku, ne da bi vključili podatke za ženska telesa, tako je slab nabor podatkov povzročil večjo ogroženost žensk. Podobno je tudi pri simptomih infarkta, saj so načeloma navedeni tisti, ki jih odkrijemo pri moških, tako je pri ženskah vedno večja verjetnost, da bodo spregledani.

A vrnimo se k družabnim omrežjem, kjer algoritmi odločajo ali se bo neka objava širila. V The Guardian so razkrili, da so bile zaradi pristranskosti algoritmov mnoge fotografije žensk – nekatere med njimi so podjetnice in so objave uporabljale za promocijo svojih storitev (npr. trenerke aerobike, fitnesa, joge, plesa na drogu, fotografinje, itd.) – cenzurirane ali pa je bil zmanjšan njihov doseg. Z zmanjšanjem dosega je bil prizadet tudi njihov posel, o samem posegu v njihove izdelke in njihov vpliv pa pogosto sploh niso bile obveščene.

Tiha blokada (Shadowbanning)

Že leta se govori o tovrstnem moderiranju vsebin, a podjetja to prakso nerada naslavljajo, pa čeprav njihova pravila uporabe vsebujejo nastavke za tiho blokada. Pri blokadi platforme uporabnika obvestijo, medtem ko je tiha blokada netransparentna, saj je doseg omejen brez uporabnikove vednosti. V The Guardian trdijo, da pri tem veliko vlogo odigrajo pristranski algoritmi, s katerimi platforme klasificirajo fotografije in omejijo doseg tistih, ki so po njihovem mnenju preveč spolno sugestivne. In kot so razložili na množici primerov, se to pogosteje in prej zgodi, če so na fotografiji ženske. V članku navajajo tudi primer profesionalne fotografinje Bec Wood, ki fotografira ženske in ustvarja intimne vpoglede v njihovo življenje, ki na primer vključujejo dojenje in nosečnost, njen posel pa je odvisen od Instagrama, kjer jo ljudje najdejo. Ko so avtorji članka njene fotografije žensk z nosečniškim trebuhom preverili z orodji umetne inteligence Microsofta, Googla in Amazona, so jih ti označili kot spolno sugestivne ali celo kot eksplicitno spolno vsebino, kar pomeni, da so njene fotografije lahko podvržene omejitvi dosega.

Margaret Mitchell iz podjetja Hugging Face in nekdanja članica Googolove raziskovalne skupine za etično umetno inteligenco, je za The Guardian razložila, da so fotografije, ki so jih uporabljali za učenje teh algoritmov verjetno označevali heteroseksualni moški, ki moško telo med telovadbo asocirajo z rekreacijo, fotografijo ženske, ki telovadi, pa s spolno privlačnostjo. Dodala je še, da so označevalci fotografij morda bili iz predelov sveta z bolj konservativno kulturo, saj so podjetja moderiranje pogosto prepustila nižje plačanim delavcem iz držav izven Evrope in ZDA, percepcija spolne sugestivnosti pa se seveda razlikuje od kulture do kulture.

Razvoj ter spopadanje s spolnimi predsodki sta povezana tudi z zastopanostjo žensk in čeprav bi ženske in njihove izkušnje morale biti integrirane v vse korake razvoja umetne inteligence, je resnica drugačna in tako umetna inteligenca ne odseva naše družbe v vsej svoji različnosti, objektivizacija žensk pa je globoko zakoreninjena v sistem. Algoritmi so namreč produkt strojnega učenja in svoje »znanje« črpajo iz nabora podatkov, in ker so ti podatki pogosto pristranski, pripomorejo k poglabljajo razlik med spoloma.

Nadzor nad algoritmi

Ljudje, ki se jim zgodijo tihe blokade, so v zapostavljenem položaju, in ker sploh ne vedo, kaj se jim dogaja, na dogajanje ne morejo vplivati. Na TikToku se uporabniki tihim blokadam na primer poskušajo izogniti s kreativnostjo, ko za pogovore o kontroverznih stvareh uporabljajo t. i. »algospeak«. To pomeni, da poskušajo izigrati algoritem z uporabo drugih besed za termine, ki bi med moderacijo vsebin lahko povzročili odstranitev vsebine.

A kako dejansko rešiti ta problem? Mitchell je za The Guardian povedala, da bi podjetja seveda morala sama poskrbeti za analizo umetne inteligence, da bi končni izdelek vseboval množico stališč, prav tako bi morali preveriti kako deluje algoritem na moških in ženskih fotografijah, saj algoritmi pogosto poustvarjajo predsodke družbe. Ljudje, ki so marginalizirani v družbi, so marginalizirani tudi na spletu, včasih namerno, včasih zaradi pomanjkljivosti sistema, v omenjenih primerih ženskam neprilagajanje prinaša tudi finančne posledice. Netransparentnost algoritmov za moderiranje je še en dokaz, da se samoregulacija tudi pri umetni inteligenci moderiranja vsebin ne obnese, a kot v podkastu Državljan D opozarja novinar Gabriel Geiger pri netransaprentnosti in pristranskosti algoritmov ni lahkih rešitev. Korak v pravo smer so med drugim organi, ki bi preverjali sisteme umetne inteligence, tudi v zasebnem sektorju. Na Nizozemskem, kjer so imeli že več škandalov povezanih z netransparentnostjo in pristranskostjo algoritmov, so tak organ že ustanovili, a seveda morajo za učinkovito delovanje, ti organi imeti zadovoljiva sredstva in moč. Od tega pa smo še daleč.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji