YouTubov algoritem sovraštva

Mnenje, kolumna ali komentar
19. 12. 2019 - 16.00

V današnjem terminalu bomo postregli s komentarjem na nekoliko že postano debato. Ta se vleče vsaj že tri leta in se osredišča okoli vprašanja, ali je YouTubov algoritem kriv za radikalizacijo posameznikov in za razrast problematične mreže alternativnih vplivnežev. Debata na prvi pogled ne pridoda nič bistvenega k splošnemu moraliziranju in obtoževanju interneta za kvarjenje mladine. Prav tako je simptomatično, da postane posebej pereča zgolj v trenutkih izjemnih tragedij - letos recimo ob primeru množičnih pobojev v Christchurchu na Novi Zelandiji in El Pasu v Teksasu – in posledično zamre, preden bi lahko zadobila bolj sistematično in kostruktivno obliko.

Obtoževanje algoritmov se namreč v nekaterih ključnih točkah razlikuje od splošnega obtoževanja interneta. Algoritemsko sovraštvo namreč nima nič skupnega s sovraštvom, ki nastane kot produkt anonimnosti in občutka privatnosti in domačnosti, zaradi katerega nam na internetu - podobno kot v osebnih avtomobilih - lažje popustijo zavore glede izražanja negativnih čustev do okolice. Algoritemskega sovraštva prav tako ni mogoče razložiti kot rezultat izolacije, potopitve v virtualne svetove iger in izvzetosti iz realnega sveta, ki naj bi bili ključni pri radikalizaciji norveškega terorista Andersa Breivika (kot pokaže analiza Jacoba Aslanda Ravndala).

Koncept algoritemskega sovraštva je specifičen zato, ker omogoča pogled na ključno distinkcijo med sovraštvom, ki je rezultat človeške aktivnosti in sovraštvom, ki je rezultat novih tehnologij, natančneje umetne inteligence in strojnega učenja. Poglejmo konkretno in nekoliko poenostavljeno: Breivik, ki se je pretežno radikaliziral v dobi pred izrazito internetno personalizacijo, se je moral načeloma sam odločiti za to, da v iskalnik vtipka problematične besede; sam je moral aktivno raziskovati spletno podtalje, da je lahko na njegovih robovih našel ideje, ki so ustrezale njegovim prepričanjem.

Toda bum, veliki-mali prelom: zgodi se december 2009 in od takrat naprej ni več standardnega Googla, kot v svojem bestsellerju o »filtrirnih mehurčkih« razloži Eli Pariser. Rezultati naših iskanj so vse bolj prilagojeni specifično nam in naši predhodni internetni aktivnosti, kakor tudi aktivnosti tistih, ki so nam blizu. Priporočilni algoritmi nadomestijo človeško aktivnost in človeško selekcijo. Teza o algoritemskem sovraštvu tako implicira, da se posameznik lahko radikalizira brez lastne aktivne intence in želje: YouTube sam je - kot trdi Zeynep Tufekci – »veliki radikalizator«. Še bolj konkreten je Kevin Roose, ki zloglasni članek »Nastanek YouTubu radikalca«, v katerem razišče spletno zgodovino nekega spreobrnjenega konzumenta »mejnih YouTube vsebin«, zaključi z ugotovitvijo, da je »izredno težko določiti, kje se konča YouTubov algoritem in kje se začne njegova osebnost«.

Kdo je skratka v tem kontekstu kriv in odgovoren? Posameznik ali algoritem?

Jasno je, da je tovrstna ločnica zavajajoča, saj se v samem jedru zlobne in tuje umetne inteligence, ki jo uteleša YouTubov algoritem, ne nahaja nič drugega kot izraz pristne človeške želje. Kaj imam s tem v mislih?

YouTubov algoritem ni nastal z namenom radikaliziranja, četudi politična radikalizacija tudi ni rezultat kakšne naključne napake. Nasprotno, je odraz tega, da YouTubov priporočilni algoritem deluje zelo dobro, na kar nakazuje dejstvo, da je v drugih kontekstih sprejet kot algoritem, ki mu trenutno najbolj uspeva univerzalno servirati vsebino, ki bi si jo uporabniki zares želeli videti. Na nek način bi torej lahko rekli, da ne gre za algoritem, ki bi se zoperstavljal človeškemu agensu, temveč tega še potencira.

Tudi če pogledamo genealogijo njegovega nastanka, ta nikakor ne izraža prikrite želje reakcionarjev iz Silicijeve doline, ki naj bi nameravali prek zlorabe umetne inteligence skrivaj zavajati mmanipulirane mase, temveč pristno željo po tem, da bi algoritem zadovoljil želje uporabnikov (in posledično seveda omogočil lažjo monetizacijo prek prodaje oglasov). Ključno spremembo paradigme, ki naj bi pripeljale do razrasta algoritemskega sovraštva, naj bi predstavljala zamenjava glavnega merila uspešnosti: namesto števila ogledov, ki so zlahka zmanipulirani s clickbait naslovi in privlačnimi slikami, je začel algoritem bolj staviti na čas gledanja, ki naj bil boljši odraz zadovoljstva uporabnikov z določeno vsebino. »Spodbujevalno učenje« [reinforcement learning] je nadalje posledično pripomoglo k radikalizaciji, ker je odpravilo nagnjenost algoritma k favoriziranju zgolj popularnih in sredinskih vsebin, kar ima na področju politike povsem drugačne učinke kot denimo v kontekstu glasbe in pop-kulture. Tretja sprememba je bila uporaba sistema umetne inteligence Google Brain, ki naj bi bila zmožna bolj predvideti posameznikove vzorce mišljenja v različnih kontekstih.

Algoritem uspe zadovoljiti željo nekoga, ki se navdušuje nad sovražnimi vsebinami in teorijami zarote, na povsem isti način kot uspe zadovoljiti željo kateregakoli drugega konzumenta vsebin. V obeh primerih gre za željo, ki hoče obenem razliko in ponavljanje; za željo, ki pričakuje neprestano nekaj novega in si želi videti, kaj je za zastorom, za katerim pa si obenem vseeno želi ugledati nekaj pričakovanega in starega, nekaj, kar utrjuje že vzpostavljena prepričanja.

Vseeno pa lahko domnevamo, da obstajajo specifični razlogi, zakaj je umetna inteligenca, ki ji je vseeno za levo in desno ter za resnico in laž, tako uspešna ravno pri zadovoljevanju mišljenja, ki je nagnjeno k določenim lahko predvidljivim vzorcem: prehitremu posploševanju, stereotipizaciji, izključevanju drugega in resentimentu. Zdi se, da je problem tovrstnega mišljenja ravno ujetost v določene nespremenljive strukture, da je v njem samem mogoče najti neko »robotsko« togost, ki jo je enostavno predvideti in posledično zadovoljiti. Kot izpostavlja Luke Munn, je morda v tej strukturi ravno ločevanje med »nami« in »drugimi« - na katerega ni odporna tudi levica - tisto, ki predstavlja osnovo algoritemskega sovraštva. To ločevanje samo pa povratno seveda direktno ustreza personaliziranemu okolju mehurčkov, ki ga algoritmi ustvarjajo.

Morda je skratka problem sama predpostavka, da mora algoritem »izpolnjevati želje«, sploh če vzamemo resno teoretsko idejo Deleuza in Guattarija, da fašizem prvenstveno ni manipulacija in zavajanje, temveč izraz pristne želje množic. Prav tako se velja zamisliti, ali je mogoče ista pravila, ki veljajo za konzumacijo popkulturnih vsebin aplicirati tudi na konzumacijo novic in političnih vsebin, katerih prvi namen ne bi smel biti zadovoljevanje posameznikovega okusa, temveč obveščanje o zunanjosti, ki je povsem indiferentna do naših želja. Bi bilo torej mogoče načelo javnosti nekako vpisati v sam algoritem ali pa je, nasprotno, edina rešitev človeška cenzorska roka, ki zmore razločiti, kdaj algoritmi favorizirajo problematične vsebine?

Kot izpostavlja Pariser s svojo tezo o filtrirnih mehurčkih, je občutek, da si gospodar svoje lastne usode v primeru informacijskega determinizma varljiv: »zadovoljevanje sebe tako pomeni, da se posameznik ujame v statično, vedno bolj ozko verzijo samega sebe, v neskončno zanko jaza«. Medsebojno se napadajoče identitetne politike, ki predstavljajo srečanja tovrstnih zaprtih jazov, vajenih zadovoljitve lastne želje, tako niso ključni vzrok, temveč prej zgolj eden izmed elementov algoritmizirane mnenjske krajine, v kateri se, v ozadju identitetnega boja, odvija tudi svojevrsten spopad med človeško in umetno inteligenco.

Pariserjeva teza je bila na empirični ravni sicer večkrat ovržena, pri čemer pa se je predpostavljalo, da je stanje ujetosti v filtrirni mehurček primerljivo s stanjem ujetosti v totalitarni režim, v katerem so informacije z druge strani povsem nedosegljive in nevidne. Vse bolj pa se kaže, da glavni problem filtrirnih mehurčkov ni popolna informacijska izolacija, temveč prej specifičen spoj med posameznikovo željo in določenim tipom političnih vsebin.   

Terminal sem spisal Jernej Kaluža

facebook twitter rss

Prazen radio ne stoji pokonci! Podpri RŠ in omogoči produkcijo alternativnih, kritičnih in neodvisnih vsebin.

Prikaži Komentarje

Komentarji

Enih 6 let za cajtom ma ok.

v svojem izvoru in pojavnosti ni nekaj novega, je samo drugacno izrazje pralgoritmov...

Komentiraj

Plain text

  • No HTML tags allowed.
  • [[nid:123]] - Insert a node content
  • Samodejen prelom odstavkov in vrstic.
  • Spletni in e-mail naslovi bodo samodejno pretvorjeni v povezavo.

Z objavo komentarja potrjujete, da se strinjate s pravili komentiranja.