Za vreme korišćenja bilo koje stranice na našem web-sajtu, kompanija Laguna d.o.o. može da sačuva određene informacije na korisnikov uređaj putem "kolačića" (engleski "cookies"). Više o kolačićima

bukmarker

Dr Hana Fraj: Moramo biti na oprezu zbog algoritama skrivenih od javnosti

„Naravno, algoritmi su izuzetno korisni, ali treba da pazimo da ne postanemo samozadovoljni i nesposobni da ih dovedemo u pitanje“, upozorava dr Hana Fraj, sa Londonskog univerziteta.
Dr Hana Fraj: Moramo biti na oprezu zbog algoritama skrivenih od javnosti - slika 1
Dr Fraj predaje matematiku gradova u Centru za naprednu prostornu analizu na Londonskom univerzitetu, a njeno istraživanje se „vrti oko proučavanja složenih društvenih i ekonomskih sistema različitih razmera, od individualnih do urbanih, regionalnih i globalnih, a naročito onih sa prostornim elementom“.

Međutim, iako nije uključena u istraživanje, dr Fraj brzo postaje jedna od omiljenih britanskih matematičara, poznata po svom dokumentarcu „The Joy of Data“ na BBC 4, kao i po svom popularnom TED govoru „Matematika ljubavi“, gde su statistički i naučno-informacioni modeli primenjeni na veze, seks i brak.

„Nauka o podacima je eksplodirala u proteklih pet godina“, zato što su „podaci danas pristupačniji“, rekla je dr Fraj, „zbog senzora, interneta stvari i tenedencije da nam život bude onlajn“ sada je mnogo toga dostupno u vidu podataka koji se potom podrobno analiziraju.

Mi smo „još pre nekoliko godina uvideli koliko podataka postoji“, rekla je dr Fraj, „i sve je to veoma uzbudljivo. Imamo izvanredne mogućnosti da iznova objektivno sagledamo kako planiramo naša društva, naše poslove, skoro sve sa čime se susrećemo na dnevnom nivou.“

Uprkos tome, još uvek je potrebno da ljudi „obrate pažnju kako podaci o njima samima mogu biti analizirani u različite svrhe“.

Algoritmi skriveni od javnosti

Ovo može biti privremena poteškoća ili ozbiljan problem, zato što se analizirani podaci mogu upotrebiti za različite algoritme: od reklama koje ohrabruju potrošače da kupe određene proizvode, preko ponuda za kredite ili privlačne stope osiguranja, do podataka o tome ko se sve ima krivični dosije pravnom sistemu SAD.

„Algoritme koji su skriveni za javnost, naravno, nije lako otkriti“, rekla je dr Fraj. Problem je što, bez pristupa i uvida u to kako oni rade, „ne možete da im se protivite. Ako njihove pretpostavke i sklonosti nisu pod nadzorom, onda se čitav sistem stavlja u ruke nekoliko programera koji nemaju odgovornost za odluke koje prave.“

„U nekim situacijama ovo nije bitno“, rekla je Frajeva, „Netfliks nije od ključne važnosti za strukturu društva; ali opet, neki algoritmi za predviđanje stope recidivizma u Americi se koriste u osuđivanju, a analiza podataka tu može da ima ozbiljne posledice“.

„Često navodim primer mladića koji je osuđen za silovanje maloletnice – čin se desio uz pristanak, ali je i dalje zakonski krivično delo – a njegovi podaci su stavljeni u algoritam o mogućnosti recidivizma i to je upotrebljeno prilikom izricanja kazne. Pošto je mlad, i u pitanju je krivično delo seksualne prirode, smatralo se da postoji veća šansa za recidivizam, i zato je osuđen na zatvorsku kaznu. Ali da je imao 36 godina, a ne 19, dobio bi blažu kaznu, iako bi prema nekom razumnom merilu, svako očekivao da tridesetšestogodišnjak dobije oštriju kaznu.“

Saradnja i zanimanje

Dr Fraj kaže da teži da „sagleda stvari iz perspektive pojedinca u društvu, a ne potrošača. Kada osmišljavate algoritme, vas zanima profit, a ne boljitak društva, odnosno individualnog života. Ako se te dve stvari poklope, onda je to sjajno, ali ako ćemo pravo, vas najviše zanima dobra zarada.“

„Problem je kada se ove dve stvari razilaze, kada algoritmi štite posao pre pojedinaca“, dodala je ona. „Klasični primeri su stope osiguranja ili krediti koje nude banke, gde su ljudi iz različitih sredina nepravedno u lošijem položaju zbog kategorije podataka u kojoj se nalaze. Moglo bi da se argumentuje da se nepravda širi i na druge vrste komercijalnog softvera – LinkedIn je bolje plaćene poslove češće prikazivao muškarcima nego ženama“, što je takođe bazirano na nepoštenoj analizi.

„I svaki put kada programer odluči kako će koristiti podatke, kako da im izračuna prosečnu vrednost ili da ih očisti, prenosi svoje sklonosti na njih. Ponekad te pretpostavke i sklonosti mogu da budu dobro skrivene, i to može da bude opasno“, dodala je, „ali čak i u sistemima bez algoritama i podataka postoji subjektivni element“, ukazujući na istraživanja koja su pokazala da sudije izriču teže kazne neposredno pre ručka.

Moglo bi da bude dobro

Postoji mogućnost – kao sa radom startapa „Numerai“ – da se algoritmi koriste u društvenom sistemu koji bi bio „mnogo otvoreniji i bolji za saradnju“, rekla je dr Fraj. „To je jedan od načina da se zaštitimo od neželjenih posledica koje naposletku mogu da nanesu veliku štetu."

„Radim u međudisciplinarnom odeljenju. Kada ispitujete podatke društvenih sistema ili društvenih struktura, nedostatak komunikacije među odeljenjima ne sme da važi. To mora da bude zajednički napor.“

„Zamislite život bez algoritama. Ne biste mogli ništa da uradite. Oni su već sveobuhvatni. Skloni smo da verujemo onome što nam matematika ili naučnici govore, bez pogovora, previše vere polažemo u magičnu moć analize.

Volela bih da je javnost svesna da postoje ograničenja. Algoritmi i podaci treba da podrže ljudsku odluku, a ne da je zamene.“

Izvor:  theregister.co.uk
Prevod: Đorđe Radusin

Autor: Hana Fraj

Podelite na društvenim mrežama:

Slika Hana Fraj

Hana Fraj

Hana Fraj radi kao docentkinja na matematici gradova na Univerzitetskom koledžu u Londonu. U svakodnevnom poslu ona koristi matematičke modele kako bi proučavala obrasce u ljudskom ponašanju, i sarađivala je sa vladama, policijskim snagama, analitičarima zdravstva i supermarketa. Njeni TED govori sakupili su milione pregleda i ona je vodila televizijske dokumentarce za mreže BBC i PBS; takođe je voditeljka dugotrajnog naučnog podkasta The Curious Cases of Rutherford & Fry na mreži BBC. Foto: © Peter Bartlett

Pridruži se našoj zajednici i isprati dešavanja.

visa-logo4x
Group-96674x
Group4x
Group-96724x
layer14x
Banca-intesa-logo-w593
Group-96654x
Group-96664x
image-4384x
Group-96644x
image-4394x

Copyright © Laguna d.o.o. Starine Novaka 23, Beograd • Matični broj: 17414844

Powered byoozmi.com