Tehnologija i energija

Autonomni automobil će ubiti vas ako će time spasiti više drugih života

M.P.

Računalni mozak unutar autonomnih vozila bit će dovoljno brz kako bi donosio odluke o životu i smrti. No, je li to u redu? Bioetičar komentira veliki problem nadolazećeg doba robota.

Zamislite da imate upravljač za usmjeravanje tračnica vlaka. Brzi vlak stiže svake minute, ali kad pogledate u daljinu vidite školski autobus pun djece zaustavljen na prijelazu. Nema problema, zato i imate upravljač. No, na drugim tračnicama postoji još veći problem: Vaše je dijete koje je došlo s Vama na posao palo na tračnice i ne može ustati. Taj upravljač može spasiti Vaše dijete ili autobus pun druge djece, ali ne oboje. Što činite?

Etička je mozgalica poznata kao Trolley Problem (engl. problem vlaka). Uobičajena je tema na satovima filozofije i etike jer Vaš odgovor govori mnogo o tome kako gledate na svijet.

Međutim, u 21. stoljeću, nekoliko je pisaca prilagodilo scenarij modernoj opsesiji - autonomnim vozilima. Googleovi samovozeći automobili prešli su već 2,7 milijuna kilometara po američkim cestama te nikad nisu bili uzrok nesreće tijekom tog razdoblja, kažu iz društva. Iz Volva kažu da će na švedskim autocestama do 2017. imati samovozeći model. Elon Musk ističe da je tehnologija toliko napredovala da će trenutni model Tesla do ljeta pripremiti za samostalno preuzimanje upravljača po „glavnim cestama”.

Tehnologija je stigla, no jesmo li spremni

Googleovi automobili već se mogu nositi s pravim opasnostima, poput one kad automobil iznenada skrene pred njima. No, u nekim je situacijama sudar neizbježan. (Zapravo, Googleovi su automobili sudjelovali u desecima manjih nesreća za koje Google okrivljuje ljudske vozače.) Kako će Googleov automobil ili iznimno sigurni Volvo biti programirani da odluče u situaciji koja mora završiti nekakvim gubitkom, poput možda probušene gume, u kojoj mora izabrati između udaranja u predstojeći promet ili izravnog skretanja u potporni zid?

Računala će zasigurno biti dovoljno brza da donesu razumnu odluku unutar milisekunda. Imat će vremena pregledati automobile koji se nalaze ispred te procijeniti koji bi od njih najvjerojatnije mogao preživjeti sudar ili koji, na primjer, ima najviše ljudi. No, trebaju li biti programirani tako da donose odluke koje su najbolje za njihove vlasnike? Ili one koje donose najmanje štete, čak i ako to znači odabiranje udaranja u potporni zid kako bi se izbjeglo sudaranje sa školskim autobusom? Tko će donijeti odluku i kako će odlučiti?

Utilitarizam i deontologija

„U konačnici, ovaj se problem pretvara u izbor između utilitarizma i deontologije“, navodi Ameen Barghi koji je diplomirao na Sveučilištu Alabama u Birminghamu. Barghiju, koji je diplomirao u svibnju te ove jeseni odlazi na Oxford kao treći dobitnik Rhodes stipendije sa Sveučilišta Alabama u Birminghamu, moralne dileme nisu strane. Bio je vođa seniorskog tima u bioetičkom natjecanju na Sveučilištu Alabama u Birminghamu koji je 2015. osvojio državno prvenstvo.

Njihove su pobjedničke debate uključivale teme poput uporabe kliničkih testiranja virusa ebole i etičnost hipotetskog lijeka koji bi mogao navesti ljude da se zaljube jedni u druge. Na prošlogodišnjem natjecanju bioetičara, tim je poveo raspravu o još jednom provokativnom pitanju povezanom s autonomnim vozilima: Ako se ispostavi da su ona mnogo sigurnija od uobičajenih automobila, je li opravdana odluka da vlada u potpunosti ljudima zabrani vožnju ? (Njihov je odgovor ukratko - da.)

Virtualni semafori za sigurniji i brži promet

Smrt na vozačevu sjedalu

Treba li Vaš samovozeći automobil biti programiran da Vas ubije kako bi spasio druge? Dva su filozofska pristupa ovoj vrsti pitanja, navodi Barghi. „Utilitaristički govori da uvijek trebamo činiti ono što će usrećiti najviše ljudi”, objasnio je. Drugim riječima, ako dođe do odluke između toga da udarite u betonski zid ili skrenete pred nadolazeći autobus, Vaš bi automobil trebao biti programiran da učini prethodno.

Deontologija, s druge strane kaže da su „neke vrijednosti jednostavno kategorički uvijek istinite”, nastavio je Barghi. „Na primjer, ubojstvo je uvijek pogrešno i ne trebamo ga nikad počiniti.” Vratimo se na problem vlaka, „čak i ako će preusmjeravanje vlaka spasiti pet života, ne trebamo to učiniti jer bismo aktivno sudjelovali u ubijanju jednoga”, rekao je Barghi. Usprkos izgledima, samovozeći automobil ne bi trebao biti programiran da izabere žrtvovanje svojega vozača kako bi spriječio nanošenje štete drugima.

Svaka varijacija problema vlaka, a ima ih mnogo: Što ako je jedna od osoba Vaše dijete? Vaše jedino dijete? Što ako su tih pet ljudi ubojice?, jednostavno „traži od korisnika da izabere hoće li se pridržavati deontologije ili utilitarizma”, nastavio je Barghi. Ako je odgovor utilitarizam, onda se mora donijeti još jedna odluka, dodaje Barghi: utilitarizam pravila ili postupka.

„Utilitarizam pravila govori da uvijek moramo izabrati najutilitarističniji postupak bez obzira na okolnosti, što bi odluku u problemu vlaka učinilo jednostavnom u svakoj verziji”, rekao je Barghi: Izbrojiti uključene pojedince i odabrati opciju koja pogoduje većini.

Utilitarizam postupka, nastavio je, „kaže da moramo uzeti u obzir svaki pojedinačni postupak kao poseban podskup postupaka”. To znači da nema čvrstih pravila, svaka je situacija poseban slučaj. Kako bi, stoga, računalo moglo biti programirano da se nosi sa svima njima?

„Računalo ne može biti programirano da se nosi sa svima njima”, rekao je dr. sc. Gregory Pence, pročelnik Odsjeka za filozofiju na Fakultetu umjetnosti i znanosti Sveučilišta Alabama u Birminghamu. „To znamo ako promotrimo povijest etike. Kazuistika, ili primijenjena kršćanska etika koja se temelji na učenju sv. Tome, pokušala je unaprijed dati odgovor na svaki problem u medicini. Teško je zakazala, i zbog mnogih slučajeva koji imaju jedinstvene okolnosti i zbog činjenice da se medicina neprestano mijenja.”

Učitaj još...

Možda će vas zanimati