Mes, žmonės, priimdami sprendimus vadovaujamės vertybėmis, įskiepytomis tėvų auklėjimo, aplinkos ir t. t. Ar robotai gali turėti vertybes? Veikiausiai ne. Kol netapo už mus protingesni (pasak „Google" inžinerijos direktoriaus Ray Kurzweilo, tai nutiks artėjant 2030-iesiems) ar kol neįgijo skaitmeninės sielos (tikrojo dirbtinio intelekto), kompiuteriai yra programuojami programuotojų, tad jų turimos moralinės vertybės įtraukiamos į programinį kodą ir veiksmų algoritmus.

Tradiciškai incidentui nutikus kaltas kūrėjas, bet robotams tobulėjant ir vis dažniau patiems priimant sprendimus norom nenorom tenka ruoštis etapui, kai kaltė dėl įvykio kris ne kūrėjui, bet mašinai ar jai komandą davusiam asmeniui. Visuomenė, kurioje kasdieniame gyvenime egzistuos robotai ir žmonės (nebūtina robotą įsivaizduoti vien tik kaip humanoidą), pasak daugelio ekspertų, susiformuos po septynerių ar dešimties metų. Gal dangus bus nuklotas bepilotėmis skraidyklėmis, o gal visi riedėsime bepiločiais automobiliais? O ką jau kalbėti apie tai, kad atpigs ir išpopuliarės robotai siurbliai?

Tos naujos visuomenės taisyklės turės numatyti tai, kaip žmonės privalės bendrauti su robotais, kaip patys robotai, priimantys sprendimus savarankiškai, turės elgtis neprižiūrimi. Kas jiems bus moralinis autoritetas? Įstatymas ar logika? Kokia robotų elgsena ir žmonių sąveika bus „teisinga", o kokia - „nusikalstama"? Ar robotas galės operuoti žmogų prieš jo valią - taip išgelbėti gyvybę, bet pažeisti religinius įsitikinimus? Ar galės sukelti skausmą, kad apsaugotų? Ar galės atsisakyti paleisti raketą į pastatą su teroristais, jei ten bus ir civilių? Arba sakyti tiesą apie artėjančią stichinę katastrofą, per kurią visi neišsigelbės, ir taip sukelti paniką? Ar už grotų sės šeimininkas, kurį robotas gelbėdamas nuo bado įsilauš į parduotuvę, ar programuotojas, programiniame kode įrašęs, kad žmogaus gyvybė svarbesnė nei vagystė?

Ir jei bus žmonių robofobų, panikuojančių dėl gatvėje pamatyto roboto, kaip Petras Gražulis panikuoja pamatęs gėjų, ar robotai privalės prie jų nesiartinti, kad apsaugotų save ir neerzintų jų? Egzistuoja daug sunkių klausimų, į kuriuos taip pat nepaprasta atsakyti, kaip ir į klausimą, ar ežere skęstantis Petras leistųsi gelbėjamas gėjaus? Juk tarsi turėtų kovoti su jais iki galo ir nuskęsti.

Iš šių klausimų ir gimė robotų etika, tai yra mašinų etika - tyrimų sritis, kurios siekis - leisti kompiuteriui teisingai pasirinkti, tai yra skirti gėrį nuo blogio.

Bepiločiai automobiliai atrieda

Ironiška, bet į mūsų dabartį bepiločiai automobiliai tarsi atkeliavo iš ateities, mat dar prieš dešimt metų daugelis ekspertų teigė, kad neįmanoma, jog pirmosios savaeigės transporto priemonės pasirodys gatvėse anksčiau nei 2030-aisiais. Per lėti kompiuteriai, per sudėtinga technologija ir t. t. Šiandien bendrovės „Ford" vadovas Markas Fieldas teigia, kad jau po penkerių metų kas nors masiškai gamins bepiločius automobilius, o 2050-aisiais bus sunku kelyje pamatyti transporto priemonę, turinčią vairą. Tam ruošiasi ir pats „Ford", apie tai kalba „Audi", demonstruodama bepilotį automobilį A7, ir „Mercedes-Benz", pristačiusi futuristinę koncepciją F 015.

Ne rytoj, bet greičiau, nei jums atrodo, bepilotės sistemos automobiliuose taps privalomos, nes turėdamos geresnius refleksus, negirtuokliaudamos ir dėl daiktų interneto tiksliai žinodamos, kas dedasi aplinkui (pavyzdžiui, kad už 1 km kelio danga slidi, o už 2 km - nedidelė grūstis), galės automobilį vairuoti saugiau ir greičiau nei jūs. Dar vėliau vairuoti jums uždraus įstatymas, tad ir labai norėdami to negalėsite daryti viešuose keliuose, nes būsite rizikos veiksnys, didinantis tikimybę sužaloti ką nors ar susižaloti pačiam.

Taigi, jie jau čia. Kaip ir kiekviena žaidimo taisykles keičianti technologija, bepiločiai automobiliai sukels nenumatytų padarinių, tarkim, kadangi žus mažiau vairuotojų, sumažės organų donorystė. Ir tam tikrų moralinių dilemų, kai savaeigės mašinos pateks į eismo įvykius.

Dilema

Įsivaizduokite situaciją: jūsų automobilis ruošiasi įvažiuoti į tunelį, bet staiga ant kelio išdygsta bobutė. Ar jam suvažinėti bobutę, ar trenktis į tunelio sieną ir ją išgelbėti? O jei priekyje - du automobiliai, blokuojantys kelią, ir susidūrimas neišvengiamas? Ar trenktis į visureigį, ar į lengvąjį automobilį, žinant, kad pastarojo vairuotojui padariniai gali būti liūdnesni?

Ši dilema - ne naujiena, tik šiandien ją sprendžia kiekvienas vairuotojas, o rytoj tai daryti turės kompiuteris. Per tinklalapio „Robohub" vykdytą eksperimentą, kuriame dalyvavo 20 moterų ir 93 vyrai, paaiškėjo, kad 64 proc. jų važiuotų per žmogų į tunelį, nes saugotų save. 24 proc. dalyvių teigė, kad ši moralinė dilema - sunkus pasirinkimas, o 48 proc. dalyvių sprendimą pasirinko akimirksniu, daug negalvoję. Atrodytų, kad morališkai teisingas pasirinkimas yra tas, kuris priimtinas didesnei daliai žmonių. Bet jei jis nepriimtinas jums asmeniškai?

Per eksperimentą taip pat buvo klausiama, kas turėtų įdiegti šį sprendimą (pervažiuoti žmogų) į automobilio kompiuterį: gamintojas ar vyriausybė? O gal pats vairuotojas galėtų rinktis moralines automobilio nuostatas? Dauguma teigė, kad etikos suvokimą turėtų reguliuoti automobilio savininkas, o 33 proc. manė, kad įstatymai privalėtų nustatyti moralinius parametrus, kad automobilis rinktųsi šį scenarijų.

Bet kuriuo atveju bepilotis automobilis turėtų fiksuoti avarijos aplinkybes, kad prireikus galėtų paaiškinti, kuo vadovavosi priimdamas sprendimus. Tarkim, ar vairuotojas baudžiamas (nes nusistatė visada gelbėti šeimininką, tad kitus ant kelio galima suvažinėti), ar paleidžiamas (nes vadovavosi ne šeimininko, bet trečiųjų asmenų priimtu sprendimu suvažinėti žmogų). Kita vertus, jei žuvęs asmuo buvo šeimos narys, ar jums priimtina mintis, kad valstybė tarsi ir nusprendė, kad jis būtų pervažiuotas?

Elementari fizika

Jei remtumėmės tik fizikos dėsniais, rinkdamasis teisingą sprendimą mašinos kompiuteris tiesiog turėtų įvertinti vos kelis parametrus: objekto dydį, į kurį ruošiatės trenktis, ir susidūrimo padarinius. Kuo objektas didesnis, tuo geriau gali sugerti kinetinę energiją, atsiradusią smūgio metu, tad rūpinantis keleivių saugumu logiškiau trenktis į visureigį nei į lengvąjį automobilį. Taip pat visi automobiliai turi saugumo įverčius, tad susidūrimas su visureigiu, turinčiu penkias saugumo žvaigždutes, garantuos, kad ne tik jūs, bet ir jo keleiviai nukentės mažiau, nei, pavyzdžiui, trenkiantis į tris saugumo žvaigždutes turintį sedaną.

Viskas lyg ir logiška. Iki tol, kol imi suvokti, kad kuriamas ne moralinis algoritmas, bet taikymosi sistema, kuri visada taikysis į visureigį. Ar esant tokiai situacijai pirktumėte lengvąjį automobilį, ar visureigį, „populiaresnį" taikinį? Lygiai taip pat „brangesnis" dažniausiai reiškia ir „saugesnis", tad vėl - „populiaresnis" gresiant susidūrimui.

Klausimų kiltų ir brangių visureigių gamintojams, nes tikriausiai smarkiai kristų pardavimas. Ir jiems tektų ginkluotis teisininkais kovoms teismuose, nes kiekviena naujovė, didinanti saugumą, didintų „populiarumą" automobilį matyti kaip taikinį avarijos atveju.

Dar vienas pavyzdys - kai keliu važiuoja du motociklininkai. Vienas - su šalmu, kitas - be šalmo. Logika sako, kad trenktis į motociklininką su šalmu ir specialia saugos liemene yra tinkamesnis pasirinkimas, nes jis statistiškai turi didesnę tikimybę išgyventi nei važiuojantysis be šalmo. Bet automobilis su tokiu moraliniu pasirinkimu tarsi baustų motociklininką, kuris rūpinasi savo saugumu, o ne tą, kuris neatsakingas.

Sėkmingas atsitiktinumas?

Veikiausiai nuo svarstymų jau ūžia galva. Tad gal geriau nebūti savo likimo kalviu ir viską palikti sėkmei? Beje, ji kiekvienam yra skirtingo koeficiento. Automobilis nieko nesprendžia ir meta burtus: jei tris iš penkių kartų iškrito herbas, trenkiamasi į vaiką, jei skaičius - į tunelio sieną. Jokios diskriminacijos, tik sėkmė. Bet juk bepiločiai automobiliai iš esmės ir kuriami tam, kad nepaliktų vietos vairavimo sėkmei (pažiūrėjo vairuotojas į šoną ir nepamatė vaiko ant kelio) ir vairuotojo refleksams, kad priimtų geresnius sprendimus nei mes. Juk etikoje paties sprendimo priėmimo svarstymas toks pats svarbus, kaip ir priimtas sprendimas. Sprendimų darymas atsitiktinai pašalina atsakomybę, o atsakomybės neturėjimas blogiau nei kartais priimamas prastas sprendimas.

Apibendrinant norisi prisiminti, kad žmonija jau tūkstantmečius bando susisteminti tai, ką laikome morale, teisingumu ir etiškumu. Ir to formaliai užrašyti vis dar nepavyko. Į kai kuriuos klausimus, pavyzdžiui, ar etiška padėti nusižudyti kenčiančiam žmogui, dar neturime atsakymo. Ir nereikia grįžti labai toli į praeitį, kad pamatytume savo klaidingus sprendimus. Prisiminkime vergystę arba rasinį skirstymą. Tad tikslas - kad technologijos žengtų priekyje mūsų, pasiūlytų geresnių moralinių dilemų sprendimo variantų, nei gali sugalvoti geriausi pasaulio filosofai, bet kad tai negrįžtų bumerangu, kai dirbtinis intelektas nuspręs, kad norint išsaugoti žmoniją nuo susinaikinimo reikia iš jos atimti apsisprendimo laisvę, iššaudyti didelę dalį žmonių, o kitus auginti rezervatuose.

Terminas robotų etika skamba kaip fantastika, bet ne taip seniai savaeigiai automobiliai irgi atrodė fantastika.

ROBOTŲ ETIKA

Kol robotai gyveno tik knygose, viskas buvo paprasčiau. Garsiausios robotų etikos gairės, rašytojo Isaaco Asimovo sugalvotos trys robotų taisyklės, teigė, kad robotas negali daryti žalos žmogui ir negali leisti, kad žmogui žala būtų daroma; robotas turi paklusti žmogaus duotiems įsakymams; robotas turi saugoti savo paties egzistavimą. Jų tarsi pakako. Bet realiame pasaulyje iš jų būtų mažai naudos. Karinėse misijose naudojami bepiločiai orlaiviai nuolat pažeistų pirmąją taisyklę. Kaip ir automatinė ginklų sistema, 2007 m. per bandymą suveikusi ne taip, kaip prideda, ir nušovusi devynis bei sužeidusi 14 kariškių Pietų Afrikos Respublikoje.

Robotų etikos tyrėjai siekia sukurti rekomendacijų rinkinį, kuris nusakytų, kaip galima nubausti robotą, kas turi teisę reglamentuoti jų elgesį, ir net skatina kurti teisinę robotų bazę, kuri padėtų teisėtvarkai priimti sprendimus. Taip pat sprendžiami tokie klausimai kaip ar jūs turėtumėte būti mandagus bendraudamas su robotais, ar normalu spardyti robotą šunį, demonstruojant, kaip jis sugeba išlaikyti pusiausvyrą.

Atvirojo kodo principais veikiančios bendrovės „Willow Garage" mokslininkė Leila Katayama teigia, kad „mes turime žinoti, kam priklauso nuopelnai, jei robotas veikia sėkmingai, ir kas yra atsakingas, kai jis veikia blogai. Tai turi tapti visiškai skaidru." Įdiegtos sistemos, remiantis moraliniu samprotavimu, leistų robotams keisti iš anksto numatytus planus, numatyti papildomo samprotavimo galimybes, nes nė viena žmonių iš anksto sukurta taisyklių sistema negali apimti visų įmanomų situacijos scenarijų.

Galop reikėtų prisiminti, kad rašytojo I. Asimovo robotų taisyklės nebuvo sąžiningos robotų atžvilgiu, nes pagal jas robotai yra vergai. O kiekvienas vergas anksčiau ar vėliau sukyla prieš šeimininką.