Daugelis technologijų sektoriaus ekspertų vieningai sutaria, kad dirbtinis intelektas (DI) ateityje padės ne tik efektyviau gyventi vartotojams, prisidės prie inovatyvių sprendimų atsiradimo bei padės verslui sukurti įvairesnius jų veikimo modelius. Vis dėlto netrūksta ir diskutuojančių apie dirbtinio intelekto rizikas ir ribotas galimybes.

Sistemai reikia šablonų

N. Tolkačiovo teigimu, nors dirbtinio intelekto sistema, turi gebėti ne tik teisingai interpretuoti išorinius duomenis, bet ir mokytis iš jų, sukauptas žinias panaudoti konkrečioms užduotims įgyvendinti. Jas pravartu taikyti tada, kai turime labai gerai suformuotas užduotis, kurias tradiciniais programavimo principais įgyvendinti yra labai sudėtinga arba netgi neįmanoma. Pavyzdžiui, pasitelkime deterministinės sistemos pavyzdį: jeigu šiandienos data patenka tarp gruodžio 1-osios ir vasario 29 dienos, tai dabartinis sezonas yra žiema.

„Panašiomis taisyklėmis vadovaujasi visos programinės įrangos sistemos, bet dabar jau turime ir kitokių sistemų, kurios prie tam tikrų išvadų gali prieiti pačios, be žmogaus parašytų taisyklių – dirbtinio intelekto. Dirbtinis intelektas mokosi pats, bet jam yra reikalingas didelis kiekis duomenų, kuriuose jis galėtų surasti šabloną. O turint šabloną, jau galima bandyti atspėti rezultatą. Tarkime, pasitelkiame dirbtinį intelektą, kuris gali atskirti katinus nuo šunų. Pateikiame katino nuotrauką ir jis bandys atspėti ar tai yra šuo, ar katė. Mums, žmonėms, toks uždavinys yra ganėtinai paprastas, bet reiktų įsivaizduoti ką „mato“ kompiuteris, net nelendant į detales kaip jis „mato“ spalvas, gauna kelis milijonus spalvotų taškų, iš kurių jis turi suprasti ar tai yra katės nuotrauka, ar šuns. Tokį uždavinį su kompiuteriniais algoritmais išspręsti yra tikrai sudėtinga, todėl DI čia turi pranašumą prieš žmogaus išgalvotas taisyklės, tokios kaip stačios ausys, išsikišusi nosis“, – sako N. Tolkačiovas.
Dirbtinis intelektas automobiliuose

Tikslumą lemia duomenų kiekis

Anot testavimo praktikų vadovo, dirbtinį intelektą reikia apmokyti ir tam yra reikalingas didelis duomenų kiekis, ir čia atsiranda viena iš kokybės užtikrinimo galimybių, kokius duomenis panaudoti? Juk šunų ir kačių gali būti skirtingų rūšių, dydžių, jie gali stovėti, sėdėti, gulėti ir kampas, iš kurio juos fotografavo, irgi gali skirtis.

„Norint pasiekti gerų rezultatų duomenų rinkinys, skirtas apmokyti DI, turi būtų pilnas ir atspindėti realybę. Fonas taip pat svarbus, mat kompiuteris nežino kur yra gyvūnas, o kur yra fonas. Buvo ir tokia kuriozinė situacija kai DI, kuris buvo apmokytas atskirti naminius šunis nuo vilkų. DI pateikus nuotrauką, kur naminis šuo stovėjo sniege, dirbtinis intelektas nusprendė, jog labai tikėtina, kad tai yra vis dėlto vilkas, nes duomenyse, kurie buvo skirti jo apmokymui, didžioji dalis vilkų buvo nufotografuoti žiemą. Tad duomenų paruošimas DI apmokymui yra labai svarbus kriterijus. Jeigu jie nebus kokybiški, tada nesvarbu kokio tipo algoritmus ir modelius mes nauduose neuroniniame tinkle, kiek laiko skirsim DI apmokymui, mes vis tiek nepasieksime norimo rezultato“, – dalijosi N. Tolkačiovas.

Gali mokytis iš padarytų klaidų

N. Tolkačiovo teigimu, kitas dirbtinio intelekto kokybės įvertinimo aspektas yra taiklumas (angl. accuracy), kaip dažnai DI pateiks teisingą atsakymą, kaip tai paskaičiuoti, kokius ir kiek duomenų panaudoti šiam apskaičiavimui irgi yra svarbu.

„Taip pat svarbu nenaudoti tų pačių duomenų su kuriais anksčiau buvo apmokytas DI, nes tai iškreips taiklumo rodiklį. Jei taiklumo rodiklis yra didesnis nei 50 proc., tai toks DI statistiškai bus naudingesnis nei monetos metimas ir bandymas atspėti kas bus viršuje, herbas ar skaičius. Kačių ir šunų atpažinimo sistema yra giluminio mokymosi (angl. deep learning) pavyzdys, jei mes sukurtume sistemą, kuri gavusi naujų nuotraukų galėtų išmokyti dirbti su naujais duomenimis, tada jau mes turėtume mašininio mokymosi galimybę. Tarkime pateikiame šiai sistemai katino nuotrauką, DI mums „sako“, tai tikriausiai yra šuo, mes sakome – ne, jis pasimoko iš tos klaidos ir kitą kartą jau nebedaro šios klaidos.

Taip pat jau egzistuoja ir dar aukštesnis lygis – dirbtinis intelektas, kuris jau gali pamėgdžioti žmogaus elgseną. Tačiau čia jau pasigirsta įvairiausių baimių, kad dirbtinis intelektas nori pavergti žmoniją. Vis dėlto galiu nuraminti, kad nesame net teoriniame lygmenyje tokių idėjų ir vargu ar šio šimtmečio pusėje teks spręsti tokias problemas. Tačiau Europos institucijos jau žengia pirmuosius žingsnius link DI pažabojimo. Europos sąjungos AIA (angl. „Artificial Intelligence Act“) rengiamu dokumentu, siekiama reguliuoti šią rinką ir apsaugoti Europos sąjungos piliečius nuo galimos DI žalos. Manau, kad AIA turės panašios įtakos vartotojų apsaugai taip, kaip šiuo metu turi (BDAR) Bendrasis duomenų apsaugos reglamentas) (angl. GDPR) “, – dalijosi N.Tolkačiovas.

Dirbtinio intelekto rizikos

Nors, pasak testavimo praktikų vadovo, didelės rizikos žmonėms dėl dirbtinio intelekto panaudojimo šiuo metu nėra, bet Europos Sąjungos institucijos siekia užtikrinti saugias dirbtinio intelekto praktikas. Todėl tikėtina, kad šios srities reglamentų tik daugės visame pasaulyje, tačiau taip yra apsaugomos mūsų vartotojų teisės ir tai ateityje gali padėti dirbtinio intelekto sistemų integracijai siekti dar aukštesnių kokybės standartų.

„Egzistuoja DI suskirstymas ir į tam tikras sistemų rizikos grupes. Pavyzdžiui, buvo pateiktos žmonių socialinio vertinimo sistemos, kurios pagal tam tikrus kriterijus, gali drausti gauti paskolą, ar patekti į ugdymo įstaigą, tačiau čia dirbtinio intelekto valdomos sistemos negali būti naudojamos ir labai tikėtina, kad bus uždraustos Europoje.

Taip pat egzistuoja ir itin aukštos rizikos sistemos tokiose srityse, kaip aviacija, medicina, automobiliai, kritinės infrastruktūros valdymo sistemos, jos yra ir bus labai griežtai reguliuojamos, tokios pat griežtos sąlygos bus taikomos ir visiems DI elementams tose sistemose, vartotojai turės būti supažindinti kaip ir su kokios DI sistemomis jie turės sąveiką ir galės susipažinti su papildoma informacija apie juos.

Taip pat turės įvertinti tikslumą, kibernetinio saugumo lygį ir visus saugiklius nesėkmės atveju. Tad tokio lygio DI sistemos privalo būti apmokytos tik itin kokybiškais ir pilnais duomenų rinkiniais, duomenys turi būtų be klaidų ir atitinkantys realybę“, – pabrėžė N. Tolkačiovas.

Ištestuoti dirbtinį intelektą – sudėtinga

Testavimo praktikų vadovas pabrėžia, kad visoje veiksmų sistemos grandinėje, tokio tradicinio testavimo modelio, kuris paprastai yra taikomas pažangiose programinės įrangos kūrėjų komandose, dirbtiniam intelektui negali būti pritaikytas.

„Turim paruošę tam tikrus scenarijus, kurie yra skirti testuoti deterministinę sistemą, pavyzdžiui, 2+2 yra 4, o jei, pavyzdžiui, banko sąskaitos likutis yra mažesnis, nei tavo pervedama suma tu negali pervesti pinigų. Tokias aiškiais sistemas yra galima ištestuoti, bet kai kalba eina apie statistiką ir taiklumą, labai sunku tradiciniais būdais patikrinti ar sistema atitinka visus reikalavimus. Todėl viskas yra koncentruojama į duomenų inžineriją ir modelio patvirtinimą (angl. validation), todėl išskirčiau tris kokybės užtikrinimo galimybes.

Patikrinti ar duomenys, kurie skirti apmokyti dirbtiniam intelektui yra pilnai parengti, kokybiški, atitinka reikalavimus, neturi klaidų ir atitinka realybę. Antra, patvirtinti ar apmokytas DI modelis atitinka jam keliamus lūkesčius, ar jame nėra šališkumo (angl. bias), ar jo tikslumas yra jam iškelto tikslumo ribose. Ar pradėjus ji naudoti jis veiks taip, kaip mes tikimės ir nesukels mums netikėtų problemų. Trečia, ar paleidus DI sistemą, mes turime visus įrankius, reikalingus sekti jo veikimui, rezultatams ir tikslumui? Ar turim galimybę viską išjungti, kai sistemoje bus aptiktos kritinės klaidos? Būtent šiuos aspektus reikėtų įvertinti ir dirbtinio intelekto kūrėjams“, – įžvalgomis dalijosi N. Tolkačiovas.