Šio svarbaus susitarimo vienas iš tikslų yra skatinti investicijas ir inovacijas dirbtinio intelekto srityje Europoje. DI aktas, su jame nustatytomis išimtimis, įsigalios per dvejus metus nuo jo priėmimo dienos, tačiau jau dabar svarbu suprasti, kas buvo susitarta ir ko galime tikėtis netolimoje ateityje. Kaip mus išmokė BDAR (Bendrasis duomenų apsaugos reglamentas), kas atrodo labai toli, ateina labai greitai ir, atrodo, pakankamas laiko tarpas staiga pavirsta į „paskutinės nakties“ pasiruošimą.

Kas buvo pasiekta šiuo susitarimu ir ką turime žinoti?

DI aktas bus taikomas visoms dirbtinio intelekto sistemoms, turinčioms įtakos žmonėms ES (nesvarbu, ar šios DI sistemos sukurtos ir valdomos ES, ar kitur (pavyzdžiui, JAV, dirbtinio intelekto sistemų teikėjai ar diegėjai turės laikytis ES dirbtinio intelekto akto, jei sistemos rezultatai bus naudojami ES). Jis bus taikomas tiek viešam, tiek privačiam sektoriui, tačiau numatomos ir jo taikymo išimtys, pavyzdžiui, DI aktas nebus taikomas sritims, nepatenkančioms į ES teisės taikymo sritį, neturėtų daryti poveikio valstybių narių kompetencijai nacionalinio saugumo srityje, nebus taikomas sistemoms, kurios naudojamos tik kariniais ar gynybos tikslais ar naudojamoms tik mokslinių tyrimų ir inovacijų tikslais, taip pat asmenims, kurie naudoja dirbtinį intelektą ne profesiniais tikslais.

Nors pati sąvoka šiame etape nėra išviešinta, patvirtinta, kad dirbtinio intelekto sistemos apibrėžimui bus naudojama sąvoka, kuri iš esmės pagrįsta EBPO (Ekonominio bendradarbiavimo ir plėtros organizacijos) pasiūlytu apibrėžimu.

Tai, jog nebuvo įvesta naujų sąvokų ir išvengta jų kolizijų, kelia profesinį džiaugsmą, – normų vientisumas suteikia pagrindą tarptautiniam suderinimui ir, žinoma, kas svarbiausia, aiškumui.

Į DI sistemas bus žiūrima remiantis rizika grįstu požiūriu. Tai reiškia, kad kuo didesnė rizika, tuo griežtesnės taisyklės. Svarbu atkreipti dėmesį, kad rizika grindžiamas požiūris bus orientuotas į dirbtinio intelekto sistemų naudojimo atvejus.

DI akte nustatyta pakopinė atitikties sistema, kurią sudaro skirtingos rizikos kategorijos ir skirtingi reikalavimai kiekvienai jų. Visos DI sistemos turės būti inventorizuotos ir įvertintos, kad būtų nustatyta jų rizikos kategorija ir su ja susijusios pareigos. DI sistemos bus skirstomos į keturias skirtingas rizikos kategorijas, atsižvelgiant į jų naudojimo atvejus:

– nepriimtinos rizikos – sistemos, kurios, teisės aktų leidėjų nuomone, kelia nepriimtiną riziką žmonių saugumui ir pagrindinėms teisėms, bus uždraustos naudoti ES. Pavyzdžiui, tokios, kurios manipuliuoja kognityvine elgsena, netikslingai renka veido atvaizdus iš interneto ar vaizdo stebėjimo kamerų įrašus, atpažįstančios emocijas darbo vietoje ir švietimo įstaigose, atliekančios biometrinį kategorizavimą siekiant nustatyti, pavyzdžiui, seksualinę orientaciją ar religinius įsitikinimus;

– didelės rizikos – šiai kategorijai priskiriamos DI sistemos, darančios didelį poveikį sveikatai, saugai, pagrindinėms teisėms, aplinkai, demokratijai, teisinei valstybei. Šioms sistemoms bus taikoma dauguma atitikties prievolių, įskaitant rizikos ir kokybės valdymo sistemų sukūrimą, poveikio vertinimą, registraciją ir kt. Atkreiptinas dėmesys, kad DI aktu būtent ir yra siekiama užtikrinti, kad pagrindinės teisės, demokratija, teisinė valstybė ir aplinkos tvarumas būtų apsaugoti nuo didelės rizikos dirbtinio intelekto sistemų.

– ribotos rizikos – pavyzdžiui, sistemoms, kurios sąveikauja su žmonėmis (pvz. pokalbių robotams), būtų taikomos ribotos atitikties prievolės, pavyzdžiui, naudotojų informavimas, kad turinys, su kuriuo jie susiduria, yra sukurtas dirbtinio intelekto;

– minimalios ir (arba) jokios rizikos – be pradinio rizikos vertinimo ir tam tikrų skaidrumo reikalavimų, taikomų šioms dirbtinio intelekto sistemoms, DI aktu nenustatoma jokių papildomų įpareigojimų. Tokios įmonės bus kviečiamos savanoriškai įsipareigoti laikytis elgesio kodeksų.

Ir pabaigai

Nepaisant griežtos klasifikacijos ir prievolių, susitarimu fiksuojamas ir pažadas, susijęs su inovacijų rėmimo priemonėmis. Jame nustatyta, kad ES planuojama sukurti reguliavimo smėlio dėžę, t. y. kontroliuojamą aplinką, kurioje būtų lengviau kurti, išbandyti ir patvirtinti naujoviškas dirbtinio intelekto sistemas prieš pateikiant jas rinkai, taip pat bandyti ir patvirtinti dirbtinio intelekto sistemų atitiktį BDAR.

Gyvenimui keliaujant į priekį turime priimti naują realybę ir naują reguliavimą, matome, kad ES labai rimtai žiūri į galimą žalą, kurią gali padaryti dirbtinio intelekto sistemos, todėl susitarta ir dėl nemenkų sankcijų taikymo už DI akte nustatytų prievolių nesilaikymą, kurios gali siekti iki 35 mln. eurų arba 7 proc. metinės pasaulinės apyvartos priklausomai nuo įmonės dydžio ir pažeidimo sunkumo. Jeigu BDAR baudos atrodė didelės, šiuo atveju, žengiam į naujas aukštumas. Kaip ir BDAR atveju, taip ir čia, piliečiai turės teisę teikti skundus dėl dirbtinio intelekto sistemų ir gauti paaiškinimus apie didelės rizikos dirbtinio intelekto sistemomis pagrįstus sprendimus, kurie daro poveikį jų teisėms.

Kokių veiksmų rekomenduojame imtis jau dabar? Subjektams, kuriems bus taikomas DI aktas jau dabar siūlome atlikti namų darbus: inventorizuoti DI sistemas, suprasti ir įvertinti, kurioje atitikties grandinės vietoje ir kokiu būdu bus inkorporuota DI atitiktis, įsivertinti procesus ir nustatyti veiksmų planą, kaip įgyvendinsite DI akte nustatytus reikalavimus, jiems įsigaliojus.