Nuomonės

2019.11.01 10:50

Ieva Skurdauskaitė. Intelektualios technologijos grąžina prie klausimų apie žmogiškumą

Ieva Skurdauskaitė, VU TSPMI doktorantė2019.11.01 10:50

Ėjo 2019-ieji, o dirbtinis intelektas vis dar susidūrė su sunkumais atpažįstant kai kurių etninių mažumų veidus Jungtinės Karalystės įdiegtoje pasų nuotraukų tikrinimo sistemoje. Netruko pasipilti komentarų apie technologijų skatinamą rasinę diskriminaciją, šališkumą ir valdžios nesugebėjimą apginti savo piliečių. Akivaizdu, kad greitai diskusija apie naujausių technologijų klaidas grįžo prie klasikinio, mąstytojams ramybės neduodančio klausimo – kas yra žmogiška?

Dirbtiniu intelektu paremtos technologijos jau spėjo įsilieti į daugelį žmogaus gyvenimo sričių – nuo namų ūkyje naudojamo dulkių siurblio iki priešo radarus aptikti ir naikinti sukurto karinio drono. Pastaraisiais metais akademikai ir politikos formuotojai vis garsiau kalba apie dirbtiniu intelektu paremtas tarptautines ginklavimosi varžybas.

Virtualaus karo, kuriame nebereikia tiesioginio žmogaus įsikišimo, nes „purviniausią“ darbą atlieka technologijos, grėsmė iš tiesų atskleidžia ne naujausių technologijų, o žmonių galimybių ribas. Jei dirbtinis intelektas sugeba perimti politikai aktualią autonomišką sprendimų priėmimo funkciją, lieka neaišku, koks vaidmuo tarptautinių santykių realijose atitenka žmogui.

Žudymo etika

Izraelyje sukurtas priešradarinis dronas „IAI Harpy 2“ geba nustatyti priešo oro gynybos objektą ir jį atakuoti pats save susinaikindamas. Šis dronas gali būti valdomas žmogaus, jam dalyvaujant sprendime naikinti objektą (angl. human-in-the-loop), arba veikti visiškai autonomiškai. Tol, kol technologijos naikina technologijas, atrodo, didesnių moralinių dilemų nekyla, tačiau kaip reaguotume į tokią situaciją, jei dronas bandytų savarankiškai atskirti civilius nuo kombatantų ir priimti sprendimą juos žudyti?

Bandymai nuspręsti, ar etiška sistemoms leisti žudyti žmones ir ar mirtini autonominiai ginklai išvis gali būti naudojami pagal tarptautinių santykių susitarimus, nuomones paskirsto į dvi stovyklas: tuos, kurie teigia, jog dirbtinio intelekto technologijos karą padaro humaniškesnį, nes tiksliai gali nustatyti taikinius ir atsiriboti nuo žmogiškų emocijų karo lauke, ir tuos, kurie tvirtina, jog mirties nuosprendis negali būti etiškas. Pastarieji kelia ir kitą žmogaus ir technologijų santykių tyrimams aktualų klausimą – kas bus atsakingas už mirtinas sistemos klaidas? Kaltinsime technologiją, ją kūrusius žmones, valstybes ar tuos, kurie netyčia pasimaišė technologijų kelyje ir sujaukė algoritmą?

Bandymai nuspręsti, ar etiška sistemoms leisti žudyti žmones ir ar mirtini autonominiai ginklai išvis gali būti naudojami pagal tarptautinių santykių susitarimus, nuomones paskirsto į dvi stovyklas: tuos, kurie teigia, jog dirbtinio intelekto technologijos karą padaro humaniškesnį, nes tiksliai gali nustatyti taikinius ir atsiriboti nuo žmogiškų emocijų karo lauke, ir tuos, kurie tvirtina, jog mirties nuosprendis negali būti etiškas.

Šiuo metu nėra vieno kietosios teisės pavyzdžio, kuriuo būtų galima remtis atsakant į šiuos klausimus. Tiesa, JAV ir Europos Sąjungos valstybės oficialiuose dokumentuose yra pareiškusios poziciją dėl žmogaus dalyvavimo principo kiekvienoje karinėje operacijoje, kurioje naudojami autonominiai ginklai, tačiau ir čia paaiškėja, kad velnias slypi detalėse.

Vienas žinomiausių futuristų Martinas Fordas savo knygoje „Architects of Intelligence: The Truth About AI from the People Building It“ kalbina iškiliausius šiuolaikinius dirbtinio intelekto tyrėjus ir kūrėjus ir teiraujasi, kada bus sukurtas universalusis dirbtinis intelektas (angl. artificial general intelligence), prilygstantis žmogaus protui. Atsakymai svyruoja nuo 10 iki 181 metų. Technologijos vystosi daug greičiau nei būtume galėję tikėtis, todėl neaišku, kaip greitai, kokio masto bei pobūdžio žmogaus įsitraukimas bus reikalingas. Be to, net jei ir paliekame lemiamą sprendimą valstybės vadovui, kyla klausimų, kiek toks sprendimas iš tiesų bus autonomiškas. Atsižvelgiant į šiuolaikines informacijos rinkimo sistemas, panašu, kad žmogiškas sprendimas atakuoti neretai būtų paremtas tų pačių intelektualių sistemų darbu.

Pasitikėti negalima bijoti

Kai nenorime galutinių politinių sprendimų atiduoti algoritmams, bet savuosius remiame būtent jais, kyla pasitikėjimo technologijomis dilema. Džordžijos technologijų universiteto tyrėjai atliko eksperimentą, kurio metu įsijungus gaisro sirenai žmonės galėjo pasirinkti 2 evakuacijos kelius – aiškiai pažymėtą išėjimą (kuriuo jie ir pateko į pastatą) arba sekti roboto nurodymais. Beveik visi žmonės pasirinko sekti robotą, nepaisant to, kad jis vedė į priešingą pusę. Tyrimas atskleidė, jog žmonės yra linkę pasitikėti robotais, jei yra įsitikinę, kad jis buvo sukurtas atlikti konkrečiai užduočiai.

Stanfordo universitete buvo atliktas kitas iliustratyvus tyrimas, parodęs dirbtiniu intelektu paremtos vaizdų atpažinimo technologijos spragas – paveikslėlį, kuriame buvo pavaizduotas berniukas, rankoje laikantis elektrinį dantų šepetėlį, sistema įvardijo kaip berniuką su beisbolo lazda.

Turint omenyje, kad karo technologijų negalima natūralioje aplinkoje testuoti tiek daug kartų, kiek, pavyzdžiui, savaeigių automobilių ir kad pilnai nesuvokiame, kaip mašininio mokymosi būdu iš didelio duomenų kiekio yra gaunami atitinkami rezultatai (angl. black box problema), neaišku, kiek technologijų pagalba teikiama informacija turėtų daryti įtakos žmonių sprendimams.

Stanfordo universitete buvo atliktas kitas iliustratyvus tyrimas, parodęs dirbtiniu intelektu paremtos vaizdų atpažinimo technologijos spragas – paveikslėlį, kuriame buvo pavaizduotas berniukas, rankoje laikantis elektrinį dantų šepetėlį, sistema įvardijo kaip berniuką su beisbolo lazda. Pabandykime įsivaizduoti, kokiu keliu pasitikėjimas tokios technologijos išvadomis gali nuvesti karo lauke, kuriame veikia autonominiai ginklai.

Žmogus kaip algoritmas

Skelbiama, kad 2020-aisiais metais bus pradėta vykdyti Kinijos valdžios pasiūlyta socialinė kreditų sistema, sekanti žmonių veiklą ir už tai juos apdovanojanti arba baudžianti. Didžiųjų duomenų ir masinio stebėjimo technologijomis paremta reputacijos sistema turėtų parodyti, ką reiškia tūlas pilietis – koks išsilavinimas priimtinas, kaip tvarkyti savo finansus, ką skelbti savo socialiniuose tinkluose, ką pirkti elektroninėse parduotuvėse ir kaip tvarkyti savo kiemą. Neatitinkantys „idealaus piliečio“ standartų, asmenys pateks į juodąjį sąrašą ir neteks, pavyzdžiui, tokios viešosios prabangos, kaip galimybės įsigyti traukinio bilietą.

Vakaruose dažnai pasigirsta vertinimų, jog tokia sistema primena distopinį duomenų apsaugos košmarą, tačiau patys kinai nuo tokių vertinimų susilaiko. Viena iš priežasčių – pilotiniai sistemos testai įrodė, kad tokiu būdų galima disciplinuoti visuomenės „blogiukus“ ir užtikrinti nuspėjamą viešąją tvarką.

Tol, kol technologijos naikina technologijas, atrodo, didesnių moralinių dilemų nekyla, tačiau kaip reaguotume į tokią situaciją, jei dronas bandytų savarankiškai atskirti civilius nuo kombatantų ir priimti sprendimą juos žudyti?

Kinų pavyzdys skatina susimąstyti ne tik apie fizinio ir psichologinio saugumo lygį nuolatinio stebėjimo visuomenėje, bet ir apie technologijų medijuojamą žmogaus moralės ir etikos vertinimą. Tampa sudėtinga atsekti, ar didžiųjų duomenų ir stebėjimo technologijos žmogų paverčia algoritmu, ar jis savaime turi algoritminių savybių, kuriomis naudojasi technologijos. Bet kuriuo atveju žmogus ir technologijos suvedami taip glaudžiai, jog vieno vertinimas nebeįsivaizduojamas be kito.

Išvados pildomos

Naujųjų intelektualių technologijų vystymasis sparčiai tobulėja, todėl daryti baigtines išvadas apie jų ir žmogaus santykį būtų sudėtinga. Vis dėlto, jau dabar matome, kad tokios technologijos politikoje ir tarptautiniuose santykiuose yra laikomos įrankiu, galinčiu padidinti geopolitinę galią, o jų autonomiškumo lygis – grąžinti akademikų, politikos formuotojų ir mąstytojų žvilgsnį prie žmogaus vaidmens saugumo kūrime, etikos, moralės ir vertybių klausimų.

Grįžtant prie pradžioje pateikto paso nuotraukų atpažinimo sistemos pavyzdžio, peršasi mintis, jog daugiau dėmesio turėtume kreipti ne į technologijų klaidas, o tai, ką jos parodo apie mus pačius.