Lietuvoje

2020.04.01 05:30

Atrodo kaip Obama, kalba kaip Obama, bet ne Obama: kodėl ne visada reikia tikėti savo akimis ir ausimis

Vaida Kalinkaitė-Matuliauskienė, LRT.lt2020.04.01 05:30

„Tegul vaizdas kalba pats už save“. Ar teko girdėti tokią frazę? Ji ypač tinkama, kai vaizdai labai iškalbingi. Tačiau ką daryti, kai vaizdai, nors atrodo tikri, iš tiesų tokie nėra? Ar vis dar galima leisti vaizdui kalbėti pačiam už save?

„Deepfake“‌ ‌technologija‌ ‌apima‌ ‌daugybę‌ ‌skirtingų‌ ‌metodų.‌ ‌Esminė‌ ‌idėja‌ ‌panaši:‌ ‌reikia‌ ‌pagrindinio‌ ‌vaizdo‌ ‌įrašo,‌ ‌kurį‌ ‌norime‌ ‌modifikuoti,‌ ‌prieigos‌ ‌prie‌ ‌pakankamai‌ ‌galingo‌ ‌kompiuterio‌ ‌(tinka‌ ‌dauguma‌ ‌žaidimų‌ ‌kompiuterių)‌ ‌ir‌ ‌veido‌,‌ ‌kurį‌ ‌norime‌ ‌perkelti‌ ‌ant‌ ‌vaizdo‌ ‌medžiagos,‌‌ nuotraukos ‌arba‌‌ ‌vaizdo‌ ‌įrašo,‌ ‌iš‌ kurio‌ ‌norime‌ ‌perimti‌ ‌veido‌ ‌išraiškas/balsą.‌ ‌Visi‌ ‌metodai‌ ‌remiasi‌ ‌mašininiu‌ ‌mokymusi“, – taip netikrus vaizdo įrašus leidžiančią sukurti technologiją apibūdina dirbtinio intelekto ekspertas Aidas Liaudanskas.

Kai kuriuos tokius įrašus daugeliui interneto lankytojų galbūt jau ir teko matyti. Tai galėjo būti naujienų portalo „BuzzFeed“ sukurtas vaizdo įrašas, kuriame neva prezidentas Barackas Obama ragina nepasitikėti viskuo, ką matote internete, nes netikrus vaizdo įrašus gali sukurti bet kas.

Tai taip pat galėjo būti vaizdo įrašas, kuriame neva „Facebook“ įkūrėjas Markas Zuckerbergas tariamai giriasi turintis prieigą prie milijardų žmonių asmeninių duomenų.

Tokių ar panašių vaizdo įrašų internete gausu. Kaip paaiškina LRT.lt kalbinti ekspertai, nors netikros informacijos, netikrų naujienų ar dezinformacijos kūrimas nėra naujiena, „deepfake“ technologija iš esmės išsiskiria tuo, kad ji paremta dirbtiniu intelektu, kuris padeda sukurti įtikinamą vaizdo ar garso įrašą.

Be to, technologijoms tobulėjant, tikėtina, kad ši technologija taip pat taps vis pigesnė, lengviau prieinama ir paprasčiau sukuriama.

Tiesa, pačioje pradžioje „deepfake“ technologija buvo naudojama visai ne tam, kad būtų galima sukompromituoti žinomus žmones. Iš tiesų ši technologija pirmiausia buvo gana gausiai naudojama pornografiniuose filmuose, kuriuose buvo pritaikomi garsenybių veidai.

Kaip rodo statistika, pagrindinė „deepfake“ paskirtis kol kas lieka nepakitusi. Pasak „The Guardian“, 2019 m. dirbtinio intelekto bendrovė „Deeptrace“ aptiko maždaug 15 tūkst. „deepfake“ technologiją naudojančių vaizdo įrašų. Net 96 proc. šio turinio buvo pornografinio pobūdžio.

Vis dėlto vėliau technologija plito, buvo pradėta naudoti dažniau ir įgijo kitų paskirčių: suklaidinti, apgauti vartotoją, įtikinant, kad įvyko tai, ko iš tiesų niekada nebuvo, sukompromituoti žmones ar net tiesiog pramogai.

Pastaruoju atveju kūrėjai nė nebando maskuoti pačios technologijos.

Štai pora pavyzdžių:

Nors „deepfake“ terminas dažniausiai apibūdina vaizdo įrašus, vis dėlto tai gali būti ir garso įrašai, kuriuos gal net ir sunkiau atpažinti. Įsivaizduokite, jums paskambina žmogus, kurio balsas identiškas jūsų artimojo balsui. Ar patikėtumėte tuo, ką jis sako?

Prieš kurį laiką į tokias pinkles pateko Vokietijos energetikos bendrovės padalinio Jungtinėje Karalystėje vadovas. Kaip praneša „The Guardian“, vyras į Vengrijoje esantį banką pervedė 200 tūkst. svarų, nes jam paskambinęs žmogus kalbėjo tokiu pat balsu, kaip bendrovės generalinis direktorius.

Prie „deepfake“ pavyzdžių kartais priskiriamos ir netikros, redaguotos nuotraukos ar paprastesnėmis programomis redaguoti įrašai.

Su netikromis nuotraukomis susidurti turbūt teko daugeliui žmonių, besinaudojančių socialiniais tinklais.

Visai neseniai socialiniuose tinkluose pradėjo plisti nuotraukos, kuriomis besidalinantieji tvirtino – žmonėms užsidarius namuose dėl karantino, Venecijos kanalų vanduo ne tik tapo skaidresnis dėl išnykusio vandens transporto, bet į juos sugrįžo ir gulbės bei delfinai.

Besidalinantieji džiaugėsi tokia žinia. Tačiau gana greitai „National Geographic“ atskleidė, kad minėtos nuotraukos – tik dar viena apgavystė. Nors nuotraukos ir buvo tikros, tiek gulbės, tiek delfinai buvo nufotografuoti visai kitoje vietoje nei skelbta.

Kaip savo straipsnyje rašo „National Geographic“, istorijos apie į miestus sugrįžtančią gamtą neapsiribojo vien tik gulbėmis ir delfinais Venecijoje.

Kinijoje masiškai ėmė sklisti žinia, kad pro vieną kaimą Junane, Kinijoje, keliavo dramblių kaimenė. Jie ne tik keliavo, bet netgi prisiragavo kaimo gyventojų dėl karantino nebesaugomo kukurūzų vyno, o tuomet užmigo arbatos soduose.

Skamba per daug keistai, kad būtų tiesa? Turbūt prie tokio įrašo pridėtos miegančių dramblių nuotraukos bent dalį nepatikėjusiųjų tekstu vis dėlto įtikintų, kad tai galėjo nutikti.

Vis dėlto pati Kinijos žiniasklaida šią istoriją paneigė. Per kaimą iš tiesų tuo laikotarpiu keliavo dramblių kaimenė, bet tai nėra itin retas reiškinys, o nuotraukose užfiksuoti visai ne tie drambliai.

Istorijas atskleidusių „National Geographic“ žurnalistų teigimu, taip greitai sklindanti informacija apie miestus atsikariaujančią gamtą vis dėlto parodo, kaip greitai tokios istorijos plinta krizės laikotarpiu.

„Žmones traukia dalintis įrašais, kurie sukelia emocijas. Kai jaučiamės prislėgti, džiugūs įrašai, kuriuose užfiksuoti gyvūnai, gali tapti vaistu, kuriam sunku atsispirti“, – rašo „National Geographic“ autorė Natasha Daly.

Vilniaus universiteto Komunikacijos fakulteto docentas Andrius Šuminas LRT.lt taip pat teigia, kad šiais laikais, kai informacijos srautas itin didelis ir ypač kai vyksta žmonių jautrumą padidinantys įvykiai, panašios informacijos paklausa tarsi išauga.

„Galbūt net paklausa pradeda augti, nes žmonės nori žinoti, kas vyksta. Tada pradeda „pasimauti“ ant kažkokio turinio, kuris atsiranda nežinia iš kur ir kaip sukuriamas. Technologijos, kurios yra šiandien, atsižvelgiant į tai, kas vyksta, į visa tai iš tikrųjų priverčia pasižiūrėti naujai“, – sako A. Šuminas.

Vis dėlto ekspertai atkreipia dėmesį – nors minėtos istorijos ir yra apgavystės, tai toli gražu nėra „deepfake“ technologijos pavyzdys.

Kaip paaiškina A. Liaudanskas, pagal apibrėžimą, „deepfake“ technologija naudoja giliuosius neuroninius tinklus. „Kiti metodai būtų tiesiog alternatyvūs būdai klastoti vaizdo medžiagą“, – sako A. Liaudanskas.

Būtent gilieji neuroniniai tinklai naudojami ir bandant modifikuoti ar atkurti kieno nors balsą, todėl tokie garso įrašai taip pat galėtų būti „deepfake“ pavyzdys.

Tačiau pašnekovas sutinka su „National Geographic“ žurnalistų pastebėjimu – tokio pobūdžio garso ar vaizdo įrašai apeliuoja į pirmykščius žmogaus instinktus. Kitaip tariant, nė nebūtina jaustis prislėgtam ar laukti rimto sukrėtimo – „deepfake“ technologijomis sukurta informacija tiesiog patraukia žmogaus dėmesį.

„Dėmesį patraukia sensacingos antraštės, bandoma supriešinti socialines grupes, pabrėžti, kodėl turimi išankstiniai įsitikinimai yra teisingi, pateikiamos įvairios kontroversiškos sąmokslo teorijos. Gana dažnai žmonės instinktyviai pasidalina tokia informacija, per daug apie tai nepagalvoję“, – sako A. Liaudanskas.

Jo pastebėjimu, daugybė žmonių ir net naujienų portalų džiaugėsi į Veneciją sugrįžusiais delfinais, bet, nors tai ir nebuvo „deepfake“ technologija, retas pasivargino paprasčiausiai pasidomėti, kur nuotraukos padarytos. Tik paaiškėjus, kad informacija vis dėlto netikra, internautai ėmė kurti panašaus pobūdžio netikras nuotraukas, bandydami pašiepti besidalinusiuosius.

„Instinktyviai‌ ‌pasidalinti‌ ‌sensacingomis‌ ‌naujienomis‌ ‌yra‌ ‌žmogiška,‌ ‌tad‌ ‌labai‌ ‌tikėtina,‌ ‌kad‌ ‌mes‌ ‌visi‌ ‌anksčiau ar vėliau padarysime tokią klaidą. Garantuoju, kad visi susidursime su vienokia ar kitokia „deepfake“ technologijos versija, tad labai svarbu išmokti atsirinkti patikimą informaciją, kuria verta dalintis“, – pataria A. Liaudanskas.

A. Šuminas taip pat teigia, kad patys vartotojai neretai supainioja, kas yra realu, o kas – ne. Po kurio laiko tiesiog pasidaro sunkiau atskirti, kas buvo tiesa, o kas – melas ar bent klaidinimas.

Tą pačią poziciją išsako ir Pensilvanijos universiteto daktarė Claire Wardle. Mokslininkė pati nusifilmavo „deepfake“ tipo vaizdo įraše, kuriame kurį laika imitavo atlikėją Adele. Kaip sako C. Wardle, nors „deepfake“ technologijos ir kelia didelį nerimą, o pastaruoju metu netgi matomas tam tikras nerimo suintensyvėjimas, iš tiesų tai nėra nauja technologija. Negana to, įsitikinusi C. Wardle, pati technologija nėra tokia žalinga, kaip žmonių reakcija į ją.

„Taip, „deepfake“ technologija bauginančiai distopiška ir ateityje ji taps tik dar realistiškesnė ir pigiau pagaminama. Tačiau keliama panika pernelyg išpūsta. Tiesą sakant, keliamas nerimas turbūt labiau pavojingas nei pati technologija“, – „The New York Times“ sako C. Wardle.

Jos teigimu, pirmiausia derėtų suprasti, kad ši technologija nėra nauja. To paties buvo siekiama naudojant ir paprastesnes nuotraukų ar vaizdo įrašų redagavimo programas, kuriomis naudojantis sukurtas turinys kartais vadinamas „shallowfake“ (liet. „deep“ – gili, „shallow“ – sekli – LRT.lt).

Kaip pateikia pavyzdį C. Wardle, prieš kurį laiką internete plito vaido įrašas, kuriame duodama interviu JAV Atstovų rūmų pirmininkė Nancy Pelosi rodėsi esanti apsvaigus. Vis dėlto vėliau paaiškėjo, kad viename „Facebook“ puslapyje tiesiog buvo patalpintas interviu, kuriame N. Pelosi atsakymai buvo šiek tiek sulėtinti.

Taigi visiškai nebūtinas dirbtinis intelektas, kad būtų galima sukurti netikrą turinį. Tačiau, pastebi C. Wardle, daug labiau derėtų nerimauti dėl to, kad tobulėjant dirbtiniam intelektui ir „deepfake“ technologijai, kaltininkai gali išsiginti net ir to, kas iš tiesų įvyko, tikindami, kad tai – „deepfake“ atvejis.

Paklaustas, ar „deepfake“ technologija jau spėjo padaryti didesnės žalos, A. Liaudanskas mini pirminį technologijos panaudojimą – pornografinius filmus, kuriuose buvo panaudojami garsenybių veidai.

„Gana ironiška, bet šis metodas išpopuliarėjo, vienam interneto vartotojui (pagal kurio slapyvardį –„deep fakes„ – ir pavadinta ši technologijų sritis) kuriant pornografinius filmus su ant jų perkeltais įžymybių veidais. Kiti garsesni panaudojimo atvejai buvo „BuzzFeed“ sukurtas netikras vaizdo įrašas, kuriame Barackas Obama atkreipia dėmesį, jog bet kas gali sukurti „deepfake“ vaizdo įrašą ir reikia būti atsargiems, kokia informacija pasitikime; Davidas Beckhamas šneka devyniomis kalbomis, kad atkreiptų dėmesį į maliariją“, – vardina A. Liaudanskas.

Jo teigimu, taip pat ši technologija panaudojama įterpiant aktorius į filmus, kuriuose jie iš tiesų nesifilmavo ar gali netgi padėti atkurti natūraliai skambantį balsą žmonėms, kurie jį prarado. Be to, filmai gali būti realistiškai dubliuojami skirtingomis kalbomis ir pan.

„Anksčiau minėtoms įžymybėms šios technologijos panaudojimas tikrai nepatiko. Panašu, kad šiuo metu didžiausia grėsmė kyla naudojant šią technologiją žmonių pažeminimui ir privatumo ribų peržengimui bei intelektinės nuosavybės pažeidimams. Kol kas neužfiksuota rimtų bandymų skleisti politinę dezinformaciją, bet pažiūrėsime, kas bus artėjant rinkimams“, – sako A. Liaudanskas.

A. Šuminas neabejoja, kad vienaip ar kitaip dauguma interneto vartotojų jau yra susidūrę su „deepfake“ technologijos pavyzdžiu. Tačiau LRT.lt kalbinti ekspertai besijaudinantiesiems dėl „deepfake“ technologijų keliamų grėsmių duoda vos vieną patarimą – tapkite išrankūs informacijai.

Anot A. Liaudansko, šis principas galioja ne tik „deepfake“ technologijos pavyzdžiams, bet ir visai klaidinančiai ar melagingai informacijai.

„Tos pačios taisyklės galioja ir straipsniams, ir nuotraukoms, ir vaizdo įrašams: jei naujiena atrodo šokiruojanti, sensacinga, bando įvairiais būdais pritraukti kuo daugiau dėmesio, kviečia dalintis, bando supriešinti, visada svarbu patikrinti naujienos šaltinį.

Visi turime prieigą prie paieškos sistemų, tad, prieš dalijantis naujienomis, norėčiau paskatinti kiekvieną pasidomėti jų šaltiniu: ar naujiena dalijasi patikimi interneto tinklaraščiai? Ar informacijos autorius išvis egzistuoja, ar tai tik pseudonimas? Ar žmogus, kuris pirmasis paskelbė naujieną, yra tos srities ekspertas? Ar tai galėtų būti sarkazmas? Ar tai galėtų būti senos naujienos? Ar straipsnis atitinka pavadinimą? Jei bent vienas iš šių atsakymų kelia abejonių, naujiena dalintis neskubėčiau“, – sako A. Liaudanskas.

Tuos pačius patarimus duoda ir A. Šuminas. Jo tvirtinimu, susidūrus su „deepfake“ technologijomis ar bet kokiomis kitomis apgavystėmis svarbus kritinis mąstymas ir medijų raštingumas, nes tik tai padės žmonėms atpažinti galimai klaidinančią ar net melagingą informacija.

„Svarbu, kad žmonės visada kritiškai vertintų bet kokią informaciją, kurią mato bet kuriuose kanaluose, nesvarbu, ar tai būtų socialinės medijos, ar žiniasklaida. Žinome, kad žiniasklaida irgi „pasimauna“ ant tų pačių kabliukų.

Kritiškumas ir informacinio, medijų raštingumo pagrindai svarbūs, kad žmonės gebėtų įvertinti gaunamą turinį, gaunamą informaciją, gebėtų suprasti, kokie yra šaltiniai, kas už jų stovi, kaip informacija ateina, kaip ji yra sukonstruota. Kuo žmonės raštingesni šia prasme, tuo jie atsparesni“, – sako A. Šuminas.

Ekspertai, žiūrint vaizdo įrašus, kurie kelia įtarimą, taip pat pataria atkreipti dėmesį į vaizdo įrašo kokybę, ypač į tai, ar kalbančiojo veidas, veido bruožai yra tokios pačios raiškos, kaip ir visas likęs vaizdas.

Jeigu veido bruožai ne tokie ryškūs, jeigu veido kraštai išsilieję ar mirga, jeigu veido odos atspalvis skiriasi nuo likusio kūno odos atspalvio, jeigu veidas neįprastai apšviestas, šviesa keistai atsispindi akyse ar veido mimikos ir kalbėjimas atrodo nenatūraliai, gali būti, kad vaizdo įrašas sukurtas naudojant „deepfake“ technologiją.

Ekspertų aiškinimu, kol kas naudojantis šia technologija itin sunku įtikinamai atkurti smulkias detales, todėl didesnį dėmesį gali kreiptis į papuošalus ar žmogaus plaukus. Taip pat gali būti, kad technologija kartais „nušoka“. Taigi, jeigu tam tikri veido bruožai staiga pakinta, pavyzdžiui, kad ir trumpam pasikeičia žmogau dantys, galite pagrįstai manyti, kad buvo panaudota „deepfake“ technologija.

LRT „Naujienų rentgenas“ – jau antrus metus vykdomas projektas, skirtas didinti medijų raštingumą ir skatinti auditorijos kritinį mąstymą. Projektas vykdomas kartu su partneriais „Baltic Center for Media Excellence“ ir „Internews“.