Tobulus netikrus vaizdo įrašus atpažins dirbtinis intelektas
Tobulus netikrus vaizdo įrašus atpažins dirbtinis intelektas

Video: Tobulus netikrus vaizdo įrašus atpažins dirbtinis intelektas

Video: Tobulus netikrus vaizdo įrašus atpažins dirbtinis intelektas
Video: Nickelback - Rockstar [OFFICIAL VIDEO] - YouTube 2024, Balandis
Anonim
Anglijoje prasideda operos apie Litvinenkos apnuodijimą premjera
Anglijoje prasideda operos apie Litvinenkos apnuodijimą premjera

Prieš metus Stanfordo „Manish Agrawala“padėjo sukurti lūpų sinchronizavimo technologiją, leidžiančią vaizdo įrašų redaktoriams beveik nepastebimai pakeisti kalbėtojų žodžius. Įrankis gali lengvai įterpti žodžius, kurių žmogus niekada nekalbėjo, net sakinio viduryje, arba ištrinti jo pasakytus žodžius. Viskas atrodys tikroviška plika akimi ir net daugeliui kompiuterinių sistemų.

Šis įrankis labai palengvino klaidų taisymą nefotografuojant visų scenų, taip pat pritaikė televizijos laidas ar filmus skirtingoms auditorijoms skirtingose vietose. Tačiau ši technologija taip pat sukūrė nerimą keliančias naujas galimybes sunkiai randamiems suklastotiems vaizdo įrašams, turint aiškų tikslą iškraipyti tiesą. Pavyzdžiui, neseniai paskelbtame respublikonų vaizdo įraše interviu su Joe Bidenu buvo naudojama grubesnė technika.

Šią vasarą Agrawala ir kolegos iš Stanfordo ir UC Berkeley pristatė dirbtiniu intelektu pagrįstą požiūrį į lūpų sinchronizavimo technologiją. Naujoji programa tiksliai aptinka daugiau nei 80 procentų klastotės, atpažindama mažiausius neatitikimus tarp žmonių garsų ir jų burnos formos.

Tačiau Agrawala, Stanfordo žiniasklaidos inovacijų instituto direktorius ir „Forest Baskett“kompiuterių mokslo profesorius, kuris taip pat yra susijęs su Stanfordo žmogiškojo dirbtinio intelekto institutu, įspėja, kad nėra ilgalaikio techninio sprendimo giliems klastotėms.

Kaip veikia klastotės

Yra teisėtų priežasčių manipuliuoti vaizdo įrašais. Pavyzdžiui, kiekvienas, filmuojantis išgalvotą TV laidą, filmą ar reklamą, gali sutaupyti laiko ir pinigų, naudodamas skaitmeninius įrankius klaidoms ištaisyti ar scenarijams pritaikyti.

Problema iškyla, kai šios priemonės sąmoningai naudojamos skleidžiant melagingą informaciją. Ir daugelis metodų yra nematomi paprastam žiūrovui.

Daugelis giliai suklastotų vaizdo įrašų remiasi veido keitimu, tiesiogine prasme uždedant vieno asmens veidą ant kito asmens vaizdo įrašo. Tačiau nors veido keitimo įrankiai gali būti įtikinami, jie yra gana neapdoroti ir paprastai palieka skaitmeninius ar vaizdinius artefaktus, kuriuos kompiuteris gali aptikti.

Kita vertus, lūpų sinchronizavimo technologijos yra mažiau matomos ir todėl sunkiau aptinkamos. Jie manipuliuoja daug mažesne vaizdo dalimi ir tada sintezuoja lūpų judesius, kurie tiksliai atitinka tai, kaip žmogaus burna iš tikrųjų judėtų, jei jis pasakytų tam tikrus žodžius. Anot „Agrawal“, gavęs pakankamai žmogaus įvaizdžio ir balso pavyzdžių, suklastotas prodiuseris gali priversti žmogų „pasakyti“bet ką.

Klastotės aptikimas

Susirūpinęs dėl neetiško tokios technologijos naudojimo, Agrawala kartu su Stanfordo doktorantu Ohadu Freedu sukūrė aptikimo įrankį; Hani Farid, Kalifornijos universiteto Berklio informacijos mokyklos profesorė; ir Shruti Agarwal, Berkeley doktorantas.

Iš pradžių tyrėjai eksperimentavo taikydami tik rankinę techniką, kurios metu stebėtojai studijavo vaizdo medžiagą. Tai veikė gerai, tačiau praktiškai tai buvo daug darbo reikalaujantis ir daug laiko atimantis darbas.

Tuomet mokslininkai išbandė dirbtiniu intelektu pagrįstą neuronų tinklą, kuris būtų daug greičiau atliktas tą pačią analizę po mokymų vaizdo įraše su buvusiu prezidentu Baracku Obama. Neuroninis tinklas aptiko daugiau nei 90 procentų paties Obamos lūpų sinchronizavimo, nors kitų garsiakalbių tikslumas sumažėjo iki maždaug 81 procento.

Tikras tiesos išbandymas

Mokslininkai teigia, kad jų požiūris yra tik kačių ir pelių žaidimo dalis. Tobulėjant gilių klastojimo metodams, jie paliks dar mažiau raktų.

Galiausiai, sako Agrawala, tikroji problema yra ne tiek kova su giliai suklastotais vaizdo įrašais, kiek kova su dezinformacija. Tiesą sakant, jis pažymi, kad daug dezinformacijos kyla iškraipant to, ką žmonės iš tikrųjų pasakė, prasmę.

„Norėdami sumažinti dezinformaciją, turime pagerinti žiniasklaidos priemonių naudojimo raštingumą ir sukurti atskaitomybės sistemas“, - sako jis. „Tai gali reikšti įstatymus, draudžiančius sąmoningai teikti dezinformaciją ir jų pažeidimo pasekmes, taip pat atsiradusios žalos pašalinimo mechanizmus“.

Rekomenduojamas: