„Дълбоки фалшификати“ ли са новата граница на дигиталната престъпност?

През последните няколко десетилетия технологията за специални ефекти отбеляза истински бум, като CGI премина от рудиментарно суров и примитивен към почти неразличим от реалността. Сега, когато създаването на версимилитудинозни изображения става все по-често срещано явление, политическите експерти и експертите по наказателно правосъдие очакват паника около така наречената „дълбока фалшива“ технология, която има потенциал да усложни допълнително продължаващата международна дискусия за „фалшивите новини“. Но какво всъщност представлява „дълбока фалшификация“ и доколко заплаха ще представлява тази технология в бъдеще?





Технологията Deep Fake (понякога стилизирана като „deepfake“) се отнася до синтезирани и / или наслагвани изображения и / или видеоклипове, създадени от изкуствен интелект, използвайки съществуващи изображения и видеоклипове. Използвайки машинно обучение, тази технология теоретично би могла да създаде убедителни кадри на човек, извършващ действие, което в действителност никога не се е случвало в реалния живот.

Оуен Уилямс, професионален софтуерен инженер и художник на визуални ефекти, предложи просто обяснение.



„Това е начин за използване на автоматизирана софтуерна система за замяна на лицето на човек във видео с друго лице, което е много по-автоматично и убедително, отколкото е било възможно с предишните технологии“, каза Уилямс Oxygen.com .



ву-танг едно време в шаолин

Уилямс отбеляза, че популярните филми като „Джурасик парк“ и „Блейд бегач: Последният разрез“ използват компютърен софтуер за определени сцени по начини, които може да са били предшественик на дълбоки фалшификати: „Във филмовата индустрия това е много често. Да приемем, че имате характер, който трябва да изпълни каскада и бихте предпочели лицето му да се вижда. Класическото решение ще бъде, че ще ги виждате само отзад, или косата им ще бъде в лицето им, така че не можете да кажете, че е двойно. Но има доста ангажирана история на създателите на филми, които използват компютри, за да поставят лицето на актьора над каскадьор.



„Това беше много ръчен процес - продължи Уилямс. „Сега с дълбоката фалшива технология захранвате компютъра с две неща: първо видеоклипът, който ще замените, а след това и куп входове на лицето, с което ще замените. Трябва да получите достатъчно изображения на човек, който прави различни изражения на лицето и от различни ъгли. Създавате библиотека с това как може да изглежда лицето на този човек в различни ситуации и след това компютърът преминава през и гледа видеото. Не се нуждае и от точно съвпадение. Той може да смачка и да преобрази това, което има в библиотеката, за да се побере на това, от което се нуждае. Това, което преди изискваше десетки художници стотици часове, за да се опитат да изпълнят наистина сложен ефект, сега е само едно натискане на бутон. '

Аспект на тази технология, която притеснява хората, е, че човек не е задължително да подава доброволно лицето си, за да бъде изпълнен този процес, като се има предвид колко снимки съществуват онлайн на повечето хора - особено на известни личности и политически фигури.



истинска история е шофьорът

„Има достатъчно снимки на всяка знаменитост под достатъчно ъгли, за да можете да създадете тази библиотека [без съгласие]“, каза Уилямс. „Необходима е определена работа за това, но за всяка малко популярна фигура тези неща ще съществуват. Смятам, че е по-малко вероятно това да е възможно за обикновения човек.

Първите дълбоки фалшиви видеоклипове се появиха на форумите на Reddit в края на 2017 г., според Variety . Потребител твърди, че е използвал компютъра си за създаване на изключително реалистични порнографски видеоклипове на различни знаменитости, участващи в сексуални дейности, които в действителност никога не са се случвали в реалния живот. Потребителят твърди, че е захранвал компютъра си с хиляди снимки на звездите, от които ИИ може да произвежда изобразените изражения на лицето и движенията. Приложение, използвано от дълбоки фалшиви създатели и споделено в Reddit, в крайна сметка беше изтеглено над 100 000 пъти. (Reddit в крайна сметка ще продължи да забранява този вид съдържание, като казва, че нарушава политиката им за „неволна порнография“. според The ​​Verge .)

Реализмът, който тази среда може да постигне в момента, се съмнява от Уилямс.

„Ако всъщност някога сте гледали един от тези дълбоки фалшификати ... там има известна странност“, каза Уилямс. - Те не са полирани. Вероятно ще става все по-добре, особено защото Холивуд има интерес да направи това автоматизирано, вместо да плаща скъпи изпълнители.

По същия начин Уилямс предположи, че въпреки паниката около дълбоко фалшиво порно , променящите се културни нагласи около естеството на неща като отмъщение порнография или изтекли голи изображения означава, че вероятно хората, които създават този вид медии, ще бъдат осъдени и няма да бъдат отпразнувани, дори в развлекателната индустрия за възрастни.

63-годишен учител е арестуван за спане с ученик

„Никога няма да бъде масово“, предположи Уилямс. 'След ' The Fappening „нещо се случи на Reddit, хората успяха да променят разговора и да кажат:„ Това не е скандал, а секс престъпление “. Така че просто не виждам това да стане толкова скандал, колкото хората смятат, че ще стане. Хората могат също така доста лесно да намерят оригиналното порно, от което е създаден дълбокият фалшификат, което означава, че е доста лесно да се разкрие. '

Но това не само предизвиква безпокойство, защото може да се използва за създаване на фалшиво порно на знаменитости. Хората се притесняват и от политическите последици.

Политическите експерти започнаха да пишат за разпространението на дълбоки фалшификати през 2018 г. Статия на Гардиън от ноември същата година се отбелязва вирусно разпространение на видеоклип, за който се предполага, че изобразява президента Доналд Тръмп, който насърчава нацията на Белгия да се оттегли от Парижкото споразумение за климата. Това катализира по-широка дискусия за потенциала на различните правителства да използват тази технология в масови кампании за дезинформация, разговор, който вече беше започнал благодарение на продължаващото разследване на участието на Русия в президентските избори през 2016 г. в САЩ.

Паниката около дълбоките фалшификати дори вдъхнови редакционната колегия на Bloomberg Media Group да изготви силно формулирано становище по въпроса.

които са на запад Мемфис три

„Видео доказателствата се превърнаха в стълб на наказателноправната система ... именно защото филмът изглежда като толкова надежден запис на нечия реч или действия. Дълбоките фалшификати биха могли да направят такива доказателства подозрителни “ те написаха през юни 2018 г. „Тогава основното предизвикателство ще бъде идентифицирането и извикването на тези фалшификати - ако това е възможно.“

Уилямс се съгласи, че естеството на дълбоките фалшификати застрашава нашите представи за „реалност“ по отношение на видео доказателствата, но отбеляза, че това правно тресавище не е уникално за съвременния ни дигитален пейзаж.

„Донякъде се свежда до тази идея, че хората имат, че видеото е равно на истината, което никога не е било така. Знаехме това от Родни Кинг нататък. Или помислете Ерик Гарнър : Хората смятаха, че [полицаят, който го е убил] е невинен, независимо какво видео от инцидента предсказва. За мен [много от страховете около дълбоките фалшификати] изглеждат някак неоснователни. “

Уилямс изброи няколко други инцидента, които не включват дълбока фалшива технология, които показаха начините, по които видеото е смело манипулирано, за да се изкриви общественото мнение по даден въпрос, като Спорното сваляне на ACORN от Джеймс О'Кийф и скорошен скандал, включващ докторско видео, за което се предполага, че изобразява репортера на CNN Джим Акоста, който атакува служител на Белия дом .

Крайният извод на Уилямс беше, че истерията около дълбоките фалшификати е донякъде преувеличена.

„Това, което виждам да се случва, е, че ще работи и в двете посоки. Ако излезе видеоклип и той е реален, хората ще твърдят, че е фалшив. Ако излезе видео и е фалшиво, хората ще твърдят, че е реално. Всеки случай предполага определена доза истина, присвоена на видео [себе си]. Трудно е да се разбере в каква посока ще тръгне всичко това Лентата за пикаене всъщност излезе например, знаете точно какво ще се случи: Половината хора биха казали: „Това са бикове - т, това е някакъв актьор!“ и половината хора биха казали: „Ето го! Истинско е!' Така че нищо наистина не би се променило. Това обикновено се случва с новите технологии: Нещата не се променят толкова, колкото хората си мислят.

[Снимка: SAUL LOEB / AFP / Гети Имиджис]

Категория
Препоръчано
Популярни Публикации