К

Кінець довіри. Створені за допомогою штучного інтелекту фальшиві відео та аудіо не можливо відрізнити від справжніх

Фейкові новини можна спростувати шляхом перевірки фактів. Читачі можуть робити свідомий вибір, чи довіряти певному джерелу. А коли йдеться про відеоманіпуляцію, ви не можете довіряти навіть найбільш респектабельній та добропорядній газеті, сайту чи телеканалу, - не тому, що вони можуть маніпулювати правдою - а тому, що вони, як і ви не здатні розпізнати фейкове відео. Вже зараз будь-хто може взяти фото голлівудської зірки або відомої особи і розмістити її обличчя в порнографічному відео.

Переклад, автор: Джорджіо Патріні

Технологічний розвиток дає змогу повного маніпулювання відео- та аудіоматеріалами, так само як і можливість цифрового створення таких матеріалів "з нуля". Як тільки інструментарій для фабрикування інформації стане загальнодоступним, наслідки стануть ще більш драматичними, ніж нинішній феномен фейкових новин.

У 1983-му, в розпал холодної війни, підполковник Станіслав Петров служив на командному пункті "Серпухов-15" неподалік від радянської столиці. Він ніс чергування у центрі раннього попередження ракетного нападу, який виявляв пуски ракет із ядерною зброєю з території Сполучених Штатів.

26 вересня система подала сигнал "тривога" - зі штату Монтана запустили ракету. США та СРСР дотримувалися доктрини гарантованого взаємного знищення. Якщо американці починали ядерний напад, совіти відповідали потужним ударом у відповідь, який призводив до неминучого знищення обох країн.

Станіслав Петров

Якби Петров повідомив командування, він почав би Третю світову війну. Натомість він правильно розпізнав, що США навряд чи здійснила б удар лише п’ятьма ракетами, які зафіксувала система. Це була помилка. Петров повідомив про неї як про комп'ютерний збій, а не як про атаку. Він був правий. Третьої світової війни не сталося завдяки правильній критичній оцінці однієї людини.

А тепер проведімо уявний експеримент. Через кілька років у майбутньому, наприклад, у 2020-му, ситуація між Північною Кореєю та США все ще залишається напруженою. CNN отримує відео з анонімного джерела. На ньому Кім Чен Ин проводить нараду з генералами у захищеному бункері. Відеозапису ніхто не бачив раніше.

Викликають перекладачів з корейської мови. Верховний лідер вимагає здійснити ядерний ракетний удар у святковий День Сонця, який наближається. За кілька годин відео потрапляє до Овального кабінету в Білому домі. Розвідка не може підтвердити чи спростувати справжність відео, навіть після консультацій з додатковими джерелами. Президент США має ухвалювати рішення. Він наказує завдати превентивного удару. Починається війна.

Але чи був відеозапис достатнім доказом, щоб виправдати таке рішення?

Проблема полягає в тому, що через кілька років цифровий контент можна буде піддавати суттєвим маніпуляціям, і при цьому він буде настільки схожим на справжній, що людське око чи слух не зможе цього відрізнити. Зображення людських облич стане можливо створювати "з нуля", голоси реальних людей та рух губ у відео можна пристосувати до тексту, який вони озвучують. Базове відео для обробки можна взяти з реального запису, але зміст, який воно передаватиме, може стати будь-яким.

Машинне навчання - саме ця технологія несе за це відповідальність. Прогрес генеративних (породжуючих) моделей завдячує науковим проривам, здійсненим у минулі 5 років, одним з яких була генеративна змагальна мережа (generative adversarial network, GAN)

Центральна ідея GAN - це навчати генеративну модель створювати картинки, які обдурюють "змагальну" модель-детектор: її задача полягає в розрізненні дійсного та фальшивого (згенерованого) контенту; реалізм тут є вбудованою об’єктивною функцією. І вся галузь швидко прогресує:

Прогрес генеративних змагальних моделей за 4 роки

Цей технологічний тренд змінить - точніше, вже змінює - багато галузей, де використовуються цифрові медіа - такі як реклама, мода, кіно, дизайн\виробництво, а також мистецтво.

Вражає своєю реалістичністю демонстрація технології GAN, яку нещодавно представила NVIDIA; втім, багато інших технологічних підходів із машинного навчання та візуалізації живлять нинішній прогрес. Наприклад, ключова ідея технології deepfakes (прийоми синтезу фальшивих зображень та відео реальних осіб - у тому числі й порнографічного змісту - прим. перекл.) полягає у використанні більш традиційної моделі авто-кодування.

Але як щодо фотошопу та комп’ютерної графіки? Створення високоякісних фейкових фото можливе вже давно - завдяки Photoshop. А якщо врахувати, що можна робити зараз за допомогою комп’ютерної графіки, то де тут різниця? Чому ці нові технології є більш небезпечними, ніж технології, які існують вже десятиліття?

Є дві відповіді на це:

Перша: потрібно менше зусиль на редагування та менший рівень обізнаності в технологіях. Надзвичайно швидкий прогрес машинного навчання та візуалізації, що відбувається протягом минулих кількох років, супроводжується дешевизною обчислювальних потужностей відеокарт та хмарних сервісів, доступністю відео\ аудіо\ текстових даних для досліджень, та широким розповсюдженням в Інтернеті програмного коду. Всі ці елементи, поєднані разом, руйнують «вхідний бар’єр» перед тими, хто хоче бавитися з інструментарієм глибинного навчання. Вони також гарантують сталий прогрес для новачків, які хочуть цьому навчитися.

Друга: ці технології забезпечують вищий рівень реалізму, який перевершує те, що можна досягти засобами більш традиційних технологій комп’ютерної графіки - особливо, якщо йдеться про відео та аудіо. Питання, як створювати реалістичні медіадані, покладено на алгоритми, які досягають результату, порівнюючи синтезовані дані з реальними записами, використаними як зразок.

У сценарії, наведеному у вступі до статті, влада піддасть відеоматеріал ретельному експертному дослідженню і спробує провести перехресну перевірку за іншими джерелами. Втім, що станеться, коли інструментарій для створення реалістичного контенту стане загальнодоступним, і визначати справжність цих матеріалів доведеться звичайним громадянам, які переглядають свою стрічку в Facebook?

Спекулятивний погляд на можливі наслідки

Маніпулювання фотографією, виконане штучним інтелектом. Зима перетворюється на літо, сонячна погода - на дощову

Ми звикли довіряти відеозаписам. Якщо ми бачимо, як президент США виступає на телеканалі CNN, ми апріорі вважаємо, що він справді це говорив. У світі майбутнього, де будь-хто може зробити виступ з будь-якими заявами президента США, такий підхід не тільки стане помилковим - він стане небезпечним.

Ви не зможете більше довіряти CNN - чи будь-якому іншому ЗМІ, яке ви вважаєте респектабельним, - якщо ви не матимете змоги покладатися на їхню спроможність відрізняти реальні та фейкові джерела інформації. Зрештою, довіра, яку ми відчуваємо до цифрового контенту, існує лише тому, що нема технологій, здатних ставити його зміст з ніг на голову за допомогою маніпуляцій.

Подумайте про це майбутнє, у якому будь-який тінейджер, прочитавши в інтернеті інструкцію, зможе в себе вдома запустити код на потужному обчислювальному пристрої та створити реалістичний відеоролик з "реальними людьми", які в ньому фігурують. І це аж ніяк не перебільшення, якщо виходити з сучасних технологічних тенденцій. Але перш ніж досягнути таких широких споживчих кіл, технології підробки, без сумніву, опиняться в руках державних установ, і шанси систематичних зловживань, спрямованих на місцевий чи регіональний порядок денний, є цілком реальними.

Кінець довіри - це значно серйозніша проблема, ніж фейкові новини, - за нашим визначенням цього феномену. Фейкові новини можна спростувати шляхом перевірки фактів. Читачі можуть робити свідомий вибір, чи довіряти певному джерелу. А коли йдеться про відеоманіпуляцію, ви не можете довіряти навіть найбільш респектабельній та добропорядній газеті, сайту чи телеканалу, - не тому, що вони можуть маніпулювати правдою - а тому, що вони здатні розпізнати фейкове відео не краще, ніж ви самі.

І хоч приклад з медіа є самоочевидним, ситуація заходить значно далі. Взяти, хоча б, приклад порнографічних "діпфейків". Зараз будь-хто може взяти фото голлівудської зірки або відомої особи і розмістити її обличчя в порнографічному продукті. Онлайнові посібники дають покрокові інструкції, як отримати реалістичний результат. Можливо, автор розробки цього і не хотів, але технологія діпфейків може застосовуватися для створення https://www.forbes.com/sites/ianmorris/2018/02/05/fakeapp-allows-anyone-to-make-deepfake-porn-of-anyone/&refURL=https://www.google.nl/&referrer=https://www.google.nl/">"порнографічної помсти" (приватного відео, яке викладають в мережу без згоди знятих у ньому осіб).

Порносайти ведуть боротьбу, аби зупинити ці речі. Драматизм у тому, що це потужний інструмент шантажу, навіть якщо в реальності нічого не було: якщо компрометуюче відео оприлюднене, витрати на порятунок репутації та переконання публіки, що це була фальшивка, будуть вкрай високими.

Якщо не вжити контрзаходів, правосуддя та правоохоронці зіштовхнуться з проблемою "кінця довіри". Уявімо поліцейське розслідування, яке успішно відстежило телефонний дзвінок, де хтось розкриває важливі деталі злочину, по суті, створюючи вагомі докази проти себе. Записаний голос належить одному з підозрюваних. Для людського вуха його справжність неспростовна. Але як виносити цей доказ у суд, якщо владні установи не можуть бути певні в його автентичності - навіть після криміналістичного аналізу? Наразі відповіді на це питання немає.

Виробництво високоякісних фейкових доказів може спричинити розворот фундаментального принципу нашої правничої системи: люди не винуваті, поки не доведено їхньої вини. Фігурант будь-якого компрометуючого фото буде змушений щоразу доводити свою невинуватість (можливо, забезпечувати алібі); "очевидна легітимність" фотографічних доказів призведе до того, що людину вважатимуть винуватою, якщо вона не доведе, що не є винною. Для підозрюваних це стане безкінечною задачею, адже генерування фейкових контраверсійних фотографій буде простим і незатратним. Зрештою, це може перетворитися на щось на кшталт ДДОС-атаки на особу, так само як і на юридичний персонал, який досліджує ці справи.

Високоякісний голосовий синтез відкриває скриньку Пандори для методів соціальної інженерії. Скоро ми зможемо імітувати голоси, отримавши лише кілька зразків записів голосу жертви, і тоді хакери будуть підробляти телефонні розмови на рутинній основі. Важко уявити суспільну сферу, яка не зазнає ризиків внаслідок загальної доступності існтрументарію для "крадіжки ідентичності". Без додаткових засобів аутентифікації злочинці зможуть навіть видавати себе за співробітників правоохоронних органів, видавати накази чи хибну інформацію підлеглим та підривати спроби влади діяти на операційному рівні.

Lawfareblog навів ще кілька можливих сценаріїв:

- фейкові відео можуть показувати, як посадовці беруть хабарі, вживають расово некоректні вислови або чинять подружню зраду;

- можна показати, як військовослужбовці в зоні бойових дій вбивають цивільних - і цим спричинити хвилі насильства чи навіть стратегічну загрозу військовим кампаніям;

- фейкове відео може зобразити ізраїльського високопосадовця, який робить чи говорить щось настільки образливе, що це спричинить заворушення в сусідніх країнах, руйнуючи дипломатичні стосунки чи мотивуючи спалахи насисльства;

- фальшиве аудіо може зображати високопосадовців США, які в приватних розмовах "визнають" наміри здійснити щось обурливе у інших країнах. Його оприлюднення перед важливою дипломатичною ініціативою може її зірвати;

- фейкове відео може зображати посадовців зі служб надзвичайних ситуацій, які "оголошують" про ракетний удар по Лос-Анджелесу або епідемічний спалах у Нью-Йорку - тим самим провокуючи паніку, або й гірше.

Усе це не обіцяє демократії нічого доброго. Готуйтеся до все більшої кількості політичних дебатів із обговоренням повідомлень, сфабрикованих буквально з нічого. Інформація - це фундамент демократичного суспільства, ефективна противага іншим трьом джерелам влади. Без достовірних джерел інформації інститут демократії зазнає удару в його основахі буде зведений до порожньої оболонки формальних заяв. Перед нами постає темне майбутнє - темніше, ніж уявлення песимістів про наше сьогодення, з його браком свободи інформації, підконтрольними державі ЗМІ та фейковими новинами.

Чи справді картина аж настільки похмура? У нас, людей, притаманний нам «брак довіри» працює як імунна система. Нам необхідно дивитися на відео так, як підполковник Петров дивився на екран радара. Якщо ви оптиміст, цього аргументу буде достатньо, щоб переконати вас, що не все втрачено. Як тільки люди усвідомлять, що відеозапис не обов’язково є достовірним підтвердженням факту, можна очікувати, що всі почнуть ставитися до цифрових медіа з систематичною підозрою. Це звучить подібно до того, як ми повільно привчаємося відфільтровувати фейкові новини.

Історія має тенденцію повторюватися. Перш ніж технологія друку стала загальнодоступною, надруковане на папері/ плакаті/ в журналі повідомлення сприймалося як таке, що походить з авторитетного джерела, тобто, від влади або видавничої компанії. Зараз же нема сенсу говорити «якщо це надрукували, значить, воно гідне довіри», або навіть «воно офіційне», у слабшому вияві. Цей культурний зсув відбудеться і щодо більш складних носіїв інформації у ЗМІ, таких як відеозаписи – яким ми зараз довіряємо, бо їх неможливо швидко та у повному обсязі підробити.

А якщо ви песиміст, цей аргумент вас не переконає. І є як мінімум дві вагомі причини на це. По-перше, існує таке явище, як схильність до підтвердження власної точки зору: ми більш схильні шукати та довіряти інформації, що підтверджує наші попередні суб’єктивні переконання. Сфабриковані відео можуть легко здатися справжніми, якщо вони відповідають нашим (можливо, неправильним) особистим поглядам.

Є й другий, більш тонкий песимістичний аргумент. Навіть якщо ми почнемо більш підозріло ставитися до цифрових медіа, загальний брак довіри може сильно пошкодити функціонуванню нашого суспільства, як наголошує цей коментар. Якщо ми всі пристосуємося і станемо за визначенням крайніми скептиками, ми перестанемо вірити у появу малоймовірних фактів. Приховування ненормальної та кримінальної поведінки може звестися до спростування фактів через те, що вони занадто абсурдні, щоб бути правдою.

Пам’ятаєте, як під час минулої виборчої кампанії Хілларі Клінтон звинувачували в покриванні педофілів. Авжеж, - і в цьому головний аргумент, - відеодоказ нічого не додасть до підтвердження чи спростування цієї події, якщо ми знаємо, що навіть це можна повністю підробити.

Чи може технологія також нас і врятувати?

Є дві ідеї, які аналогічні до тих, що застосовуються для захисту нинішніх банкнот. Війна проти поширення фальшивих купюр використовує дві стратегії: 1) ускладнити виготовлення підробки, використовуючи в оригіналі елементи, які складно відтворити; та 2) створити детектори фальшивих купюр.

Криптологічний спосіб: цифрові підписи

Наприкінці двадцятого століття прогрес в обчислювальній техніці та фотокопіюванні уможливив легке копіювання банкнот – для цього не треба було мати дороге обладнання чи глибокий досвід. Через це сучасні банкноти містять елементи, які важко скопіювати – голограми, багатокольорові зображення, вбудовані смужки, мікродрук, водяні знаки тощо.

Подібно до цих елементів, вбудованих в банкноти, можна вбудовувати цифровий підпис у відеозаписи. Електронний пристрій, який їх знімає, повинен мати механізм цифрового підписування. Цей підпис підтверджує, що відео дійсно створене на певному пристрої, а не на якомусь іншому. Сам по собі він нічого не повідомляє про походження відео. Але якщо безпечно запровадити цей метод, будь-хто може згодом переконатися, що відео було дійсно записане сенсором камери, і після цього з ним не відбувалося ніяких маніпуляцій. Важливо, що підпис існує в парі з оригінальним контентом – редагування відео відразу ж знищить вбудований в нього цифровий підпис, і відеозапис втратить підтвердження достовірності.

У цифрових підписів є чимало недоліків. По-перше, вони покладаються на захищеність приватного ключа, вбудованого в обладнання. А що, як зловмисник має доступ до камери і може отримати ключ? По-друге, це ж стосується і надійності публічних ключів. По-третє, будь-яке правомірне редагування – наприклад, зміна яскравості чи контрасту, або «обрізка», приведе до знищення цифрових підписів. А це серйозне обмеження для застосування. Втім, у підсумку можна зробити висновок, що ця технологія захисту може спрацювати.

Спосіб машинного навчання: побудова «детекторів правди»

Як відомо, крім механізму захисту банкнот від підробок, існують механізми виявлення фальшивок: наприклад, спеціальна ручка, яка реагує на хімічний склад паперу чи фарби.

Аналогічний підхід можливий і для цифрової інформації. Є гіпотеза, що підробка залишає сліди, які важко помітити людині без достатньої технічної компетенції. Але їх може виявити машина, спеціально створена для таких завдань.

Можливо збудувати модель, яка буде класифікувати будь-який цифровий запис, щодо якого існує підозра в підробці. Ресурси для неї будуть тими ж, що і в зловмисника: дані, дешеві обчислювальні потужності, легкий доступ до програмного забезпечення.

Всі чотири зображення - фальшиві. Машина навчилася виявляти три підробки з чотирьох

Експертна думка тут поділилася на дві категорії – з одного боку, генеративні моделі дозволять створювати реалістичне зображення, щодо якого складно буде виявити підробку. З іншого, виявляти її завжди буде легше, ніж створювати.

Машинне навчання як механізм захисту від підробок можна застосовувати в принципі щодо будь-якої інформації, безвідносно до того, звідки вона з’явилася. Це велика перевага. З іншого боку, по своїй природі цей механізм не даватиме стовідсоткової гарантії оригінальності (як система криптографії та цифрових ключів) – завжди залишатиметься ймовірність неточної оцінки.

І насамкінець. Одного дня президент США буде змушений покладатися на технологію перевірки справжності цифрових доказів, отриманих від розвідки. І брати її до уваги, перш ніж починати війну.

Нам слід почати ставитися до цього явища так, як ми ставимося до інших фундаментальних питань, таких як глобальне потепління. Воно неминуче відбудеться. Воно потужно вплине на людське суспільство. Воно заново визначить сенс поняття довіри до того, що ми бачимо і чуємо, - в кожному випадку, коли йдеться не про побачене і почуте особисто. Тому нам потрібен план дій.

Рік тому ми перекладали статтю: Ви ще не бачили справжніх фейків. Невдовзі з'являться повністю фейкові відео (ВІДЕО) Так от, це майбутнє вже настало.

фейк технології медіа інозмі

Знак гривні
Знак гривні