14 августа 2020 16:03

Эпоха "глубоких" фальшивок: что такое deepfake и как от него защититься

Искусственный интеллект помогает людям создавать чрезвычайно качественные подделки видео- и аудиозаписей, которые открывают широкие возможности для злоупотреблений. Как это может изменить мир

Эпоха "глубоких" фальшивок: что такое deepfake и как от него защититься

Розквіт технології штучного інтелекту (ШІ) призвів до стрімкого поширення у світі підроблених відео- та аудіозаписів. Чим досконалішим стає ШІ, тим більш переконливо виглядають нові підробки.

Людство вступає в епоху "глибоких" підробок, які називають deepfake. Цей тренд суттєво вплине на методи ведення політичної боротьби, інформаційної війни, роботи медіа, криміналістів і розважальної галузі.

Барак Обама називає Дональда Трампа "повним і закінченим придурком". Марк Цукерберг вихваляється "повним контролем над викраденими даними мільярдів людей". Джон Сноу вибачається за невдалий кінець "Гри престолів". Ось як може виглядати deepfake.

Які ризики несе технологія? Хто і як може отримати доступ до неї? Як розпізнати підробку? Наскільки важко створити deepfake пересічному інтернет-користувачу і як на цьому заробити?

Deepfake – не лише заміна обличчя на відео

Нова технологія маніпуляції відео- та аудіозаписами отримала назву deepfake. Вона заснована на ШІ і дозволяє значно простіше, ніж раніше, створювати широкий спектр аудіовізуальних підробок.

Люди зазвичай думають, що deepfake – це лише заміна обличчя на відео. Проте можливості цієї технології значно ширші. Вона дозволяє маніпулювати чиїмось губами і синхронізувати їх з фальшивою чи реальною аудіодоріжками, здійснювати рух тілом людини.

Фото майбутнього. Siri, зроби знімок дівчини в купальнику на пляжі

Deepfake з'явився завдяки використанню так званої генеративно-змагальної нейромережі (GAN). Одна частина алгоритму вчиться на реальних фотографіях певного об'єкта і створює зображення, "змагаючись" з другою частиною алгоритму, поки та не почне плутати копію з оригіналом.

Як зловживають технологією

Наразі до 95% глибоких підробок створені у сфері порнографії: обличчя знаменитостей і звичайних людей накладають на обличчя порноактрис.

Такі відео завантажують на порносайти або обмінюються ними в приватних повідомленнях. Компанія Deeptrace знайшла в інтернеті понад 76 тис відеозаписів з ознаками підробки. Жертвами технології стали уже понад 3 тис осіб.

Професор права з Бостонського університету Даніель Цітрон каже, що технологія deepfake передусім використовується проти жінок. Головні мотиви – шахрайство, сатира, розіграші.

Між тим, програмний директор неприбуткової американської організації Witness Сем Грегорі розповідає, що його співробітники почали знаходити факти використання deepfake, спрямовані на дискредитацію жінок-журналістів і громадських активістів. Їх образи використовують у зображеннях із сексуальним підтекстом.

"Люди також використовують deepfake як виправдання. Так, політики захищають себе фразою "це deepfake", що відповідає фразі "це фейкові новини", – каже Грегорі.

Це не тільки про відео

Технологія deepfake може створювати переконливі фотографії.

Вигадана журналістка Bloomberg Мейсі Кінслі, яка мала профіль у LinkedIn і Twitter, була, імовірно, фальшивкою. Ще одна підробка у LinkedIn, Кеті Джонс, стверджувала, що працює в Центрі стратегічних та міжнародних досліджень, але вважається фальшивкою, створеною для іноземної шпигунської операції.

Аудіозаписи також можуть бути сфальсифіковані, щоб створити "голосові клони" громадських діячів.

У березні 2019 року у Великобританії керівник дочірньої німецької енергетичної компанії заплатив майже 200 тис фунтів стерлінгів на банківський рахунок в Угорщині після дзвінка шахрая, який підробив голос СЕО німецького керівника.

Афери з використанням голосових повідомлень стають все більш популярними в месенджері WhatsApp.

Як заробляють на технології: приклад українського стартапу

Технологію deepfake успішно і масово використовують у "мирних" розважальних цілях.

На початку 2020 року заснований українцями Романом Могильним, Олесем Петрівим, Ярославом Бойко, Денисом Дмитренком та Кирилом Сигидою стартап RefaceAI запустив додаток Doublicat, який дозволяє замінити обличчя в GIF-файлі. Влітку стартап удосконалив технологію: тепер обличчя можна міняти у звичайних відеофайлах. Додаток перейменували на Reface.

За кілька місяців Reface став віральним – інтернет-користувачі активно ділилися один з одним посиланням на завантаження додатку. Його завантажили 20 млн разів і він посів головні позиції в App Store у більш ніж 100 країнах.

Популярність додатку СЕО RefaceAI Роман Могильний пояснює тим, що нині просто створювати контент у соціальних мережах вже недостатньо.

"Контент повинен бути унікальним, креативним та персоналізованим – від стікерів і масок в соцмережах до фільмів та ігор, де головним героєм може бути глядач. Досягнути цього допоможе наша технологія", – каже він.

Бізнес-модель стартапу має кілька напрямків.

Перший – підписки та реклама в додатку Reface та всіх наступних продуктах.

Як прогресує штучний інтелект: звіт про останні досягнення

Другий – підписки в Reface Studio (крім Reface App, компанія розробляє Reface Studio – веб-сервіс із заміни облич для професійних користувачів).

Третій – взаємодія з бізнесами в креативній індустрії. У компанії вже є кейси співпраці з брендом Vivienne Sabo і театром в Берліні.

Як створити deepfake і наскільки це складно

На світовому ринку є чимало додатків, за допомогою яких будь-хто може зробити deepfake. Найвідоміші – Zao, DeepFaceLab, Deepfakes web β.

Конкурентні переваги додатків схожі на класичний трикутник "ціна-якість-швидкість". Одні виконують конверсію за секунди, іншим потрібні години.

Одним потрібно багато вихідного матеріалу, деяким достатньо однієї фотографії. Зазвичай чим більше вихідного матеріалу і чим довший процес аналізу, тим точнішим виходить результат.

Тим не менш, створення якісних deepfake – нетривіальне завдання для пересічного інтернет-користувача.

Так, журналіст видання Ars Technica Тімоті Лі витратив два тижні і 552 дол на створення deepfake, де обличчя Марка Цукерберга замінене обличчям актора фільму "Зоряний шлях: наступне покоління" Брента Спайнера.

Якість deepfake виявилася далекою від ідеалу і це при тому, що журналіст витратив два тижні на навчання нейромережі і 552 дол на оренду хмарних обчислювальних потужностей.

"Отримати хороші результати при створенні deepfake нелегко", – робить висновок журналіст.

Найбільш якісні deepfake уміють створювати наукові та промислові дослідники, студії візуальних ефектів та порнопродюсери.

Уряди деяких країн можуть взяти цю технологію на озброєння для ведення інформаційних війн, дискредитації неугодних політиків або для встановлення контакту з цільовими особами.

Ризики і способи захисту

Про ризики технології говорять ледь не найбільше. Усі звикли до негативної конотації deepfake, оскільки найвідоміші приклади були використані саме для маніпуляцій.

"Такі відео – це тижні роботи, працюють над ними не звичайні користувачі інтернету, а люди зі знанням машинного навчання і відеообробки. Ризик технології існує, але світ працює над тим, щоб фейки можна було визначити одразу.

У Facebook та Google дуже жорстка політика щодо цього. Винятком є використання технології з метою створення пародійного контенту, що ми, власне, і робимо", – розповідає Могильний.

Технологія Reface не надається у відкритому доступі. Заміна облич може відбуватися лише на тих відео, які стартап сам надає користувачам.

"Згодом ми запустимо інструмент для ідентифікації deepfake, який працюватиме з нашою технологією. Ми також використовуємо диджитал-вотермарку – те, що неможливо прибрати з відео. Ми хочемо показати, що при створенні синтетичних медіа потрібно створювати і відповідний інструмент ідентифікації", – підсумовує співзасновник RefaceAI.

Які ризики несе технологія? Хто і як може отримати доступ до неї? Як розпізнати підробку? Наскільки важко створити deepfake пересічному інтернет-користувачу і як на цьому заробити?

Deepfake – не лише заміна обличчя на відео

Нова технологія маніпуляції відео- та аудіозаписами отримала назву deepfake. Вона заснована на ШІ і дозволяє значно простіше, ніж раніше, створювати широкий спектр аудіовізуальних підробок.

Люди зазвичай думають, що deepfake – це лише заміна обличчя на відео. Проте можливості цієї технології значно ширші. Вона дозволяє маніпулювати чиїмось губами і синхронізувати їх з фальшивою чи реальною аудіодоріжками, здійснювати рух тілом людини.

Deepfake з'явився завдяки використанню так званої генеративно-змагальної нейромережі (GAN). Одна частина алгоритму вчиться на реальних фотографіях певного об'єкта і створює зображення, "змагаючись" з другою частиною алгоритму, поки та не почне плутати копію з оригіналом.

Як зловживають технологією

Наразі до 95% глибоких підробок створені у сфері порнографії: обличчя знаменитостей і звичайних людей накладають на обличчя порноактрис.

Такі відео завантажують на порносайти або обмінюються ними в приватних повідомленнях. Компанія Deeptrace знайшла в інтернеті понад 76 тис відеозаписів з ознаками підробки. Жертвами технології стали уже понад 3 тис осіб.

Професор права з Бостонського університету Даніель Цітрон каже, що технологія deepfake передусім використовується проти жінок. Головні мотиви – шахрайство, сатира, розіграші.

Між тим, програмний директор неприбуткової американської організації Witness Сем Грегорі розповідає, що його співробітники почали знаходити факти використання deepfake, спрямовані на дискредитацію жінок-журналістів і громадських активістів. Їх образи використовують у зображеннях із сексуальним підтекстом.

"Люди також використовують deepfake як виправдання. Так, політики захищають себе фразою "це deepfake", що відповідає фразі "це фейкові новини", – каже Грегорі.

Це не тільки про відео

Технологія deepfake може створювати переконливі фотографії.

Вигадана журналістка Bloomberg Мейсі Кінслі, яка мала профіль у LinkedIn і Twitter, була, імовірно, фальшивкою. Ще одна підробка у LinkedIn, Кеті Джонс, стверджувала, що працює в Центрі стратегічних та міжнародних досліджень, але вважається фальшивкою, створеною для іноземної шпигунської операції.

Аудіозаписи також можуть бути сфальсифіковані, щоб створити "голосові клони" громадських діячів.

У березні 2019 року у Великобританії керівник дочірньої німецької енергетичної компанії заплатив майже 200 тис фунтів стерлінгів на банківський рахунок в Угорщині після дзвінка шахрая, який підробив голос СЕО німецького керівника.

Афери з використанням голосових повідомлень стають все більш популярними в месенджері WhatsApp.

Автор
Українська Правда

НОВОСТИ