ENG
Мнение, Технологии

Технологии подделки видео и голоса стали общедоступными

Станислав Петровский

Станислав Петровский

Юрист компании «Объединенная Энергия», кандидат юридических наук

Опубликован видеоролик, который показывает, что американцы не были на Луне, а разбились при посадке. В ролике президент США официально скорбит о гибели астронавтов космического корабля Аполлон-11 на Луне. Теперь ролик с речью президента США Никсона о лунной катастрофе In Event of Moon Disaster можно увидеть в YouTube (фильм с видео речи президента США Никсона, которой никогда не было в действительности). Его записали специалисты Центра передовой виртуальности (Center for Advanced Virtuality) Массачусетского технологического института. Ролик создан с помощью технологии DeepFake, которая позволяет на основе нескольких образцов голоса и видео с человеком создать искусную подделку, на глаз неотличимую от оригинала.

Другая разработка под названием DeepVoice позволяет синтезировать речь со всеми нюансами, характерными для конкретного человека, включая произношение. Системе достаточно 10 образцов голоса человека по 5 секунд, чтобы создать звукозапись, которую не отличит система распознавания по голосу. Существует также аналогичный канадский проект Lyrebird. Специалисты университетов Принстона, Макса Планка и Стэнфорда также создали приложение Neural Rendering, которое имитирует произнесение текста человеком на видео. Язык говорящего не имеет значения.

Конечно, в противовес началось развитие технологий, позволяющих выявлять подделку изображений, видео или звуковых роликов, но они выявляют далеко не все подделки и нуждаются в существенной доработке.

Компании Facebook и Microsoft провели в 2020 году DeepFake Detection Challenge — конкурс лучшего решения для выявления подмены лиц на видео. Приз составлял $1 млн, но лучшее решение только в 68% случаев выявляет подделку. Причем речь идет о видео DeepFake, в которые не вносились специальные шумы, затрудняющие распознавание подделок. По непроверенным данным, уже разработано специальное программное обеспечение на основе искусственного интеллекта, противодействующее распознаванию подделок.

Самым известным примером незаконного использования DeepFake является случай с энергетической компанией, которая потеряла около 220 тысяч евро. Злоумышленники позвонили по телефону бухгалтеру и голосом руководителя передали распоряжение на оплату. Была правдоподобно сымитирована манера разговора и немецкий акцент.

Сегодня технология DeepFake стала доступна для всех желающих. Помимо инструментов для фото и видео DeepFaceLab, FaceSwap, Faceswapweb.com и других, сразу несколько русскоязычных Telegram-каналов предложили сервис подмены номера телефона и голоса. Сервис позволяет подменить ваш номер на любой другой, а также поменять ваш голос на один из нескольких вариантов. Это предоставляет всем желающим возможности как для невинных розыгрышей, так и для крупного мошенничества. Становятся бесполезными приложения, которые с помощью определителя номера выявляют навязчивую рекламу или мошенников. Теперь имеет смысл просить собеседника сообщать наиболее важную информацию через мессенджеры, поскольку там пока, по крайней мере в широком доступе, нет средств для подмены номера.

Технологии синтеза реалистичной речи и видео вызывают обоснованное беспокойство специалистов, поскольку позволяют мошенникам записывать голосовые сообщения голосом знакомых вам людей или подделывать видео, в том числе обманывать системы банковской идентификации, а также подделывать доказательства для суда. Развитие технологии может привести к тому, что видеозаписи и аудиозаписи будет невозможно использовать в суде. DeepFake отрывает широкие возможности для краж с банковских счетов, политической дискредитации, а также запугивания, шантажа и мошенничества, целью которых может стать любой, включая детей. Уже сейчас в интернете распространены поддельные порноролики, где внешность порноактера заменена на внешность знаменитости.

С октября 2019 года в Калифорнии запрещено выкладывать в сеть ролики с политическими кандидатами за 60 дней до выборов. С января 2020 года в Китае запрещено публиковать фото и видео, созданные с помощью технологии DeepFake без специальной пометки.

Учитывая, что отличить подделку даже с помощью специализированного программного обеспечения не всегда возможно, впору повторить слова известного персонажа: «Не верь глазам своим!»

Тут есть о чем задуматься: как всем нам, так и законодателям, судьям, а также специалистам по криминалистической экспертизе.

Подписывайтесь на канал «Инвест-Форсайта» в «Яндекс.Дзене»

Вам понравился этот текст? Вы можете поддержать наше издание, купив пакет информационных услуг
Загрузка...
Предыдущая статьяСледующая статья