ENG
В мире, Технологии

Искусственный интеллект борется с дезинформацией

Страны с высоким уровнем развития технологий обращают внимание на проблему дипфейков. Создание синтетических изображений, обработанных и переделанных компьютером, становится дешевле и проще в использовании. Растёт опасность появления фейковых новостей, мистификаций, поддельных порнографических видео и т.д. Этой осенью корейский передовой институт науки и технологий Korea Advanced Institute of Science and Technology (KAIST) представил ПО на базе искусственного интеллекта, предназначенное для обнаружения дипфейков. 

Фото: depositphotos.com
Фото: depositphotos.com

Борец за правду

Новое программное обеспечение, получившее название Kaicatch, является первым в Южной Корее инструментом, определяющим дипфейки. Программа способна анализировать как изображения, так и видео, и выявлять искусственные изменения, которые могут быть невидимы для человеческого глаза.

Новая разработка должна будет противостоять растущему количеству синтетических фотографий и видео, которые создают определенные проблемы. Программное обеспечение может подтверждать достоверность изображения, выявлять сложные изменения, внесенные в фотографии или видео.

В Kaicatch объединены различные методы, в том числе те, которые используются для судебного видеонаблюдения и стенографического анализа. ПО использует сразу несколько разных механизмов машинного обучения и может не только определять, что конкретно было изменено на фотографии или в видео, но и способ внесения правок.

Угроза дезинформации 

Изначально термин «дипфейк» (deepfake) зародился в средствах массовой информации для определения видео или фото, где лицо одного человека заменено на другое.

Термин представляет собой набор словосочетаний «глубокое обучение» и «подделка» и использует алгоритмы машинного обучения и искусственный интеллект (ИИ) для создания реалистичных, но синтетических медиа.

Дипфейк открыто бросает вызов тому, насколько мы доверяем информации, которую видим в интернете или по телевизору. Созданные искусственным интеллектом видеоролики могут полностью подорвать наше понимание мировых событий. В мире, где онлайн-идентичность человека напрямую связана с его реальной жизнью, перспектива идеального копирования пугает.

Да, поддельные изображения существовали всегда, а со времен цифровых медиа обсуждение правдивости фото (со знаменитостями, политиками и др.) стало частью обычной жизни СМИ.

Но проблемы, которые создают алгоритмы машинного обучения deepfake, гораздо серьезнее: новые технологии делают фейковые видео слишком убедительными и беспрецедентно точными.

Изначально дипфейки не обладали столь вредоносным потенциалом. Для их компиляции требовались сотни часов машинного обучения. И барьер для создания дипфейк-видео был довольно высок. Но технология быстро совершенствуется и становится доступной любому, у кого достаточно времени и вычислительных мощностей.

Следовательно, люди всё чаще находят негативное и вредное применение дипфейкам. Уже сегодня существуют десятки тысяч поддельных порнороликов, в которых изображены лица известных женщин. Все они привлекают десятки миллионов просмотров на многочисленных сайтах с контентом для взрослых. Еще хуже создание синтетических порно с участием ничего не подозревающих женщин.

Вас узнали на фотографии

Недавно фирма по обнаружению и анализу дипфейков Sensity раскрыла дипфейк-бота в Telegram, который позволял за смехотворную плату создавать порнографические картинки с использованием фотографий любых людей, в том числе несовершеннолетних. Сообщается, что бот создал более 100 тыс. дипфейк-изображений обнаженных женщин, сделанных из фото, украденных из учетных записей и соцсетей обычных женщин — чьих-то подруг, жен, друзей, матерей и т.д. 

«Бот является большим шагом в технологии дипфейков, поскольку для загрузчика изображений не нужны существующие знания о дипфейках, машинном обучении или ИИ. Это автоматизированный процесс, для которого требуется одно лишь изображение», объясняют сотрудники фирмы.

Размещение дипфейков в Telegram создает еще одну проблему. Telegram — это служба обмена сообщениями, ориентированная на конфиденциальность. Пользователям, по сути, ничего не мешает обмениваться синтетическими фотографиями.

«Ни один из сайтов и каналов, публикующих дипфейки, не удаляет и не запрещает их. У них на это нет веской причины, в том числе законодательной. Люди по-прежнему могут загружать такие материалы без каких-либо последствий», — говорят сотрудники Sensity.

При этом эксперты подчеркивают, что видео по сути являются эксплуататорскими, оскорбительными и аморальными. Потенциал для шантажа и других форм вымогательства очень высок. Мошенники могут легко добраться до почтового ящика мужа, партнера, члена семьи, коллеги или начальника, разрушая при этом жизни.

Другой проблемой дипфейков является дезинформация. Искусственный интеллект может создать совершенно новое лицо с нуля. И оно будет говорить и делать то, что нужно. Недавно американское издание The New York Times выпустило большой материал по теме синтетических изображений, где обсуждалась технология генеративно-состязательной нейросети GAN, созданная в 2014 году студентом Стэнфордского университета Яном Гудфеллоу. Программа генерирует контент, одновременно сравнивая его с человеческими лицами, заставляя его улучшаться до тех пор, пока сам компьютер не сможет отличить искусственное изображение от живого лица. А реального человека можно показать говорившим то, что он никогда не говорил, и делающим то, чего никогда не делал. Программа не ограничивается человеческими лицами и может подделывать что угодно: от автомобилей до кошек.

Цифровые изображения вымышленных людей в последние годы широко представлены в интернете. Есть такие виртуальные звёзды, как модель и активистка Микела, у которой огромное количество подписчиков в Instagram и Twitter. Но персонажей, созданных GAN, отличает их высокая реалистичность, вплоть до мельчайших деталей кожи, волос.

Дипфейки на службе пропаганды

«Пока опасения по поводу дезинформации и использования искусственного интеллекта в основном связаны с политическими дипфейками, но по-настоящему серьезных прецедентов еще не было», — пишет газета.

Однако вспоминает, что летом 2019 года Associated Press обнаружило учетную запись в LinkedIn, маскирующуюся под сотрудника некого аналитического центра. А в декабре в США раскрыли сеть, состоящую из более чем 900 страниц, групп и аккаунтов, связанных с правым новостным агентством Epoch Media Group.

«Они использовали фальшивые лица, чтобы укрепить свое присутствие в Facebook и донести свои сообщения до более широкой аудитории», — цитирует The New York Times сотрудника Цифровой криминалистической лаборатории Атлантического совета.

В статье The New York Times также говорится, что Китай использует искусственный интеллект GAN для создания поддельных аккаунтов в Facebook, с которых выдвигает пропекинские тезисы по таким темам, как Тайвань, Южно-Китайское море и Индонезия. Американское издание предполагает, что в России политические новостные агентства также используют алгоритмы нейросети для создания вымышленных образов.

В ноябре вопрос защиты российского цифрового пространства от дипфейков подняла «Газета.ру», поговорив с председателем комиссии по правовому обеспечению цифровой экономики московского отделения АЮР Александром Журавлевым. В разговоре отметили, что технологию можно использовать во многих позитивных ключах, например в астрофизике, архитектуре, дизайне или для реконструкции исторических событий и создания игр. Так, с помощью дипфейка музей Сальвадора Дали во Флориде «оживил» художника. Технология проанализировала 6 тыс. фотографий и 145 видео с Дали, а также массу интервью и писем художника, чтобы воспроизвести его голос, акцент и манеру речи.

Индустрия правды

Однако потенциальные угрозы дипфейков велики, и IT-гиганты, такие как Facebook, Microsoft, Google, уже борются с распространением синтетических видео и пытаются их как-то выявлять.

«Сами соцсети выработали алгоритмы по защите пользователей от дипфейков. Они ввели маркировки, а также механизмы блокировки такого контента. Но, во-первых, не все соцсети такие алгоритмы используют, а во-вторых, они несовершенны. Российским законодателям нужно установить минимальное количество правил для соцсетей, а механизмы реализации отдать на откуп соцсетям. С этой проблемой можно бороться только технологически. Задача государства — создать нормативную базу, которая бы смогла обеспечить баланс для развития технологий и защиты личности», — комментирует ситуацию Александр Журавлев.

Журавлев объясняет, что:

«Помимо национального законодательства, важно работать на международном уровне. Эта деятельность трансгранична — если в России будут законодательные ограничения, а в Испании или Черногории нет, то злоумышленники будут пользоваться отсутствием соответствующей правовой базы и распространять запрещенный контент через другие каналы. В этом случае борьба с дипфейками на территории России нивелируется. Нужно работать в коалиции, чтобы злоумышленники не достигали своих целей».

Он подтвердил, что сегодня в России нет инструментов, позволяющих защитить граждан от дипфейков.

«С одной стороны, у нас есть статья 152.1 ГК РФ, которая охраняет изображение любого гражданина. Оно может быть использовано только с его согласия. Вопрос: к кому подавать иск? Можно обратиться к самой платформе, распространившей контент, и попросить удалить его. Но пока человек пройдет все процедуры, видео увидят все. За это время может испортиться его репутация», — подчеркивает эксперт.

Автор: Екатерина Воробьева

Вам понравился этот текст? Вы можете поддержать наше издание, купив пакет информационных услуг
Загрузка...
Предыдущая статьяСледующая статья