ENG

Перейти в Дзен
Мнение, Технологии

Регулирование ИИ-алгоритмов как неизбежность

Алексей Сергеев

Алексей Сергеев

Руководитель практики машинное обучение и искусственный интеллект Axenix

Внедрение искусственного интеллекта (ИИ) в различные аспекты жизни заставляет задуматься о культурных, технологических, а также о правовых последствиях, которые влечет за собой этот процесс. Работу ИИ-алгоритмов поиска и выдачи результатов по запросам пользователей придется регулировать, как в свое время брали в правовые рамки работу в Интернете.

Фото: Maxim Ilyahov / Unsplash

Всесилье алгоритма: как работали первые поисковые системы 

Сегодня ИИ временами демонстрирует устрашающие возможности, иногда — на грани суперспособностей. Например, уже несколько лет назад на аукционе Christie's за $430 тыс. был продан «Портрет Эдмонда Белами». Автором столь успешного полотна значилась нейронная сеть класса generative adversarial networks (GANs).

ИИ-алгоритмы давно пишут стихи, с каждым годом все лучше — в книжных магазинах уже можно найти сборники «нейролирики».

В Китае с 2019 года работает киберсуд, где разбирательства по некоторым делам с типовым составом в режиме онлайн ведет ИИ-судья — алгоритм, натренированный на огромном количестве реальных дел, рассмотренных «человеческими» коллегами.

Однако так было не всегда. Когда-то SEO-специалисты давали достойный ответ ИИ-алгоритмам с помощью набора различных приемов при составлении текста, а также при его верстке в виде веб-страниц. Это и перенасыщение ключевыми словами и формулировками, и различные виды маскировки, словом — «черное SEO» во всей красе.

Качество работы поиска такой подход снижал: движки выдавали не объективно релевантные страницы в числе первых, а те из них, которым удавалось одурачить алгоритм выдачи.

В настоящее время ИИ позволяет отсеивать такой спам и выдавать по запросу только подлинный оригинальный контент. При этом каждое изменение работы поисковых алгоритмов заставляет компании пересматривать подходы к созданию и публикации своего контента на веб-ресурсах.

Например, такие ИИ-технологии, как обработка естественного языка или изображений, позволяют мгновенно распознавать слова и визуальные материалы, используя их как вводные для поискового запроса.

В целом современный ИИ-поиск — это целая комплексная сеть алгоритмов на базе технологий искусственного интеллекта, которая определяет подбор результатов поиска, приоритетность и очередность их вывода.

Как правило, точные механизмы и принципы работы алгоритмов — интеллектуальная собственность разработчика. Обыграть или как-то «перехитрить» современные алгоритмы становится все сложнее.

Что происходит сейчас

Современные поисковые системы в значительной степени полагаются на ИИ-алгоритмы. Они отвечают за то, какие результаты поиска выводятся по запросу пользователя, а также за подборку связанных тем, предлагаемых для дополнительного изучения.

Поисковые системы также полагаются на ИИ, чтобы определить, как контент будет ранжироваться при выводе на экран. Алгоритмы, используемые этими системами, имеют множество правил, определяющих приоритетность различных факторов — от ключевых слов до пользовательского опыта (история поиска и т.д. ).

Современный поиск в Сети стандартно использует методы оптимизации результатов по запросам предыдущих сессий. Однако сегодня компании-операторы поисковых движков серьезно продвинулись в обработке запросов.

Одна из главных точек роста здесь: предоставление максимально релевантного контента по запросу. Для этого поисковые системы должны четко понимать, что именно у них спрашивают, учитывать реалии и контекст.

Например, разработка Google — обученная языковая модель BERT — позволяет поисковой системе компании понимать полные предложения. Это означает, что BERT может понимать смысловой контекст поиска, а не только ключевые слова в запросе.

При этом в процессе совершенствования ИИ-алгоритмов для поиска есть нюанс. В то время как разработчики совершенствуют различные аспекты работы поисковых и рекомендательных движков, никто за пределами компании не имеет полного представления о том, как эти алгоритмы устроены и как они принимают решения.

Пока рано

Прямо сейчас сложно говорить о нарушениях закона в этой области в условиях, когда нормативная база для регулирования рекомендательных и поисковых сервисов только формируется.

На текущий момент выносить суждения о действиях таких сервисов в России, когда речь идет не о явно противоправной информации, распространение которой попадает под регулирование ФЗ-149, можно только в аспекте этики технологий искусственного интеллекта.

А здесь для начала надо разобраться с тем, что можно называть негативными паттернами работы ИИ-алгоритмов и определить пагубное влияние.

Нужно понять, о каких конкретно рисках идет речь — контентных (предоставление противоправной информации), потребительских (склонение к покупке и введение в заблуждение о потребительских качествах товара/услуги), коммуникационных (знакомства в Сети, предоставляющие угрозу, кибербуллинг) или же о рисках в сфере информационной безопасности (действия, ведущие к утечке персональных данных).

Обязать разработчиков поисковых и рекомендательных сервисов учитывать все риски невозможно. В противном случае это окажет существенное затормаживающие влияние на развитие технологий, ведь, в некотором смысле, разработчику придется имплементировать в сервисе полноценный монитор безопасности и функции фильтрации контента, что является отдельной экспертной областью ИБ.

Работы ведутся 

Тем не менее попытки взять работу алгоритмов поиска хоть под какой-то контроль ведутся: в соответствующем законопроекте о регулировании рекомендательных сервисов в РФ есть весьма полезные тезисы.

Например, о повышении осведомленности пользователей об особенностях работы алгоритма и используемых им данных, так же как и о возможности полностью отказаться от рекомендаций.

Очевидно, что у таких предложений есть и негативная сторона — разработчику придется раскрыть ноу-хау, лежащие в основе работы алгоритма, «подарив» конкурентам базовые принципы и наработки, лежащие в его основе.

Здесь очень важно найти баланс и правильно таргетировать регулирование, чтобы, обеспечивая защиту человека и реализуя гуманистические подходы, не остановить развитие технологий в этой области. Например, такого перспективного направления в плане применения ИИ, как коммерчески востребованные сервисы персонализации товарных предложений.

Также необходимо учитывать массовость сервиса и тип объекта поисковой выдачи. Скажем, если это новости, мнения и знания, а конкретным сервисом и его рекомендациями пользуются миллионы людей, тогда такой сервис должен быть очень аккуратен в предоставлении информации и формировании рекомендаций. Иначе возникает опасность превращения алгоритма в «гида» и даже в «учителя».

Здесь всегда будут риски помещения пользователя в информационную изоляцию, когда весь выдаваемый материал будет стремиться к однородности, по факту гипертрофируя избранные темы или значимость одной точки зрения.

У законодателей, владельцев и разработчиков таких сервисов в этой перспективе возникает много работы и вызовов, решать которые нужно в диалоге, очень аккуратно и вдумчиво.

Все можно взломать и проэксплуатировать

Также не стоит забывать про вечный принцип: «Что один человек собрал — другой всегда разобрать сможет». Если быть более точным: какой бы совершенной ни была та или иная технология, люди всегда смогут найти способ если не взломать ее напрямую, то эксплуатировать ее возможности с пользой для себя.

Например, в 2020 году художник Саймон Уеккерт в Берлине «хакнул» Google Maps. С помощью небольшой тележки на колесиках, в которую он поместил 99 старых смартфонов, он устроил огромную виртуальную пробку на улицах мегаполиса. Для этого понадобилось просто включить все телефоны с запущенным приложением Google Maps и прогуляться с ними по улицам города. В реальности все эти улицы даже близко не были перегружены машинами, но Google Maps честно зафиксировал пробку.

А все дело в алгоритме: карты Google работают через агрегирование данных из нескольких источников, но, как оказалось, в основном полагаются на реальных пользователей, у которых в телефонах включены службы геолокации.

Художник изучал особенности работы сервиса около двух лет, и результат действительно впечатляет. Никакой «кибератаки», взлома и прочей подозрительной антизаконной активности — совершенно легально и без особых ИТ-компетенций он смог скорректировать картину трафика.

Как это можно было бы использовать на практике? Например, «поддушивать» конкурентов, чьи точки продаж расположены вдоль наиболее привлекательных с точки зрения проходимости улиц.

То есть налицо врожденная проблема ИИ-алгоритмов в плане добросовестной эксплуатации принципов их работы в потенциально не совсем законных или как минимум неэтичных целях. Потенциальное влияние действий одного человека на поведение тысяч и более должно вызывать справедливую озабоченность регуляторов.

Кто должен нести ответственность за возможные последствия в подобных случаях? Вот с такими вопросами и должно разобраться будущее законодательство в сфере ИИ-алгоритмов.

Следите за нашими новостями в удобном формате
Перейти в Дзен

Предыдущая статьяСледующая статья