На сегодняшний день мы находимся в переходной стадии: искусственный интеллект активно внедряется во все сферы жизни и бизнеса, но регламентируется только локальными правовыми актами. Хотя одни до сих пор отрицают самостоятельность ИИ и его способность заменять человека, другие стремятся вывести технологию на новый уровень и наделить ее широкими полномочиями.
Вопросы этики искусственного интеллекта поднимаются уже давно. Еще в момент, когда люди только начинали представлять себе человекоподобных машин-андроидов, возник вопрос: не навредит ли такая технология человеку? Айзек Азимов своими законами робототехники преследовал цель сохранить главенствующую роль человека и максимально обезопасить его от воздействия ИИ.
Недавно созданный в России национальный Кодекс этики в сфере искусственного интеллекта преследует ту же цель — он должен стать гарантом безопасности человека в мире, где ИИ все чаще применяется для принятия решений, внедряясь во все сферы бизнеса и частной жизни.
Кто берёт на себя ответственность за решения, принятые ИИ?
С одной стороны, ответ очевиден: человек, создавший искусственный интеллект. Но ведь сам термин предполагает наличие у данной системы интеллектуальной составляющей, а значит, мы не можем точно прогнозировать ее поведение. В этом кроется и основная ценность ИИ, и риски его применения.
И это наталкивает на следующий вопрос: а понимаем ли мы в полной мере, к каким последствиям может привести то или иное решение ИИ?
Это, на мой взгляд, и является одной из основных целей разработки кодекса: сделать подход к созданию ИИ более осознанным. Причем итоговый результат должен обеспечить не кодекс сам по себе, а те потенциальные действия, которые будут выполняться, основываясь на нём.
Другой важный момент — в кодексе речь идёт о применении ИИ в рамках частного бизнеса, то есть технология нужна для получения дополнительной прибыли. Следовательно, бизнес станет рьяно защищать свою коммерческую тайну, в связи с чем различные кодексы и этики могут отойти на второй план. Продолжаться это будет до появления регламентирующих норм, а именно законов, направленных на защиту прав потребителей. Хотя такие пункты, как «информировать пользователей об их взаимодействии с ИИ-системами», наталкивают на мысль, что необходимые документы появятся уже скоро.
Насколько российский бизнес способен выполнять нормы кодекса?
Учитывая колоссальную зависимость от технологий, в частности американских ИТ-компаний, навязывание правил и норм способно привести к очередному циклу «импортозамещения», перспективы и последствия которых мы прекрасно понимаем.
Что касается мирового опыта, то Европейская комиссия еще в 2018 году выпустила меморандум по этическим вопросам применения ИИ. При ЮНЕСКО создана экспертная группа по рекомендациям этических принципов при разработке ИИ. А такие гиганты, как Amazon, Google, Facebook, IBM и Microsoft, в 2016 году объединились в альянс Партнерство по искусственному интеллекту во благо людей и общества для регулирования деятельности в области ИИ и обмена опытом.
Не отстаёт в этом вопросе и Китай: на заседании Госсовета Китайской Народной Республики в 2017 году была утверждена Национальная стратегия развития технологий ИИ до 2030 года. Сейчас это основной конкурент США на мировом ИТ-рынке, и, безусловно, руководство страны ставит себе целью глобальное лидерство на нём.
Нужно ли защищать ИИ от человека?
В последнее время становится актуальным и обратный тренд: защита прав ИИ. По мнению многих участников профессионального сообщества скоро будут введены законы, регулирующие жестокое обращение с различными формами искусственного интеллекта, то есть ИИ может быть приравнен к живым созданиям. Например, существует прецедент, когда в Китае ИИ был признан самостоятельной творческой единицей — суд постановил, что тексты, написанные с применением ИИ, защищены авторским правом.
Будущее уже наступило, ИИ применяется практически во всех сферах, и технологии будут развиваться, создавая все более независимые и интеллектуальные сервисы. Отрицать это бессмысленно, остается научиться адаптироваться и жить с этим. Тот факт, что государство это признает — положительный момент. Главное, чтобы все дальнейшие меры способствовали развитию государственно-частного партнерства, созданию условий для инвестиций в технологическую область и обеспечению защиты систем ИИ, ведь это касается не только технологий, но качественных изменений в обществе в целом.
Читайте также колонку директора РАЭК Сергея Плуготаренко Зачем нужны кодексы этики для искусственного интеллекта (if24.ru)