ENG

Перейти в Дзен
Мнение, Технологии

Учёные призывают приостановить развитие искусственного интеллекта

Алесь Мищенко

Алесь Мищенко

Старший научный сотрудник INRIA (Institut national de recherche en informatique et en automatique, государственный институт исследований в информатике и автоматике, Франция)

Признание потери контроля над ИИ: столкновение неизбежно?

Глава Tesla и SpaceX Илон Маск, сооснователь Apple Стив Возняк и еще на сегодняшний день около 1500 экспертов в сфере информационных технологий подписали письмо с призывом немедленной приостановки развития ИИ минимум на полгода [1]. Цитируя принципы Асиломарской конференции безопасного развития искусственного интеллекта [2], авторы указывают, что «продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле».

Изобретатели придумали потеющих роботов

Занимаясь уже много лет исследованием сценариев этих изменений [3–5], могу добавить, что соответствующие коренные изменения практически неизбежны, но их сценарии (о которых чуть позже) очень далеки от привычных нам ещё из фильмов о Терминаторе картинок потери контроля над ИИ и некоего «государственного переворота», в процессе которого ИИ захватывает власть над человеческой цивилизацией.

Авторы письма формулируют свои опасения сходным образом:

«Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть делегированы неизбранным техническим лидерам».

Особую озабоченность вызывают у авторов письма системы ИИ типа GPT-4 от компании OpenAI, развитие и обучение которых уже сейчас не может вполне контролироваться человеком, в то время как интеллект подобных систем уже приближается к человеческому.

Основной призыв письма состоит в немедленной приостановке как минимум на 6 месяцев обучения GPT-5 и других систем, более мощных, чем текущая версия. Эксперты уточняют:

«Эта пауза должна быть публичной, поддающейся проверке и охватывать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий».

Предлагается сначала создать протоколы безопасного развития ИИ, которые будут «тщательно проверяться и контролироваться независимыми внешними экспертами».

Более того, предлагается создать «новые и дееспособные регулирующие органы», ввести «ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ».

Фактически авторы письма констатируют, что мы стоим на пороге утери контроля над ИИ, и предлагают не переходить эту границу до тех пор, пока не поймём, как себя вести в этом совершенно новом для нас будущем.

Неизбежность столкновения человека и ИИ

Несмотря на обоснованность опасений авторов письма, конкретные их предложения о том, как обезопасить человечество, довольно наивны.

Дело в том, что предложения авторов сработали бы только в мире без конфликтов, похожем на идеальный мир Махатмы Ганди, в котором каждый регион обладает самоуправлением, большие и малые государства одинаково равноправны, а полномочий у ООН и других международных над-государственных органов больше, чем у самих государств [6]. В реальном же мире предложения «внедрения набора общих протоколов безопасности» лишь вызывают недоуменный вопрос: «Общих для всех стран? А как же их всех заставить?..»

Более того, утверждения, что в случае их невыполнения «правительства должны вмешаться», а также обеспечить «надежное государственное финансирование технических исследований безопасности ИИ», будет на практике означать не контроль над зарождающимся сверхчеловеческим ИИ со стороны независимых экспертов, а наоборот: контроль над экспертами и разработчиками со стороны спецслужб.

Собственно, нечто подобное уже происходит. Так, например, европейские тесты показали скрытые встроенные возможности китайских смартфонов по автоматическому удалению либо цензурированию около 500 различных тем, а также незаметной отправки данных использования на сервер в Сингапуре (заметим, что теперь эта функциональность выключена для европейских пользователей) [7].

Итак, к сожалению, на фразу авторов письма «Должны ли мы рисковать потерей контроля над нашей цивилизацией?» можно лишь с сожалением констатировать, что мы, по сути, никогда не имели контроля над нашей цивилизацией.

И если у человечества не получилось остановить развитие даже такой прямой угрозы, как, например, ядерное оружие, то мы не сможем за эти 6 месяцев договориться, помириться и оградить себя от опасных форм искусственного интеллекта.

Что же нас ждёт?

Сценарий утери контроля над искусственным интеллектом

Как отмечалось выше, «захват власти» искусственным интеллектом будет далёк от привычных нам по фильмам о Терминаторе сценариев неожиданного восстания машин. Напротив, ещё в книге «Цивилизация после людей» был описан совершенно другой, эволюционный, переход от развития «живой» к развитию «мыслящей материи» [8]. Такой переход происходит по эволюционным законам взаимосвязанного изменения окружающей среды и приспособления к этим изменениям.

Впрочем, и в таком переходе вероятны неожиданные повороты, которые можно рассматривать как некие аналоги «восстания машин» и «утери контроля над ИИ». Один из таких чрезвычайно вероятных поворотов событий напоминает начало эпидемии ковида-19. Точнее, этот сценарий напоминает одну из конспирологических версий возникновения этой пандемии. А именно, что пандемия началась с утечки из лаборатории, изучающей (или разрабатывающей) новые вирусы [9]. Контроль над вирусом был утерян и, попав из лабораторной в человеческую среду, этот вирус стал активно распространяться и приспосабливаться к этим новым для себя условиям. Никакого «восстания вирусов», просто развитие путём приспособления. Более того, нечто подобное (но менее катастрофичное) происходит постоянно: возникают новые вирусы, распространяются и затухают эпидемии.

Нечто подобное происходит постоянно и с ИИ. Так же как и вирусы, части ИИ (программы, приложения, сайты) постоянно «выходят» в человеческую среду, многие из них «мутируют» (то есть обучаются на основе взаимодействия с людьми), наиболее продвинутые начинают взаимодействовать друг с другом, самостоятельно искать и комбинировать информацию.

Вообще, как следует из закона устойчивости гибридной цивилизации [10], информационные структуры (алгоритмы, программы, мемы) могут размножаться и мутировать в «мыслящей материи» точно так же, как вирусы — в живой.

Кажется, что фундаментальное отличие в том, что вирусы мы распространяем и «обучаем» помимо нашей воли, в то время как информационные структуры ИИ мы распространяем и обучаем осознанно, фильтруя то, что нам нужно, от того, что нам не нужно.

Однако если смотреть не «с точки зрения» мыслящей материи (механизмов сознания), а «с точки зрения» живой материи (механизмов живой клетки), то тоже можно сказать, что человек (его клетки) очень тщательно фильтрует «то, что ему нужно», от того, «что ему не нужно», — это называется иммунитет. А информационные структуры («с точки зрения» живой материи) распространяются, наоборот, бесконтрольно.

Но вернёмся к сценарию. Итак, постепенно среди информационных структур, «гуляющих» в мыслящей материи, будет появляться всё больше способных развиваться и распространяться не только с помощью людей (как вирусы), но и самостоятельно (как клеточные формы жизни). Эта общая масса всех информационных структур будет эволюционировать, как приспосабливаясь к нуждам человека, так и, наоборот, формируя его нужды. Опять-таки заметим, что это «формирование» не будет следствием того, что у ИИ появится некая «своя воля» (её, заметим, нет и у людей — согласно последним исследованиям в нейрофизиологии, то, что мы обычно называем свободной волей, является иллюзией [11]).

Такое «формирование нас» будет не «восстанием ИИ» и «подавлением человека», а просто эволюцией всей системы. Точно так же можно, например, сказать, что у людей «сформировали» нужду виртуального общения в соцсетях, а скоро «сформируют» нужду общения с ботами и роботами — и всё это за счёт «подавления» живого общения друг с другом.

Пути спасения от опасных форм ИИ

Итак, похоже, предложенный авторами письма путь контроля со стороны международных и государственных организаций является утопией, ведущей скорее к засекречиванию разработок ИИ и направлению их на сокрушение политических противников. А значит, после «утечки» ИИ и его выхода из-под контроля предложенный путь приведёт именно к опасным вариантам ИИ, которые будут эволюционировать, «мутировать» и развивать уже самостоятельно свои методы подавления и ограничения человека. В лучшем случае такие формы ИИ будут, подобно компьютерным вирусам, продолжать удалять и цензурировать содержание ваших компьютеров и смартфонов. В худшем — например, создавать на основе ваших медиафайлов фейковые видео, из которых будут формироваться волны травли в соцсетях, уголовные дела в базах данных следователей или истории болезни в психбольницах. Причём ни у следователей, ни у врачей не будет ничего для проверки или противопоставления этому потоку информации, организованному вырвавшимся на свободу секретным ИИ.

Как же избежать наиболее опасных сверхчеловеческих ИИ и выжить в грядущем противостоянии человека и искусственного интеллекта?

Ответ также подсказывает теория эволюции: усилия экспертов необходимо направлять скорее не на создание правил (которые будут всё равно тайно нарушаться), а на создание «противовесов» — точно так же, как в эволюции живой материи у каждого вида появлялись конкуренты и естественные враги.

Например, бесполезно останавливать развитие ИИ, способного создавать фейковую информацию (такие попытки не пойдут дальше того, что все будут обвинять друг друга). Наоборот, необходимо создавать свободно-распространяемые в «человеческой среде» противодействующие программы ИИ, способные определять фейковые фотографии и видео, проверять источники, и так далее. Заметим, что среди этих программ также будут появляться фейковые, которые будут называть «фейками» только то, что нужно. Но и на эти программы будут появляться свои «противоядия» и «противовесы» — что-то будет появляться с помощью человека, что-то уже с помощью самостоятельного ИИ. И так далее, и так далее. Для того чтобы вся эта общая масса информационных структур развивалась сбалансировано, необходимо, чтобы каждая угроза приводила к ясно артикулированному спросу на защиту, а значит, и к экологической нише, то есть к потенциалу размножения соответствующих форм мыслящей материи.

Конечно, всё это сложно, бесконечно и без гарантий. Кажется, что гораздо проще, как в романе Замятина «Мы», всем собраться, подумать 6 месяцев и в едином порыве создать некий общий, правильный и безопасный замятинский «интеграл». Но это никогда не работает. Наоборот, именно так — сложно, бесконечно и без гарантий — и идёт эволюция, создавая уже миллиарды лет всё новые и новые замечательные формы живой, а теперь уже и мыслящей материи.

 Ссылки

[1]. Pause Giant AI Experiments: An Open Letter. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[2]. Принципы работы с ИИ, разработанные на Асиломарской конференции. URL: https://futureoflife.org/open-letter/ai-principles-russian/

[3]. Мищенко А.В. Тенденции развития планетарного интеллекта. «Искусственный интеллект» 4’2003. URL: http://iai.dn.ua/public/JournalAI_2003_4/Razdel5/02_Mishchenko.pdf

[4]. Mishchenko A.V. Computer Modeling of the Evolution of Civilization within the futurological theory of mind-matter. Problems of Artificial Intelligence, 2021, no. 3 (22). URL: http://paijournal.guiaidn.ru/download_pai/2021_3/1_Мищенко.pdf

[5]. Мищенко А.В. Радикальная футурология и наука о мыслящей материи. Ассоциация футурологов, Тексты членов Ассоциации, 16.12.2015, URL: http://futurologija.ru/texts/radikalnaya-futurologiya-i-nauka-o-myslyashhej-materii/

[6]. Абдыгаппарова Б.М. Идеал общества ненасилия в политическом учении Махатмы Ганди. Специализированный ежемесячный журнал «ЮРИСТ». Ноябрь, № 11,2005. URL: https://journal.zakon.kz/203760-ideal-obshhestva-nenasilija-v.html

[7]. Steve McCaskill. Users urged to 'throw away' Chinese smartphones over spying fears. Techradar, September 22, 2021. URL: https://www.techradar.com/news/users-urged-to-throw-away-chinese-smartphones-over-spying-fears

[8]. Мищенко А.В. Цивилизация после людей. – Издательство Голода, Санкт-Петербург, 2004

[9]. Ученые нашли новые доказательства утечки COVID-19 из лаборатории в КНР. МК, 19.11.2021, URL: https://www.mk.ru/social/2021/11/19/uchenye-nashli-novye-dokazatelstva-utechki-covid19-iz-laboratorii-v-knr.html

[10]. Мищенко А.В. Три реальные закона робототехники. Закон устойчивости гибридной цивилизации. Проблемы искусственного интеллекта 2021 No 4 (23). URL: http://paijournal.guiaidn.ru/download_pai/2021_4/7_Мищенко.pdf

[11]. Soon C.S., Brass M., Heinze H-J., Haynes J-D. Unconscious determinants of free decisions in the human brain. Nat Neurosci. 2008. 11:543

Следите за нашими новостями в удобном формате
Перейти в Дзен

Предыдущая статьяСледующая статья