ENG
Добавить в избранное
Интервью, Технологии, Это интересно

Виталий Недельский: Технологии ускоряют антропогенез

«Гибридная цивилизация» — так называется недавно вышедшая книга, в аннотации которой сказано, что она «посвящена размышлениям о том, как искусственный интеллект создается людьми и меняет нас». Ее автор — Виталий Недельский, ректор Горно-Алтайского университета, а кроме того — технологический предприниматель, основатель компании Semantic Hub, в свое время бывший также основателем Национальной Ассоциации участников рынка робототехники (НАУРР) и Национальной Ассоциации участников рынка промышленного интернета (интернета вещей). С Виталием Недельским мы беседуем о его новой книге и о том, как технологии меняют людей. 

— Первый вопрос: о чем ваша книга? 

— Это размышление о том, как сегодня мир стремительно меняется и на первый план выходит взаимодействие людей и технологий. С одной стороны, технологии порождаются людьми, с другой стороны, они меняют нас. Меняют нас самих как людей и меняют способы взаимодействия между нами. И это нельзя не учитывать, потому что в предыдущие эпохи люди менялись медленно и незаметно. Сейчас изменения происходят уже в течение жизни одного поколения. Если мы не будем это учитывать, то перестанем контролировать свою жизнь.

— А как, на ваш взгляд, технологии меняют человека? 

— Например, наша оперативная память сегодня не внутри головы, а снаружи, в памяти нашего мобильного телефона, компьютера или вообще в поисковой строке. А память — это же часть мозга. Сейчас высади нас куда-нибудь на необитаемый остров без этого всего, окажется, что мы почти ничего не помним и не знаем. Или другой пример: мы отвыкаем ориентироваться в окружающем пространстве, потому что за нас эту работу делают навигаторы. А ведь внутри нас есть встроенные механизмы ориентации, которые с древних времен эволюционно развивались. Таких примеров можно привести довольно много.

Точно так же, как приручение огня уменьшило у нас кишечный тракт и снизило кислотность в желудке, и за счет этого у людей увеличилась масса мозга — так же сейчас социальные сети меняют характер коммуникаций. Какие-то вещи, которые испокон веков считались нормальными, сейчас становятся или ненужными, или сильно меняются. Для человека, жившего 100 лет назад, мы бы выглядели очень странными людьми.

Каждый по-отдельности из этих примеров, а их можно привести сотни, вроде бы маленький, но, соединяясь вместе, они являются фактором сильного ускорения антропогенеза — то есть очень быстрого изменения человека. Это примерно как когда космонавт живет долгое время в невесомости, в условиях повышенной радиации, то в ходе длительного полета у него меняется физиология. Если в космосе начать жить годами, детей там рожать, например, то, конечно, через пару поколений это будут совсем другие существа.

— И что же делать?

— Нужно очень внимательно изучать эффекты изменений уже на самых ранних стадиях, анализируя слабые сигналы. Размышлять о рисках нужно хотя бы потому, что, как на машине, риск возрастает просто из-за того, что скорость выше. Поэтому в автомобиле система безопасности более продвинутая, чем в телеге или колеснице.

Когда мы развиваем системы искусственного интеллекта, которые управляют нашей жизнью, городами, транспортными системами, мы должны активно и внимательно размышлять над встроенными системами безопасности. Например, придумывать правила, связанные с инсталлированием этики и морали внутрь систем обучения искусственных интеллектов. Потому что как мы их научим, какие данные мы им скормим, так они дальше будут решать за нас — потому что мы делегируем им какие-то решения, касающиеся нашей жизни.

— В чем могли бы заключаться правила техники безопасности? 

— Например, это относится к обучению автопилотов — как вести себя, когда ситуация безвыходная и кто-то все равно пострадает в аварии. Человек сам, если он попадает в такую ситуацию, конечно, неспособен в ней сознательно действовать. Ведь это доли секунды, когда нужно жать на тормоза или, наоборот, на газ, крутить рулем, и так далее. И человек не сможет объяснить, как он действовал или как следует действовать в какой-то сложной ситуации. Тем более ситуаций может быть много разных.

Но при обучении автопилотов моделируют разные ситуации, дают людям заполнять карточки — как они бы поступили: сбить прохожего и сохранить водителя или детей на сиденье или, наоборот, врезаться в дерево. Накапливают массив данных, которые являются обучающей выборкой и фактически правилами поведения для искусственного интеллекта. В 30-х годах XX века специалист по евгенике написал бы, что чем моложе человек, тем его жизнь дороже и ценнее, поэтому при прочих равных оценивай и убивай в первую очередь старого человека. Мы не можем так говорить сегодня, для нас одинаково важна любая жизнь. Тем более что этот пожилой человек может оказаться Ньютоном, например. Мы просто берем и создаем массив данных — как вели себя люди в авариях.

Но проблема еще и в том, что мы не знаем, как правильно следует учить ИИ, мы с такой ситуацией еще никогда не сталкивались в человеческой истории. Мы родили новый тип разума, и его надо учить так, чтобы он взаимодействовал с людьми и был безопасен. Это поле для экспериментов. Какие-то эксперименты будут неудачными, какие-то удачными. Тут рефлексия должна быть постоянно. И важным является то, что сейчас люди учатся взаимодействовать с искусственными интеллектами и вместе достигать каких-то выдающихся результатов, например когда ИИ используют врачи или ученые. Это передний край человечества сегодня и это зона экспериментов, так же как исследование Вселенной или микромира. Поэтому это очень интересно и это очень важно.

Когда-то человек должен был заниматься физическим трудом, но машины избавили современного горожанина от физических нагрузок, поэтому он вынужден заниматься фитнесом, чтобы имитировать нагрузки. Теперь аналогичная ситуация происходит с нашей памятью и умением ориентироваться в пространстве. Так не нужен ли здесь какой-то аналог фитнеса, чтобы искусственным образом все-таки научиться все это делать? 

— Аналоги уже появились. Это различного рода симуляторы, компьютерные игры, обучающие программы, которые тренируют те или иные навыки или умения. Такие утилитарные вещи, как память, есть возможность тренировать отдельно, но я бы сейчас на этом не концентрировался, потому что это второстепенная задача.

Она важна в педагогике, потому что мы видим, что школьникам меньше нужно запоминать и появляются новые педагогические практики, которые, например, больше заставляют их размышлять, использовать командную проектную работу. То есть развивается роевой интеллект. Если кто-то при этом видит, что у него не хватает конкретных навыков, он всегда может их «докачать» соответствующими инструментами.

Но здесь обоюдоострая ситуация — ведь появляется потребность в новых навыках, которых раньше не было. Потому что у нас усложняется разделение труда, даже в интеллектуальной деятельности, например в нее встраиваются так называемые ИИ-ассистенты… В бизнесе это хорошо видно, когда роботы частично заменяют юристов, пишут жалобы, претензии, юридические документы, составляют договора и так далее. Люди в это время фокусируются на управлении процессом, на постановке проблем, на задавании вопросов: как эти процессы сделать лучше, эффективнее, как использовать эти инструменты, чтобы их сделать лучше? То есть берут себе творческие задачи.

Поэтому, мне кажется, не надо поддерживать память как самоцель. Ведь и тест IQ говорит не об уровне интеллекта, а о способности проходить тест IQ, вот и все. У нас появляются новые вызовы, под которые надо заново перепроектировать, перепридумывать нашу деятельность. Но когда мы видим, что нам чего-то не хватает, мы всегда можем либо это в себе развить, либо так построить взаимодействие, чтобы компенсировать нехватку.

— Вы говорите «риски», «техника безопасности». Но общество поверит в риски только в том случае, если они хотя бы иногда реализуются. Грубо говоря, на производстве технику безопасности вводят уже после того, как случаются несчастные случаи, а не до.

— Когда Tesla в беспилотном режиме сбивает насмерть человека — вот риск реализован. Автопилот может сбить человека в процессе обучения, если попадет в необычную ситуацию. Его обучили на историческом массиве ситуаций, но именно этой конкретной ситуации не было. Например, белый фургон на фоне солнца — и автопилот не смог его различить.

Соответственно, как воинские уставы написаны кровью, так и здесь кровью будут писаться некоторые редкие страницы. У меня ведь нет цели напугать общество: скорее перед всеми нами стоит цель научиться эффективно использовать эти инструменты и жить с ними гармонично.

Ну а для того чтобы нас напугать, достаточно синематографа. Во всех современных фантастических сериалах, фильмах и книжках описываются разнообразные сценарии: и армагеддоны, и апокалипсисы, и восстание машин, и взбунтовавшиеся роботы, и много раз уже ситуация с пандемией гораздо круче описана. И в индустрии игр те же сценарии сейчас прорабатываются. Очень хорошо, что нам технологии позволяют достаточно быстро, за какие-то годы и десятилетия, прогнать миллионы сценариев и под каждый из них выбрать адекватные модели поведения.

И когда в жизни что-то будет реализовываться, пандемия например, мы достаем из памяти наши протоколы, которые теоретически были разработаны, и довольно быстро их разворачиваем, что мы и видим сейчас. Ведь система эпидемиологической безопасности развернулась достаточно быстро, за пару лет. И вакцины ускорено разработаны были, и прочее. Я это воспринимаю как тренировку, потому что, наверное, ковид — это ерунда по смертности по сравнению с какой-нибудь «черной оспой». Никто не может гарантировать, что не появится какое-то другое заболевание, у которого смертность будет на два порядка выше. Но все-таки мы уже к нему будем немножко подготовлены.

— Как полагаете, нужно ли обществу создать какой-то особый контур регулирования высоких технологий, особенно искусственного интеллекта? Это вообще чья задача: государства, науки? 

— Это создается сейчас, примеры есть. Например, Комитет по этике при ООН, где собираются ученые и на эту тему размышляют. В государствах тоже создаются такие структуры, потому что государства, как правило, стремятся регулировать технологии. Появляется другая опасность — как бы не зарегулировать всё настолько, что не будет творческой свободы.

Ведь может произойти как с генетическими исследованиями: решили, что клонированием нельзя заниматься, и не клонируют или клонируют втайне где-то. А потом просачивается информация, что в Китае на людях успешно что-то испытали. Или недавно я прочел, что в Китае шимпанзе подсаживают человеческие гены, чтобы появились высокоразумные шимпанзе. Прогресс все равно идет — и здесь должен быть какой-то разумный баланс. А то можно вообще все запретить, заморозить и погрузиться на тысячу лет в средневековье.

Беседовал Константин Фрумкин


Подписывайтесь на канал «Инвест-Форсайта» в «Яндекс.Дзене»
Наши телеграм-каналы:
Стартапы и технологии
Новые бизнес-тренды
Загрузка...
Предыдущая статьяСледующая статья