ENG
Generic selectors
Exact matches only
Поиск по заголовкам
Поиск по содержимому
Search in posts
Search in pages
Стартапы, Статьи

Как заработать миллионы на эмоциях

«Для того чтобы “гладкий” разговор человека и машины стал возможен, машина должна научиться понимать эмоциональный интеллект», – заявил технический директор исследовательского центра Google Грег Коррадо. По его оценке, научить искусственный интеллект распознавать человеческие эмоции будет «очень непросто». За сложную задачу с большим энтузиазмом берутся и серьезные корпорации, и «зеленые» стартапы.

© Sergey Nivens / Фотобанк Лори

«Эмоциональный» рынок начал формироваться в конце 2000-х – начале 2010-х гг. По оценке агентства MarketsandMarkets, глобальный объем рынка эмоций в 2016 году составил $6,72 млрд, и предполагается его увеличение почти в 6 раз – до $36 млрд в ближайшие 5-8 лет. Сегодня это активно развивающееся и наукоемкое направление в рамках исследований искусственного интеллекта с двумя векторами: «эмоциональные вычисления» (affective computing), позволяющие по сути имитировать человеческие эмоции в робототехнике, индустрии Интернета вещей (IoT), AR/VR, а также системы детекции и распознавания эмоций человека (EDRS – Emotion Detection and Recognition Systems).

По глазам, по словам, по голосу…

Ставку на эмоции в бизнесе основатели стартапа Neurodata Lab сделали осознанно, потратив около года на изучение рынка. В 2015 году несколько инвесторов запустили фонд Envirtue Capital для точечной поддержки проектов в России и ЕС и США. Тогда же фонд совместно с московским офисом PwC провел форсайтное исследование для поиска перспективных технологий и стартапов. За несколько месяцев инвесторы посмотрели более двух сотен команд и проектов и, наконец, сформулировали для себя фокус-интерес – эмоциональные вычисления и технологии распознавания эмоций, а вот подходящих стартапов в этой области не нашли.

«К весне 2016 года мы пришли к четкому осознанию того, что в части эмоциональных технологий венчурный рынок России не отвечает ожиданиям инвесторов, потому пусть и сложнее организационно, но намного интереснее и результативнее оказывается развивать проекты в рамках своей R&D лаборатории, полностью автономной и финансируемой из собственных источников, в статусе портфельной компании. Так родилась Neurodata Lab. Иными словами, мы не вполне обычный стартап, а инвестиционная структура, которая сама в себя вкладывает и не зависит на данном этапе ни от сторонних инвесторов – будь то государственных или частных, – ни от грантовых перипетий», – говорит управляющий партнер Neurodata Lab Георгий Плиев.

Инвестиции в открытие R&D лаборатории полного цикла превысили $1 млн, фазы посева, роста и начального масштабирования акционеры материнской компании закрыли сами. Средства на дальнейшее развитие рассчитывают заработать на реализации собственных продуктов, но не исключают выхода на стратегических инвесторов.

Цель Neurodata Lab была масштабная – соединить в одном контуре фундаментальную науку, прикладные исследования и логику технологического бизнеса.

«Мы делаем ставку на лабораторную модель полного цикла, где углубленный процесс НИОКР встроен в единую цепь с in-house разработкой, IT-краудсорсингом, последующей коммерциализацией и интернационализацией продуктов. А значит, встраиваемся не только в рынок (как компания), но в той же степени и в академическое сообщество (как лаборатория)», – подчеркивает Георгий Плиев.

Сейчас в лаборатории 14 человек, им помогают внешние научные консультанты из университетов и структур РАН, а также периодически привлекаемые аутсорсеры. «Эмоциональными исследованиями» занимается смешанная команда – специалисты в области оптики, биологии, психофизиологии и нейролингвистики, которые изучают реакцию людей на разные виды раздражителей.

Центр знаний и компетенций, точка сборки и старта остаются в России, хотя продукт ориентирован на рынки Европы и Северной Америки: для этого зарегистрировано юрлицо в США.

Neurodata Lab работает над созданием мультимодального алгоритма детекции и распознавания эмоциональных состояний. Для этого синхронно должны учитываться данные микроэкспрессии лица, движения глаз, голос, язык тела, движения, жестикуляция, физиологические параметры и поведенческие нюансы.

«Извлечь весь этот гигантский объем неструктурированной, необработанной информации можно из аудио-видео потока, но этот материал более сложно организован, особенно в сравнении со статикой обычных фотографий. Кластеризовывать и интерпретировать собранные данные без современных технологий и инструментария компьютерного зрения и машинного обучения невозможно. Чтобы выявить закономерности, нужно обучать алгоритмы на очень больших выборках качественных данных. Это та фаза, на которой коллектив нашей лаборатории сейчас и сосредоточен. А выход на продуктовую стадию намечен на начало 2018 года», – подчеркивает Георгий Плиев.

В компании уже собрана русскоязычная мультимодальная библиотека данных на основе анализа аудио- и видеозаписей записей 100 человек, включая актеров ВГИКа, созданы прототипы решений, в том числе высокочувствительный софтовый айтрекер, разделение аудиодорожек и послойный анализ голоса, кодификация движений с эмоциональным окрасом и др.

Потребитель эмоциональный

Первопроходцем во многих отраслях, где до того распознавание эмоций оставалось маргинальной опцией, а также популяризатором EDRS-технологий можно считать Affectiva, выросшую из «побочного» проекта одной из лабораторий при Массачусетском университете. У Affectiva крупнейшая из числа существующих и коммерчески используемых база проанализированных лиц. С момента основания в 2009 году стартапу удалось привлечь более $30 млн венчурных инвестиций, не считая грантовых средств. Под крылом компании, MIT и их партнеров в сентябре 2017 года состоялся первый саммит по эмоциональному искусственному интеллекту (Emotion AI).

Не меньший публичный интерес сопровождал и деятельность калифорнийской компании Emotient (научным консультантом которого числился профессор Калифорнийского университета, специалист по «распознаванию» лжи Пол Экман, также консультирующий сценаристов сериала «Обмани меня»). В январе 2016 года стартап приобрела корпорация Apple, разработанная им технология, правда, в трансформированном виде, встраивается в функционал свежих версий iPhone.

Технологии по распознаванию эмоций могут быть применимы в совершенно различных сферах, и в ряде из них уже есть успешные кейсы. На рынке беспилотных автомобилей востребованы системы, отслеживающие, в каком состоянии пребывает водитель: бодр ли он, спокоен или возбужден… Как рассказывают в Neurodata Lab, кейсы здесь сугубо опытные, и их мало. Так, компания Eyeris уже обкатывает свой продукт Driver Monitoring AI в рамках сотрудничества с концернами Toyota и Honda, а Affectiva небезуспешно экспериментирует с Tesla.

Определение эмоций человека в видеопотоке интересно службам безопасности. В перспективе искусственный интеллект поймет явленные и скрытые эмоции мелькающих перед объективом всего на несколько мгновений людей, что позволит сотрудникам, обеспечивающим безопасность, действовать на опережение. Работают в этой сфере западные компании Noldus и Sightcorp, а также российские игроки смежного рынка распознавания лиц – Vision Labs, «Вокорд», Findface.

«Распознавание эмоций, как и других поведенческих факторов, пока еще является предметом разработок, в том числе и нашей компании, – говорит директор по маркетингу компании «Вокорд» Сергей Щербина. – Уже есть значительные успехи, сейчас мы можем уверенно классифицировать целый ряд эмоциональных состояний, и есть все основания считать, что нейронные сети, которые уже отлично могут распознавать и идентифицировать лица, справятся и с распознаванием эмоций. Однако здесь есть ряд особенностей. Прежде всего отмечу, что даже живой человек, не компьютер, не всегда может точно определить эмоцию собеседника, если она выражена недостаточно ярко. А по фотографии, вне контекста ситуации, сделать это может быть еще сложнее. Поэтому, чтобы правильно обучить сеть, нужно особенно тщательно подходить к формированию обучающей выборки, проверять и верифицировать действительное эмоциональное состояние человека в данный момент».

27 оттенков настроения

В цифровой медицине говорить о прорывных продуктах преждевременно, хотя глубокий анализ изображений поможет определить микротремор рук, изменение скорости движения глаз, интонационных характеристик голоса, сокращений лицевых мышц, а значит – могут быть применимы для ранней диагностики тяжелых, социально критических заболеваний, например, болезней Паркинсона и Альцгеймера.

То, что несколько лет назад началось как игра, – распознавание собственных эмоций по видео – сегодня серьезный рынок. Корпорации пытаются максимально эффективно включить технологии в смартфоны. Пользователи становятся свидетелями и отчасти участниками схватки между Apple и Samsung. Попытки обучить ботов распознавать мимику человека в процессе видеозвонка предпринимает Facebook. Среди медиапроектов есть и более специфические: социальная сеть Polygram имеет инструменты для сканирования лица с эмоциональными экспрессиями и трансформации в реалистичные эмодзи-иконки.

«Эмоциональные» инструменты пригодятся HR-специалистам, особенно в условиях, когда набирают популярность скайп-собеседования с претендентами, разработчикам роботов-помощников и «умных» домашних сервисов и маркетологам. Так, канадский стартап NuraLogix апробирует в универмагах Торонто распознавание эмоций по подкожному кровотоку лица посетителей.

Эксперты уверены, что сценарии применения и кейсы будут множиться. Однако, разработчикам предстоит решить ряд задач. В Neurodata Lab полагают, что в первую очередь надо научиться «смотреть шире» – учитывать не только моно-, биканальную логику детекции эмоций. Во-вторых, следует отказаться от удобной, но устаревшей теории т.н. «базовых эмоций» – семи полярных по своей сути и нейтрального состояния, принятого за нулевое: они не наблюдаются в чистом виде в условиях повседневной жизни. Так, например, исследовательский коллектив из Нью-Йоркского университета предлагает новый срез из 27 сложных эмоциональных категорий, учитывающих не только биологические, но и социально обусловленные и прочие факторы.

На преодоление болезней роста и выход на устойчивые тренды технологиям понадобится до трех лет.

Автор: Анна Орешкина