ENG
Стартапы, Статьи

Как заработать миллионы на эмоциях

«Для того чтобы “гладкий” разговор человека и машины стал возможен, машина должна научиться понимать эмоциональный интеллект», – заявил технический директор исследовательского центра Google Грег Коррадо. По его оценке, научить искусственный интеллект распознавать человеческие эмоции будет «очень непросто». За сложную задачу с большим энтузиазмом берутся и серьезные корпорации, и «зеленые» стартапы.

© Sergey Nivens / Фотобанк Лори

«Эмоциональный» рынок начал формироваться в конце 2000-х – начале 2010-х гг. По оценке агентства MarketsandMarkets, глобальный объем рынка эмоций в 2016 году составил $6,72 млрд, и предполагается его увеличение почти в 6 раз – до $36 млрд в ближайшие 5-8 лет. Сегодня это активно развивающееся и наукоемкое направление в рамках исследований искусственного интеллекта с двумя векторами: «эмоциональные вычисления» (affective computing), позволяющие по сути имитировать человеческие эмоции в робототехнике, индустрии Интернета вещей (IoT), AR/VR, а также системы детекции и распознавания эмоций человека (EDRS – Emotion Detection and Recognition Systems).

По глазам, по словам, по голосу…

Ставку на эмоции в бизнесе основатели стартапа Neurodata Lab сделали осознанно, потратив около года на изучение рынка. В 2015 году несколько инвесторов запустили фонд Envirtue Capital для точечной поддержки проектов в России и ЕС и США. Тогда же фонд совместно с московским офисом PwC провел форсайтное исследование для поиска перспективных технологий и стартапов. За несколько месяцев инвесторы посмотрели более двух сотен команд и проектов и, наконец, сформулировали для себя фокус-интерес – эмоциональные вычисления и технологии распознавания эмоций, а вот подходящих стартапов в этой области не нашли.

«К весне 2016 года мы пришли к четкому осознанию того, что в части эмоциональных технологий венчурный рынок России не отвечает ожиданиям инвесторов, потому пусть и сложнее организационно, но намного интереснее и результативнее оказывается развивать проекты в рамках своей R&D лаборатории, полностью автономной и финансируемой из собственных источников, в статусе портфельной компании. Так родилась Neurodata Lab. Иными словами, мы не вполне обычный стартап, а инвестиционная структура, которая сама в себя вкладывает и не зависит на данном этапе ни от сторонних инвесторов – будь то государственных или частных, – ни от грантовых перипетий», – говорит управляющий партнер Neurodata Lab Георгий Плиев.

Инвестиции в открытие R&D лаборатории полного цикла превысили $1 млн, фазы посева, роста и начального масштабирования акционеры материнской компании закрыли сами. Средства на дальнейшее развитие рассчитывают заработать на реализации собственных продуктов, но не исключают выхода на стратегических инвесторов.

Цель Neurodata Lab была масштабная – соединить в одном контуре фундаментальную науку, прикладные исследования и логику технологического бизнеса.

«Мы делаем ставку на лабораторную модель полного цикла, где углубленный процесс НИОКР встроен в единую цепь с in-house разработкой, IT-краудсорсингом, последующей коммерциализацией и интернационализацией продуктов. А значит, встраиваемся не только в рынок (как компания), но в той же степени и в академическое сообщество (как лаборатория)», – подчеркивает Георгий Плиев.

Сейчас в лаборатории 14 человек, им помогают внешние научные консультанты из университетов и структур РАН, а также периодически привлекаемые аутсорсеры. «Эмоциональными исследованиями» занимается смешанная команда – специалисты в области оптики, биологии, психофизиологии и нейролингвистики, которые изучают реакцию людей на разные виды раздражителей.

Центр знаний и компетенций, точка сборки и старта остаются в России, хотя продукт ориентирован на рынки Европы и Северной Америки: для этого зарегистрировано юрлицо в США.

Neurodata Lab работает над созданием мультимодального алгоритма детекции и распознавания эмоциональных состояний. Для этого синхронно должны учитываться данные микроэкспрессии лица, движения глаз, голос, язык тела, движения, жестикуляция, физиологические параметры и поведенческие нюансы.

«Извлечь весь этот гигантский объем неструктурированной, необработанной информации можно из аудио-видео потока, но этот материал более сложно организован, особенно в сравнении со статикой обычных фотографий. Кластеризовывать и интерпретировать собранные данные без современных технологий и инструментария компьютерного зрения и машинного обучения невозможно. Чтобы выявить закономерности, нужно обучать алгоритмы на очень больших выборках качественных данных. Это та фаза, на которой коллектив нашей лаборатории сейчас и сосредоточен. А выход на продуктовую стадию намечен на начало 2018 года», – подчеркивает Георгий Плиев.

В компании уже собрана русскоязычная мультимодальная библиотека данных на основе анализа аудио- и видеозаписей записей 100 человек, включая актеров ВГИКа, созданы прототипы решений, в том числе высокочувствительный софтовый айтрекер, разделение аудиодорожек и послойный анализ голоса, кодификация движений с эмоциональным окрасом и др.

Потребитель эмоциональный

Первопроходцем во многих отраслях, где до того распознавание эмоций оставалось маргинальной опцией, а также популяризатором EDRS-технологий можно считать Affectiva, выросшую из «побочного» проекта одной из лабораторий при Массачусетском университете. У Affectiva крупнейшая из числа существующих и коммерчески используемых база проанализированных лиц. С момента основания в 2009 году стартапу удалось привлечь более $30 млн венчурных инвестиций, не считая грантовых средств. Под крылом компании, MIT и их партнеров в сентябре 2017 года состоялся первый саммит по эмоциональному искусственному интеллекту (Emotion AI).

Не меньший публичный интерес сопровождал и деятельность калифорнийской компании Emotient (научным консультантом которого числился профессор Калифорнийского университета, специалист по «распознаванию» лжи Пол Экман, также консультирующий сценаристов сериала «Обмани меня»). В январе 2016 года стартап приобрела корпорация Apple, разработанная им технология, правда, в трансформированном виде, встраивается в функционал свежих версий iPhone.

Технологии по распознаванию эмоций могут быть применимы в совершенно различных сферах, и в ряде из них уже есть успешные кейсы. На рынке беспилотных автомобилей востребованы системы, отслеживающие, в каком состоянии пребывает водитель: бодр ли он, спокоен или возбужден… Как рассказывают в Neurodata Lab, кейсы здесь сугубо опытные, и их мало. Так, компания Eyeris уже обкатывает свой продукт Driver Monitoring AI в рамках сотрудничества с концернами Toyota и Honda, а Affectiva небезуспешно экспериментирует с Tesla.

Определение эмоций человека в видеопотоке интересно службам безопасности. В перспективе искусственный интеллект поймет явленные и скрытые эмоции мелькающих перед объективом всего на несколько мгновений людей, что позволит сотрудникам, обеспечивающим безопасность, действовать на опережение. Работают в этой сфере западные компании Noldus и Sightcorp, а также российские игроки смежного рынка распознавания лиц – Vision Labs, «Вокорд», Findface.

«Распознавание эмоций, как и других поведенческих факторов, пока еще является предметом разработок, в том числе и нашей компании, – говорит директор по маркетингу компании «Вокорд» Сергей Щербина. – Уже есть значительные успехи, сейчас мы можем уверенно классифицировать целый ряд эмоциональных состояний, и есть все основания считать, что нейронные сети, которые уже отлично могут распознавать и идентифицировать лица, справятся и с распознаванием эмоций. Однако здесь есть ряд особенностей. Прежде всего отмечу, что даже живой человек, не компьютер, не всегда может точно определить эмоцию собеседника, если она выражена недостаточно ярко. А по фотографии, вне контекста ситуации, сделать это может быть еще сложнее. Поэтому, чтобы правильно обучить сеть, нужно особенно тщательно подходить к формированию обучающей выборки, проверять и верифицировать действительное эмоциональное состояние человека в данный момент».

27 оттенков настроения

В цифровой медицине говорить о прорывных продуктах преждевременно, хотя глубокий анализ изображений поможет определить микротремор рук, изменение скорости движения глаз, интонационных характеристик голоса, сокращений лицевых мышц, а значит – могут быть применимы для ранней диагностики тяжелых, социально критических заболеваний, например, болезней Паркинсона и Альцгеймера.

То, что несколько лет назад началось как игра, – распознавание собственных эмоций по видео – сегодня серьезный рынок. Корпорации пытаются максимально эффективно включить технологии в смартфоны. Пользователи становятся свидетелями и отчасти участниками схватки между Apple и Samsung. Попытки обучить ботов распознавать мимику человека в процессе видеозвонка предпринимает Facebook. Среди медиапроектов есть и более специфические: социальная сеть Polygram имеет инструменты для сканирования лица с эмоциональными экспрессиями и трансформации в реалистичные эмодзи-иконки.

«Эмоциональные» инструменты пригодятся HR-специалистам, особенно в условиях, когда набирают популярность скайп-собеседования с претендентами, разработчикам роботов-помощников и «умных» домашних сервисов и маркетологам. Так, канадский стартап NuraLogix апробирует в универмагах Торонто распознавание эмоций по подкожному кровотоку лица посетителей.

Эксперты уверены, что сценарии применения и кейсы будут множиться. Однако, разработчикам предстоит решить ряд задач. В Neurodata Lab полагают, что в первую очередь надо научиться «смотреть шире» – учитывать не только моно-, биканальную логику детекции эмоций. Во-вторых, следует отказаться от удобной, но устаревшей теории т.н. «базовых эмоций» – семи полярных по своей сути и нейтрального состояния, принятого за нулевое: они не наблюдаются в чистом виде в условиях повседневной жизни. Так, например, исследовательский коллектив из Нью-Йоркского университета предлагает новый срез из 27 сложных эмоциональных категорий, учитывающих не только биологические, но и социально обусловленные и прочие факторы.

На преодоление болезней роста и выход на устойчивые тренды технологиям понадобится до трех лет.

Автор: Анна Орешкина

Материалы по теме


Добавить комментарий

Ваш e-mail не будет опубликован.