«Алиса, мне плохо»: как искусственный интеллект учится быть эмоциональным
Еще в 1970-х исследовательница новых медиа Роуз Гладстон в своей книги «Машина демонстрации и повествования» писала, что поколения, родившиеся после изобретения компьютеров и диджитал-продуктов энтертеймента, ограничены в социальных взаимодействиях, потому что им попросту легче соприкасаться с гаджетом. По ее мнению (и это за 50 лет до людей, чаще смотрящих в тачпад, чем на окружающую реальность), свои первые впечатления мы получаем «из машины». Гладстон пишет, что в важные этапы становления вместо человеческой эмоциональной реакции в ответ на наше любое действие мы получаем фидбэк алгоритма, вместо взаимодействия с полнокровным существом — инструкцию из-под экрана.
Взаимоотношения с компьютером как с машиной познания (интернет), развлечения (стриминговые сервисы, YouTube) и труда (диджитализация рабочих процессов) кажутся давно осмысленными. Несколько сложнее отношение к нему как к существу, с которым, собственно, можно иметь отношения, как к машине эмоций и чувств. Для многих сохраняется та странная эмоционально-отстраненная связь, прозвучавшая в книге Гладстон: с каждым поколением человечество чаще взаимодействует с гаджетом, чем с реальным человеком. В этом смысле логичнее, что свои эмоции, сетования и даже мысли о психической нестабильности человек охотнее доверит собеседнику из железа и оптоволокна.
«Siri, мне грустно», «Алекса, у меня был отвратительный день», «Алиса, я не знаю, как быть с моим отцом» — очень многие приходят с такими запросами и обращениями за советам к диджитал-ассистентам. Это напоминает дистопический с эмоциональной точки зрения фильм Спайка Джонза «Она», где мужчина влюбляется в мобильную помощницу. И все же это осязаемая реальность. Компания Amazon отметила, что половина запросов к разработанной компанией ассистентке Алексе не носит никакого функционального характера. Половина пользователей не просят уточнить, сколько лун у Сатурна и какое сейчас состояние биржевого рынка, они пытаются поговорить с машиной о своих невзгодах и расстроенных чувствах.
Это подтверждает исследование 2014 года, проведенное в лос-анджелесском Институте креативных технологий: большинство респондентов доказали, что им легче коммуницировать с собеседником (вполне человеческим), если он находится по ту сторону экрана, выступающего подушкой безопасности от излишней близости.
Эволюция каждой нейросети построена на машинном обучении — на считывании, запоминании и повторении паттернов, подсмотренных искусственным интеллектом у человека. Чем чаще мы общаемся или переписываемся с ботом, тем обширнее и сложнее становится его язык и форма взаимодействия. Но теперь перед разработчиками и IT-специалистами стоит более двусмысленная задача — научить искусственный интеллект быть интеллектом эмоциональным. На произнесенную фразу: «Мне грустно» — Сири ответит: «Мне очень жаль это слышать. Возможно, вам стоит поговорить с близким другом или членом семьи». Эмоциональный интеллект будущего, более чем вероятно, может стать таким другом.
На данном этапе существует множество мобильных приложений, предлагающих пройти тесты, по результатам которых можно составить ваше актуальное психологическое состояние и дать краткую диагностику. Здесь также задействована система машинного обучения — чем чаще вы будете делиться с приложением информацией о вашем психическом здоровье (можно заполнять дневниковые записи, помимо теста, будут подгружаться дополнительные и уточняющие вопросы), тем больше у нее данных для того, чтобы дать больше фидбэка и консультаций. Существует целая ветка ботов, которых называют woebots (англ. woe — «горе»), которые отслеживают ваши эмоциональные паттерны и обещают предоставить психологическую поддержку, — по сути, это более совершенные mindfulness-приложения.
Есть уже более сложный этап. С помощью так называемых вокальных тестов нейросеть может определить (или даже предугадать) эмоциональное и психическое состояние. Например, фирма Sonde Health учит искусственный интеллект определять, какая стадия болезни Паркинсона и деменции у пожилых людей — все только по голосу. Благодаря только мониторингу тона голоса нейросеть может научиться диагностировать намечающийся эмоциональный срыв или предиагностировать психический недуг — во всяком случае, такие разработки уже ведутся.
Вероятно, на развитом искусственном эмоциональном интеллекте будут создавать selfhelp-приложения — своего рода консультации с терапевтом размером со смартфон. Вскоре благодаря тому же машинному обучению телефон или планшет будут знать о нас гораздо больше, чем самые близкие друзья.