Офис продаж Москва

+7 (495) 644-40-32
8 (804) 333-75-76
Звонок по РФ бесплатный

пн.-пт.: 10:00 - 18:00

сб.-вс.: выходной

alfazvuk@inbox.ru
 
О компании Услуги Каталог Типовое решение Проекты Контакты Гарантии Доставка Оплата  
 

О чем расскажут наши эмоции

Как выбрать встраиваемые акустические системы
Как выбрать акустический кабель
Выбираем громкоговорители для магазина
Public Address
Что нужно для открытия караоке-клуба
Подбор музыкального контента для вашего бизнеса
Аудиомаркетинг для вашего бизнеса
Повышение эффективности предприятия: звуковая трансляция
Все статьи
Профессиональный звук от «АльфаЗвук» \ Статьи \ О чем расскажут наши эмоции

Теперь не нужно быть заядлым игроком в покер или специалистом по физиогномике, чтобы распознавать эмоции и чувства, которые испытывает ваш собеседник: с этим отлично справляются специальные компьютерные программы. Анализируя кадр за кадром данные видеонаблюдения, они способны отслеживать даже самые незначительные изменения лицевых мышц, участвующих в создании «масок» радости, печали, гнева, удивления, восторга или отвращения.

Проанализировав данные многочисленных видео- и фотоматериалов, ученые пришли к выводу, что люди достаточно последовательны в выражении своих эмоций: они одинаково морщат носы в замешательстве или хмурят брови, рассердившись. Теперь и компьютеры можно запрограммировать так, чтобы идентифицировать различные проявления чувств по движению лицевых мышц.

На первый взгляд может показаться, что ничего особенного в таком анализе нет. Однако на самом деле возможности использования подобных программ огромны. Предположим, вы играете в компьютерную игру on-line, используя веб-камеру, и в какой-то момент вам стало скучно. Эмоции отразятся на вашем лице, и программа автоматически увеличит темп. Полезным анализ движения лицевых мышц может быть при работе с онлайн-студентами: преподаватель может видеть, насколько успешно осваивается материал и понятно ли объяснение той или иной темы.

Подобными разработками занимаются, в частности, две американские компании – Affectiva и Emotient. По словам соучредителя и главного научного сотрудника компании Affectiva Раны эль (Rana el-Kaliouby), их группа в течение двух с половиной лет собирала и классифицировала эмоциональные реакции различных людей, которые дали разрешение на запись видеоматериалов и их использование в научных целях. Проанализировав около полутора миллиардов эмоциональных «картинок», ученые готовы предоставить все необходимые материалы разработчикам программного обеспечения для создания соответствующих программ уже в январе следующего года. При этом доктор Калиобу утверждает, что все созданные приложения и алгоритмы будут контролироваться их представителями, поэтому люди могут спокойно дать согласие на использование данных потокового видео.

Следующим шагом в развитии технологий некоторые специалисты считают совмещение программ, анализирующих проявления наших эмоций, с приложениями, отслеживающими отдельные жесты, взгляды и анализирующими голоса. По мнению аналитика и управляющего директора аналитического агентства Foresight Поля Саффо (Paul Saffo), который более двадцати лет исследует динамику крупномасштабных, долгосрочных изменений в технологических процессах, подобный альянс сделает более естественным взаимодействие человека с машинами.

«Будущее принадлежит не проводникам или контенту, но тем, кто контролирует обработку и передачу данных и разрабатывает инструменты, опираясь на чувства, которые мы испытываем, перемещаясь по просторам киберпространства», – считает Поль Саффо.

Впрочем, некоторые, менее оптимистично настроенные эксперты видят в таком развитии технологий призрак фантастического романа Джорджа Оруэлла (George Orwell) «1984», в котором впервые появляется известная фраза «Большой брат следит за тобой». И представители компании Affectiva также осознают, что приложения, способные анализировать и распознавать человеческие эмоции, могут стать вмешательством в частную жизнь людей. Однако доктор Калиобу заверила, что ни одна из разрабатываемых программ не будет вести запись видео с лицами людей. «Мы лишь разрабатываем алгоритм чтения выражения лица и не храним отдельные кадры», – отметила она.

Алгоритмы компании предполагается использовать для мониторинга выражения лиц, чтобы проверять эффект воздействия на аудиторию различных объявлений, в том числе рекламных, анонсов фильмов, книг, телевизионных шоу. Специалисты считают, что использование подобных программ при работе с фокус-группами гораздо дешевле и эффективнее, чем работа специально обученных физиогномистов. Среди клиентов компании Affectiva значатся такие гиганты, как Unilever, Mars и Coca-Cola, свои рекламные ролики тестирует с помощью технологии распознавания эмоций рекламное агентство Millward Brown.

«Нельзя сказать, что алгоритм чтения эмоций идентифицирует их на все 100%, – считает кандидат технологических наук Кембриджского университета Тадас Балтрушайтис (Tadas Baltrusaitis), который является рецензентом новой программы. – Приложение становится лучше, но оно не совершенно и, вероятно, никогда таким не будет».

Тем не менее, уже сейчас приложение может с успехом использоваться в сфере образования, медицины, компьютерных игр, рекламы и других областях. Пользователями ридера человеческих эмоций могут стать люди с аутизмом, которые с трудом распознают мимику. «Совместив аналитические программы с гарнитурой Google Glass или другими устройствами, подключенными к Интернету посредством облачных технологий, мы можем в реальном времени помогать адаптироваться таким людям в обществе в течение всей жизни. Программа будет «переводить» эмоции собеседника и его реакции, отраженные в выражении лица, и озвучивать их через наушники», – комментирует доцент кафедры взаимодействия человека с компьютером университета штата Аризона Уинслоу Берлсон (Winslow Burleson). Google Glass уже с успехом применяется для ранней диагностики аутизма у детей, так что исследователи заинтересованы в дальнейшем развитии этого направления.

Вместе с тем постоянное развитие технологий вызывает вполне закономерный вопрос: как далеко может завести разработчиков использование данных программ и не является ли это очередным вмешательством в личную жизнь, как и само видеонаблюдение, впрочем. Поэтому алгоритм чтения эмоций привлекает внимание не только специалистов по компьютерным технологиям и медиков, но и представителей общественности, озабоченных нарушением приватности и личного пространства, так как программа в той или иной степени связана с видеонаблюдением.

«Мы не всегда хотим, чтобы наши эмоции становились достоянием гласности», – считает юрист и адвокат из Вашингтона Джинджер Макколл (Ginger McCall). Она отмечает, что опасения вызывает интерес к подобным технологиям со стороны правительства и органов безопасности, которые нередко злоупотребляют своей властью. В частности, госпожа Макколл привела данные нескольких правительственных отчетов, в том числе научно-исследовательского института национальной обороны, который рассматривает возможность применения скрининга человеческих эмоций в системе безопасности аэропортов. «Эти технологии слишком легко могут быть использованы без ведома и согласия людей, которые становятся объектами видеонаблюдения»,– делится своими опасениями Джинджер Макколл.

По материалам nytimes.com

Rambler's Top100   Яндекс.Метрика Copyright © 2017 "АЛЬФА ТЕХНОЛОДЖИС"