Можно ли доверить искину распознавание эмоций?

По мере того, как искины принимают все больше решений в нашей жизни, инженеры пытаются привить им помимо искусственного еще и эмоциональный интеллект. То есть автоматизировать то, что у людей получается само собой – понять эмоции человека, взглянув на выражение его лица. Поэтому такие компании как Microsoft, IBM и Amazon продают алгоритмы с «распознаванием эмоций».

Искусственный интеллект четко знает: если человек хмурится – значит, он сердится, если выпучил глаза, поднял брови и открыл рот – боится и т.д. Эти алгоритмы нашли свое применение много где: от систем безопасности (отслеживание угроз) до собеседований при приеме на работу (отсеивание незаинтересованных соискателей).

Но утверждение, будто мы легко можем понять эмоции людей лишь по их виду, крайне спорно. И, как показывает новейшее исследование, не имеет под собой твердого научного обоснования.

Лиза Фельдман Барретт, профессор психологии и соавтор этой публикации, пояснила, что машины могут распознать нахмуренные брови, но это не то же самое, что распознать гнев.

На подготовку работы ушло два года, и она подбивает итог под результатами более 1000 различных исследований. И выводы таковы: одну и ту же эмоцию можно выразить множеством разных способов, поэтому анализ мимики слишком неточен.

Как показали данные, в гневе человек хмурится лишь в 30% случаев. Так готовы ли вы довериться в суде, при трудоустройстве или во время постановки диагноза алгоритму, который точен лишь на 30%?

«Интуитивно люди понимают, что все не так просто. Иногда мы в гневе кричим, иногда плачем, иногда смеемся, а иногда спокойно сидим, не меняясь в лице, и планируем месть обидчикам. Когда, вообще, актеру вручали Оскара за то, что тот изобразил гнев, просто нахмурившись?»

На такую критику компании обычно отвечают, что их технологии замеряют множество других сигналов, не только мимику. Но вопрос «Как именно соотносятся эти сигналы с эмоциями?» пока что остается открытым.

В заключение профессор Барретт заметила, что, если такие технологии распознавания эмоций станут использоваться повсеместно, то в итоге мы просто скорректируем свое поведение, чтобы подстроиться под искинов. Похожим образом люди в сети уже начали остерегаться «лайкать» те или иные фото в Инстаграме, чтобы им потом не показывали «целевую» рекламу. Точно так же мы вполне можем начать корчить преувеличенно эмоциональные рожи, чтобы машины нас правильно поняли. И тогда это просто станет частью общения.

Источник

Tags:

ТЕБЕ МОЖЕТ ПОНРАВИТЬСЯ

Автор «Стратегії блакитного океану» Чан Кім виступить у Києві

Автор бестселеру «Стратегія блакитного океану», один із найкращих світових мислителів та гуру менеджменту, професор Чан Кім прочитає 16 листопада у Києві єдину лекцію. Його виступ відбудеться у межах організованого енергетичною компанією ДТЕК стратегічного діалогу, під час якого йтиметься про те, ...

5G за один день. Global Inspiring Forum — 2019

28 ноября 2019 года в Ramada Hall состоится G;obal Inspring Forum. 5 выдающихся спикеров за 1 день поделятся своим вдохновение, драйвом и видением будущего успешного бизнеса.

Лаборатория OpenAI открыла доступ к своему «опасному» искину-генератору текстов

Ранее эксперты предупреждали, что такая система может оказаться очень опасной в руках злоумышленников.