Данная заметка Дика Вейсингера (Dick Weisinger – на фото) была опубликована 11 января 2022 года на блоге компании Formtek.
Чтобы компьютеры и искусственный интеллект (ИИ) понимали, чего от них ожидают люди, важно, чтобы они могли «читать» человеческие эмоции. Именно этого и пытаются добиться исследователи. Новая область получила название «эмоциональный ИИ» (emotion AI, https://mitsloan.mit.edu/ideas-made-to-matter/emotion-ai-explained ) или, иногда, «эмоциональные вычисления» (affective computing, https://en.wikipedia.org/wiki/Affective_computing ). Данная область представляет собой смесь компьютерных наук, алгоритмов искусственного интеллекта, психологии и науки о процессах познания (cognitive science). Чем лучше ИИ сможет понимать людей, тем лучше он сможет реагировать на вербальные и невербальные сигналы.
Обученные с помощью «эмоционального ИИ» ИИ-алгоритмы (см. https://dmexco.com/stories/emotion-ai-the-artificial-emotional-intelligence/ )способны лучше взаимодействовать с людьми. Они начинают понимать, как эмоции влияют на человеческое общение, понимать взаимодействия между людьми и лучше распознавать смысл буквальных и небуквальных утверждений.
Научный сотрудник MIT Media Lab Хавьер Эрнандес (Javier Hernandez, https://www.media.mit.edu/people/javierhr/overview/ ) говорит: «Подумайте о том, как вы взаимодействуете с другими людьми. Вы смотрите на их лица, на их тело и соответственно изменяете своё взаимодействие. Как может машина эффективно передавать информацию, если она не знает Вашего эмоционального состояния, если она не знает, что Вы чувствуете и как Вы может отреагировать на определённый контент?» (см. https://mitsloan.mit.edu/ideas-made-to-matter/emotion-ai-explained ).
Ветвью «эмоционального ИИ» является анализ настроений - способность определять тип эмоций, которые испытывал человек, когда он что-либо писал (обычно онлайн-комментарий или короткое сообщение, подобное тем, которые можно найти в Твиттере). Тем временем некоторые исследователи пытаются определить эмоции человека, «читая» выражение его лица на изображениях или видеозаписях или интерпретируя по видеозаписям смысл невербальных взаимодействий между людьми. Алгоритму может быть трудно понять то, что люди могут сразу почувствовать и схватить во взаимодействии или диалоге.
Посмотрите на попытки понять взаимодействие людей с другими людьми при вождении автомобиля. Профессор Атлантического университета Флориды (Florida Atlantic University) Стелла Баталама (Stella Batalama, http://www.eng.fau.edu/directory/faculty/batalama/ ) полагает, что «одна из основных проблем технологии полностью беспилотных или полу-беспилотных транспортных средств заключается в том, что те могут быть не в состоянии точно предсказать поведение других беспилотных и пилотируемых человеком транспортных средств. Такие предсказания необходимы для правильной навигации беспилотных транспортных средств на дорогах. Технология пытается научить алгоритмы моделям поведения людей, едущих в транспортных средствах» ( https://www.fau.edu/newsdesk/articles/amc-utility-patent.php ).
Дик Вейсингер (Dick Weisinger)
Источник: блог компании Formtek
https://formtek.com/blog/artificial-intelligence-improving-the-emotional-intelligence-of-algorithms/
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий