Доверяем ли мы агентам искусственного интеллекта в качестве посредника в конфликте? Не совсем: новое исследование говорит, что мы будем слушать виртуальных агентов, кроме случаев, когда дела идут тяжело

Исследователи из USC и Университета Денвера создали симуляцию, в которой команда из трех человек поддерживалась аватаром виртуального агента на экране в миссии, которая была разработана, чтобы гарантировать сбой и вызвать конфликт. Исследование было разработано, чтобы рассмотреть виртуальных агентов как потенциальных посредников для улучшения совместной работы команды во время урегулирования конфликтов.
Признайся им? да. Но в самый разгар, будем ли мы слушать виртуальных агентов??

Хотя некоторые исследователи (Гейл Лукас и Джонатан Грэтч из инженерной школы Университета Калифорнии в Витерби и Институт творческих технологий Университета Южной Калифорнии, которые внесли свой вклад в это исследование), ранее обнаружили, что личное общение человека с виртуальным агентом-терапевтом приводило к большему количеству признаний, в этом исследовании «Посредничество при конфликте в команде человек-машина: использование виртуального агента для поддержки планирования миссии и анализа» члены группы с меньшей вероятностью вступали в контакт с виртуальным агентом-мужчиной по имени «Крис» при возникновении конфликта.
Участвующие члены команды физически не обращались к устройству (как мы видели, как люди атакуют роботов в вирусных сообщениях в социальных сетях), но были менее вовлечены и с меньшей вероятностью слушали ввод виртуального агента после того, как произошел сбой и возник конфликт между членами команды.
Исследование проводилось в среде военной академии, в которой было разработано 27 сценариев, чтобы проверить, как команда, в состав которой входил виртуальный агент, отреагирует на сбой и обеспечение конфликта. Виртуальный агент никоим образом не игнорировался.

Исследование показало, что команды действительно отреагировали на виртуального агента во время планирования миссии, которую им поручили (кивая, улыбаясь и признавая ввод виртуального агента, поблагодарив его), но чем дольше продвигалось упражнение, тем больше их взаимодействие с виртуальным агентом. агент уменьшился. Участники не полностью винили виртуального агента в своей неудаче.
«Сплоченность команды при совместном выполнении сложных задач является очень сложным и важным фактором», – говорит ведущий автор, Керстин Харинг, доцент кафедры информатики в Денверском университете.
«Наши результаты показывают, что виртуальные агенты и потенциально социальные роботы могут быть хорошим посредником в конфликтах во всех видах команд.

Будет очень интересно узнать, какие вмешательства и социальные реакции позволят в конечном итоге беспрепятственно интегрировать виртуальных агентов в человеческие команды, чтобы они работали лучше."
Соавтор исследования Гейл Лукас, доцент кафедры компьютерных наук Университета Южной Калифорнии и исследователь из Института творческих технологий, добавляет, что некоторые отзывы участников исследования указывают на то, что они воспринимали виртуальных агентов как нейтральные и беспристрастные. Она хотела бы продолжить работу, чтобы увидеть, можно ли применять виртуальные агенты, «чтобы помочь нам принимать более правильные решения», и нажать «что нужно, чтобы заставить нас доверять виртуальным агентам»."
Хотя это исследование проводилось в военной академии с определенной структурой, исследователи надеются развить этот проект, чтобы улучшить командные процессы во всех видах рабочей среды.

«Посредничество при конфликте в команде человек-машина: использование виртуального агента для поддержки планирования и анализа миссий», автор – Керстин С. Харинг, Джессика Тобиас, Джастин Валигора, Элизабет Филлипс, Натан Л. Тенхундфельд, Гейл Лукас, Джонатан Грэтч, Юарт Дж. де Виссер и Чад С. Тосселл будет представлен на RO-MAN, 28-й Международной конференции IEEE по интерактивной коммуникации между роботами и людьми, которая состоится 15 октября в Нью-Дели, Индия.