То, как ИИ запрашивают личную информацию, важно для завоевания доверия пользователей

В исследовании, проведенном исследователями Пенсильванского университета, сообщается, что пользователи по-разному реагировали, когда ИИ предлагали помощь пользователю или просили помощи у пользователя. Этот ответ повлиял на то, доверял ли пользователь ИИ свою личную информацию. Они добавили, что эти представления от ИИ могут быть разработаны таким образом, чтобы повысить доверие пользователей, а также повысить их осведомленность о важности личной информации.

Исследователи, которые представили свои выводы сегодня на виртуальной конференции ACM CHI по человеческому фактору в вычислительных системах 2021 года, главной международной конференции по исследованиям взаимодействия человека и компьютера, обнаружили, что люди, знакомые с технологиями, – опытные пользователи, – предпочитают ИИ, которые нуждаются в помощи или обращаются за помощью, в то время как пользователи, не являющиеся экспертами, с большей вероятностью предпочтут ИИ, которые представляют себя одновременно и как ищущие помощи, и как ее поставщики.
Поскольку ИИ становятся все более распространенными, разработчикам необходимо создавать системы, которые лучше связаны с людьми, сказал С. Шьям Сундар, Джеймс П. Джимирро, профессор медиаэффектов в Дональде П. Колледж коммуникаций Беллисарио и содиректор Лаборатории исследования медиаэффектов.

«Нам необходимо переосмыслить, как системы ИИ общаются с людьми», – сказал Сундар. «Это стало очевидным, потому что растет беспокойство по поводу того, как системы искусственного интеллекта начинают захватывать нашу жизнь и знают о нас больше, чем мы думаем. Итак, учитывая эти опасения, может быть лучше, если мы начнем переключаться с традиционных сценариев диалога на более совместное общение, которое признает свободу действий пользователя."

Здесь, чтобы помочь?
Исследователи заявили, что традиционные диалоги ИИ обычно предлагают вводные сведения, которые определяют их роль помощника.

На самом деле, опытных пользователей может отпугнуть то, как ИИ обычно общаются с пользователями, что может показаться им снисходительным, сказал Сундар, который также является филиалом Института вычислительной техники и данных (ICDS) Пенсильванского университета.

Например, исследователи ссылаются на запрос Facebook на информацию о дне рождения, чтобы его ИИ мог предоставить пользователям соответствующий возрасту опыт.
«Кажется, что ИИ проявляют патерналистский подход к тому, как они разговаривают с пользователем – они, кажется, говорят пользователям, что они здесь, чтобы помочь вам, и вам нужно предоставить им свою информацию, чтобы получить преимущества», – сказал Сундар.
С другой стороны, когда система искусственного интеллекта просит пользователей о помощи, это рассматривается как социальный. По словам Мэнки Ляо, докторанта в области массовых коммуникаций и ведущего автора статьи, опытные пользователи обнаружили, что ИИ, ищущий помощи, обладает социальным интеллектом, который исследователи называют социальным присутствием.

«Логично, что если кто-то обращается за помощью, это по своей сути социальное поведение и очень межличностное поведение», – сказал Ляо. "Это социальное присутствие, в свою очередь, приводит к большему доверию и увеличивает намерение предоставить ИИ больше личной информации. Опытные пользователи также дали ИИ, обращающемуся за помощью, более высокую оценку своей производительности, даже если они обеспечивают тот же результат, что и другие ИИ."
Ляо добавил, что когда система одновременно обращается за помощью и сообщает пользователям, что может помочь им в будущем, у обычных пользователей меньше проблем с конфиденциальностью.

Этический ИИ

Исследователи заявили, что исследование предлагает дизайнерам этичный способ повысить доверие к машинам, не пытаясь обманом заставить людей предоставить свою личную информацию.
«Мы думаем, что эти результаты могут быть полезны дизайнерам, которые хотят разработать тактику борьбы с системами искусственного интеллекта, которые охотятся на пользователей», – сказал Ляо. "Например, мы обнаружили, что наличие как подсказок для обращения за помощью, так и подсказок о ее предоставлении действительно может вызвать опасения относительно конфиденциальности среди опытных пользователей. Следовательно, простая реализация обоих двух сигналов в пояснениях к полномочиям пользователей может сделать их более бдительными в отношении своей личной информации."
Для неопытных пользователей дизайнеры могут добавить подсказки для поиска помощи, которые уменьшат социальное присутствие и побудят их быть более бдительными в отношении своей личной информации, добавил Ляо.

Исследователи набрали 330 участников с онлайн-платформы для исследования микрозадач. Участников случайным образом распределили на имитацию веб-сайта, представляющую одно из четырех экспериментальных условий – условие обращения за помощью, условие оказания помощи, условия как обращения за помощью, так и условия оказания помощи и контрольное состояние. В состоянии обращения за помощью ИИ предложил письменное объяснение, что ему нужна помощь пользователей и их личная информация для улучшения и роста. В условии предоставления помощи он объяснил, что может использовать предоставленную личную информацию, чтобы помочь пользователю найти новостные статьи.

Третье условие содержало как сигналы о помощи, так и подсказки о помощи. Контроль не дал объяснений.

Исследователи также изучили, будут ли какие-либо различия в том, как ИИ обращается к себе, и обнаружили, что люди меньше доверяют ему, когда он называет себя «Я», по сравнению с «этой системой»."
Дальнейшие исследования могут включать изучение использования ИИ в других контекстах, которые более чувствительны по своей природе, например, при сборе финансовой и медицинской информации, чтобы определить, как эти внедрения могут повлиять на бдительность пользователей в отношении защиты этой информации.

Блог автомобилиста