Теперь исследователи под руководством биолога Пенна Джошуа Б. Плоткин и Александр Дж. Из Хьюстонского университета.
Стюарт выявил еще одно препятствие для демократического принятия решений, которое может быть особенно актуальным в онлайн-сообществах.
В том, что ученые назвали «манипуляцией информации», предвзятость вызывают не географические границы, а структура социальных сетей, например связи в социальных сетях.
В своем сообщении в журнале Nature исследователи сначала предсказали явление на основе математической модели принятия коллективных решений, а затем подтвердили его эффекты, проведя эксперименты в социальных сетях с тысячами людей.
Наконец, они проанализировали множество реальных сетей и нашли примеры подтасовки информации, представленные в Twitter, блогосфере и в U.S. и европейские законодательные органы.
«Люди приходят, чтобы сформировать свое мнение или решить, как голосовать, в зависимости от того, что они читают и с кем общаются», – говорит Плоткин. "И в современном мире мы много делимся и читаем в Интернете.
Мы обнаружили, что подтасовка информации может вызвать сильную предвзятость в результате коллективных решений, даже в отсутствие “ фейковых новостей ”.’
«Это говорит нам о том, что нам нужно быть осторожными, полагаясь на социальные сети для общения, потому что структура сети не находится под нашим контролем, и тем не менее она может исказить наши коллективные решения."
Анализ исследователей показал, что манипуляция информации может легко привести к смещению на 20%. Другими словами, группа, которая была поровну разделена на две партии, тем не менее могла прийти к решению 60-40 исключительно из-за подтасовки информации.
«Идея сродни электоральному манипулированию, когда одна партия может получить преимущество не просто числом, а решив, кто голосует в каком округе», – говорит Плоткин.
Вопрос о том, может ли это влияние привести к предвзятым результатам, был особенно важен для Плоткина, учитывая обеспокоенность по поводу того, как поток информации был изменен в социальных сетях.
«Прямо сейчас нам нужны исследования о влиянии социальных сетей на здоровье либеральных демократий», – говорит он.
Для начала исследователи построили простую игру, в которой игроков распределили по конкурирующим группам или партиям. Помещенные в сеть, которая определяла, чьи намерения при голосовании может видеть каждый человек, игроки были мотивированы таким образом, что наилучшим результатом для их партии была «победа» на выборах.
Вторым лучшим исходом будет победа другой стороны, а худшим результатом будет тупик.
«Вкратце, – говорит Плоткин, – мы обнаружили, что даже когда две партии имеют равное количество членов и все кажется справедливым – все в сети имеют одинаковое влияние, – структура социальной сети все еще может иметь предвзятость. исход к той или иной стороне."
Причина связана с тем, как две стороны взаимодействуют друг с другом. Когда члены одной партии общаются почти исключительно друг с другом, а не через партийные линии, это может привести к тому, что в сети называется пузырем фильтров, когда чьи-то взгляды подкрепляются окружающими.
Объедините две такие группы, каждая из которых находится на противоположной стороне проблемы, и возникнет тупик.
Однако, когда информация подтасовывается, несколько членов одной стороны вступают в разговор, в котором доминируют члены другой стороны. Там у них есть возможность убедить другую сторону или быть убежденным.
«Партия, находящаяся в невыгодном положении, – объясняет Плоткин, – это та, которая разделила свое влияние – большинство ее членов разговаривают только со своей собственной партией, в то время как некоторые из ее членов взаимодействуют в пузырях, в которых доминирует другая сторона, где они вероятно, будет перевернут."
Работая с соавтором Дэвидом Рэндом из Массачусетского технологического института и его коллегами, команда провела более 100 онлайн-экспериментов с более чем 2500 человеческими субъектами, чтобы проверить влияние манипуляции информации. В играх использовался тот же сценарий, что и в математической модели: командам по 12 игроков в каждой было назначено «голосовать» либо за желтую, либо за фиолетовую сторону, и их стимулировали отдавать предпочтение назначенной партии с консенсусом в качестве второго лучшего результата. Эксперименты изменили структуру социальной сети и подтвердили прогнозируемые эффекты искажения информации на результаты голосования.
«Мы можем изменить окончательный голос в этих экспериментальных играх на 20% и более только за счет структуры социальной сети», – говорит Плоткин. "Даже если одна партия имеет преимущество в размере 2 к 1, мы прогнозируем, что партия меньшинства может получить большинство голосов за счет подтасовки информации."
Интересно, могут ли они спровоцировать кражу информации с помощью автоматических ботов, исследователь также добавил «ботов-фанатиков», которые отказываются компрометировать. Разумеется, правильное размещение лишь нескольких фанатиков может также привести к фальсификации информации и недемократическим результатам.
Чтобы оценить реальные сети на предмет наличия подтасовки информации, исследователи проанализировали данные о совместном спонсорстве законопроектов в США.S. Конгресс, а также европейские законодательные органы и сети пользователей социальных сетей, участвующих в политической дискуссии.
Они обнаружили, что подтасовка информации была чрезвычайно распространена в этих реальных сетях.
Исследователи видят в этом начало нового направления исследования, посвященного тому, как социальные сети влияют на коллективное принятие решений.
«Большое внимание уделяется фейковым новостям и онлайн-троллям, которые, безусловно, разрушительны», – говорит Плоткин. «То, что мы изучаем, – это нечто иное, которое зависит от общей сетевой структуры – более тонкая, но, возможно, более опасная проблема для демократического принятия решений."
Джошуа Б. Плоткин – профессор кафедры биологии Школы искусств и наук Пенсильванского университета. Он имеет второстепенные должности на факультете математики и на факультете компьютерных и информационных наук Школы инженерии и прикладных наук.
Александр Дж.
Стюарт – доцент Хьюстонского университета.
Плоткин и Стюарт написали эту работу в соавторстве с Мохсеном Мослехом, Антонио Аречаром и Дэвидом Г. Рэнд из Массачусетского технологического института и Марина Дьяконова из Оксфордского университета.
Исследование было поддержано программами NGS2 Агентства перспективных исследовательских проектов Министерства обороны США (грант D17AC00005), Инициативой по этике и управлению искусственным интеллектом Фонда Майами, Всемирным благотворительным фондом Темплтона, Управлением армейских исследований (грант W911NF-17-1-0083) и Фонд Дэвида и Люсиль Паккард.
