«Изолированные эхокамеры»: почему в Сети каждый варится в своем соку


Нашли у нас полезный материал? Помогите нам оставаться свободными, независимыми и бесплатными.


Односторонность и сверхпристрастность: публикуем главу из книги Карла Бергстрома и Джевина Уэста «Полный бред. Скептицизм в мире больших данных» (Изд. МИФ) и разбираемся, как и почему сужается инфопространство, а сама информация, которую мы получаем и которой делимся, перестает служить пополнению знаний, работая лишь на укрепление связей.

Полный бред
Обложка книги / Изд. МИФ

Доктор биологических наук, профессор Вашингтонского университета, исследователь динамики распространения информации в рамках биологических и социальных систем Карл Бергстром считает, что «наш мир захлестнула чушь, и мы в ней утопаем». По его мнению, мир больших данных, в котором мы живем, наполнен дезинформацией, фейками, однобокой статистикой, исследованиями, которые ничего не доказывают, тем не менее преподносятся как истина в последней инстанции.

Как и почему это произошло и можно ли противостоять этому шквалу необъективных данных, заполоняющих информационное пространство? Поиску ответов на эти вопросы посвящена книга, написанная им совместно с Джевином Уэстом, «Полный бред. Скептицизм в мире больших данных» (Изд. МИФ).

Авторы проходятся по всем видам «чуши» — от статистики, ошибок выборки в науке до недостоверной информации на телевидении и в Сети — и рассказывают, как с помощью логики и критического мышления выуживать в океане инфошума что-то по-настоящему стоящее.

«…Раньше, когда новости напоминали ручей, мы могли эффективно оценить поступающую информацию. Но теперь на нас надвигается лавина».

Мы выбрали главу, где они размышляют, почему информация, которую мы получаем и которой делимся в соцсетях, работает не на расширение нашего кругозора и обмен информацией, а на подтверждение, укрепление и демонстрацию нашей позиции для поддержания связей, зачем алгоритмы, которые показывают нам информацию, соответствующую их представлению о нашей социополитической ориентации, пряча от нас альтернативные точки зрения, с каждом разом рекомендуют все более экстремальные и радикальные материалы и в чем опасность такого перекоса.


Читайте также

«Путеводитель по лжи» в эпоху постправды: как находить истину в океане информации

«Общественного мнения не существует»: Пьер Бурдьё о мнимой объективности соцопросов

«Выбор без выбора»: Олдос Хаксли о будущих диктатурах


Пристрастность, персонализация и поляризация

Так же как изобретение печатного станка дало нам более богатый выбор книг, появление кабельного телевидения позволило людям выбирать те каналы информации, которые были ближе их взглядам. До 1987 года «Доктрина справедливости» Федеральной комиссии связи США (FCC) требовала соблюдать баланс в освещении противоречивых тем в программах новостей. Но она была отменена при президенте Рональде Рейгане. Подстегиваемые зарождением 24-часового новостного цикла, кабельные новостные телеканалы начали процветать и специализироваться на определенных политических пристрастиях. Последние двадцать лет ведущие новостные медиа в США двигались ко все более одностороннему изложению фактов.

На графике ниже можно увидеть, как разошлись идеологические позиции трех ведущих кабельных новостных каналов, судя по записям их программ.

Полный бред

В онлайн-режиме всё еще хуже. Даже ведущие новостные издания подают информацию не беспристрастно. Мы попадаем в изолированные эхокамеры. А такие издатели, как Breitbart News Network или The Other 98%, заходят еще дальше, публикуя новости, которые можно назвать суперпристрастными. Их истории могут основываться и на фактах, но они настолько тщательно пропущены сквозь идеологическое сито, что часто включают существенные элементы неправды.

Издатели выдают на поток односторонние и сверхпристрастные статьи, потому что они окупаются. Социальные медиа предпочитают идеологизированные публикации. Ими делятся чаще, чем нейтральными новостями, а еще люди чаще переходят по таким ссылкам. Обострение политических противоречий превратилось в прибыльный бизнес.

Профессор Массачусетского технологического института Джуди Донат заметила, что, когда люди говорят о других вещах, они часто говорят о себе. Например, я захожу на Facebook (Здесь и далее: название социальной сети, принадлежащей Meta Platforms Inc., признанной экстремистской организацией на территории РФ.) и делюсь лживой и даже абсурдной — теорией, согласно которой инверсионные следы самолетов — это потоки химических веществ, нарушающих работу желез внутренней секреции. Их разбрызгивают коварные либералы, чтобы снизить уровень тестостерона у американской молодежи. Я не столько заинтересован в том, чтобы вы поверили моему мнению, сколько желаю продемонстрировать мои политические убеждения. Поделившись такой статьей, я подаю знак, что принадлежу к тем, кто верит конспирологическим теориям и не доверяет «либеральной повестке» в Америке. И если моя цель в этом, то мне не важно, правдива или лжива история. Возможно, я ее и не читал, и для меня не имеет значения, читаете ли ее вы, но я хочу, чтобы вы знали: я состою в братстве любителей шапочек из фольги.

Сигнал и есть сообщение. Если я поделюсь историей о том, что налоговые органы расследуют сделки Дональда Трампа, совершенные до выборов 2016 года, то мои политические пристрастия будут неясны. Но если я выберу текст о том, как тот продал памятник Вашингтону русским олигархам, сразу станет ясно, что я ненавижу Трампа. И что я настолько лоялен к своей группе, что способен подавить подозрительность, читая истории о его злодеяниях.

Вывод профессора Донат следует из более общей области знаний, которую изучает теория коммуникации. Мы часто думаем о коммуникации лишь как о передаче информации от отправителя получателю. Но при этом мы игнорируем ее второй, более широкий, аспект, который раскрывает смысл латинского глагола communicare — «делать общим, совместным».

Коммуникация — то, как мы создаем, укрепляем и поощряем наш общий способ описания мира. Вообразите церковную службу или структурированную, заранее продуманную последовательность вечерних новостей. Коммуникации в социальных сетях очень похожи: они формируют и структурируют социальные группы. Отправляя твит, публикуя пост в Facebook, загружая фото в Instagram, мы подтверждаем нашу приверженность ценностям и убеждениям определенного онлайн-сообщества. Сообщество реагирует, и эти общие ценности еще раз укрепляются с помощью лайков, репостов, комментариев и ретвитов.

Если я прыгну в бассейн с завязанными глазами, крикну «Марко!» и сделаю это правильно, то моя сеть знакомых откликнется одобрительным хором: «Поло! Поло! Поло!» («Марко Поло» — в США вариант игры в жмурки в бассейне: ведущий должен с завязанными глазами найти игроков, которые на слово «Марко» откликаются словом «Поло». — Прим. пер.). Обмен новой информацией — вторичная цель при вступлении в социальные сети. В первую очередь они созданы для поддержания и укрепления общих связей. Опасность заключается в том, что в процессе общественный диалог настолько распадается на фрагменты, что восстановлению уже не подлежит. Люди скатываются к племенной эпистемологии, в которой истинность сообщения зависит не столько от фактов и эмпирических наблюдений, сколько от того, кто доносит его до других и насколько оно соответствует мировоззрению сообщества.

Алгоритмы только ухудшают ситуацию. Facebook, Twitter и другие социальные платформы используют алгоритмы, чтобы искать для вас «подходящие» публикации, персонализируя вашу ленту новостей. Эти алгоритмы разработаны не затем, чтобы вы были в курсе событий, они созданы для того, чтобы вы оставались активными участниками платформы. Их задача — скормить вам информацию, которая достаточно привлекательна, чтобы вы не отправились бродить по другим сайтам или, упаси господь, не легли спать пораньше. Проблема в том, что алгоритмы запускают порочный цикл, предлагая вам всё больше того, что, с точки зрения программы, вы хотите получить, и ограничивая доступ к другим точкам зрения. Как именно устроены алгоритмы, вам не показывают, но ваши лайки, прочитанные вами посты, список друзей, ваши геолокация и политические предпочтения — всё влияет на то, что вам покажут дальше. Алгоритмы выделяют информацию, которая соответствует их представлению о вашей социополитической ориентации, и подавляют альтернативные точки зрения.

Во Всемирной сети мы все подопытные кролики. Коммерческие сайты постоянно ставят крупномасштабные эксперименты, чтобы узнать, что удерживает нас онлайн и повышает вовлеченность. Медиакомпании в интернете экспериментируют с разными видами заголовков, сопутствующими изображениями, даже со шрифтами и с вариантами кнопки «Читать дальше». И в то же время Facebook и другие платформы предлагают рекламодателям — включая и политиков — функцию обращения к конкретным группам пользователей с сообщениями, составленными так, чтобы учесть их интересы. И эти сообщения даже не всегда явно помечаются как рекламные.

Подумайте о том, чему может научиться YouTube, экспериментируя с рекомендациями различных видео и наблюдая за тем, что выбирают пользователи. Благодаря миллиардам видео, которые смотрят каждый день, и огромным вычислительным ресурсам компания может узнать о человеческой психологии за день больше, чем ученый за всю жизнь. Проблема в том, что их компьютерным алгоритмам известен лишь один способ удерживать зрителей — рекомендовать им с каждым разом все более экстремальные материалы. Пользователи, которые смотрели ролики левого содержания, будут быстро перенаправлены к экстремально левым конспирологическим теориям. Пользователи, которые предпочитали материалы правой направленности, скоро получат рекомендации посмотреть на белых шовинистов или отрицателей холокоста. Мы столкнулись с этим лично. Пока Джевин и его шестилетний сын в режиме реального времени смотрели видео с Международной космической станции, летающей в 254 милях от шарообразной Земли, YouTube заполнял боковое меню, предлагая ролики о том, что Земля на самом деле плоская.

Перефразируя Аллена Гинзберга (Аллен Гинзберг (1926 –1997) — ключевая фигура американской контркультуры 1960–70-х гг., поэт, наряду с Уильямом Берроузом и Джеком Керуаком сыграл ключевую роль в формировании бит-поколения. — Прим. ред.), предприниматель в области технологий Джефф Хаммербахер пожаловался в 2011 году: «Я вижу, как цвет моего поколения думает о том, как заставить людей кликать по рекламным ссылкам. Вот отстой». Дело не только в том, что этот «цвет поколения» мог бы работать на благо творческого и научного прогресса. Вся эта интеллектуальная мощь уходит на то, чтобы привлечь наше драгоценное внимание и потратить впустую заодно и нашу интеллектуальную энергию, — вот в чем проблема. Интернет, социальные медиа, смартфоны — мы открываемся все более изощренным способам отвлечь наше внимание. Мы зарабатываем зависимость от наших связей, от бездумного обновления страниц, от жизни, в которой наше внимание разбросано по мириадам потоков цифровой информации. Короче говоря, алгоритмы, управляющие содержанием социальных медиа, — те еще брехуны. Им не важно, что именно они нам передают. Они лишь хотят захватить наше внимание и будут подсовывать что угодно, лишь бы только его удержать.

По материалам книги «Полный бред. Скептицизм в мире больших данных»


«Моноклер» – это независимый проект. У нас нет инвесторов, рекламы, пейволов – только идеи и знания, которыми мы хотим делиться с вами. Но без вашей поддержки нам не справиться. Сделав пожертвование, вы поможете нам остаться свободными, бесплатными и открытыми для всех.


Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Обозреватель:

Подписаться
Уведомить о
guest

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: