YouTube погружает мир в экстремизм. Алгоритм всегда предложит вам посмотреть более радикальную версию

YouTube YouTube

Вероятно, что алгоритм рекомендаций YouTube в целом склонен предлагать пользователям более экстремальный контент, независимо от темы. Например, если однажды вы решите поискать видео о вакцине против гриппа, то рано или поздно среди рекомендуемых вы найдете конспирологические ролики о том, что на самом деле вакцинация — это преступный сговор.

Перевод с блогов The New York Times

Как-то во время президентской кампании 2016 года мне пришлось пересмотреть много видеороликов Дональда Трампа на YouTube. Я писала статью о том, что делает Трампа таким привлекательным для его избирателей, и хотела найти на YouTube оригиналы нескольких цитат. Уже скоро я заметила кое-что интересное. YouTube начал рекомендовать и воспроизводить следующим видео с риторикой белых супрематистов, возражениями Холокоста и другие противоречивые материалы.

Поскольку до тех пор у меня не было привычки смотреть праворадикальные видео на YouTube, мне стало интересно, работает ли это только для правого идеологического спектра. Поэтому я создала еще один аккаунт YouTube и начала смотреть видео Хиллари Клинтон и Берни Сандерса, чтобы проверить, что на этот раз предложит мне алгоритм рекомендаций.

После нескольких видео алгоритм начал подбирать для меня ролики с левыми конспирологическими теориями, в том числе о деятельности тайных правительственных агентств и с обвинениями правительства США в организации террористических актов 11 сентября. Как и с видео Трампа, YouTube рекомендовал мне все более радикальные идеи по сравнению с теми, которые были в начале.

Я была заинтригована этим наблюдением, и поэтому продолжила свой эксперимент с видео на неполитические темы. YouTube вел себя так же: после нескольких видео о вегетарианстве у меня в рекомендациях появлялись видео про веганство. А за роликами о пробежки последовали видео о том, как пробежать ультрамарафон.

Похоже, что какие бы видео вы не смотрели, алгоритм YouTube всегда найдет для вас более радикальные рекомендации. Сайт рекламирует, рекомендует и распространяет видео таким образом, чтобы постоянно повышать ставки. Учитывая то, что аудитория YouTube насчитывает миллиарды пользователей, платформа может стать одним из мощнейших инструментов радикализации в 21 веке.

Это не означает, что существует заговор разработчиков YouTube о том, как привести этот мир к катастрофе. Скорее всего, объяснение связано с развитием искусственного интеллекта и бизнес-моделью Google (YouTube принадлежит компании Google). Несмотря на красноречивые заявления о миссии и ценностях, Google по своей сути остается рекламным брокером, который продает наше внимание другим компаниям. Поэтому чем больше времени люди проводят на YouTube, тем больше денег зарабатывает Google. Что же удерживает людей на YouTube? Похоже, что алгоритм платформы нашел ответ на этот вопрос в том, чтобы предлагать людям все более экстремальный контент.

Так ли это? Для точного ответа не хватает данных, ведь Google не стремится делиться информацией с независимыми исследователями. Но сейчас мы имеем первые догадки благодаря информации от бывшего инженера Google, Гиллома Часлота (Guillaume Chaslot).

Часлот работал над разработкой алгоритма рекомендаций в YouTube. При этом, он высказывал беспокойство относительно тактики, которую использует платформа, чтобы удержать внимание пользователей. В конце концов, в 2013 году Часлота уволили из Google якобы из-за недостаточной производительности. Сам уволенный сотрудник утверждает, что настоящей причиной были его попытки изменить подход к формированию рекомендаций.

The Wall Street Journal с помощью Часлота провела собственное расследование контента на YouTube. В результате выяснилось, что YouTube часто «скармливал» видео с радикально правыми или левыми идеями пользователям, которые до этого смотрели сравнительно умеренные сюжеты из новостей. Эта тенденция сработала для различных видео. Например, если однажды вы решите поискать видео о вакцине против гриппа, то рано или поздно среди рекомендуемых вы найдете конспирологические ролики о том, что на самом деле вакцинация — это преступный сговор.

Вероятно, что алгоритм рекомендаций YouTube в целом склонен предлагать пользователям более экстремальный контент, независимо от темы. Накануне выборов в 2016 году Хиллом Часлот создал программу, которая отслеживала самые трендовые видео на YouTube, а также паттерны, по которым они попадали к рекомендациям. Часлот пришел к выводу, что независимо от того, “начали” вы на YouTube как сторонник Клинтон или Трампа, есть высокая вероятность, что в конечном итоге платформа стала бы вам рекомендовать ролики “за Трампа”.

Выводы Часлота в сочетании с результатами других исследований демонстрируют, что во время кампании 2016 года фальшивые новости (“fake news”) Трампа распространялись наYouTube активнее ролики Клинтон только потому, что его видео были более радикальными. Не так давно создателей YouTube обвинили в том, что сайт активно рекомендует видео с теориями заговора, в которых утверждалось, что стрельба в школе Паркленду (штат Флорида) была выдумкой. Будто видео с места событий были смонтированы, а роли жертв играли каскадеры.

Джонатан Олбрайт, исследователь из Колумбийского университета, недавно провел эксперимент, создав аккаунт на YouTube, который искал только видео по ключевому слову «каскадер» (англ. crisis actor”). В результате после ряда рекомендаций ученый обнаружил целую сеть из около 9000 видео, “подтверждали” теорию о ложной стрельбу и похожие конспирологические теории. В частности, в большинстве таких роликов также утверждалось, что другой случай стрельбы в школе в городе Ньютаун (штат Коннектикут, 2012 год) на самом деле был обманом.

Мы наблюдаем, как с помощью технологий используют естественное желание человека: заглянуть «за занавес», чтобы узнать больше о темах, которые нас волнуют. Когда мы переходим на новые и новые видео, нас охватывает азарт от вероятности, что мы можем узнать больше тайн. Пока YouTube создает для пользователей тоннель экстремизма, Google поднимает объемы продаж рекламы.

Люди имеют много природных склонностей, которые могут иметь негативные последствия в контексте современной жизни. Например, любовь к жирной, соленой или сладкой пищи, которую мы унаследовали из времен, когда еда была дефицитом, может стать пагубной в условиях, когда вокруг нас постоянно активно рекламируется и продается избыток жиров, соли и сахара. Так же естественное любопытство к неизвестному может помочь сайту с видео вести нас в направлении лжи, подстрекательства и дезинформации.

YouTube создал ресторан, который предлагает нам все слаще и жирнее продукты, загружая наши тарелки новой порцией, как только мы заканчиваем с предыдущей. Со временем это влияет на наши вкусы, и мы начинаем стремиться еще больше сахарных жирных продуктов, которые ресторан послушно обеспечивает. Когда же отдел здравоохранения и заинтересованные граждане начинают обращать на это внимание, менеджер ресторана отвечает, что заведение только удовлетворяет желания клиентов.

Эта ситуация становится особенно опасной, если учесть, сколько людей, особенно среди молодежи, обращаются к YouTube как к источнику информации. Наиболее доступные ноутбуки Chromebook от Google продаются с сразу загруженным приложением YouTube. Доля этих ноутбуков среди пользователей школьного возраста составляет более 50 процентов рынка лэптопов в США. Такое положение дел является неприемлемым, однако у нас все еще есть выбор. Нет никаких оснований для того, чтобы позволять компании зарабатывать столько денег, радикализируя миллиарды людей.

Leave a comment

Your email address will not be published.


*