YouTube, как и Facebook, игнорировал предупреждения о токсичности в пользу «помолвки»
Изображение предоставлено: Chris McGrath / Getty Images
После выборов 2016 года компании, работающие в социальных сетях, начали расплачиваться за свою полную неспособность защитить безопасность или конфиденциальность своих пользователей и защитить свои платформы от использования иностранными актерами, мошенниками и теоретиками заговора. После скандала Facebook был забит скандалом, но YouTube едва ли остался невредимым. В ходе расследований были обнаружены тревожные связи между алгоритмами компании для определения того, что будет отображаться в вашем видеопотоке, и ростом экстремистского контента в Интернете. Компания была особенно раскритикована за ее неспособность должным образом контролировать программы детей.
Новое расследование от Bloomberg проливает свет на ситуацию и подтверждает, что руководители и сотрудники YouTube уже много лет знают об этих проблемах. Каждая попытка на самом деле исправить эти проблемы со стороны сотрудников была пресечена самими руководителями. Зачем? Потому что любая попытка решить проблемы может повредить вовлечению пользователей.
В сообщении говорится, что «десятки» людей в YouTube и Google попытались поднять тревогу по поводу огромного количества лжи, обмана и токсичного контента, распространяющегося по всей платформе. Был разработан ряд предложений по решению этих вопросов. Всем было отказано.
Компания потратила годы, преследуя одну бизнес-цель над другими: «Вовлеченность», мера просмотров, затраченного времени и взаимодействия с онлайн-видео. Беседы с более чем двадцатью людьми, которые работают на YouTube или недавно покинули его, показывают, что корпоративное руководство не может или не желает реагировать на эти внутренние тревоги из-за боязни ограничить участие.
YouTube только недавно начал расправляться с людьми, которые распространяют ложный контент. Недавно он объявил, что демонтирует видео о вакцинации как способ ограничения распространения дезинформации, касающейся эффективности и безопасности вакцин. По словам Мики Шаффера, который начал работать на YouTube в 2006 году и оставался в течение нескольких лет, сайт теперь разрешает контент, который он никогда бы не разрешил раньше. Относительно распространения контента анти-вакцинации на сайте, Шаффер сказал: «Мы бы строго ограничили их или запретили бы их полностью. YouTube никогда не должен был допускать, чтобы опасные теории заговора стали такой доминирующей частью культуры платформы. Возможно, мы тратили деньги, - продолжал Шаффер, - но, по крайней мере, собаки на скейтбордах никогда никого не убивали ».
Но Google взял на себя более жесткий контроль над YouTube, начиная с 2009 года, и компания хотела, чтобы пользователи проводили больше часов в Интернете за просмотром видео. Создатели контента вскоре поняли, что это может произойти из-за возмущения. Исследования показали, что контент, который злит людей, является одним из самых мощных типов вирусного контента, который существует. Сотрудники YouTube хорошо знали, что создатели контента намеренно производят видеоконтент, пытаясь воспроизвести систему, а не предоставлять точную информацию, но все попытки создать более ответственный алгоритм были сбиты более влиятельными людьми в компании.
Тем временем YouTube продолжает отрицать, что эффект «кроличьей норы» существует в первую очередь. В недавнем интервью New York Times Нил Мохан, директор по продуктам YouTube, заявил, что YouTube не заинтересован в том, чтобы подталкивать людей к более экстремальному контенту, и что экстремальный контент не стимулирует более высокую версию взаимодействия и не приводит к увеличению времени на сайт.
Эту версию событий невозможно согласовать с репортажами Bloomberg. В то время как сотрудники пытались предупредить компанию о том, что они назвали «плохой виральностью», YouTube был сосредоточен на создании новой системы оплаты для создателей, которая бы явно монетизировала участие, что позволило бы решить проблему. Видео, ставшее вирусным на основе возмутительного контента, было бы более выгодным для разделения прибыли, чем сейчас.
Репортажи Bloomberg - это еще один пример того, как Силиконовая долина фундаментально лгала о возможностях, качестве и целях алгоритмов, которые она развертывает вокруг нас. Усилия по поддержанию чистоты канала YouTube Kids с помощью контента для ручной обработки были отклонены в пользу алгоритмически выбранных видео. Это привело к катастрофе в 2017 году, когда родители фактически начали осознавать, что их дети смотрят. Совсем недавно компании пришлось расправляться с комментариями, когда обнаружил, что кольцо педофилов злоупотребляет контентом с участием несовершеннолетних. Компания начала исправлять свою ситуацию, прилагая различные усилия для продвижения хороших новостей о теоретизировании заговора, но эти усилия предпринимаются только после нескольких лет решительного игнорирования проблемы.