На этой неделе американская пресса писала о так называемом «Досье Facebook». Бывшая сотрудница компании Фрэнсис Хауген передала тысячи страниц внутренних документов The Wall Street Journal.

Корпорация придерживается культуры открытости, поэтому данные, исследования и отчеты были доступны большому числу сотрудников во внутренней социальной сети компании Workplace, почти идентичной Facebook. Хауген просматривала документы, работая из дома, и фотографировала на свой телефон. Рассказываем о самом важном по материалам The Wall Street Journal и The Washington Post.

Об Instagram

Адам Моссери, глава Instagram, принадлежащего Facebook, заявлял, что Facebook не нацелен на детей младше 13 лет. Однако внутри компании давно исследовали, как дети допубертатного возраста используют технологии, и строили планы по их привлечению. «Почему мы заботимся о детях? Это ценная, но еще нетронутая аудитория», — говорится в одном из документов от 2020 года.

Внутренние исследования Instagram, принадлежащего Facebook, доказывают, что приложение имеет негативное влияние на психику миллионов подростков, особенно девочек. Публично Facebook преуменьшает значение приложения даже в показаниях Конгрессу. Компания заверяет, что негативные последствия не так широко распространены и что некоторые вредные аспекты нелегко устранить. Facebook не делает свои исследования общедоступными и не дает результаты по запросу ученых или законодателей.

О языке ненависти

В своих показаниях перед Конгрессом Цукерберг заявлял, что компания удаляет 94 % высказываний на языке ненависти до того, как об этом сообщит пользователь. Но, согласно внутренним документам, компания удаляла менее 5 % всех ненавистнических высказываний в Facebook.

84 % усилий Facebook по борьбе с дезинформацией направлены на США и только 16 % на другие страны. При этом американцы составляют менее 10 % ежедневных пользователей социальной сети. Слабая модерация контента в неанглоязычных странах делает платформу уязвимой со стороны злоумышленников и авторитарных режимов. Так, антимусульманская пропаганда неделями оставалась видимой для пользователей Facebook на севере Индии во время эскалации конфликта в Кашмире.

Об алгоритмах

Руководство Facebook давно заявляло, что искусственный интеллект решит проблемы компании по модерации контента, полного ненависти и чрезмерного насилия. Однако, согласно внутренним документам, искусственный интеллект Facebook не может последовательно идентифицировать видеоролики от первого лица, расистские тирады и даже разницу между петушиными боями и автокатастрофами.

В одном отчете за 2019 год, алгоритмы рекомендаций Facebook привели фиктивную учетную запись к крайне правой конспирологической группе QAnon, всего за пять дней. После президентских выборов в США Facebook ослабил введенные ранее меры по защите пользователей от контента, пропагандирующего насилие, дезинформацию и разжигание ненависти. Десятки страниц, созданные после удаления основной группы Stop the Steal сторонников Дональда Трампа, призывающих к насилию, не удалили. Сторонники QAnon также продолжили координировать свои действия, что привело к штурму Капитолия.


Подписывайтесь на наш Facebook


обложка: unsplash.com