РОЦИТ проверил соцсети на предмет борьбы с «группами смерти»

03 April 2017

РОЦИТ продолжает следить за работой соцсетей с «группами смерти» и решил на практике проверить, как быстро площадки блокируют контент суицидальной тематики. Выяснилось, что только одна из трех проверенных соцсетей оперативно удаляет опасные посты.

Организаторы эксперимента создали публичную страницу ВКонтакте, сообщество в Фейсбуке и аккаунт в Инстаграм, в названиях которых использовали характерные для «групп смерти» слова: синий кит, тихий дом, blue whale. На страницах разместили мрачные иллюстрации и стихи, а посты отметили типичными для суицидальных пабликов хештегами: #синий, #разбуди, #куратор, #тихий, #море, #куратор_жду, #домтихихкитов, #жду, #тихийдон,#киты, #f52, #начатьигру, #моректов, #f48, #разбуди, #хочуиграть, #мне_не_станет_восемнадцати, #ищу_куратора, #вигре, #нуженкуратор, #разбуди_меня_в_4_20, #играначалась, #f56.

После публикации оценивалась скорость реакции модераторов или системы на подобные записи, которые появлялись каждые два часа. ВКонтакте посты удалялись в течение нескольких минут, максимум — пары часов, а сообщества блокировались. На других площадках материалы провисели больше суток, после чего группы были удалены или скрыты настройками приватности.

Социальные сети активно борются с суицидальными пабликами. ВКонтакте с начала января 2017 года заблокировала более 600 тысяч бот-аккаунтов, единственная цель которых — распространять тематические хэштеги.

По словам представителей площадки, у них есть собственные технологии на основе нейросетей и искусственного интеллекта, которые используются для анализа записей пользователей. Страницы, на которых обнаружены хештеги «групп смерти», блокируют, а автора спорного поста просят объяснить причины публикации. В зависимости от ответа, ему предлагают помощь психологов фонда «Твоя территория», дают совет по улучшению безопасности страницы или призывают не распространять опасные записи и хештеги даже в рамках борьбы с ними.

С февраля у каждого пользователя появилась возможность пожаловаться на подозрительные сообщества и посты в службу поддержки, указав причину «Призывы к суициду».

Зарубежные социальные сети также борются с суицидальными контентом. В марте Фейсбук объявил о начале внедрения алгоритмов искусственного интеллекта для поиска в постах и комментариях упоминаний суицида. Специалисты анализируют найденные материалы и вмешиваются в случае необходимости.

Пользователь также может сообщить администрации соцсети, что друг находится в критической психологической ситуации, и ему предложат профессиональную помощь.

Похожая функция недавно появилась и в Инстаграме. Автор подозрительного поста или опасного хештега после сигнала от другого пользователя получит сообщение: «Кто-то увидел ваш пост и думает, что вам может быть морально тяжело в данный момент. Если вам действительно нужна помощь, мы будем рады помочь». После чего пользователь узнает, как связаться с психологом, позвонить в службу поддержки или поговорить с другом.