21 марта в медиацентре РОЦИТ состоялось заседание комиссии по новым медиа, посвященное теме «ИИ как часть контентной политики соцсетей». Эксперты и представители платформ обсудили развитие генеративных технологий, их влияние на регулирование, подходы к модерации и вызовы, возникающие на стыке технологий и прав человека.
Встречу открыл председатель правления РОЦИТ, заместитель председателя комитета Государственной Думы по информационной политике, информационным технологиям и связи Антон Горелкин. Он отметил, что искусственный интеллект уже давно используется в цифровой среде, прежде всего в рекомендательных алгоритмах. Однако его применение выходит за рамки подбора контента: «Многие интернет-сервисы используют нейросети для модерации, выявления фейковых аккаунтов, персонализации опыта. Но появляются задачи, которые невозможно решить без ИИ, например, борьба с дипфейками. Я считаю, что платформы должны внедрять инструменты, распознающие контент, созданный с помощью нейросетей, особенно видео- и голосовые дипфейки, и предупреждать об этом пользователей. При этом важно сохранять баланс между автоматизацией и человеческим контролем, чтобы нейросеть не нарушала права людей. И, конечно, мы заинтересованы в том, чтобы использовались отечественные ИИ-модели».
Продолжая тему цифрового суверенитета, основатель деловой социальной сети TenChat и группы компаний ВБЦ Семен Теняев обратил внимание на то, что данные, на которых обучаются нейросети, являются стратегическим ресурсом. По его мнению, с ними нужно обращаться так же осторожно, как с природными богатствами: «Представьте, у нас есть золотой рудник, только виртуальный, и его разрабатывают наши граждане, передавая данные сервисам. Но эти данные уходят за границу и становятся основой для развития чужих ИИ-систем. Мы считаем, что нужно ужесточить регулирование и обеспечить, чтобы российские генерации данных оставались внутри страны».
Далее выступила генеральный директор социальной сети LOOKY, эксперт РОЦИТ Анна Баринова. Она рассказала о том, как ее платформа использует ИИ не только для модерации, но и для создания контента самими пользователями: «ИИ – это, в первую очередь, помощник для нашей аудитории. Встроенная нейросеть позволяет создавать видео или изображения по тексту, нейрофильтры обрабатывают фото, а умные боты придумывают сценарии роликов и тексты для постов. Таким образом, люди включаются в процесс создания контента, а не просто его потребления».
Директор по работе с контентом RUTUBE Илья Емелин добавил, что ИИ эффективно используется для автоматической модерации, особенно в работе с текстами. Он отметил, что на практике это дает реальную нагрузочную эффективность: «Около 80% текстовой информации на платформе обрабатывается автоматически. Только 20% уходит на ручную модерацию. В 2023 году мы заблокировали примерно миллион единиц контента, а в 2024 – около трех миллионов. Это связано с ростом объема загружаемого видео. Сейчас наша библиотека насчитывает более 330 миллионов видео и продолжает расти».
Заместитель генерального директора интернет-энциклопедии РУВИКИ Елена Литовченко продолжила тему автоматической обработки информации, сделав акцент на точности и прозрачности источников. Она подчеркнула, что ИИ может быть полезным, если система построена правильно: «Мы экспериментируем с нейросетями в части авторского опыта и генерации контента. Среди очевидных преимуществ: возможность с помощью нейросетевого поиска быстро агрегировать информацию в сжатом виде для написания статей или их обогащения. Это позволяет оптимизировать труд редакции, уводя большую долю рутины в технологии, и значимо увеличивать выработку. Но есть и минусы: возможность натолкнуться на непроверенный источник, поэтому мы дополнительно алгоритмами проверяем их качество, не всегда понятный язык, так как нейросеть не чувствует контекст и отсутствие выразительности текста. А с точки зрения читательского опыта применение ИИ дает исключительно положительную обратную связь. Сейчас у нас более шести миллионов пользователей в месяц, и аудитория только растет. Пользователям удобно, что в РУВИКИ ИИ умеет не только находить нужный ответ, но и пересказывать его проще, короче или академичнее».
К теме взаимодействия автора и технологий обратился исполнительный директор по медиа Rambler&Co Андрей Цыпер. Он отметил, что авторы и ИИ могут гармонично функционировать вместе и создавать синергетический эффект – журналисты уже давно интегрируют технологии в свою работу: «Авторы активно используют искусственный интеллект для быстрой проверки орфографии или саммаризации текста – то есть краткого изложения его сути. Более того, нейросети с каждым днем все лучше обучаются, значит, процент искажения информации со временем может сильно снизиться».
По мнению Андрея Цыпера, сотрудничество контентмейкеров и искусственного интеллекта будет от года к году лишь укрепляться: «Несмотря на то, что ИИ продолжит интеграцию в различные сферы нашей повседневной жизни, технологии, конечно же, не заменят авторов, но при этом смогут существенно повысить их производительность и качество работы. Когда мы сможем полноценно доверять искусственному интеллекту, у журналистов, например, появится возможность больше времени уделять поиску эксклюзивной информации и сбору мнений экспертов».
Далее участники встречи перешли к обсуждению более широких культурных и этических аспектов использования ИИ. В частности, эксперт РОЦИТ Алексей Парфун напомнил, что любые технологии – это прежде всего люди, и подчеркнул важность инвестиций в образование и подготовку специалистов: «Я бы вкладывался в людей, усиливал бы университеты, создавал условия для роста специалистов. У нас сильная математическая школа и собственный менталитет – это наша опора и преимущество».
Руководитель отдела развития стратегических направлений АНО «Диалог» и эксперт РОЦИТ Тимофей Ви обратил внимание на культурные последствия повсеместного присутствия искусственного интеллекта в медиапотреблении. Он выразил обеспокоенность тем, как люди тратят время на просмотр контента, который не приносит никакой пользы: «Меня пугает, сколько времени люди проводят в социальных сетях, ставя бессмысленные лайки и смотря зачастую бесполезные видео, созданные ИИ, которые их не развивают. Мы тратим свою единственную жизнь на пустое, и это вызывает серьезную тревогу».
Опасения коллеги поддержал медиааналитик, эксперт РОЦИТ Павел Пряников, который акцентировал внимание на проблеме дипфейков: «Необходимо, чтобы ИИ сам отмечал подозрительные материалы и ставил соответствующие пометки. Это не просто вопрос авторского права – это вопрос безопасности. Мы можем столкнуться с трагедиями, если поддельный контент будет восприниматься как достоверный».
Журналист и блогер, эксперт РОЦИТ Илья Гогуа подчеркнул тревожный тренд на активное использование ИИ в информационной войне. В качестве примера спикер привел YouTube, который под прикрытием заявлений о «свободе слова» и «ценностях демократии» активно продвигает удобную ему повестку, используя для этого свои рекомендательные алгоритмы: «YouTube пессимизирует неугодный контент, и в результате пользователи в основном получают англоязычную, западную повестку. На этом контенте обучаются их модели, такие как Gemini. Пользователь, сам этого не осознавая, получает опасный западный нарратив».
Руководитель отдела по работе с партнерами проекта «Мастерская новых медиа», медиаэксперт Евгений Клещ завершил обсуждение призывом к выработке стандартов. Он отметил, что использование ИИ должно быть осмысленным, особенно в сфере креативных индустрий: «Важно понимать, как сейчас используются нейросети. Тот же рекомендательный сервис может формировать мнение и привычки пользователя, оставаясь для него черным ящиком. Мы должны стремиться к тому, чтобы ИИ не превращался в инструмент для создания цифрового шума, а становился основой для конструктивного и качественного контента».








