Искусственный интеллект активно используется в медиа. Алгоритмы отслеживают пристрастия аудитории, ее активность под постами и публикациями. Они умеют составлять предложения, например The Washington Post использует технологию, которая сама пишет заголовки, настраиваемые под интересы читателей. Нейросеть генерирует музыку, создает картины и помогает писать тексты. Некоторые медийщики предрекают закат новостной журналистики из-за того, что на смену людям придут роботы.
Но наряду с «хорошими» ботами, которые помогают автоматизировать и упростить работу медиа, существуют и «плохие». Это алгоритмы, которые вредят пользователям интернета. Плохих ботов также можно поделить на две категории.
Первая — это простые, то есть те, которых мы сразу можем идентифицировать как ненастоящих пользователей. Такие боты пишут однотипные отзывы или сообщения, спамят под постами, накручивают лайки и т. д.
Вторая категория — сложные боты. Это аккаунты, которые кажутся настоящими, но на самом деле управляются компьютерной программой. Такие боты могут ввести пользователя в заблуждение или даже выманить ценную информацию.
Подробнее о ботах и их устройстве рассказал Максим Коломеец, эксперт Международного центра цифровой криминалистики СПб ФИЦ РАН, в рамках проекта «Бумаги» «Кампус».
— В обществе сложилось мнение, что боты — это роботы, которые ставят лайки самовлюбленным людям и пишут политикам дифирамбы. К сожалению, это только вершина айсберга. Подобные программы могут навредить как гражданину, так и компании или государству.
Основная цель ботов — это нарушение конфиденциальности пользователя. Кроме того, они могут подменять данные, нарушать целостность какой-либо информации или и вовсе ограничивать доступ к ней. Чтобы прийти к своей цели, бот должен добиться доверия человека.
«Простые» боты практически сразу распознаются человеком. Их выдают однообразные сообщения, нарушения в построении предложений, скачанные со стоков фотографии в профиле или созданный недавно аккаунт. Элементарная проверка — загружаете фото в поисковик. Если он показывает несколько идентичных профилей с этой фотографией — перед вами бот.
Сложных ботов распознать практически невозможно. Роботы приблизились к тому, что в ходе теста Тьюринга человек не может понять, с кем он общается, — с компьютером или человеком. Нейросеть создает внешность людей, которые никогда не существовали. Например, все портреты с сайта www.thispersondoesnotexist.com — ненастоящие. Через пару обновлений страницы вы найдете практически идеальное лицо, которое вполне может принадлежать собеседнику, но создано с помощью технологий.
По исследованиям НАТО за 2017 год стоимость комментария простого бота и сложного различается на 60 центов. Эти условные 60 центов — цена обмана пользователя. С развитием технологий разница в цене уменьшается, и мошенники могут использовать все более продвинутые алгоритмы.
Как боты могут навредить медиа?
Во-первых, на сайт или аккаунт в социальных сетях может быть совершена DDoS атака. Это чрезмерная активность на странице, когда боты заваливают вас однотипными комментами, случается резкий подъем посещаемости сайта или увеличение количества подписчиков. Сети считают такую активность ненормальной и замораживают страницу медиа. СМИ остается без канала коммуникации, а если через сети осуществляется подвязка к донатам, то медиа лишается и денег. Некоторые социальные сети, например Инстаграм, перестают показывать ваши посты в рекомендациях. Это так называемый «теневой бан» — ваши записи не видят пользователи, активность падает, контент идет «в никуда». С такой проблемой в начале февраля столкнулась команда «Горящей избы», когда на их профиль в Инстаграм была совершена атака ботов.
Во-вторых, боты могут подорвать доверие к СМИ или к его контенту. На некоторых новостных сайтах доступна функция комментирования под публикациями. Боты могут написать настолько токсичные комментарии, что пользователи не захотят ассоциировать себя с людьми, которые поддерживают написанное. Нейросеть может и продвинуть какие-либо новости в топ за счет накрутки просмотров. И хоть медиа не виновато, что на его ресурсах поселились боты, пользователи начнут избегать контент этого СМИ.
Что сделать, чтобы избежать неприятностей с ботами?
1. Использовать двухфакторную аутентификацию. Такой метод защитит ваш аккаунт от взлома. Классический совет «не используйте одинаковые пароли на разных сайтах» тоже работает. Предположим, ваш пароль от социальной сети и личного кабинета на сайте прачечной совпадают. Этот сайт может быть взломан, база логинов и кодов доступа утечет в интернет. А после этого мошенникам уже не составит труда зайти в ваш аккаунт. Базовая защита профиля особенно важна медийщикам, аккаунты которых привязаны к ресурсам СМИ.
2. Медиа могут попробовать вводить дополнительные ограничения, которые сделают жизнь бота как можно более ужасной. Например, кейс TJournal, которые удаляли комментарии, не набравшие пять лайков за три минуты. Конечно, ничто не мешает алгоритмам продолжать писать комментарии и накручивать на них лайки, но от простейших ботов это защищает. Пробуйте использовать модерацию комментариев, фильтровать контент. Реализуйте особые правила сообщества для своих подписчиков.
3. Подключайте нейросети и специальные программы. Это также поможет спастись от нашествия ботов на ваши ресурсы. Этот совет больше подходит для медиа, чем для простых пользователей, потому что закупка дополнительных программ защиты обойдется недешево.