Дмитрий Гуляев, Генеральный директор Ассоциации электронных коммуникаций (РАЭК), высказал на форуме «Цифровые решения» предложение маркировать в сети контент, созданный человеком, а не ИИ. Нейросети, по его словам становятся все более активными, но создавая «маски», только подрывают взаимное доверие пользователей и ухудшает качество коммуникации.
Гуляев пояснил, что с рисками технического плана ведется, в целом, успешная работа. Гораздо сложнее — иметь дело с психологическим воздействием непроверенного контента на молодежь, и одними лишь правовыми механизмами проблему не решить. Нужно сформировать «информационный иммунитет» и спрогнозировать поведение пользователей, сталкивающихся с промаркированным контентом от ИИ и людей. Противодействие фейкам, по его словам — лишь часть более масштабной проблемы (распространения угроз информационно-психологической безопасности).
Мария Мезенцева, советник министра цифрового развития, связи и массовых коммуникаций РФ, отчасти согласилась с гендиректором РАЭК — в том, что надо создавать систему опознавания для отличия одного типа контента от другого. Она так же сфокусировалась на вопросе противодействия фейкам и предложила свою трехуровневую систему для этого: обучение молодежи медиаграмотности, самостоятельный мониторинг платформ и государственное регулирование.
Отметим, что накануне председатель комитета ГД по информполитике Сергей Боярский назвал идею маркировать контент, созданный людьми, более перспективной. В комментарии ТАСС он пояснил, что нейросети уже способны конкурировать с живыми пользователями сетей в создании контента и целых аккаунтов, а значит необходимы некие «водяные знаки», чтобы «вшивать в контент, созданный человеком, [для тех], кто хочет защитить свое изображение от возможной подмены смыслов».
Источник: AdIndex