Сегодня ИИ выступает мощным инструментом медиа: он облегчает сбор и проверку информации, автоматизирует редакционные процессы, помогает настраивать рекомендации и даже генерирует тексты. Однако растут и вызовы: технологии генерации текста и дипфейки могут породить волну дезинформации, подрывая доверие к СМИ
Искусственный интеллект (ИИ) — одна из самых обсуждаемых тем современности, и журналистика здесь не исключение. Хотя идея создать «мыслящую машину» зародилась еще в середине XX века, настоящая эра ИИ началась в XXI веке, когда термин и концепция закрепились благодаря Джону Маккарти, американскому информатику.
По мнению Белорусской ассоциации журналистов, нейросети открывают перед медиа новые горизонты, но вместе с этим порождают и серьезные проблемы. «Без ясных этических ориентиров технологии могут превратить привычные журналистские стандарты в хаос», — говорится в их заявлении.
Согласно отчету Thomson Reuters Foundation (TRF), в котором приняли участие более 200 журналистов из 70 стран, журналисты осознают риски ИИ:
- Дезинформация и предвзятость. Около половины респондентов (49%) обеспокоены тем, что ИИ может распространять ложную или вводящую в заблуждение информацию, особенно учитывая, что большинство моделей обучаются на данных, ориентированных на западные страны;
- Потеря профессионализма. Многие опасаются, что чрезмерная зависимость от ИИ ослабит редакторскую интуицию и негативно скажется на креативности и способности создавать оригинальные материалы;
- Разработка этических редакционных руководств, которые ставят во главу угла прозрачность и подотчетность редакций, а также доведение этих норм до сведения аудитории.
Как отмечает Валерий Ивановский, основатель «Московской медиагруппы», главный редактор «Московской газеты», материалы, созданные ИИ, часто очень низкого качества, потому что ИИ не умеет анализировать события с точки зрения человека — им не хватает глубины и аналитики.
Использование ИИ в создании журналистских текстов в ряде авторитетных изданий проходит в режиме эксперимента. Так, журналистка Financial Times вступила в соревнование с ИИ в написании статьи по проблемам занятости в Великобритании. Эксперимент оказался не в пользу журналистки, так как программа написала текст за 12 минут против 35 минут, которые были потрачены коллегой. И текст получился вполне релевантным. Однако ИИ, по мнению участницы эксперимента, оказался лишен главного журналистского навыка – определить новостную ценность и отделить важное от просто скучной информации.
Правовое регулирование ИИ пока не сформировано — технологии развиваются быстрее законодательства, поэтому главным остается этический подход на уровне создания кодексов общественных, профессиональных и государственных организаций.
В 2023 году в Париже создали хартию по использованию искусственного интеллекта и приняли важный документ, касающийся использования искусственного интеллекта в СМИ и направленный на защиту права на информацию, который содержит
десять заповедей для журналистов:
- Журналистская этика определяет способ использования технологий СМИ и журналистами: использование и развитие систем искусственного интеллекта в журналистике должно поддерживать основные ценности профессиональной этики, которые включают правдивость и точность, справедливость, непредвзятость, независимость, непричинение вреда, недискриминацию, подотчетность, уважение к неприкосновенности частной жизни и конфиденциальность источников.
- СМИ отдают приоритет человеческой деятельности: редакторы должны четко определить цель, сферу применения и условия использования каждой такой системы. СМИ должны обеспечить контроль за воздействием искусственного интеллекта, обеспечить строгое соблюдение правил его использования и сохранить возможность деактивировать в любой момент.
- Системы искусственного интеллекта проходят предварительную независимую оценку: ИИ должен соблюдать законы о конфиденциальности, интеллектуальной собственности и защите данных.
- Медиа всегда несут ответственность за контент: СМИ берут на себя редакционную ответственность за использование искусственного интеллекта для сбора, обработки или распространения информации.
- СМИ поддерживают прозрачность использования систем искусственного интеллекта: любое использование искусственного интеллекта, которое оказывает существенное влияние на производство или распространение журналистского контента, должно быть четко раскрыто и доведено до сведения всех, кто получает информацию вместе с соответствующими данными.
- Редакции обеспечивают происхождение контента.
- Журналистика проводит четкое различие между аутентичным и синтетическим контентом: СМИ следует отдавать предпочтение использованию реальных видеоматериалов и записей для отображения реальных событий, а также воздерживаться от создания или использования контента, созданного с помощью искусственного интеллекта, который имитирует снимки и записи реального мира или выдает себя за реальных людей.
- Персонализация содержания поддерживает разнообразие и целостность информации: разработка и использование систем искусственного интеллекта для автоматической персонализации и рекомендаций контента должны руководствоваться журналистской этикой. Они должны подчеркивать различные точки зрения по различным темам, способствуя открытости и демократическому диалогу.
- Журналисты, СМИ и группы поддержки журналистики занимаются управлением искусственным интеллектом.
- Журналистика поддерживает этические и экономические основы при взаимодействии с организациями искусственного интеллекта.
В 2020 году The Guardian опубликовала памятку по применению ИИ в редакции, где подчеркнула:
- СМИ несут редакционную ответственность за использование ИИ в сборе, обработке и распространении информации, отвечая за каждый публикуемый материал;
- любое использование ИИ, значимо влияющее на производство или распространение контента, должно быть прозрачно и доведено до сведения аудитории;
- СМИ должны использовать современные инструменты для подтверждения подлинности и происхождения публикуемого контента, обеспечивать достоверность информации о его источниках и изменениях.
Злата Понировская, руководитель образовательных программ в Prague School Media, советует воспринимать искусственный интеллект как ассистента, а не замену журналисту. Модели ИИ имеют свойство «галлюцинировать» — выдавать вымышленные данные, а их ошибки все еще многочисленны.
Особое внимание уделяется и безопасности: ни в коем случае нельзя передавать нейросетям конфиденциальную информацию, ведь «то, что попало в сеть, остается там навсегда».
Российские медиаисследователи предлагают ввести этическую маркировку текстов, созданных ИИ, запрет на его использование в вопросах морального выбора контента, а также совместную ответственность редакций и разработчиков за последствия использования систем ИИ.
На данном этапе развития искусственного интеллекта в журналистике еще не сформированы четкие правила, а они нужны прежде всего для сохранения самой журналистики как профессии повышенной социальной ответственности и поддержания общественного доверия к ней.
ИЛЛЮСТРАЦИЯ: SHUTTERSTOCK.COM