Как из «машины для текстов» сделать партнера?

Участники дискуссии о влиянии ИИ на медиа часто бывают сосредоточены на абстрактных вопросах будущего, этики и рисков, упуская из виду реальную практику взаимодействия с этой технологией. Предлагаем перейти от футуристических прогнозов к практике. То есть посмотреть, как происходит реальное внедрение ИИ на уровне сотрудника редакции и всего коллектива. 

Одной из ключевых проблем является непрозрачность алгоритмов машинного обучения, феномен «черного ящика». Даже обладая экспертизой в медиасфере, журналисты и редакторы не всегда могут интерпретировать и верифицировать результаты, генерируемые ИИ.

  • Проблема оценки качества. Представим, что алгоритм сгенерировал текст для статьи о новом законе. Как редактору оценить, насколько этот текст соответствует фактам, не содержит скрытых искажений, учитывает разные точки зрения, соответствует стилю издания? Просто «прочитать и поправить» недостаточно: необходимо проверить каждую фактическую деталь, каждый аргумент, каждую формулировку, как если бы текст писал человек.
  • Игнорирование контекста. ИИ, обученный на массиве новостных текстов, может не учитывать тонкости конкретной ситуации, особенности аудитории, редакционную политику издания. Например, он может сгенерировать заголовок, который хотя и соответствует фактам, но звучит некорректно или даже оскорбительно для определенной группы людей.

Эта непрозрачность порождает опасную иллюзию демократичности. Кажущаяся простота интерфейсов скрывает сложную технологическую основу, требующую для продуктивного взаимодействия специальных знаний и навыков. В итоге возникает риск некритичного использования ИИ для создания контента. Это чревато:

  • Распространением дезинформации. Алгоритмы могут генерировать фейковые новости, манипулировать фактами, создавать контент, направленный на формирование определенного общественного мнения.
  • Нарушением этических норм. ИИ может создавать контент, который усиливает стереотипы, дискриминирует определенные группы, нарушает принципы журналистской этики.
  • Снижением качества журналистики. Использование ИИ для массовой генерации шаблонного, неинтересного контента может привести к девальвации журналистской профессии.

Как приручить цифрового помощника

Исследователи особенностей взаимодействия науки и технологий (в частности работы Ли Стар, Джерсона и Фуджимуры) предлагают инструменты, которые могут помочь журналистским коллективам освоить новую технологию, не теряя контроля над ситуацией.

Шаг № 1: стандартизация

Ключевое условие – разработка общих стандартов для описания задач, форматов данных, оценки результатов работы ИИ в медиа. Речь идет о создании четкой системы координат, в которой будет существовать ИИ внутри редакции.

  • Редакционные руководства по использованию ИИ: В них прописывается, для каких целей и каким образом допустимо использовать ИИ, какие задачи он может выполнять, какие ограничения существуют.
  • Разработка метрик оценки качества контента, генерируемого ИИ: Эти метрики должны учитывать не только формальные параметры (грамматика, стилистика, уникальность), но и содержательные (фактическая точность, сбалансированность, непредвзятость, соответствие этическим нормам).

Шаг № 2: пограничные объекты

Речь идет о создании документов, CMS, баз знаний или аналогичных рабочих пространств, которые будут иметь общий смысл для разработчиков ИИ и журналистов, помогая им лучше понимать друг друга.

  • Визуализации данных, собранных ИИ: Например, графики, диаграммы, карты, которые наглядно представляют информацию, найденную ИИ, и помогают журналисту быстрее в ней ориентироваться.
  • Интерактивные прототипы: Например, прототипы статей, которые журналист может менять, добавляя свою информацию и редактируя текст, сгенерированный ИИ.
  • Глоссарии терминов, связанных с ИИ и журналистикой: Помогают журналистам разбираться в технической терминологии и эффективнее общаться с разработчиками.

Шаг № 3: фиксация неявного знания

Один из самых сложных, но важных моментов – перевод неформальных знаний, навыков и практик журналистской работы в формализованные инструкции, руководства, обучающие материалы для работы с ИИ. Это неявное знание, которое передается от учителя к ученику, из рук в руки, и его очень сложно описать словами.

  • Создание базы знаний по проверке фактов: Сюда могут входить списки надежных источников, типичные приемы манипуляции информацией, алгоритмы проверки фактов.
  • Описание процесса работы над материалом: Например, как формулируется запрос на поиск информации, как проверяется ее достоверность, как выстраивается структура текста, как учитываются интересы аудитории.
  • Обучение ИИ на примерах лучших журналистских работ: Это поможет алгоритмам лучше понимать нюансы стиля, композиции, подачи информации.

Шаг № 4: разработка промтов – обучаем ИИ говорить на языке журналистики

Чтобы ИИ стал действительно полезным инструментом для журналистики, важно научить его «говорить» на языке этой профессии. Для этого вам понадобятся:

  • Максимально точные и детальные промты (инструкции) для ИИ. Например, при задании на написание статьи важно указывать не только тему, но и ключевые факты, которые необходимо упомянуть, желаемый объем текста, стиль изложения, целевую аудиторию.
  • Учет неявных знаний: Например, в промте можно указать, что статья должна быть написана в нейтральном ключе, без использования эмоционально окрашенных слов, с обязательной ссылкой на первоисточник информации.

От «машины для текстов» к партнеру: как построить диалог с ИИ

Чтобы интеграция ИИ в медиа была успешной, необходимо преодолеть разрыв между разработчиками и журналистами, создать атмосферу доверия и взаимопонимания. Этому способствуют  постоянный диалог (важно регулярно обмениваться опытом, обсуждать проблемы, вместе искать решения), совместные проекты, где разработчики и журналисты будут вместе работать над созданием новых инструментов и форматов с использованием ИИ, а также разработка обучающих программ для журналистов по работе с ИИ, которые помогут им освоить новые навыки и понять возможности и ограничения технологии.


Фото на обложке: freepik.com