Кто следит за искусственным интеллектом?

Искусственный интеллект уже используется везде – от персонализации рекламы в соцсетях до поиска экзопланет в глубинах космоса. При этом до последнего времени на законодательном уровне разработка и применение ИИ регулировались недостаточно: первый всесторонний закон вышел только в марте 2024 года в Евросоюзе. Рассказываем, что нужно знать об использовании ИИ в журналистике и как контролируют нейросети в мире.

Почему нужен регламент?

Законодательное регулирование применения ИИ стало формироваться в конце 2010-х годов. Нейросети становились мощнее, и определение их правового статуса оставалось лишь вопросом времени. В то же время в инфополе появлялось всё больше требований ограничить использование технологии. Так, в марте 2023 года Илон Маск и Стив Возняк, сооснователь Apple, поддержали открытое письмо Future of Life, цель которого – приостановить разработки сверхинтеллекта, подготовить протоколы безопасности и механизмы защиты.

Резонансным стал уход из Google  Джеффри Хинтона в том же 2023 году. Вместе с двумя аспирантами в 2012 он создал нейросеть, которая совершила технологический прорыв, вернула интерес к ИИ и привела в сферу множество инвесторов. Теперь же Хинтон заявил, что ИИ опасен, и грань между правдой и вымыслом может быть навсегда стёрта. Кроме того, он высказался о необратимых переменах на рынке труда, которые затронут людей по всему миру. Действительно, в этот же день стартовала почти 150-дневная забастовка Гильдии сценаристов и, следом, 118-дневная забастовка Гильдии актёров. Крупнейшие в истории США отраслевые протесты в том числе были связаны с угрозой замены сотрудников нейросетью.

В мире

Единого подхода к регулированию нейросетей пока нет: страны самостоятельно устанавливают степень свободы их применения. Китай, к примеру, стал первой страной, создавшей правила для генеративного ИИ. Они разработаны в 2023 году Управлением киберпространства Китая и распространяются на все доступные в стране нейросети. В опубликованном документе 24 правила, которые должны предотвратить создание контента, противоречащего требованиям безопасности, политике и идеологии Китая. Так, теперь каждая нейросеть должна получить специальную лицензию перед запуском. При этом, если незаконный контент всё же будет найден, разработчики должны будут переписать алгоритм и предоставить государству базу данных, на которой обучался ИИ. Пользователи же обязаны ставить обязательную маркировку под материалами нейросети – текстовыми, визуальными или аудиальными. Это поможет отделить контент человека от сгенерированного, отмечать дипфейки и стабилизировать положение на рынке труда среди журналистов, художников, музыкантов и представителей других творческих профессий. Также правила содержат положения об этике, верификации приложений, нечестной конкуренции и манипуляциях с использованием ИИ. Такая мера, по заявлениям правительства Китая, должна помочь развить перспективную отрасль и при этом снизить риск возможных угроз.

В США, напротив, подход не такой комплексный. Причина в особенностях системы права: кроме общего законодательства есть и местное, действующее внутри отдельных штатов. Так, к примеру, в штате Теннесси с марта 2024 года действуетзакон ELVIS (Ensuring Likeness Voice and Image Security), название которого косвенно отражает его направленность – защиту исполнителей от использования их голоса и музыки нейросетями. Это первый в США закон, обращённый к взаимодействию музыкантов и ИИ. Спустя пять месяцев появились правила и для журналистов. Их разработало агентство Associated Press для собственных изданий – The New York Times, The New York Herald, The New York Evening Express и других. В отличие от предыдущего закона, документ не столько защищает журналистов от ИИ, сколько регламентирует их совместную работу. Так, технологию пока нельзя использовать для автономной работы, поскольку факты могут оказаться недостоверными. В то же время допускается использование нейросетей для упрощения рутинной работы: создания заголовков, идей для материалов, вопросов для интервью или внесения правок.

В России полного свода правил пока нет, однако при работе с ИИ могут вводиться экспериментальные правовые режимы (ЭПР). В таком случае на время эксперимента перестает действовать ранее принятый закон – полностью или частично. Правила ограничены временем и территорией, позволяя плавно их протестировать и, при необходимости, быстро отменить. На август 2024 года в России действуют 14 ЭПР, пока только в сферах беспилотного транспорта и здравоохранения. Также с 2021 года действует специальный этический кодекс. Он касается как разработчиков, так и пользователей, определяет права, обязанности, приоритеты, некоторые технические требования и недопустимые действия. Причём большое внимание отводится ответственности: подчёркивается, за все действия нейросети отвечает человек, а не алгоритм. Документ подписали многие ведущие компании – Сбер, Яндекс, «Газпром нефть», VK и другие. В данный момент в разработке находится полноценный закон об ИИ, а также закон о маркировке сгенерированного контента.

Первый всесторонний закон о нейросетях

В марте 2024 года Европарламент принял первый и крупнейший в мире отраслевой закон об ИИ. Регламент Европейского союза рассматривает нейросети с различных сторон и создаёт общую нормативно-правовую базу. Причём правила относятся как к нейросетям, разработанным в Европе, так и к зарубежным, действующим на территории Евросоюза. О том, в чём этот закон принципиально отличается от предыдущих, мы узнали у Дмитрия Кутейникова, практикующего юриста и исследователя в сфере AI Governance, кандидата юридических наук и автора телеграм-канала howtocomply_AI: право и ИИ.

Прежде всего, регламент охватывает все виды искусственного интеллекта и все отрасли, кроме военной, тогда как в других странах законы преимущественно направлены на отдельные сферы жизни. Также документ впервые законодательно классифицирует ИИ по степени риска: запрещённые системы, системы с высокой степенью риска и остальные системы. Но, несмотря на масштаб, этот закон – не панацея и не способен решить все проблемы, отмечает Дмитрий: «скорее, регламент занял место одного из ядер (в ЕС есть масса других актов, связанных с ИИ), вокруг которых в дальнейшем будет выстроена более-менее целостная система правового и технического регулирования».

На данном этапе составить полноценный свод законов для этой отрасли трудно. В первую очередь важно сделать процесс разработки и применения нейросетей безопасным и в то же время максимально способствовать развитию технологии. Поэтому «сегодня речь скорее идет о том, чтобы создать систему, включающую в себя нормативное правовое, техническое и этическое регулирование. При этом такая система должна быть достаточно гибкой, чтобы адекватно отвечать изменяющимся технологическим реалиям». Поэтому целесообразно постепенно вводить законодательное регулирование в отдельных, наиболее чувствительных сферах общественной жизни, считает Дмитрий.  Мера также может помочь бизнесу, поскольку регламент формулирует рекомендации для лучших решений и обобщает лучшие практики.

В то же время закон вызвал неоднозначную реакцию внутри отрасли: одни эксперты верят в саморегуляцию сферы, другие уверены, что лучше и надежнее обеспечить полный контроль. Дмитрий подчеркивает, что истина всегда находится посередине: в сочетании мягкого и жесткого регулирования. Так, в наиболее опасных для прав человека областях применение нейросетей недопустимо и должно быть запрещено на законодательном уровне. Чувствительные сферы нуждаются в конкретных юридических требованиях, которые позволят понять: «В каких случаях ИИ используется, почему принимает те или иные решения, как их можно оспорить и кто за них отвечает».

Кроме того, активно обсуждается применение ИИ на государственном уровне. Важно способствовать прозрачности процесса и полностью исключать какую-либо произвольность, отмечает Дмитрий:

Государство должно тесно работать вместе с технологическими компаниями, чтобы оперативно разрешать неоднозначные с юридической точки зрения вопросы в отсутствии законодательства. Для этого во многих странах и регионах органы публикуют так называемые акты мягкого регулирования: принципы, рекомендации, фреймворки, кодексы лучших практик.

При этом сферу авторского права, одну из самых обсуждаемых в СМИ, закон пока затрагивает ограниченно. «В нём однозначно определено самое важное: любое использование контента, защищенного авторским правом, требует разрешения соответствующего правообладателя, за некоторыми исключениями из других актов. Также на отношения, связанные с ИИ, полностью распространяются требования общего законодательства в сфере интеллектуальной собственности, – поясняет Дмитрий.

Кроме того, создатели нейросетей будут в обязательном порядке публиковать развёрнутую информацию о данных, на которых обучались модели ИИ. Это поможет избежать ситуаций, когда нейросеть будет копировать стилистически или визуально произведения, защищённые авторским правом. Однако более подробно о конкретном содержании таких отчетов, отмечает Дмитрий, мы узнаем в дальнейшем, когда Еврокомиссия издаст соответствующие рекомендации.