Если в будущем роботы-репортеры будут перебрасываться в зону боевых действий беспилотниками, на каком этапе мы должны начать разговор об этической стороне происходящего?
У нас есть еще несколько лет, прежде, чем роботы станут повседневностью, но разговор идет уже сейчас, по крайней мере на том уровне, на котором технологии, основанные на искусственном интеллекте (ИИ) используются в новостных редакциях. В начале месяца на конференции-саммите «Будущее медиалидеров» (Future of Media Leaders’ Summit), организованной Al Jazeera, эксперты в разных областях — от медиа до машинного обучения — обсуждали, как их организации формулируют этические основы применения искусственного интеллекта — сейчас и в будущем.
Can a #drone drop a robot into a war zone to report? Doesn’t take a meal break- but can’t empathise with a story! Relationship between man and machine- our future co workers #FMLSummit @AlJazeera pic.twitter.com/Bs2NLWcoNp
— Morwen Williams (@morwenw) 5 марта 2018 г.
Moрвен Вильямс @morwenw
Может #дрон сбросить робота в зоне боевых действий, чтобы вести репортаж? На обед не прервется, но и сопереживать не будет! Отношения между человеком и машиной — нашим будущим сослуживцем #FMLSummit @AlJazeera
Этика ИИ стала одной из тем, которые рассматривали в Катаре участники саммита. Они обсуждали безопасность данных, облачные технологии и то, как искусственный интеллект может автоматизировать журналистику и дать ей новые силы.«Данные стали цениться гораздо выше, чем нефть», — заявил аудитории директор по информации и технологиям Al Jazeera Мохаммед Абуагла (Mohamed Abuagla) на презентации, в ходе которой обсуждалась и концепция дронов и роботов-репортеров.
ИИ уже внедрился в разные области медиаиндустрии — от формирования трендов в производстве сюжетов до модерирования комментариев. Военные корреспонденты-роботы — это, может быть, идея для далекого будущего. Но с ежедневно, ежечасно совершенствующимися алгоритмами машинного обучения, инновации в области ИИ происходят с захватывающей дух скоростью. Машины эффективнее человека, это точно. Но в такой человекоцентристской области, как журналистика, как применять этические нормы, выработанные для ИИ?
Глава дирекции перспективных технологий и стратегии ВВС Али Шах (Ali Shah) объясняет свой подход к моральному кодексу ИИ в журналистике. А Ясир Бишр (Yaser Bishr), исполнительный директор по цифровым технологиям Al Jazeera Media Network, делится своими взглядами на будущее ИИ в журналистике. Вот некоторые важные мысли.
Али Шах, ВВС
В своей презентации, а затем и во время панельной дискуссии Шах познакомил аудиторию с работой компании и с тем, как встраивание ИИ в разные части процесса производства на ВВС влияет на пользователя. И, рассказывая, вернулся к вопросу индивидуального выбора: «Каждый раз, когда мы оцениваем, где использовать [машинное обучение]… мы на самом деле оцениваем человеческие возможности, — говорит он. — Правильно ли было мое решение автоматизировать именно этот процесс? Если я говорю об усилении чьей-то роли, какие ценностные категории я усиливаю?»
Шах проиллюстрировал, как ВВС использует ИИ для работы с камерами, установленными в разных точках, и переключений между ними во время съемки, ускорения поиска цитат в записанном материале и рекомендаций для просмотра других сюжетов, пока онлайн-плеер показывает зрителю титры (ВВС и Microsoft экспериментировали и с голосовым интерфейсом ИИ). Но он подчеркивает, что эти инструменты с ИИ предназначены для того, чтобы автоматизировать, улучшить и усилить работу живого журналиста, а не обязательно заменить или вытеснить его. «Далеко не каждую проблему, которая стоит перед нами, может решить машинное обучение», — говорит он.
BBC гордится тем, что это один из мировых новостных брендов, который пользуется наивысшим доверием, и Шах подчеркивает, что необходимо соблюдать равновесие между доверием к организации и возможности индивидуального выбора. «Мы будем следить за балансом между функциональностью и эффективностью и той ролью, которую мы играем в обществе, — объясняет он. — Мы всегда должны признавать, что наша роль и в том, чтобы давать некоторый контроль и аудитории».
Он говорит о необходимости образовывать и инженеров, которые разрабатывают ИИ, и «массы», которые будут его желаемым потребителем. «Журналисты делают прекрасную работу, освещая эту тему, — говорит Шах, — но пред нами, теми, кто практически это применяет, стоит задача объяснить это аудитории, чтобы она имела контроль над тем, как машинное обучение и искусственный интеллект используются для воздействия на нее» (в прошлом ВВС выпускала видеоролики, разъясняющие эту технологию). «Мы, медиа, должны помнить, что мы храним ключи к пониманию людьми современного мира».
“The use of AI changes our behavior. Decisions are influenced and social norms change/evolve but we must make sure we are consciously aware of the effects of machine learning.”- Ali Shah of @BBC at #FMLSummit #AI
— Al Jazeera PR (@AlJazeera) 6 марта 2018 г.
«Использование ИИ меняет наше поведение. Оно влияет на решения, социальные нормы меняются, развиваются, но мы должны полностью отдавать себе отчет о воздействии машинного обучения», — Али Шах с @BBC на #FMLSummit #AI
«Речь не о том, чтобы затормозить инновации, а о том, чтобы понять, что поставлено на карту, — говорит Шах. — Выбрать свой темп по-настоящему важно».
Ясир Бишр, Al Jazeera Media Network
Бишр, который принимал участие в создании AJ+ и с тех пор использует Facebook для привлечения подписчиков для новой подкаст-сети Al Jazeera — Jetty — тоже говорит, что новые шаги надо делать с осторожностью.
«Скорость эволюции ИИ, которую мы переживаем, превосходит все, что мы делали раньше, — подчеркивает Бишр, говоря о прогрессе технологий вообще. — Мы все за инновации, но я считаю, что обсуждение вопросов регулирования должно идти в том же темпе».
В разговоре с Шахом, Райнером Келлерхальсом (Rainer Kellerhals) из Microsoft и Ахмедом Эльмагармидом (Ahmed Elmagarmid) из Катарского института компьютерных исследований (Qatar Computing Research Institute) Бишр напомнил о рисках, которые несут ИИ-алгоритмы: людей подгоняют под категории, вешают на них ярлыки и лишают их выбора. И вспомнил твиттер-бота Microsoft, от которого компания была вынуждена отказаться как пример предвзятости, которая может возникнуть на любом этапе. [Microsoft отключила твиттер-бота Tay, после того как собеседники научили его делать расистские комментарии — прим. пер.] «Риск существует не только в процессе обучения машины, но и тогда, когда машина начинает действовать», — говорит он.
Dr Yaser Bishr of @ALJazeera: “In the context of generating news and information, there is some degree of bias because the info is gathered by a human so there is that editorial interference” #FMLSummit #journalism #AI
— Al Jazeera PR (@AlJazeera) 6 марта 2018 г.
Д-р Ясир Бишр из @ALJazeera: «В контексте создания новостей и информации есть доля риска быть предвзятым, поскольку информацию собирает человек, поэтому существует определенное редакционное вмешательство» #FMLSummit #journalism #AI
Эльмагармид возражает на беспокойства по поводу скорости: «Да, все в движении, но оно непрерывно, — замечает он спокойно. — У нас есть время, чтобы адаптироваться. У нас есть время, чтобы взять все под контроль. Если мы оглянемся и посмотрим на промышленную революцию, на паровой двигатель… люди всегда воспринимают новые технологии как угрозу. Но в конце концов новостные редакции не просто сохранятся — это будут гораздо лучшие и более эффективные и интеллектуальные редакции».
«Искусственный интеллект это не промышленная революция, — не соглашается Бишр. — Но мы не торопимся использовать искусственный интеллект прямо сейчас».
Источник: niemanlab.org Заходная иллюстрация: shutterstock.com