Распространенный миф, замешанный на страхе: скоро зловещие машины заменят всех авторов и редакторов. Вот-вот наступит эра бездушных текстов. Искусственный интеллект, алгоритмы, роботы (для простоты будем считать все эти понятия синонимами в рамках этой статьи) — такими страшилками пугают друг друга журналисты, зачастую не понимая специфики темы.
Несмотря на все опасения, пока искусственный интеллект не нас только продвинут, чтобы совладать с этикой, поиском смысла жизни и с эмпатией. Давайте рассмотрим подробнее несколько важных тезисов с аргументами, которые умерят наши тревоги.
ТАБЛЕТКА № 1. «БУРАТИНО БЫЛ ТУПОЙ»
В Рунете есть такая забава — нейросеть «Порфирьевич», которая дописывает за вас тексты. Это русскоязычный аналог нейросети GPT-2 от компании OpenAI (кстати, Илон Маск один из ее основателей). Нейросеть училась на текстах русских классиков: Достоевского, Толстого, Пушкина, Булгакова, Гоголя и Пелевина. Собственно, имя «Порфирьевич» отсылает к Порфирию Ивановичу — виртуальному персонажу романа Виктора Пелевина.
На основе его текстов была создана отдельная версия этих книг. Теперь знаете как? «Как знать». Ладно, батенька, вы пришли.
Что? ДА: абзац выше из трех предложений сгенерировал «Порфирьевич». Сами понимаете, смысла в этих словах нет, хотя грамматически, морфологически и синтаксически конструкции могут быть правильные (да и то не всегда). Точнее даже, смысл мы сами «вчитываем», а нейросеть просто комбинирует слова и выражения без понимания их смысловой связи с внешним для нее, нейросети, миром.
,
,
Это все потому, что пока ни один искусственный интеллект не обладает такими развитыми сенсорами, как человек. У людей есть глаза, уши, тактильные рецепторы. Мы также различаем вкусы/запахи, у нас есть ощущение пространства. В машину же просто загружается массив текстов, на которых она учится. Ну, как «учится» — скорее, формирует некоторый набор правил при комбинировании элементов текста.
ТАБЛЕТКА № 2. УНИКАЛЬНОСТЬ И СМЫСЛ
Человек с детства впитывает в себя петабайты информации, часто даже неосознанно, формирует миллиарды связей между нейронами.
Кроме того, человек — это сложное сочетание биологических процессов, физических, химических, электрических реакций. Такой сложной комбинаторики не в состоянии добиться пока ни один вычислительный центр.
Возможно, когда квантовый компьютер будет в каждой кофеварке, путем объединения всех устройств в глобальную сеть и удастся создать искусственный сверхразум. Но пока это звучит как фантастика. Ну и этому сверхразуму точно будет чем заняться. И будут у него дела поважнее, чем подсиживать редактора районной газеты.
Так что с генерацией осмысленных текстов у роботов пока большие сложности. Однако в части анализа больших объемов информации, вычленения оттуда фактов, имен, взаимосвязей и вообще значимых данных — здесь человеку до алгоритмов далеко. И опять же: в этом случае ИИ выступает в роли исполнителя задания, которое формулирует человек.
Поэтому интеллектуальным цифровым системам лучше всего даются тексты, связанные с задачами, которые находятся в системе правил и запротоколированных отношений: это разного рода игры и спортивные состязания (от шахмат до волейбола), формализованные документы и ситуации (например, юридические договоры или игра на бирже), инструкции, мануалы и гайды.
Роботу можно поручить автоматически писать про погоду, курс доллара или ход футбольного матча, даже делать аналитику по фондовому рынку. Но искусственный интеллект не возьмет глубокое интервью, не сделает вовлекающий репортаж, не напишет едкий фельетон.
Подробнее о том, что могут и чего не могут робоавторы, рассказано в статье на Rusbase «AI-журналист, писатель и поэт».
ТАБЛЕТКА № 3. ЭТИКА И ЦЕННОСТИ
Про робоэтику мы в трендах новых медиа от MediaToolbox говорили еще в 2017 году. Ключевая мысль в том, что машинный интеллект не понимает этических проблем и действует в соответствии с интересами его создателей и заказчиков. Но на страже этики по-прежнему стоят живые люди. Именно биожурналисты, а не робоавторы, рассказывают людям о важном, ценном, общественно значимом. И пока никакие интеллектуальные системы не могут составить в этом людям конкуренцию. Скорее наоборот: люди сами развивают дискуссию по проблемам ограничения использования робосистем при создании, дистрибуции и анализе контента, к которому чувствительно человеческое сознание. То есть люди опасаются бездумного применения роботов там, где вопросы касаются человеческих отношений и представлений о хорошем и плохом.
Тренд на понимание важности этики в работе с алгоритмами и большими данными, а также безопасности данных людей все более усиливается. Мы уже видели дело Cambridge Analytica. Когда алгоритмы, направляемые людьми, помогли выстроить микротаргетинг и породили эффект «новой пропаганды»: теперь убеждающие сообщения доставляются до микрогрупп, опираясь на анализ психотипов и поведения в соцмедиа. В этом случае этику променяли на политическую целесообразность (и, похоже, на деньги).
,
,
Но опять-таки только благодаря живым и неравнодушным журналистам общественность смогла восстановить всю картину произошедшего. И в итоге Facebook обязали выплатить 5 млрд долларов штрафа за утечку данных пользователей, а Cambridge Analytica заявила о банкротстве.
Ну и понятие «репутация» может формироваться только у живых людей. Алгоритму буквально «все равно», он ничем не рискует, не несет ответственности за сказанное, его невозможно поймать на слове и призвать к ответу.
ТАБЛЕТКА № 4. ЧЕЛОВЕК ДЕШЕВЛЕ, НО ДОРОЖЕ
Это может прозвучать неприятно и обидно, но пока сложные интеллектуальные системы проигрывают человеку в соотношении «цена — качество». Покуда можно нанять годного автора (причем на аутсорс или удаленку) дешевле, чем разворачивать роборедакцию, человек застрахован от увольнения.
Чем менее рутинными и шаблонными темами и текстами занимается человек-автор — тем крепче его позиции на рынке труда. Роботы рано или поздно заменят линейных бухгалтеров, юристов, маркетологов и даже аналитиков. Но репортера, интервьюера, публициста не подвинут еще долго. И тут снова на помощь приходит предыдущий пункт: о важном и ценном машина за отсутствием фантазии, эмпатии, эрудиции, остроумия вряд ли сообщит другим людям.
Пока еще люди — «животные социальные» и хотят общаться и равняться на себе подобных, а не на бесконечное число пусть даже правильных комбинаций слов от алгоритма. Да и поставщиком источников знаний о внешнем мире для машин все еще остаются люди (если мы говорим про генерацию тестов). Исходя из этой позиции, слово человека весит больше, оно дороже. Поэтому хомо-автор пока еще выгоднее вдвойне: дешевле экономически и дороже социально.
Есть также версия, что ценность высказывания одного человека для другого определяется не только социальным статусом, профессионализмом, уровнем знаний и интеллекта. Но и конечностью существования человеческой жизни: люди смертны и потому прислушиваются к опыту других. Если так рассудить: какое мне дело до пусть даже умных высказываний и советов алгоритма, если мое время, конечно (в том числе и чтобы что-то слушать и воспринимать). А алгоритм, по сути, бессмертен. Одно это понимание порождает недоверие к «железкам».
ТАБЛЕТКА № 5. НЕ КОНКУРЕНЦИЯ, А СОТРУДНИЧЕСТВО
Если не слушать паникеров и алармистов, а смотреть рационально и трезво на уже наступившее будущее, то роботы могут стать лучшими друзьями людей. Просто нужно использовать сильные стороны друг друга: человек может ставить нужные вопросы, «подкармливать» роботов нужными наборами данных (дата-сетами), смотреть на результаты и их интерпретировать.
Машина же готова беспрерывно и неутомимо отвечать на вопросы человека, перелопачивать массивы данных, находить корреляции и парадоксы, совпадения и расхождения в данных. Но смыслом все эти находки может наделить только человек. И только он сможет объяснить ценность и важность найденного и сделанного. Таким образом, формируется эффективный человеко-машинный комплекс.
И что с того, что дистрибуция становится все более алгоритмизированной? В этом тоже видится сотрудничество: человек готовит уникальный контент, а роботы анализируют интересы людей и подыскивают подходящую, релевантную аудиторию, которой можно его показать. По такому принципу работают, например, умные ленты в социальных сетях. Кстати, это тоже тренд, который развивается уже не первый год (jrnlst.ru/5-trends).
В общем, людям и машинам делить нечего, если рационально и мудро распределить полномочия. Ну и следить, чтобы какие-то «сумрачные гении», корпорации или государства тайно не сконструировали суперразум, который способен манипулировать людьми. Не допустить этого должны также сами люди, в частности, добросовестные журналисты из плоти и крови.
,