Эпоха постправды: маркировать фантазии ИИ — вопрос этики
Механизм маркировки контента, созданного искусственным интеллектом, обсуждают уже довольно давно, и вот видеохостинг YouTube сделал это первым, теперь и в российские онлайн-сервисы нужно ввести новое правило, заявил заместитель председателя комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин. Предлагается, чтобы пользователи сами помечали свои фото, тексты или видео, когда для их создания применялся ИИ, но сразу предусматривается второй вариант — создание государственной единой платформы, которая будет сама определять, использовался ИИ при создании контента или нет. Но для этого еще нужно обучиться, и кто будет отвечать за качество определения — не сам ли ИИ? В сложной и запутанной системе, как отделить зерна от плевел, а ИИ — от плодов человеческих усилий, хотя и первое без второго пока невозможно, — пыталось разобраться Накануне.RU.
ИИ несет опасность не потому, что нарушает чьи-то права, и не потому, что общественность опасается восстания машин и запуска процесса уничтожения человечества, как в фантастических фильмах, а потому что довольно искусно научился пародировать наш мир, и с помощью ИИ легко манипулировать информационной повесткой, создавая дипфейки политиков и плохие ненастоящие новости. Влияние на общественное мнение такими вбросами нужно предупредить, считают в Госдуме. Ложные пресс-релизы и сфабрикованные заявления могут спровоцировать даже военные конфликты, подобные опасения существуют во всем мире.
Первая задача — создать алгоритмы, которые будут отслеживать синтезированный контент, и здесь прячется главная проблема — технологии не стоят на месте, потому гонка будет нешуточная и очень затратная.
В странах, где строго подходят к защите персональных данных, возможно, и регуляторика контента будет более жесткой, говорит директор по стратегии и сооснователь IT-компании Руслан Ахтямов, но есть Китай, где подход совсем иной, там считают, что рынок технологий должен сам балансировать, и предубеждений насчет "Большого брата" там нет, к синтезированному контенту относятся проще. И в мире две диаметрально противоположные позиции неминуемо придут в конфликт.
"Я предпочитаю быть в лагере техно-оптимистов и считать, что те плюсы, дополнительные возможности и блага, которые создаются при помощи генеративного искусственного интеллекта, явно выигрывают у тех рисков, которые, безусловно, попадут в нашу жизнь", — говорит эксперт.
Пока главная задача для исследователей и создателей ИИ — приучить его к фактчекингу, но дисциплина дается сложно, ИИ часто фантазирует. Поэтому люди должны понимать, что сгенерировано нейросетью, уверена председатель совета Национальной ассоциации блогеров Мария Терентьева-Галицких, особенно это надо иметь в виду, когда речь идет о текстах — на картинке это просто угадывается.
"ИИ создает бесконечное поле ошибок, с которыми мы боремся последние лет 15, в борьбе за достоверность информации и в СМИ, и в блогосфере, — говорит Мария Терентьева-Галицких. — И это самое страшное, что нас ждет. Я считаю, что обязательно надо маркировать ИИ. Это будет честно по отношению к аудитории".
При этом эксперт отмечает, что маркировка ИИ — это вопрос этики. Люди, которые начинали разработку этих технологий, начинали с кодекса того, как будет развиваться сфера.
"Если бы мы были честны со своей аудиторией и маркировали рекламу словом "реклама", не нужно было бы делать это сейчас из-под палки. Сейчас, может быть, люди научены горьким опытом и всегда пишут или говорят — вот, этот рецепт нам сгенерировала нейросеть, вот, что получилось," — говорит председатель совета Национальной ассоциации блогеров Мария Терентьева-Галицких.
Но на сегодняшний день уведомлять аудиторию о том, что контент приготовила нейросеть, или не уведомлять об этом — дело добровольное. Этика мало кого ограничивает в Сети, это легко заметить по контенту. Юридически же все упирается в авторское право. Все же ИИ существует не сам по себе, каждый продукт фантазии ИИ — принадлежит той или иной платформе, а сервис — людям.
"Здесь вопрос о необходимости введения маркировки приобретает другой контекст, проблема в том, что человек выдает текст, сгенерированный чужим сервисом, за свой, — говорит юрист в сфере инфобизнеса Татьяна Чемидова. — То есть юридически два аспекта: нарушение прав сервиса искусственного интеллекта и введение потребителей в заблуждение".
Пока Минцифры только задумывается о том, чтобы создать платформу, способную отличать плоды трудов человеческих от фантазий нейросетей, технологии не стоят на месте. По мнению Руслана Ахтямова, все попытки "поймать" за хвост нейросеть и определить его долю в контенте, установить процент участия ИИ, при котором текст или изображение уже авторские, очень сложно.
"Мы входим в эпоху постправды, когда честность контента будет просто невозможно, — говорит эксперт. — Два года они будут пытаться создать сервис, который будет искать истоки генеративных сетей, языковых моделей, участвовавших в создании информационного объекта, но параллельно будет развиваться сто сервисов, которые будут эту природу скрывать".
Может, все будет как с запрещенными соцсетями и полулегальными приложениями, суровость закона компенсируется необязательностью их выполнения? А может, постправду удастся использовать в своих целях: не можешь победить — возглавь.