Искусственный интеллект могут признать субъектом со своими правами, и это приведет к технофашизму - вице-президент Сколтеха
Если устройства с искусственным интеллектом признают субъектами общества, это приведет к чудовищным последствиям. Об этом заявил вице-президент в области искусственного интеллекта (ИИ) и математического моделирования Сколтеха, кандидат физико-математических наук Максим Федоров в интервью Российскому совету по международным делам.
"Во времена индустриализации и автоматизации производства человек был производительной силой. Сегодня же люди как потребители технологий перестают быть нужны", - сказал он об экономической составляющей прогресса в области ИИ.
Федоров отметил, что развитие ИИ ставит перед человеком ряд философских и этических вопросов, которые гораздо важнее технических. И если на них не ответить сейчас, выработав соответствующие обязывающие документы, то через 10 лет может быть уже поздно.
По его мнению, существует особенно опасная тенденция - придавать ИИ свойства субъекта. Так, в международной группе экспертов ЮНЕСКО, которая занимается подготовкой первых глобальных рекомендаций по этике ИИ, идут острые дискуссии. Есть ряд государств, которые выступают за то, чтобы считать роботов общественными субъектами со своими правами.
"Это опасная тенденция, которая может привести к своего рода технофашизму, затмевающему в своей бесчеловечности все чудовищное в истории нашей цивилизации. Как только мы наделим правами ИИ, за этим сразу последует мысль, что обижать ИИ нельзя, а надо воспитывать (это не шутка, подобные заявления уже делаются на конференциях высокого уровня по этому вопросу). Появится своеобразная "ювенальная юстиция" для ИИ, только она будет на порядок страшнее. Роботы будут защищать права роботов. К примеру, может прилететь дрон и испепелить вашу квартиру, защищая права другого дрона. Это будет технорасизм, но подчиняющийся воле отдельной группы людей", - говорит Федоров.
Он подчеркивает, что у ИИ нет своего "я", и эти тенденции скрывают желание некоторых продвигать свои интересы через роботов, оставаясь в стороне и полностью избегая какой-либо ответственности. К счастью, пока что большинство стран выступают против этой идеи, отметил он.
При этом Россия была единственной стороной, которая четко заявляла, что в принятии решений по вопросам этики ИИ нужен научный подход. К примеру, колоссальные вычислительные мощности позволяют смоделировать миллионы сценариев развития событий, чтобы принимать какие-то решения. Но многие страны апеллируют только к своим представлениям, что очень опасно.
Еще одна проблема развития ИИ - то, что люди теряют контроль над своими жизнями, полностью доверяя алгоритмам Google, Amazon и других гигантов, которые диктуют им, чтó читать, смотреть или покупать. И люди "обожествляют" ИИ.
Ранее специалист в области ИИ и социальных сетей, президент компании "Крибрум" Игорь Ашманов в связи с усилившимся контролем за перемещением людей неоднократно подчеркивал, что ИИ ни в коем случае нельзя отдавать права на автоматическое принятие решений, которому должны подчиняться люди, в частности право на штрафование или другое наказание. Конечное решение должны принимать только люди.
Отметим, что 1-3 июля в Сколтехе под председательством Федорова пройдет первая онлайн-конференция, посвященная проблемам устойчивости, прозрачности и надежности ИИ.