Прогресс не стоит на месте, а четвёртая промышленная революция не за горами. Страны «большой двадцатки» обсуждают принципы обращения с искусственным интеллектом, в Японии появляются роботы-священники, французская армия тестирует робопса от Boston Dynamics, а секс-роботы американской компании Abyss Creations уже умеют вести беседу, симулировать оргазм и отказывать в сексе.
Смогут ли роботы мыслить? Будут ли у них права? Насколько этично создавать роботов для военных действий? Эти вопросы изучает робоэтика и киберфилософия. Научных работ на эти темы немного — оба понятия появились недавно и их часто используют как синонимы. Вместе с Яной Денисовой разберёмся поподробнее.
Терминология и законы
Термин «робоэтика» введён итальянским профессором Джанмарко Веруджио в 2002 году. Это направление находится на стыке этики и робототехники. Специалисты изучают, как роботы интегрируются в человеческое общество, и, конечно, следят за тем, чтоб всё было этично.
Начиная с середины ХХ века представления о робоэтике основаны на трёх законах Азимова из рассказа «Хоровод» (ориг. «Runaround»):
1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;
2) Робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону;
3) Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону.
Бендер, например, в первом эпизоде «Футурамы» нарушает все три закона: смотрит, как избивают человека, отказывается ему помогать и пытается покончить с собой. Да и сам Азимов находит лазейки в своих законах — в его рассказе «…Яко помниши его» (ориг. «That Thou Art Mindful of Him») два робота пришли к выводу, что органическое происхождение — необязательное условие для того, чтобы считаться человеком, и что истинные люди — это роботы, ведь они более совершенные и разумные создания. Именно этого опасался Стивен Хокинг. Учёный утверждал, что роботы могут стать новой формой жизни, способной улучшать и воспроизводить саму себя. По его мысли, искусственный интеллект в будущем превзойдёт людей и целиком заменит нас.
А ещё Азимов создал нулевой закон, по которому робот обязан действовать в интересах всего человечества, а не только отдельного человека. Этот закон противоречит первому и в принципе предоставляет роботам возможность трактовать его, как им удобно.
Многие профессора разрабатывают собственные правила, и есть целый ряд примеров того, как в мире пытаются регулировать киберфизические системы. В 2017 году дело доходит до России: представлен проект Модельной конвенции о робототехнике и ИИ. Наши соотечественники явно были вдохновлены конференцией Beneficial AI, на которой более двух тысяч учёных, включая Илона Маска и Стивена Хокинга, обсуждали безопасность ИИ и составили список из 23 пунктов. Среди них:
11) ИИ должен разрабатываться и использоваться так, чтобы соответствовать идеалам человеческого достоинства, прав, свобод и культурного разнообразия;
18) Следует избегать гонки вооружений в смертоносном автономном оружии. (Стивен Хокинг считал, что соперничество за лидерство в сфере искусственного интеллекта может привести к новой мировой войне);
23) Принцип общего блага: ИИ должен развиваться на благо всего человечества, а не одного государства или организации;
У термина «киберфилософия» также есть своё определение, но зачастую его используют учёные, которые занимаются робоэтикой. Их и называют «киберфилософами». Но о чём же они философствуют?
Первое — военные роботы и восстание машин
Если вернуться к Азимову, то становится очевидно: современные военные технологии нарушают первый закон (робот не может причинить вред человеку). Эта тема обсуждается особенно бурно, и к киберфилософам присоединились крупные правозащитные организации, такие как Human Rights Watch, создав кампанию «Остановите роботов-убийц» в ООН. Осознавая проблему, представители кампании выступают за мораторий на автономные системы вооружения. Эту позицию поддерживают 86 международных, региональных и национальных неправительственных организаций (НПО) в 32 странах. США и Россия в том числе против.
Один из ключевых аргументов исследователей: люди принимают сложное нравственное решение, когда отнимают у другого человека жизнь. Этически неверно доверять такой выбор машине, ведь ИИ не сможет оценить последствия в полной мере. Роботы не могут соблюдать международное гуманитарное право, они не различают гражданских людей и военных, что может привести к огромному числу жертв. Полностью автономное оружие может быть использовано не только во время военных действий, но, например, и для подавления протестов. В Северной Дакоте уже принят закон, разрешающий полиции вооружать свои дроны электрошокерами и оружием для стрельбы резиновыми пулями. Несмотря на то, что оружие разрабатывалось как нелетальное, оно всё равно может нанести вред или убить.
Ноэль Шарки, директор Международного комитета контроля за боевыми роботами в Великобритании, дополнительно обращает внимание на то, что военных роботов можно взломать и использовать против невинных. Уже были случаи преступного использования роботов для контрабанды наркотиков, воровства и слежки. А подросток из Коннектикута опубликовал на YouTube видео, где дрон стреляет из установленного на него полуавтоматического пистолета. Если сейчас оставить это без внимания, то мы рискуем столкнуться с большими проблемами в будущем.
Второе — секс
Как говорится: «Занимайтесь любовью, а не войной!» Роботы не исключение, но тут возникает много этических вопросов. Роботизированные бордели, секс-роботы, которые всё больше и больше похожи на настоящих людей — всё это происходит уже сейчас. С одной стороны, исследователи поддерживают развитие секс-роботов. Например, Дэвид Леви — автор одной из главных книг на эту тему «Love, Sex and Robots», уверен, что от секс-роботов будет больше пользы, чем вреда. Такие роботы будут незаменимы для одиноких, пожилых или людей с инвалидностью. Генеральный директор RealBotix поддерживает и говорит, что много лет занимается изготовлением секс-кукол для того, чтобы облегчить одиночество тех, у кого есть проблемы, связанные с человеческой близостью.
С другой же стороны, в 2015 году Доктор Кэйтлин Ричардсон создала «Кампанию против секс-роботов». В заявлении на официальном сайте проекта говорится, что такие технологии способствуют объективации женщин и детей, развитию проституции и сильно повлияют на взаимоотношения людей и их способность к эмпатии. По мнению Ричардсон, такие роботы будут усиливать стереотипы по отношению к женщинам и взгляд на отношения между полами как на удовлетворение чисто физических потребностей.
Неизвестно, как ещё подобные технологии могут повлиять на людей и картину мира в целом. Можно только гадать, какие последствия ждут нас, но смогут ли люди понести за них ответственность?
Третье — беспилотники
Многие слышали о проблеме вагонетки (а если не слышали — погуглите), и можно подумать: «Это всего лишь этический эксперимент, интересная тема, чтобы поспорить о том, как же нужно поступить». Кажется, что это нас никогда не коснется, а мы можем наблюдать подобные дилеммы только в кино.
Как в фильме «Я, робот», несмотря на требование главного героя спасти 11-летнюю Сару, робот спасает мужчину. Девочка не смогла выбраться из машины и утонула. По логике робота — нет смысла спасать человека, у которого меньше шансов на выживание. Это иллюстрация того, что нас может ждать в будущем. Беспилотные машины — больше не сказка. И именно киберфилософы решают, как же нужно поступить беспилотнику, чтобы не допустить тот сценарий, который мы видим в фильме.
Джейсон Миллар — профессор, участвующий в исследовательском проекте «Этическое программирование беспилотных машин» вместе с Патриком Лином (профессором философии и автором книг и статей в области робоэтики), в интервью «Снобу» отмечает, что на многие вопросы очень сложно прийти к единому мнению. Кто должен брать на себя ответственность? Производитель или покупатель? Лин склоняется к производителю, а Миллар — наоборот. Джейсон считает, что в итоге производители также не смогут прийти к одному решению. Одна компания будет выпускать машины, которые будут нацелены на безопасность пассажиров (как уже делает Mercedes-Benz), а другая — спасать жизни, выбегающих на дорогу кошек и собак. Ответственность за выбор будет лежать на каждом человеке. Но и такое разделение всё равно вызовет бурю общественных недовольств. Насколько страшно будет переходить дорогу с мыслью о том, что в случае опасности беспилотники спасут не вас?
Хейтеры возмутятся: «А зачем думать обо всём этом сейчас? Других проблем что ли нет?» Отвечаем словами исследователя Селмора Бринсжора:
«Если мы просто построим автономные машины и не подумаем заранее, как предохранить их от плохих дел, вот тогда у нас реальные проблемы. Тогда они смогут нас травмировать и даже убить. Вот почему так важно работать над этикой роботов сегодня. Когда у вас растёт ребёнок, и по мере того, как у него появляется интеллект, вы же не думаете: “Ну ладно, побеспокоюсь о его воспитании завтра”. Такие процессы важно отслеживать вовремя».
Кстати, Бринсжор работает над довольно необычным исследованием: допустимо ли с этической точки зрения позволять роботу покончить с собой. У робота запрограммировано 35 эмоциональных состояний. Сознания, конечно, нет (ещё?), но в теории может произойти сбой, который и спровоцирует рободепрессию. В конце концов, вспоминаем «Будку самоубийств» из «Футурамы», в которой Бендер хотел покончить с собой, когда узнал, что всё, сгибаемое им, уходит на их постройку. Всё не просто так!
И это только часть вопросов, над которыми бьются киберфилософы, но они самые актуальные. Роботы — уже не далёкое будущее, а настоящее, которое касается каждого. Нам остаётся только смотреть, ждать и гадать, что же будет дальше.