18+ Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?

Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?

Яна Денисова

Прогресс не стоит на месте, а четвёртая промышленная революция не за горами. Страны «большой двадцатки» обсуждают принципы обращения с искусственным интеллектом, в Японии появляются роботы-священники, французская армия тестирует робопса от Boston Dynamics, а секс-роботы американской компании Abyss Creations уже умеют вести беседу, симулировать оргазм и отказывать в сексе.

Смогут ли роботы мыслить? Будут ли у них права? Насколько этично создавать роботов для военных действий? Эти вопросы изучает робоэтика и киберфилософия. Научных работ на эти темы немного — оба понятия появились недавно и их часто используют как синонимы. Вместе с Яной Денисовой разберёмся поподробнее.

Терминология и законы

Термин «робоэтика» введён итальянским профессором Джанмарко Веруджио в 2002 году. Это направление находится на стыке этики и робототехники. Специалисты изучают, как роботы интегрируются в человеческое общество, и, конечно, следят за тем, чтоб всё было этично.

Начиная с середины ХХ века представления о робоэтике основаны на трёх законах Азимова из рассказа «Хоровод» (ориг. «Runaround»):

1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;

2) Робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону;

3) Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону.

Бендер, например, в первом эпизоде «Футурамы» нарушает все три закона: смотрит, как избивают человека, отказывается ему помогать и пытается покончить с собой. Да и сам Азимов находит лазейки в своих законах — в его рассказе «…Яко помниши его» (ориг. «That Thou Art Mindful of Him») два робота пришли к выводу, что органическое происхождение — необязательное условие для того, чтобы считаться человеком, и что истинные люди — это роботы, ведь они более совершенные и разумные создания. Именно этого опасался Стивен Хокинг. Учёный утверждал, что роботы могут стать новой формой жизни, способной улучшать и воспроизводить саму себя. По его мысли, искусственный интеллект в будущем превзойдёт людей и целиком заменит нас.

А ещё Азимов создал нулевой закон, по которому робот обязан действовать в интересах всего человечества, а не только отдельного человека. Этот закон противоречит первому и в принципе предоставляет роботам возможность трактовать его, как им удобно.

Многие профессора разрабатывают собственные правила, и есть целый ряд примеров того, как в мире пытаются регулировать киберфизические системы. В 2017 году дело доходит до России: представлен проект Модельной конвенции о робототехнике и ИИ. Наши соотечественники явно были вдохновлены конференцией Beneficial AI, на которой более двух тысяч учёных, включая Илона Маска и Стивена Хокинга, обсуждали безопасность ИИ и составили список из 23 пунктов. Среди них:

11) ИИ должен разрабатываться и использоваться так, чтобы соответствовать идеалам человеческого достоинства, прав, свобод и культурного разнообразия;

18) Следует избегать гонки вооружений в смертоносном автономном оружии. (Стивен Хокинг считал, что соперничество за лидерство в сфере искусственного интеллекта может привести к новой мировой войне);

23) Принцип общего блага: ИИ должен развиваться на благо всего человечества, а не одного государства или организации;

У термина «киберфилософия» также есть своё определение, но зачастую его используют учёные, которые занимаются робоэтикой. Их и называют «киберфилософами». Но о чём же они философствуют?

Love, Death & Robots / Netflix

Первое — военные роботы и восстание машин

Если вернуться к Азимову, то становится очевидно: современные военные технологии нарушают первый закон (робот не может причинить вред человеку). Эта тема обсуждается особенно бурно, и к киберфилософам присоединились крупные правозащитные организации, такие как Human Rights Watch, создав кампанию «Остановите роботов-убийц» в ООН. Осознавая проблему, представители кампании выступают за мораторий на автономные системы вооружения. Эту позицию поддерживают 86 международных, региональных и национальных неправительственных организаций (НПО) в 32 странах. США и Россия в том числе против.

Один из ключевых аргументов исследователей: люди принимают сложное нравственное решение, когда отнимают у другого человека жизнь. Этически неверно доверять такой выбор машине, ведь ИИ не сможет оценить последствия в полной мере. Роботы не могут соблюдать международное гуманитарное право, они не различают гражданских людей и военных, что может привести к огромному числу жертв. Полностью автономное оружие может быть использовано не только во время военных действий, но, например, и для подавления протестов. В Северной Дакоте уже принят закон, разрешающий полиции вооружать свои дроны электрошокерами и оружием для стрельбы резиновыми пулями. Несмотря на то, что оружие разрабатывалось как нелетальное, оно всё равно может нанести вред или убить.

Ноэль Шарки, директор Международного комитета контроля за боевыми роботами в Великобритании, дополнительно обращает внимание на то, что военных роботов можно взломать и использовать против невинных. Уже были случаи преступного использования роботов для контрабанды наркотиков, воровства и слежки. А подросток из Коннектикута опубликовал на YouTube видео, где дрон стреляет из установленного на него полуавтоматического пистолета. Если сейчас оставить это без внимания, то мы рискуем столкнуться с большими проблемами в будущем.

Второе — секс

Как говорится: «Занимайтесь любовью, а не войной!» Роботы не исключение, но тут возникает много этических вопросов. Роботизированные бордели, секс-роботы, которые всё больше и больше похожи на настоящих людей — всё это происходит уже сейчас. С одной стороны, исследователи поддерживают развитие секс-роботов. Например, Дэвид Леви — автор одной из главных книг на эту тему «Love, Sex and Robots», уверен, что от секс-роботов будет больше пользы, чем вреда. Такие роботы будут незаменимы для одиноких, пожилых или людей с инвалидностью. Генеральный директор RealBotix поддерживает и говорит, что много лет занимается изготовлением секс-кукол для того, чтобы облегчить одиночество тех, у кого есть проблемы, связанные с человеческой близостью.

Love, Death & Robots / Netflix

С другой же стороны, в 2015 году Доктор Кэйтлин Ричардсон создала «Кампанию против секс-роботов». В заявлении на официальном сайте проекта говорится, что такие технологии способствуют объективации женщин и детей, развитию проституции и сильно повлияют на взаимоотношения людей и их способность к эмпатии. По мнению Ричардсон, такие роботы будут усиливать стереотипы по отношению к женщинам и взгляд на отношения между полами как на удовлетворение чисто физических потребностей.

Неизвестно, как ещё подобные технологии могут повлиять на людей и картину мира в целом. Можно только гадать, какие последствия ждут нас, но смогут ли люди понести за них ответственность?

Третье — беспилотники

Многие слышали о проблеме вагонетки (а если не слышали — погуглите), и можно подумать: «Это всего лишь этический эксперимент, интересная тема, чтобы поспорить о том, как же нужно поступить». Кажется, что это нас никогда не коснется, а мы можем наблюдать подобные дилеммы только в кино.

Как в фильме «Я, робот», несмотря на требование главного героя спасти 11-летнюю Сару, робот спасает мужчину. Девочка не смогла выбраться из машины и утонула. По логике робота — нет смысла спасать человека, у которого меньше шансов на выживание. Это иллюстрация того, что нас может ждать в будущем. Беспилотные машины — больше не сказка. И именно киберфилософы решают, как же нужно поступить беспилотнику, чтобы не допустить тот сценарий, который мы видим в фильме.

«Я, робот» / 20th Century Fox Film Corporation

Джейсон Миллар — профессор, участвующий в исследовательском проекте «Этическое программирование беспилотных машин» вместе с Патриком Лином (профессором философии и автором книг и статей в области робоэтики), в интервью «Снобу» отмечает, что на многие вопросы очень сложно прийти к единому мнению. Кто должен брать на себя ответственность? Производитель или покупатель? Лин склоняется к производителю, а Миллар — наоборот. Джейсон считает, что в итоге производители также не смогут прийти к одному решению. Одна компания будет выпускать машины, которые будут нацелены на безопасность пассажиров (как уже делает Mercedes-Benz), а другая — спасать жизни, выбегающих на дорогу кошек и собак. Ответственность за выбор будет лежать на каждом человеке. Но и такое разделение всё равно вызовет бурю общественных недовольств. Насколько страшно будет переходить дорогу с мыслью о том, что в случае опасности беспилотники спасут не вас?

Хейтеры возмутятся: «А зачем думать обо всём этом сейчас? Других проблем что ли нет?» Отвечаем словами исследователя Селмора Бринсжора:

«Если мы просто построим автономные машины и не подумаем заранее, как предохранить их от плохих дел, вот тогда у нас реальные проблемы. Тогда они смогут нас травмировать и даже убить. Вот почему так важно работать над этикой роботов сегодня. Когда у вас растёт ребёнок, и по мере того, как у него появляется интеллект, вы же не думаете: “Ну ладно, побеспокоюсь о его воспитании завтра”. Такие процессы важно отслеживать вовремя».

Кстати, Бринсжор работает над довольно необычным исследованием: допустимо ли с этической точки зрения позволять роботу покончить с собой. У робота запрограммировано 35 эмоциональных состояний. Сознания, конечно, нет (ещё?), но в теории может произойти сбой, который и спровоцирует рободепрессию. В конце концов, вспоминаем «Будку самоубийств» из «Футурамы», в которой Бендер хотел покончить с собой, когда узнал, что всё, сгибаемое им, уходит на их постройку. Всё не просто так!

И это только часть вопросов, над которыми бьются киберфилософы, но они самые актуальные. Роботы — уже не далёкое будущее, а настоящее, которое касается каждого. Нам остаётся только смотреть, ждать и гадать, что же будет дальше.

Гном. Люблю смотреть мультики за завтраком, неровно дышу к вселенным «Аватара» и «Варкрафта». Верю в лучшее

Tolstoy Comments
Читайте ещё
Рекомендуем
Популярное
Понятно
Привет, это 2x2.Медиа
На сайте есть контент, который по закону РФ запрещен для людей младше 18 лет. Пожалуйста, подтвердите, что вам уже исполнилось 18.
Да
Нет
https://media.2x2tv.ru/roboetika-kiberfilosofiya/
Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?
Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?
Рассказываем, над чем рассуждают киберфилософы и зачем изучать робоэтику (спойлер: чтобы выжить).
Игры и будущее
2021-05-07T17:05
2021-10-25T22:10
Игры и будущее
https://media.2x2tv.ru/content/images/2021/05/----1.jpg
1440
1440
true
1440
1080
true
1440
810
true

Прогресс не стоит на месте, а четвёртая промышленная революция не за горами. Страны «большой двадцатки» обсуждают принципы обращения с искусственным интеллектом, в Японии появляются роботы-священники, французская армия тестирует робопса от Boston Dynamics, а секс-роботы американской компании Abyss Creations уже умеют вести беседу, симулировать оргазм и отказывать в сексе.

Смогут ли роботы мыслить? Будут ли у них права? Насколько этично создавать роботов для военных действий? Эти вопросы изучает робоэтика и киберфилософия. Научных работ на эти темы немного — оба понятия появились недавно и их часто используют как синонимы. Вместе с Яной Денисовой разберёмся поподробнее.

Терминология и законы

Термин «робоэтика» введён итальянским профессором Джанмарко Веруджио в 2002 году. Это направление находится на стыке этики и робототехники. Специалисты изучают, как роботы интегрируются в человеческое общество, и, конечно, следят за тем, чтоб всё было этично.

Начиная с середины ХХ века представления о робоэтике основаны на трёх законах Азимова из рассказа «Хоровод» (ориг. «Runaround»):

1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;

2) Робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону;

3) Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону.

Бендер, например, в первом эпизоде «Футурамы» нарушает все три закона: смотрит, как избивают человека, отказывается ему помогать и пытается покончить с собой. Да и сам Азимов находит лазейки в своих законах — в его рассказе «…Яко помниши его» (ориг. «That Thou Art Mindful of Him») два робота пришли к выводу, что органическое происхождение — необязательное условие для того, чтобы считаться человеком, и что истинные люди — это роботы, ведь они более совершенные и разумные создания. Именно этого опасался Стивен Хокинг. Учёный утверждал, что роботы могут стать новой формой жизни, способной улучшать и воспроизводить саму себя. По его мысли, искусственный интеллект в будущем превзойдёт людей и целиком заменит нас.

А ещё Азимов создал нулевой закон, по которому робот обязан действовать в интересах всего человечества, а не только отдельного человека. Этот закон противоречит первому и в принципе предоставляет роботам возможность трактовать его, как им удобно.

Многие профессора разрабатывают собственные правила, и есть целый ряд примеров того, как в мире пытаются регулировать киберфизические системы. В 2017 году дело доходит до России: представлен проект Модельной конвенции о робототехнике и ИИ. Наши соотечественники явно были вдохновлены конференцией Beneficial AI, на которой более двух тысяч учёных, включая Илона Маска и Стивена Хокинга, обсуждали безопасность ИИ и составили список из 23 пунктов. Среди них:

11) ИИ должен разрабатываться и использоваться так, чтобы соответствовать идеалам человеческого достоинства, прав, свобод и культурного разнообразия;

18) Следует избегать гонки вооружений в смертоносном автономном оружии. (Стивен Хокинг считал, что соперничество за лидерство в сфере искусственного интеллекта может привести к новой мировой войне);

23) Принцип общего блага: ИИ должен развиваться на благо всего человечества, а не одного государства или организации;

У термина «киберфилософия» также есть своё определение, но зачастую его используют учёные, которые занимаются робоэтикой. Их и называют «киберфилософами». Но о чём же они философствуют?

Love, Death & Robots / Netflix

Первое — военные роботы и восстание машин

Если вернуться к Азимову, то становится очевидно: современные военные технологии нарушают первый закон (робот не может причинить вред человеку). Эта тема обсуждается особенно бурно, и к киберфилософам присоединились крупные правозащитные организации, такие как Human Rights Watch, создав кампанию «Остановите роботов-убийц» в ООН. Осознавая проблему, представители кампании выступают за мораторий на автономные системы вооружения. Эту позицию поддерживают 86 международных, региональных и национальных неправительственных организаций (НПО) в 32 странах. США и Россия в том числе против.

Один из ключевых аргументов исследователей: люди принимают сложное нравственное решение, когда отнимают у другого человека жизнь. Этически неверно доверять такой выбор машине, ведь ИИ не сможет оценить последствия в полной мере. Роботы не могут соблюдать международное гуманитарное право, они не различают гражданских людей и военных, что может привести к огромному числу жертв. Полностью автономное оружие может быть использовано не только во время военных действий, но, например, и для подавления протестов. В Северной Дакоте уже принят закон, разрешающий полиции вооружать свои дроны электрошокерами и оружием для стрельбы резиновыми пулями. Несмотря на то, что оружие разрабатывалось как нелетальное, оно всё равно может нанести вред или убить.

Ноэль Шарки, директор Международного комитета контроля за боевыми роботами в Великобритании, дополнительно обращает внимание на то, что военных роботов можно взломать и использовать против невинных. Уже были случаи преступного использования роботов для контрабанды наркотиков, воровства и слежки. А подросток из Коннектикута опубликовал на YouTube видео, где дрон стреляет из установленного на него полуавтоматического пистолета. Если сейчас оставить это без внимания, то мы рискуем столкнуться с большими проблемами в будущем.

Второе — секс

Как говорится: «Занимайтесь любовью, а не войной!» Роботы не исключение, но тут возникает много этических вопросов. Роботизированные бордели, секс-роботы, которые всё больше и больше похожи на настоящих людей — всё это происходит уже сейчас. С одной стороны, исследователи поддерживают развитие секс-роботов. Например, Дэвид Леви — автор одной из главных книг на эту тему «Love, Sex and Robots», уверен, что от секс-роботов будет больше пользы, чем вреда. Такие роботы будут незаменимы для одиноких, пожилых или людей с инвалидностью. Генеральный директор RealBotix поддерживает и говорит, что много лет занимается изготовлением секс-кукол для того, чтобы облегчить одиночество тех, у кого есть проблемы, связанные с человеческой близостью.

Love, Death & Robots / Netflix

С другой же стороны, в 2015 году Доктор Кэйтлин Ричардсон создала «Кампанию против секс-роботов». В заявлении на официальном сайте проекта говорится, что такие технологии способствуют объективации женщин и детей, развитию проституции и сильно повлияют на взаимоотношения людей и их способность к эмпатии. По мнению Ричардсон, такие роботы будут усиливать стереотипы по отношению к женщинам и взгляд на отношения между полами как на удовлетворение чисто физических потребностей.

Неизвестно, как ещё подобные технологии могут повлиять на людей и картину мира в целом. Можно только гадать, какие последствия ждут нас, но смогут ли люди понести за них ответственность?

Третье — беспилотники

Многие слышали о проблеме вагонетки (а если не слышали — погуглите), и можно подумать: «Это всего лишь этический эксперимент, интересная тема, чтобы поспорить о том, как же нужно поступить». Кажется, что это нас никогда не коснется, а мы можем наблюдать подобные дилеммы только в кино.

Как в фильме «Я, робот», несмотря на требование главного героя спасти 11-летнюю Сару, робот спасает мужчину. Девочка не смогла выбраться из машины и утонула. По логике робота — нет смысла спасать человека, у которого меньше шансов на выживание. Это иллюстрация того, что нас может ждать в будущем. Беспилотные машины — больше не сказка. И именно киберфилософы решают, как же нужно поступить беспилотнику, чтобы не допустить тот сценарий, который мы видим в фильме.

«Я, робот» / 20th Century Fox Film Corporation

Джейсон Миллар — профессор, участвующий в исследовательском проекте «Этическое программирование беспилотных машин» вместе с Патриком Лином (профессором философии и автором книг и статей в области робоэтики), в интервью «Снобу» отмечает, что на многие вопросы очень сложно прийти к единому мнению. Кто должен брать на себя ответственность? Производитель или покупатель? Лин склоняется к производителю, а Миллар — наоборот. Джейсон считает, что в итоге производители также не смогут прийти к одному решению. Одна компания будет выпускать машины, которые будут нацелены на безопасность пассажиров (как уже делает Mercedes-Benz), а другая — спасать жизни, выбегающих на дорогу кошек и собак. Ответственность за выбор будет лежать на каждом человеке. Но и такое разделение всё равно вызовет бурю общественных недовольств. Насколько страшно будет переходить дорогу с мыслью о том, что в случае опасности беспилотники спасут не вас?

Хейтеры возмутятся: «А зачем думать обо всём этом сейчас? Других проблем что ли нет?» Отвечаем словами исследователя Селмора Бринсжора:

«Если мы просто построим автономные машины и не подумаем заранее, как предохранить их от плохих дел, вот тогда у нас реальные проблемы. Тогда они смогут нас травмировать и даже убить. Вот почему так важно работать над этикой роботов сегодня. Когда у вас растёт ребёнок, и по мере того, как у него появляется интеллект, вы же не думаете: “Ну ладно, побеспокоюсь о его воспитании завтра”. Такие процессы важно отслеживать вовремя».

Кстати, Бринсжор работает над довольно необычным исследованием: допустимо ли с этической точки зрения позволять роботу покончить с собой. У робота запрограммировано 35 эмоциональных состояний. Сознания, конечно, нет (ещё?), но в теории может произойти сбой, который и спровоцирует рободепрессию. В конце концов, вспоминаем «Будку самоубийств» из «Футурамы», в которой Бендер хотел покончить с собой, когда узнал, что всё, сгибаемое им, уходит на их постройку. Всё не просто так!

И это только часть вопросов, над которыми бьются киберфилософы, но они самые актуальные. Роботы — уже не далёкое будущее, а настоящее, которое касается каждого. Нам остаётся только смотреть, ждать и гадать, что же будет дальше.

ru-RU
https://media.2x2tv.ru/legal/
2х2.медиа
batman@2x2tv.ru
+7(495) 644 22 24
ООО «Телерадиокомпания «2x2»
192
31
2021
Яна Денисова
https://media.2x2tv.ru/content/images/2021/02/zz.png
Гном. Люблю смотреть мультики за завтраком, неровно дышу к вселенным «Аватара» и «Варкрафта». Верю в лучшее
Яна Денисова
https://media.2x2tv.ru/content/images/2021/02/zz.png
Гном. Люблю смотреть мультики за завтраком, неровно дышу к вселенным «Аватара» и «Варкрафта». Верю в лучшее
Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?
https://media.2x2tv.ru/roboetika-kiberfilosofiya/