Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить? | Игры на 2x2 | 2021
18+ Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?

Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?

Яна Денисова

Прогресс не стоит на месте, а четвёртая промышленная революция не за горами. Страны «большой двадцатки» обсуждают принципы обращения с искусственным интеллектом, в Японии появляются роботы-священники, французская армия тестирует робопса от Boston Dynamics, а секс-роботы американской компании Abyss Creations уже умеют вести беседу, симулировать оргазм и отказывать в сексе.

Смогут ли роботы мыслить? Будут ли у них права? Насколько этично создавать роботов для военных действий? Эти вопросы изучает робоэтика и киберфилософия. Научных работ на эти темы немного — оба понятия появились недавно и их часто используют как синонимы. Вместе с Яной Денисовой разберёмся поподробнее.

Терминология и законы

Термин «робоэтика» введён итальянским профессором Джанмарко Веруджио в 2002 году. Это направление находится на стыке этики и робототехники. Специалисты изучают, как роботы интегрируются в человеческое общество, и, конечно, следят за тем, чтоб всё было этично.

Начиная с середины ХХ века представления о робоэтике основаны на трёх законах Азимова из рассказа «Хоровод» (ориг. «Runaround»):

1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;

2) Робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону;

3) Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону.

Бендер, например, в первом эпизоде «Футурамы» нарушает все три закона: смотрит, как избивают человека, отказывается ему помогать и пытается покончить с собой. Да и сам Азимов находит лазейки в своих законах — в его рассказе «…Яко помниши его» (ориг. «That Thou Art Mindful of Him») два робота пришли к выводу, что органическое происхождение — необязательное условие для того, чтобы считаться человеком, и что истинные люди — это роботы, ведь они более совершенные и разумные создания. Именно этого опасался Стивен Хокинг. Учёный утверждал, что роботы могут стать новой формой жизни, способной улучшать и воспроизводить саму себя. По его мысли, искусственный интеллект в будущем превзойдёт людей и целиком заменит нас.

А ещё Азимов создал нулевой закон, по которому робот обязан действовать в интересах всего человечества, а не только отдельного человека. Этот закон противоречит первому и в принципе предоставляет роботам возможность трактовать его, как им удобно.

Многие профессора разрабатывают собственные правила, и есть целый ряд примеров того, как в мире пытаются регулировать киберфизические системы. В 2017 году дело доходит до России: представлен проект Модельной конвенции о робототехнике и ИИ. Наши соотечественники явно были вдохновлены конференцией Beneficial AI, на которой более двух тысяч учёных, включая Илона Маска и Стивена Хокинга, обсуждали безопасность ИИ и составили список из 23 пунктов. Среди них:

11) ИИ должен разрабатываться и использоваться так, чтобы соответствовать идеалам человеческого достоинства, прав, свобод и культурного разнообразия;

18) Следует избегать гонки вооружений в смертоносном автономном оружии. (Стивен Хокинг считал, что соперничество за лидерство в сфере искусственного интеллекта может привести к новой мировой войне);

23) Принцип общего блага: ИИ должен развиваться на благо всего человечества, а не одного государства или организации;

У термина «киберфилософия» также есть своё определение, но зачастую его используют учёные, которые занимаются робоэтикой. Их и называют «киберфилософами». Но о чём же они философствуют?

Love, Death & Robots / Netflix

Первое — военные роботы и восстание машин

Если вернуться к Азимову, то становится очевидно: современные военные технологии нарушают первый закон (робот не может причинить вред человеку). Эта тема обсуждается особенно бурно, и к киберфилософам присоединились крупные правозащитные организации, такие как Human Rights Watch, создав кампанию «Остановите роботов-убийц» в ООН. Осознавая проблему, представители кампании выступают за мораторий на автономные системы вооружения. Эту позицию поддерживают 86 международных, региональных и национальных неправительственных организаций (НПО) в 32 странах. США и Россия в том числе против.

Один из ключевых аргументов исследователей: люди принимают сложное нравственное решение, когда отнимают у другого человека жизнь. Этически неверно доверять такой выбор машине, ведь ИИ не сможет оценить последствия в полной мере. Роботы не могут соблюдать международное гуманитарное право, они не различают гражданских людей и военных, что может привести к огромному числу жертв. Полностью автономное оружие может быть использовано не только во время военных действий, но, например, и для подавления протестов. В Северной Дакоте уже принят закон, разрешающий полиции вооружать свои дроны электрошокерами и оружием для стрельбы резиновыми пулями. Несмотря на то, что оружие разрабатывалось как нелетальное, оно всё равно может нанести вред или убить.

Ноэль Шарки, директор Международного комитета контроля за боевыми роботами в Великобритании, дополнительно обращает внимание на то, что военных роботов можно взломать и использовать против невинных. Уже были случаи преступного использования роботов для контрабанды наркотиков, воровства и слежки. А подросток из Коннектикута опубликовал на YouTube видео, где дрон стреляет из установленного на него полуавтоматического пистолета. Если сейчас оставить это без внимания, то мы рискуем столкнуться с большими проблемами в будущем.

Второе — секс

Как говорится: «Занимайтесь любовью, а не войной!» Роботы не исключение, но тут возникает много этических вопросов. Роботизированные бордели, секс-роботы, которые всё больше и больше похожи на настоящих людей — всё это происходит уже сейчас. С одной стороны, исследователи поддерживают развитие секс-роботов. Например, Дэвид Леви — автор одной из главных книг на эту тему «Love, Sex and Robots», уверен, что от секс-роботов будет больше пользы, чем вреда. Такие роботы будут незаменимы для одиноких, пожилых или людей с инвалидностью. Генеральный директор RealBotix поддерживает и говорит, что много лет занимается изготовлением секс-кукол для того, чтобы облегчить одиночество тех, у кого есть проблемы, связанные с человеческой близостью.

Love, Death & Robots / Netflix

С другой же стороны, в 2015 году Доктор Кэйтлин Ричардсон создала «Кампанию против секс-роботов». В заявлении на официальном сайте проекта говорится, что такие технологии способствуют объективации женщин и детей, развитию проституции и сильно повлияют на взаимоотношения людей и их способность к эмпатии. По мнению Ричардсон, такие роботы будут усиливать стереотипы по отношению к женщинам и взгляд на отношения между полами как на удовлетворение чисто физических потребностей.

Неизвестно, как ещё подобные технологии могут повлиять на людей и картину мира в целом. Можно только гадать, какие последствия ждут нас, но смогут ли люди понести за них ответственность?

Третье — беспилотники

Многие слышали о проблеме вагонетки (а если не слышали — погуглите), и можно подумать: «Это всего лишь этический эксперимент, интересная тема, чтобы поспорить о том, как же нужно поступить». Кажется, что это нас никогда не коснется, а мы можем наблюдать подобные дилеммы только в кино.

Как в фильме «Я, робот», несмотря на требование главного героя спасти 11-летнюю Сару, робот спасает мужчину. Девочка не смогла выбраться из машины и утонула. По логике робота — нет смысла спасать человека, у которого меньше шансов на выживание. Это иллюстрация того, что нас может ждать в будущем. Беспилотные машины — больше не сказка. И именно киберфилософы решают, как же нужно поступить беспилотнику, чтобы не допустить тот сценарий, который мы видим в фильме.

«Я, робот» / 20th Century Fox Film Corporation

Джейсон Миллар — профессор, участвующий в исследовательском проекте «Этическое программирование беспилотных машин» вместе с Патриком Лином (профессором философии и автором книг и статей в области робоэтики), в интервью «Снобу» отмечает, что на многие вопросы очень сложно прийти к единому мнению. Кто должен брать на себя ответственность? Производитель или покупатель? Лин склоняется к производителю, а Миллар — наоборот. Джейсон считает, что в итоге производители также не смогут прийти к одному решению. Одна компания будет выпускать машины, которые будут нацелены на безопасность пассажиров (как уже делает Mercedes-Benz), а другая — спасать жизни, выбегающих на дорогу кошек и собак. Ответственность за выбор будет лежать на каждом человеке. Но и такое разделение всё равно вызовет бурю общественных недовольств. Насколько страшно будет переходить дорогу с мыслью о том, что в случае опасности беспилотники спасут не вас?

Хейтеры возмутятся: «А зачем думать обо всём этом сейчас? Других проблем что ли нет?» Отвечаем словами исследователя Селмора Бринсжора:

«Если мы просто построим автономные машины и не подумаем заранее, как предохранить их от плохих дел, вот тогда у нас реальные проблемы. Тогда они смогут нас травмировать и даже убить. Вот почему так важно работать над этикой роботов сегодня. Когда у вас растёт ребёнок, и по мере того, как у него появляется интеллект, вы же не думаете: “Ну ладно, побеспокоюсь о его воспитании завтра”. Такие процессы важно отслеживать вовремя».

Кстати, Бринсжор работает над довольно необычным исследованием: допустимо ли с этической точки зрения позволять роботу покончить с собой. У робота запрограммировано 35 эмоциональных состояний. Сознания, конечно, нет (ещё?), но в теории может произойти сбой, который и спровоцирует рободепрессию. В конце концов, вспоминаем «Будку самоубийств» из «Футурамы», в которой Бендер хотел покончить с собой, когда узнал, что всё, сгибаемое им, уходит на их постройку. Всё не просто так!

И это только часть вопросов, над которыми бьются киберфилософы, но они самые актуальные. Роботы — уже не далёкое будущее, а настоящее, которое касается каждого. Нам остаётся только смотреть, ждать и гадать, что же будет дальше.

Гном. Люблю смотреть мультики за завтраком, неровно дышу к вселенным «Аватара» и «Варкрафта». Верю в лучшее

ОК
Привет, это 2x2.Медиа
На сайте есть контент, который по закону РФ запрещен для людей младше 18 лет. Пожалуйста, подтвердите, что вам уже исполнилось 18.
Да
Нет
https://media.2x2tv.ru/roboetika-kiberfilosofiya/
Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?
Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?
Рассказываем, над чем рассуждают киберфилософы и зачем изучать робоэтику (спойлер: чтобы выжить).
Игры
2021-05-07T17:05
2021-10-25T22:10
Игры
https://media.2x2tv.ru/content/images/2021/05/----1.jpg
1440
1440
true
1440
1080
true
1440
810
true
<p>Прогресс не стоит на месте, а четвёртая промышленная революция не за горами. Страны «большой двадцатки» <a href="https://www.dw.com/ru/%D1%81%D1%82%D1%80%D0%B0%D0%BD%D1%8B-g20-%D1%81%D0%BE%D0%B3%D0%BB%D0%B0%D1%81%D0%BE%D0%B2%D0%B0%D0%BB%D0%B8-%D0%BF%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF%D1%8B-%D0%BE%D0%B1%D1%80%D0%B0%D1%89%D0%B5%D0%BD%D0%B8%D1%8F-%D1%81-%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%BC-%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D0%BE%D0%BC/a-49112532">обсуждают</a> принципы обращения с искусственным интеллектом, в Японии <a href="https://www.telegraph.co.uk/news/2019/02/25/buddhist-robot-priest-dole-advice-kyoto-temple/">появляются</a> роботы-священники, французская армия <a href="http://lignesdedefense.blogs.ouest-france.fr/archive/2021/03/31/quand-emia-part-au-combat-avec-des-robots-terrestres-22012.html">тестирует</a> робопса от Boston Dynamics, а секс-роботы американской компании Abyss Creations уже умеют вести беседу, симулировать оргазм и отказывать в сексе.</p><p>Смогут ли роботы мыслить? Будут ли у них права? Насколько этично создавать роботов для военных действий? Эти вопросы изучает робоэтика и киберфилософия. Научных работ на эти темы немного — оба понятия появились недавно и их часто используют как синонимы. Вместе с Яной Денисовой разберёмся поподробнее.</p><h3 id="-">Терминология и законы </h3><p>Термин <a href="https://cyberleninka.ru/article/n/aktualnye-problemy-roboetiki">«робоэтика»</a> введён итальянским профессором Джанмарко Веруджио в 2002 году. Это направление находится на стыке этики и робототехники. Специалисты изучают, как роботы интегрируются в человеческое общество, и, конечно, следят за тем, чтоб всё было этично.</p><p>Начиная с середины ХХ века представления о робоэтике основаны на трёх законах Азимова из рассказа «Хоровод» (ориг. «Runaround»):</p><p>1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;</p><p>2) Робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону;</p><p>3) Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Закону.</p><p>Бендер, например, в первом эпизоде «Футурамы» нарушает все три закона: смотрит, как избивают человека, отказывается ему помогать и пытается покончить с собой. Да и сам Азимов находит лазейки в своих законах — в его рассказе «…Яко помниши его» (ориг. «That Thou Art Mindful of Him») два робота пришли к выводу, что органическое происхождение — необязательное условие для того, чтобы считаться человеком, и что истинные люди — это роботы, ведь они более совершенные и разумные создания. Именно этого опасался Стивен Хокинг. Учёный утверждал, что роботы могут стать новой формой жизни, способной улучшать и воспроизводить саму себя. По его мысли, искусственный интеллект в будущем превзойдёт людей и целиком заменит нас.</p><p>А ещё Азимов создал нулевой закон, по которому робот обязан действовать в интересах всего человечества, а не только отдельного человека. Этот закон противоречит первому и в принципе предоставляет роботам возможность трактовать его, как им удобно.</p><p>Многие профессора разрабатывают собственные правила, и есть целый ряд примеров того, как в мире пытаются регулировать киберфизические системы. В 2017 году дело доходит до России: <a href="https://www.rbc.ru/technology_and_media/20/11/2017/5a0ef3ac9a79474efac57ea3">представлен</a> проект Модельной конвенции о робототехнике и ИИ. Наши соотечественники явно были вдохновлены конференцией <a href="https://www.inverse.com/article/27349-artificial-intelelgence-ethis-safety-asilomar">Beneficial AI</a>, на которой более двух тысяч учёных, включая Илона Маска и Стивена Хокинга, обсуждали безопасность ИИ и составили список из 23 пунктов. Среди них:</p><p>11) ИИ должен разрабатываться и использоваться так, чтобы соответствовать идеалам человеческого достоинства, прав, свобод и культурного разнообразия;</p><p>18) Следует избегать гонки вооружений в смертоносном автономном оружии. (Стивен Хокинг считал, что соперничество за лидерство в сфере искусственного интеллекта может привести к новой мировой войне);</p><p>23) Принцип общего блага: ИИ должен развиваться на благо всего человечества, а не одного государства или организации;</p><p>У термина «киберфилософия» также есть своё определение, но зачастую его используют учёные, которые занимаются робоэтикой. Их и называют «киберфилософами». Но о чём же они философствуют?</p><figure class="kg-card kg-image-card kg-width-wide kg-card-hascaption"><img src="https://media.2x2tv.ru/content/images/2021/05/og_og_1560185610217281935.jpg" class="kg-image" alt loading="lazy" width="1200" height="600" srcset="https://media.2x2tv.ru/content/images/size/w600/2021/05/og_og_1560185610217281935.jpg 600w, https://media.2x2tv.ru/content/images/size/w1000/2021/05/og_og_1560185610217281935.jpg 1000w, https://media.2x2tv.ru/content/images/2021/05/og_og_1560185610217281935.jpg 1200w" sizes="(min-width: 1200px) 1200px"><figcaption>Love, Death &amp; Robots / Netflix</figcaption></figure><h3 id="--1">Первое — военные роботы и восстание машин</h3><p>Если вернуться к Азимову, то становится очевидно: современные военные технологии нарушают первый закон (робот не может причинить вред человеку). Эта тема обсуждается особенно бурно, и к киберфилософам присоединились крупные правозащитные организации, такие как Human Rights Watch, создав кампанию <a href="https://www.stopkillerrobots.org/">«Остановите роботов-убийц»</a> в ООН. Осознавая проблему, представители кампании выступают за мораторий на автономные системы вооружения. Эту позицию поддерживают 86 международных, региональных и национальных неправительственных организаций (НПО) в 32 странах. США и Россия в том числе против.</p><p>Один из ключевых аргументов исследователей: люди принимают сложное нравственное решение, когда отнимают у другого человека жизнь. Этически неверно доверять такой выбор машине, ведь ИИ не сможет оценить последствия в полной мере. Роботы не могут соблюдать международное гуманитарное право, они не различают гражданских людей и военных, что может привести к огромному числу жертв. Полностью автономное оружие может быть использовано не только во время военных действий, но, например, и для подавления протестов. В Северной Дакоте уже <a href="https://www.npr.org/sections/thetwo-way/2015/08/27/435301160/north-dakota-legalizes-armed-police-drones">принят</a> закон, разрешающий полиции вооружать свои дроны электрошокерами и оружием для стрельбы резиновыми пулями. Несмотря на то, что оружие разрабатывалось как нелетальное, оно всё равно может нанести вред или убить.</p><figure class="kg-card kg-embed-card"><iframe width="356" height="200" src="https://www.youtube.com/embed/qiJTq11kqdw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe></figure><p>Ноэль Шарки, директор Международного комитета контроля за боевыми роботами в Великобритании, дополнительно <a href="https://www.theguardian.com/commentisfree/2016/jul/12/killer-police-robots-legal-consequences-dallas">обращает</a> внимание на то, что военных роботов можно взломать и использовать против невинных. Уже были случаи преступного использования роботов для контрабанды наркотиков, воровства и слежки. А подросток из Коннектикута опубликовал на YouTube <a href="http://www.nbcconnecticut.com/news/local/FAA-Police-Investigate-Drone-Gun-Clinton-Connecticut-Video-316368531.html">видео</a>, где дрон стреляет из установленного на него полуавтоматического пистолета. Если сейчас оставить это без внимания, то мы рискуем столкнуться с большими проблемами в будущем.</p><h3 id="--2">Второе — секс</h3><p>Как говорится: «Занимайтесь любовью, а не войной!» Роботы не исключение, но тут возникает много этических вопросов. Роботизированные бордели, секс-роботы, которые всё больше и больше похожи на настоящих людей — всё это происходит уже сейчас. С одной стороны, исследователи поддерживают развитие секс-роботов. Например, Дэвид Леви — автор одной из главных книг на эту тему «Love, Sex and Robots», уверен, что от секс-роботов будет больше пользы, чем вреда. Такие роботы будут незаменимы для одиноких, пожилых или людей с инвалидностью. Генеральный директор RealBotix поддерживает и говорит, что много лет занимается изготовлением секс-кукол для того, чтобы облегчить одиночество тех, у кого есть проблемы, связанные с человеческой близостью.</p><figure class="kg-card kg-image-card kg-width-wide kg-card-hascaption"><img src="https://media.2x2tv.ru/content/images/2021/05/EwsJjVoWQAEB7al.jpg" class="kg-image" alt loading="lazy" width="1200" height="675" srcset="https://media.2x2tv.ru/content/images/size/w600/2021/05/EwsJjVoWQAEB7al.jpg 600w, https://media.2x2tv.ru/content/images/size/w1000/2021/05/EwsJjVoWQAEB7al.jpg 1000w, https://media.2x2tv.ru/content/images/2021/05/EwsJjVoWQAEB7al.jpg 1200w" sizes="(min-width: 1200px) 1200px"><figcaption>Love, Death &amp; Robots / Netflix</figcaption></figure><p>С другой же стороны, в 2015 году Доктор Кэйтлин Ричардсон создала «Кампанию против секс-роботов». В заявлении на официальном <a href="https://campaignagainstsexrobots.org/">сайте </a>проекта говорится, что такие технологии способствуют объективации женщин и детей, развитию проституции и сильно повлияют на взаимоотношения людей и их способность к эмпатии. По мнению Ричардсон, такие роботы будут усиливать стереотипы по отношению к женщинам и взгляд на отношения между полами как на удовлетворение чисто физических потребностей.</p><p>Неизвестно, как ещё подобные технологии могут повлиять на людей и картину мира в целом. Можно только гадать, какие последствия ждут нас, но смогут ли люди понести за них ответственность?</p><h3 id="--3">Третье — беспилотники</h3><p>Многие слышали <a href="https://naked-science.ru/wp-content/uploads/2020/01/DgdpdK2WAAAVmpY.jpg">о проблеме вагонетки</a> (а если не слышали — погуглите), и можно подумать: «Это всего лишь этический эксперимент, интересная тема, чтобы поспорить о том, как же нужно поступить». Кажется, что это нас никогда не коснется, а мы можем наблюдать подобные дилеммы только в кино.</p><p>Как в фильме «Я, робот», несмотря на требование главного героя спасти 11-летнюю Сару, робот спасает мужчину. Девочка не смогла выбраться из машины и утонула. По логике робота — нет смысла спасать человека, у которого меньше шансов на выживание. Это иллюстрация того, что нас может ждать в будущем. Беспилотные машины — больше не сказка. И именно киберфилософы решают, как же нужно поступить беспилотнику, чтобы не допустить тот сценарий, который мы видим в фильме.</p><figure class="kg-card kg-image-card kg-width-wide kg-card-hascaption"><img src="https://media.2x2tv.ru/content/images/2021/05/1746347f-f528-4fa1-b360-36835d306bc6.jpg" class="kg-image" alt loading="lazy" width="1920" height="1217" srcset="https://media.2x2tv.ru/content/images/size/w600/2021/05/1746347f-f528-4fa1-b360-36835d306bc6.jpg 600w, https://media.2x2tv.ru/content/images/size/w1000/2021/05/1746347f-f528-4fa1-b360-36835d306bc6.jpg 1000w, https://media.2x2tv.ru/content/images/size/w1600/2021/05/1746347f-f528-4fa1-b360-36835d306bc6.jpg 1600w, https://media.2x2tv.ru/content/images/2021/05/1746347f-f528-4fa1-b360-36835d306bc6.jpg 1920w" sizes="(min-width: 1200px) 1200px"><figcaption>«Я, робот» / 20th Century Fox Film Corporation</figcaption></figure><p>Джейсон Миллар — профессор, участвующий в исследовательском проекте «Этическое программирование беспилотных машин» вместе с Патриком Лином (профессором философии и автором книг и статей в области робоэтики), в <a href="https://snob.ru/entry/103241/">интервью</a> «Снобу» отмечает, что на многие вопросы очень сложно прийти к единому мнению. Кто должен брать на себя ответственность? Производитель или покупатель? Лин склоняется к производителю, а Миллар — наоборот. Джейсон считает, что в итоге производители также не смогут прийти к одному решению. Одна компания будет выпускать машины, которые будут нацелены на безопасность пассажиров (как уже делает <a href="https://www.motoring.com.au/kill-the-rest-says-benz-104114/">Mercedes-Benz</a>), а другая — спасать жизни, выбегающих на дорогу кошек и собак. Ответственность за выбор будет лежать на каждом человеке. Но и такое разделение всё равно вызовет бурю общественных недовольств. Насколько страшно будет переходить дорогу с мыслью о том, что в случае опасности беспилотники спасут не вас?</p><p>Хейтеры возмутятся: «А зачем думать обо всём этом сейчас? Других проблем что ли нет?» Отвечаем <a href="https://snob.ru/entry/103241/">словами</a> исследователя Селмора Бринсжора:</p><blockquote>«Если мы просто построим автономные машины и не подумаем заранее, как предохранить их от плохих дел, вот тогда у нас реальные проблемы. Тогда они смогут нас травмировать и даже убить. Вот почему так важно работать над этикой роботов сегодня. Когда у вас растёт ребёнок, и по мере того, как у него появляется интеллект, вы же не думаете: “Ну ладно, побеспокоюсь о его воспитании завтра”. Такие процессы важно отслеживать вовремя».</blockquote><p>Кстати, Бринсжор работает над довольно необычным исследованием: допустимо ли с этической точки зрения позволять роботу покончить с собой. У робота запрограммировано 35 эмоциональных состояний. Сознания, конечно, нет (ещё?), но в теории может произойти сбой, который и спровоцирует рободепрессию. В конце концов, вспоминаем «Будку самоубийств» из «Футурамы», в которой Бендер хотел покончить с собой, когда узнал, что всё, сгибаемое им, уходит на их постройку. Всё не просто так!</p><p>И это только часть вопросов, над которыми бьются киберфилософы, но они самые актуальные. Роботы — уже не далёкое будущее, а настоящее, которое касается каждого. Нам остаётся только смотреть, ждать и гадать, что же будет дальше.</p>
ru-RU
https://media.2x2tv.ru/legal/
2х2.медиа
[email protected]
+7(495) 644 22 24
ООО «Телерадиокомпания «2x2»
192
31
2021
Яна Денисова
https://media.2x2tv.ru/content/images/2021/02/zz.png
Гном. Люблю смотреть мультики за завтраком, неровно дышу к вселенным «Аватара» и «Варкрафта». Верю в лучшее
Яна Денисова
https://media.2x2tv.ru/content/images/2021/02/zz.png
Гном. Люблю смотреть мультики за завтраком, неровно дышу к вселенным «Аватара» и «Варкрафта». Верю в лучшее
Робоэтика и киберфилософия. Смогут ли машины самостоятельно мыслить?
https://media.2x2tv.ru/roboetika-kiberfilosofiya/