Знаменитые « Три закона робототехники» Исаака Азимова возникли в контексте фантастических рассказов Азимова. В этих историях три закона служат мерой безопасности, чтобы избежать безвременных или неконтролируемых ситуаций, которые могут привести к разрушению.
Чаще всего нарративы Азимова находят способ нарушить их, заставляя писателя вносить некоторые изменения в сами законы. Например, в некоторых своих рассказах он изменил Первый закон , добавил Четвертый (или нулевой) закон или даже вообще удалил все законы .
Однако легко утверждать, что в популярной культуре и даже в области исследований искусственного интеллекта законы робототехники воспринимаются довольно серьезно. Не обращая внимания на побочную проблему различных, субъективных и взаимоисключающих интерпретаций законов, есть ли какие-либо аргументы, доказывающие, что сами законы по своей природе несовершенны, или, наоборот, достаточно сильны для использования в реальности? Кроме того, есть ли лучший, более строгий эвристический набор безопасности, предназначенный для этой цели?
источник
Ответы:
Законы Азимова недостаточно сильны, чтобы их можно было применять на практике. Сила даже не учитывается, если учесть, что, поскольку они написаны на английских словах, сначала их нужно интерпретировать субъективно, чтобы иметь какое-либо значение. Вы можете найти хорошее обсуждение этого здесь .
Для расшифровки выдержки:
Легко представить, что Азимов был достаточно умен, чтобы знать это, и больше интересовался написанием историй, чем разработкой реальных протоколов управления ИИ.
В романе « Нейромант» было высказано предположение, что ИИ могут служить проверкой друг друга. Надвигающаяся Сингулярность Рэя Курцвейла , или возможность гиперинтеллектуальных AGI в противном случае, может вообще не дать людям возможности полностью контролировать ИИ, оставляя равноправное регулирование как единственно возможную возможность.
Стоит отметить, что Элиэзер Юдковский и другие провели эксперимент, в котором Юдковский играл роль сверхинтеллектуального ИИ со способностью говорить, но без какой-либо другой связи, кроме запертой коробки. Перед претендентами стояла задача просто сохранить ИИ в коробке любой ценой. Юдковский сбежал оба раза.
источник
Азимов сделал три закона специально, чтобы доказать, что трех законов недостаточно, какими бы разумными они ни казались на первый взгляд. Я знаю парня, который знал парня, и он подтвердил это.
источник
Рассмотрим первый закон робототехники Азимова:
Этот закон уже проблематичен, если принимать во внимание самостоятельное вождение автомобиля.
В чем здесь проблема, спросите вы? Ну, вы, вероятно, знакомы с классическим мысленным экспериментом по этике, известным как проблема с тележкой . Общая форма проблемы такова:
Автомобили с самостоятельным вождением на самом деле должны будут реализовывать реальные вариации проблемы с тележкой, что в основном означает, что автомобили с автоматическим управлением должны быть запрограммированы на убийство людей .
Конечно, это не значит, что ВСЕХ роботов нужно будет запрограммировать на убийство, но автомобили с автоматическим управлением - хороший пример того типа робота, который это сделает.
источник