Очевидно, что автомобили с автоматическим управлением не идеальны, поэтому представьте, что машина Google (в качестве примера) попала в сложную ситуацию.
Вот несколько примеров неудачных ситуаций, вызванных рядом событий:
- Автомобиль направляется к толпе из 10 человек, пересекающих дорогу, поэтому он не может остановиться вовремя, но он может не убить 10 человек, ударив об стену (убив пассажиров),
- Избегая убийства водителя мотоцикла, учитывая, что вероятность выживания для пассажира автомобиля больше,
- Убив животное на улице в пользу человека,
- Смена полосы движения, чтобы врезаться в другую машину, чтобы не убить собаку,
И вот несколько дилемм:
- Распознает ли алгоритм разницу между человеком и животным?
- Имеет ли значение размер человека или животного?
- Считает ли он, сколько пассажиров против людей на фронте?
- Знает ли он, когда на борту находятся дети?
- Учитывает ли он возраст (например, сначала убивает старшего)?
Как алгоритм решит, что он должен делать с технической точки зрения? Осознает ли это выше (считая вероятность убийств) или нет (убивая людей просто для того, чтобы избежать собственного уничтожения)?
Статьи по Теме:
Ответы:
Это не должно Самостоятельные автомобили не являются моральными агентами. Автомобили выходят из строя предсказуемым образом. Лошади терпят неудачу предсказуемым образом.
В этом случае автомобиль должен нажать на тормоза. Если погибнут 10 человек, это просто неудачно. Мы просто не можем доверять всем нашим убеждениям о том, что происходит за пределами машины. Что если эти 10 человек действительно роботы, созданные для того, чтобы выглядеть как люди? Что, если они пытаются убить тебя?
Опять же, жесткое кодирование такого рода настроений в транспортном средстве открывает водителю транспортного средства возможность подвергаться всевозможным атакам, включая «поддельные» мотоциклисты. Люди едва оснащены для принятия этих решений самостоятельно, если вообще имеют. Когда сомневаешься, просто нажми на тормоза.
Опять просто нажми на тормоза. Что если это был ребенок? Что если это была бомба?
Нет. Собака была в неправильном месте в неподходящее время. Другой машины не было. Просто нажмите на тормоза, как можно более безопасно.
Есть ли человек? Не всегда. Что если у человека есть пистолет? Что делать, если у животного большие зубы? Нет контекста?
Люди не могут согласиться с этими вещами. Если вы спросите полицейского, что делать в любой из этих ситуаций, ответ не будет: «Вы должны были повернуть налево, взвесить все соответствующие стороны в вашей голове, оценить соответствующие возрасты между всеми сторонами, а затем повернуть немного вправо, и вы бы спасли на 8% больше жизней ». Нет, полицейский просто скажет: «Вы должны были остановить автомобиль как можно быстрее и безопаснее». Почему? Потому что полицейские знают, что люди обычно не готовы справиться со сценариями скоростных аварий.
Нашей целью для «самостоятельного вождения автомобиля» не должен быть «моральный агент наравне с человеком». Это должен быть агент с реактивной сложностью таракана, которая предсказуемо проваливается.
источник
Ответ на многие из этих вопросов зависит от того, как запрограммировано устройство. Компьютер, способный ездить и распознавать дорогу, вероятно, будет способен визуально отличать человека от животного, независимо от того, основаны ли они на контуре, изображении или размере. При достаточно четком распознавании изображений он может рассчитывать количество и тип людей в другом автомобиле. Можно даже использовать имеющиеся данные о вероятности получения травм людьми на разных видах транспортных средств.
В конечном счете, люди не согласны с этическим выбором. Возможно, пользователь / владелец может настроить «этические параметры», например «учитывать только количество жизней» или «более молодые жизни более ценны». Я лично думаю, что это не очень спорно, что машина должна повредить себя прежде, чем вредить человек, но люди не соглашаются о том, как важно для домашних животных жизнь. Если явные настройки kill-this-first делают людей неудобными, ответы могут быть определены из вопросника, предоставленного пользователю.
источник
Лично я думаю, что это может быть чрезмерной проблемой. Проблемы с вагонетками возникают только тогда, когда ситуация оптимизирована для предотвращения «3-х вариантов».
У машины есть тормоза, не так ли? "Но что, если тормоза не работают?" Ну, тогда машине вообще не разрешено водить. Даже в обычном движении людей-операторов учат, что ваша скорость должна быть ограничена, чтобы вы могли остановиться в зоне, которую вы можете видеть. Подобные решения уменьшат вероятность проблемы с тележкой.
Что касается животных ... если не будет явных попыток разобраться с людьми на дороге, я думаю, что с животными будут обращаться одинаково. Это звучит неправдоподобно - Roadkill случается часто, и человеческое "Roadkill" нежелательно, но животные намного меньше и их труднее увидеть, чем людей, поэтому я думаю, что обнаружение людей будет легче, предотвращая множество несчастных случаев.
В других случаях (ошибки, сбои во время вождения, множественные сбои, накладывающиеся друг на друга), возможно, произойдут несчастные случаи, они будут проанализированы, а транспортные средства будут обновлены, чтобы избежать возникновения подобных ситуаций.
источник
Это хорошо известная проблема с тележками . Как сказал Бен Н , люди не согласны с правильным выбором действий для сценариев проблем с троллейбусами, но следует отметить, что в случае автомобилей с автоматическим управлением надежность настолько высока, что эти сценарии действительно маловероятны. Таким образом, не так много усилий будет приложено к проблемам, которые вы описываете, по крайней мере в краткосрочной перспективе.
источник
В реальном мире решения будут приниматься на основании закона, и, как отмечено в Law.SE , закон обычно предпочитает бездействие, а не действие.
источник
Для автомобиля без водителя, который разработан одной организацией, лучший способ для него принять решение о том, кого убить, путем оценки и минимизации вероятной ответственности.
Не нужно абсолютно правильно идентифицировать всех потенциальных жертв в этом районе, чтобы иметь защиту для своего решения, только для того, чтобы идентифицировать их так же, как и человека.
Ему даже не нужно знать возраст и физическое состояние каждого человека в автомобиле, поскольку он может запросить эту информацию и, если ему отказано, имеет защиту, которую пассажиры решили не предоставлять, и поэтому взял на себя ответственность за ее лишение способность принимать лучшее решение.
У него должна быть только жизнеспособная модель для минимизации подверженности предприятия судебным процессам, которая затем может быть улучшена с течением времени, чтобы сделать ее более прибыльной.
источник
Эта цитата взята из статьи под названием « Mercedes-Benz с самостоятельным вождением будет уделять первостепенное внимание безопасности пассажиров над пешеходами», опубликованной 7 октября 2016 года Майклом Тейлором , от 8 ноября 2016 года.
Вот выдержка, в которой изложено, какое технологическое, практическое решение проблемы.
Там же статья содержит следующий увлекательный абзац.
источник
Честно говоря, я думаю, что эта проблема (проблема с тележкой) по своей сути слишком сложна, поскольку реальное решение, вероятно, будет довольно простым. Как и человек-водитель, водитель ИИ будет запрограммирован на все этические действия в соответствии с этическими принципами, всегда выбирая курс действий, который не приносит вреда или минимально возможного вреда.
Если водитель ИИ сталкивается с опасностью, такой как неминуемый ущерб имуществу, ИИ, очевидно, будет сильно тормозить и направлять автомобиль в сторону от хрупких предметов, чтобы избежать или минимизировать воздействие. Если опасность поражает пешехода, автомобиль или здание, он решит столкнуться с наименее ценным или дорогим предметом, чтобы нанести ему наименьший вред, - придавая человеку большую ценность, чем зданию или собаке.
Наконец, если водитель ИИ вашего автомобиля выберет ребенка или врезается в стену ... он направит машину и вас в стену. Это то, что сделал бы любой хороший человек. Почему хороший ИИ действует иначе?
источник
Они не должны. Людям следует.
Люди не могут передать ответственность за этические решения в руки компьютеров. Наша ответственность как программистов / экспертов в области ИИ заключается в том, чтобы программировать решения, принимаемые компьютерами. Будут ли еще человеческие жертвы от этого? Конечно, они будут - люди не идеальны, как и программы.
Существует отличные углубленные дискуссии по этой теме здесь . Мне особенно нравится аргумент Янна ЛеКуна относительно параллельной этической дилеммы тестирования потенциально смертельных лекарств на пациентах. Подобно автомобилям с самостоятельным вождением, оба могут быть смертельными, имея хорошие намерения спасти больше людей в долгосрочной перспективе.
источник
Как автомобили с автоматическим управлением могут принимать этические решения о том, кого убивать?
Управляя юридической ответственностью и безопасностью потребителей.
Автомобиль, который обеспечивает безопасность потребителя, будет автомобилем, который покупают указанные потребители. Компании не хотят нести ответственность за убийство своих клиентов, а также не хотят продавать продукт, который ставит пользователя в затруднительное положение. Юридическая ответственность и безопасность потребителей - это одна и та же проблема, если рассматривать ее с точки зрения «затрат для потребителя».
Если нельзя избежать по закону животного / человека (а автомобиль находится в законном праве - если это не так, то с принятием решения ИИ что-то не так), скорее всего, этого не произойдет. Если автомобиль может безопасно избежать препятствия, ИИ может быть разумно замечен, чтобы принять это решение, т.е. сверните на другую полосу на открытом шоссе. Обратите внимание, что особое внимание уделяется ответственности и безопасности водителя.
Только фактор риска от столкновения с препятствием. Удар бегемота может быть менее желательным, чем удар по канаве. Удар по собаке, вероятно, более желателен, чем разрушение автомобиля клиента.
Он считает людей пассажирами, чтобы увидеть, можно ли взять полосу движения автомобилей. Он считает людей впереди как фактор риска в случае столкновения.
Нет.
Нет. Это просто неправильная абстракция для принятия решения, как это может быть взвешено при выборе правильного курса действий для уменьшения фактора риска? Если в Вариант 1 попал молодой парень с вероятностью 20% значительного повреждения пассажира и без юридической ответственности, а в Варианте 2 попал старик с 21% вероятностью значительного повреждения пассажира и без юридической ответственности, то в чем философ может убедить хотя бы 1 человека в справедливые и справедливые веса, чтобы принять решение?
К счастью, лучшее решение в большинстве случаев состоит в том, чтобы делать перерывы, чтобы снизить скорость (особенно если учесть, что зачастую полезно действовать предсказуемо, чтобы пешеходы и автомобилисты могли реагировать соответствующим образом). В то же время можно улучшить показатели стоимости с точки зрения прогнозирования того, когда водители будут принимать неправильные решения и когда другие действия (например, движение задним ходом) более выгодны, чем выполнение перерывов. На этом этапе не стоит даже начинать собирать информацию для принятия этических решений, предложенных философами. Таким образом, эта проблема чрезмерно раскручена сенсационными журналистами и философами.
источник
Я думаю, что в большинстве случаев автомобиль по умолчанию будет уменьшать скорость в качестве основного варианта, а не поворачиваться к определенному выбору. Как уже упоминали другие, иметь настройки, связанные с этикой, это просто плохая идея. Что произойдет, если две машины запрограммированы с противоположными этическими настройками и собираются столкнуться? Автомобили потенциально могут иметь систему для отмены пользовательских настроек и выбора наиболее взаимовыгодного решения. Это действительно интересная концепция, и она обязательно должна быть обсуждена и стандартизирована до широкого внедрения. Внесение этических решений в руки машин иногда затрудняет картину возникающей ответственности.
источник
Я думаю, что не было бы способа отредактировать такие настройки этики в автомобиле. Но, эй, если мобильные телефоны могут быть рутированы, то почему не автомобили? Я предполагаю, что в будущем будут сборки Linux для конкретных моделей, которые позволят вам делать все, что вы захотите.
Что касается того, кто будет принимать такие решения, это будет очень похоже на проблемы конфиденциальности сегодня. Провайдеры ОС (которые попытаются установить минимальное количество раненых, каждый из которых имеет свои собственные методы), страховые компании (которые попытаются заставить вас платить) будут перетягивать канат на себя. больше для ОС, которые, как будет показано статистически, повредят ваш автомобиль легче), и производителей автомобилей (которые захотят, чтобы вы испортили свой автомобиль как можно скорее, поэтому вы купите новый, или сделаете автомобили, которые требуют смешного сумма услуги $$$).
Затем выйдет какой-нибудь разоблачитель и раскроет фрагмент кода, который решит убивать маленьких детей над взрослыми, потому что ему будет труднее отличить их от животных, и он рискует спасти того, кого он наверняка узнает как людей. Производитель ОС получит пощечину от общественности, и будет найден новый консенсус. Информаторы также будут поступать от страховых компаний и производителей автомобилей.
Человечество возьмется за горячую сковороду и сожжет себя, а затем научится заранее надевать перчатки. Мой совет просто позаботится о том, чтобы вы не были этой рукой - держитесь от них подальше пару лет, пока не будут сделаны все ранние ошибки.
источник
Единственный разумный выбор - использовать предсказуемое поведение. Так в сценарии людей перед автомобилем: сначала автомобиль нажимает на тормоза, в то же время гудит гудок, и остается на курсе. У людей тогда есть шанс выпрыгнуть с дороги, что приведет к гибели ноль людей. Также при полных тормозах (от 50 км в час до нуля меньше 3 длин автомобиля), ударная ситуация почти не мыслима. Даже если полная остановка не может быть достигнута, серьезный ущерб пешеходам маловероятен.
Другой сценарий просто сумасшедший. Таким образом, расстояние должно быть меньше 3 длин автомобиля, по крайней мере, 1 длина автомобиля необходима для рулевого управления, тогда авария автомобиля является неуправляемой ситуацией, которая может привести к вращению и убить всех 11 человек.
Помимо того, что я не верю, что в реальности есть пример, где есть дилемма; решение в этих маловероятных случаях состоит в том, чтобы соответствовать ожиданиям противной стороны, чтобы позволить другой стороне также смягчить ситуацию.
источник