Я аспирант в области компьютерных наук, и в настоящее время я создаю обзор современного состояния приложений, созданных в рамках «Машинной этики» (междисциплинарная область, сочетающая философию и ИИ, которая занимается созданием явных этических программ или агентов). Кажется, что область в основном содержит теоретические аргументы и существует относительно мало реализаций, хотя в этой области много людей с техническим опытом.
Я понимаю, что, поскольку этика вовлечена, нет никакой истинной истины, и поскольку она является частью философии, можно заблудиться в спорах о том, какой тип этики должен быть реализован и как это можно сделать наилучшим образом. Тем не менее, в информатике обычно даже пытаются попробовать простую реализацию, чтобы показать возможности или ограничения вашего подхода.
Каковы возможные причины, по которым так мало делается в явной реализации этики в ИИ и экспериментировании с ней?
источник
Ответы:
Это обязательно ответ высокого уровня и весьма умозрительный, но я размышлял над этим вопросом, и вот мои мысли:
После знаменитого провала Рассела и Уайтхеда и теоремы Гёделя о неполноте это может показаться проблематичным.
Таким образом, вы видите это в автомобилях с автоматическим управлением, потому что у инженеров нет иного выбора, кроме как справиться с проблемой. В отличие от этого, я не думаю, что вы увидите много алгоритмических биржевых фирм, где бизнес - это эффективность по Парето , обеспокоенная этическими или социальными последствиями финансовых спекуляций. (Решением «внезапных сбоев», по-видимому, являются правила временного приостановления торговли вместо того, чтобы учитывать социальную ценность высокочастотной алгоритмической торговли.) Более очевидный пример - компании социальных сетей, игнорирующие чрезмерное количество злоупотреблений информацией (дезинформация). и дезинформации), которые публикуются на их сайтах, ссылаясь на невежество, что весьма подозрительно, поскольку деятельность, вызванная злоупотреблением информацией, положительно влияет на их итоги.
Основная директива корпораций - возвращать прибыль инвесторам. Корпорации нередко нарушают закон, когда ожидается, что штрафы и штрафы будут меньше, чем прибыль, полученная от незаконной деятельности. (В бизнесе существует понятие этики, но культура в целом, судя по всему, судит людей и компании по тому, сколько денег они зарабатывают, независимо от средств.)
Если суперинтеллект развивается и уничтожает человечество (о чем нас предупреждают очень умные люди с превосходными математическими навыками), я чувствую, что это будет функция природы, где неограниченная эволюция этих алгоритмов обусловлена экономическими факторами, которые сосредоточены на гипер - партизанские автоматы в таких отраслях, как финансовые спекуляции и автономные войны. По сути, погоня за прибылью любой ценой, независимо от воздействия.
источник
Я чувствую, что часть проблемы заключается в том, почему этические реализации технологий ИИ / МЛ имеют очень мало, просто потому, что нет необходимости или правильного применения теоретических основ.
Под этим я подразумеваю, что нет существенных способов применить это понимание к алгоритмам и моделям, которые не могут существенным образом взаимодействовать. У нас есть такая большая теоретическая основа безопасности / этики ИИ, потому что это чрезвычайно важно. Нам нужно придумать безопасные рекомендации по внедрению сильного ИИ до его создания.
Некоторые очень сфокусированные статьи начали сужать вопросы создания этических / безопасных систем ИИ. Смотрите конкретные проблемы в безопасности ИИ
источник
С помощью метода имитации наиболее подходящее поведение может быть интегрировано в искусственный интеллект. Искусственный интеллект может быть изменен, когда меняется этическая позиция. Он используется в идеологических целях или для сбора информации. Непонятно, что такое робот.
источник
Мы можем принять модель ошибки в учет. Признание смещения и дисперсии производительности в нейронных сетях может быть первым шагом. И тогда мы можем обсудить, разрешено ли такое исполнение. Насколько нам известно, практика этники требует эмпирических и полевых исследований. мы не можем просто взять обоснования и бумажные эссе, чтобы определить, что дела изученных машин неверны или нет. Это может быть далее разделено на несчастные случаи, ошибки или даже ошибки, созданные разработчиками.
источник
Говоря интуитивно, похоже, дело в том, что исследования этики ИИ мало изучены, потому что:
Общество в целом, похоже, с комфортом соглашается с тем, что текущее состояние машинного интеллекта недостаточно сильное, чтобы его можно было считать сознательным или разумным. Таким образом, нам не нужно давать ему этические права (пока).
Внедрение этического поведения в программу требует, чтобы компьютеры были способны интерпретировать «значение», что мы еще не знаем, как это сделать.
источник