Какой цели будет служить развитие ИИ, которые испытывают человеческие эмоции?

19

В недавней статье в Wall Street Journal Янн ЛеКанн делает следующее заявление:

Следующим шагом в достижении уровня человеческого уровня является создание интеллектуальных, но не автономных машин. Система ИИ в вашем автомобиле доставит вас в безопасное место, но вы не выберете другое место назначения, как только вы войдете внутрь. Оттуда мы добавим основные побуждения, а также эмоции и моральные ценности. Если мы создаем машины, которые учатся так же хорошо, как и наш мозг, легко представить, что они наследуют человеческие качества и недостатки.

Лично я обычно придерживался позиции, что говорить об эмоциях для искусственного интеллекта глупо, потому что не было бы никаких причин создавать ИИ, которые испытывают эмоции. Очевидно, Янн не согласен. Таким образом, вопрос заключается в следующем: какой цели послужит это? Имеет ли ИИ потребность эмоции , чтобы служить в качестве полезного инструмента?

Mindcrime
источник
1
Возможный дубликат Почему кто-то хочет имитировать принятие эмоционального решения в ИИ? Принятый ответ («Мех, программистам-людям будет проще поддерживать программы ИИ».) Может быть не очень захватывающим или чудесным, но, по крайней мере, он кажется полусмысленным и разумным.
Left SE On 10_6_19
Там также альтернативный вариант: мы не обязательно хотим развивать AIs , что опыт человеческого типа эмоций (потому что тогда они были бы непредсказуемы, мы должны дать им права, бла - бла - бла), но это более продвинутые методы искусственного интеллекта (например, глубокое обучение) будет непреднамеренно развивать ИИ, которые испытывают человеческие эмоции. Дело не в том, что мы хотим их, а в том, что они могут прийти в любом случае. Имеют ли значение агенты, изучающие искусственное подкрепление, морально? обсуждает эту возможность.
Left SE On 10_6_19

Ответы:

11

Ответ на этот вопрос, в отличие от многих на этой доске, я думаю, является окончательным. Нет. Нам не нужно , чтобы у ИИ были эмоции, чтобы быть полезными, как мы видим по многочисленным ИИ, которые у нас уже есть, которые полезны.

Но для дальнейшего решения вопроса мы не можем по- настоящему передать эмоции ИИ. Я думаю, что самое близкое, что мы можем получить, это «Можем ли мы заставить этот ИИ вести себя так, как если бы этот человек был insert emotion?». Я думаю, в некотором смысле, это вызывает эмоции, но это совсем другое обсуждение.

И для чего? Единственная непосредственная причина, которая приходит на ум, - это создание более реалистичных компаньонов или взаимодействий для видеоигр или других развлечений. Справедливая цель,
но далеко не необходимая. Даже если принять во внимание приветственный робот с искусственным интеллектом в вестибюле какого-то здания, нам, вероятно, хотелось бы, чтобы он действовал сердечно.

Янн говорит, что супер-продвинутый ИИ привел бы к человеческим качествам и недостаткам. Я думаю, что это больше похоже на то, что «придаст нашему ИИ более человеческие качества или, другими словами, недостатки». Люди имеют тенденцию действовать нерационально, когда грустны или злы, и по большей части мы хотим только рационального ИИ.
Как говорится, человеку свойственно ошибаться.

Цель ИИ и алгоритмов обучения - создать системы, которые действуют или «думают» как люди, но лучше. Системы, которые могут адаптироваться или развиваться, в то же время портя как можно меньше. Эмоциональный ИИ использует, но это, безусловно, не является обязательным условием для полезной системы.

Авик Мохан
источник
5

Я думаю, что фундаментальный вопрос: зачем вообще пытаться создать ИИ? Если эта цель ясна, она прояснит, имеет ли смысл иметь эмоциональный коэффициент в ИИ. Некоторые попытки, такие как «Paro», которые были разработаны по терапевтическим причинам, требуют, чтобы они проявляли некоторые человеческие эмоции. Опять же, обратите внимание, что «показывать» эмоции и «чувствовать» эмоции - это две совершенно разные вещи.

Вы можете запрограммировать такую ​​вещь, как паро, для модуляции тонов голоса или лицевых подергиваний, чтобы выразить сочувствие, привязанность, дружеское общение или что-то еще - но при этом паро НЕ сопереживает своему владельцу - оно просто притворяется, выполняя физические проявления эмоции. Он никогда не «чувствует» ничего отдаленно ближе к тому, что эта эмоция вызывает в человеческом мозге.

Так что это различие действительно важно. Чтобы вы что-то чувствовали, должен существовать независимый автономный субъект, способный чувствовать. Чувство не может быть навязано внешним человеком.

Итак, возвращаясь к вопросу о том, какую цель он решает - ответ на самом деле - это зависит. И самое большее, я думаю, что мы когда-либо достигнем с ИИ на основе силикона, останется областью только физического представления эмоций.

Kingz
источник
Я склонен согласиться. И, возможно, мое мышление слишком ограничено, но большинство применений ИИ, о которых я думаю, не выиграют от ИИ, обладающего эмоциями. Ну, по крайней мере, я так думаю, сидя здесь и сейчас. Может быть, я когда-нибудь вернусь назад и пойму, что был неправ.
mindcrime
Требование о том, что ИИ должен / должен иметь эмоции, является неуместным ожиданием. AI в основном представляет собой набор инструментов, и поэтому его применение также должно определяться исходя из потребностей. В некоторых случаях использования может потребоваться эмоциональный аспект, в некоторых - нет. Кто знает!
Kingz
4

Я думаю, что эмоции не нужны агенту ИИ, чтобы быть полезным. Но я также думаю, что они могут сделать агента намного приятнее работать. Если бот, с которым вы разговариваете, может читать ваши эмоции и конструктивно реагировать, опыт взаимодействия с ним будет чрезвычайно приятным, а может быть, и впечатляющим.

Представьте себе, что сегодня вы связываетесь с представителем колл-центра с жалобой на ваш счет или продукт. Вы ожидаете конфликта. Возможно, вы даже решили НЕ звонить, потому что знаете, что этот опыт будет болезненным, либо боевым, либо разочаровывающим, поскольку кто-то неправильно понимает, что вы говорите, или отвечает враждебно или глупо.

А теперь представьте, что вам звонит самый умный и самый сфокусированный специалист по поддержке клиентов, которого вы когда-либо встречали, - Commander Data - единственная причина существования которого - сделать этот телефонный звонок максимально приятным и продуктивным для вас. Большое улучшение по сравнению с большинством повторений, да? Представьте себе, что если представитель отдела звонков может также предвидеть ваше настроение и соответствующим образом реагировать на ваши жалобы, чтобы разрядить ваше эмоциональное состояние ... вы захотите жениться на этом парне. Вы будете звонить в службу репутации вызовов в любое время, когда вам станет грустно, скучно или вы захотите поделиться некоторыми радостными новостями. Этот парень станет твоим лучшим другом в одночасье - буквально любовь с первого звонка.

Я убежден, что этот сценарий действителен. Я заметил в себе удивительную привлекательность для таких персонажей, как Data или Sonny из «I Robot». Голос очень успокаивает и мгновенно успокаивает меня. Если бы бот был также очень умным, терпеливым, знающим и понимающим ... Я действительно думаю, что такой бот, обладающий здоровой дозой эмоционального интеллекта, мог бы быть чрезвычайно приятным для общения. Гораздо более полезным, чем любой человек, которого я знаю. И я думаю, что это верно не только для меня.

Так что да, я думаю, что есть большая ценность в настройке личности робота с помощью эмоций и эмоциональной осведомленности.

похотливый
источник
4

Эмоции в ИИ полезны, но не обязательны в зависимости от вашей цели (в большинстве случаев это не так).

В частности, распознавание / анализ эмоций очень хорошо продвинуто, и оно очень успешно используется в широком спектре приложений: от учителя-робота для детей-аутистов (см. Развивающая робототехника) до азартных игр (покер), личных агентов и анализа политических настроений / лжи.

Эмоциональное познание , переживание эмоций для робота, гораздо менее развито, но есть очень интересные исследования (см. « Эффект эвристики» , «Вероятностная ассамблея любви» Lovotics и другие ...). Действительно, я не понимаю, почему мы не могли моделировать эмоции, такие как любовь, поскольку они являются просто сигналами, которые уже можно разрезать в мозге человека (см. Статью Брайана Д. Эрпа) . Это сложно, но не невозможно, и на самом деле есть несколько роботов, воспроизводящих частичное эмоциональное познание.

Я придерживаюсь мнения, что утверждение «роботы могут только моделировать, но не чувствовать» - это вопрос семантики , а не объективных возможностей: например, плавает ли подводная лодка как рыба? Однако самолеты летают, но совсем не так, как птицы. В конце концов, действительно ли техническое значение имеет значение, когда в конце концов мы получаем то же самое поведение? Можем ли мы сказать, что такой робот, как Чеппи , если он когда-либо будет создан, не чувствует ничего, как простой термостат?

Тем не менее, какой смысл в эмоциональном познании для ИИ? Этот вопрос все еще обсуждается, но я позволю себе высказать свое собственное мнение:

  1. Эмоции у людей (и животных!), Как известно, влияют на воспоминания. Теперь они хорошо известны в нейробиологии как дополнительные методы или метаданные, если вы предпочитаете, долговременных воспоминаний: они позволяют модулировать, как хранится память, как она связана / связана с другими воспоминаниями и как она будет извлечена. ,

  2. Таким образом, мы можем предположить, что основная роль эмоций заключается в добавлении дополнительной метаинформации в воспоминания для помощи в эвристическом выводе / поиске. Действительно, у нас огромные воспоминания, за всю жизнь мы храним много информации, поэтому эмоции могут быть использованы в качестве «ярлыков», чтобы помочь быстрее получить нужные воспоминания.

  3. Подобные «ярлыки» можно легче связать вместе (воспоминания о страшных событиях вместе, воспоминания о счастливых событиях вместе и т. Д.). Таким образом, они могут помочь выживанию, быстро реагируя и применяя известные стратегии (спасаясь!) Из страшных стратегий, или извлекая максимальную выгоду из выгодных ситуаций (счастливые события, съешьте как можно больше, помогут выжить позже!). И действительно, нейробиологические исследования обнаружили, что существуют специфические пути для вызывающих страх сенсорных раздражителей, так что они достигают исполнительных механизмов быстрее (заставляют вас бежать), чем через обычный сомато-сенсорный контур, как и все остальные раздражители. Этот вид ассоциативных рассуждений может также привести к решениям и выводам, которые не могут быть достигнуты иначе.

  4. Чувствуя сочувствие, это может облегчить взаимодействие роботов и людей (например, беспилотники, помогающие жертвам катастрофических событий).

  5. Виртуальная модель ИИ с эмоциями может быть полезна для нейробиологии и медицинских исследований эмоциональных расстройств в качестве вычислительных моделей для понимания и / или вывода основных параметров (это часто делается, например, при болезни Альцгеймера и других нейродегенеративных заболеваниях, но я не уверен, если это когда-либо было сделано для эмоциональных расстройств, так как они довольно новые в DSM).

Так что да, «холодный» ИИ уже полезен, но эмоциональный ИИ, несомненно, может быть применен к новым областям, которые нельзя исследовать с помощью одного только «холодного» ИИ. Это также, безусловно, поможет в понимании нашего собственного мозга, так как эмоции являются неотъемлемой частью.

gaborous
источник
2

Я думаю, что это зависит от применения ИИ. Очевидно, что если я разрабатываю ИИ, целью которого является выполнение конкретной задачи под наблюдением людей, то эмоции не нужны. Но если цель ИИ состоит в том, чтобы выполнять задачу самостоятельно, то эмоции или сочувствие могут быть полезны. Например, подумайте об ИИ, который работает в медицинской сфере. Здесь ИИ может быть выгодно иметь какую-то эмпатию, просто чтобы сделать пациентов более комфортными. Или в качестве другого примера, подумайте о роботе, который служит няней. Опять же, очевидно, что эмоции и сочувствие были бы выгодны и желательны. Даже для вспомогательной программы ИИ («умный дом» с ключевыми словами) эмоции и сочувствие могут быть желательными, чтобы сделать людей более комфортными.

С другой стороны, если ИИ просто работает на конвейере, очевидно, нет необходимости в эмоциях и сочувствии (наоборот, в этом случае это может быть невыгодно).

BobbyPi
источник
2

Сильные ИИ

Для сильного ИИ короткий ответ - позвать на помощь, когда они могут даже не знать, что такое предполагаемая помощь.

Это зависит от того, что будет делать ИИ. Если предполагается, что она решит одну простую задачу идеально и профессионально, то эмоции не будут очень полезными. Но если он должен изучать случайные новые вещи, был бы момент, когда он сталкивался с чем-то, с чем не мог справиться.

В 4-м матче Ли Седол против AlphaGo некоторые профессионалы, которые говорили, что компьютер ранее не испытывал эмоций, говорили, что, возможно, у AlphaGo тоже есть эмоции, и они сильнее человеческих. В этом случае мы знаем, что сумасшедшее поведение AlphaGo вызвано не некоторыми намеренно добавленными вещами, называемыми «эмоциями», а недостатком алгоритма. Но он ведет себя точно так же, как запаниковал.

Если это случается много для ИИ. Там могут быть преимущества, если он мог бы знать это сам и подумать дважды, если это произойдет. Если AlphaGo сможет обнаружить проблему и изменить свою стратегию, она может сыграть лучше или хуже. Маловероятно, что он будет играть хуже, если не будет никаких вычислений для других подходов. В случае, если это будет играть хуже, мы можем сказать, что страдает от "эмоций", и это может быть причиной того, что некоторые люди думают, что эмоции могут быть недостатком человеческих существ. Но это не было бы истинной причиной проблемы. Истинная причина в том, что он просто не знает никаких подходов, чтобы гарантировать победу, и изменение стратегии - всего лишь попытка решить проблему. Комментаторы считают, что есть лучшие способы (которые также не гарантируют выигрыша, но имели больше шансов), но его алгоритм не Я способен выяснить в этой ситуации. Даже для человека решение всего, что связано с эмоциями, вряд ли удалит эмоции, но некоторые тренировки помогут вам понять ситуацию достаточно, чтобы действовать спокойно.

Тогда кто-то должен спорить о том, является ли это своего рода эмоцией или нет. Мы обычно не говорим, что маленькие насекомые имеют человеческие эмоции, потому что мы их не понимаем и не хотим им помогать. Но легко понять, что некоторые из них могут паниковать в безвыходных ситуациях, как это делал AlphaGo. Я бы сказал, что эти реакции основаны на одной и той же логике, и они, по крайней мере, являются причиной, по которой человеческие эмоции могут быть потенциально полезными. Они просто не выражены понятными для человека способами, поскольку они не собирались звать человека на помощь.

Если они пытаются понять свое собственное поведение или звать кого-то на помощь, было бы хорошо, чтобы они были в точности похожи на людей. Некоторые домашние животные могут в определенной степени ощущать человеческие эмоции и выражать понятные человеку эмоции. Цель состоит в том, чтобы взаимодействовать с людьми. Они эволюционировали, чтобы иметь эту способность, потому что они нуждались в ней в какой-то момент. Вероятно, полноценному ИИ это тоже понадобится. Также обратите внимание, что противоположность полных эмоций может стать сумасшедшей.

Хотя, возможно, это быстрый способ потерять доверие, если кто-то просто реализует эмоции, подражая людям с небольшим пониманием сразу в первых поколениях.

Слабые ИИ

Но есть ли у них цели иметь эмоции, прежде чем кто-то хочет сильного ИИ? Я бы сказал, нет, нет никаких причин, по которым у них должны быть эмоции. Но неизбежно кто-то захочет реализовать имитированные эмоции в любом случае. Нужно ли им, чтобы у нас были эмоции, это просто чепуха.

Дело в том, что даже некоторые программы без какого-либо интеллекта содержат некоторые «эмоциональные» элементы в своих пользовательских интерфейсах. Они могут выглядеть непрофессионально, но не каждая задача требует профессионализма, поэтому они могут быть вполне приемлемыми. Они как эмоции в музыке и искусстве. Кто-то будет таким же образом создавать свой слабый ИИ. Но на самом деле это не эмоции ИИ, а их создатели. Если вы чувствуете себя лучше или хуже из-за их эмоций, вы не будете так по-разному относиться к отдельным ИИ, как к этой модели или бренду в целом.

В качестве альтернативы кто-то может привить себе личность, как в ролевой игре. Опять же, нет причины, по которой они должны это иметь, но неизбежно кто-то это сделает, потому что у них, очевидно, был какой-то рынок, когда у них была ролевая игра.

В любом случае эмоции на самом деле не происходят от самого ИИ. И это было бы легко реализовать, потому что человек не будет ожидать, что они будут точно такими же, как человек, но попытается понять, что он хотел сказать. Может быть, намного легче принять эти эмоции, осознав это.

Аспекты эмоций

Извините за публикацию оригинального исследования здесь. Я составил список эмоций в 2012 году, из которого я вижу 4 аспекта эмоций. Если бы они все были реализованы, я бы сказал, что это те же эмоции, что и у людей. Они не кажутся реальными, если только некоторые из них реализованы, но это не значит, что они совершенно не правы.

  • Причина, или оригинальная логическая проблема, которую ИИ не может решить. У AlphaGo уже была причина, но больше ничего. Если бы мне нужно было дать точное определение, я бы сказал, что это состояние, в котором несколько одинаково важных эвристик не согласны друг с другом.
    • Контекст или какая часть нынешнего подхода считается неэффективной и, вероятно, должна быть заменена. Это различает грусть, беспокойство и страсть.
    • Текущее состояние, или он чувствует себя ведущим, или его вера или факт должны сначала стать плохими (или были плохими все время), если что-то пойдет не так. Это отличает грусть, любовь и гордость.
  • План или запрос. Я предполагаю, что у некоторых домашних животных уже было это. И я предполагаю, что у них были некоторые фиксированные образцы, которые не так уж и сложны. Даже искусство может содержать их легко. В отличие от причин, они вряд ли присущи каким-либо алгоритмам, и несколько из них могут появляться вместе.
    • Кто якобы нес ответственность, если эмоции ничего не изменили. Это отличает любопытство, ярость и грусть.
    • Каков предполагаемый план, если эмоция ничего не меняет? Это отличает разочарование, грусть и удивление.
  • Источник. Без контекста даже человек не может с уверенностью сказать, что кто-то плачет от того, что его взволновали, или он благодарен, или улыбается от какого-то смущения. В большинстве других случаев нет даже слов, описывающих их. Это не имеет большого значения, если ИИ не различает или не показывает это специально. Вероятно, они будут изучать их автоматически (и неточно, как человек) в тот момент, когда они смогут научиться понимать человеческие языки.
  • Измерения, например, насколько актуальна или важна проблема, или даже насколько вероятны эмоции. Я бы сказал, что это не может быть реализовано в AI. Людям не нужно уважать их, даже если они точно такие же, как люди. Но люди научатся понимать ИИ, если это действительно имеет значение, даже если они совсем не похожи на людей. На самом деле, я чувствую, что некоторые из крайне слабых эмоций (например, думать, что что-то слишком глупо и скучно, что вы не знаете, как комментировать) существуют почти исключительно в смайликах, где кто-то намеревается показать вам именно эту эмоцию, и вряд ли заметно в реальной жизни или любых сложных сценариях. Я предположил, что это также может иметь место в начале для ИИ. В худшем случае их обычно называют «эмоциями», поскольку в этих случаях работают смайлики, поэтому

Поэтому, когда станут возможны сильные ИИ, ни один из них не будет недоступен, хотя для установления связей может потребоваться много работы. Поэтому я бы сказал, что если понадобятся сильные ИИ, у них обязательно будут эмоции.

user23013
источник
2

Под эмоциями он не подразумевает добавления всевозможных эмоций в ИИ. Он имел в виду только те, которые будут полезны для принятия жизненно важных решений. Подумайте об этом инциденте на секунду:
предположим, что по шоссе проезжает машина с самостоятельным управлением ИИ. Человек, сидящий внутри, является генеральным директором компании, и он очень сильно отстает от графика. Если он не успеет вовремя, будет потеря миллионов долларов. ИИ в машине было сказано ехать как можно быстрее и добраться до места назначения. И теперь на пути появляется кролик (или какое-то другое животное). Теперь, если автомобиль включит экстренные тормоза, пассажиры получат серьезные травмы, и, кроме того, будут потеряны миллионы, поскольку генеральный директор не сможет попасть на встречу.

Что теперь будет делать ИИ?
Поскольку для ИИ их решения основаны только на ихвспомогательная функция . Ударь кролика и продолжай идти - логически покажет лучший вариант. Но если ИИ примет это решение.

Есть много подобных вопросов, когда ИИ может застрять в ситуации, когда моральные решения будут играть жизненно важную роль.
Приведенный выше сценарий только для примера.

Сурадж Шах
источник
1

Теория мышления

Если мы хотим, чтобы сильный ИИ хорошо функционировал в среде, состоящей из людей, тогда было бы очень полезно иметь хорошую теорию разума, которая бы соответствовала поведению людей. Эта теория ума должна включать в себя человеческие эмоции, иначе она не будет соответствовать реальности этой среды.

Для нас часто используемый ярлык явно думает "что бы я сделал в этой ситуации?" "какое событие могло побудить меня сделать то, что они только что сделали?" «Как бы я себя чувствовал, если бы это случилось со мной ?». Мы бы хотели, чтобы ИИ был способен на такие рассуждения, он практичен и полезен, он позволяет лучше прогнозировать будущие и более эффективные действия.

Даже если для ИИ было бы лучше не руководствоваться этими точными эмоциями (возможно, что-то в этом направлении было бы полезно, но, скорее всего, не совсем то же самое), все это меняет это вместо того, чтобы думать «что бы я чувствовал» он должен быть в состоянии выдвинуть гипотезу о том, что чувствовал бы обычный человек. Это требует внедрения подсистемы, способной точно моделировать человеческие эмоции.

Петерис
источник
1

Осторожный! На самом деле есть две части вашего вопроса. Не объединяйте значения в своих вопросах, иначе вы действительно не будете знать, на какую часть вы отвечаете.

  1. Должны ли мы позволить AGI испытывать эмоции за «качественный опыт»? (В том смысле, что вы чувствуете, что «ваше сердце горит», когда вы влюбляетесь)

Кажется, нет четкой цели, почему мы этого хотим. Гипотетически мы могли бы просто иметь что-то, что функционально неотличимо от эмоций, но не имеет какого-либо качественного опыта в отношении AGI. Но у нас нет научной позиции, где мы можем даже начать отвечать на любые вопросы о происхождении качественного опыта, поэтому я не буду углубляться в углубление этого вопроса.

  1. Должны ли мы позволить AGI иметь эмоции в соответствии с его функциональной эквивалентностью от внешнего наблюдателя?

ИМХО да. Хотя можно представить себе злого ИИ без эмоций, делающего все, что вы от него хотите, мы хотим, чтобы ИИ мог интегрироваться с человеческими ценностями и эмоциями, что является проблемой выравнивания. Таким образом, казалось бы естественным предположить, что любой хорошо организованный AGI будет иметь что-то похожее на эмоции, если он хорошо интегрируется с людьми.

НО, без четкой теории разума даже не имеет смысла спрашивать: «должны ли наши AGI иметь эмоции?» Возможно, в наших эмоциях есть что-то критическое, что делает нас продуктивными когнитивными агентами, которые также потребуются любому AGI.

Действительно, эмоции часто упускают из виду аспект познания. Люди почему-то думают, что бесчувственные спокоподобные персонажи - это вершина человеческого интеллекта. Но эмоции на самом деле являются решающим аспектом в процессе принятия решений, см. Эту статью для примера проблем с «интеллектом без эмоций».

Последующим вопросом будет «какие эмоции будут развиваться AGI?», Но опять же мы не в состоянии ответить на этот вопрос (пока).

кс сайз 'кс сайз'
источник
0

Какой цели будет служить развитие ИИ, которые испытывают человеческие эмоции?

Любая сложная проблема, связанная с человеческими эмоциями, когда решение проблемы требует умения симпатизировать эмоциональным состояниям людей, будет наиболее эффективно обслуживаться агентом, который может симпатизировать человеческим эмоциям.

Политика. Правительство. Политика и планирование. Если человек не имеет глубоких знаний о человеческом опыте, он не сможет дать окончательных ответов на все проблемы, с которыми мы сталкиваемся в нашем человеческом опыте.

Doxosophoi
источник
Выступление с точки зрения политики и правительства было отличным примером. Однако я считаю, что ИИ должен уметь понимать эмоции и не обязательно испытывать их.
Сет Симба
0

Человеческие эмоции неразрывно связаны с человеческими ценностями и нашей способностью сотрудничать и формировать общества.

Просто чтобы привести простой пример: вы встречаете незнакомца, которому нужна помощь, вы чувствуете сочувствие . Это заставляет вас помогать ему ценой для себя. Давайте предположим, что в следующий раз, когда вы встретите его, вам что-то понадобится Давайте также предположим, что он вам не поможет, вы почувствуете гнев . Эта эмоция вынуждает вас наказать его, заплатив еще больше за себя. Он, с другой стороны, если он вам не помогает, чувствует стыд . Это заставляет его реально помогать вам, избегая вашего гнева и делая ваши первоначальные инвестиции окупаемыми. Вы оба выигрываете.

Таким образом, эти три эмоции поддерживают круг взаимной помощи. Сочувствие, чтобы начать, гнев, чтобы наказать перебежчиков и стыд, чтобы избежать гнева. Это также приводит к концепции справедливости.

Учитывая, что выравнивание ценностей является одной из больших проблем в AGI, человеческие эмоции кажутся мне хорошим подходом к ИИ, которые на самом деле разделяют наши ценности и легко интегрируются в наше общество.

BlindKungFuMaster
источник
Хорошо, но если вы уйдете, отец, вы увидите, что эмоции - это всего лишь ярлыки для логического объяснения, почему они полезны или бесполезны. Правила могут быть получены из эмоций и нашей биологии. И эти правила хранятся в сжатой и неочевидной форме, как эмоции и биология. Для нас это необходимость, но не для ai, хотя для нас это может работать как оптимизация для ИИ, если стоимость такой реализации в цифровой форме будет ниже, чем реализация на основе правил. Проблема с правилами одна, мы сами не знаем их полностью, но задача ИИ более узкая, чем наша, правила могут не понадобиться
MolbOrg