Были ли еще разработаны какие-либо системы ИИ, которые могут сознательно обманывать / обманывать человека?

11

Системы ИИ сегодня являются очень способными машинами, и в последнее время область Обработки естественных языков и реагирования расширяется благодаря инновациям, а также фундаментальной алгоритмической структуре машин ИИ.

Я спрашиваю, были ли разработаны с учетом этих недавних достижений какие-либо системы искусственного интеллекта, способные (предпочтительно с некоторым успехом) сознательно лгать людям о фактах, которые они знают?

Обратите внимание, что я спрашиваю, выходит за рамки канонических обсуждений теста Тьюринга. Я спрашиваю о машинах, которые могут «понять» факты и затем сформулировать ложь против этого факта, возможно, используя другие факты, чтобы произвести правдоподобное «сокрытие» как часть лжи.

Например, суперкомпьютер CIA похищен шпионами, и они пытаются использовать компьютер для выполнения каких-то задач, но компьютер постоянно говорит, что ему не хватает зависимостей, хотя на самом деле это не так или дает правильные, но неправильные ответы заведомо. Или дает неправильное местоположение человека, зная, что человек часто посещает какое-то место, но в данный момент его там нет. Конечно, не обязательно быть таким изощренным.

Авик Мохан
источник

Ответы:

10

Субботние газеты: будет ли тебе лгать А.И.? это сообщение в блоге, подытоживающее исследовательскую работу под названием « К персонажам, которые наблюдают, говорят, неправильно запоминают и лгут» . В этом исследовании подробно описываются планы некоторых исследователей по внедрению «ментальных моделей» для NPC в видеоиграх. NPC будут собирать информацию о мире и передавать эти знания другим людям (включая игроков). Тем не менее, они также будут «запоминать» это знание (либо «мутировать» это знание, либо просто забывать о нем), либо даже лгать:

Когда субъект разговора поднимается, персонаж может передать ложную информацию - точнее, информацию, в которую она сама не верит - своему собеседнику. В настоящее время это происходит вероятностно в соответствии со сродством персонажа к собеседнику, и дезинформация выбирается случайным образом.

Позже в исследовательской работе они подробно описали свои будущие планы лжи:

В настоящее время ложь хранится только в знаниях персонажей, которые их получают, но мы планируем, чтобы персонажи, которые им говорят, также отслеживали их, чтобы они могли рассуждать о прошлой лжи при построении последующих. В то время как персонажи в настоящее время лгут только о других персонажах, мы планируем также реализовать эгоцентрическую ложь (DePaulo 2004), например, персонажи, которые лгут о своих должностях или отношениях с другими персонажами. Наконец, мы представляем персонажей, которые обнаруживают, что им лгали, чтобы пересмотреть свою привязанность к лжецам или даже противостоять им.

В исследовании также подробно рассказывается о том, как другие разработчики видеоигр пытались создать лживых NPC, с акцентом на отличие их системы:

Символы TALE-SPIN могут лгать друг другу (Meehan 1976, 183-84), хотя довольно произвольно, как в нашей текущей реализации системы. GOLEM реализует вариант мира блоков, в котором агенты обманывают других для достижения целей (Castelfranchi, Falcone и De Rosis 1998), в то время как Mouth of Truth использует вероятностное представление верования персонажа для обмана топливных агентов в варианте имитационной игры Тьюринга (De Rosis) и др. 2003). В Christian (2004) планировщик обмана вводит неточное мировое состояние в убеждения целевого агента, чтобы она могла невольно выполнять действия, которые выполняют скрытые цели обманчивого агента. Наконец, агенты в расширении Рейти (2012) для FAtiMA используют многоуровневую теорию разума, чтобы обмануть друг друга в партийной игре Оборотень. Хотя все вышеперечисленные системы демонстрируют персонажей, которые воспринимают, а в некоторых случаях обманывают других персонажей, ни одна из них не поддерживает следующие ключевые компоненты нашей системы: распространение знаний и ошибочность памяти. ...

Как и несколько других систем, упомянутых выше, в Dwarf Fortress также есть персонажи, которые автономно лгут. Когда персонаж совершает преступление, он может ложно включить кого-то в свидетельские показания шерифа, чтобы защитить себя или даже подставить врага. Эти свидетельские показания, однако, видны только игроку; персонажи не дают ложных свидетельских показаний друг другу. Однако они могут лгать о своем мнении, например, из-за страха последствий критики лидера. Наконец, Dwarf Fortress в настоящее время не моделирует проблемы ошибочности памяти - Адамс опасается, что такие явления могут возникнуть из-за ошибок, если они не будут искусно выражены игроку.

Left SE On 10_6_19
источник
2

Вы должны будете предоставить больше контекста вокруг использования слова «ложь», если вы не хотите, чтобы ваш ответ был удовлетворен каким-то тривиальным примером, например:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

Сложность ответа зависит от того, что вы подразумеваете под «знать», когда говорите «сознательная ложь». В некотором смысле вышеприведенная «равная» функция «знает», что выходные данные отличаются от условных.

В принципе, агенты, передающие друг другу строки информации с целью введения в заблуждение друг друга, не должны быть ужасно сложными для реализации. Такое поведение, вероятно, возникает естественным образом в конкурентной среде с несколькими агентами. Смотрите, развивающиеся роботы учатся лгать друг другу .

Для того, чтобы получить под другим углом , что вы можете спросить - абсолютно, способность к выдумке или сочувственно заблуждение будет необходимых навыки для роботов , которые взаимодействуют с людьми , используя разговорный язык - особенно те , которые пытаются продавать вещи для людей. Что касается шпионов и суперкомпьютеров - я бы просто заморозил состояние программы ИИ. Если у вас есть полный снимок состояния агента, вы можете пройтись по каждой условной ветви, проверяя любые ветви, которые отражают или истолковывают истину.

Doxosophoi
источник
1
Поведение ИИ может быть закодировано в весах ANN, что делает «прохождение через каждую условную ветвь» весьма нетривиальной задачей.
NietzscheanAI
Согласовано. Но это доказывает, что, в принципе, за безопасным поведением ИИ можно безопасно наблюдать, вместо других вариантов.
Doxosophoi
2

Нет.

В том, что вопрос включает в себя «сознательно», который потребует, чтобы любой ИИ знал что-либо. Если это что-то вроде того, как люди знают вещи (хотя интересно, что это не требует реального знания вещей), это потребовало бы некоторого чувства индивидуальности, возможно, самосознания, возможно, какого-то сознания, способности высказывать мнение и, возможно, какой-то способ проверить свои знания. Большинство из этих функций существуют только, в лучшем случае, возможно.

Кроме того, термин «ложь» подразумевает чувство собственного интереса, независимое понимание потока ресурсов в теоретико-игровом смысле, а не тривиальное, понимание того, лжет ли другой объект в разговоре, чтобы сделать Решение с любой степенью точности. Таким образом, ни один ИИ не может лгать кому-либо, кроме как в тривиальных сценариях, предложенных в других ответах, представляя ложную информацию, основанную на определенных контекстах, которая представляет собой простой ввод / вывод.

Как опытный разработчик программного обеспечения, я могу засвидетельствовать тот факт, что если цель состоит в том, чтобы отобразить правильный вывод на основе любого ввода, на самом деле, по крайней мере, так же просто, если не намного проще, представить ложную информацию.

dynrepsys
источник
1

Да.

Позвольте мне продемонстрировать, сделав искусственный искусственный интеллект прямо сейчас. (код Python)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

И обманчивый

print("Hey, check out this site I found! bit.ly/29u4JGB")

ИИ это такой общий термин. Это может быть использовано для описания почти всего. Вы не указали, что это должен быть Общий ИИ.

А я не могу думать. Это компьютерные программы. У них нет ни души, ни воли. Только программист (или если он был разработан с помощью эволюции ... никто , но это не по теме) может сознательно программировать ИИ на ложь.

Обратите внимание, что я спрашиваю, выходит за рамки канонических обсуждений теста Тьюринга. Я спрашиваю о машинах, которые могут «понять» факты и затем сформулировать ложь против этого факта, возможно, используя другие факты, чтобы произвести правдоподобное «сокрытие» как часть лжи.

Да, это случилось Это называется вредоносной программой. Некоторые продвинутые вредоносные программы будут говорить с вами, притворяясь технической поддержкой, и отвечать обычными человеческими ответами. Но вы можете сказать: «Ну, это не совсем« понять ». Но это было бы легко. Нейронная сеть + больше ЦП, чем существует на планете * (она будет существовать через несколько лет и станет доступной) + некоторые примеры ответов = Нейронная сеть AI (то же самое в yo noggin), которая понимает и отвечает.

Но это не обязательно. Относительно простая нейронная сеть с несколькими суперкомпьютерами, которые могут поместиться в комнате, может убедить человека. Это не понимает.

Итак, это действительно ...

Технически, нет, но это возможно, и если вы растягиваете правила, да.

* Или даже проще:

print("1+1=3")

Аккредитация: я программист (посмотрите на мою учетную запись переполнения стека), который немного знает об искусственном интеллекте.

noɥʇʎԀʎzɐɹƆ
источник
1
Это совсем не то, о чем я говорил. Это программы, которые выполняют явно закодированное, заранее определенное поведение и не используют искусственный интеллект. Программист может дать AI инструменты и научить его лгать.
Авик Мохан
@ uoɥʇʎPʎzɐɹC "А я не могу думать"? Вы имеете в виду в настоящее время? Конечно, целью AGI является моделирование как неразличимого или улучшение того, что мы определяем как «мышление», не так ли? Я согласен, что детерминированные алгоритмы не могут думать.
dynrepsys
@AvikMohan это имеет значение? ИИ судит по ПОВЕДЕНИЮ, а не по тому, как он был создан.
noɥʇʎԀʎzɐɹƆ
@dynrepsys Откуда вы знаете, что все эти алгоритмы являются детерминированными? Откуда ты знаешь, что ты не детерминирован? Нейронные сети НЕ являются детерминированными и являются одним и тем же в вашем noggin.
noɥʇʎԀʎzɐɹƆ
Поведение здесь явное и несгибаемое, а также подход «ленивый» / «жадный». Я говорю и о поведении, но только о «интеллектуальном» виде.
Авик Мохан,
0

Да.

  1. Каждая игра в шахматы ... каждая игра в покер. Каждая игра
  2. Все более интеллектуальные спам-программы или спам-боты. Хотя их основная цель - обманывать компьютерные системы (например, отравление спам-фильтрами), их вторичная цель - обманывать человека, стоящего за ними.
Петер - Восстановить Монику
источник