Субботние газеты: будет ли тебе лгать А.И.? это сообщение в блоге, подытоживающее исследовательскую работу под названием « К персонажам, которые наблюдают, говорят, неправильно запоминают и лгут» . В этом исследовании подробно описываются планы некоторых исследователей по внедрению «ментальных моделей» для NPC в видеоиграх. NPC будут собирать информацию о мире и передавать эти знания другим людям (включая игроков). Тем не менее, они также будут «запоминать» это знание (либо «мутировать» это знание, либо просто забывать о нем), либо даже лгать:
Когда субъект разговора поднимается, персонаж может передать ложную информацию - точнее, информацию, в которую она сама не верит - своему собеседнику. В настоящее время это происходит вероятностно в соответствии со сродством персонажа к собеседнику, и дезинформация выбирается случайным образом.
Позже в исследовательской работе они подробно описали свои будущие планы лжи:
В настоящее время ложь хранится только в знаниях персонажей, которые их получают, но мы планируем, чтобы персонажи, которые им говорят, также отслеживали их, чтобы они могли рассуждать о прошлой лжи при построении последующих. В то время как персонажи в настоящее время лгут только о других персонажах, мы планируем также реализовать эгоцентрическую ложь (DePaulo 2004), например, персонажи, которые лгут о своих должностях или отношениях с другими персонажами. Наконец, мы представляем персонажей, которые обнаруживают, что им лгали, чтобы пересмотреть свою привязанность к лжецам или даже противостоять им.
В исследовании также подробно рассказывается о том, как другие разработчики видеоигр пытались создать лживых NPC, с акцентом на отличие их системы:
Символы TALE-SPIN могут лгать друг другу (Meehan 1976, 183-84), хотя довольно произвольно, как в нашей текущей реализации системы. GOLEM реализует вариант мира блоков, в котором агенты обманывают других для достижения целей (Castelfranchi, Falcone и De Rosis 1998), в то время как Mouth of Truth использует вероятностное представление верования персонажа для обмана топливных агентов в варианте имитационной игры Тьюринга (De Rosis) и др. 2003). В Christian (2004) планировщик обмана вводит неточное мировое состояние в убеждения целевого агента, чтобы она могла невольно выполнять действия, которые выполняют скрытые цели обманчивого агента. Наконец, агенты в расширении Рейти (2012) для FAtiMA используют многоуровневую теорию разума, чтобы обмануть друг друга в партийной игре Оборотень. Хотя все вышеперечисленные системы демонстрируют персонажей, которые воспринимают, а в некоторых случаях обманывают других персонажей, ни одна из них не поддерживает следующие ключевые компоненты нашей системы: распространение знаний и ошибочность памяти. ...
Как и несколько других систем, упомянутых выше, в Dwarf Fortress также есть персонажи, которые автономно лгут. Когда персонаж совершает преступление, он может ложно включить кого-то в свидетельские показания шерифа, чтобы защитить себя или даже подставить врага. Эти свидетельские показания, однако, видны только игроку; персонажи не дают ложных свидетельских показаний друг другу. Однако они могут лгать о своем мнении, например, из-за страха последствий критики лидера. Наконец, Dwarf Fortress в настоящее время не моделирует проблемы ошибочности памяти - Адамс опасается, что такие явления могут возникнуть из-за ошибок, если они не будут искусно выражены игроку.
Нет.
В том, что вопрос включает в себя «сознательно», который потребует, чтобы любой ИИ знал что-либо. Если это что-то вроде того, как люди знают вещи (хотя интересно, что это не требует реального знания вещей), это потребовало бы некоторого чувства индивидуальности, возможно, самосознания, возможно, какого-то сознания, способности высказывать мнение и, возможно, какой-то способ проверить свои знания. Большинство из этих функций существуют только, в лучшем случае, возможно.
Кроме того, термин «ложь» подразумевает чувство собственного интереса, независимое понимание потока ресурсов в теоретико-игровом смысле, а не тривиальное, понимание того, лжет ли другой объект в разговоре, чтобы сделать Решение с любой степенью точности. Таким образом, ни один ИИ не может лгать кому-либо, кроме как в тривиальных сценариях, предложенных в других ответах, представляя ложную информацию, основанную на определенных контекстах, которая представляет собой простой ввод / вывод.
Как опытный разработчик программного обеспечения, я могу засвидетельствовать тот факт, что если цель состоит в том, чтобы отобразить правильный вывод на основе любого ввода, на самом деле, по крайней мере, так же просто, если не намного проще, представить ложную информацию.
источник
Да.
Позвольте мне продемонстрировать, сделав искусственный искусственный интеллект прямо сейчас. (код Python)
И обманчивый
ИИ это такой общий термин. Это может быть использовано для описания почти всего. Вы не указали, что это должен быть Общий ИИ.
А я не могу думать. Это компьютерные программы. У них нет ни души, ни воли. Только программист (или если он был разработан с помощью эволюции ... никто , но это не по теме) может сознательно программировать ИИ на ложь.
Да, это случилось Это называется вредоносной программой. Некоторые продвинутые вредоносные программы будут говорить с вами, притворяясь технической поддержкой, и отвечать обычными человеческими ответами. Но вы можете сказать: «Ну, это не совсем« понять ». Но это было бы легко. Нейронная сеть + больше ЦП, чем существует на планете * (она будет существовать через несколько лет и станет доступной) + некоторые примеры ответов = Нейронная сеть AI (то же самое в yo noggin), которая понимает и отвечает.
Но это не обязательно. Относительно простая нейронная сеть с несколькими суперкомпьютерами, которые могут поместиться в комнате, может убедить человека. Это не понимает.
Итак, это действительно ...
Технически, нет, но это возможно, и если вы растягиваете правила, да.
* Или даже проще:
Аккредитация: я программист (посмотрите на мою учетную запись переполнения стека), который немного знает об искусственном интеллекте.
источник
Да.
источник