Проблемы, которые когда-либо смогут решить только люди

17

С возрастающей сложностью reCAPTCHA я задумался о существовании некоторой проблемы, которую сможет решить только человек (или что ИИ не сможет решить, пока он не воспроизводит точно человеческий мозг) ,

Например, искаженный текст раньше можно было разрешить только людям. Хотя...

Теперь компьютер прошел тест на [искаженный текст] прямо на 99,8%, даже в самых сложных ситуациях.

Также очевидно, что искаженный текст больше не может использоваться для реального обнаружения человека.

Я также хотел бы знать, может ли алгоритм использоваться для создания такой проблемы (как для искаженного текста), или обязательно нужна оригинальность человеческого мозга.

Марк Перлэйд
источник

Ответы:

10

Неформально, AI-полные проблемы являются наиболее сложными проблемами для ИИ. Концепция еще не определена математически , как, например, NP-полные задачи. Тем не менее, интуитивно, это проблемы, которые требуют человеческого уровня или общего интеллекта для решения.

Считается, что реальное понимание естественного языка является полной проблемой ИИ (это также обсуждается в статье « Сделаем ИИ снова значимым для Джобста Ландгреба и Барри Смита», 2019). Есть намного больше ИИ-полных проблем. Например, проблемы, связанные с эмоциями.

nbro
источник
3
NP-полные задачи называются «полными», потому что они являются наиболее сложными в точном смысле: любая другая проблема в NP может быть сведена к одной из них с помощью детерминированного алгоритма за полиномиальное время. Следовательно, оракул, который может решить любую из NP-полных задач за полиномиальное время, может быть использован для решения каждой проблемы в NP за многократное время. Есть ли какой-либо признак того, что ваше представление об ИИ-полноте имеет объективный смысл подобным образом?
Майк
1
@MikeSpivey Это хороший вопрос. Я не читал большое количество соответствующей литературы, но в статье « К теории полноты искусственного интеллекта», на которую я ссылаюсь в своем ответе, авторы утверждают: « Эти меры могут также сказать нам, сколько проблемы мы уже решили делегировать на компьютер; используя сокращения, прогресс в одной задаче может привести к прогрессу в другой ». Итак, в этой статье, по крайней мере, есть желание разработать формальную теорию сложности для ИИ.
19
1

Это скорее комментарий и философское мнение, но я не верю, что есть какие-то проблемы, которые ИИ не мог бы решить, которые может решить человек. Будучи новичком в этом форуме, я не могу комментировать этот вопрос (и это, вероятно, будет слишком долго) - я прошу прощения за вас.

ИИ в конце концов подражает людям (и превосходит их)

Люди по своей природе логичны. Логика учится или запрограммирована, и на нее влияют наблюдения и химические импульсы.

Пока ИИ можно научить вести себя как человек, он сможет действовать как один. В настоящее время такое поведение ограничено технологией (пространство, связи и т. Д.), Которую человеческий мозг оптимизировал для исключения или игнорирования определенного «пуха», автоматически предоставляя ему определенные суперспособности . Например, не все увиденное регистрируется через мозг; часто мозг выполняет дифференциальные сравнения и обновления для изменений, чтобы сократить время и энергию обработки. Это будет лишь вопросом времени, когда ИИ также можно будет запрограммировать на такое поведение, иначе технологические достижения позволят ему не нуждаться в какой-то части этой функции, что позволит ему перепрыгнуть через людей.

В текущем состоянии мы признаем, что люди иногда иррациональны или противоречивы. В этих случаях ИИ может имитировать человеческие ограничения с помощью настроенных шаблонов рандомизации, но, опять же, в этом действительно не будет необходимости, поскольку он может быть запрограммирован и изучать эти шаблоны автоматически (при необходимости).

Все сводится к потреблению данных, сохранению информации и полученным исправлениям. Таким образом, нет проблемы в том, что человек может выполнять (насколько мне известно) то, что ИИ теоретически не мог бы выполнить. Даже в случае химии. Поскольку мы производим пищу и органы, ИИ теоретически может однажды размножиться и выжить благодаря биологическим функциям.

Вместо вопроса о бинарности человеческих возможностей по сравнению с искусственным интеллектом, мне было бы более интересно посмотреть, что люди думают о том, что люди могут сделать более сложной задачей, для чего ИИ потребуется время.

vol7ron
источник
Привет вол7рон. Я отклонил этот ответ, потому что он полон спекуляций, поэтому я не думаю, что это очень полезный ответ, и я не согласен с большинством ваших утверждений. Не принимайте это на свой счет. В любом случае, AFAIK, вы можете комментировать, потому что у вас более 50 баллов репутации.
nbro
Комментарии @nbro имеют ограничения по длине, и я мог комментировать только после публикации, потому что я не был участником, я получаю +100 после.
Vol7ron
Вы получаете 100 баллов репутации после создания учетной записи AFAIK. Однако я хотел бы указать на некоторые из ваших утверждений, с которыми я не согласен, и я считаю, что они противоречивы или неоднозначны. Во-первых, вы говорите: «Люди от природы логичны». Что вы подразумеваете под логическим здесь? Затем вы говорите: «В текущем состоянии мы признаем, что люди иногда бывают иррациональными или противоречивыми». Мне кажется, что ваши аргументы не очень последовательны и потому противоречивы. Кроме того, ваша главная мысль: ИИ сможет делать все, что могут люди, потому что у меня нет доказательств против этого: это плохой аргумент.
nbro
@nbro спасибо за ваш отзыв! Я бы сказал, что в основе моего ответа лежит вопрос - «нет» - это ответ. Дело не только в спекуляции, но я бы сказал, что вопрос был спекуляцией. Название гласит « когда-нибудь смогу». Как можно предсказать будущее? Это умозрительно. Мои предположения основаны на послужном списке и возможностях в рамках операций ИИ. Он учитывает текущие ограничения, которые мешают вести себя как люди в их текущем состоянии, и предположение, что это не будет проблемой в будущем.
vol7ron
Учитывая, что я не думаю, что спекуляции, в целом, полезны, я проголосовал против. Я бы не проголосовал против, если бы вы были более последовательны и аргументировали свои заявления. Например, я даже не понимаю, что вы подразумеваете под «выученными исправлениями» в утверждении «Все сводится к потреблению данных, сохранению информации и полученным исправлениям». Я также хотел бы отметить, что в случае, если вы не знаете об этом, из данных можно вывести не все (то есть ML часто бывает недостаточным: например, он не может обнаружить причинно-следственные связи, а только корреляции).
nbro