Может ли технологическая сингулярность возникнуть только с суперинтеллектом?

10

В главе 26 книги « Искусственный интеллект: современный подход» (3-е издание) в учебнике обсуждается «технологическая сингулярность». Цитируется И.Дж. Гуд, который написал в 1965 году:

Пусть сверхинтеллектуальная машина будет определена как машина, которая может намного превзойти всю интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхинтеллектуальные машины могут проектировать еще более совершенные машины; тогда, несомненно, произойдет «взрыв интеллекта», и интеллект человека останется далеко позади. Таким образом, первая сверхинтеллектуальная машина - это последнее изобретение, которое человеку когда-либо нужно было делать, при условии, что машина достаточно послушна, чтобы рассказать нам, как ее контролировать.

Позже в учебнике у вас есть этот вопрос:

26.7 - И. Дж. Гуд утверждает, что интеллект - это самое важное качество, и что создание сверхинтеллектуальных машин изменит все. Чувствующий гепард возражает, что «на самом деле скорость важнее; если бы мы могли создавать сверхбыстрые машины, это изменило бы все», и разумный слон заявляет: «Вы оба не правы; нам нужны сверхсильные машины». Что вы думаете об этих? аргументы?

Кажется, что вопрос из учебника является неявным аргументом против И.Дж. Добро может рассматривать разум как ценность просто потому, что сильные стороны человека заключаются в этой черте, называемой «интеллектом». Но вместо этого могут быть одинаково оценены другие черты (скорость или сила), и живые существа могут дико рассуждать о том, что их предпочтительные черты «максимизируются» той или иной машиной.

Это заставляет меня задуматься о том, может ли особенность возникнуть, если мы создали машины, которые не максимизируют интеллект, а вместо этого максимизируют какую-то другую черту (машина, которая всегда увеличивает свою силу, или машина, которая всегда увеличивает свою скорость). Эти типы машин могут быть такими же преобразующими: сверхбыстрые машины могут быстро решать проблемы благодаря «грубой силе», а сверхсильные машины могут использовать свою мощь для решения различных физических задач. Возможно, машина Ultra-X не может создать другую машину Ultra-X (поскольку И.Дж. Гуд рассматривал конструкцию машин как интеллектуальную деятельность), но постоянно совершенствующаяся машина все равно оставит своих создателей далеко позади и заставит их создателей быть зависит от этого.

Ограничены ли технологические особенности ультраинтеллектом? Или технологические особенности вызваны машинами, которые не являются «сильным ИИ», но все еще являются «ультра» -оптимизаторами?

Left SE On 10_6_19
источник

Ответы:

4

Это было бы не для скорости или силы, если у вас сверхсильная сущность, но она не может исследовать новые материалы, она будет быстро ограничена, то же самое для скорости. В основном вам нужно что-то вне их поля, чтобы улучшить их, что делает безудержное улучшение невозможно.

Хотя у нас уже есть суперсильные и суперскоростные машины, это автомобили, грузовики, гидравлические прессы, промышленные экзоскелеты и т.д. это не может быть улучшено старыми.

То, что нам нужно для сингулярности, - это область, в которой ее улучшение облегчает дальнейшее улучшение. И я не знаю области, где это не связано с интеллектом. Если таковой имеется, это может быть возможно, чтобы иметь сингулярность, не обусловленную интеллектом.

satibel
источник
0

"Монте-Карло", кажется, лучший метод в настоящее время для алгоритмического творчества. (то есть машина делает случайный выбор и проверяет, не приводит ли он к чему-либо полезному.)

Хотя кажется очевидным, что творческие связи, сформированные из понимания , превосходят те, которые являются случайными, если машина достаточно быстра, она должна быть в состоянии победить чистой "грубой силой".

т.е. эволюция, предшествующая человеческому руководству, не была основана на интеллекте. * Скорее, эволюция была основана на случайных мутациях, которые либо полезны, либо вредны.


* Предостережение заключается в том, что люди, создающие алгоритмы и изменяющие гены (либо в лаборатории, либо посредством животноводства и садоводства), можно сказать, представляют собой новую форму эволюции, которая на самом деле основана на человеческом интеллекте и желании.

DukeZhou
источник
-1

Это может быть не то, что вы искали, но технически да. Хотя не для скорости и силы. Но вы могли бы случайно угадать новые математические / физические / химические решения, чтобы стать более эффективными в случайном угадывании (в основном, всего, что позволяет машине быстрее вычислять и, возможно, имитировать эффект этих результатов), таким образом, технически достигая чего-то похожего на особенность, не имея на самом деле иметь какой-либо интеллект (или просто на человеческом уровне), так как вы можете просто перебить всех.

Это эффективно? Нет, даже близко не быть осуществимым. Это работает? Технически, да.

Это будет своего рода особенность, поскольку она постоянно совершенствуется, но ей не нужно улучшать собственный интеллект.

Конечно, некоторые результаты могут сделать его более умным, но давайте просто предположим, что он не применяет эти результаты к себе.

Lexyth
источник