Технологическая сингулярность теоретическая точка во времени , при котором самосовершенствующийся искусственный общий интеллект становится способным понять и манипулировать понятиями за пределами диапазона человеческого мозга, то есть в момент , когда он может понять вещи людей, биологической конструкцией, может» т.
Нечеткость сингулярности проистекает из того факта, что, начиная с сингулярности, история фактически непредсказуема. Человечество не сможет предсказать какие-либо будущие события или объяснить какие-либо нынешние события, поскольку сама наука становится неспособной описать события, запускаемые машиной. По сути, машины будут думать о нас так же, как мы думаем о муравьях. Таким образом, мы не можем делать прогнозы за пределами сингулярности. Кроме того, как логическое следствие, мы не сможем определить точку, в которой сингулярность может возникнуть вообще, или даже распознать ее, когда это произойдет.
Однако для того, чтобы сингулярность имела место, необходимо разработать AGI, и вопрос о том, возможно ли это, является довольно горячей дискуссией.прямо сейчас. Кроме того, должен быть разработан алгоритм, который создает сверхчеловеческий интеллект из битов и байтов. По определению, программист-человек не сможет сделать такую вещь, так как его / ее мозг должен уметь понимать концепции, выходящие за пределы его диапазона. Существует также аргумент, что интеллектуальный взрыв (механизм, с помощью которого теоретически сформировалась бы технологическая сингулярность) был бы невозможен из-за сложности задачи проектирования, заключающейся в том, чтобы сделать себя более разумным, увеличившись пропорционально своему интеллекту, и что сложность Сама конструкция может превзойти интеллект, необходимый для решения упомянутой задачи (последний балл за бога лам в комментариях).
Кроме того, есть связанные теории, вовлекающие машины, захватывающие человечество, и весь этот научно-фантастический рассказ. Однако это вряд ли произойдет, если законы Азимова будут соблюдаться надлежащим образом. Даже если бы законов Азимова было недостаточно, все равно понадобился бы ряд ограничений, чтобы избежать неправомерного использования AGI недобросовестными людьми, и законы Азимова - самое близкое к этому.
Понятие «особенность» - это когда машины перехитряют людей. Хотя Стивен Хокинг считает, что эта ситуация неизбежна, но я думаю, что будет очень трудно достичь этой точки, потому что каждый алгоритм ИИ должен программироваться людьми, поэтому он всегда будет более ограниченным, чем его создатель.
Вероятно, мы знали бы, когда наступит момент, когда человечество утратит контроль над Искусственным интеллектом, когда супер-умный ИИ будет конкурировать с людьми и, возможно, создать более изощренные интеллектуальные существа, но в настоящее время это больше похоже на научную фантастику (также известный как « Терминатор» ).
Риск может включать в себя убийство людей (например, беспилотные военные беспилотники, принимающие свое собственное решение), уничтожение стран или даже всей планеты (например, ИИ, подключенного к ядерному оружию ( фильм WarGames ), но это не доказывает, что машины будут умнее людей.
источник
Сингулярность в контексте ИИ является теоретическим событием, в результате которого используется интеллектуальная система со следующими критериями.
По индукции теория затем предсказывает, что будет генерироваться последовательность событий с потенциальной скоростью увеличения интеллекта, которая может значительно превышать потенциальную скорость эволюции мозга.
Насколько обязан этот самосовершенствующийся субъект или популяция потомственных существ сохранять человеческую жизнь и свободу, неопределенно. Идея о том, что такое обязательство может быть частью безотзывного договора на программное обеспечение, наивна в свете характера возможностей, связанных с критериями (1) - (4) выше. Как и в случае с другими мощными технологиями, риски столь же многочисленны и серьезны, как и потенциальные выгоды.
Риски для человечества не требуют интеллекта. Существуют и другие контексты использования термина «сингулярность», но они выходят за рамки этого форума по искусственному интеллекту, но для ясности могут стоить краткого упоминания. Генная инженерия, ядерная инженерия, глобализация и основание международной экономики на конечном источнике энергии, потребляемом в тысячи раз быстрее, чем это происходило на Земле. Это другие примеры технологий и массовых тенденций высокого риска, которые представляют как риски, так и выгоды человечеству.
Возвращаясь к ИИ, главная оговорка в теории сингулярности заключается в том, что она не учитывает вероятность. Хотя может быть возможно разработать объект, который соответствует критериям (1) - (4) выше, он может быть достаточно маловероятным, чтобы первое событие произошло спустя много времени после того, как все текущие языки, на которых говорят на Земле, мертвы.
С другой стороны, можно легко утверждать, что существует ненулевая вероятность того, что первое событие уже произошло.
В том же духе, если более разумное присутствие в Интернете уже существует, насколько вероятно, что он найдет в своих интересах раскрыть себя для низших людей. Мы представляем себя проходящему личинку?
источник
«Сингулярность», рассматриваемая в узком смысле, относится к точке, в которой экономический рост настолько быстр, что мы не можем делать полезные прогнозы о том, как будет выглядеть будущее в прошлом.
Он часто используется взаимозаменяемо с «интеллектуальным взрывом», когда мы получаем так называемый Сильный ИИ, то есть ИИ, достаточно умный, чтобы понимать и совершенствовать себя. Разумно ожидать, что взрыв интеллекта немедленно приведет к экономической сингулярности, но обратное не всегда верно.
источник