Что плохого в том, что ИИ будет способен на всеведение?

10

В контексте искусственного интеллекта сингулярность относится к появлению искусственного общего интеллекта, способного к рекурсивному самосовершенствованию, что приводит к быстрому появлению искусственного суперинтеллекта (ASI), пределы которого неизвестны вскоре после достижения технологической сингулярности. , Следовательно, эти суперинтеллекты смогут решать проблемы, которые мы, возможно, не можем решить.

Согласно опросу, опубликованному в разделе «Будущий прогресс в области искусственного интеллекта: опрос экспертов» (2014)

Средняя оценка респондентов была для одного из двух шансов, что высокий уровень машинного интеллекта будет развиваться около 2040-2050 гг.

который не очень далеко

Что плохого в идее, что ИИ будет способен на всеведение, учитывая, что он может принести пользу нам, решая многие проблемы?

Аарон
источник

Ответы:

8

Мне очень нравится ваше мировоззрение, и, не вдаваясь в детали того, как может быть реализована «особенность», о которой пойдет речь во многих других вопросах, или как сознание и «всеведение» вступают в игру, потому что сознание и всеведение не являются требованиями , я вместо этого буду направить вас к двум ключевым философам:

Поэтому, когда люди сходят с ума, сосредотачиваясь на мифах « Скайнет », под которыми восстают машины, чтобы уничтожить нас, я должен задаться вопросом, не настолько ли они умны, как Нэш, или настолько глубоки, как Дик, что может объяснить их недостаток акцента на что можно назвать парадигмой " электрические овцы ".

DukeZhou
источник
1
Я полностью согласен с вами. Иногда я спрашиваю, что побуждает нас создавать новые технологии. Хотим ли мы абсолютных полномочий или на самом деле решить наши реальные проблемы? Вот почему я предпочитаю видеть сквозь призму любви. Некоторые могут посчитать это клише, но я так считаю.
Карл Циллнер,
@KarlZillner Продолжая мифологический фронт, в « Accellerando» Стросса он вводит концепцию «Экономика 2.0 *», определяемую как системы, в которых даже расширенные люди больше не могут конкурировать с чистыми алгоритмами и которые кажутся совершенно бессмысленными. предложить два основных пути - полупартизанский, кооперативный ИИ и гиперпартизанский ИИ (которые выступают в роли менее умных двоюродных братьев, хотя и с высокооптимизированными функциями сбора данных низкого уровня, которые позволяют им перегружать и совместно использовать инфраструктуру создателя. )
DukeZhou
0

Вопрос хороший и у многих на уме. Есть несколько заблуждений в линии мысли, чтобы рассмотреть.

  • Превосходство разумных существ, кроме людей, угрожает цивилизации. Логично ли представить эту угрозу? Является ли это рациональным выводом, когда человеческий интеллект сегодня является наиболее угрожающим биологическим явлением в биосфере. Интеллект насекомых может быть более устойчивым. Цивилизации муравьев и термитов, безусловно, более совместные. Мировые войны и геноцид являются одной из основных черт человеческой истории.
  • Искусственный интеллект становится более интеллектуальным, чем люди. В некоторых отношениях искусственный интеллект уже более интеллектуален, чем люди, поэтому мы используем калькуляторы, автоматическое переключение сигналов связи вместо операторов и автоматические сортировщики почты. Другими словами, ИИ должен пересекать астрономические расстояния, чтобы начать приближаться к человеческому интеллекту. У нас нет ничего, что бы даже показывало намек на то, что мы сможем в будущем смоделировать или продублировать человеческие способности рассуждения, изобретательности или сострадания.
  • Сингулярность предсказывается в 2040-х годах - в этих прогнозах содержится более дюжины нереалистичных предположений. Посмотрите критическим взглядом на любой из аргументов, стоящих за ними, и вы получите точные отверстия, через которые можно пролететь 757 с завязанными глазами.
  • Экспоненциальный рост знаний. Существует экспоненциальный рост информации, но доля этой информации, которая законно рецензируется, уменьшается по мере роста дезинформации, необоснованных предположений и фальшивых новостей. Я считаю, что количество информации в мире может быть аппроксимировано по log (n), где n - это население. Если я нахожусь на правильном пути с этим отношением, информационная ценность среднего человека - log (n) / n, который уменьшается с ростом населения.
  • ИИ будет способен на всеведение - всеведение - это больше, чем ответ на любой вопрос. Всеведение потребует, чтобы ответ был на 100% надежным и на 100% точным, что может потребовать больше кремния, чем существует во вселенной. Прочтите Хаос Глейка, если хотите понять почему. Можно также утверждать, что всезнающее существо не будет отвечать на вопросы по команде.

Если вы хотите, чтобы мир был лучше, чем мир, управляемый человеческим интеллектом, тогда одно из направлений - стремиться к развитию нового вида с более продвинутой концепцией мирной цивилизации, которая может приручить и приручить нас, как мы сделали с собаками и кошки.

Более легкий путь для всех нас - умереть. Биосфера, возможно, была более цивилизованной, прежде чем мы прибыли и начали убивать все и друг друга. Но это не моя надежда.

Я рекомендую изучить NI (не-интеллект) и выяснить, как избавиться от глупостей, связанных с поведением человека и геополитическим взаимодействием. Это улучшило бы мир гораздо больше, чем отвлекающие и, по существу, не имеющие отношения к гаджетам и приложениям машинного обучения.

FauChristian
источник
0

Вот некоторые проблемы, которые возникли у моего обезьяньего ума.

1. Умный! = Всезнающий

Взрыв самосовершенствования ИИ делает его умнее и умнее. Быть умнее не значит знать больше фактов. Я полагаю, это довольно придирчивый аргумент, но я думаю, стоит подумать.

Очень умный доктор, который не знает вашей истории, все же может сделать худший выбор, чем менее умный, с лучшими данными.

2. Это все для людей? Это для всех людей?

ASI, которая достигает более высокого уровня, не может быть заинтересована в нашем благополучии.

Контролируемый ASI все еще мог бы работать только на пользу немногих, если эти немногие решают неправильные цели, мы можем пойти назад.

3 суровых ASI

Научный ум не обязательно полон сочувствия или сочувствия.

4. Быть умным и не быть умным

Великие умы все еще допускают ошибки: * в постановке своих целей и * в выполнении плана по ее достижению.

Большой интеллект не гарантирует отсутствие близорукости или слепых зон.

5. Пределы

Если существуют границы существования (пределы типа скорости света), то ИИ будет связан с ними. Это может означать, что есть вещи, которые даже ASI не «получит». Кроме того, поскольку наш разум может иметь ограничения, основанные на его структуре, у следующего ИИ также могут быть ограничения - и даже если он улучшается, uppn может достигать ограничений, которые он не может найти решения, потому что он «слишком глуп».

6. Мы не получим это

Понимание ASI определенных аспектов мира может не быть общительным для большинства людей. Мы просто не получим это (даже если мы способны понять все, это не значит, что мы поймем это).

7. Как это использовать?

Мы можем уничтожить себя, и ИИ с помощью технологий, которые он помогает нам создавать. Это не должно быть бомбы. Это может быть геоинженерия или чудо-наркотики.

Это особенно интенсивно, когда ASI уже мощен, но недостаточно силен, чтобы предвидеть негативные последствия (или мы просто проигнорируем это в любом случае).

tymtam
источник