Как искусственный интеллект может навредить нам?

51

Мы часто слышим, что искусственный интеллект может причинить вред или даже убить людей, поэтому он может оказаться опасным.

Как искусственный интеллект может навредить нам?

Manak
источник
6
Это довольно широко, так как есть много причин и сценариев, в которых ИИ может стать опасным. Например, как предлагает DuttaA выше, люди могут создавать интеллектуальные системы оружия, которые решают, на что нацеливаться, и это вызывает серьезную обеспокоенность, поскольку это возможно уже при использовании узкого ИИ. Возможно, дайте больше контекста конкретным страхам, которые вы хотите понять, цитируя или связывая конкретную проблему, которую вы прочитали (пожалуйста, используйте редактирование ).
Нил Слэйтер
4
@NeilSlater Да, он может быть слишком широким, но я думаю, что этот ответ ai.stackexchange.com/a/15462/2444 дает некоторые правдоподобные причины. Я отредактировал вопрос, чтобы удалить возможно неправильное предположение.
nbro
2
Этот вопрос конкретно о "суперинтеллекте" или ИИ в целом? (Например, если гипотетическая суперинтеллекта, то гипотетическая « проблема управления » является проблемой. Однако современные автоматизированные системы оружия не будут суперинтеллектуальными, как и автономные транспортные средства, и они могут навредить людям.)
DukeZhou
@DukeZhou ОП изначально и явно не упоминал о суперинтеллекте, но, полагаю, он имел в виду все, что можно считать ИИ, включая СИ.
nbro
3
Сначала спросите, как нормальный интеллект может повредить вам? Ответ тогда тот же.
J ...

Ответы:

47

ТЛ; др

Существует много веских причин, по которым люди могут бояться ИИ (или даже больше беспокоиться ) об ИИ, не все из них связаны с роботами и апокалиптическими сценариями.

Чтобы лучше проиллюстрировать эти проблемы, я постараюсь разделить их на три категории.

Сознательный ИИ

Это тип ИИ, на который ссылается ваш вопрос. Сверхразумный сознательный ИИ, который уничтожит / поработит человечество. Это главным образом принесено нам научной фантастикой. Некоторые известные голливудские примеры - «Терминатор» , «Матрица» , «Эра Альтрона» . Самые влиятельные романы были написаны Исааком Азимовым и упоминаются как «Серия роботов» (которая включает в себя «Я, робот» , который также был адаптирован как фильм).

Основная предпосылка большинства этих работ состоит в том, что ИИ будет развиваться до такой степени, что он станет сознательным и превзойдет людей по интеллекту. В то время как голливудские фильмы в основном посвящены роботам и битве между ними и людьми, недостаточно внимания уделяется реальному ИИ (то есть «мозгу», управляющему ими). Как примечание, из-за повествования этот ИИ обычно изображается как суперкомпьютер, управляющий всем (так что у главных героев есть конкретная цель). Недостаточно исследовано «неоднозначный интеллект» (который я считаю более реалистичным).

В реальном мире ИИ ориентирован на решение конкретных задач! Агент ИИ, который способен решать проблемы из разных областей (например, понимать речь и обрабатывать изображения, управлять автомобилем и ... - как люди) называется общим искусственным интеллектом и необходим для того, чтобы ИИ мог «думать» и становиться сознательный.

На самом деле, мы очень далеки от общего искусственного интеллекта! При этом нет никаких доказательств того, почему это не может быть достигнуто в будущем. Поэтому в настоящее время, даже если мы все еще находимся в зачаточном состоянии ИИ, у нас нет оснований полагать, что ИИ не будет развиваться до такой степени, что он будет умнее людей.

Использование ИИ со злым умыслом

Несмотря на то, что ИИ, завоевывающий мир, еще далек от этого, есть несколько причин для беспокойства об ИИ сегодня , которые не связаны с роботами! Вторая категория, на которой я хочу сосредоточиться, - это несколько злонамеренных применений современного ИИ.

Я сосредоточусь только на тех приложениях ИИ, которые доступны сегодня . Некоторые примеры ИИ, которые могут быть использованы для злонамеренных целей:

  • DeepFake : техника наложения чьего-либо лица на изображение или видео другого человека. Это недавно завоевало популярность среди знаменитостей и может быть использовано для создания поддельных новостей и мистификаций. Источники: 1 , 2 , 3

  • При использовании систем наблюдения массовых и распознавания лица программного обеспечения , способного распознавать миллионы лиц в секунду , AI может быть использован для массового наблюдения. Хотя, когда мы думаем о массовом наблюдении, мы думаем о Китае, многие западные города, такие как Лондон , Атланта и Берлин, являются одними из самых исследуемых городов в мире . Китай сделал еще один шаг вперед, приняв систему социального кредитования, систему оценки для гражданского населения, которая, кажется, прямо со страниц Джорджа Оруэлла 1984 года.

  • Воздействуя людей через социальные сети . Помимо признания вкусов пользователей с целью целевого маркетинга и добавления мест размещения (обычная практика для многих интернет-компаний), ИИ может использоваться для неправомерного влияния на голосование людей (среди прочего). Источники: 1 , 2 , 3 .

  • Взлом .

  • Военные применения, например, беспилотные атаки, системы наведения ракет.

Неблагоприятные эффекты ИИ

Эта категория довольно субъективна, но развитие ИИ может иметь некоторые побочные эффекты. Различие между этой категорией и предыдущей заключается в том, что эти эффекты, хотя и вредные, не совершаются намеренно; скорее они происходят с развитием ИИ. Вот некоторые примеры:

  • Работа становится излишней . Когда ИИ станет лучше, многие рабочие места будут заменены ИИ. К сожалению, с этим мало что можно сделать, так как большинство технологических разработок имеют этот побочный эффект (например, сельскохозяйственная техника вызвала потерю работы многими фермерами, автоматизация заменила многих фабричных рабочих, компьютеры сделали то же самое).

  • Усиление предвзятости в наших данных . Это очень интересная категория, поскольку ИИ (и особенно нейронные сети) хороши только в отношении данных, на которых они обучаются, и имеют тенденцию увековечивать и даже усиливать различные формы социальных предубеждений, уже существующих в данных. Есть много примеров сетей, демонстрирующих расистское и сексистское поведение. Источники: 1 , 2 , 3 , 4 .

Djib2011
источник
4
Я не понимаю, почему «работа становится избыточной» является серьезной проблемой. Как прекрасен был бы мир, если бы никому (или, по крайней мере, подавляющему большинству людей) не нужно было работать, и он мог бы вместо этого сосредоточиться на своих увлечениях и наслаждении жизнью.
kukis
4
@kukis Как ты можешь получить еду, дом и т. д. без работы, если ты уже не богат? Работа означает выживание для большинства людей.
nbro
6
Относительно того, что рабочие места становятся избыточными, кажется, что мы можем что-то с этим сделать, то есть обновить наши экономические модели, чтобы не полагаться на людей, имеющих рабочие места. Я имею в виду, что если наши экономические системы потерпят крах после того, как будут затоплены достаточным количеством дешевой рабочей силы, то они, очевидно, имеют недостатки. И учитывая, что мы ожидаем, что этот недостаток станет опасным в обозримом будущем, его следует исправить.
Nat
2
Еще один пример того, где ИИ может вызвать серьезные проблемы, - это торговля акциями. В настоящее время подавляющее большинство сделок с акциями совершаются все более конкурентными ИИ, которые могут реагировать намного быстрее, чем трейдеры-люди. Но дошло до того, что даже люди, которые их написали, не обязательно понимают причину, по которой эти ИИ принимают решения, которые они принимают, и на рынках произошли некоторые катастрофические последствия от ошибочных алгоритмов прогнозирования акций.
Даррел Хоффман
8
@penelope не каждая работа, которую ИИ пытается заменить, "низкопроцентная". Я бы сказал, что есть много вакансий с высоким спросом, которые можно заменить в (не столь отдаленном) будущем. Некоторые примеры - врачи, торговцы и пилоты. Если ИИ будет продолжать развиваться и продолжать улучшать диагностику заболеваний, было бы неразумно думать, что работа врачей будет сокращена.
Djib2011
14

В ближайщем будущем

  • Физические несчастные случаи , например, из-за промышленного оборудования, автопилота самолета, автомобилей с автоматическим управлением. Особенно в случае необычных ситуаций, таких как экстремальная погода или неисправность датчика. Обычно ИИ плохо работает в условиях, когда он не был тщательно протестирован.
  • Социальные последствия такие как снижение доступности рабочих мест, барьеры для малоимущих по сравнению с другими. кредиты, страховка, пароль.
  • Рекомендации двигателей все больше и больше манипулируют нами, чтобы изменить наше поведение (а также усиливают наши пузыри «маленького мира»). Механизмы рекомендаций обычно подают недопустимый контент различного рода для маленьких детей, часто потому, что создатели контента (например, на YouTube) используют правильные ключевые слова, чтобы казаться удобными для детей.
  • Политические манипуляции ... Достаточно сказано, я думаю.
  • Правдоподобное отрицание вторжения в личную жизнь . Теперь, когда ИИ может читать вашу электронную почту и даже делать телефонные звонки для вас, для кого-то легко заставить людей действовать в отношении вашей личной информации и утверждать, что у них есть компьютер, чтобы сделать это.
  • Превращая войну в видеоигру , то есть заменить солдат машинами, которыми удаленно управляет человек, которому ничто не угрожает и которое далеко от его / ее жертв.
  • Недостаток прозрачности . Мы доверяем машинам принимать решения с минимальными средствами для получения обоснования решения.
  • Потребление ресурсов и загрязнение. Это не просто проблема ИИ, однако каждое улучшение ИИ создает все больший спрос на большие данные, и вместе они увеличивают потребность в хранении, обработке и работе в сети. Помимо потребления электроэнергии и редких полезных ископаемых, инфраструктуру необходимо утилизировать после нескольких лет ее жизни.
  • наблюдение - благодаря повсеместному распространению смартфонов и подслушивающих устройств, существует золотой рудник данных, но его слишком много, чтобы просеивать каждую деталь. Разумеется, заставить ИИ просеять это!
  • Кибербезопасность - киберпреступники все чаще используют ИИ для атаки на свои цели.

Я уже говорил, что все это уже в полном разгаре?

Долгосрочный

Хотя между AI и AGI нет четкой грани, этот раздел посвящен тому, что происходит, когда мы идем дальше к AGI. Я вижу две альтернативы:

  • Либо мы развиваем AGI в результате нашего лучшего понимания природы интеллекта,
  • или мы соединяем что-то, что, кажется, работает, но мы не очень хорошо понимаем, как сейчас много машинного обучения.

В первом случае, если ИИ «изгой», мы можем построить других ИИ, чтобы перехитрить и нейтрализовать его. Во втором случае мы не можем, и мы обречены. ИИ станут новой формой жизни, и мы можем вымереть.

Вот некоторые потенциальные проблемы:

  • Скопировать и вставить. Одна из проблем AGI заключается в том, что он вполне может работать на настольном компьютере, что создает ряд проблем:
    • Script Kiddies - люди могут загружать ИИ и устанавливать параметры разрушительным образом. Relatedly,
    • Криминальные или террористические группы смогут настроить ИИ по своему вкусу. Вам не нужно искать эксперта по изготовлению бомб или биологическому оружию, если вы можете загрузить ИИ, попросить его провести какое-то исследование, а затем дать вам пошаговые инструкции.
    • Самовоспроизводящийся искусственный интеллект - об этом множество компьютерных игр. ИИ вырывается и распространяется как вирус. Чем больше вычислительная мощность, тем лучше она может защитить себя и распространяться дальше.
  • Нашествие вычислительных ресурсов . Вполне вероятно, что большая вычислительная мощность выгодна для ИИ. ИИ может купить или украсть ресурсы сервера или ресурсы настольных компьютеров и мобильных устройств. В крайнем случае это может означать, что все наши устройства просто выйдут из строя, что немедленно приведет к хаосу в .world. Это также может означать значительное потребление электроэнергии (и было бы трудно «отключить», потому что электростанции управляются компьютером!)
  • Автоматизированные заводы.AGI, желающее получить больше физического присутствия в мире, могло бы захватить фабрики, чтобы производить роботов, которые могли бы строить новые фабрики и по существу создавать тела для себя.
  • Это скорее философские соображения, но некоторые утверждают, что ИИ разрушит то, что делает нас людьми:
    • Неполноценность. Что если многие объекты ИИ будут умнее, быстрее, надежнее и креативнее, чем лучшие люди?
    • Бессмысленность. С роботами, заменяющими потребность в физическом труде, и с ИИ, заменяющими потребность в интеллектуальном труде, нам действительно нечего будет делать. Никто не получит Нобелевскую премию снова, потому что ИИ уже будет впереди. Зачем вообще получать образование?
    • Монокультура / стагнация - в различных сценариях (например, в одном AGI «доброжелательного диктатора») общество может быть закреплено в бесконечной модели без новых идей или каких-либо изменений (хотя это может быть приятно). В основном, Храбрый Новый Свет.

Я думаю, что AGI идет, и мы должны помнить об этих проблемах, чтобы мы могли минимизировать их.

Artelius
источник
1
Я думаю, что ИИ, способный перепрограммировать фабрики для создания роботов для себя, еще далеко. Современный «ИИ» - это просто действительно сложное распознавание образов.
user253751
Я сказал «долгосрочный» и «AGI». AGI, по определению, далеко за пределами сложного распознавания образов. И хотя «сложное распознавание образов» является, безусловно, самой распространенной вещью, используемой в реальных приложениях, уже есть много работы в других направлениях (в частности, декомпозиция проблем / планирование действий, которые IMO является стержнем этих типов сценариев. )
Артелий
8

В дополнение к другим ответам я хотел бы добавить к примеру с фабрикой файлов cookie:

ИИ машинного обучения в основном пытаются выполнить цель, описанную людьми. Например, люди создают ИИ под управлением фабрики печенья. Цель, которую они реализуют, состоит в том, чтобы продать как можно больше файлов cookie для получения максимальной прибыли.

Теперь представьте себе достаточно мощный ИИ. Этот ИИ заметит, что если он уничтожает все остальные фабрики печенья, то каждый должен покупать печеньки на своей фабрике, что ведет к росту продаж и увеличению прибыли.

Таким образом, человеческая ошибка здесь не дает наказания за использование насилия в алгоритме. Это легко упустить из виду, потому что люди не ожидали, что алгоритм придет к такому выводу.

Lustwelpintje
источник
8
Это напоминает мне реальный пример, который я когда-то видел на Reddit, где кто-то тренировал ИИ, чтобы подняться по лестнице в Unity. Он обнаружил, что он может втиснуть себя в землю с большой силой, и физика будет сбиваться, заставляя его взлетать в воздух и быть самым быстрым к вершине.
GammaGames
2
Или, что еще хуже, было бы решено, что люди состоят из атомов, которые лучше использовать для изготовления печенья.
nick012000
Я слышал этот аргумент раньше. Одна из ошибок предсказания конца света ИИ заключается в том, что мы не можем предсказать, что будет делать ИИ. Вполне возможно, что ИИ признает, что уничтожение других компаний, производящих куки-файлы, может отбросить мировую экономику и уничтожить любой потенциальный спрос на куки-файлы ... Закон экономики, предложения и спроса
Закк Диаз
8

Мой любимый сценарий вреда от ИИ - не высокий интеллект, а низкий интеллект. В частности, гипотеза Грей Гу .

Здесь самовоспроизводящийся автоматизированный процесс запускается и преобразует все ресурсы в свои копии.

Дело в том, что ИИ не является «умным» в смысле высокого интеллекта или общего интеллекта - он просто очень хорош в одной вещи и обладает способностью экспоненциально воспроизводиться.

DukeZhou
источник
3
FWIW, люди уже серые липкие Мы - эгоистичная серая слизь, которая не хочет, чтобы ее заменяла еще более эффективная серая слизь.
user253751
1
@immibis Это, конечно, философский POV, а не факт. Есть много людей, которые различают людей и самовоспроизводящиеся / самоподдерживающиеся машины. Фильмы о зомби не были бы очень успешными, если бы большинство носило ваше определение в глубине души =)
Stian Yttervik
1
@immibis Вы читали статью о серую слизь в Википедии , на которую ссылается этот ответ? Термин относится к неразумным (нано) машинам, выходящим из себя, а не к любому интеллектуальному поведению. Поэтому я бы сказал, что нет, люди - это не так (и не ИИ), так как мы не ели Альберта Эйнштейна, когда могли.
Кубанчик
@kubanczyk фундаментальное значение термина «интеллект», как представляется, широко неправильно понято, как в научных кругах, так и среди широкой общественности. Интеллект представляет собой спектр, в целом относительный (к другим механизмам принятия решений), и основан на полезности любого конкретного решения в контексте проблемы. Так что серая слизь будет разумной, просто интеллект будет ограниченным и узким.
DukeZhou
5

Я бы сказал, что самой большой реальной угрозой будет дисбаланс / разрушение, которое мы уже наблюдаем. Изменения, связанные с увольнением страны на 90%, реальны, и результаты (которые будут еще более неравномерным распределением богатства) ужасают, если вы их продумаете.

Билл К
источник
2
Люди говорили то же самое во время промышленной революции, которая сделала большинство рабочих мест в сельском хозяйстве излишними. Хотя вы, возможно, не ошибаетесь, и это то, о чем я беспокоюсь лично, тенденции изучения исследований показывают, что это не может быть проблемой, и, вероятно, откроются новые рабочие места.
Программирование
@Programmdude - я думаю, что есть фундаментальная разница между изменениями промышленной революции и даже устранением секретарской работы через появление P с тем, что произойдет в ближайшие десятилетия.
Майо
2
@Programmdude И люди были правы. Промышленная революция изменила все в том, как живут люди, она была чрезвычайно разрушительной с точки зрения распределения богатства и способности людей существовать на фермерском доходе. С другой точки зрения: рабовладельцы, оглядываясь назад на несколько сотен лет в будущем, вероятно, не будут рассматривать влияние ИИ на этот период как разрушительное, поскольку оно сформировало их ситуацию.
Билл К
@BillK Я был с тобой вплоть до части о рабовладельцах. Вы же знаете, что ИИ не осознают себя, верно?
Рэй
@ Лучше я не имел в виду ИИ, я имел в виду людей, которые контролировали ИИ (и, следовательно, имели бы все богатство), и на самом деле это был просто способ указать, что вещи могут быть непостижимо отличны от нас, но это не будет ' Я чувствую, что по-другому оглядываясь назад.
Билл К
5

У меня есть пример, который идет вразрез с опасениями публики, но это очень реальная вещь, которую я уже вижу. Это не зависит от ИИ, но я думаю, что с ИИ будет еще хуже. Это проблема людей, которые доверяют заключениям ИИ вслепую в критических приложениях.

У нас есть много областей, в которых человеческие эксперты должны принять решение. Возьмите, к примеру, лекарство - мы должны дать лекарство X или лекарство Y? Ситуации, которые я имею в виду, часто являются сложными проблемами (в смысле Cynefin), когда очень хорошо, когда кто-то очень внимательно обращает внимание и использует большой опыт, и результат действительно имеет значение.

Существует потребность в медицинских информатиках для написания систем поддержки принятия решений для такого рода проблем в медицине (и я полагаю, для того же типа в других областях). Они делают все возможное, но ожидается, что человеческий эксперт всегда примет решение системы как еще одно мнение при принятии решения. Во многих случаях было бы безответственно обещать что-либо еще, учитывая состояние знаний и ресурсы, доступные разработчикам. Типичным примером может служить использование компьютерного зрения в радиомикологии: пациент получает компьютерную томографию, и ИИ должен обработать изображение и решить, есть ли у пациента опухоль.

Конечно, ИИ не идеален. Даже при сравнении с золотым стандартом, он никогда не достигает 100% точности. Кроме того, есть все случаи, когда он демонстрирует хорошие результаты по сравнению со своими собственными показателями цели, но проблема была настолько сложной, что показатель цели недостаточно хорошо ее отражает - я не могу вспомнить пример в контексте КТ, но, думаю, мы видим это даже здесь, на SE, где алгоритмы одобряют популярность в постах, что является несовершенным показателем фактической корректности.

Вы, вероятно, читали этот последний абзац и кивали: «Да, я узнал об этом на первом вводном курсе ML, который я прошел». Угадай, что? Врачи никогда не проходили вводный курс по ОД. Они редко имеют достаточную статистическую грамотность, чтобы понять выводы статей, опубликованных в медицинских журналах. Когда они разговаривают со своим 27-м пациентом, 7 часов в их 16-часовую смену, голодные и эмоционально истощенные, и КТ выглядит не совсем ясно, но компьютер говорит: «Это не злокачественная опухоль», они не Потратьте еще десять минут, чтобы больше сконцентрироваться на изображении, или найдите учебник, или проконсультируйтесь с коллегой. Они просто согласны с тем, что говорит компьютер, и благодарны за то, что их когнитивная нагрузка снова не взлетела до небес. Таким образом, они превращаются из экспертов в людей, которые читают что-то с экрана. Хуже, в некоторых больницах администрация не только доверяет компьютерам, но и обнаружила, что они являются удобными козлами отпущения. Таким образом, у врача плохая догадка, которая идет вразрез с выходом компьютера, им становится трудно действовать на эту догадку и защищать себя, что они решили отвергнуть мнение ИИ.

ИИ являются мощными и полезными инструментами, но всегда будут задачи, которые они не смогут заменить держателю инструмента.

rumtscho
источник
Если вы ищете больше примеров, спор вокруг использования машинного обучения для прогнозирования реофинансирования заявителей под залог или условно-досрочное освобождение является хорошим. Я согласен с тем, что мы не должны ожидать, что врачи и судьи будут обладать уровнем статистической экспертизы, необходимой для понимания ИИ, в дополнение к их медицинским и юридическим знаниям. Дизайнеры ИИ должны знать об ошибочности своих алгоритмов и давать четкие рекомендации своим пользователям. Может быть, сказать врачу, где смотреть на КТ, вместо того, чтобы напрямую дать им результат.
Craq
4

Это лишь намерение дополнить другие ответы, поэтому я не буду обсуждать возможность того, что ИИ попытается добровольно поработить человечество.

Но другой риск уже здесь. Я бы назвал это непревзойденной технологией . Я научился науке и технике, и ИМХО, ИИ сам по себе не имеет понятия ни добра, ни зла, ни свободы. Но он построен и используется людьми, и из-за этого может быть вовлечено нерациональное поведение.

Я бы начал с примера из реальной жизни, в большей степени связанного с общими ИТ, чем с ИИ. Я буду говорить о вирусах или других вредоносных программах. Компьютеры - довольно глупые машины, которые хороши для быстрой обработки данных. Поэтому большинство людей полагаются на них. Некоторые (плохие) люди разрабатывают вредоносные программы, которые нарушают правильное поведение компьютеров. И все мы знаем, что они могут иметь ужасные последствия для малых и средних организаций, которые не очень хорошо подготовлены к потере компьютеров.

ИИ основан на компьютере, поэтому он уязвим для атак компьютерного типа. Вот мой пример - автомобиль с искусственным интеллектом. Технология практически готова к работе. Но представьте себе, что вредоносное ПО заставляет машину атаковать других людей на дороге. Даже без прямого доступа к коду ИИ, он может быть атакован боковыми каналами . Например, он использует камеры для чтения сигнальных знаков. Но из-за того, как реализовано машинное обучение, ИИ в целом не анализирует сцену так же, как человек. Исследователи показали, что было возможно изменить знак так, чтобы нормальный человек все еще видел исходный знак, но ИИ видел другой. Теперь представьте, что знак является дорожным приоритетом ...

Я имею в виду, что даже если у ИИ нет злых намерений, плохие парни могут попытаться заставить его вести себя плохо. И более важные действия будут делегированы AI (медицина, автомобили, самолеты, не говоря уже о бомбах), тем выше риск. Иными словами, я на самом деле не боюсь ИИ за себя, а за то, как он может использоваться людьми.

Серж Баллеста
источник
3

Я думаю, что один из наиболее реальных (то есть связанных с текущими, существующими ИИ) рисков заключается в слепой зависимости от неконтролируемых ИИ по двум причинам.

1. Системы ИИ могут ухудшаться

Физическая ошибка в системах искусственного интеллекта может начать давать крайне неправильные результаты в регионах, в которых они не были проверены, потому что физическая система начинает давать неправильные значения. Иногда это выкупается самотестированием и избыточностью, но все же требует периодического человеческого контроля.

У самообучающихся ИИ также есть программный недостаток - их весовые сети или статистические представления могут приближаться к локальным минимумам, где они застряли с одним неверным результатом.

2. ИИ системы предвзяты

К счастью, это часто обсуждается, но стоит упомянуть: классификация входных данных систем искусственного интеллекта часто смещена, потому что набор данных обучения / тестирования также был смещен. Это приводит к тому, что ИИ не признают людей определенной этнической принадлежности, для более очевидного примера. Однако есть менее очевидные случаи, которые могут быть обнаружены только после какой-то серьезной аварии, например, когда ИИ не распознает определенные данные и случайно не загорелся на фабрике, не сломал оборудование или не поранил людей.

Томаш Зато - Восстановить Монику
источник
Это хороший, современный ответ. ИИ «черного ящика», такие как нейронные сети, невозможно протестировать в абсолютной манере, что делает их менее чем на 100% предсказуемыми и, следовательно, менее чем на 100% надежными. Мы никогда не знаем, когда ИИ разработает альтернативную стратегию для данной проблемы, и как эта альтернативная стратегия повлияет на нас, и это действительно огромная проблема, если мы хотим полагаться на ИИ в таких важных задачах, как управление автомобилями или управление ресурсами.
Ланселот
1

Если робот похож на интерфейс человек-машина, устройство аналогично автомобилю с дистанционным управлением. За джойстиком можно поговорить с оператором и договориться о желаемом поведении. Роботы с дистанционным управлением - безопасные изобретения, потому что их действия могут быть прослежены до людей, и их мотивация может быть предвидена. Их можно использовать для улучшения повседневной жизни, и с ними забавно играть.

Напротив, некоторые роботы не управляются джойстиками, а работают с внутренним генератором костей. Игра в кости известна своей социальной ролью в азартных играх, но она также имеет мистическое значение. Обычно генератор случайных чисел тесно связан с хаотическим поведением, которое контролируется темными силами вне влияния людей. Электронная игральная кость, встроенная в робота и улучшенная с помощью алгоритма обучения, является противоположностью интерфейса «человек-машина», но это потенциальная проблема, потому что робот со случайным управлением будет играть в игры с людьми, чего нельзя ожидать. Следующее количество игральных костей предсказать невозможно, поэтому робот будет вести себя также резко.

Связь между случайно контролируемыми играми и негативным социальным воздействием была объяснена в следующем предложении.

цитата: «Во многих традиционных незападных обществах игроки могут молиться богам об успехе и объяснять победы и потери с точки зрения божественной воли. «Бинде, Пер. «Азартные игры и религия: истории согласия и конфликта». Journal of Gambling Issues 20 (2007): 145-165.

Мануэль Родригес
источник
1

Люди в настоящее время существуют в эколого-экономической нише «того, что думает».

ИИ тоже думает, поэтому будет вторгаться в нашу эколого-экономическую нишу. И в экологии, и в экономике занятие вашей ниши чем-то еще - не лучший план для выживания.

Как именно человеческое выживание подвергается риску, будет довольно хаотичным. Будет множество вероятных способов, которыми ИИ может поставить под угрозу выживание человека как вида или даже как доминирующей формы жизни.


Предположим, что существует сильный ИИ без «супер этики», который дешевле в производстве, чем человек (включая производство «тела» или способа манипулирования миром), и такой же умный или умный, как человек.

Это тот случай, когда мы начинаем конкурировать с этим ИИ за ресурсы. Это произойдет в микроэкономическом масштабе (мы нанимаем человека, или покупаем / строим / сдаем в аренду / нанимаем ИИ для решения этой проблемы?). В зависимости от скорости, с которой ИИ становятся дешевыми и / или умнее людей, это может происходить медленно (может быть, отрасль за раз) или очень быстро.

В капиталистической конкуренции те, кто не переходят на более дешевые ИИ, оказываются вне конкуренции.

Теперь, в краткосрочной перспективе, если преимущества ИИ лишь незначительны, высокая стоимость обучения людей за 20 с лишним лет до того, как они станут продуктивными, может замедлить этот процесс. В этом случае, возможно, стоит заплатить доктору сверх зарплаты голода, чтобы диагностировать болезнь, а не ИИ, но, вероятно, не стоит погашать их студенческие ссуды. Таким образом, новые врачи-люди быстро перестанут обучаться, а существующие врачи обнищают. Затем через 20-30 лет ИИ полностью заменит врачей для диагностических целей.

Если преимущества ИИ велики, то это будет быстро. Врачам даже не стоит платить зарплату по уровню бедности, чтобы проводить диагностику людей. Вы можете увидеть что-то подобное в фермерстве, основанном на мышцах, когда фермерство на основе бензина вступило во владение.

Во время прошлых промышленных революций тот факт, что люди, способные мыслить, означает, что вы можете перенаправить лишних работников на другие действия; производственные линии, рабочие места в сфере обслуживания, компьютерное программирование и т. д. Но в этой модели ИИ дешевле обучать и строить, и он умнее или умнее людей на такой работе.

Как свидетельствует арабская весна, вызванная этанолом, сельскохозяйственные культуры и сельскохозяйственные угодья могут использоваться как для топлива, так и для людей. Когда машины станут более эффективными с точки зрения превращения пахотных земель в полезную работу, вы начнете наблюдать рост цен на продукты питания. Как правило, это приводит к беспорядкам, так как люди действительно не любят голодать до смерти и готовы рисковать своей жизнью, чтобы свергнуть правительство, чтобы предотвратить это.

Вы можете смягчить людей, предоставляя субсидированные продукты питания и тому подобное. Пока это экономически не наносит вред (т. Е. Если достаточно дорого, это может привести к тому, что вы не будете конкурировать с другими местами, которые этого не делают), это просто политически нестабильно.

В качестве альтернативы, в краткосрочной перспективе каста собственников, которая получает прибыль от все более эффективной экономики, управляемой ИИ, может заплатить за полицию или военную касту, чтобы подавить упомянутые беспорядки. Это требует, чтобы полицейские / военные касты были выше или ниже среднего класса по уровню жизни, чтобы обеспечить постоянную лояльность - вы не хотите, чтобы они присоединились к мятежникам.

Таким образом, одним из центров прибыли, на который вы можете направить ИИ, является военная и полицейская деятельность на основе ИИ. Беспилотники, доставляющие смертоносные и несмертельные боеприпасы на основе обработки визуальных и других потоков данных, могут сократить количество полицейских / военных среднего класса, необходимых для подавления беспорядков, вызванных ценами на продовольствие, или другой нестабильности. Как мы уже предполагали, что у ИИ могут быть тела и тренировки дешевле, чем у биологического человека, это также может увеличить количество силы, которое вы можете использовать на затраченный доллар.

На данный момент мы говорим о том, что полиция и военные, управляемые ИИ, используются в основном для того, чтобы не дать людям голодом свергнуть экономику, управляемую ИИ, и захватить средства производства из-за более эффективного их использования.

Чудовищные люди, которые «владеют» системой наверху, принимают локально рациональные решения для оптимизации своего богатства и власти. Они могут сохраняться или не сохраняться долго; до тех пор, пока они истощают относительно небольшое количество ресурсов и не портят экономику ИИ, от выбора не будет большого давления, чтобы избавиться от них. С другой стороны, поскольку они не вносят ничего ценного, их позиция «на вершине» политически нестабильна.

Этот процесс предполагал «сильный» общий ИИ. Более узкие ИИ могут осуществить это по частям. Например, дешевый, эффективный диагностический компьютер может привести к тому, что большинство врачей попадут в бедность за удивительно короткий период времени. Самостоятельное вождение автомобилей может поглотить 5% -10% экономики. Информационные технологии уже поглощают сектор розничной торговли скромным искусственным интеллектом.

Говорят, что каждый технологический прогресс ведет к увеличению и улучшению рабочих мест для людей. И это было верно в течение последних 300+ лет.

Но до 1900 года было также верно, что каждый технический прогресс приводил к увеличению и улучшению рабочих мест для лошадей. Затем прибыл ЛЕД и автомобиль, и теперь стало намного меньше рабочих лошадей; остальные лошади в основном эквивалентны человеческим личным слугам: они сохранены для новизны «вау, круто, лошадь» и для удовольствия верховой езды и управления огромным животным.

Yakk
источник
1

В дополнение ко многим уже предоставленным ответам я хотел бы затронуть проблему состязательных примеров в области моделей изображений.

Состязательными примерами являются изображения, которые были возмущены специально разработанным шумом, который часто незаметен для наблюдателя-человека, но сильно меняет прогноз модели.

Примеры включают в себя:

dthuff
источник
0

ИИ, который используется для решения проблем реального мира, может представлять опасность для человечества и точно не требует чувствительности, это также требует определенной степени человеческой глупости.

В отличие от людей, ИИ нашел бы самый логичный ответ без ограничения эмоций, этики или даже жадности ... Только логика. Спросите этого ИИ, как решить проблему, которую создали люди (например, изменение климата), и ее решение может заключаться в том, чтобы устранить всю человеческую расу, чтобы защитить планету. Очевидно, для этого потребуется дать ИИ возможность действовать в соответствии с его результатом, что подводит меня к моей более ранней точке - человеческой глупости.

Павел
источник
0

Искусственный интеллект может навредить нам любым из способов естественного интеллекта (человека). Различие между естественным и искусственным интеллектом исчезнет, ​​когда люди начнут увеличивать себя более тесно. Интеллект больше не может характеризовать личность и станет безграничным владением. Причиненный вред будет столько, сколько люди могут выдержать для сохранения своей развивающейся самоидентификации.

tejasvi88
источник
0

Мало кто понимает, что нашу глобальную экономику следует рассматривать как ИИ: - Денежные операции являются сигналами через нейронную сеть. Узлами в нейронной сети будут различные корпорации или частные лица, платящие или получающие деньги. - Это искусственный, так что квалифицируется как искусственный

Эта нейронная сеть лучше в своей задаче, чем люди: капитализм всегда побеждал экономику, запланированную людьми (плановая экономика).

Опасна ли эта нейронная сеть? Могут отличаться, если вы генеральный директор, зарабатывающий большие деньги, по сравнению с рыбаком в реке, загрязненной корпоративными отходами.

Как этот ИИ стал опасным? Вы можете ответить на это из-за человеческой жадности. Наше творение отражает нас самих. Другими словами: мы не научили нашу нейронную сеть вести себя хорошо. Вместо того, чтобы тренировать нейронную сеть для улучшения качества жизни всех людей, мы обучили ее, чтобы сделать богатые фоксы более богатыми.

Будет ли легко тренировать этот ИИ, чтобы он больше не был опасным? Может быть, нет, может быть, некоторые ИИ больше, чем жизнь. Это просто выживание сильнейшего.

Stuurpiek
источник