Мы часто слышим, что искусственный интеллект может причинить вред или даже убить людей, поэтому он может оказаться опасным.
Как искусственный интеллект может навредить нам?
philosophy
social
neo-luddism
Manak
источник
источник
Ответы:
ТЛ; др
Существует много веских причин, по которым люди могут бояться ИИ (или даже больше беспокоиться ) об ИИ, не все из них связаны с роботами и апокалиптическими сценариями.
Чтобы лучше проиллюстрировать эти проблемы, я постараюсь разделить их на три категории.
Сознательный ИИ
Это тип ИИ, на который ссылается ваш вопрос. Сверхразумный сознательный ИИ, который уничтожит / поработит человечество. Это главным образом принесено нам научной фантастикой. Некоторые известные голливудские примеры - «Терминатор» , «Матрица» , «Эра Альтрона» . Самые влиятельные романы были написаны Исааком Азимовым и упоминаются как «Серия роботов» (которая включает в себя «Я, робот» , который также был адаптирован как фильм).
Основная предпосылка большинства этих работ состоит в том, что ИИ будет развиваться до такой степени, что он станет сознательным и превзойдет людей по интеллекту. В то время как голливудские фильмы в основном посвящены роботам и битве между ними и людьми, недостаточно внимания уделяется реальному ИИ (то есть «мозгу», управляющему ими). Как примечание, из-за повествования этот ИИ обычно изображается как суперкомпьютер, управляющий всем (так что у главных героев есть конкретная цель). Недостаточно исследовано «неоднозначный интеллект» (который я считаю более реалистичным).
В реальном мире ИИ ориентирован на решение конкретных задач! Агент ИИ, который способен решать проблемы из разных областей (например, понимать речь и обрабатывать изображения, управлять автомобилем и ... - как люди) называется общим искусственным интеллектом и необходим для того, чтобы ИИ мог «думать» и становиться сознательный.
На самом деле, мы очень далеки от общего искусственного интеллекта! При этом нет никаких доказательств того, почему это не может быть достигнуто в будущем. Поэтому в настоящее время, даже если мы все еще находимся в зачаточном состоянии ИИ, у нас нет оснований полагать, что ИИ не будет развиваться до такой степени, что он будет умнее людей.
Использование ИИ со злым умыслом
Несмотря на то, что ИИ, завоевывающий мир, еще далек от этого, есть несколько причин для беспокойства об ИИ сегодня , которые не связаны с роботами! Вторая категория, на которой я хочу сосредоточиться, - это несколько злонамеренных применений современного ИИ.
Я сосредоточусь только на тех приложениях ИИ, которые доступны сегодня . Некоторые примеры ИИ, которые могут быть использованы для злонамеренных целей:
DeepFake : техника наложения чьего-либо лица на изображение или видео другого человека. Это недавно завоевало популярность среди знаменитостей и может быть использовано для создания поддельных новостей и мистификаций. Источники: 1 , 2 , 3
При использовании систем наблюдения массовых и распознавания лица программного обеспечения , способного распознавать миллионы лиц в секунду , AI может быть использован для массового наблюдения. Хотя, когда мы думаем о массовом наблюдении, мы думаем о Китае, многие западные города, такие как Лондон , Атланта и Берлин, являются одними из самых исследуемых городов в мире . Китай сделал еще один шаг вперед, приняв систему социального кредитования, систему оценки для гражданского населения, которая, кажется, прямо со страниц Джорджа Оруэлла 1984 года.
Воздействуя людей через социальные сети . Помимо признания вкусов пользователей с целью целевого маркетинга и добавления мест размещения (обычная практика для многих интернет-компаний), ИИ может использоваться для неправомерного влияния на голосование людей (среди прочего). Источники: 1 , 2 , 3 .
Взлом .
Военные применения, например, беспилотные атаки, системы наведения ракет.
Неблагоприятные эффекты ИИ
Эта категория довольно субъективна, но развитие ИИ может иметь некоторые побочные эффекты. Различие между этой категорией и предыдущей заключается в том, что эти эффекты, хотя и вредные, не совершаются намеренно; скорее они происходят с развитием ИИ. Вот некоторые примеры:
Работа становится излишней . Когда ИИ станет лучше, многие рабочие места будут заменены ИИ. К сожалению, с этим мало что можно сделать, так как большинство технологических разработок имеют этот побочный эффект (например, сельскохозяйственная техника вызвала потерю работы многими фермерами, автоматизация заменила многих фабричных рабочих, компьютеры сделали то же самое).
Усиление предвзятости в наших данных . Это очень интересная категория, поскольку ИИ (и особенно нейронные сети) хороши только в отношении данных, на которых они обучаются, и имеют тенденцию увековечивать и даже усиливать различные формы социальных предубеждений, уже существующих в данных. Есть много примеров сетей, демонстрирующих расистское и сексистское поведение. Источники: 1 , 2 , 3 , 4 .
источник
В ближайщем будущем
Я уже говорил, что все это уже в полном разгаре?
Долгосрочный
Хотя между AI и AGI нет четкой грани, этот раздел посвящен тому, что происходит, когда мы идем дальше к AGI. Я вижу две альтернативы:
В первом случае, если ИИ «изгой», мы можем построить других ИИ, чтобы перехитрить и нейтрализовать его. Во втором случае мы не можем, и мы обречены. ИИ станут новой формой жизни, и мы можем вымереть.
Вот некоторые потенциальные проблемы:
Я думаю, что AGI идет, и мы должны помнить об этих проблемах, чтобы мы могли минимизировать их.
источник
В дополнение к другим ответам я хотел бы добавить к примеру с фабрикой файлов cookie:
ИИ машинного обучения в основном пытаются выполнить цель, описанную людьми. Например, люди создают ИИ под управлением фабрики печенья. Цель, которую они реализуют, состоит в том, чтобы продать как можно больше файлов cookie для получения максимальной прибыли.
Теперь представьте себе достаточно мощный ИИ. Этот ИИ заметит, что если он уничтожает все остальные фабрики печенья, то каждый должен покупать печеньки на своей фабрике, что ведет к росту продаж и увеличению прибыли.
Таким образом, человеческая ошибка здесь не дает наказания за использование насилия в алгоритме. Это легко упустить из виду, потому что люди не ожидали, что алгоритм придет к такому выводу.
источник
Мой любимый сценарий вреда от ИИ - не высокий интеллект, а низкий интеллект. В частности, гипотеза Грей Гу .
Здесь самовоспроизводящийся автоматизированный процесс запускается и преобразует все ресурсы в свои копии.
Дело в том, что ИИ не является «умным» в смысле высокого интеллекта или общего интеллекта - он просто очень хорош в одной вещи и обладает способностью экспоненциально воспроизводиться.
источник
Я бы сказал, что самой большой реальной угрозой будет дисбаланс / разрушение, которое мы уже наблюдаем. Изменения, связанные с увольнением страны на 90%, реальны, и результаты (которые будут еще более неравномерным распределением богатства) ужасают, если вы их продумаете.
источник
У меня есть пример, который идет вразрез с опасениями публики, но это очень реальная вещь, которую я уже вижу. Это не зависит от ИИ, но я думаю, что с ИИ будет еще хуже. Это проблема людей, которые доверяют заключениям ИИ вслепую в критических приложениях.
У нас есть много областей, в которых человеческие эксперты должны принять решение. Возьмите, к примеру, лекарство - мы должны дать лекарство X или лекарство Y? Ситуации, которые я имею в виду, часто являются сложными проблемами (в смысле Cynefin), когда очень хорошо, когда кто-то очень внимательно обращает внимание и использует большой опыт, и результат действительно имеет значение.
Существует потребность в медицинских информатиках для написания систем поддержки принятия решений для такого рода проблем в медицине (и я полагаю, для того же типа в других областях). Они делают все возможное, но ожидается, что человеческий эксперт всегда примет решение системы как еще одно мнение при принятии решения. Во многих случаях было бы безответственно обещать что-либо еще, учитывая состояние знаний и ресурсы, доступные разработчикам. Типичным примером может служить использование компьютерного зрения в радиомикологии: пациент получает компьютерную томографию, и ИИ должен обработать изображение и решить, есть ли у пациента опухоль.
Конечно, ИИ не идеален. Даже при сравнении с золотым стандартом, он никогда не достигает 100% точности. Кроме того, есть все случаи, когда он демонстрирует хорошие результаты по сравнению со своими собственными показателями цели, но проблема была настолько сложной, что показатель цели недостаточно хорошо ее отражает - я не могу вспомнить пример в контексте КТ, но, думаю, мы видим это даже здесь, на SE, где алгоритмы одобряют популярность в постах, что является несовершенным показателем фактической корректности.
Вы, вероятно, читали этот последний абзац и кивали: «Да, я узнал об этом на первом вводном курсе ML, который я прошел». Угадай, что? Врачи никогда не проходили вводный курс по ОД. Они редко имеют достаточную статистическую грамотность, чтобы понять выводы статей, опубликованных в медицинских журналах. Когда они разговаривают со своим 27-м пациентом, 7 часов в их 16-часовую смену, голодные и эмоционально истощенные, и КТ выглядит не совсем ясно, но компьютер говорит: «Это не злокачественная опухоль», они не Потратьте еще десять минут, чтобы больше сконцентрироваться на изображении, или найдите учебник, или проконсультируйтесь с коллегой. Они просто согласны с тем, что говорит компьютер, и благодарны за то, что их когнитивная нагрузка снова не взлетела до небес. Таким образом, они превращаются из экспертов в людей, которые читают что-то с экрана. Хуже, в некоторых больницах администрация не только доверяет компьютерам, но и обнаружила, что они являются удобными козлами отпущения. Таким образом, у врача плохая догадка, которая идет вразрез с выходом компьютера, им становится трудно действовать на эту догадку и защищать себя, что они решили отвергнуть мнение ИИ.
ИИ являются мощными и полезными инструментами, но всегда будут задачи, которые они не смогут заменить держателю инструмента.
источник
Это лишь намерение дополнить другие ответы, поэтому я не буду обсуждать возможность того, что ИИ попытается добровольно поработить человечество.
Но другой риск уже здесь. Я бы назвал это непревзойденной технологией . Я научился науке и технике, и ИМХО, ИИ сам по себе не имеет понятия ни добра, ни зла, ни свободы. Но он построен и используется людьми, и из-за этого может быть вовлечено нерациональное поведение.
Я бы начал с примера из реальной жизни, в большей степени связанного с общими ИТ, чем с ИИ. Я буду говорить о вирусах или других вредоносных программах. Компьютеры - довольно глупые машины, которые хороши для быстрой обработки данных. Поэтому большинство людей полагаются на них. Некоторые (плохие) люди разрабатывают вредоносные программы, которые нарушают правильное поведение компьютеров. И все мы знаем, что они могут иметь ужасные последствия для малых и средних организаций, которые не очень хорошо подготовлены к потере компьютеров.
ИИ основан на компьютере, поэтому он уязвим для атак компьютерного типа. Вот мой пример - автомобиль с искусственным интеллектом. Технология практически готова к работе. Но представьте себе, что вредоносное ПО заставляет машину атаковать других людей на дороге. Даже без прямого доступа к коду ИИ, он может быть атакован боковыми каналами . Например, он использует камеры для чтения сигнальных знаков. Но из-за того, как реализовано машинное обучение, ИИ в целом не анализирует сцену так же, как человек. Исследователи показали, что было возможно изменить знак так, чтобы нормальный человек все еще видел исходный знак, но ИИ видел другой. Теперь представьте, что знак является дорожным приоритетом ...
Я имею в виду, что даже если у ИИ нет злых намерений, плохие парни могут попытаться заставить его вести себя плохо. И более важные действия будут делегированы AI (медицина, автомобили, самолеты, не говоря уже о бомбах), тем выше риск. Иными словами, я на самом деле не боюсь ИИ за себя, а за то, как он может использоваться людьми.
источник
Я думаю, что один из наиболее реальных (то есть связанных с текущими, существующими ИИ) рисков заключается в слепой зависимости от неконтролируемых ИИ по двум причинам.
1. Системы ИИ могут ухудшаться
Физическая ошибка в системах искусственного интеллекта может начать давать крайне неправильные результаты в регионах, в которых они не были проверены, потому что физическая система начинает давать неправильные значения. Иногда это выкупается самотестированием и избыточностью, но все же требует периодического человеческого контроля.
У самообучающихся ИИ также есть программный недостаток - их весовые сети или статистические представления могут приближаться к локальным минимумам, где они застряли с одним неверным результатом.
2. ИИ системы предвзяты
К счастью, это часто обсуждается, но стоит упомянуть: классификация входных данных систем искусственного интеллекта часто смещена, потому что набор данных обучения / тестирования также был смещен. Это приводит к тому, что ИИ не признают людей определенной этнической принадлежности, для более очевидного примера. Однако есть менее очевидные случаи, которые могут быть обнаружены только после какой-то серьезной аварии, например, когда ИИ не распознает определенные данные и случайно не загорелся на фабрике, не сломал оборудование или не поранил людей.
источник
Если робот похож на интерфейс человек-машина, устройство аналогично автомобилю с дистанционным управлением. За джойстиком можно поговорить с оператором и договориться о желаемом поведении. Роботы с дистанционным управлением - безопасные изобретения, потому что их действия могут быть прослежены до людей, и их мотивация может быть предвидена. Их можно использовать для улучшения повседневной жизни, и с ними забавно играть.
Напротив, некоторые роботы не управляются джойстиками, а работают с внутренним генератором костей. Игра в кости известна своей социальной ролью в азартных играх, но она также имеет мистическое значение. Обычно генератор случайных чисел тесно связан с хаотическим поведением, которое контролируется темными силами вне влияния людей. Электронная игральная кость, встроенная в робота и улучшенная с помощью алгоритма обучения, является противоположностью интерфейса «человек-машина», но это потенциальная проблема, потому что робот со случайным управлением будет играть в игры с людьми, чего нельзя ожидать. Следующее количество игральных костей предсказать невозможно, поэтому робот будет вести себя также резко.
Связь между случайно контролируемыми играми и негативным социальным воздействием была объяснена в следующем предложении.
источник
Люди в настоящее время существуют в эколого-экономической нише «того, что думает».
ИИ тоже думает, поэтому будет вторгаться в нашу эколого-экономическую нишу. И в экологии, и в экономике занятие вашей ниши чем-то еще - не лучший план для выживания.
Как именно человеческое выживание подвергается риску, будет довольно хаотичным. Будет множество вероятных способов, которыми ИИ может поставить под угрозу выживание человека как вида или даже как доминирующей формы жизни.
Предположим, что существует сильный ИИ без «супер этики», который дешевле в производстве, чем человек (включая производство «тела» или способа манипулирования миром), и такой же умный или умный, как человек.
Это тот случай, когда мы начинаем конкурировать с этим ИИ за ресурсы. Это произойдет в микроэкономическом масштабе (мы нанимаем человека, или покупаем / строим / сдаем в аренду / нанимаем ИИ для решения этой проблемы?). В зависимости от скорости, с которой ИИ становятся дешевыми и / или умнее людей, это может происходить медленно (может быть, отрасль за раз) или очень быстро.
В капиталистической конкуренции те, кто не переходят на более дешевые ИИ, оказываются вне конкуренции.
Теперь, в краткосрочной перспективе, если преимущества ИИ лишь незначительны, высокая стоимость обучения людей за 20 с лишним лет до того, как они станут продуктивными, может замедлить этот процесс. В этом случае, возможно, стоит заплатить доктору сверх зарплаты голода, чтобы диагностировать болезнь, а не ИИ, но, вероятно, не стоит погашать их студенческие ссуды. Таким образом, новые врачи-люди быстро перестанут обучаться, а существующие врачи обнищают. Затем через 20-30 лет ИИ полностью заменит врачей для диагностических целей.
Если преимущества ИИ велики, то это будет быстро. Врачам даже не стоит платить зарплату по уровню бедности, чтобы проводить диагностику людей. Вы можете увидеть что-то подобное в фермерстве, основанном на мышцах, когда фермерство на основе бензина вступило во владение.
Во время прошлых промышленных революций тот факт, что люди, способные мыслить, означает, что вы можете перенаправить лишних работников на другие действия; производственные линии, рабочие места в сфере обслуживания, компьютерное программирование и т. д. Но в этой модели ИИ дешевле обучать и строить, и он умнее или умнее людей на такой работе.
Как свидетельствует арабская весна, вызванная этанолом, сельскохозяйственные культуры и сельскохозяйственные угодья могут использоваться как для топлива, так и для людей. Когда машины станут более эффективными с точки зрения превращения пахотных земель в полезную работу, вы начнете наблюдать рост цен на продукты питания. Как правило, это приводит к беспорядкам, так как люди действительно не любят голодать до смерти и готовы рисковать своей жизнью, чтобы свергнуть правительство, чтобы предотвратить это.
Вы можете смягчить людей, предоставляя субсидированные продукты питания и тому подобное. Пока это экономически не наносит вред (т. Е. Если достаточно дорого, это может привести к тому, что вы не будете конкурировать с другими местами, которые этого не делают), это просто политически нестабильно.
В качестве альтернативы, в краткосрочной перспективе каста собственников, которая получает прибыль от все более эффективной экономики, управляемой ИИ, может заплатить за полицию или военную касту, чтобы подавить упомянутые беспорядки. Это требует, чтобы полицейские / военные касты были выше или ниже среднего класса по уровню жизни, чтобы обеспечить постоянную лояльность - вы не хотите, чтобы они присоединились к мятежникам.
Таким образом, одним из центров прибыли, на который вы можете направить ИИ, является военная и полицейская деятельность на основе ИИ. Беспилотники, доставляющие смертоносные и несмертельные боеприпасы на основе обработки визуальных и других потоков данных, могут сократить количество полицейских / военных среднего класса, необходимых для подавления беспорядков, вызванных ценами на продовольствие, или другой нестабильности. Как мы уже предполагали, что у ИИ могут быть тела и тренировки дешевле, чем у биологического человека, это также может увеличить количество силы, которое вы можете использовать на затраченный доллар.
На данный момент мы говорим о том, что полиция и военные, управляемые ИИ, используются в основном для того, чтобы не дать людям голодом свергнуть экономику, управляемую ИИ, и захватить средства производства из-за более эффективного их использования.
Чудовищные люди, которые «владеют» системой наверху, принимают локально рациональные решения для оптимизации своего богатства и власти. Они могут сохраняться или не сохраняться долго; до тех пор, пока они истощают относительно небольшое количество ресурсов и не портят экономику ИИ, от выбора не будет большого давления, чтобы избавиться от них. С другой стороны, поскольку они не вносят ничего ценного, их позиция «на вершине» политически нестабильна.
Этот процесс предполагал «сильный» общий ИИ. Более узкие ИИ могут осуществить это по частям. Например, дешевый, эффективный диагностический компьютер может привести к тому, что большинство врачей попадут в бедность за удивительно короткий период времени. Самостоятельное вождение автомобилей может поглотить 5% -10% экономики. Информационные технологии уже поглощают сектор розничной торговли скромным искусственным интеллектом.
Говорят, что каждый технологический прогресс ведет к увеличению и улучшению рабочих мест для людей. И это было верно в течение последних 300+ лет.
Но до 1900 года было также верно, что каждый технический прогресс приводил к увеличению и улучшению рабочих мест для лошадей. Затем прибыл ЛЕД и автомобиль, и теперь стало намного меньше рабочих лошадей; остальные лошади в основном эквивалентны человеческим личным слугам: они сохранены для новизны «вау, круто, лошадь» и для удовольствия верховой езды и управления огромным животным.
источник
В дополнение ко многим уже предоставленным ответам я хотел бы затронуть проблему состязательных примеров в области моделей изображений.
Состязательными примерами являются изображения, которые были возмущены специально разработанным шумом, который часто незаметен для наблюдателя-человека, но сильно меняет прогноз модели.
Примеры включают в себя:
Влияние на прогнозируемый диагноз при рентгенографии грудной клетки
Влияет на обнаружение дорожных знаков, необходимых для автономных транспортных средств.
источник
ИИ, который используется для решения проблем реального мира, может представлять опасность для человечества и точно не требует чувствительности, это также требует определенной степени человеческой глупости.
В отличие от людей, ИИ нашел бы самый логичный ответ без ограничения эмоций, этики или даже жадности ... Только логика. Спросите этого ИИ, как решить проблему, которую создали люди (например, изменение климата), и ее решение может заключаться в том, чтобы устранить всю человеческую расу, чтобы защитить планету. Очевидно, для этого потребуется дать ИИ возможность действовать в соответствии с его результатом, что подводит меня к моей более ранней точке - человеческой глупости.
источник
Искусственный интеллект может навредить нам любым из способов естественного интеллекта (человека). Различие между естественным и искусственным интеллектом исчезнет, когда люди начнут увеличивать себя более тесно. Интеллект больше не может характеризовать личность и станет безграничным владением. Причиненный вред будет столько, сколько люди могут выдержать для сохранения своей развивающейся самоидентификации.
источник
Мало кто понимает, что нашу глобальную экономику следует рассматривать как ИИ: - Денежные операции являются сигналами через нейронную сеть. Узлами в нейронной сети будут различные корпорации или частные лица, платящие или получающие деньги. - Это искусственный, так что квалифицируется как искусственный
Эта нейронная сеть лучше в своей задаче, чем люди: капитализм всегда побеждал экономику, запланированную людьми (плановая экономика).
Опасна ли эта нейронная сеть? Могут отличаться, если вы генеральный директор, зарабатывающий большие деньги, по сравнению с рыбаком в реке, загрязненной корпоративными отходами.
Как этот ИИ стал опасным? Вы можете ответить на это из-за человеческой жадности. Наше творение отражает нас самих. Другими словами: мы не научили нашу нейронную сеть вести себя хорошо. Вместо того, чтобы тренировать нейронную сеть для улучшения качества жизни всех людей, мы обучили ее, чтобы сделать богатые фоксы более богатыми.
Будет ли легко тренировать этот ИИ, чтобы он больше не был опасным? Может быть, нет, может быть, некоторые ИИ больше, чем жизнь. Это просто выживание сильнейшего.
источник