Мы проводим исследования, проводя часы, выясняя, как заставить реальное программное обеспечение ИИ (интеллектуальные агенты) работать лучше. Мы также пытаемся реализовать некоторые приложения, например, в бизнесе, здравоохранении и образовании, используя технологию искусственного интеллекта.
Тем не менее, до сих пор большинство из нас игнорировали «темную» сторону искусственного интеллекта. Например, «неэтичный» человек мог купить тысячи дешевых беспилотников, вооружить их оружием и отправить их в огонь на публику. Это было бы «неэтичным» применением ИИ.
Могут ли (в будущем) существовать угрозы человечеству из-за ИИ?
human-like
applications
cyberterrorism
quintumnia
источник
источник
Ответы:
Я бы определил интеллект как способность предсказывать будущее. Поэтому, если кто-то умен, он может предсказать некоторые аспекты будущего и решить, что делать, основываясь на своих прогнозах. Таким образом, если «умный» человек решит причинить боль другим людям, он может быть очень эффективен в этом (например, Гитлер и его сотрудники).
Искусственный интеллект может быть чрезвычайно эффективным для прогнозирования некоторых аспектов неопределенного будущего. И это ИМХО приводит к двум негативным сценариям:
Конечно, есть и позитивные сценарии, но вы не спрашиваете о них.
Я рекомендую прочитать этот классный пост об искусственном суперинтеллекте и возможных результатах его создания: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
источник
Нет сомнений в том, что ИИ потенциально может представлять угрозу для человечества.
Искусственный интеллект, который превосходит человеческий интеллект, будет способен экспоненциально увеличивать свой собственный интеллект, в результате чего система искусственного интеллекта будет для человека совершенно невозможна.
На этом этапе, если система искусственного интеллекта решит, что человечество больше не является полезным, оно может стереть нас с лица земли.
Как Элиэзер Юдковски считает искусственный интеллект позитивным и негативным фактором глобального риска ,
«ИИ не ненавидит вас и не любит вас, но вы сделаны из атомов, которые он может использовать для чего-то другого».
Здесь полезно рассмотреть мысленный эксперимент максимизатора скрепки.
Высокоинтеллектуальный ИИ, которому поручено максимизировать производство скрепок, может предпринять следующие шаги для достижения своей цели.
1) Добиться интеллектуального взрыва, чтобы сделать себя сверхразумным (это повысит эффективность оптимизации скрепок)
2) Сотрите человечество, чтобы его нельзя было отключить (это могло бы свести к минимуму производство и стать неэффективным)
3) Используйте ресурсы Земли (включая саму планету) для создания самовоспроизводящихся роботов, в которых размещен ИИ
4) Экспоненциально распространяется по всей вселенной, собирая планеты и звезды, превращая их в материалы для строительства фабрик для скрепок
Это показывает, как сверхразумные и высокоинтеллектуальные системы искусственного интеллекта могут представлять собой величайший экзистенциальный риск, с которым может столкнуться человечество.
Мюррей Шанахан в «Технологической сингулярности» даже предположил, что ИИ может быть решением парадокса Ферми: причина, по которой мы не видим разумной жизни во вселенной, может заключаться в том, что, как только цивилизация станет достаточно развитой, она разработает ИИ, который в конечном итоге разрушит Это. Это известно как идея космического фильтра .
В заключение, сам интеллект, который делает ИИ таким полезным, также делает его чрезвычайно опасным.
Влиятельные деятели, такие как Элон Маск и Стивен Хокинг, выразили обеспокоенность тем, что сверхразумный ИИ - самая большая угроза, с которой нам когда-либо придется столкнуться.
Надеюсь это ответит на твой вопрос :)
источник