Нет , но . Мы можем иметь творческое, но этическое решение проблем, если система имеет полную систему этики, но в противном случае творчество будет небезопасно по умолчанию.
Подходы к принятию решений ИИ можно разделить на два типа: интерполяционные мыслители и экстраполяционные мыслители.
Интерполирующие мыслители учатся классифицировать и имитировать то, чему они учатся, и не пытаются давать разумные результаты за пределами своей области обучения. Вы можете думать о них как об интерполяции между примерами обучения и извлечении выгоды из всех математических гарантий и условий, как и другие статистические методы.
Экстраполяционные мыслители учатся манипулировать основными принципами, что позволяет им комбинировать эти принципы ранее не рассмотренными способами. Соответствующее поле для интуиции здесь - это численная оптимизация , самым простым и известным примером которой является линейное программирование , а не статистические поля, которые породили машинное обучение. Вы можете думать о них как об экстраполирующих за пределами обучающих примерах (на самом деле, многие из них даже не требуют обучающих примеров или используют эти примеры для вывода основополагающих принципов).
Обещание экстраполирующих мыслителей состоит в том, что они могут придумать эти «боковые» решения гораздо быстрее, чем могли бы люди. Проблема этих экстраполирующих мыслителей заключается в том, что они используют только устные принципы, а не какие-то невысказанные, которые могут показаться слишком очевидными для упоминания.
Атрибутом решений проблем оптимизации является то, что вектор признаков часто является «экстремальным» в некотором роде. В линейном программировании, по крайней мере, одна вершина допустимого пространства решений будет оптимальной, и поэтому простые методы решения находят оптимальную вершину (что практически невозможно по природе того, чтобы быть вершиной).
В качестве другого примера, решение по минимальному расходу топлива для перемещения космического корабля из одного положения в другое называется « взрыв-взрыв» , когда вы ускоряете корабль как можно быстрее в начале и в конце траектории, двигаясь с максимальной скоростью между ,
В то время как в силу , когда система правильно поняла (релейности являются оптимальной для многих случаев), это катастрофическое когда система неправильно понята. Мой любимый пример здесь - проблема диеты Данцига (обсуждение начинается на странице 5 pdf), где он пытается оптимизировать свою диету, используя математику. Согласно его первому ограничению, он должен выпивать 500 галлонов уксуса в день. Под его вторым 200 бульонных кубиков. Под его третье два фунта отрубей. Соображения, которые делают эти явно плохие идеи, не встраиваются в систему, и поэтому система невинно подсказывает их.
Если вы можете полностью закодировать знания и ценности, которые человек использует для оценки этих планов, в ИИ, то экстраполяционные системы так же безопасны, как и этот человек. Они смогут рассмотреть и отклонить неправильный план экстремальных действий, и у вас останутся правильные варианты экстремальных планов.
Но если вы не можете, тогда имеет смысл не создавать экстраполирующего лица, принимающего решения, а вместо этого строить интерполяционного. То есть вместо того, чтобы спрашивать себя "как мне лучше всего достичь цели X?" он спрашивает себя «что бы человек сделал в этой ситуации?». Последний может быть намного хуже в достижении цели X, но он имеет гораздо меньший риск пожертвования другими целями для достижения X.