Возможно, вы уже знаете об этом, но главы 3, 7 и 9 Джорджа Дж. Клира и « Нечеткие множества и нечеткая логика Бо Юаня : теория и приложения» (1995)провести углубленное обсуждение различий между нечеткой и вероятностной версиями неопределенности, а также нескольких других типов, связанных с теорией доказательств, распределением вероятностей и т. д. Он полон формул для измерения нечеткости (неопределенности в шкалах измерений) и вероятностная неопределенность (варианты энтропии Шеннона и т. д.), а также несколько для агрегирования по этим различным типам неопределенности. Есть также несколько глав, посвященных агрегированию нечетких чисел, нечетких уравнений и нечетких логических выражений, которые могут оказаться полезными для вас. Я перевел многие из этих формул в код, но до сих пор изучаю все, что касается математики, поэтому я позволю говорить Клиру и Юаню. :) Я смог забрать использованную копию за 5 долларов несколько месяцев назад. Клир также написал продолжение книги о неопределенности в 2004 году, которую я еще не прочитал. (Мои извинения, если эта ветка слишком старая, чтобы отвечать на нее - я все еще изучаю этикет на форуме).
Отредактировано, чтобы добавить: я не уверен, что из различий между нечеткой и вероятностной неопределенностью, о которых ОП уже знал, и о том, что ему нужно больше информации, или какие типы агрегатов он имел в виду, поэтому я просто предоставлю список некоторых различия, которые я почерпнул из клира и юаня, от макушки головы. Суть в том, что да, вы можете объединить нечеткие числа, меры и т. Д. Вместе, даже с вероятностями - но это быстро становится очень сложным, хотя все еще весьма полезным.
Неопределенность нечеткого множества измеряет совершенно другую величину, чем вероятность и ее меры неопределенности, такие как функция Хартли (для неспецифичности) или энтропия Шеннона. Нечеткость и вероятностная неопределенность никак не влияют друг на друга. Существует целый ряд доступных мер нечеткости, которые количественно определяют неопределенность в границах измерения (это относится к неопределенностям измерения, обычно обсуждаемым в CrossValidated, но не идентичным). «Fuzz» добавляется в основном в ситуациях, когда было бы полезно рассматривать порядковую переменную как непрерывную, ни одна из которых не имеет ничего общего с вероятностями.
Тем не менее, нечеткие множества и вероятности могут быть объединены множеством способов - например, путем добавления нечетких границ к значениям вероятности или оценки вероятности попадания значения или логического утверждения в нечеткий диапазон. Это приводит к огромной, широкомасштабной таксономии комбинаций (что является одной из причин, по которой я не включил подробности до моего первого редактирования).
Что касается агрегации, то меры нечеткости и энтропийные меры вероятностной неопределенности иногда могут суммироваться вместе, чтобы дать общие меры неопределенности.
Чтобы добавить еще один уровень сложности. Нечеткая логика, числа и множества могут быть агрегированы, что может повлиять на количество возникающей неопределенности. Клир и Юань говорят, что математика может быть действительно сложной для этих задач, и поскольку переводы уравнений являются одним из моих слабых мест (пока), я не буду комментировать дальше. Я просто знаю, что эти методы представлены в их книге.
Нечеткая логика, числа, множества и т. Д. Часто связаны друг с другом так, как нет вероятностей, что может усложнить вычисление общей неопределенности. Например, программист, работающий в Behavioral-Driven Development Development (BDD), может преобразовать утверждение пользователя о том, что «около половины этих объектов черные», в нечеткое (около) нечеткое число (половину). Это повлекло бы за собой объединение двух разных нечетких объектов, чтобы получить меру нечеткости для всего этого.
Сигма-счета более важны при агрегировании нечетких объектов, чем обычные счета, используемые в статистике. Они всегда меньше, чем обычное «четкое» число, потому что функции членства, которые определяют нечеткие множества (которые всегда находятся в шкале от 0 до 1), измеряют частичное членство, так что запись со счетом 0,25 считается только четвертью запись.
Все вышеперечисленное приводит к действительно сложному набору нечеткой статистики, статистике нечетких множеств, нечетким утверждениям о нечетких множествах и т. Д. Если мы объединяем вероятности и нечеткие множества вместе, теперь мы должны рассмотреть, следует ли использовать одну из нескольких например, разные типы нечетких дисперсий.
Вырезания альфа-канала являются характерной чертой математики нечетких множеств, включая формулы для расчета неопределенностей. Они делят наборы данных на вложенные наборы на основе значений функций принадлежности. Я еще не сталкивался с подобной концепцией с вероятностями, но имейте в виду, что я все еще изучаю веревки.
Нечеткие множества можно интерпретировать детально, создавая распределения вероятностей и оценки убеждений, используемые в таких областях, как теория доказательств, которая включает в себя тонкую концепцию вероятностных массовых присвоений. Я сравниваю это с тем, как условные вероятности и т. Д. Могут быть истолкованы как байесовские приоры и постеры. Это приводит к отдельным определениям нечеткой, неспецифической и энтропийной неопределенности, хотя формулы, очевидно, похожи. Они также приводят к мерам раздора, раздора и конфликта, которые являются дополнительными формами неопределенности, которые можно суммировать вместе с обычной неспецифичностью, нечеткостью и энтропией.
Общие вероятностные концепции, такие как принцип максимальной энтропии, все еще действуют, но иногда требуют доработки. Я все еще пытаюсь освоить их обычные версии, поэтому я не могу сказать больше, чем указать, что я знаю, что твики существуют.
Суть в том, что эти два различных типа неопределенности могут быть объединены, но это быстро превращается в целую таксономию нечетких объектов и основанных на них статистических данных, которые могут влиять на простые в других отношениях вычисления. У меня даже нет здесь места, чтобы обратиться ко всему шведскому столу нечетких формул для пересечений и объединений. К ним относятся T-нормы и T-конформы, которые иногда используются в приведенных выше расчетах неопределенности. Я не могу дать простой ответ, но это не только из-за неопытности - даже спустя 20 лет после того, как Клир и Юань написали, большая часть математики и вариантов использования для вещей, кажется, все еще не решены. Например, там я не могу найти четкого общего руководства по использованию Т-конформ и Т-норм в конкретных ситуациях. Тем не менее, это повлияет на любую совокупность неопределенностей. Я могу найти конкретные формулы для некоторых из них, если хотите. Я недавно закодировал некоторые из них, так что они все еще немного свежи. С другой стороны, я любитель ржавых математических навыков, так что вам, вероятно, лучше обратиться к этим источникам напрямую. Я надеюсь, что это редактирование полезно; если вам нужно больше разъяснений / информации, дайте мне знать.