Анализ наихудших и средних случаев - это общеизвестные меры сложности алгоритма. Недавно сглаженный анализ стал еще одной парадигмой, объясняющей, почему некоторые алгоритмы, экспоненциальные в наихудшем случае, так хорошо работают на практике, например, симплексный алгоритм.
Мой вопрос - есть ли другие парадигмы для измерения сложности алгоритма? Меня особенно интересуют те, которые пытаются объяснить, почему некоторые алгоритмы с плохой сложностью в худшем случае хорошо работают на практике.