Что O (log n) означает точно?

2140

Я узнаю о времени работы Big O Notation и времени амортизации. Я понимаю понятие O (n) линейного времени, означающего, что размер входных данных влияет на рост алгоритма пропорционально ... и то же самое относится, например, к квадратичному времени O (n 2 ) и т. Д. Даже к алгоритмам такие как генераторы перестановок, с O (n!) раз, которые растут на факториалах.

Например, следующая функция - O (n), потому что алгоритм растет пропорционально его входу n :

f(int n) {
  int i;
  for (i = 0; i < n; ++i)
    printf("%d", i);
}

Точно так же, если бы был вложенный цикл, время было бы O (n 2 ).

Но что именно O (log n) ? Например, что значит сказать, что высота полного двоичного дерева равна O (log n) ?

Я знаю (возможно, не очень подробно), что такое логарифм, в том смысле, что: log 10 100 = 2, но я не могу понять, как определить функцию с логарифмическим временем.

Андреас Греч
источник
61
Двоичное дерево с 1 узлом имеет высоту log2 (1) +1 = 1, дерево с 2 узлами имеет высоту log2 (2) +1 = 2, дерево с 4 узлами имеет высоту log2 (4) +1 = 3, и скоро. Дерево с n узлами имеет высоту log2 (n) +1, поэтому при добавлении узлов к дереву его средняя высота увеличивается логарифмически.
Дэвид Р. Триббл
36
Одна вещь, которую я вижу в большинстве ответов, заключается в том, что они по существу описывают «O (что-то)», что означает, что время выполнения алгоритма увеличивается пропорционально «чему-то». Учитывая, что вы спросили «точное значение» слова «O (log n)», это неправда. Это интуитивное описание нотации Big-Theta, а не Big-O. O (log n) интуитивно означает, что время выполнения увеличивается максимально пропорционально «log n»: stackoverflow.com/questions/471199/…
Mehrdad Afshari
31
Я всегда помню, как разделяй и властвуй в качестве примера для O (log n)
RichardOD
14
Важно понимать, что его журнал базы 2 (не базы 10). Это потому, что на каждом шаге алгоритма вы удаляете половину оставшихся вариантов. В информатике мы почти всегда имеем дело с журналом базы 2, потому что мы можем игнорировать константы. Однако есть некоторые исключения (т. Е. Время выполнения Quad Tree - это основа журнала 4)
Этан
13
@Ethan: Неважно, в какой базе вы находитесь, поскольку преобразование базы является просто постоянным умножением, формула имеет вид log_b (x) = log_d (x) / log_d (b). Log_d (b) будет просто константой.
mindvirus

Ответы:

2711

Я не могу понять, как определить функцию со временем журнала.

Наиболее распространенные атрибуты логарифмической функции времени выполнения:

  • выбор следующего элемента для выполнения какого-либо действия является одной из нескольких возможностей, и
  • нужно выбрать только одного.

или

  • элементы, над которыми выполняется действие, это цифры n

Вот почему, например, поиск людей в телефонной книге - это O (log n). Вам не нужно проверять каждого человека в телефонной книге, чтобы найти нужного; вместо этого вы можете просто разделить-и-завоевать, посмотрев на основе того, где их названия расположены в алфавитном порядке, и в каждом разделе вам нужно только изучить подмножество каждого раздела, прежде чем вы в конце концов найдете чей-либо номер телефона.

Конечно, большая телефонная книга все еще займет у вас больше времени, но она не будет расти так же быстро, как пропорциональное увеличение дополнительного размера.


Мы можем расширить пример телефонной книги, чтобы сравнить другие виды операций и их время выполнения. Предположим, что в нашей телефонной книге есть компании («Желтые страницы»), которые имеют уникальные имена, и люди («Белые страницы»), которые могут не иметь уникальных имен. Телефонный номер назначается максимум одному человеку или бизнесу. Мы также предполагаем, что для перехода на конкретную страницу требуется постоянное время.

Вот время выполнения некоторых операций, которые мы могли бы выполнять в телефонной книге, от самых быстрых до самых медленных:

  • O (1) (в худшем случае): учитывая страницу с названием компании и названием компании, найдите номер телефона.

  • O (1) (в среднем случае): учитывая страницу с именем человека и его именем, найдите номер телефона.

  • O (log n): по имени человека найдите номер телефона, выбрав случайную точку примерно на полпути в той части книги, которую вы еще не искали, а затем проверьте, находится ли имя человека в этой точке. Затем повторите процесс примерно на полпути через часть книги, где находится имя человека. (Это двоичный поиск имени человека.)

  • O (n): Найти всех людей, номера телефонов которых содержат цифру «5».

  • O (n): По номеру телефона найдите человека или компанию с этим номером.

  • O (n log n): в офисе принтера произошла путаница, и в нашей телефонной книге все страницы были вставлены в случайном порядке. Исправьте порядок так, чтобы он был правильным: посмотрите на имя на каждой странице, а затем поместите эту страницу в соответствующее место в новой пустой телефонной книге.

Для приведенных ниже примеров мы сейчас в офисе принтера. Телефонные книги ждут отправки по почте каждому жителю или предприятию, и на каждой телефонной книге есть наклейка, указывающая, куда ее следует отправлять. Каждый человек или бизнес получает одну телефонную книгу.

  • O (n log n): мы хотим персонализировать телефонную книгу, поэтому мы собираемся найти имя каждого человека или компании в их назначенной копии, затем обвести их имя в книге и написать короткую благодарственную записку за их покровительство ,

  • O (n 2 ): в офисе произошла ошибка, и каждая запись в каждой из телефонных книг имеет дополнительный «0» в конце номера телефона. Возьмите немного белого и уберите каждый ноль.

  • O (n · n!): Мы готовы загрузить телефонные книги в док-станцию. К сожалению, робот, который должен был загружать книги, стал бесполезным: он кладет книги на грузовик в случайном порядке! Хуже того, он загружает все книги в грузовик, а затем проверяет, находятся ли они в правильном порядке, а если нет, то выгружает их и начинает все сначала. (Это ужасный вид бого .)

  • O (n n ): Вы исправляете робота, чтобы он правильно загружал вещи. На следующий день один из ваших коллег подшучивает над вами и подключает робот-погрузчик к автоматизированным системам печати. Каждый раз, когда робот отправляется на загрузку оригинальной книги, заводской принтер дублирует все телефонные книги! К счастью, системы обнаружения ошибок робота настолько сложны, что робот не пытается печатать еще больше копий, когда для загрузки встречает дубликат книги, но ему все равно приходится загружать все напечатанные оригиналы и дубликаты книг.

Джон Феминелла
источник
81
@cletus: Случайно, боюсь. Я выбрал его, потому что в телефонных книгах большое N, люди понимают, что они и чем занимаются, и потому, что он универсален в качестве примера. Плюс я должен использовать роботов в моем объяснении! Победа в многоборье. (Кроме того, похоже, ваш ответ был сделан еще до того, как я стал участником StackOverflow!)
Джон Феминелла,
12
«В офисе произошла ошибка, и у каждой записи в каждой телефонной книге есть дополнительный« 0 »в конце номера телефона. Возьмите пометку и уберите каждый ноль». <- это не порядок N в квадрате. N определяется как размер ввода. Размер ввода - это количество телефонных номеров, которое представляет собой количество номеров в книге, умноженное на количество книг. Это все еще линейная операция по времени.
Билли ОНил
21
@ Билли: В этом примере Nэто количество людей в одной книге. Поскольку каждый человек в телефонной книге также получает свою собственную копию книги, существуют N идентичные телефонные книги, в каждой из которых есть Nлюди, а это O (N ^ 2).
Джон Феминелла
48
Разве O (1) не лучший случай, а не худший, поскольку он странным образом выделен как?
Свип
54
У меня ушло O (long⅝n! N-55/2) время, чтобы найти определение O (log n), которое, наконец, имеет смысл. +1
iAteABug_And_iLiked_it
611

O(log N)в основном означает, что время растет линейно, а nэкспоненциально. Поэтому, если 1для вычисления 10элементов требуется секунда, для вычисления элементов потребуются 2секунды, для вычисления 100элементов - 3секунды 1000, и так далее.

Это O(log n)когда мы делим и побеждаем алгоритмы типа, например, бинарный поиск. Другой пример - быстрая сортировка, где каждый раз, когда мы делим массив на две части, и каждый раз требуется O(N)время, чтобы найти элемент сводки. Отсюда это N O(log N)

fastcodejava
источник
109
Три линии мудрости, которая превосходит все остальные ответы на сочинения ... :) На всякий случай, если кто-то упускает его, в контексте программирования основание журнала составляет 2 (а не 10), поэтому O (log n) масштабируется как 1 секунда в течение 10 элементы, 2 секунды на 20, 3 на 40 и т. д.
nawfal
3
Согласовано, кратко и ясно, хотя конечный вопрос от ОП был о том, как определить логарифмическую функцию, а не совсем «что это»
Адам
4
да, логарифмическая функция обратна экспоненциальной функции. ((log x) основание a) является обратным (степень x). Качественный анализ этих функций с помощью графиков даст больше интуиции.
сверхобмена
7
Мне потребовалось около 3 прочтений, чтобы понять, что это не так. Время идет линейно, а количество элементов экспоненциально. Это означает, что больше элементов за меньшее время . Это психически неуместно для тех, кто визуализирует logзнакомую кривую логарифма на графике.
Qix - МОНИКА БЫЛА ПОВТОРЕНА
1
Я думаю, что это очень хороший ответ, за исключением части, где утверждается, что бинарный поиск является алгоритмом «разделяй и властвуй». Это не так.
code_dredd
579

На этот вопрос уже было выложено много хороших ответов, но я считаю, что мы действительно упускаем важный, а именно иллюстрированный ответ.

Что значит сказать, что высота полного двоичного дерева равна O (log n)?

На следующем рисунке изображено двоичное дерево. Обратите внимание, что каждый уровень содержит удвоенное количество узлов по сравнению с уровнем выше (следовательно, двоичным ):

Бинарное дерево

Бинарный поиск - пример со сложностью O(log n). Предположим, что узлы на нижнем уровне дерева на рисунке 1 представляют элементы в некоторой отсортированной коллекции. Бинарный поиск - это алгоритм «разделяй и властвуй», и на рисунке показано, как нам потребуется (не более) 4 сравнений, чтобы найти запись, которую мы ищем в этом наборе данных из 16 элементов.

Предположим, что вместо этого у нас был набор данных с 32 элементами. Продолжите рисунок выше, чтобы найти, что теперь нам нужно 5 сравнений, чтобы найти то, что мы ищем, поскольку дерево умножилось только на один уровень глубже, когда мы умножили объем данных. В результате сложность алгоритма может быть описана как логарифмический порядок.

Построение графика log(n)на простом листе бумаги приведет к графику, на котором рост кривой замедляется по мере nувеличения:

O (log n)

Йорн Шоу-Роде
источник
60
«Обратите внимание, что каждый уровень содержит двойное количество узлов по сравнению с уровнем выше (следовательно, двоичным)». Это неверно. То, что вы описываете, является сбалансированным бинарным деревом. Бинарное дерево просто означает, что каждый узел имеет не более двух дочерних элементов.
Энотрия
8
Фактически, это очень специальное сбалансированное двоичное дерево, называемое полным двоичным деревом. Я отредактировал ответ, но нужен кто-то, чтобы одобрить его.
user21820 14.12.13
5
Полное двоичное дерево не обязательно должно иметь последний уровень, чтобы быть полностью заполненным. Я бы сказал, «полное двоичное дерево» является более подходящим.
г-н AJ
Ваш ответ пытается более конкретно ответить на исходную проблему ОП, поэтому он лучше, чем текущий принятый ответ (ИМО), но он все еще очень неполный: вы просто приводите половину примера и 2 изображения ...
nbro
2
В этом дереве 31 элемент, а не 16. Почему он называется набором данных из 16 элементов? Каждый узел на нем представляет число, иначе это будет неэффективное двоичное дерево: P
Perry Monschau
245

Приведенное ниже объяснение использует случай полностью сбалансированного двоичного дерева, чтобы помочь вам понять, как мы получаем сложность логарифмического времени.

Двоичное дерево - это случай, когда проблема размера n делится на подзадачу размера n / 2, пока мы не достигнем проблемы размера 1:

высота бинарного дерева

И вот как вы получаете O (log n), то есть объем работы, который необходимо выполнить над указанным деревом, чтобы найти решение.

Общим алгоритмом с O (log n) сложностью по времени является бинарный поиск, рекурсивное отношение которого равно T (n / 2) + O (1), т.е. на каждом последующем уровне дерева вы делите задачу на половину и выполняете постоянный объем дополнительной работы.

2cupsOfTech
источник
2
новичок здесь. Так можно ли сказать, что высота дерева - это скорость деления по рекурсии до размера n = 1?
Коди
@ Коди, да, по большей части, твои наблюдения верны. Этот пример иллюстрирует / использует log_2. Ваше наблюдение будет выходить за рамки log_2и будет точным для любого log_xместа x > 1. Выполнение прямого деления может не привести к точному 1, поэтому вы можете сказать рекурсивное деление, пока Ceiling()последнее из делений не станет равным 1, или что-то подобное.
Джеймс Оравец
199

обзор

Другие дали хорошие примеры диаграмм, такие как древовидные диаграммы. Я не видел простых примеров кода. Поэтому в дополнение к моему объяснению я приведу некоторые алгоритмы с простыми операторами печати, чтобы проиллюстрировать сложность различных категорий алгоритмов.

Во-первых, вы хотите получить общее представление о логарифме, которое вы можете получить по адресу https://en.wikipedia.org/wiki/Logarithm . Использование естествознания eи натурального бревна. Ученики-инженеры будут использовать log_10 (база 10 журналов), а ученые-программисты будут часто использовать log_2 (база 2 журналов), поскольку компьютеры работают на двоичном языке. Иногда вы можете увидеть сокращения натурального логарифма, как ln(), инженеры обычно оставляют _10 выключенным и просто используют, log()а log_2 сокращается как lg(). Все типы логарифмов растут одинаковым образом, поэтому они разделяют одну и ту же категорию log(n).

Когда вы смотрите на примеры кода ниже, я рекомендую посмотреть O (1), затем O (n), затем O (n ^ 2). После того, как вы хорошо с ними, а затем посмотрите на других. Я включил чистые примеры, а также варианты, чтобы продемонстрировать, как незначительные изменения могут привести к той же классификации.

Вы можете думать о O (1), O (n), O (logn) и т. Д. Как о классах или категориях роста. Некоторые категории займут больше времени, чем другие. Эти категории помогают нам упорядочить производительность алгоритма. Некоторые растут быстрее по мере роста n. Следующая таблица демонстрирует рост численно. В таблице ниже представьте log (n) как потолок log_2.

введите описание изображения здесь

Примеры простых кодов различных категорий Big O:

O (1) - Примеры с постоянным временем:

  • Алгоритм 1:

Алгоритм 1 выводит привет один раз, и он не зависит от n, поэтому он всегда будет работать в постоянное время, так оно и есть O(1).

print "hello";
  • Алгоритм 2:

Алгоритм 2 печатает привет 3 раза, однако это не зависит от размера ввода. Даже при увеличении n этот алгоритм всегда будет печатать привет только 3 раза. Это, как говорится 3, является константой, так что этот алгоритм также O(1).

print "hello";
print "hello";
print "hello";

O (log (n)) - Логарифмические примеры:

  • Алгоритм 3 - действует как "log_2"

Алгоритм 3 демонстрирует алгоритм, который работает в log_2 (n). Обратите внимание, что операция post цикла for умножает текущее значение i на 2, поэтому значение iизменяется от 1 до 2, от 4 до 8, от 16 до 32 ...

for(int i = 1; i <= n; i = i * 2)
  print "hello";
  • Алгоритм 4 - действует как «log_3»

Алгоритм 4 демонстрирует log_3. Уведомление iидет от 1 до 3 до 9 до 27 ...

for(int i = 1; i <= n; i = i * 3)
  print "hello";
  • Алгоритм 5 - действует как «log_1.02»

Алгоритм 5 важен, так как он помогает показать, что пока число больше 1 и результат многократно умножается на самого себя, вы смотрите на логарифмический алгоритм.

for(double i = 1; i < n; i = i * 1.02)
  print "hello";

O (n) - Примеры линейного времени:

  • Алгоритм 6

Этот алгоритм прост, который печатает привет n раз.

for(int i = 0; i < n; i++)
  print "hello";
  • Алгоритм 7

Этот алгоритм показывает вариант, где он напечатает привет n / 2 раза. n / 2 = 1/2 * n. Мы игнорируем константу 1/2 и видим, что этот алгоритм равен O (n).

for(int i = 0; i < n; i = i + 2)
  print "hello";

O (n * log (n)) - nlog (n) Примеры:

  • Алгоритм 8

Думайте об этом как о комбинации O(log(n))и O(n). Вложенность циклов for помогает нам получитьO(n*log(n))

for(int i = 0; i < n; i++)
  for(int j = 1; j < n; j = j * 2)
    print "hello";
  • Алгоритм 9

Алгоритм 9 похож на алгоритм 8, но каждый из циклов допускает изменения, которые все еще приводят к получению конечного результата O(n*log(n))

for(int i = 0; i < n; i = i + 2)
  for(int j = 1; j < n; j = j * 3)
    print "hello";

O (n ^ 2) - n в квадрате Примеры:

  • Алгоритм 10

O(n^2) легко получить, вложив стандарт для циклов.

for(int i = 0; i < n; i++)
  for(int j = 0; j < n; j++)
    print "hello";
  • Алгоритм 11

Как и алгоритм 10, но с некоторыми вариациями.

for(int i = 0; i < n; i++)
  for(int j = 0; j < n; j = j + 2)
    print "hello";

O (n ^ 3) - n куб. Примеры:

  • Алгоритм 12

Это похоже на алгоритм 10, но с 3 циклами вместо 2.

for(int i = 0; i < n; i++)
  for(int j = 0; j < n; j++)
    for(int k = 0; k < n; k++)
      print "hello";
  • Алгоритм 13

Как алгоритм 12, но с некоторыми изменениями, которые все еще дают O(n^3).

for(int i = 0; i < n; i++)
  for(int j = 0; j < n + 5; j = j + 2)
    for(int k = 0; k < n; k = k + 3)
      print "hello";

Резюме

Выше приведено несколько простых примеров и вариаций, которые помогут продемонстрировать, какие тонкие изменения могут быть внесены, что действительно не меняет анализ. Надеюсь, это даст вам достаточно понимания.

Джеймс Оравец
источник
17
Потрясающие. Лучшее объяснение для меня я когда-либо видел. Было бы лучше , если бы O(n^2)отметить , как сочетание O(n)иO(n) так O(n) * O(n) = O(n * n) = O(n^2). Это похоже на прыжки без этого уравнения. Это повторение предшествующего объяснения, но я думаю, что это повторение может дать читателям больше уверенности в понимании.
Эонил
2
Это просто лучшее объяснение.
Эдгар Кильяк
2
@IceTea, чтобы дать вам понимание / интуицию на ваш вопрос. Если вы составите график nпротив, n/2вы увидите, что они оба делают прямую линию. Это ставит их в один класс, так как они имеют одинаковые темпы роста (представьте, что это форма диаграммы). Точно так же, если вы построите график по log_2сравнению с, log_3вы увидите, что они оба принимают «одинаковые формы» или «одинаковые темпы роста».
Джеймс Оравец
1
@IceTea, объяснение, данное @Shai и @James, более точное, n/2 or 2n or n+2 or nбудет иметь разные линии на графике, но они будут иметь одинаковую скорость роста, что означает, что все они будут следовать линейному росту.
Нареш Джоши
2
Как насчет случая, когда у нас есть два вложенных цикла, но второй итератор зависит от первого, влияет ли эта зависимость на сложность времени?
Bionix1441
131

Если у вас была функция, которая принимает:

1 millisecond to complete if you have 2 elements.
2 milliseconds to complete if you have 4 elements.
3 milliseconds to complete if you have 8 elements.
4 milliseconds to complete if you have 16 elements.
...
n milliseconds to complete if you have 2^n elements.

Тогда это займет log 2 (n) времени. Обозначение Большой О , грубо говоря, означает , что отношения нужно только быть верно для больших п, и что постоянные множители и меньшие сроки могут быть проигнорированы.

Марк Байерс
источник
log2 (n) совпадает с o (log n)?
Свен ван ден Бугаарт
Да, см. Комментарий nawfal для другого ответа здесь: (вставка копии) - в контексте программирования основание журнала составляет 2 (не 10), поэтому O (log n) масштабируется как 1 секунда для 10 элементов, 2 секунды для 20 , 3 на 40 и т. Д.
Андрейс
@SvenvandenBoogaart, пример в этом решении иллюстрирует log_2, который находится в классе O(log(n)). Есть много других в том же классе, O(log(n))т. log_xx > 1
Е.
@Andrejs, ваш комментарий so O(log n) scales like 1 sec for 10 elements, 2 sec for 20, 3 for 40 etcнеточный. Этот шаблон / класс будет соответствовать / выравниваться с O(n)не O(log(n)). Если кого-то интересует, log_10то эквивалентный пример будет 1 секунда для 10 элементов, 2 секунды для 100, 3 для 1000 и т. Д.
Джеймс Оравец
99

Логарифмическое время выполнения ( O(log n)) по существу означает, что время выполнения увеличивается пропорционально логарифму входного размера - например, если 10 элементов занимают самое большее некоторое время x, а 100 элементов занимают, скажем, не более 2x10 000 элементов. занимает максимум 4x, тогда это выглядит как O(log n)сложность времени.

Anon.
источник
1
+1, но вы действительно должны указать, что это log2, а не log10.
Адриано Вароли Пьяцца
62
log2 или log10 не имеет значения. Они отличаются только масштабным коэффициентом, который делает их одинаковыми, т.е. они все еще растут с одинаковой скоростью.
Нолдорин
17
Самое интересное в логарифмах заключается в том, что при сравнении относительных высот точная база, которую вы используете, не имеет значения. log 10,000 / log 1002 независимо от того, какую базу вы используете.
Анон.
12
Если быть придирчивым, O (lg n) означает, что время выполнения максимально пропорционально lg n. То, что вы описываете, это Тета (LG N).
1
@rgrig: это правда. Я отредактировал несколько "в большинстве", чтобы указать верхнюю границу природы Big-O.
Анон.
95

Логарифм

Хорошо, давайте попробуем и полностью поймем, что такое логарифм.

Представьте, что у нас есть веревка, и мы привязали ее к лошади. Если веревка напрямую привязана к лошади, то сила, которую лошадь должна будет оторвать (скажем, от человека), равна 1.

Теперь представьте, что веревка обвита вокруг шеста. Лошади, которой нужно уйти, теперь придется тянуть во много раз сильнее. Количество раз будет зависеть от шероховатости веревки и размера полюса, но давайте предположим, что это умножит силу на 10 (когда веревка совершит полный оборот).

Теперь, если веревка обмотана петлей один раз, лошади нужно будет тянуть в 10 раз сильнее. Если человек решает сделать лошадь действительно трудной, он может снова обмотать веревку вокруг шеста, увеличивая ее прочность еще в 10 раз. Третий цикл снова увеличит силу еще в 10 раз.

введите описание изображения здесь

Мы видим, что для каждого цикла значение увеличивается на 10. Число ходов, необходимое для получения любого числа, называется логарифмом числа, т.е. нам нужно 3 сообщения, чтобы умножить вашу силу в 1000 раз, 6 сообщений, чтобы умножить вашу силу на 1000000.

3 - логарифм 1000, а 6 - логарифм 1 000 000 (основание 10).

Так что же на самом деле означает O (log n)?

В нашем примере выше, наша «скорость роста» равна O (log n) . На каждую дополнительную петлю сила, которую может выдержать наша веревка, в 10 раз больше:

Turns | Max Force
  0   |   1
  1   |   10
  2   |   100
  3   |   1000
  4   |   10000
  n   |   10^n

Теперь в приведенном выше примере использовалась база 10, но, к счастью, база журнала незначительна, когда мы говорим о больших обозначениях.

Теперь давайте представим, что вы пытаетесь угадать число от 1 до 100.

Your Friend: Guess my number between 1-100! 
Your Guess: 50
Your Friend: Lower!
Your Guess: 25
Your Friend: Lower!
Your Guess: 13
Your Friend: Higher!
Your Guess: 19
Your Friend: Higher!
Your Friend: 22
Your Guess: Lower!
Your Guess: 20
Your Friend: Higher!
Your Guess: 21
Your Friend: YOU GOT IT!  

Теперь вам понадобилось 7 догадок, чтобы понять это правильно. Но каковы здесь отношения? Какое наибольшее количество предметов вы можете угадать из каждого дополнительного предположения?

Guesses | Items
  1     |   2
  2     |   4
  3     |   8
  4     |   16
  5     |   32
  6     |   64
  7     |   128
  10    |   1024

Используя график, мы можем видеть, что если мы используем двоичный поиск, чтобы угадать число от 1 до 100, нам потребуется не более 7 попыток. Если бы у нас было 128 чисел, мы могли бы также угадать число в 7 попытках, но 129 чисел потребует максимум 8 попыток (в отношении логарифмов здесь нам понадобится 7 догадок для диапазона значений 128, 10 догадок для диапазона значений 1024). .7 - логарифм 128, 10 - логарифм 1024 (основание 2).

Обратите внимание, что я выделил «максимум». Обозначение Big-O всегда относится к худшему случаю. Если вам повезет, вы можете угадать число за одну попытку, поэтому лучший вариант - O (1), но это уже другая история.

Мы можем видеть, что для каждого предположения наш набор данных сокращается. Хорошее практическое правило, чтобы определить, имеет ли алгоритм логарифмическое время, состоит в том, чтобы видеть, сокращается ли набор данных на определенный порядок после каждой итерации

Что насчет O (n log n)?

В конечном итоге вы столкнетесь с алгоритмом линейного арифметического времени O (n log (n)) . Эмпирическое правило выше применяется снова, но на этот раз логарифмическая функция должна запускаться n раз, например, уменьшать размер списка n раз , что происходит в алгоритмах, таких как сортировка слиянием.

Вы можете легко определить, если алгоритмическое время равно n log n. Ищите внешний цикл, который перебирает список (O (n)). Затем посмотрите, есть ли внутренний цикл. Если внутренний цикл обрезает / уменьшает набор данных на каждой итерации, этот цикл равен (O (log n)), и поэтому общий алгоритм равен = O (n log n) .

Отказ от ответственности: Пример веревочного логарифма был взят из превосходной книги Математика «Восхищение» У. Сойера .

benscabbia
источник
Нет In our example above, our 'growth rate' is O(log n). For every additional loop, the force our rope can handle is 10 times more, поддерживается диаграммой, которая показывает n == количество циклов и our 'growth rate'=> 10 ^ n, что НЕ является log n. Пример можно исправить, сделав n=# horses, что требует log n циклов для ограничения. Плохие педогогические примеры приводят учеников, которые верят только в то, что понимают.
psimpson
56

Вы можете думать об O (log N) интуитивно, говоря, что время пропорционально количеству цифр в N.

Если операция выполняет постоянную работу с каждой цифрой или битом входа, вся операция займет время, пропорциональное количеству цифр или бит на входе, а не величине входа; таким образом, O (log N), а не O (N).

Если операция принимает серию решений с постоянным временем, каждое из которых вдвое (уменьшает в 3, 4, 5 раза) размер входного значения, которое необходимо учитывать, для целого потребуется время, пропорциональное логарифмическому основанию 2 (основанию 3). , база 4, база 5 ...) размера N входа, а не O (N).

И так далее.

Лунная тень
источник
7
Я считаю, что достаточно точный и понятный, чем большинство объяснений.
Т.
это объяснение log<sub>10</sub> N, не так ли?
LiuYan 研 研
1
@LiuYan 刘 研 они не сказали, на каком основании находится число цифр. В любом случае, log₂ (n) = log₁₀ (n) / log₁₀ (2) и 1 / log₁₀ (2), следовательно, является постоянным множителем, с тем же принципом, применимым ко всем другим базам. Это показывает две вещи. Во-первых, принцип лунной тени применяется независимо от базы (хотя чем ниже база, тем меньше «зазоров» в оценке), а также того, что O (log n) равно O (log n) независимо от того, на какой основе вычисление привело вас к такому выводу ,
Джон Ханна
"пропорциональный" ... "каждый из которых делит пополам размер ввода" ??????
csguy
52

Лучший способ мысленно визуализировать алгоритм, который выполняется в O (log n), заключается в следующем:

Если вы увеличите размер задачи на мультипликативную величину (т.е. умножите ее размер на 10), работа будет увеличена только на аддитивную величину.

Применяя это к вашему вопросу о бинарном дереве, вы получите хорошее приложение: если вы удвоите число узлов в бинарном дереве, высота увеличится только на 1 (аддитивная сумма). Если вы удвоите его снова, оно все равно увеличится только на 1. (Очевидно, я предполагаю, что оно остается сбалансированным и тому подобное). Таким образом, вместо того, чтобы удвоить свою работу при увеличении размера задачи, вы выполняете лишь немного больше работы. Вот почему алгоритмы O (log n) просто великолепны.

DivineWolfwood
источник
52

Сначала я рекомендую вам прочитать следующую книгу;

Алгоритмы (4-е издание)

Вот некоторые функции и их ожидаемые сложности. Числа указывают частоты выполнения операторов .

Вот некоторые функции и их ожидаемые сложности

После Big-O Сложность Chart также взяты из Bigocheatsheet Big-O Сложность Диаграмма

Наконец, очень простая витрина показывает, как она рассчитывается;

Анатомия частот выполнения операторов программы.

Анализ времени выполнения программы (пример).

Анализ времени выполнения программы

Теоман Шипахи
источник
5
Я бы не положил O (n log n) в плохую корзину. Это относится к честному .
Андре Верланг
При просмотре диаграммы сложности big-O (выше) вы должны помнить, что O (n) - это действительная линейная точка, а не розово-оранжевая граница. @Andre Вот почему O (n log n) правильно помечено в «плохой» скобке производительности, это хуже, чем линейная производительность.
JavaBeast
@JavaBeast правильно, в то время как производительность O (n log n) технически хуже, чем O (n), обратитесь к таблице выше, которая представляет их хорошее сравнение (см. Их рост). otoh диаграмма из другого источника противоречива, потому что она ставит O (1) и O (log n) в одно и то же хорошее / отличное. их относительный порядок роста сопоставим с O (n) и O (n log n). ТЛ; др; O (n log n) не отлично, но далеко не плохо.
Андре Верланг
1
Этот ответ неверен! Предполагается, что N = N * N. На самом деле N = N! Ваш пример на самом деле N куб. Вы делаете то же самое в своем графике. Ваш O (n) должен быть на самом деле пропасть между ужасным и плохим. Математическое доказательство. Вы говорите, что цикл for постоянен с O (1). Это то, что на самом деле означает 1, не зависит от N. Это просто означает не переменная. Но это переменная, поскольку она зависит от N. Дважды N и половина времени. Поэтому это неверно. Если это из этой книги, не покупайте ее! Графический код, который вы показали, не настоящий, это шутка, смотрите "Theesome", это означает, что три человека занимаются сексом одновременно! OMG
jgmjgm
1
Разве O (n) не должно быть на диагонали?
Гёсифов
46

Что такое журнал b (n)?

Это число раз, которое вы можете несколько раз разрезать бревно длиной n на b равных частей, прежде чем достигнете участка размером 1.

Чад Brewbaker
источник
Отличный комментарий! Это лаконично и именно тот ответ, который мне нужен.
DennisL
18

Алгоритмы «разделяй и властвуй» обычно имеют lognкомпонент времени выполнения. Это происходит из-за многократного деления ввода на два.

В случае бинарного поиска, каждую итерацию вы отбрасываете половину ввода. Следует отметить, что в нотации Big-O log - это база журнала 2.

Изменить: Как уже отмечалось, база журнала не имеет значения, но при вычислении производительности алгоритма Big-O логарифм будет получаться в два раза, поэтому я и считаю его базой 2.

Дэвид Канарек
источник
2
Почему это журнал базы 2? Например, в рандомизированной быстрой сортировке я не думаю, что это база 2. Насколько я знаю, база не имеет значения, так как логарифмическая база a (n) = log2 (n) / log2 (a), поэтому каждый логарифм отличается от другой константой, а константы игнорируются в большой записи. На самом деле, написание базы лога в формате big-o, на мой взгляд, является ошибкой, поскольку вы пишете константу.
IVlad
1
Re "журнал журнал база 2": stackoverflow.com/questions/1569702/is-big-ologn-log-base-e/...
user200783
Совершенно верно, что его можно преобразовать в любую базу, и это не имеет значения, но если вы пытаетесь получить производительность Big-O и видите постоянное деление пополам, это помогает понять, что вы не увидите, как база 10 журналов отражается в коде.
Дэвид Канарек
Кроме того: в таких вещах, как B-деревья, где узлы имеют разветвление более 2 (т. Е. «Шире», чем бинарное дерево), вы все равно увидите рост O (logn), потому что он все еще делится и -приобрести, но основание журнала будет связано с разветвлением.
Роджер Липскомб
Отступление в журнале 2 было довольно полезным, на самом деле.
Дэн Розенстарк
15

Но что именно O (log n)? Например, что значит сказать, что высота полного бинарного дерева равна O (log n)?

Я бы перефразировал это как «высота полного бинарного дерева - это log n». Вычисление высоты полного двоичного дерева было бы O (log n), если вы переходите вниз шаг за шагом.

Я не могу понять, как определить функцию с логарифмическим временем.

Логарифм по сути является обратным возведению в степень. Таким образом, если каждый «шаг» вашей функции устраняет фактор элементов из исходного набора элементов, это алгоритм логарифмического времени.

В примере с деревом вы можете легко увидеть, что понижение уровня узлов сокращает экспоненциальное число элементов при продолжении обхода. Популярный пример просмотра отсортированной по имени телефонной книги по сути эквивалентен обходу двоичного дерева поиска (средняя страница является корневым элементом, и на каждом шаге можно определить, идти ли влево или вправо).

user2421873
источник
3
+1 за упоминание «Логарифм по сути обратный возведению в степень».
talonx
12

Эти 2 случая займут O (log n) время

case 1: f(int n) {
      int i;
      for (i = 1; i < n; i=i*2)
        printf("%d", i);
    }


 case 2  : f(int n) {
      int i;
      for (i = n; i>=1 ; i=i/2)
        printf("%d", i);
    }
Рави Бисла
источник
Я уверен, что что-то упускаю, но разве я не буду всегда равным нулю, и циклы будут выполняться вечно в обоих этих случаях, поскольку 0 * 2 = 0 и 0/2 = 0?
dj_segfault
2
@dj_segfault, это была моя ошибка. Думаю, теперь это имеет смысл .. :)
Рави Бисла
@RaviBisla В других ответах утверждается, что для ввода 10 потребуется 1 раз столько, сколько 10 циклов, а для ввода 100 потребуется 3 раза больше времени ввода 1, что, безусловно, не относится к этим примерам. stackoverflow.com/a/2307330/1667868
Свен ван ден Бугаарт,
12

O (log n) немного вводит в заблуждение, точнее - O (log 2 n), т. Е. (Логарифм с основанием 2).

Высота сбалансированного двоичного дерева равна O (log 2 n), поскольку каждый узел имеет два (обратите внимание на «two», как в log 2 n) дочерние узлы. Итак, дерево с n узлами имеет высоту log 2 n.

Другой пример - бинарный поиск, который имеет время выполнения O (log 2 n), потому что на каждом шаге вы делите пространство поиска на 2.

stmax
источник
4
O (log n) имеет тот же порядок, что и O (ld n) или O (LN n). Они пропорциональны. Я понимаю, что в учебных целях проще использовать ld.
Гелиос
4
«точнее, это O (ld n)» - Нет, это не так: все журналы имеют одинаковый порядок (каждый отличается от других только некоторым постоянным коэффициентом масштабирования, который игнорируется / игнорируется).
ChrisW
1
ты прав крис, очень плохая формулировка. должен был сказать это как гелиос. это помогает для изучения / понимания, но, наконец, все журналы имеют одинаковый порядок.
stmax
10

O(log n) относится к функции (или алгоритму, или шагу в алгоритме), работающей в течение времени, пропорционального логарифму (обычно основание 2 в большинстве случаев, но не всегда, и в любом случае это несущественно, если использовать обозначение big-O *) размера входа.

Логарифмическая функция является инверсией экспоненциальной функции. Иными словами, если ваш вклад растет экспоненциально (а не линейно, как вы обычно это считаете), ваша функция растет линейно.

O(log n)время выполнения очень распространено в любом приложении типа «разделяй и властвуй», потому что вы (в идеале) сокращаете работу вдвое. Если на каждом из этапов деления или завоевания вы выполняете работу с постоянным временем (или работу, которая не является постоянной, но со временем, растущим медленнее, чем O(log n)), то вся ваша функция в этом O(log n). Довольно часто каждый шаг требует линейного времени на входе; это составит общую сложность времениO(n log n) .

Сложность времени выполнения бинарного поиска является примером O(log n). Это связано с тем, что в бинарном поиске вы всегда игнорируете половину своего ввода на каждом последующем шаге, разделяя массив пополам и сосредотачиваясь только на половине каждого шага. Каждый шаг является постоянным временем, потому что в бинарном поиске вам нужно сравнить только один элемент с вашим ключом, чтобы выяснить, что делать дальше, независимо от того, какой размер массива вы рассматриваете в любой момент. Таким образом, вы делаете примерно log (n) / log (2) шагов.

Сложность времени выполнения сортировки слиянием является примером O(n log n). Это потому, что вы делите массив пополам с каждым шагом, в результате чего получается примерно log (n) / log (2) шагов. Однако на каждом шаге необходимо выполнять операции слияния для всех элементов (будь то одна операция слияния на двух подсписках из n / 2 элементов или две операции слияния на четырех подсписках из n / 4 элементов) не имеет значения, поскольку она добавляет к необходимости сделать это для п элементов в каждом шаге). Таким образом, общая сложность равна O(n log n).

* Помните, что обозначение big-O по определению не имеет значения для констант. Кроме того, путем изменения правила базы для логарифмов, единственная разница между логарифмами разных оснований является постоянным фактором.

Платиновая Лазурь
источник
Последняя * заметка решила мою путаницу с логарифмами, основанными на 2 или 10 :) Большое спасибо.
Яхья
9

Это просто означает, что время, необходимое для этой задачи, увеличивается с log (n) (пример: 2 с для n = 10, 4 с для n = 100, ...). Прочитайте статьи Википедии об алгоритме двоичного поиска и Big O Notation для большей точности.

Валентин Роше
источник
9

Проще говоря: на каждом шаге вашего алгоритма вы можете сократить работу пополам. (Асимптотически эквивалентно третьему, четвертому, ...)

Брайан Р. Бонди
источник
2
Этот ответ очень неточный. Прежде всего, вы можете подумать о сокращении работы пополам только в случае логарифма в базе 2. Действительно невероятно, как этот ответ (и большинство ответов на исходный вопрос) получил так много положительных голосов. "(Асимптотически эквивалентно третьему, четвертому, ...)"? Зачем отвечать на вопрос, если у вас нет времени?
nbro
8

Если вы построите логарифмическую функцию на графическом калькуляторе или чем-то подобном, вы увидите, что она действительно растет медленно - даже медленнее, чем линейная функция.

Вот почему алгоритмы с логарифмической сложностью по времени очень востребованы: даже для действительно больших n (скажем, n = 10 ^ 8) они работают более чем приемлемо.

Hadewijch Debaillie
источник
7

Но что именно O (log n)

То, что это означает точно, это «как nстремится к infinity, то есть timeстремится к тому, a*log(n)где aпостоянный коэффициент масштабирования».

Или на самом деле, это не совсем так; более вероятно, что это означает что-то вроде « timeделится на a*log(n)стремление к 1».

«Склонность к» имеет обычное математическое значение из «анализа»: например, «если вы выберете любую произвольно небольшую ненулевую константу k, то я смогу найти соответствующее значение X, которое ((time/(a*log(n))) - 1)меньше, чем kдля всех значений nбольше чем X».


Проще говоря, это означает, что уравнение для времени может иметь некоторые другие компоненты: например, оно может иметь некоторое постоянное время запуска; но эти другие компоненты бледнеют к незначительности для больших значений n, и a * log (n) является доминирующим термином для больших n.

Обратите внимание, что если бы уравнение было, например ...

время (n) = a + b log (n) + c n + d n n

... тогда это будет O (n в квадрате), потому что, независимо от значений констант a, b, c и ненулевого d, d*n*nтермин всегда будет доминировать над остальными при любом достаточно большом значении n.

Вот что означает обозначение бита О: оно означает «каков порядок доминирующего члена для любого достаточно большого n».

ChrisW
источник
Это не правильно. en.wikipedia.org/wiki/…
Майкл Грачик
7

Могу добавить кое-что интересное, что я давно прочитал в книге Кормена и т. Д. Теперь представьте себе проблему, где мы должны найти решение в проблемном пространстве. Это проблемное пространство должно быть конечным.

Теперь, если вы можете доказать, что на каждой итерации вашего алгоритма вы отсекаете часть этого пространства, то есть не менее некоторого предела, это означает, что ваш алгоритм работает за время O (logN).

Я должен отметить, что мы говорим здесь об относительном пределе доли, а не об абсолютном. Бинарный поиск - классический пример. На каждом шаге мы выбрасываем половину проблемного пространства. Но бинарный поиск - не единственный такой пример. Предположим, вы как-то доказали, что на каждом шаге вы выбрасываете не менее 1/128 проблемного пространства. Это означает, что ваша программа все еще работает во время O (logN), хотя и значительно медленнее, чем бинарный поиск. Это очень хороший совет при анализе рекурсивных алгоритмов. Часто можно доказать, что на каждом этапе рекурсия не будет использовать несколько вариантов, и это приводит к отсечению некоторой дроби в проблемном пространстве.

SPIRiT_1984
источник
6

Я могу привести пример для цикла for и, возможно, однажды поняв концепцию, возможно, будет проще понять ее в разных контекстах.

Это означает, что в цикле шаг растет в геометрической прогрессии. Например

for (i=1; i<=n; i=i*2) {;}

Сложность в O-обозначениях этой программы O (log (n)). Давайте попробуем перебрать его вручную (n находится где-то между 512 и 1023 (исключая 1024):

step: 1   2   3   4   5    6    7    8     9     10
   i: 1   2   4   8   16   32   64   128   256   512

Хотя n находится где-то между 512 и 1023, имеет место только 10 итераций. Это связано с тем, что шаг в цикле растет экспоненциально и, таким образом, для достижения завершения требуется всего 10 итераций.

Логарифм x (к основанию a) является обратной функцией a ^ x.

Это все равно, что сказать, что логарифм является инверсией экспоненты.

Теперь попытайтесь увидеть это таким образом: если экспоненциальный рост очень быстро, то логарифм растет (обратно) очень медленно.

Разница между O (n) и O (log (n)) огромна, аналогична разнице между O (n) и O (a ^ n) (a является константой).

Ely
источник
6

На самом деле, если у вас есть список из n элементов и вы создаете двоичное дерево из этого списка (как в алгоритме «разделяй и властвуй»), вы будете продолжать делить на 2, пока не достигнете списков размера 1 (листья).

На первом шаге вы делите на 2. Затем у вас есть 2 списка (2 ^ 1), вы делите каждый на 2, поэтому у вас есть 4 списка (2 ^ 2), вы делите снова, у вас есть 8 списков (2 ^ 3) ) и так далее, пока размер вашего списка не станет 1

Это дает вам уравнение:

n/(2^steps)=1 <=> n=2^steps <=> lg(n)=steps

(вы берете lg с каждой стороны, lg - основание журнала 2)

Dinaiz
источник
2
Пока некоторые вредоносные программы не начнут вставлять новый список с длиной x на двух уровнях, прежде чем покинут узлы. Тогда это будет бесконечный цикл ...
Фрэнсис Куглер
1
Я не получил ваш комментарий. Мое объяснение неверно?
Dinaiz
1
Я только делал гипотетическую шутку. Я ничего не имел в виду под этим.
Фрэнсис Куглер
6

Каждый раз, когда мы пишем алгоритм или код, мы пытаемся проанализировать его асимптотическую сложность. Это отличается от своей временной сложности .

Асимптотическая сложность - это поведение времени выполнения алгоритма, тогда как сложность времени - это фактическое время выполнения. Но некоторые люди используют эти термины взаимозаменяемо.

Потому что сложность времени зависит от различных параметров, а именно.
1. Физическая система
2. Язык программирования
3. Стиль кодирования
4. И многое другое ......

Фактическое время выполнения не является хорошей мерой для анализа.


Вместо этого мы принимаем входной размер в качестве параметра, потому что каков бы ни был код, входные данные одинаковы. Таким образом, время выполнения зависит от размера ввода.

Ниже приведен пример алгоритма линейного времени


Линейный поиск По
заданным n входным элементам для поиска элемента в массиве нужно не более n сравнений . Другими словами, независимо от того, какой язык программирования вы используете, какой стиль кодирования вы предпочитаете, в какой системе вы его выполняете. В худшем случае требуется только n сравнений. Время выполнения линейно пропорционально размеру ввода.

И это не просто поиск, какой бы ни была работа (приращение, сравнение или любая операция), это функция размера ввода.

Таким образом, когда вы говорите, что любой алгоритм равен O (log n), это означает, что время выполнения в log раз превышает размер ввода n.

По мере увеличения размера ввода увеличивается объем выполненной работы (здесь время выполнения) (отсюда и пропорциональность)

      n      Work
      2     1 units of work
      4     2 units of work
      8     3 units of work

Посмотрите, как увеличивается входной размер, проделанная работа увеличивается, и она не зависит от какой-либо машины. И если вы попытаетесь выяснить стоимость единиц работы, это на самом деле зависит от указанных выше параметров. Он будет меняться в зависимости от систем и всего.

Санджай Кумар
источник
5

дерево

log x to base b = y обратная сторона b^y = x

Если у вас M-арное дерево глубины d и размера n, то:

  • обход всего дерева ~ O (M ^ d) = O (n)

  • Пройдя по одиночному пути в дереве ~ O (d) = O (войти n в базу M)

Khaled.K
источник
5

В информационных технологиях это означает, что:

  f(n)=O(g(n)) If there is suitable constant C and N0 independent on N, 
  such that
  for all N>N0  "C*g(n) > f(n) > 0" is true.

Похоже, что эти обозначения были в основном взяты из математики.

В этой статье есть цитата: DE Knuth, «БОЛЬШОЕ ОМИКРОН И БОЛЬШАЯ ОМЕГА И БОЛЬШАЯ ТЕТА», 1976 :

Исходя из обсуждаемых здесь вопросов, я предлагаю членам SIGACT и редакторам журналов по информатике и математике принять обозначения, как определено выше, если только лучшая альтернатива не будет найдена достаточно скоро .

Сегодня 2016, но мы используем его до сих пор.


В математическом анализе это означает, что:

  lim (f(n)/g(n))=Constant; where n goes to +infinity

Но даже в математическом анализе иногда этот символ использовался в значении «C * g (n)> f (n)> 0».

Как я знаю из университета, этот символ был введен немецким математиком Ландау (1877-1938).

bruziuz
источник
4

Полный бинарный пример O (ln n), потому что поиск выглядит так:

1 2 3 4 5 6 7 8 9 10 11 12

Поиск 4 дает 3 хита: 6, 3, а затем 4. И log2 12 = 3, что является хорошим приблизительным значением для количества хитов, где это необходимо.

Amirshk
источник
спасибо за пример. В нем четко сказано, как наш алгоритм может использовать логарифмическое время в методе «разделяй и властвуй».
Abc
Так что, если это цикл из n / 2, то это всегда log (n)?
Гил Бейрут
3

Если вы ищете ответ на основе интуиции, я хотел бы предложить вам две интерпретации.

  1. Представьте себе очень высокий холм с очень широким основанием. Чтобы добраться до вершины холма, есть два пути: один - выделенный путь, идущий по спирали вокруг холма, достигающего наверху, другой: небольшая терраса, похожая на резьбу, вырезанную для обеспечения лестницы. Теперь, если первый путь достигает линейного времени O (n), второй - O (log n).

  2. Представьте себе алгоритм, который принимает целое число в nкачестве входных данных и завершает за время, пропорциональное nтогда, это O (n) или theta (n), но если он работает во времени, пропорциональном number of digits or the number of bits in the binary representation on numberтогда, то алгоритм работает в O (log n) или theta (войти n) время.

mickeymoon
источник
пожалуйста, отредактируйте. имеет "O (n) или theta (n)" в обоих сценариях ...? Кроме того, я много слышал, размер против # цифр. Мы говорим размер === 128 для n = 10000000 и цифры === 8 для n = 10000000? Пожалуйста, объясните.
Коди
2

Алгоритмы в парадигме «разделяй и властвуй» имеют сложность O (logn). Одним из примеров здесь, рассчитать свою собственную степенную функцию,

int power(int x, unsigned int y)
{
    int temp;
    if( y == 0)
        return 1;
    temp = power(x, y/2);
    if (y%2 == 0)
        return temp*temp;
    else
        return x*temp*temp;
}

с http://www.geeksforgeeks.org/write-ac-program-to-calculate-powxn/

kiriloff
источник