Как найти временную сложность алгоритма

890

Вопрос

Как найти временную сложность алгоритма?

Что я сделал, прежде чем опубликовать вопрос о SO?

Я прошел через это , это и многие другие ссылки

Но не там, где я смог найти четкое и прямое объяснение того, как рассчитать сложность времени.

Что я знаю ?

Скажем для кода так же просто, как показано ниже:

char h = 'y'; // This will be executed 1 time
int abc = 0; // This will be executed 1 time

Скажите для цикла, как показано ниже:

for (int i = 0; i < N; i++) {        
    Console.Write('Hello World !');
}

int i = 0; Это будет выполнено только один раз . Время фактически рассчитывается, i=0а не декларация.

я <N; Это будет выполнено N + 1 раз

я ++; Это будет выполнено N раз

Таким образом, количество операций, необходимых для этого цикла

{1+ (N + 1) + N} = 2N + 2

Примечание: это все еще может быть неправильно, так как я не уверен в своем понимании расчета сложности времени

Что я хочу знать?

Итак, эти небольшие базовые вычисления, я думаю, я знаю, но в большинстве случаев я видел сложность времени как

O (N), O (n2), O (log n), O (n!) .... и многие другие ,

Может ли кто-нибудь помочь мне понять, как можно вычислить временную сложность алгоритма? Я уверен, что есть много новичков, таких как я, которые хотят это знать.

Ясир Шейх
источник
138
Бонус для тех, кто заинтересован: The Big O Cheat Sheet bigocheatsheet.com
msanford
4
Проверьте этот блог: mohalgorithmsorbit.blogspot.com . Он охватывает как рекурсивные, так и (особенно) итерационные алгоритмы.
Мохамед Эннахди Эль Идрисси
1
почему Console.Write ('Hello World!'); не машинная инструкция?
Четан
Связанный / возможно дублирующий: Большой O, как Вы рассчитываете / приближаете это?
Бернхард Баркер
1
@Chetan Если вы имеете в виду, что вы должны учитывать Console.Writeпри расчете сложности, это правда, но также несколько не имеет значения в этом случае, так как это только изменяет постоянный коэффициент, который игнорирует big-O (см. Ответы), поэтому конечный результат все еще сложность O (N).
Бернхард Баркер

Ответы:

394

Как найти временную сложность алгоритма

Вы складываете, сколько машинных инструкций он будет выполнять, в зависимости от размера его ввода, а затем упрощаете выражение до наибольшего (когда N очень большое) члена и может включать любой упрощающий постоянный коэффициент.

Например, давайте посмотрим, как мы упрощаем 2N + 2машинные инструкции, чтобы описать это как просто O(N).

Почему мы удаляем два 2с?

Мы заинтересованы в производительности алгоритма, так как N становится большим.

Рассмотрим два слагаемых 2N и 2.

Каково относительное влияние этих двух терминов, когда N становится большим? Предположим, N - миллион.

Тогда первый член равен 2 миллионам, а второй - только 2.

По этой причине мы отбрасываем все, кроме самых больших терминов для больших N.

Итак, теперь мы пошли от 2N + 2к 2N.

Традиционно мы заинтересованы только в производительности до постоянных факторов .

Это означает, что нам действительно все равно, есть ли постоянная кратность различий в производительности, когда N велико. Единица 2N, во всяком случае, недостаточно четко определена. Таким образом, мы можем умножить или разделить на постоянный коэффициент, чтобы получить простейшее выражение.

Так 2Nстановится справедливым N.

Андрей Томазос
источник
53
эй, спасибо, что сообщили мне, почему «от O (2N + 2) до O (N)» очень хорошо объяснено, но это только часть более важного вопроса, я хотел, чтобы кто-то указал на какую-то ссылку на скрытый ресурс или в В общем, я хотел бы знать, как вы в конечном итоге сталкиваетесь со сложностями во времени, такими как O (N), O (n2), O (log n), O (n!) и т. д. Я знаю, что, возможно, задаю много вопросов, но все еще я могу попробовать: {)
Ясир Шейх
3
Сложность в скобках заключается в том, сколько времени занимает алгоритм, упрощенный с помощью метода, который я объяснил. Мы выясняем, сколько времени займет алгоритм, просто сложив количество машинных инструкций, которые он выполнит. Мы можем упростить это, только взглянув на самые загруженные циклы и разделив их на постоянные факторы, как я объяснил.
Эндрю Томазос
4
Предоставление примера в ответе очень помогло бы будущим читателям. Просто передача ссылки, на которую я должен зарегистрироваться, на самом деле не помогает мне, когда я просто хочу просмотреть какой-нибудь красиво объясненный текст.
bad_keypoints
2
Я бы посоветовал посмотреть видео доктора Навина Гарга (IIT Delhi Prof.), если вы хотите получить хорошие знания о DS и сложности времени. Проверьте ссылку. nptel.ac.in/courses/106102064
Рохит Бэндил,
2
(продолжение) Эта иерархия будет иметь высоту порядка log N. Что касается O (N!), мои аналогии вряд ли будут ее сокращать, но перестановки имеют такой порядок - она ​​непомерно крута, больше, чем любой полином или экспоненциальный. Их ровно 10! секунд за шесть недель, но вселенной меньше 20! секунд.
Джон Ф
389

Это отличная статья: http://www.daniweb.com/software-development/computer-science/threads/13488/time-complexity-of-algorithm

Приведенный ниже ответ скопирован сверху (в случае, если отличная ссылка обанкротится)

Наиболее распространенной метрикой для вычисления сложности времени является нотация Big O. Это устраняет все постоянные факторы, так что время работы можно оценить по отношению к N, когда N приближается к бесконечности. В общем, вы можете думать об этом так:

statement;

Постоянно. Время выполнения оператора не изменится по отношению к N.

for ( i = 0; i < N; i++ )
     statement;

Является линейным. Время работы цикла прямо пропорционально N. Когда N удваивается, то же самое происходит и время работы.

for ( i = 0; i < N; i++ ) {
  for ( j = 0; j < N; j++ )
    statement;
}

Является квадратичным Время работы двух петель пропорционально квадрату N. Когда N удваивается, время работы увеличивается на N * N.

while ( low <= high ) {
  mid = ( low + high ) / 2;
  if ( target < list[mid] )
    high = mid - 1;
  else if ( target > list[mid] )
    low = mid + 1;
  else break;
}

Логарифмический Время выполнения алгоритма пропорционально количеству раз, которое N может быть разделено на 2. Это потому, что алгоритм делит рабочую область пополам с каждой итерацией.

void quicksort ( int list[], int left, int right )
{
  int pivot = partition ( list, left, right );
  quicksort ( list, left, pivot - 1 );
  quicksort ( list, pivot + 1, right );
}

Является ли N * log (N). Время выполнения состоит из N циклов (итеративных или рекурсивных), которые являются логарифмическими, поэтому алгоритм представляет собой комбинацию линейных и логарифмических.

В общем, выполнение чего-либо с каждым элементом в одном измерении является линейным, выполнение чего-либо с каждым элементом в двух измерениях является квадратичным, а деление рабочей области пополам - логарифмическим. Существуют и другие меры Big O, такие как кубическая, экспоненциальная и квадратный корень, но они не так часто встречаются. Обозначение Big O описывается как O ( <type> )где <type>мера. Алгоритм быстрой сортировки будет описан как O ( N * log ( N ) ).

Обратите внимание, что ни один из них не принял во внимание лучшие, средние и худшие показатели. У каждого будет своя нотация Big O. Также обратите внимание, что это ОЧЕНЬ упрощенное объяснение. Big O является наиболее распространенным, но он также более сложный, что я показал. Есть и другие обозначения, такие как большая омега, маленькая буква o и большая тэта. Вы, вероятно, не встретите их вне курса анализа алгоритма. ;)

Achow
источник
10
Быстрой сортировки алгоритм в худшем случае имеет время от N ^ 2, хотя такое поведение редко.
nbro
2
IIRC, little o и big omega используются для определения наилучшего и среднего случая (при большом O - наихудшем случае), поэтому «меры наилучшего, среднего и наихудшего случая. У каждого будет своя нотация Big O». было бы неправильно. Есть еще больше символов с более конкретными значениями, и CS не всегда использует наиболее подходящий символ. Я пришел, чтобы узнать все это под названием Ландау символы, кстати. +1 в любом случае б / с лучший ответ.
hiergiltdiestfu
@hiergiltdiestfu Big-O, Big-Omega и т. д. могут применяться к любому из лучших, средних или наихудших вариантов времени выполнения алгоритма. Как O и Ω относятся к худшему и лучшему случаям?
Бернхард Баркер
Кроме того, если кто-то ищет, как рассчитать большой O для любого метода: stackoverflow.com/a/60354355/4260691
OhadM
Одно из лучших объяснений.
Шиварадж Патил
172

Взято отсюда - Введение во временную сложность алгоритма

1. Введение

В компьютерных науках временная сложность алгоритма определяет количество времени, затраченного алгоритмом на выполнение, как функцию длины строки, представляющей входные данные.

2. Big O обозначения

Временная сложность алгоритма обычно выражается с использованием больших обозначений O, которые исключают коэффициенты и члены более низкого порядка. Когда выражено таким образом, говорят, что временная сложность описывается асимптотически, т. Е. Размер входного сигнала стремится к бесконечности.

Например, если время, требуемое алгоритмом на всех входах размера n, составляет не более 5n 3 + 3n, асимптотическая сложность времени составляет O (n 3 ). Подробнее об этом позже.

Еще несколько примеров:

  • 1 = O (n)
  • n = O (n 2 )
  • log (n) = O (n)
  • 2 n + 1 = O (n)

3. O (1) постоянное время:

Говорят, что алгоритм работает в постоянном времени, если ему требуется одинаковое количество времени независимо от размера ввода.

Примеры:

  • массив: доступ к любому элементу
  • стек фиксированного размера: методы push и pop
  • очередь фиксированного размера: методы enqueue и dequeue

4. O (n) линейное время

Говорят, что алгоритм работает за линейное время, если его выполнение по времени прямо пропорционально размеру ввода, то есть время растет линейно с увеличением размера ввода.

Рассмотрим следующие примеры: ниже я линейно ищу элемент, который имеет временную сложность O (n).

int find = 66;
var numbers = new int[] { 33, 435, 36, 37, 43, 45, 66, 656, 2232 };
for (int i = 0; i < numbers.Length - 1; i++)
{
    if(find == numbers[i])
    {
        return;
    }
}

Больше примеров:

  • Массив: линейный поиск, обход, поиск минимума и т. Д.
  • ArrayList: содержит метод
  • Очередь: содержит метод

5. O (log n) Логарифмическое время:

Говорят, что алгоритм работает в логарифмическом времени, если его время выполнения пропорционально логарифму входного размера.

Пример: бинарный поиск

Вспомните игру «двадцать вопросов» - задача состоит в том, чтобы угадать значение скрытого числа в интервале. Каждый раз, когда вы делаете предположение, вам говорят, является ли ваше предположение слишком высоким или слишком низким. Игра «Двадцать вопросов» подразумевает стратегию, которая использует ваше число догадок, чтобы уменьшить размер интервала вдвое. Это пример общего метода решения проблем, известного как бинарный поиск

6. O (n 2 ) квадратичное время

Считается, что алгоритм выполняется за квадратичное время, если его время выполнения пропорционально квадрату входного размера.

Примеры:

7. Некоторые полезные ссылки

Ясир Шейх
источник
17
Примечание: первая ссылка не работает.
Ziezi
2
O (n2) должно быть написано O (n ^ 2), чтобы избежать путаницы.
Ризки Гадиатуррасид
100

Хотя есть несколько хороших ответов на этот вопрос. Я хотел бы дать еще один ответ здесь с несколькими примерами loop.

  • O (n) : временная сложность цикла рассматривается как O (n), если переменные цикла увеличиваются / уменьшаются на постоянную величину. Например, следующие функции имеют O (n) временную сложность.

    // Here c is a positive integer constant   
    for (int i = 1; i <= n; i += c) {  
        // some O(1) expressions
    }
    
    for (int i = n; i > 0; i -= c) {
        // some O(1) expressions
    }
    
  • O (n ^ c) : временная сложность вложенных циклов равна числу выполнений самого внутреннего оператора. Например, следующие примеры циклов имеют сложность времени O (n ^ 2)

    for (int i = 1; i <=n; i += c) {
       for (int j = 1; j <=n; j += c) {
          // some O(1) expressions
       }
    }
    
    for (int i = n; i > 0; i += c) {
       for (int j = i+1; j <=n; j += c) {
          // some O(1) expressions
    }
    

    Например, сортировка по выбору и сортировка по вставке имеют временную сложность O (n ^ 2) .

  • Время O (Logn) Сложность цикла рассматривается как O (Logn), если переменные цикла делятся / умножаются на постоянную величину.

    for (int i = 1; i <=n; i *= c) {
       // some O(1) expressions
    }
    for (int i = n; i > 0; i /= c) {
       // some O(1) expressions
    }
    

    Например, бинарный поиск имеет O (Logn) сложность времени.

  • O (LogLogn) Время Сложность цикла рассматривается как O (LogLogn), если переменные цикла уменьшаются / увеличиваются экспоненциально на постоянную величину.

    // Here c is a constant greater than 1   
    for (int i = 2; i <=n; i = pow(i, c)) { 
       // some O(1) expressions
    }
    //Here fun is sqrt or cuberoot or any other constant root
    for (int i = n; i > 0; i = fun(i)) { 
       // some O(1) expressions
    }
    

Один из примеров анализа сложности времени

int fun(int n)
{    
    for (int i = 1; i <= n; i++)
    {
        for (int j = 1; j < n; j += i)
        {
            // Some O(1) task
        }
    }    
}

Анализ :

For i = 1, the inner loop is executed n times. For i = 2, the inner loop is executed approximately n/2 times. For i = 3, the inner loop is executed approximately n/3 times. For i = 4, the inner loop is executed approximately n/4 times. ……………………………………………………. For i = n, the inner loop is executed approximately n/n times.

Таким образом, общая временная сложность вышеуказанного алгоритма (n + n/2 + n/3 + … + n/n), которая становитсяn * (1/1 + 1/2 + 1/3 + … + 1/n)

Важная вещь о серии (1/1 + 1/2 + 1/3 + … + 1/n)равна O (Logn) . Таким образом, временная сложность приведенного выше кода составляет O (nLogn) .


Ссылка: 1 2 3

zangw
источник
1
@ Симон, подскажите, пожалуйста, какая часть неверна?
Zangw
Спасибо за вопрос. Я неправильно прочитал код. Я удалил свой комментарий. Сожалею!
Саймон
74

Сложность времени с примерами

1 - Основные операции (арифметика, сравнения, доступ к элементам массива, присваивание): время выполнения всегда постоянное O (1)

Пример :

read(x)                               // O(1)
a = 10;                               // O(1)
a = 1.000.000.000.000.000.000         // O(1)

2 - оператор If then else: берется только максимальное время выполнения из двух или более возможных операторов.

Пример:

age = read(x)                               // (1+1) = 2
if age < 17 then begin                      // 1
      status = "Not allowed!";              // 1
end else begin
      status = "Welcome! Please come in";   // 1
      visitors = visitors + 1;              // 1+1 = 2
end;

Таким образом, сложность вышеприведенного псевдокода T (n) = 2 + 1 + max (1, 1 + 2) = 6. Таким образом, его большое значение o по-прежнему постоянно T (n) = O (1).

3 - Цикл (для, пока, повтор): время выполнения для этого оператора - это количество циклов, умноженное на количество операций внутри этого цикла.

Пример:

total = 0;                                  // 1
for i = 1 to n do begin                     // (1+1)*n = 2n
      total = total + i;                    // (1+1)*n = 2n
end;
writeln(total);                             // 1

Таким образом, его сложность составляет T (n) = 1 + 4n + 1 = 4n + 2. Таким образом, T (n) = O (n).

4 - Вложенный цикл (цикл внутри цикла): поскольку внутри основного цикла есть хотя бы один цикл, время выполнения этого оператора использует O (n ^ 2) или O (n ^ 3).

Пример:

for i = 1 to n do begin                     // (1+1)*n  = 2n
   for j = 1 to n do begin                  // (1+1)n*n = 2n^2
       x = x + 1;                           // (1+1)n*n = 2n^2
       print(x);                            // (n*n)    = n^2
   end;
end;

Общее время выполнения

При анализе алгоритма есть некоторые общие времена выполнения:

  1. O (1) - Постоянное время Постоянное время означает, что время работы постоянно, оно не зависит от размера входа .

  2. O (n) - Линейное время Когда алгоритм принимает n входного размера, он также будет выполнять n операций.

  3. O (log n) - Алгоритм логарифмического времени, у которого время работы O (log n) немного быстрее, чем O (n). Обычно алгоритм делит задачу на подзадачи с одинаковым размером. Пример: алгоритм двоичного поиска, алгоритм двоичного преобразования.

  4. O (n log n) - линейное время. Это время выполнения часто встречается в «алгоритмах« разделяй и властвуй »», которые рекурсивно делят задачу на подзадачи, а затем объединяют их за n времени. Пример: алгоритм сортировки слиянием.

  5. O (n 2 ) - алгоритм пузырьковой сортировки с квадратичным временем!

  6. O (n 3 ) - кубическое время. Он имеет тот же принцип, что и O (n 2 ).

  7. O (2 n ) - экспоненциальное время. Это очень медленно, поскольку входной сигнал увеличивается, если n = 1000.000, T (n) будет 21000.000. Алгоритм грубой силы имеет это время выполнения.

  8. O (n!) - Факториальное время САМЫЙ МЕДЛЕННЫЙ !!! Пример: задача коммивояжера (TSP)

Взято из этой статьи . Очень хорошо объяснил, должен дать прочитать.

Ясир Шейх
источник
В Вашем 2 Например, Вы писали visitors = visitors + 1IS 1 + 1 = 2. Не могли бы вы объяснить мне, почему вы это сделали?
Саджиб Ачарья
3
@ Саджиб Ачарья Смотри справа налево. Первый шаг: вычислить visitors + 1 Второй шаг: присвоить значение от первого шага до visitors So, вышеприведенное выражение состоит из двух операторов; первый шаг + второй шаг => 1 + 1 = 2
Божидар Сиканджич
@nbro Почему это 1 + 1 вage = read(x) // (1+1) = 2
Humty
@BozidarSikanjic Почему это 1 + 1 вage = read(x) // (1+1) = 2
Humty
1
@Humty Проверьте начало этого ответа: read(x) // O(1) a = 10; // O(1)Первый - это вызов функции => O (1) ///// Второй - это присваивание, как сказал nbro, но 10 - это константа, поэтому второй - => O (1) ...
Божидар Сиканджич
41

Когда вы анализируете код, вы должны анализировать его построчно, подсчитывая каждую операцию / распознавая сложность времени, в конце вы должны суммировать его, чтобы получить полную картину.

Например, у вас может быть один простой цикл с линейной сложностью , но позже в той же программе вы можете иметь тройной цикл, имеющий кубическую сложность , поэтому ваша программа будет иметь кубическую сложность . Функция порядка роста вступает в игру прямо здесь.

Давайте посмотрим, каковы возможности временной сложности алгоритма, вы можете увидеть порядок роста, который я упомянул выше:

  • Постоянное время имеет порядок роста1, например:a = b + c.

  • Логарифмическое время имеет порядок ростаLogN, обычно это происходит, когда вы делите что-то пополам (двоичный поиск, деревья, даже циклы) или умножаете что-то таким же образом.

  • Линейный , порядок ростаN, например,

    int p = 0;
    for (int i = 1; i < N; i++)
      p = p + 2;
    
  • Линейный порядок ростаn*logNобычно происходит в алгоритмах разделяй и властвуй.

  • Кубический , порядок ростаN^3, классический пример - это тройной цикл, где вы проверяете все триплеты:

    int x = 0;
    for (int i = 0; i < N; i++)
       for (int j = 0; j < N; j++)
          for (int k = 0; k < N; k++)
              x = x + 2
    
  • Экспоненциальный порядок роста2^Nобычно возникает, когда вы выполняете исчерпывающий поиск, например, проверяете подмножества некоторого набора.

Александар Макрагич
источник
Если бы это было так, какова была бы сложность? для (int i = 0; i <N; i ++) для (int j = i + 1; j <N; j ++) для (int k = j + 1; k <N; k ++) x = x + 2
user3156040
35

Грубо говоря, временная сложность - это способ суммировать, как количество операций или время выполнения алгоритма увеличивается с увеличением размера ввода.

Как и большинство вещей в жизни, коктейльная вечеринка может помочь нам понять.

НА)

Когда вы прибываете на вечеринку, вы должны пожать руку каждому (выполнить операцию на каждом предмете). По мере того, как количество участников Nувеличивается, время / работа, которую вам потребуется, чтобы пожать руку каждому, увеличивается O(N).

Почему O(N)и нет cN?

Существует разное количество времени, которое требуется, чтобы пожать руку людям. Вы могли бы усреднить это и зафиксировать это в константе c. Но основная операция здесь - рукопожатие со всеми - всегда будет пропорциональна O(N), независимо от того, что cбыло. При обсуждении вопроса о том, стоит ли нам идти на коктейльную вечеринку, мы часто больше заинтересованы в том, чтобы нам приходилось встречаться со всеми, чем в мельчайших подробностях того, как эти встречи выглядят.

O (N ^ 2)

Ведущий коктейльной вечеринки хочет, чтобы вы играли в глупую игру, где все встречаются со всеми остальными. Поэтому вы должны встретиться с N-1другими людьми и, поскольку следующий человек уже встретил вас, они должны встретиться с N-2людьми и так далее. Сумма этой серии есть x^2/2+x/2. По мере того, как количество посетителей растет, x^2срок быстро растет , поэтому мы просто отбрасываем все остальное.

O (N ^ 3)

Вы должны встретиться со всеми остальными, и во время каждой встречи вы должны говорить обо всех остальных в комнате.

O (1)

Хозяин хочет что-то объявить. Они звонят в бокал и говорят громко. Все слышат их. Оказывается, неважно, сколько посетителей, эта операция всегда занимает одинаковое количество времени.

O (журнал N)

Хозяин выложил всех за стол в алфавитном порядке. Где дэн? Вы полагаете, что он должен быть где-то между Адамом и Мэнди (конечно, не между Мэнди и Заком!). Учитывая это, он между Джорджем и Мэнди? Нет. Он должен быть между Адамом и Фредом и между Синди и Фредом. И так далее ... мы можем эффективно определить местонахождение Дэна, посмотрев на половину набора, а затем половину этого набора. В конечном счете, мы смотрим на O (log_2 N) лиц.

O (N log N)

Вы можете найти, где сесть за стол, используя алгоритм выше. Если большое количество людей пришло к столу, по одному, и все сделали это, это заняло бы O (N log N) времени. Оказывается, это время, необходимое для сортировки любой коллекции элементов, когда они должны сравниваться.

Лучший / худший случай

Вы прибываете на вечеринку и должны найти Иниго - сколько времени это займет? Это зависит от того, когда вы приедете. Если вокруг толпятся все, вы столкнулись с наихудшим вариантом: это займет O(N)время. Однако, если все сядут за стол, это займет всего лишь O(log N)время. Или, может быть, вы можете использовать силу крика бокала хозяина, и это займет всего лишь O(1)время.

Предполагая, что хост недоступен, мы можем сказать, что алгоритм поиска Inigo имеет нижнюю границу O(log N)и верхнюю границу O(N), в зависимости от состояния партии, когда вы приедете.

Космос и связь

Те же идеи могут быть применены для понимания того, как алгоритмы используют пространство или связь.

Кнут написал хорошую статью о первом под названием «Сложность песен» .

Теорема 2: Существуют произвольно длинные песни сложности O (1).

ДОКАЗАТЕЛЬСТВО: (из-за Кейси и Саншайн Бэнд). Рассмотрим песни Sk, определенные в (15), но с

V_k = 'That's the way,' U 'I like it, ' U
U   = 'uh huh,' 'uh huh'

для всех к.

Ричард
источник
Вы прибили это, Теперь, когда я иду на вечеринку, я подсознательно пытаюсь найти Сложность Времени любых забавных событий. Спасибо за такой юмористический пример.
Sabunkar Tejas Sahailesh
5

Я знаю, что этот вопрос уходит в прошлое, и здесь есть несколько отличных ответов, тем не менее, я хотел бы поделиться еще одним моментом для математически мыслящих людей, которые наткнуться на этот пост. Основная теорема - еще одна полезная вещь, которую нужно знать при изучении сложности. Я не видел, чтобы это упоминалось в других ответах.

Горечавка каса
источник
2

O (n) - это большое обозначение O, используемое для записи временной сложности алгоритма. Когда вы сложите количество выполнений в алгоритме, вы получите выражение с результатом, подобным 2N + 2, в этом выражении N является доминирующим термином (термин, оказывающий наибольшее влияние на выражение, если его значение увеличивается или уменьшается). Теперь O (N) - временная сложность, а N - доминирующий член. пример

For i= 1 to n;
  j= 0;
while(j<=n);
  j=j+1;

здесь общее количество выполнений для внутреннего цикла равно n + 1, а общее количество выполнений для внешнего цикла равно n (n + 1) / 2, поэтому общее количество выполнений для всего алгоритма равно n + 1 + n (n + 1/2). ) = (n ^ 2 + 3n) / 2. здесь n ^ 2 - доминирующий член, поэтому временная сложность для этого алгоритма составляет O (n ^ 2)

ифра хан
источник