Time Complexity
Скачать 16.77 Kb.
|
Time Complexity: Sorting arrays on different machines. Merge Sort is a recursive algorithm and time complexity can be expressed as following recurrence relation. T(n) = 2T(n/2) + θ(n) The above recurrence can be solved either using the Recurrence Tree method or the Master method. It falls in case II of Master Method and the solution of the recurrence is θ(nLogn). Time complexity of Merge Sort is θ(nLogn) in all 3 cases (worst, average and best) as merge sort always divides the array into two halves and takes linear time to merge two halves. Auxiliary Space: O(n) Algorithmic Paradigm: Divide and Conquer Sorting In Place: No in a typical implementation Stable: Yes Applications of Merge Sort Merge Sort is useful for sorting linked lists in O(nLogn) time. In the case of linked lists, the case is different mainly due to the difference in memory allocation of arrays and linked lists. Unlike arrays, linked list nodes may not be adjacent in memory. Unlike an array, in the linked list, we can insert items in the middle in O(1) extra space and O(1) time. Therefore, the merge operation of merge sort can be implemented without extra space for linked lists. In arrays, we can do random access as elements are contiguous in memory. Let us say we have an integer (4-byte) array A and let the address of A[0] be x then to access A[i], we can directly access the memory at (x + i*4). Unlike arrays, we can not do random access in the linked list. Quick Sort requires a lot of this kind of access. In a linked list to access i’th index, we have to travel each and every node from the head to i’th node as we don’t have a continuous block of memory. Therefore, the overhead increases for quicksort. Merge sort accesses data sequentially and the need of random access is low. Inversion Count Problem Used in External Sorting Сложность времени: Сортировка массивов на разных машинах. Сортировка слиянием является рекурсивным алгоритмом, и временная сложность может быть выражена следующим рекуррентным соотношением. Т(n) = 2T(n/2) + θ(n) Вышеупомянутое повторение может быть решено либо с помощью метода дерева повторения, либо с помощью основного метода. Он падает в случае II Мастер-метода, и решение рекуррентного уравнения равно θ(nLogn). Временная сложность сортировки слиянием равна θ(nLogn) во всех трех случаях (наихудшем, среднем и лучшем), поскольку сортировка слиянием всегда делит массив на две половины и требует линейного времени для объединения двух половин. Вспомогательное пространство: O(n) Алгоритмическая парадигма: разделяй и властвуй Сортировка на месте: нет в типичной реализации Стабильность: да Приложения сортировки слиянием Сортировка слиянием полезна для сортировки связанных списков за время O(nLogn) . В случае связанных списков дело обстоит иначе, в основном из-за разницы в распределении памяти массивов и связанных списков. В отличие от массивов, узлы связанного списка не могут быть соседними в памяти. В отличие от массива, в связном списке мы можем вставлять элементы в середину за O(1) дополнительного пространства и O(1) времени. Поэтому операцию слияния сортировки слиянием можно реализовать без дополнительного места для связанных списков. В массивах мы можем выполнять произвольный доступ, поскольку элементы в памяти являются смежными. Допустим, у нас есть целочисленный (4-байтовый) массив A, и пусть адрес A[0] равен x, тогда для доступа к A[i] мы можем напрямую получить доступ к памяти в (x + i*4). В отличие от массивов, мы не можем делать произвольный доступ в связном списке. Быстрая сортировка требует много такого доступа. В связанном списке для доступа к i-му индексу мы должны перемещаться по каждому узлу от головы к i-му узлу, поскольку у нас нет непрерывного блока памяти. Таким образом, накладные расходы увеличиваются для быстрой сортировки. Сортировка слиянием обеспечивает последовательный доступ к данным, и потребность в произвольном доступе невелика. Проблема инверсии Используется во внешней сортировке |