Timsort

Материал из Викиконспекты
Версия от 16:50, 16 января 2019; 93.175.2.251 (обсуждение) (Шаг 2. Алгоритм разбиения на подмассивы и их сортировка)
Перейти к: навигация, поиск

Timsort — гибридный алгоритм сортировки, сочетающий различные подходы.

Данный алгоритм является относительно новым и был придуман Тимом Петерсом. На массивах данных, которые содержат упорядоченный подмасивы, алгоритм Тима Петерса показывает себя намного лучше других сортировок. В настоящее время Timsort является стандартной сортировкой в Python и GNU Octave, реализован в OpenJDK 7 и Android JDK 1.5.

Основная идея алгоритма

Алгоритм Timsort состоит из нескольких частей:

  • Начало.
  • Шаг 1. Входной массив разделяется на подмассивы фиксированной длины, вычисляемой определённым образом.
  • Шаг 2. Каждый подмассив сортируется сортировкой вставками, сортировкой пузырьком или любой другой устойчивой сортировкой.
  • Шаг 3. Отсортированные подмассивы объединяются в один массив с помощью модифицированной сортировки слиянием.
  • Конец.

Рассмотрим теперь каждый шаг в отдельности.

Алгоритм

Обозначения

  • [math]n[/math] — размер входного массива.
  • [math]\mathtt {run}[/math] — подмассив во входном массиве, который обязан быть упорядоченным одним из двух способов:
    • строго по убыванию [math]\mathtt {a_{i} \gt a_{i + 1} \gt \dots} [/math].
    • нестрого по возрастанию [math]\mathtt {a_{i} \leqslant a_{i + 1} \leqslant \dots} [/math].
  • [math]\mathtt {minrun} [/math] — минимальный размер подмассива, описанного в предыдущем пункте.

Шаг 1. Вычисление minrun

  • Начало.
  • Шаг 0. Число [math]\mathtt{minrun}[/math] определяется на основе [math]n[/math], исходя из следующих принципов:
    • Не должно быть слишком большим, поскольку к подмассиву размера [math]\mathtt{minrun}[/math] будет в дальнейшем применена сортировка вставками (эффективна только на небольших массивах).
    • Оно не должно быть слишком маленьким, так как чем меньше подмассив, тем больше итераций слияния подмассивов придётся выполнить на последнем шаге алгоритма. Оптимальная величина для [math] \mathtt{\dfrac{n}{minrun}} [/math]степень двойки. Это требование обусловлено тем, что алгоритм слияния подмассивов наиболее эффективно работает на подмассивах примерно равного размера.
    • Автором алгоритма было выбрано оптимальное значение, которое принадлежит диапазону [math] [32; 65) [/math] (подробнее о том, почему так, будет сказано ниже).
    • Исключение: если [math] n \lt 64 [/math], тогда [math] n = \mathtt{minrun} [/math] и Timsort превращается в сортировку вставками.
  • Шаг 1. Берем старшие 6 бит числа [math]n[/math] и добавляем единицу, если в оставшихся младших битах есть хотя бы один ненулевой.

Нетрудно понять, что после таких вычислений, [math]\mathtt{\dfrac{{n}}{minrun}} [/math] будет степенью двойки.

  • Конец.
 int minRunLength(n):
   flag = 0         // будет равно 1, если среди сдвинутых битов есть хотя бы один ненулевой
   while (n [math] \geqslant[/math] 64)
     flag |= n & 1
     n >>= 1
   return n + flag

Шаг 2. Алгоритм разбиения на подмассивы и их сортировка

На данном этапе у нас есть входной массив, его размер [math]n[/math] и вычисленное число [math]\mathtt{minrun}[/math]. Обратим внимание, что если данные изначального массива достаточно близки к случайным, то размер упорядоченных подмассивов близок к [math]\mathtt{minrun}[/math],. Но если в изначальных данных были упорядоченные диапазоны, то упорядоченные подмассивы могут иметь размер, превышающий [math]\mathtt{minrun}[/math].
MinrunExample.png
  • Начало.
  • Шаг 0. Указатель текущего элемента ставится в начало входного массива.
  • Шаг 1. Начиная с текущего элемента, идет поиск во входном массиве упорядоченного подмассива [math]\mathtt{run}[/math]. По определению, в [math]\mathtt{run}[/math] однозначно войдет текущий элемент и следующий за ним. Если получившийся подмассив упорядочен по убыванию, то после вычисления [math]\mathtt{run}[/math] для текущего массива элементы переставляются так, чтобы они шли по возрастанию.
  • Шаг 2. Если размер текущего [math]\mathtt{run}[/math] меньше [math]\mathtt{minrun}[/math], тогда выбираются следующие за найденным подмассивом [math]\mathtt{run}[/math] элементы в количестве [math] \mathtt{minrun - size(run)} [/math]. Таким образом, на выходе будет получен подмассив размером большим или равным [math]\mathtt{minrun}[/math], часть которого (в лучшем случае — он весь) упорядочена.
  • Шаг 3. К данному подмассиву применяем сортировку вставками. Так как размер подмассива невелик и часть его уже упорядочена — сортировка работает эффективно.
  • Шаг 4. Указатель текущего элемента ставится на следующий за подмассивом элемент.
  • Шаг 5. Если конец входного массива не достигнут — переход к шагу 1.
  • Конец.

Шаг 3. Слияние

Нужно объединить полученные подмассивы для получения результирующего упорядоченного массива. Для достижения эффективности, нужно объединять подмассивы примерно равного размера и cохранять стабильность алгоритма.

Merge2mas.png
  • Начало.
  • Шаг 0. Создается пустой стек пар [math] \lt [/math] индекс начала подмассива, размер подмассива [math] \gt [/math].
  • Шаг 1. Берется первый упорядоченный подмассив.
  • Шаг 2. Добавляется в стек пара данных [math] \lt [/math] индекс начала текущего подмассива, его размер [math] \gt [/math].
  • Шаг 3. Пусть [math]X,Y,Z [/math] — длины верхних трех интервалов, которые лежат в стеке. Причем [math]X[/math] — это последний элемент стека.
  • Шаг 4. Повторяем пока выражение ([math]Z \gt X + Y \wedge Y \gt X[/math]) не станет истинным
    • Если размер стека не меньше [math]3[/math] и [math]Z \leqslant X + Y[/math] — сливаем [math]Y[/math] c [math]\min(X,Z)[/math].
    • Иначе Если [math]Y \leqslant X [/math] — сливаем [math]X[/math] c [math]Y[/math].
  • Шаг 5. Если всего осталось [math] 3 [/math] подмассива, которые сейчас в стеке, то сливаем их в правильном порядке, иначе же переходим к шагу 2.
  • Конец

Основная цель этой процедуры — сохранение баланса. Изменения будут выглядеть как на картинке, а значит и размеры подмассивов в стеке эффективны для дальнейшей сортировки слиянием.

Описание процедуры слияния

  • Начало.
  • Шаг 0. Создается временный массив в размере меньшего из сливаемых подмассивов.
  • Шаг 1. Меньший из подмассивов копируется во временный массив, но надо учесть, что если меньший подмассив — правый, то ответ (результат сливания) формируется справа налево. Дабы избежать данной путаницы, лучше копировать всегда левый подмассив во временный. На скорости это практически не отразится.
  • Шаг 2. Ставятся указатели текущей позиции на первые элементы большего и временного массива.
  • Шаг 3. На каждом шаге рассматривается значение текущих элементов в большем и временном массивах, берется меньший из них, копируется в новый отсортированный массив. Указатель текущего элемента перемещается в массиве, из которого был взят элемент.
  • Шаг 4. Предыдущий пункт повторяется, пока один из массивов не закончится.
  • Шаг 5.Все элементы оставшегося массива добавляются в конец нового массива.
  • Конец.

Пример

Возьмем [math]n = 356[/math]. При таком [math]n[/math] [math]\mathtt{minrun}[/math] оказался равным [math]45[/math]. Ниже представлена работа алгоритма. Числа с закрывающей скобкой показывают номера шагов, на которых произошло сливание нижестоящих подмассивов.

Example.png

Модификация процедуры слияния подмассивов (Galloping Mode)

Рассмотрим процедуру слияния двух массивов:

[math]A = {1, 2, 3, \dots, 9999, 10000}[/math]

[math]B = {20000, 20001, 20002, \dots, 29999, 30000}[/math]

Вышеуказанная процедура для них сработает, но каждый раз на её четвёртом пункте нужно будет выполнить одно сравнение и одно копирование. В итоге [math]10000[/math] сравнений и [math]10000[/math] копирований. Timsort предлагает в этом месте модификацию, которая получила называет галоп. Алгоритм следующий:

  • Начало.
  • Шаг 0. Начинается процедура слияния.
  • Шаг 1. На каждой операции копирования элемента из временного или большего подмассива в результирующий запоминается, из какого именно подмассива был элемент.
  • Шаг 2. Если уже некоторое количество элементов (например, в JDK 7 это число равно 7) было взято из одного и того же массива — предполагается, что и дальше придётся брать данные из него. Чтобы подтвердить эту идею, алгоритм переходит в режим галопа, то есть перемещается по массиву-претенденту на поставку следующей большой порции данных бинарным поиском (массив упорядочен) текущего элемента из второго соединяемого массива.
  • Шаг 3. В момент, когда данные из текущего массива-поставщика больше не подходят (или был достигнут конец массива), данные копируются целиком.
  • Конец.

Для вышеописанных массивов [math]\mathtt{A, B}[/math] алгоритм выглядит следующим образом: Первые [math]7[/math] итераций сравниваются числа [math]1, 2, 3, 4, 5, 6, 7[/math] из массива [math]A[/math] с числом [math]20000[/math], так как [math]20000[/math] больше, то элементы массива [math]A[/math] копируются в результирующий. Начиная со следующей итерации алгоритм переходит в режим галопа: сравнивает с числом [math]20000[/math] последовательно элементы [math]8, 10, 14, 22, 38, 7+2^{i - 1}, \dots, 10000 [/math] массива [math]A[/math] [math]( \thicksim\log{n}[/math] сравнений[math])[/math]. После того как конец массива [math]\mathtt{A}[/math] достигнут и известно, что он весь меньше [math]B[/math], нужные данные из массива [math]A[/math] копируются в результирующий.

Доказательство времени работы алгоритма

Не сложно заметить, что чем меньше массивов, тем меньше произойдёт операций слияния, но чем их длины больше, тем дольше эти слияния будут происходить. На малом количестве длинных массивов хорошо помогает вышеописанный метод Galloping Mode. Хоть он и не даёт асимптотического выигрыша, но уменьшает константу. Пусть [math]k[/math] — число кусков, на которые разбился наш исходный массив, очевидно [math]k[/math] = [math] \left\lceil \mathtt{\dfrac{n}{minrun}} \right\rceil [/math].

Главный факт, который нам понадобится для доказательства нужной оценки времени работы в [math]O(n \log{n})[/math] — это то, что сливаемые массивы всегда имеют примерно одинаковую длину. Можно сказать больше: пока [math]k \gt 3[/math] сливаемые подмассивы будут именно одинаковой длины (данный факт хорошо виден на примере). Безусловно, после разбиения массива на блоки длиной [math]\mathtt{minrun}[/math] последний блок может быть отличен от данного значения, но число элементов в нём не превосходит константы [math]\mathtt{minrun}[/math].

Мы выяснили, что при слиянии, длинна образовавшегося слитого массива увеличивается в [math]\approx 2[/math] раза. Таким образом получаем, что каждый подмассив [math]\mathtt{run_i}[/math] может участвовать в не более [math]O(\log{n})[/math] операций слияния, а значит и каждый элемент будет задействован в сравниниях не более [math]O(\log{n})[/math] раз. Элементов [math]n[/math], откуда получаем оценку в [math]O(n\log{n})[/math].

Также нужно сказать про сортировку вставками, которая используется для сортировки подмассивов [math]\mathrm{run_i}[/math]: в нашем случае, алгоритм работает за [math]O(\mathtt{minrun + inv})[/math], где [math]\mathtt{inv}[/math] — число обменов элементов входного массива, равное числу инверсий. C учетом значения [math]k[/math] получим, что сортировка всех блоков может занять [math]O(\mathtt{minrun + inv}) \cdot k = O(\mathtt{minrun + inv}) \cdot [/math][math]\left\lceil \mathtt{\dfrac{n}{minrun}} \right\rceil [/math]. Что в худшем случае [math](\mathtt{inv = \dfrac{minrun(minrun - 1)}{2}} )[/math] может занимать [math]O(\mathtt{n \cdot minrun}) [/math] времени. Откуда видно, что константа [math]\mathtt{minrun}[/math] играет немалое значение: при большом [math]\mathtt{minrun}[/math] слияний будет меньше, а сортировки вставками будут выполняться долго. Причём эти функции растут с разной скоростью, поэтому и ещё после экспериментов на различных значениях и был выбран оптимальный диапазон — от [math]32[/math] до [math]64[/math].

См. также

Источники информации

  • Peter McIlroy "Optimistic Sorting and Information Theoretic Complexity", Proceedings of the Fourth Annual ACM-SIAM Symposium on Discrete Algorithms, ISBN 0-89871-313-7, Chapter 53, pp 467-474, January 1993.
  • Magnus Lie Hetland Python Algorithms: Mastering Basic Algorithms in the Python Language. — Apress, 2010. — 336 с.