Фибоначчиева куча

Материал из Викиконспекты
Перейти к: навигация, поиск

Фибоначчиева куча (англ. Fibonacci heap) — структура данных, отвечающая интерфейсу приоритетная очередь. Эта структура данных имеет меньшую амортизированную сложность, чем такие приоритетные очереди как биномиальная куча и двоичная куча. Изначально эта структура данных была разработана Майклом Фридманом[1] и Робертом Тарьяном[2] при работе по улучшению асимптотической сложности алгоритма Дейкстры. Свое название Фибоначчиева куча получила  из-за использования некоторых свойств чисел Фибоначчи[3] в потенциальном анализе этой реализации.

Структура

Фибоначчиева куча — набор из подвешенных деревьев удовлетворяющих свойству: каждый предок не больше своих детей(если дерево на минимум). Это означает, что минимум всей кучи это один из корней этих деревьев. Одно из главных преимуществ Фибоначчиевой кучи — гибкость её структуры из-за того, что на деревья не наложены никакие ограничения по форме. Например, Фибоначчиева куча может состоять хоть из деревьев в каждом из которых по одному элементу. Такая гибкость позволяет выполнять некоторые операции лениво, оставляя работу более поздним операциям. Далее будут даны некоторые определения, которые понадобятся в дальнейшем.

Определение:
Степень вершины (англ. degree) — количество детей данной вершины. Далее будем обозначать как [math]degree(x)[/math], где [math]x[/math] это вершина.


Определение:
Степень кучи (англ. degree) — наибольшая степень вершины этой кучи. Далее будем обозначать как [math]degree(H)[/math], где [math]H[/math] это куча.


Реализация

Пример фибоначчиевой кучи

Для возможности быстрого удаления элемента из произвольного места и объединением с другим списком будем хранить их в циклическом двусвязном списке. Также будем хранить и все уровни поддерева. Исходя из этого структура каждого узла будет выглядеть вот так.

struct Node
   int key      // ключ
   Node parent  // указатель на родительский узел
   Node child   // указатель на один из дочерних узлов
   Node left    // указатель на левый узел того же предка
   Node right   // указатель на правый узел того же предка
   int degree   // степень вершины
   boolean mark // был ли удален в процессе изменения ключа ребенок этой вершины)

Также стоит упомянуть, что нам нужен указатель только на одного ребенка, поскольку остальные хранятся в двусвязном списке с ним. Для доступа ко всей куче нам тоже нужен всего один элемент, поэтому разумно хранить именно указатель на минимум кучи (он обязательно один из корней), а для получения размера за константное время будем хранить размер кучи отдельно.

struct fibonacciHeap
   int size // текущее количество узлов
   Node min // указатель на корень дерева с минимальным ключом 

Cоздание кучи

Инициализация кучи.

function buildHeap:
   min [math]= \varnothing[/math] 
   size = 0

Вставка элемента

Данная операция вставляет новый элемент в список корней правее минимума и при необходимости меняет указатель на минимум кучи.

function insert(x: int):
   Node newNode                // создаем новый узел 
   newNode.key = x             // инициализируем ключ нового узла
   if size = 0                // если куче нет элементов, то только что добавленный минимальный
       min = newNode
       min.left = newNode
       min.right = newNode
   else                        // иначе аккуратно меняем указатели в списке, чтобы не перепутать указатели
       Node prevRight = min.right 
       min.right = newNode
       newNode.left = min 
       newNode.right = prevRight 
       prevRight.left = newNode 
   if newNode.key < min.key
       min = newNode           // меняем указатель на минимум, если надо
   newNode.parent [math]= \varnothing[/math] 
   size++                      // не забываем увеличить переменную size 

Получение минимального элемента

Получение минимума всей кучи.

int getMin:
   return min.key

Соедининение двух куч

Для сливания двух Фибоначчиевых куч необходимо просто объединить их корневые списки, а также обновить минимум новой кучи, если понадобится. Вынесем в вспомогательную функцию [math]unionLists[/math] логику, объединяющую  два списка вершины, которых подаются ей в качестве аргументов.

function unionLists(first: Node, second: Node):
   Node L = first.left               // аккуратно меняем указатели местами указатели
   Node R = second.right
   second.right = first
   first.left = second
   L.right = R
   R.left = L

Сливаем два корневых списка в один и обновляем минимум, если нужно.

function merge(that: fibonacciHeap):
   if that.size = 0               // если вторая куча пуста, нечего добавлять
       return
   if size = 0                    // если наша куча пуста, то результатом будет вторая куча
       min = that.min
       size = that.size
   else 
       unionLists(min, that.min)   // объединяем два корневых списка
       size += that.size
   if min [math]= \varnothing[/math] or (that.min [math] \neq \varnothing[/math] and that.min < min) // если минимум кучи изменился, то надо обновить указатель
       min = that.min

Удаление минимального элемента

Первая рассматриваемая операция, в ходе которой значительно меняется структура кучи. Здесь используется вспомогательная процедура [math]consolidate[/math], благодаря которой собственно и достигается желанная амортизированная оценка. В данном случае [math] min = \varnothing[/math] не рассматривается и считается нарушением предусловий [math]deleteMin[/math]

int deleteMin:
   Node prevMin = min 
   unionLists(min, min.child)    // список детей min объединяем с корневым
   Node L = min.left             // аккуратно удаляем min из списка
   Node R = min.right
   L.right = R
   R.left = L
   if prevMin.right = prevMin   // отдельно рассмотрим случай с одним элементом
       min [math]= \varnothing[/math]
       return
   min = min.right               // пока что перекинем указатель min на правого сына, а далее consolidate() скорректирует min в процессе выполнения
   consolidate()
   size-- 
   return prevMin.key

Прорежение деревьев

Данная процедура принимает кучу и преобразует ее таким образом, что в корневом списке остается не более [math] degree(H) + 1[/math] вершин.

Для этого возьмем массив списков указателей на корни деревьев [math] A[0 \dots D[H]] [/math], где [math] degree(H) [/math] — максимальная степень вершины в текущем корневом списке.

Затем происходит процесс, аналогичный слиянию биномиальных куч: добавляем поочередно каждый корень, смотря на его степень. Пусть она равна [math] d [/math]. Если в соответствующей ячейке [math]A[/math] еще нету вершины, записываем текущую вершину туда. Иначе подвешиваем одно дерево к другому, и пытаемся также добавить дерево, степень корня которого уже равна [math] d + 1 [/math]. Продолжаем, пока не найдем свободную ячейку. Подвешиваем мы его следующим образом: в корневой список добавляем корень минимальный из тех двух, а корень другого добавляем в список детей корневой вершины. Чтобы лучше понять этот процесс лучше воспользоваться визуализатором

function consolidate:
   A = Node[]
   A[min.degree] = min                    // создаем массив и инициализируем его min
   Node current = min.right
   while A[current.degree] [math]\neq[/math] current     // пока элементы массива меняются
       if A[current.degree] [math]= \varnothing[/math]         // если ячейка пустая, то положим в нее текущий элемент
           A[current.degree] = current
           current = current.right
       else                               // иначе подвесим к меньшему из текущего корня и того, который лежит в ячейке другой
           Node conflict = A[current.degree]
           Node addTo, adding
           if conflict.key < current.key
               addTo = conflict
               adding = current
           else
               addTo = current
               adding = conflict
           unionLists(addTo.child, adding)
           adding.parent = addTo
           addTo.degree++
           current = addTo
       if min.key > current.key          // обновляем минимум, если нужно
           min = current     

Пример

Изначально добавляем в нашу кучу [math]7[/math] элементов [math]56, 22, 84, 32, 85, 15, 16[/math]. После этого выполним операцию извлечения минимума:

Начальное состояние кучи


  • Удалим минимальный элемент из циклического корневого списка и заведем массив [math]A[/math] для дальнейшего прорежения.


Удаление мимимума и создание массива


  • Начнем процесс протяжения с первого элемента — [math]56[/math]. Его степень равна [math]0[/math] поэтому запишем его адрес в нулевую ячейку массива.


Состояние массива после первой итерации


  • Следующий элемент [math]22[/math] тоже имеет степень [math]0[/math]. Возникает конфликт, который решается подвешиванием к меньшему корню большего. То есть к [math]22[/math] подвешиваем [math]56[/math] и увеличиваем степень [math]22[/math] на [math]1[/math]. В итоге степень [math]22[/math] равна [math]1[/math]. Записываем адрес [math]22[/math] по индексу [math]1[/math] в массив.
Состояние после второй итерации


  • Делаем тоже самое, что и на предыдущих итерациях, но теперь объединяем [math]32[/math] и [math]84[/math]


Состояние после четвертой итерации


  • Теперь у нас два элемента со степенью [math]1[/math] в корневом списке. Объединим их подвесив к меньшему корню — [math]22[/math], больший — [math]32[/math]. Теперь степень [math]22[/math] равна [math]2[/math], запишем на [math]2[/math] позицию массива обновленное значение.


Состояние после пятой итерации


  • Ну и наконец аналогично объедений последние два элемента.


Финальное состояние кучи

Уменьшение значения элемента

Основная идея: хотим, чтобы учетная стоимость данной операции была [math] O(1) [/math]. Было бы хорошо, чтобы вершина не всплывала до корня, и тогда дерево не придется сильно перестраивать. Для этого при удобном случае будем вырезать поддерево полностью и перемещать его в корневой список. Итак, сам алгоритм:

  1. Проверяем, если новое значение ключа все же не меньше значения ключа родителя, то все хорошо, и мы выходим.
  2. Иначе, вырезаем дерево с текущей вершиной в корневой список, и производим каскадное вырезание родителя.

function decreaseKey(x: Node, newValue: int):
   if newValue > x.parent.key  // если после изменения структура дерева сохранится, то меняем и выходим
       x.key = newValue
       return
   Node parent = x.parent     // иначе вызываем cut и cascadingCut
   cut(x)
   cascadingCut(parent)

Вырезание

При вырезании вершины мы удаляем ее из списка детей своего родителя, уменьшаем степень ее родителя ([math] x.p.degree [/math]) и снимаем пометку с текущей вершины ([math] x.mark = false [/math]).

function cut(x: Node)
   Node L = x.left
   Node R = x.right
   R.left = L                // аккуратно удаляем текущую вершину
   L.right = R
   x.parent.degree--
   if x.parent.child = x   // чтобы родитель не потерял ссылку на сыновей проверяем: 
       if x.right = x.     // если узел который мы вырезаем содержится в родителе, то меняем его на соседний
           x.parent.child [math]= \varnothing[/math]  // иначе у родителя больше нет детей
       else
           x.parent.child = x.right
   x.right = x
   x.left = x
   x.parent [math]= \varnothing[/math]
   unionLists(min, x)        // вставляем наше поддерево в корневой список

Каскадное вырезание

Перед вызовом каскадного вырезания нам известно, удаляли ли ребенка у этой вершины. Если у вершины до этого не удаляли дочерний узел ([math] x.mark = false [/math]), то мы помечаем эту вершину ([math] x.mark = true [/math]) и прекращаем выполнение операции. В противном случае применяем операцию [math]\mathrm {cut}[/math] для текущей вершины и запускаем каскадное вырезание от родителя.

Пример каскадного вырезания

function cascadingCut(x: Node)
   while x.mark = true  // пока у нас помеченые вершины вырезаем их
       cut(x)
       x = x.parent
   x.mark = true         // последнюю вершину нужно пометить — у нее удаляли ребенка

Пример

Рисунок иллюстрирует пример каскадного вырезания:

  • Изначально, куча состояла из [math]3[/math] фибоначчиевых деревьев. У вершины с ключом [math]24[/math] отсутствует [math]1[/math] ребенок.
  • Уменьшаем ключ [math]26[/math] до [math]5[/math] и делаем операцию [math]\mathrm {cut}[/math] этого дерева. Получаем кучу с [math]4[/math] деревьями и новым минимумом. Но у вершины с ключом [math]24[/math] был удален второй ребенок, поэтому запускам операцию [math]\mathrm {cascadingCut}[/math] для этой вершины: вырезаем ее, помещаем в корневой список и помечаем ее родителя.
  • У вершины с ключом [math]7[/math] удален лишь один ребенок, поэтому операция [math]\mathrm {cascadingCut}[/math] от нее не запускается. В итоге, получаем кучу, состоящую из [math]5[/math] фибоначчиевых деревьев.

Удаление элемента

Удаление вершины реализуется через уменьшение ее ключа до [math] -\infty [/math] и последующим извлечением минимума.

function delete(x: Node)
   decreaseKey(x, [math]-\infty[/math])
   deleteMin()

Время работы

Потенциал

Для анализа производительности операций введем потенциал для фибоначчиевой кучи как [math] \Phi = trees + 2 * marked [/math], где [math] trees [/math] — количество элементов в корневом списке кучи, а [math] marked [/math] — количество вершин, у которых удален один ребенок (то есть вершин с пометкой [math] x.mark = true [/math]). Договоримся, что единицы потенциала достаточно для оплаты константного количества работы.

Cоздание кучи

Очевидно, что реальное время работы — [math] O(1) [/math].

Вставка элемента

Для оценки амортизированной стоимости операции рассмотрим исходную кучу [math] H [/math] и получившуюся в результате вставки нового элемента кучу [math] H' [/math]. [math] trees(H') = trees(H) + 1 [/math] и [math] marked(H') = marked(H) [/math]. Следовательно, увеличение потенциала составляет [math] (trees(H) + 1 + 2 * marked(H)) - (trees(H) + 2 * marked(H)) = 1 [/math]. Так как реальное время работы составляет [math] O(1) [/math], то амортизированная стоимость данной операции также равна [math] O(1) [/math].

Получение минимального элемента

Истинное время работы — [math] O(1) [/math].

Соедининение двух куч

Реальное время работы — [math] O(1) [/math]. Амортизированное время работы также [math] O(1) [/math], поскольку, при объединении двух куч в одну, потенциалы обеих куч суммируются, итоговая сумма потенциалов не изменяется, [math] \Phi_{n + 1} - \Phi_n = 0 [/math].

Удаление минимального элемента

Для доказательства времени работы этого алгоритма нам понадобится доказать несколько вспомогательных утверждений.

Лемма:
Для всех целых [math] n \geqslant 2[/math]

[math] F_n = 1 + \sum\limits_{i=0}^{n-2} F_i [/math], где [math] F_n [/math][math] n [/math]-ое число Фибоначчи, определяемое формулой:

[math] F_n = \begin{cases} 0, & n = 0 \\ 1, & n = 1 \\ F_{n-1} + F_{n-2}, & n \geqslant 2 \end{cases} [/math]
Доказательство:
[math]\triangleright[/math]

Докажем лемму по индукции:

при [math]n = 2[/math]

[math]F_2 = 1 + \sum\limits_{i=0}^0 F_i = 1 + 0 = 1[/math], что действительно верно.

По индукции предполагаем, что [math]F_{n-1} = 1 + \sum\limits_{i=0}^{n-3} F_i [/math]. Тогда

[math]F_n = F_{n-1} + F_{n-2} = 1 + \sum\limits_{i=0}^{n-3} F_i + F_{n-2} = 1 + \sum\limits_{i=0}^{n-2} F_i[/math]
[math]\triangleleft[/math]
Лемма:
Фибоначчиево дерево порядка [math]n[/math] содержит не менее [math]F_n[/math] вершин.
Доказательство:
[math]\triangleright[/math]

Докажем это утверждение по индукции. Пусть [math]s_n[/math] — минимальный размер фибоначчиева дерева порядка [math]n[/math].

При [math]n = 0[/math]

[math]s_0 = 1 \gt F_0[/math].

При [math]n = 1[/math]

[math]s_1 = 1 = F_1[/math].

Предположим по индукции, что для всех [math]i \lt n \ s_i \geqslant F_i[/math]. Пусть в нашем дереве удалено поддерево порядка [math]n - 1[/math]. Тогда

[math]s_n = 1 + \sum\limits_{i=0}^{n-2} s_i \geqslant 1 + \sum\limits_{i=0}^{n-2} F_i[/math]

Но по предыдущей лемме :

[math]1 + \sum\limits_{i=0}^{n-2} F_i = F_n[/math]. Следовательно, [math]s_n \geqslant F_n[/math]
[math]\triangleleft[/math]
Лемма:
[math]F_n =O(\varphi^n)[/math], где [math] \varphi = \frac {1 + \sqrt 5} {2}[/math]
Доказательство:
[math]\triangleright[/math]

Для начала докажем, что [math]F_n =[/math] [math]\frac {\varphi^n - (-\varphi)^{-n}} {\sqrt 5}[/math]

Используем для этого математическую индукцию.

При [math]n = 0[/math]

[math]F_0 =[/math] [math]\frac {\varphi^0 - (-\varphi)^0} {\sqrt 5} = \frac {1 - 1} {\sqrt 5} = 0[/math], что верно.

При [math]n = 1[/math]

[math]F_1 =[/math] [math]\frac {\varphi^1 - (-\varphi)^{-1}} {\sqrt 5} = \frac {1} {\sqrt 5}(\frac {1 + \sqrt 5} {2} - \frac {1 - \sqrt 5} {2}) = \frac {2\sqrt 5} {2\sqrt 5} = 1[/math], что также верно.

По индукции предполагаем, что [math]F_{n-1} =[/math] [math]\frac {\varphi^{n-1} - (-\varphi)^{1-n}} {\sqrt 5}[/math] и [math]F_{n-2} =[/math] [math]\frac {\varphi^{n-2} - (-\varphi)^{2-n}} {\sqrt 5}[/math]. Тогда

[math]F_n = F_{n-1} + F_{n-2} =[/math] [math]\frac {\varphi^{n-1} - (-\varphi)^{1-n}} {\sqrt 5} + \frac {\varphi^{n-2} - (-\varphi)^{2-n}} {\sqrt 5} =[/math]

[math]= \frac {1} {\sqrt 5}[/math] [math](\varphi^{n-1} - (-\varphi)^{1-n} + \varphi^{n-2} - (-\varphi)^{2-n}) [/math] [math]= \frac {1} {\sqrt 5}[/math] [math](\varphi^{n}(\varphi^{-1} + \varphi^{-2}) - (-\varphi)^{-n}(-\varphi + \varphi^{2}))[/math]

Подставив вместо [math]\varphi[/math] его значение, нетрудно убедится, что [math]\varphi^{-1} + \varphi^{-2} = -\varphi + \varphi^{2} = 1[/math]

Поскольку [math]\left\vert (-\varphi)^{-1} \right\vert \lt 1[/math], то выполняются неравенства [math]\frac {(-\varphi)^{-n}} {\sqrt 5} \lt \frac {1} {\sqrt 5} \lt \frac {1} {2}[/math]. Таким образом, [math]n[/math]-ое число Фибоначчи равно [math]\frac {\varphi^{n}} {\sqrt 5}[/math], округленному до ближайшего целого числа. Следовательно, [math]F_n =O(\varphi^n)[/math].
[math]\triangleleft[/math]


Лемма:
Максимальная степень [math]degree[/math] произвольной вершины в фибоначчиевой куче с [math]n[/math] вершинами равна [math]O(\log n)[/math]
Доказательство:
[math]\triangleright[/math]

Пусть [math]x[/math] — произвольная вершина в фибоначчиевой куче с [math]n[/math] вершинами, и пусть [math]k[/math] — степень вершины [math]x[/math]. Тогда по доказанному выше в дереве, корень которого [math]x[/math], содержится не менее [math]F_k[/math] вершин, что в свою очередь по лемме равно [math]O(\varphi^k)[/math]. То есть

[math]n \geqslant \varphi^{k}[/math]

Логарифмируя по основанию [math]\varphi[/math], получаем

[math]\log_{\varphi}n \geqslant k[/math]

Таким образом, максимальная степень [math]degree[/math] произвольной вершины равна [math]O(\log n)[/math].
[math]\triangleleft[/math]

Итоговая асимптотика операции [math]\mathrm {extraxtMin}[/math], учитывая и вспомогательную функцию [math] \mathrm {consolidate} [/math], время работы которой доказывается ниже, равно: [math] O(1)+O(degree)+O(degree)=O(degree) [/math]. По доказанной выше лемме [math]O(degree) = O(\log(n))[/math].

Учетная стоимость [math] \mathrm {consolidate} [/math] равна [math] O(degree) [/math]. Докажем это:

Изначально в корневом списке было не более [math] degree + trees - 1 [/math] вершин, поскольку он состоит из исходного списка корней с [math]trees[/math] узлами, минус извлеченный узел и плюс дочерние узлы, количество которых не превышает [math] degree [/math]. В ходе операции [math] \mathrm {consolidate} [/math] мы сделали [math] O(degree + trees) [/math] слияний деревьев. Потенциал перед извлечением минимума равен [math] trees + 2 * marked [/math], а после не превышает [math] degree + 1 + 2 * marked[/math], поскольку в корневом списке остается не более [math] degree + 1 [/math] узлов, а количество помеченных узлов не изменяется. Таким образом, амортизированная стоимость не превосходит

[math] O(degree + trees) + (degree + 1 + 2 * marked) - (trees + 2 * marked) = O(degree) + O(trees) - trees[/math]

Поскольку мы договорились, что можем масштабировать единицу потенциала таким образом, чтобы покрывать константное количество работы, то итоговая амортизационная оценка — [math] O(degree) [/math]

Уменьшение значения элемента

Докажем, что амортизированное время работы операции [math] \mathrm {decreaseKey} [/math] есть [math] O(1) [/math]. Поскольку в процедуре нет циклов, ее время работы определяется лишь количеством рекурсивных вызовов каскадного вырезания.

Пусть мы вызвали процедуру каскадного вырезания подверглось [math] k [/math] раз. Так как реальное время работы каждой итерации [math] \mathrm {cascadingCut} [/math] составляет [math] O(1) [/math], то реальное время работы операции [math] \mathrm {decreaseKey} [/math][math] O(k) [/math].

Рассмотрим, как изменится потенциал в результате выполнения данной операции. Пусть [math] H [/math] — фибоначчиева куча до вызова [math] \mathrm {decreaseKey} [/math]. Тогда после [math] k [/math] итераций операции [math] \mathrm {cascadingCut} [/math] вершин с пометкой [math] x.mark = true [/math] стало как минимум на [math] k - 2 [/math] меньше, потому что каждый вызов каскадного вырезания, за исключением последнего, уменьшает количество помеченных вершин на одну, и в результате последнего вызова одну вершину мы можем пометить. В корневом списке прибавилось [math] k [/math] новых деревьев ([math] k - 1 [/math] дерево за счет каскадного вырезания и еще одно из-за самого первого вызова операции [math] \mathrm {cut} [/math]).

В итоге, изменение потенциала составляет: [math] \Phi_i - \Phi_{i - 1} = ((trees + k) + 2 * (marked + k - 2)) - (trees + 2 * marked) = 4 - k [/math]. Следовательно, амортизированная стоимость не превышает [math] O(k) + 4 - k [/math]. Но поскольку мы можем соответствующим образом масштабировать единицы потенциала, то амортизированная стоимость операции [math] \mathrm {decreaseKey} [/math] равна [math] O(1) [/math].

Удаление элемента

Амортизированное время работы: [math] O(1) + O(degree) = O(degree) [/math].

Поскольку ранее мы показали, что [math] degree = O(\log n ) [/math], то соответствующие оценки доказаны.

Итоговая таблица

Операция Амортизированная сложность
[math]\mathrm {makeHeap}[/math] [math]O(1)[/math]
[math]\mathrm {insert}[/math] [math]O(1)[/math]
[math]\mathrm {getMin}[/math] [math]O(1)[/math]
[math]\mathrm {merge}[/math] [math]O(1)[/math]
[math]\mathrm {extractMin}[/math] [math]O(\log n )[/math]
[math]\mathrm {decreaseKey}[/math] [math]O(1)[/math]
[math]\mathrm {delete}[/math] [math]O(\log n )[/math]

Недостатки и достоинства

Недостатки:

  • Большое потребление памяти на узел(минимум 21 байт)
  • Большая константа времени работы, что делает ее малоприменимой для реальных задач
  • Некоторые операции в худшем случае могут работать за [math]O(n)[/math] времени

Достоинства:

  • Одно из лучших асимптотических времен работы для всех операций

См. также

Примечания

Источники информации