Эволюционные алгоритмы поиска эйлерова цикла в графе

Материал из Викиконспекты
Версия от 11:18, 20 июня 2012; 83.149.3.143 (обсуждение) (Операция мутации)
Перейти к: навигация, поиск

Введение

Способ нахождения эйлерова цикла, описанный в данной статье, является примером применения эволюционных алгоритмов на практике. Мы опишем вариант построения, время работы которого [math]O(m*log(m))[/math] (до недавнего времени лучшим считался результат [math]O(m^2*log(m))[/math]). При этом оптимальный (не эволюционный) алгоритм работает за [math]O(m)[/math]. Здесь и далее [math]m[/math] — количество ребер в графе.

После обзора предыдущих методов опишем представление графа, затем то, как устроена фитнес функция и операция мутации, а потом адаптируем RLS и (1+1) EA стратегии для нашего случая.

Постановка задачи

Определение:
Эйлеров цикл в графе — это цикл, проходящий по всем рёбрам графа ровно по одному разу.

Задача — для заданного графа найти такой цикл. Заметим, что это возможно тогда и только тогда, когда граф связный и степень каждой его вершины четна (для неориентированного графа).

Обзор методов

Перестановка ребер

Пусть для графа [math]G[/math] задан набор всех его ребер [math](e_1, e_2, \dots e_m)[/math]. На каждом шаге два случайно выбранных ребра меняются местами. Фитнес функция — длина максимального пути в множестве ребер. Алгорим работает за экспоненциальное от количества ребер время.

Jump-оператор

Jump-оператор работает следующим образом. Для набора ребер [math](e_1, e_2, \dots e_m)[/math] оператор [math]jump(i,j)[/math] передвигает [math]i[/math]-й элемент на позицию [math]j[/math] и циклически сдвигает ребра между позициями [math]i[/math] и [math]j[/math] влево (если [math]i \gt j[/math] то вправо) . Таким образом, набор [math](e_1, e_2, \dots e_m)[/math] превратится в [math](e_1, e_2, \dots e_{i-1}, e_{i+1}, \dots e_j, e_i, e_{j+1}, \dots e_m)[/math]. Алгоритм с использованием jump-оператора работает за [math]O(m^5)[/math], где [math]m[/math] — количество ребер в графе.

Улучшенный jump-оператор

Лучших результатов можно достичь, если использовать только операции вида [math]jump(i, 1)[/math]. Тогда время работы алгоритма будет [math]O(m^3)[/math].

Алгоритм

Представление графа

Пусть [math]G[/math] — неориентированный связный граф, [math]V[/math] — множество его вершин, [math]E[/math] — множество ребер; всего вершин [math]n[/math], а ребер [math]m[/math] . Будем хранить ребра в виде списков смежности. Пусть [math]L_v[/math] — множество вершин, соединенных с [math]v[/math] ребром, [math]L[/math] — множество всех [math]L_v[/math]. Для каждой вершины [math]v[/math] введем также множество [math]M_v[/math], хранящее в себе неупорядоченные пары вершин из [math]L_v[/math]. Обозначим через [math]M[/math] множество всех [math]M_v[/math]. Таким образом, если для всех вершин [math]v[/math] вершины из [math]L_v[/math] разбиты на пары в [math]M_v[/math], то с точностью до первого ребра на [math]G[/math] задан порядок обхода: пара [math](u,w)[/math] в [math]L_v[/math] означает, что придя из [math]u[/math] далее нужно идти в [math]w[/math] (или наоборот).

Фитнес функция

Фитнес функция для эволюционного алгоритма поиска эйлерова цикла в графе выглядит так:

[math]f(M) = m - |M| + k[/math], где

[math]m[/math] — количество ребер в графе;

[math]|M|[/math] — размер множества [math]M[/math];

[math]k[/math] — количество путей в [math]M[/math].

Операция мутации

Операция мутации вводится для двух вершин [math]u[/math] и [math]w[/math] из [math]L_v[/math]. Как их выбрать описано в Эволюционные алгоритмы поиска эйлерова цикла в графе#Выбор вершин для мутации следующем разделе. Происходит она так:

  • если [math]u=w[/math], то ничего не делаем;
  • если для [math]u[/math] и для [math]w[/math] нет пары, то добавляем к [math]M_v[/math] пару [math](u,w)[/math];
  • если [math]u[/math] и [math]w[/math] уже содержатся в [math]M_v[/math] как пара, то удалим ее;
  • если [math]u[/math] уже добавлена в паре с некоторой вершиной [math]p[/math], а [math]w[/math] не имеет пары, то удалим [math](u,p)[/math] из [math]M_v[/math] и добавим [math](u,w)[/math];
  • если [math]w[/math] уже добавлена в паре с некоторой вершиной [math]p[/math], а [math]u[/math] не имеет пары, то удалим [math](w,p)[/math] из [math]M_v[/math] и добавим [math](u,w)[/math];
  • если [math]u[/math] уже добавлена в паре с некоторой вершиной [math]p[/math], а [math]w[/math] уже добавлена в паре с некоторой [math]k[/math], то удалим [math](u,p)[/math] и [math](w,k)[/math] из [math]M_v[/math] и добавим [math](u,w)[/math] и [math](p,k)[/math];

Выбор вершин для мутации

Пусть [math]d(v)[/math] — степень вершины [math]v[/math] (количество ребер, которые из нее выходят), [math]d(G)[/math] — средняя степень среди вершин [math]G[/math], [math]\Delta G[/math] — максимальная степень среди вершин [math]G[/math], а [math]\delta d(G) = \frac{1} {2m} \sum_{v \in V}d(v)^2[/math]. Есть три способа выбрать две вершины для мутации.

Ориентированный на вершины

Сначала случайно выбираем [math]v[/math] из [math]V[/math]. Затем случайно и независимо выбираем [math]u[/math] и [math]w[/math] из [math]L_v[/math]. Вероятность [math]p[/math] выбрать пару [math](u,w)[/math] в [math]L_v[/math] удовлетворяет соотношению:

[math]p = \frac{1} {d(v)^2n} = \frac{d(G)} {2d(v)^2m} \ge \frac{d(G)} {2 \Delta (G)^2m}[/math]

Ориентированный на ребра

Выбираем случайно вершину [math]u[/math] из всех [math]2m[/math] вершин во всех списках [math]L[/math]. Пусть она оказалась в [math]L_v[/math]. Далее случайно выбираем [math]w[/math] из [math]L_v[/math]. Вероятность [math]p[/math] выбрать пару [math](u,w)[/math] в [math]L_v[/math] удовлетворяет соотношению:

[math]p = \frac{1} {2d(v)m} \ge \frac{1} {2 \Delta (G)m}[/math]

Ориентированный на пары вершин

Выбираем случайно пару [math](u,w)[/math] из всех пар для всех [math]2m[/math] вершин во всех списках в [math]L[/math]. Пусть обе вершины присутствуют в [math]L_v[/math]. Тогда вероятность [math]p[/math] выбрать пару [math](u,w)[/math] в [math]L_v[/math] удовлетворяет соотношению:

[math]p = \frac{1} {2\delta d(G)m} [/math]

Эти три случая эквивалентны в случае разреженного графа (в котором [math]d(G) = \delta d(G) = \Delta (G)[/math]). В общем случае [math]d(G) \le \delta d(G) \le \Delta (G)[/math] и лучший результат достигается для способа, который ориентирован на вершины.

Стратегии RLS и (1+1) EA

Эволюционный алгоритм поиска эйлерова цикла в графе работает следующим образом. Размер популяции возьмем равным одному; представление графа, операция мутации и фитнес функция будут такими, как описано выше. Начальное заполнение множества [math]M[/math] можно сделать случаным образом или оставить пустым, на время работы алгоритма это не влияет.

Стратегия Randomized local search будет работать так: на каждом шаге к текущему индивиду (он один, так как в популяции только одна особь) применяется операция мутации. Если полученный индивид лучше текущего, он выбирается для дальнейшей работы, в противном случае ничего не происходит. Алгоритм работает до тех пор, пока фитнес функция не минимизирована.

Псевдокод:

 Initialize(M)
 while (f(M) > 1) do
     M′:=φ(M) 
     if f(M′) ≤ f(M) 
         then M := M′

Стратегия (1+1) evolutionary algorithm в классическом варианте применяет операцию мутации к каждому биту [math]n[/math]-битной строки с вероятностью [math] \frac{1} {n}[/math]. В текущем алгоритме применять изменения можно только последовательно, поэтому просто делают операцию мутации несколько раз.

Псевдокод:

 Initialize(M) 
 while (f(M) > 1) do
     M′ :=M 
     for i := 0 to k do //k — некоторое число
         M′ := φ(M′) 
     if f(M′) ≤ f(M) 
         then M := M′

Время работы алгоритма

Для RLS и (1+1) EA верны следующие оценки времени работы алгоритма:

[math]O(\frac{\Delta(G)^2} {d(G)}*m*log(m))[/math] для стратегии, ориентированной на вершины;

[math]O(\Delta(G)*m*log(m))[/math] для стратегии, ориентированной на ребра;

[math]O(\delta d(G)*m*log(m))[/math] для стратегии, ориентированной на пары.