Задача о расстоянии Дамерау-Левенштейна — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
Строка 2: Строка 2:
 
|definition=
 
|definition=
 
'''Расстояние Дамерау {{---}} Левенштейна''' (Damerau {{---}} Levenshtein distance) между двумя строками, состоящими из конечного числа символов {{---}} это минимальное число операций вставки, удаления, замены одного символа и транспозиции двух соседних символов, необходимых для перевода одной строки в другую.}}
 
'''Расстояние Дамерау {{---}} Левенштейна''' (Damerau {{---}} Levenshtein distance) между двумя строками, состоящими из конечного числа символов {{---}} это минимальное число операций вставки, удаления, замены одного символа и транспозиции двух соседних символов, необходимых для перевода одной строки в другую.}}
Является модификацией [[Задача о редакционном расстоянии, алгоритм Левенштейна| расстояния Левенштейна]], отличается от него добавлением операции перестановки.
+
Является модификацией [[Задача о редакционном расстоянии, алгоритм Вагнера-Фишера|расстояния Левенштейна]], отличается от него добавлением операции перестановки.
  
 
Расстояние Дамерау {{---}} Левенштейна является метрикой. (Предполагаем, что цены операций таковы, что выполнено правило треугольника: если две последовательные операции можно заменить одной, то это не ухудшает общую цену.)
 
Расстояние Дамерау {{---}} Левенштейна является метрикой. (Предполагаем, что цены операций таковы, что выполнено правило треугольника: если две последовательные операции можно заменить одной, то это не ухудшает общую цену.)
Строка 8: Строка 8:
  
 
==Практическое применение==
 
==Практическое применение==
Расстояние Дамерау {{---}} Левенштейна, как и метрика [http://ru.wikipedia.org/wiki/Левенштейн,_Владимир,_Иосифович Левенштейна], является мерой "схожести" двух строк. Алгоритм его поиска находит применение в реализации нечёткого поиска, а также в биоинформатике (сравнение ДНК), несмотря на то, что изначально алгоритм разрабатывался для сравнения текстов, набранных человеком ([http://en.wikipedia.org/wiki/Frederick_J._Damerau Дамерау] показал, что 80% человеческих ошибок при наборе текстов составляют перестановки соседних символов, пропуск символа, добавление нового символа, и ошибка в символе. Поэтому метрика Дамерау {{---}} Левенштейна часто используется в редакторских программах для проверки правописания).   
+
Расстояние Дамерау {{---}} Левенштейна, как и метрика [http://ru.wikipedia.org/wiki/Левенштейн,_Владимир_Иосифович Левенштейна], является мерой "схожести" двух строк. Алгоритм его поиска находит применение в реализации нечёткого поиска, а также в биоинформатике (сравнение ДНК), несмотря на то, что изначально алгоритм разрабатывался для сравнения текстов, набранных человеком ([http://en.wikipedia.org/wiki/Frederick_J._Damerau Дамерау] показал, что 80% человеческих ошибок при наборе текстов составляют перестановки соседних символов, пропуск символа, добавление нового символа, и ошибка в символе. Поэтому метрика Дамерау {{---}} Левенштейна часто используется в редакторских программах для проверки правописания).   
  
 
==Упрощённый алгоритм==
 
==Упрощённый алгоритм==
 +
Здесь и далее будем использовать следующие обозначения: <tex>S</tex> и <tex>T</tex> {{---}} строки, между которыми требуется найти расстояние Дамерау {{---}} Левенштейна; <tex>M</tex> и <tex>N</tex> {{---}} их длины соответственно.
 +
 
Рассмотрим алгоритм, отличающийся от алгоритма поиска расстояния Левенштейна одной проверкой (храним матрицу <tex>D</tex>, где <tex>D(i, j)</tex> — расстояние между префиксами строк: первыми i символами строки <tex>S</tex> и первыми j символами строки <tex>T</tex>). Рекуррентное соотношение имеет вид:
 
Рассмотрим алгоритм, отличающийся от алгоритма поиска расстояния Левенштейна одной проверкой (храним матрицу <tex>D</tex>, где <tex>D(i, j)</tex> — расстояние между префиксами строк: первыми i символами строки <tex>S</tex> и первыми j символами строки <tex>T</tex>). Рекуррентное соотношение имеет вид:
  
<tex> D(S, T) = D(M,N)</tex> , где
+
Ответ на задачу {{---}} <tex>D(M,N)</tex> , где
  
 
<tex>A = \left\{\begin{array}{llcl}
 
<tex>A = \left\{\begin{array}{llcl}
Строка 28: Строка 30:
 
</tex>
 
</tex>
 
<tex>D(i, j) = \left\{\begin{array}{llcl}
 
<tex>D(i, j) = \left\{\begin{array}{llcl}
min(A, D(i - 2, j - 2) + transpositionCost)&&;&i > 1,\ j > 1,\ S[i] = T[j-1],\ S[i-1] = T[j])\\
+
min(A, D(i - 2, j - 2) + transposeCost)&&;&i > 1,\ j > 1,\ S[i] = T[j-1],\ S[i-1] = T[j]\\
A&&; \text{иначе}\\
+
A&&;\text{otherwise}\\
 
\end{array}\right.
 
\end{array}\right.
 
</tex>
 
</tex>
Строка 39: Строка 41:
  
 
  '''int''' DamerauLevenshteinDistance('''char''' S[1..m], '''char''' T[1..n])
 
  '''int''' DamerauLevenshteinDistance('''char''' S[1..m], '''char''' T[1..n])
     '''declare''' '''int''' d[0..m, 0..n]
+
     '''int''' d[0..m, 0..n]
     '''declare''' '''int''' i, j, cost
+
     '''int''' i, j, cost
 
        
 
        
 
     ''// База динамики''
 
     ''// База динамики''
Строка 55: Строка 57:
 
            
 
            
 
           d[i, j] = minimum(
 
           d[i, j] = minimum(
                               d[i-1, j  ] + 1,                   ''// удаление''
+
                               d[i-1, j  ] + deleteCost,           ''// удаление''
                               d[i  , j-1] + 1,                   ''// вставка''
+
                               d[i  , j-1] + insertCost,           ''// вставка''
                               d[i-1, j-1] + cost                  ''// замена''
+
                               d[i-1, j-1] + replaceCost          ''// замена''
 
                           )
 
                           )
 
           '''if'''(i > 1 '''and''' j > 1  
 
           '''if'''(i > 1 '''and''' j > 1  
Строка 64: Строка 66:
 
               d[i, j] = minimum(
 
               d[i, j] = minimum(
 
                                   d[i, j],
 
                                   d[i, j],
                                   d[i-2, j-2] + costTransposition ''// транспозиция''
+
                                   d[i-2, j-2] + transposeCost ''// транспозиция''
 
                               )
 
                               )
 
      
 
      
Строка 74: Строка 76:
  
 
==Алгоритм==
 
==Алгоритм==
 +
В интересах краткости положим <tex>insertCost = deleteCost = replaceCost = transposeCost = 1</tex>. При иной формулировке задачи формулы легко обобщаются на любой случай.
 +
 
Сложность алгоритма: <tex>O\left (m \cdot n \cdot \max(m, n) \right )</tex>. Затраты памяти: <tex>O\left (M \cdot N \right)</tex>. Однако скорость работы алгоритма может быть улучшена до <tex>O\left (M \cdot N \right)</tex>.
 
Сложность алгоритма: <tex>O\left (m \cdot n \cdot \max(m, n) \right )</tex>. Затраты памяти: <tex>O\left (M \cdot N \right)</tex>. Однако скорость работы алгоритма может быть улучшена до <tex>O\left (M \cdot N \right)</tex>.
  
Строка 93: Строка 97:
 
Тогда если на очередной итерации внутреннего цикла положить: <tex>i1 = sd[T[j]],\ j1 = DB</tex>, то
 
Тогда если на очередной итерации внутреннего цикла положить: <tex>i1 = sd[T[j]],\ j1 = DB</tex>, то
  
<tex>D(i, j) = min(A, D(i1, j1) + (i - i1 - 1) + 1 + (j - j1 - 1)) (*)</tex>
+
<tex>D(i, j) = min(A, D(i1, j1) + (i - i1 - 1) + 1 + (j - j1 - 1))</tex>                        <tex>(*)</tex>
  
 
, где
 
, где
Строка 103: Строка 107:
 
D(i - 1, j - 1)&&;&S[i] = T[j]\\
 
D(i - 1, j - 1)&&;&S[i] = T[j]\\
 
\rm{min}(\\
 
\rm{min}(\\
&D(i, j - 1) + insertCost\\
+
&D(i, j - 1) + 1\\
&D(i - 1, j) + deleteCost&;&j > 0,\ i > 0,\ S[i] \ne T[j]\\
+
&D(i - 1, j) + 1&;&j > 0,\ i > 0,\ S[i] \ne T[j]\\
&D(i - 1, j - 1) + replaceCost\\
+
&D(i - 1, j - 1) + 1\\
 
)
 
)
 
\end{array}\right.
 
\end{array}\right.
 
</tex>
 
</tex>
  
Доказательства требует лишь утверждение <tex>(*)</tex>, так как остальные формулы обосновываются так же, как и в доказательстве [[Задача о редакционном расстоянии, алгоритм Вагнера-Фишера|алгоритма Вагнера {{---}} Фишера]]. Но действительно, при редактировании подпоследовательности несколько раз всегда существует оптимальная последовательность операций одного из двух видов:
+
Доказательства требует лишь формула <tex>(*)</tex>, смысл которой {{---}} сравнение стоимости перехода без использования транспозиции (<tex>A</tex>) со стоимостью перехода, включающего в число операций транспозицию; остальные формулы обосновываются так же, как и в доказательстве [[Задача о редакционном расстоянии, алгоритм Вагнера-Фишера|алгоритма Вагнера {{---}} Фишера]]. Но действительно, при редактировании подпоследовательности несколько раз всегда существует оптимальная последовательность операций одного из двух видов:
 
*Переставить местами соседние символы, затем вставить некоторое количество символов между ними;
 
*Переставить местами соседние символы, затем вставить некоторое количество символов между ними;
 
*Удалить некоторое количество символов, а затем переставить местами символы, ставшие соседними.
 
*Удалить некоторое количество символов, а затем переставить местами символы, ставшие соседними.
  
Тогда если символ <tex>S[i]</tex> встречался в <tex>T</tex> на позиции <tex>j1</tex>, а символ <tex>T[j]</tex> встречался в <tex>S</tex> на позиции <tex>i1</tex>; то <tex>T</tex> может быть получена из <tex>S</tex> удалением символов <tex>S[i1 + 1]..S[i - 1]</tex>, транспозицией ставших соседними <tex>S[i1]</tex> и <tex>S[i]</tex> и вставкой символов <tex>T[j1 + 1]..T[j - 1]</tex>. Суммарно на это будет затрачено <tex>D(i1, j1) + (i - i1 - 1) + 1 + (j - j1 - 1)</tex> операций. Следовательно выражение с условием <tex>(*)</tex> выбирает оптимальную последовательность операций, рассматривая случай с транспозицией и без неё.
+
Тогда если символ <tex>S[i]</tex> встречался в <tex>T[1]..T[j]</tex> на позиции <tex>j1</tex>, а символ <tex>T[j]</tex> встречался в <tex>S[1]..S[i]</tex> на позиции <tex>i1</tex>; то <tex>T[1]..T[j]</tex> может быть получена из <tex>S[1]..S[i]</tex> удалением символов <tex>S[i1 + 1]..S[i - 1]</tex>, транспозицией ставших соседними <tex>S[i1]</tex> и <tex>S[i]</tex> и вставкой символов <tex>T[j1 + 1]..T[j - 1]</tex>. Суммарно на это будет затрачено <tex>D(i1, j1) + (i - i1 - 1) + 1 + (j - j1 - 1)</tex> операций, что описано в <tex>(*)</tex>. Поэтому мы выбирали оптимальную последовательность операций, рассматрев случай с транспозицией и без неё.
 
   
 
   
 
Псевдокод алгоритма:
 
Псевдокод алгоритма:
Строка 127: Строка 131:
 
     '''else''' '''if''' (T == "") '''then'''
 
     '''else''' '''if''' (T == "") '''then'''
 
       '''return''' m
 
       '''return''' m
     '''declare''' '''int''' D[0..m + 1, 0..n + 1]          ''// Динамика''
+
     '''int''' D[0..m + 1, 0..n + 1]          ''// Динамика''
     '''declare''' '''int''' INF = m + n                    ''// Большая константа''
+
     '''int''' INF = m + n                    ''// Большая константа''
 
      
 
      
 
     ''// База индукции''
 
     ''// База индукции''
Строка 139: Строка 143:
 
       D[0, j + 1] = INF
 
       D[0, j + 1] = INF
 
      
 
      
     '''declare''' sd[0..количество различных символов в S и T]
+
     '''int''' sd[0..количество различных символов в S и T]
 
     ''//для каждого элемента C алфавита задано значение sd[C]''  
 
     ''//для каждого элемента C алфавита задано значение sd[C]''  
 
      
 
      
Строка 148: Строка 152:
 
      
 
      
 
     '''for''' i '''from''' 1 '''to''' m
 
     '''for''' i '''from''' 1 '''to''' m
       '''declare''' '''int''' DB = 0
+
       '''int''' DB = 0
 
       '''for''' j '''from''' 1 '''to''' n
 
       '''for''' j '''from''' 1 '''to''' n
           '''declare''' '''int''' i1 = sd[T[j]]
+
           '''int''' i1 = sd[T[j]]
           '''declare''' '''int''' j1 = DB
+
           '''int''' j1 = DB
 
           '''if''' S[i] == T[j] '''then'''
 
           '''if''' S[i] == T[j] '''then'''
 
             D[i + 1, j + 1] = D[i, j]
 
             D[i + 1, j + 1] = D[i, j]

Версия 02:14, 24 февраля 2012

Определение:
Расстояние Дамерау — Левенштейна (Damerau — Levenshtein distance) между двумя строками, состоящими из конечного числа символов — это минимальное число операций вставки, удаления, замены одного символа и транспозиции двух соседних символов, необходимых для перевода одной строки в другую.

Является модификацией расстояния Левенштейна, отличается от него добавлением операции перестановки.

Расстояние Дамерау — Левенштейна является метрикой. (Предполагаем, что цены операций таковы, что выполнено правило треугольника: если две последовательные операции можно заменить одной, то это не ухудшает общую цену.)


Практическое применение

Расстояние Дамерау — Левенштейна, как и метрика Левенштейна, является мерой "схожести" двух строк. Алгоритм его поиска находит применение в реализации нечёткого поиска, а также в биоинформатике (сравнение ДНК), несмотря на то, что изначально алгоритм разрабатывался для сравнения текстов, набранных человеком (Дамерау показал, что 80% человеческих ошибок при наборе текстов составляют перестановки соседних символов, пропуск символа, добавление нового символа, и ошибка в символе. Поэтому метрика Дамерау — Левенштейна часто используется в редакторских программах для проверки правописания).

Упрощённый алгоритм

Здесь и далее будем использовать следующие обозначения: [math]S[/math] и [math]T[/math] — строки, между которыми требуется найти расстояние Дамерау — Левенштейна; [math]M[/math] и [math]N[/math] — их длины соответственно.

Рассмотрим алгоритм, отличающийся от алгоритма поиска расстояния Левенштейна одной проверкой (храним матрицу [math]D[/math], где [math]D(i, j)[/math] — расстояние между префиксами строк: первыми i символами строки [math]S[/math] и первыми j символами строки [math]T[/math]). Рекуррентное соотношение имеет вид:

Ответ на задачу — [math]D(M,N)[/math] , где

[math]A = \left\{\begin{array}{llcl} 0&&;&i = 0,\ j = 0\\ i&&;&j = 0,\ i \gt 0\\ j&&;&i = 0,\ j \gt 0\\ D(i - 1, j - 1)&&;&S[i] = T[j]\\ \rm{min}(\\ &D(i, j - 1) + insertCost\\ &D(i - 1, j) + deleteCost&;&j \gt 0,\ i \gt 0,\ S[i] \ne T[j]\\ &D(i - 1, j - 1) + replaceCost\\ ) \end{array}\right. [/math] [math]D(i, j) = \left\{\begin{array}{llcl} min(A, D(i - 2, j - 2) + transposeCost)&&;&i \gt 1,\ j \gt 1,\ S[i] = T[j-1],\ S[i-1] = T[j]\\ A&&;\text{otherwise}\\ \end{array}\right. [/math]

Таким образом для получения ответа необходимо заполнить матрицу D, пользуясь рекуррентным соотношением. Сложность алгоритма: [math]O\left (m \cdot n \right )[/math]. Затраты памяти: [math]O\left (M \cdot N \right)[/math].

Псевдокод алгоритма:

int DamerauLevenshteinDistance(char S[1..m], char T[1..n])
   int d[0..m, 0..n]
   int i, j, cost
     
   // База динамики
   for i from 0 to m
      d[i, 0] = i
   for j from 1 to n
      d[0, j] = j
    
   for i from 1 to m
      for j from 1 to n           
         // Стоимость замены
         if S[i] == T[j] then cost = 0
            else cost = 1
          
         d[i, j] = minimum(
                              d[i-1, j  ] + deleteCost,           // удаление
                              d[i  , j-1] + insertCost,           // вставка
                              d[i-1, j-1] + replaceCost           // замена
                          )
          if(i > 1 and j > 1 
                   and S[i] == T[j-1] 
                   and S[i-1] == T[j]) then
             d[i, j] = minimum(
                                  d[i, j],
                                  d[i-2, j-2] + transposeCost // транспозиция
                              )
    
   return d[m, n]

Контрпример: [math]S =[/math] [math]'CA'[/math] и [math]T =[/math] [math]'ABC'[/math]. Расстояние Дамерау — Левенштейна между строками равно 2 ([math]CA \rightarrow AC \rightarrow ABC[/math]), однако функция приведённая выше возвратит 3. Дело в том, что использование этого упрощённого алгоритма накладывает ограничение: любая подстрока может быть редактирована не более одного раза. Поэтому переход [math]AC \rightarrow ABC[/math] невозможен, и последовательность действий такая: ([math]CA \rightarrow A \rightarrow AB \rightarrow ABC[/math]).

Условие многих практических задач не предполагает многократного редактирования подстрок, поэтому часто достаточно упрощённого алгоритма. Ниже представлен более сложный алгоритм, который корректно решает задачу поиска расстояния Дамерау — Левенштейна.

Алгоритм

В интересах краткости положим [math]insertCost = deleteCost = replaceCost = transposeCost = 1[/math]. При иной формулировке задачи формулы легко обобщаются на любой случай.

Сложность алгоритма: [math]O\left (m \cdot n \cdot \max(m, n) \right )[/math]. Затраты памяти: [math]O\left (M \cdot N \right)[/math]. Однако скорость работы алгоритма может быть улучшена до [math]O\left (M \cdot N \right)[/math].

В основу алгоритма положена идея динамического программирования по префиксу. Будем хранить матрицу [math]D[0..m + 1][0..n + 1][/math], где [math]D[i + 1][j + 1][/math] — расстояние Дамерау — Левенштейна между префиксами строк [math]S[/math] и [math]T[/math], длины префиксов — [math]i[/math] и [math]j[/math] соответственно.

Будем заполнять матрицу следующим образом, используя рекуррентное соотношение, описанное ниже:

for i from 0 to m
   for j from 0 to n
      вычислить D(i, j);
return D(m, n);

Для учёта транспозиции потребуется хранение следующей информации. Инвариант:

[math]sd[x][/math] — индекс последнего вхождения [math]x[/math] в [math]S[/math]

[math]DB[/math] — на i-й итерации внешнего цикла индекс последнего символа [math]T: T[DB] = S[i][/math]

Тогда если на очередной итерации внутреннего цикла положить: [math]i1 = sd[T[j]],\ j1 = DB[/math], то

[math]D(i, j) = min(A, D(i1, j1) + (i - i1 - 1) + 1 + (j - j1 - 1))[/math] [math](*)[/math]

, где

[math]A = \left\{\begin{array}{llcl} 0&&;&i = 0,\ j = 0\\ i&&;&j = 0,\ i \gt 0\\ j&&;&i = 0,\ j \gt 0\\ D(i - 1, j - 1)&&;&S[i] = T[j]\\ \rm{min}(\\ &D(i, j - 1) + 1\\ &D(i - 1, j) + 1&;&j \gt 0,\ i \gt 0,\ S[i] \ne T[j]\\ &D(i - 1, j - 1) + 1\\ ) \end{array}\right. [/math]

Доказательства требует лишь формула [math](*)[/math], смысл которой — сравнение стоимости перехода без использования транспозиции ([math]A[/math]) со стоимостью перехода, включающего в число операций транспозицию; остальные формулы обосновываются так же, как и в доказательстве алгоритма Вагнера — Фишера. Но действительно, при редактировании подпоследовательности несколько раз всегда существует оптимальная последовательность операций одного из двух видов:

  • Переставить местами соседние символы, затем вставить некоторое количество символов между ними;
  • Удалить некоторое количество символов, а затем переставить местами символы, ставшие соседними.

Тогда если символ [math]S[i][/math] встречался в [math]T[1]..T[j][/math] на позиции [math]j1[/math], а символ [math]T[j][/math] встречался в [math]S[1]..S[i][/math] на позиции [math]i1[/math]; то [math]T[1]..T[j][/math] может быть получена из [math]S[1]..S[i][/math] удалением символов [math]S[i1 + 1]..S[i - 1][/math], транспозицией ставших соседними [math]S[i1][/math] и [math]S[i][/math] и вставкой символов [math]T[j1 + 1]..T[j - 1][/math]. Суммарно на это будет затрачено [math]D(i1, j1) + (i - i1 - 1) + 1 + (j - j1 - 1)[/math] операций, что описано в [math](*)[/math]. Поэтому мы выбирали оптимальную последовательность операций, рассматрев случай с транспозицией и без неё.

Псевдокод алгоритма:

int DamerauLevenshteinDistance(char S[1..m], char T[1..n])
   // Обработка крайних случаев
   if (S == "") then
      if (T == "") then
         return 0
      else
         return n
   else if (T == "") then
      return m
   int D[0..m + 1, 0..n + 1]          // Динамика
   int INF = m + n                    // Большая константа
    
   // База индукции
   D[0, 0] = INF;
   for i from 0 to m
      D[i + 1, 1] = i
      D[i + 1, 0] = INF
   for j from 0 to n
      D[1, j + 1] = j
      D[0, j + 1] = INF
    
   int sd[0..количество различных символов в S и T]
   //для каждого элемента C алфавита задано значение sd[C] 
    
   foreach (char Letter in (S + T))
      if Letter не содержится в sd
         добавить Letter в sd
         sd[Letter] = 0
    
   for i from 1 to m
      int DB = 0
      for j from 1 to n
         int i1 = sd[T[j]]
         int j1 = DB
         if S[i] == T[j] then
            D[i + 1, j + 1] = D[i, j]
            DB = j
         else
            D[i + 1, j + 1] = minimum(D[i, j], D[i + 1, j], D[i, j + 1]) + 1
         D[i + 1, j + 1] = minimum(D[i + 1, j + 1], D[i1, j1] + (i - i1 - 1) + 1 + (j - j1 - 1))
      sd[S[i]] = i
     
   return D[m + 1, n + 1]

См. также

Cсылки