Дискретная математика2:Тикеты — различия между версиями

Материал из Викиконспекты
Перейти к: навигация, поиск
(5 Автоматы и регулярные языки)
(Нормальные формы КС-грамматик)
 
(не показаны 4 промежуточные версии этого же участника)
Строка 2: Строка 2:
  
 
=== 1 Базовые определения ===
 
=== 1 Базовые определения ===
# взяли [[Вероятностное пространство, элементарный исход, событие]] 0.5
+
# [[Вероятностное пространство, элементарный исход, событие]]  
## заменить .. на \ldots
+
# [[Независимые события]]  
# взяли [[Независимые события]] 1
+
# [[Условная вероятность]]  
## заменить ... на \ldots
+
# [[Дискретная случайная величина]]  
## Сделать умножение везде одинаковым
+
# [[Независимые случайные величины]]  
## Добавить см также
 
# взяли [[Условная вероятность]] 0,5
 
## заменить т.к. на так как
 
# взяли [[Дискретная случайная величина]] 2
 
## Добавить примеров
 
# взяли [[Независимые случайные величины]] 1
 
## поправить тех
 
## Добавить см также
 
## Убрать из примечания ссылку на внутренний конспект, сделать интервик
 
 
# [[Математическое ожидание случайной величины]] 1.5
 
# [[Математическое ожидание случайной величины]] 1.5
 
## "E(ξ)=∑i=1nE(ξi)=1n" что-то пошло не так
 
## "E(ξ)=∑i=1nE(ξi)=1n" что-то пошло не так
 
## сделать умножение везде одинаковым
 
## сделать умножение везде одинаковым
# взяли [[Ковариация случайных величин]] 0.5
+
# [[Ковариация случайных величин]]  
## сделать умножение везде одинаковым
+
# [[Корреляция случайных величин]]  
# взяли [[Корреляция случайных величин]] 0.5
 
## Все цифры в тех
 
## заменить т.е. на то есть
 
  
 
=== 2 Формулы расчёта вероятности ===
 
=== 2 Формулы расчёта вероятности ===
 
# [[Формула полной вероятности]]
 
# [[Формула полной вероятности]]
# взяли [[Формула Байеса]] 0.5
+
# [[Формула Байеса]]
## Поправить тех
 
 
# [[Дисперсия случайной величины]]
 
# [[Дисперсия случайной величины]]
# взяли [[Неравенство Маркова]] 0.5
+
# [[Неравенство Маркова]]  
## формулы и переменные взять в tex
+
# [[Энтропия случайного источника]]  
## странный первый пример, он не подходит к условию теоремы
+
# [[Симуляция одним распределением другого]]
# взяли [[Энтропия случайного источника]] 0.5
+
# [[Арифметическое кодирование]]  
## Сделать все дроби через \dfrac
+
# [[Парадоксы теории вероятностей]]<tex>^\star</tex>
# взяли [[Симуляция одним распределением другого]] 8
+
# [[Схема Бернулли]]<tex>^\star</tex>
## так и нет нормального определения распределения
 
## список примеров распределений есть, а самих распределений нет; надо дать описание и кинуть формулы
 
## издания и страницы в источниках информации
 
## Англоязычные термины
 
## Исправить знаки неравенств
 
## Зачем-то формулы написаны по центру
 
## Картинки в общем случае криво расположены
 
## Вывод оформить правильно
 
## Увеличить дроби
 
## Определения в шаблон
 
## Увеличить картинки
 
# взяли [[Арифметическое кодирование]] 0.5
 
## Поправить псевдокод
 
## Поправить тех
 
# взяли [[Парадоксы теории вероятностей]]<tex>^\star</tex> 0.5
 
## Добавить См. также
 
## Поправить тех
 
# взяли [[Схема Бернулли]]<tex>^\star</tex> 0.5
 
## Поправить тех
 
## Сделать умножение везде одинаковым
 
  
 
== Марковские цепи ==
 
== Марковские цепи ==
  
 
=== 3 Основные определения и свойства ===
 
=== 3 Основные определения и свойства ===
# взяли [[Марковская цепь]] (6)
+
# [[Марковская цепь]]  
## два раза встречается определение поглощающего состояния (второе определение эквивалентно первому)
+
# [[Теорема о поглощении]]
## сделать подраздел "циклические классы"
+
# [[Фундаментальная матрица]]
## "для i и j, принадлежащих одному классу эквивалентности" -- классу эквиволентности по какому отношению?
+
# [[Математическое ожидание времени поглощения]]  
## Интервики на графы
+
# [[Расчет вероятности поглощения в состоянии]] (5)
## Англоязычные термины правильно оформить
 
## Оформить правильно источники информации
 
# взяли [[Теорема о поглощении]] (6)
 
## определение поглощающего состояния есть в предыдущем конспекте, его не надо приводить еще раз, сделать внутреннюю ссылку.
 
## max -> \max
 
## в конце какая-то муть. Расписать рассуждения чуть подробнее
 
## Заменить дефисы на тире
 
## А что такое непоглощающая матрица?
 
## Источники информации
 
# взяли [[Фундаментальная матрица]] (5)
 
## написать что-то нормальное про то, зачем вообще нужна эта матрица. Сделать ссылки туда, где она применяется.
 
## не сразу понятно, что такое «матрица переходов между непоглощающимися состояниями»
 
## получше оформить источник, добавить страницу, сделать ссылку на русскую/английскую вики, если есть
 
## Англоязычные термины
 
## Определения выделить жирным
 
## Дефисы на тире, переменные в Tex
 
# взяли [[Математическое ожидание времени поглощения]] (2)
 
## не везде переменные обернуты в латех
 
## Оформить правильно Источники информации
 
## Добавить См. также
 
## Пояснить подробней переходы
 
# взяли [[Расчет вероятности поглощения в состоянии]] (5)
 
 
## куча разного псевдокода, не относящегося непосредственно к расчету вероятности поглощения, его надо разнести в соответствующие конспекты. Писать код нахождения обратной матрицы вообще не осмысленно и к делу не относится.
 
## куча разного псевдокода, не относящегося непосредственно к расчету вероятности поглощения, его надо разнести в соответствующие конспекты. Писать код нахождения обратной матрицы вообще не осмысленно и к делу не относится.
 
## имена переменных из псевдокода в тексте оборачиваются в \mathtt
 
## имена переменных из псевдокода в тексте оборачиваются в \mathtt
Строка 92: Строка 37:
 
## оформить нормально источник
 
## оформить нормально источник
 
## Заголовки первого уровня убрать
 
## Заголовки первого уровня убрать
# взяли [[Эргодическая марковская цепь]] 1
+
# [[Эргодическая марковская цепь]]  
## Английские термины
+
# [[Регулярная марковская цепь]]  
## Поправить тех
+
# [[Примеры использования Марковских цепей]]  
## т.е. -> то есть
 
# взяли [[Регулярная марковская цепь]] 0.5
 
## Убрать ч.т.д
 
## т.е. -> то есть
 
# взяли [[Примеры использования Марковских цепей]] (1)
 
## Поправить Tex
 
## Добавить см. также
 
## Интервики
 
 
# [[Скрытые Марковские модели]]<tex>^\star</tex>
 
# [[Скрытые Марковские модели]]<tex>^\star</tex>
  
 
=== 4 Алгоритмы на марковских цепях ===
 
=== 4 Алгоритмы на марковских цепях ===
# взяли [[Алгоритм Витерби]]<tex>^\star</tex> (5)
+
# [[Алгоритм Витерби]]<tex>^\star</tex>  
## "правдоподобная последовательность скрытых состояний" {{---}} что такое "наиболее правдоподобная"?
+
# [[Алгоритм "Вперед-Назад"]]<tex>^\star</tex>  
## имена переменных в тексте оборачиваются в \mathrm или \mathtt
+
# [[Алгоритм Баума-Велша]]<tex>^\star</tex>
## а \pi что такое?
 
## Отформатировать псевдокод
 
## Англоязычные термины
 
## Заменить ссылки на источники информации
 
# взяли [[Алгоритм "Вперед-Назад"]]<tex>^\star</tex> 2
 
## Отформатировать псевдокод
 
## Заменить литературу на источники информации
 
## Оформить по правилам
 
## Поправить тех
 
# взяли [[Алгоритм Баума-Велша]]<tex>^\star</tex> 0,5
 
## Поправить тех
 
  
 
== 5 Автоматы и регулярные языки ==
 
== 5 Автоматы и регулярные языки ==
Строка 182: Строка 108:
 
</li><li>[[Устранение левой рекурсии]]
 
</li><li>[[Устранение левой рекурсии]]
 
</li><li>[[Приведение грамматики к ослабленной нормальной форме Грейбах]]
 
</li><li>[[Приведение грамматики к ослабленной нормальной форме Грейбах]]
</li><li>взяли [[Нормальная форма Куроды]]<tex> ^\star </tex> 0.5
+
</li><li>[[Нормальная форма Куроды]]<tex> ^\star </tex>  
# Поправить тех
 
 
</li>
 
</li>
  

Текущая версия на 22:34, 8 марта 2019

Теория вероятностей:Тикеты

1 Базовые определения

  1. Вероятностное пространство, элементарный исход, событие
  2. Независимые события
  3. Условная вероятность
  4. Дискретная случайная величина
  5. Независимые случайные величины
  6. Математическое ожидание случайной величины 1.5
    1. "E(ξ)=∑i=1nE(ξi)=1n" что-то пошло не так
    2. сделать умножение везде одинаковым
  7. Ковариация случайных величин
  8. Корреляция случайных величин

2 Формулы расчёта вероятности

  1. Формула полной вероятности
  2. Формула Байеса
  3. Дисперсия случайной величины
  4. Неравенство Маркова
  5. Энтропия случайного источника
  6. Симуляция одним распределением другого
  7. Арифметическое кодирование
  8. Парадоксы теории вероятностей[math]^\star[/math]
  9. Схема Бернулли[math]^\star[/math]

Марковские цепи

3 Основные определения и свойства

  1. Марковская цепь
  2. Теорема о поглощении
  3. Фундаментальная матрица
  4. Математическое ожидание времени поглощения
  5. Расчет вероятности поглощения в состоянии (5)
    1. куча разного псевдокода, не относящегося непосредственно к расчету вероятности поглощения, его надо разнести в соответствующие конспекты. Писать код нахождения обратной матрицы вообще не осмысленно и к делу не относится.
    2. имена переменных из псевдокода в тексте оборачиваются в \mathtt
    3. оформить псевдокод в виде функций, без всяких println
    4. оформить нормально источник
    5. Заголовки первого уровня убрать
  6. Эргодическая марковская цепь
  7. Регулярная марковская цепь
  8. Примеры использования Марковских цепей
  9. Скрытые Марковские модели[math]^\star[/math]

4 Алгоритмы на марковских цепях

  1. Алгоритм Витерби[math]^\star[/math]
  2. Алгоритм "Вперед-Назад"[math]^\star[/math]
  3. Алгоритм Баума-Велша[math]^\star[/math]

5 Автоматы и регулярные языки

Регулярные языки и ДКА

  1. Основные определения: алфавит, слово, язык, конкатенация, свободный моноид слов; операции над языками
  2. Регулярные языки: два определения и их эквивалентность, регулярные выражения
  3. Детерминированные конечные автоматы
  4. Прямое произведение ДКА
  5. Простой сопоставитель регулярных выражений[math] \star [/math]
  6. НКА

  7. Недетерминированные конечные автоматы
  8. Построение по НКА эквивалентного ДКА, алгоритм Томпсона
  9. Автоматы с eps-переходами. Eps-замыкание
  10. Теорема Клини (совпадение классов автоматных и регулярных языков)
  11. Альтернативное доказательство теоремы Клини (через систему уравнений в регулярных выражениях)
  12. Минимизация ДКА

  13. Эквивалентность состояний ДКА
  14. Минимизация ДКА, алгоритм за O(n^2) с построением пар различимых состояний
  15. Минимизация ДКА, алгоритм Хопкрофта (сложность O(n log n))
  16. Алгоритм Бржозовского[math] ^\star [/math]
  17. Свойства конечных автоматов

  18. Доказательство нерегулярности языков: лемма о разрастании
  19. Интерпретация булевых формул с кванторами как игр для двух игроков
  20. Решение уравнений в регулярных выражениях
  21. Замкнутость регулярных языков относительно различных операций
  22. Анализ свойств регулярных языков (пустота, совпадение, включение, конечность, подсчет числа слов)
  23. Контексты и синтаксические моноиды 0.5
    1. поправить тех

    Другие автоматы

  24. Локальные автоматы[math] ^\star [/math]
  25. Двусторонний детерминированный конечный автомат[math] ^\star [/math]
  26. Квантовые конечные автоматы[math] ^\star [/math]
  27. Автоматы Мура и Мили[math] ^\star [/math]
  28. Автоматы в современном мире[math] ^\star [/math]

6 Контекстно-свободные грамматики

Базовые понятия о грамматиках

  1. Формальные грамматики
  2. Иерархия Хомского формальных грамматик
  3. Неукорачивающие и контекстно-зависимые грамматики, эквивалентность
  4. Правоконтекстные грамматики, эквивалентность автоматам
  5. Контекстно-свободные грамматики, вывод, лево- и правосторонний вывод, дерево разбора 0.5
    1. Поправить тех
  6. Замкнутость КС-языков относительно различных операций
  7. Регулярная аппроксимация КС-языков[math] ^\star [/math]
  8. Нормальные формы КС-грамматик

  9. Удаление бесполезных символов из грамматики
  10. Удаление длинных правил из грамматики
  11. Удаление eps-правил из грамматики 0.5
    1. Поправить тех
  12. Удаление цепных правил из грамматики
  13. Нормальная форма Хомского
  14. Устранение левой рекурсии
  15. Приведение грамматики к ослабленной нормальной форме Грейбах
  16. Нормальная форма Куроды[math] ^\star [/math]
  17. Алгоритмы разбора

  18. Алгоритм Кока-Янгера-Касами разбора грамматики в НФХ 0.5
    1. Поправить тех
  19. Алгоритм Кока-Янгера-Касами, модификация для произвольной грамматики 0.5
    1. Поправить тех
  20. Алгоритм Эрли 2
    1. разобраться с псевдокодами, там определенно есть лажа в индексах
    2. поправить тех
  21. Алгоритм Эрли, доказательство оценки O(n^2) для однозначной грамматики
  22. Опровержение контекстно-свободности языка

  23. Лемма о разрастании для КС-грамматик
  24. Лемма Огдена
  25. Существенно неоднозначные языки
  26. Теорема Парика[math] ^\star [/math]
  27. МП-автоматы

  28. Автоматы с магазинной памятью
  29. МП-автоматы, допуск по пустому стеку и по допускающему состоянию, эквивалентность
  30. Совпадение множества языков МП-автоматов и контекстно-свободных языков 0.5
    1. Поправить тех
  31. Детерминированные автоматы с магазинной памятью
  32. Детерминированные автоматы с магазинной памятью, допуск по пустому стеку
  33. Нормальная форма ДМП-автомата[math] ^\star [/math]
  34. Эквивалентность ДМП-автоматов[math] ^\star [/math]
  35. Несовпадение класса языков, распознаваемых ДМП автоматами и произвольными МП автоматами
  36. ДМП-автоматы и неоднозначность