Изменения

Перейти к: навигация, поиск

Парадоксы теории вероятностей

29 байт добавлено, 12:45, 15 января 2015
Нет описания правки
Конверты дают двум игрокам. Каждый из них может открыть свой конверт и пересчитать в нём деньги.
После этого игроки должны решить: стоит ли обменять свой конверт на чужой? Оба игрока рассуждают
следующим образом. Я вижу в своём конверте сумму <tex dpi="130">X</tex>. Если <tex dpi="130">X = 1</tex>, то менять точно выгодно. если <tex dpi="130">X</tex> другой, то в чужом конверте равновероятно может находиться <tex dpi="130"> 2X </tex> или <tex dpi="120150"> X \over 2</tex>. Поэтому, если я поменяю конверт, то у меня в среднем будет <tex dpi="150"> \tfrac{(2X + \tfrac{X}{2})}{2} = \tfrac{5}{4} X </tex>, т.е. больше, чем сейчас. Значит обмен выгоден. Однако обмен не может быть выгоден обоим игрокам. Где в их рассуждениях кроется ошибка?
В данном рассуждении ошибка кроется в предположении о том, что в другом конверте может ''равновероятно'' находится <tex dpi="130"> 2X </tex> или <tex dpi="150"> X \over 2</tex>. В действительности этого не может быть.
После того, как ведущий открыл одну из дверей с козой, автомобиль может быть либо за выбранной первоначально дверью, либо за оставшейся. С житейской точки зрения, вероятность выигрыша не зависит от первоначального выбора, при любом поведении одинакова и равна <tex>0,5</tex>. Однако, такой ход рассуждений неверен.
Предположим, что мы выбрали дверь №<tex>1</tex>.
Пусть событие <tex dpi="130">A</tex> — автомобиль за дверью №<tex>2</tex>. <tex dpi="130">B</tex> — автомобиль за дверью №3№<tex>3</tex>.
<tex dpi="150">P(A) =\frac{2}{3} \cdot \frac{1}{2} = \frac{1}{3}; P(B) = \frac{2}{3} \cdot \frac{1}{2}= \frac{1}{3}</tex>, где <tex dpi="150">\frac{1}{2}</tex> — условная вероятность нахождения автомобиля именно за данной дверью при условии, что автомобиль не за дверью, выбранной игроком.
Ведущий, открывая одну из оставшихся дверей, всегда проигрышную, сообщает тем самым игроку ровно <tex>1</tex> бит информации и меняет условные вероятности для <tex dpi="130">B</tex> и <tex dpi="130">C</tex> соответственно на <tex>"1"</tex> и <tex>"0"</tex>.
Известно, что <tex dpi="150">\lim\limits_{n\rightarrow\infty}{1-(1-\frac{1}{2^{n}})^{k}} = \frac{k}{2^{n}}</tex> (теорема Бернулли).
Пусть <tex dpi="130">p</tex> — предельная ненулевая вероятность. То есть, если событие, имеющее имеет вероятность меньше некоторого , чем <tex>p</tex>, то оно не произойдёт никогда. Тогда «реальное» количество бросков не превышает <tex dpi="150">\log_2 \frac{k}{p}</tex>. При таком допущении средний выигрыш за одну игру приближёно равен:
<tex dpi="150">1 \cdot \frac{1}{2} + 2 \cdot \frac{1}{4}+...+2^{n} \cdot \frac{1}{2^{n+1}}=\frac{n}{2},</tex> где <tex dpi="150">n=\log_2 \frac{k}{p}.</tex>
16
правок

Навигация