Главная страница

сгм. РГР_СГМ. Сети связи и системы коммутации


Скачать 0.75 Mb.
НазваниеСети связи и системы коммутации
Дата03.11.2019
Размер0.75 Mb.
Формат файлаdocx
Имя файлаРГР_СГМ.docx
ТипДокументы
#93232
страница2 из 4
1   2   3   4






В данном подразделе рассмотрены основные математические операции выполняемые в редакторе Mathcad, более полный справочник функций приведен в приложении А.
2 Теоретический раздел
2.1 Однородные цепи Маркова
Понятие дискретного случайного процесса в дискретном времени.

Пусть имеется некоторая система, множество состояний которой является дискретным (конечным или счетным): W = {w1, w2, …}. Случайные события, приводящие к переходу системы от состояния к состоянию, происходят в дискретные моменты времени t0, t1, t2,…, которые будем называть шагами и обозначать их в дальнейшем номером шага: n = 0, 1, 2, 3, …

Обозначим через S(n) состояние системы на n-м шаге. Запись S(n) = wj означает, что на n‒м шаге система находится в состоянии wj. Непосредственный переход из состояния wi в состояние wj будем обозначать через wi → wj.

На каждом шаге система может находиться только в одном состоянии (множество состояний называют иногда фазовым пространством).

Таким образом, с течением времени система переходит от состояния к состоянию, то есть состояния меняются от шага к шагу. Эти изменения состояний происходят случайно, поэтому имеет место случайный процесс изменения состояний во времени, то есть дискретный случайный процесс в дискретном времени.

Марковская цепь относится к классу случайных процессов с дискретными состояниями и дискретным временем.
2.2. Переходные вероятности между состояниями

Из любого состояния wi на n-м шаге система может с некоторыми вероятностями перейти в другие состояния или с определенной вероятностью остаться в нем. Здесь могут быть два основных случая.

1. Вероятности состояний на n-м шаге не зависят от состояния на (n‑1)‑м шаге. В этом случае говорят, что испытания независимы, так как в каждом испытании событие происходит с одной и той же вероятностью, которая не зависит от исхода на предыдущем шаге.

Пример независимых испытаний. При бросании игральной кости состояние (выпадение числа от 1 до 6) при n-м бросании не зависит от того, какое состояние было при предыдущем, (n-1)-м бросании.

2. Вероятности состояний на n-м шаге зависят от состояния на предыдущем, (n-1)-м шаге.

Марковская цепь относится к классу случайных процессов, вероятности состояний которых на n-м шаге зависят от состояния на предыдущем шаге.

Непосредственные переходы между состояниями описываются переходными вероятностями.

Переходной вероятностью (вероятностью перехода) на n-м шаге называется условная вероятность непосредственного перехода wiwj на n-м шаге при условии, что на (n -1)-м шаге система находилась в состоянии wi:



где S(n) и S(n -1) - обозначение случайного состояния на n-м и (n -1)-м шаге соответственно.
2.3 Понятие однородной цепи Маркова. Граф состояний

Однородной цепью Маркова называется случайный процесс с дискретными состояниями и с дискретным временем, вероятности состояний которого на любом шаге определяются только состоянием на предыдущем шаге:



Смысл свойства однородности заключается в том, что переходные вероятности не зависят ни от номера шага, ни от состояний на предшествовавших шагах. А это означает, что условия протекания процесса не изменяются с течением времени.

Таким образом, вероятности pi1, pi2, pi3, … образуют распределение вероятностей попадания из состояния wi в состояния w1, w2, w3, … за один шаг. Это распределение не зависит от номера шага, на котором происходит переход.

Замечание. Если переходные вероятности зависят от номера шага, то такая цепь будет неоднородной.

В случайном процессе с дискретными состояниями и с дискретным временем можно выделить три части: прошлое, настоящее и будущее относительно некоторого шага n (рисунок. 2.1).


Прошлое (n0)

Настоящее (n0)

Будущее (n>n0)


Рисунок 2.1 – Разбиение случайного процесса на три части
Однородная Марковская цепь обладает свойством независимости будущего от прошлого при фиксированном настоящем. Будущее процесса (системы) зависит только от настоящего и не зависит от прошлого, то есть не зависит от того, каким путем система попала в настоящее. Таким образом, можно сказать, что при фиксированном настоящем будущее и прошлое однородной цепи Маркова независимы. Это свойство принято называть отсутствием последействия или Марковским свойством.

Марковское свойство может быть определено также следующим образом: для любого шага n0 вероятность любого состояния системы в будущем (то есть при n > n0) зависит только от ее состояния в настоящем (то есть при n=n0) и не зависит от того, когда и каким образом система пришла в это состояние.

Для наглядности и лучшего восприятия цепь Маркова изображают в виде ориентированного графа, вершинами которого являются состояния, а ребрами – события, обуславливающие непосредственные переходы между состояниями.

Каждому ребру приписывается переходная вероятность. Если ребро отсутствует, то переходная вероятность равна нулю. Возможные задержки в прежнем состоянии изображают стрелкой – петлей.

Пример. На рисунке 2.2 приведен граф из трех состояний. Множество состояний системы W = {w1, w2, w3}. Переходные вероятности: p11 = 1/2, p12= 1/2, p21= 1/4, p22 = 1/2, p23 = 1/4, p31 = 2/3, p33 = 1/3.


w1

w3

1/2

1/2

1/3


w2

1/2

1/4


1/4


2/3


Рисунок 2.2 – Пример графа из трех состояний
2.4 Среднее число шагов нахождения в состоянии


pii
На рисунке 2.3 приведена часть графа состояний, относящаяся к состоянию wi. Указаны две вероятности: вероятность pii того, что состояние не изменится за один шаг, и вероятность 1 - pii того, что состояние изменится за один шаг (pii < 1).


wi

1 – pii

Рисунок 2.3. – Часть графа состояний, относящаяся к состоянию wi
После попадания в состояние wi система будет находиться в нем случайное число шагов. Найдем среднее число шагов (или математическое ожидание числа шагов) нахождения в состоянии wi., которое будем обозначать .

Обозначим через qii(n) вероятность того, что на n-м шаге система будет в состоянии wi при условии, что до n-го шага система не покидала это состояние.

Пусть процесс начинается также в состоянии wi, то есть начальная вероятность qii (0) = 1. Выпишем очевидные соотношения:





Среднее число шагов нахождения в состоянии wi до выхода из него определяется суммой этих вероятностей, которая представляет собой сходящийся геометрический ряд (геометрическую прогрессию):

. (2.1)

Таким образом, среднее число шагов нахождения в состоянии wi до выхода из него будет

Из этой формулы следует: чем больше вероятность pii, тем больше среднее время нахождения в состоянии wi. Эта зависимость иллюстрируется таблице 2.1

Таблица 2.1. Зависимость среднего числа шагов нахождения в состоянии wi от вероятности pii.

pii

0,01

0,1

0,5

0,9

0,99



1,01

1,11

2,0

10,0

100,0



2.5 Классификация состояний

Рассмотрим следующие типы (классы) состояний: достижимые, сообщающиеся, несущественные и существенные, эргодическое множество и поглощающие состояния.

Состояние wj достижимо из состояния wi, если за некоторое число шагов система переходит из wi в wj, то есть существует такое n, что pij(n) > 0, где pij (n) – вероятность того, что S(n) = wj при условии, что начальным является состояние wi: pij (n) = p[S(n) = wj / S(0) = wi]. Состояние wj не достижимо из состояния wi, если не существует такого числа шагов n, при котором pij (n) > 0.

Смысл достижимости: если из wi можно по стрелкам пройти в wj, то со-стояние wj достижимо из wi.

На рисунке 2.4 состояние w4 достижимо из состояния w1, однако w1 не достижимо из w4.


w1

W2

W3

W4


Рисунок 2.4 – Пример достижимых и не достижимых состояний


w1

W2

W3

W4



Рисунок 2.5 – Пример взаимно достижимых состояний

Состояние wi называется несущественным, если имеется такое состояние wj и такое число шагов m, что pij (m) > 0, однако pji (n) = 0 при любом n. Состояние wi называется существенным, если не имеется таких состояний wj, то есть любое состояние, достижимое из wi, сообщается с этим состоянием wi.

Смысл этих состояний. Для несущественного состояния wi имеется достижимое из него состояние wj, однако wi не достижимо из wj. Иными словами, из каждого несущественного состояния система каким-либо образом может уйти в одно из существенных состояний и больше никогда в это несущественное состояние не вернется.

Несущественные и существенные состояния образуют соответственно множества несущественных и существенных состояний. Попав в множество существенных состояний, система никогда из него не выйдет.

На рисунке 2.6 состояния w1 и w2 являются несущественными, а состояния w3, w4, w5 образуют множество существенных состояний.


w1

w2

w5

w4

w3

Несущественные

состояния




Существенные

состояния

Рисунок 2.6 – Пример существенных и несущественных состояний
Теорема. При n → ∞ конечная цепь Маркова будет находиться только в существенных состояниях.

Смысл теоремы: если начальным является несущественное состояние, то с течением времени вероятность нахождения в несущественных состояниях стремится к нулю, то есть при n → ∞ конечная цепь Маркова будет находиться только в существенных состояниях.

Эргодическое множество состояний – это множество существенных сообщающихся состояний.


w1

w2

w1

w2

w3
Смысл эргодического множества: из любого состояния можно попасть в любое другое состояние и из этого множества нельзя выйти (после попадания в него), то есть система, попадающая в эргодическое множество, никогда его не покидает. На рисунке 2.7 приведены два процесса состояния с эргодическим множеством состояний.



а)

б)


Рисунок 2.7 – Два примера эргодического множества состояний

Поглощающим называется состояние, если система после попадания в это состояние из него не выходит. Если wi – поглощающее состояние, то переходные вероятности pii = 1 и pij = 0 для всех j ≠ i.

Цепь Маркова с поглощением – это цепь, множество состояний которой содержит хотя бы одно поглощающее состояние.

Замечание. Поглощающее состояние можно рассматривать как частный случай эргодического множества, состоящего из одного состояния.
2.6 Матрица переходных вероятностей

Матрица переходных вероятностей является матричной характеристикой переходов между состояниями однородной марковской цепи: P = ||pij||.

Матрица переходных вероятностей является стохастической. Это значит, что она обладает двумя свойствами:

1) свойством неотрицательности, pij ≥ 0;

2) свойством нормированности: сумма элементов любой строки равна 1 или , где ‒ столбец, все элементы которого равны 1.

Каждая i ‒ я строка представляет собой распределение условных вероятностей перехода pi1, pi2, pi3, …

Если множество состояний является конечным, то матрица переходных вероятностей является квадратной.

Замечание. После составления матрицы переходных вероятностей целесообразно сделать проверку условия |E – P| = 0, где E – единичная матрица.
2.7 Вероятности состояний однородной цепи Маркова

Вероятностью состояния на произвольном шаге называется вероятность того, что на n-м шаге система будет в состоянии wj при условии, что состояние wi было начальным: pij (n) = p[S(n) = wj / S(0) = wi], где S(0) - состояние системы на начальном шаге.

Выведем рекуррентную формулу для вычисления этих вероятностей.

Пусть состояние wi является начальным. На (n – 1)-м шаге система будет

находиться в состоянии wk с вероятностью pik(n - 1), из которого на n-м шаге она попадает в состояние wj. Поэтому вероятность попадания в состояние wj через состояние wk равна pik(n-1) pkj. По формуле полной вероятности вероятность попадания в состояние wj на n-м шаге

(2.2)

Замечание. Суммирование ведется по всему множеству состояний.

Для нахождения вероятностей состояний и других характеристик системы в переходном и стационарном режимах целесообразно пользоваться методами матричного исчисления. Будем записывать вероятности состояний цепи Маркова pij(n) в виде матрицы: P(n) = ||pij(n) ||.

Формула (2.2) для вероятности pij(n) в матричном виде запишется следующим образом:

P(n) = P(n – 1) P. (2.3)

Каждый элемент матрицы P(n) представляет собой произведение i-й строки матрицы P(n – 1) на j-й столбец матрицы P.

Замечания. 1. Получено прямое уравнение А.Н.Колмогорова для Марковской цепи в отличие от обратного уравнения: P(n) = P P(n - 1).

2. Уравнение А.Н.Колмогорова в более общем виде

а) в развернутой форме: ;

б) в матричной форме: P(m + n) = P(m) P(n).

Для однородной Марковской цепи матрицы вероятностей состояний на первом, втором и т.д. шагах имеют вид:

P(1) = P(0) P = E P = P; P(2) = P(1) P = P2;

P(3) = P(2) P = P3; P(4) = P(3) P = P4; … P(n) = P(n -1) P = Pn,

где P(0) = E – единичная матрица.

Замечания. 1. Принято, что P(0) = P0 = E является единичной матрицей.

2. Матрица P(n) является стохастической.

На начальном шаге (n = 0) начальным может быть не одно, а несколько состояний. В этом случае задают начальные вероятности состояний. Начальная вероятность pi(0) состояния wi – это вероятность того, что в начале процесса, то есть на начальном шаге, система находится в состоянии wi:

pi(0) = p[S(0) = wi]. Будем записывать начальные вероятности в виде распределения (строки): .

Распределение начальных вероятностей состояний является стохастическим, то есть оно обладает свойствами неотрицательности и нормированности:



для всех i, где – столбец, все элементы которого равны 1.

Если начальным является одно определенное состояние wi, то элемент, соответствующий этому состоянию, равен 1, то есть pi(0) =1, а остальные элементы равны нулю. Например, если начальным является первое состояние, то .

Распределение вероятностей состояний на n-м шаге будем записывать в виде сроки: . Очевидно, что j-й элемент этой строки равен произведению строки на j-й столбец матрицы P, или

(2.4)
Запишем эту рекуррентную формулу для n = 1, 2, 3, 4, … и для общего случая:



Замечание. Строка является стохастической.

Итак, получены распределения вероятностей состояний цепи Маркова на произвольном шаге при фиксированном начальном состоянии и при заданном начальном распределении. Формулы для вычисления этих распределений приведены в таблице 2.2.

Таблице 2.2 – Формулы для вычисления вероятностей состояний при разных начальных условиях

Матрица вероятностей состояний цепи Маркова при начальных условиях P(0) = E

P(n) = Pn

Распределение вероятностей состояний цепи Маркова при заданном начальном распределении




2.8 Предельные вероятности эргодической цепи Маркова

Эргодическая цепь Маркова – это такая цепь, множество состояний которой образует одно эргодическое множество.

Предельной вероятностью состояния wj эргодической цепи Маркова называется вероятность нахождения в этом состоянии при n →∞, то есть в далеком будущем.

Синонимы: финальная вероятность, стационарная вероятность.

Смысл предельной вероятности: есть средняя доля числа шагов нахождения в состоянии wj при бесконечном протекании процесса.

Теорема о существовании и единственности предельных вероятностей. Для эргодической однородной цепи Маркова существует единственное пре-дельное распределение вероятностей состояний, не зависящее от начального состояния:

(2.5)

Теорема приведена без доказательства.

Смысл теоремы: предельные вероятности существуют и не зависят от того, каким было начальное состояние.

Замечания. 1. Другая возможная формулировка приведенной теоремы: Для того, чтобы существовали предельные вероятности, не зависящие от начального состояния, необходимо и достаточно, чтобы цепь была эргодической.

2. Иногда эргодическую цепь определяют через существование предельных вероятностей: цепь Маркова называется эргодической, если для нее существуют предельные вероятности, не зависящие от начального состояния.

Поскольку вероятности не зависят от начального состояния, то они не зависят и от начального распределения, то есть

где ‒ распределение предельных вероятностей состояний.

Следующая теорема связывает распределение и матрицу P.

Теорема о связи предельных и переходных вероятностей эргодической цепи. Для эргодической марковской цепи выполняется условие:

(2.6)

Доказательство. Устремив n →∞ в (2.4), получим:

то есть

Теорема доказана.

Замечание. Распределение называют также финальным, стационарным, предельным, инвариантным; иногда его называют еще неподвижным вектором матрицы P.

Смысл теоремы. Матричное уравнение (2.6) представляет собой однородную систему линейных алгебраических уравнений относительно неизвестных . Число неизвестных равно числу уравнений.

Система уравнений (2.6) относительно неизвестных является однородной, поэтому она совместна, однако ее решение является неопределенным, то есть решений бесконечно много. Неопределенность системы обусловлена тем, что строки матрицы P являются линейно зависимыми: на них наложена одна связь, а именно, свойство нормированности стохастической матрицы (сумма элементов любой строки равна 1). Поэтому ранг матрицы системы уравнений на единицу меньше числа неизвестных.

Добавив условие нормированности, или линейно независимое уравнение , получим систему уравнений, ранг которой равен числу неизвестных. Эта система уравнений является неоднородной, ее решение является единственным. Полученную систему уравнений можно решить известными методами, например, методом Гаусса. Если из системы убрать любое линейно зависимое уравнение, то получим систему m уравнений с m неизвестными, и ее можно решить методом Крамера.

2.9 Вычисление предельных вероятностей

Приведем две формулы для вычисления предельных вероятностей.

Первая формула основана на обращении матриц:

(2.7)

где – матрица, полученная из исходной матрицы P вычеркиванием j-й строки и j-го столбца; E – единичная матрица; я строка матрицы P без элемента pjj;

– столбец, все элементы которого равны 1.

Исходным уравнением для вывода этой формулы является равенство (2.6). Запишем это равенство, выделив в нем состояние wj:



где – j –й столбец матрицы без элемента;

‒ строка предельных вероятностей без элемента . После умножения строки на матрицу получаем новую строку:



Строка в левой и правой части полученного равенства состоит из одного элемента (числа ) и строки Приравняем строки из левой и правой части равенства:



Преобразуем это равенство:



Умножим обе части последнего равенства на столбец справа, все элементы которого равны 1, что приводит к суммированию элементов строк:



Прибавим к левой и правой части вероятность :



С учетом условия нормированности имеем: Поэтому



откуда получаем формулу (2.7):

По формуле (2.7) вычисление каждой предельной вероятности связано с вычислением обратной матрицы, порядок которой на единицу меньше порядка исходной матрицы.

Замечание. Размеры перемножаемых матриц согласованы.

Вторая формула основана на вычислении определителей и приведена без вывода:

(2.8)

где определитель матрицы E – Pj.

По этой формуле предельную вероятность можно вычислить только после вычисления всех определителей и нахождения их суммы.

На практике можно использовать комбинацию этих двух формул. Поскольку предельные вероятности состояний пропорциональны соответствующим определителям, то можно вычислять предельные вероятности состояний без вычисления суммы определителей:

(2.9)
где
1   2   3   4


написать администратору сайта