23
сам создаёт испытательный сигнал х
э желаемой формы, в пассивных ме- тодах используются естественные случайные изменения входных и вы- ходных координат объекта.
Экспериментальный метод построения ММ базируется на трёх до- пущениях: 1) объект есть система с сосредоточенными координатами;
2) статические и динамические свойства объекта неизменны во времени;
3) уравнения статики и динамики линеаризуемы в малом, т.е. при не- больших отклонениях у от установившегося состояния.
Справедливость второго и третьего допущений проверяется экспе- риментальным путём.
6. ПОСТРОЕНИЕ МАТЕМАТИЧЕСКОЙ МОДЕЛИ
СТАТИКИ ТЕХНОЛОГИЧЕСКИХ ОБЪЕКТОВ
При исследовании статики технологических объектов наиболее часто встречаются объекты со следующими типами структурных схем (рис. 6):
О
1
– с одной входной х и одной выходной у переменными; О
2
– с двумя входными х
1
и х
2
и выходной у переменными; О
m
– с m линейно незави- симыми входными х
1
, х
2
, ..., х
m
и выходной у переменными. Во многих случаях при проведении эксперимента переменная у измеряется с некото- рой погрешностью
z
y
y
+
=
, где z – случайный стационарный процесс с нулевым средним и дисперсией
2
z
σ
. Структурные схемы для таких случаев будем обозначать
z
m
O
O
O
O
1 2
1
и
,
,
Математические модели статики объекта со структурными схемами
О
1
, О
2
, O
m
и
z
O
1
имеют вид:
{ }
)
(
|
);
...,
,
,
(
);
,
(
);
(
2 1
2 1
2 1
x
f
y
M
x
x
x
f
y
x
x
f
y
x
f
y
x
m
m
=
=
=
=
x
y
О
1
x
1
y
О
2
x
2
x
1
y
О
m
x
2
x
m
...
x
z
y
y
Z
O
1
Рис. 6. Структурные схемы технологических объектов
24
Построение модели статики объекта О
1
.
А. Подготовка и планирование эксперимента.
На этом этапе изучается объект, составляется его структурная схема, экспериментальная установка оборудуется приборами для контроля (ре- гистрации) переменных х и у. Определяется диапазон
[ ]
x
x,
возможных изменений входной переменной х, оценивается время Т
0
= t
2
– t
1
оконча- ния переходного процесса у(t), вызванного ступенчатым возмущением х(t) в момент времени t
1
. Здесь t
2
– момент времени, когда
)
(t
y&
становится приближённо равной нулю.
Планирование эксперимента сводится к выбору числа опытов
,
x
x
x
d
Δ
−
=
const
=
Δx
(обычно 10 5
≥
d
) и оценке времени эксперимента
t
d
T
Δ
⋅
≥
э
, где
0
)
5
,
1 1
(
T
t
⋅
≥
Δ
Б. Проведение эксперимента.
Экспериментатор устанавливает
)
1
(
)
(
x
x
t
x
=
=
и спустя время
t
Δ
регистрирует значение выходной переменной у(1). Затем устанавливается значение входной переменной
x
x
x
Δ
+
=
)
1
(
)
2
(
, измеряется у(2) и т.д.
В конце эксперимента получаем таблицу
...,
,
2
,
1
),
(
),
(
d
j
j
y
j
x
=
В. Обработка результатов эксперимента.
На этом этапе производится статистическая обработка опытных дан- ных и собственно построение математической модели статики технологи- ческого объекта (статической характеристики). Статическая характери- стика объекта y = f(x) используется для оптимизации объекта и расчёта линейных систем автоматического регулирования.
Иногда из каких-то дополнительных соображений известно, что при- ближающую функцию целесообразно искать в виде
).
...,
,
,
,
(
2 1
n
a
a
a
x
f
y
≈
Если параметры
n
a
a
a
...,
,
,
2 1
определяются из условия совпадения
y(j) и приближающей функции f(x
j
) в точках
n
x
x
x
...,
,
,
2 1
, так называемых узлах интерполяции:
n
j
a
a
a
x
f
j
y
n
j
...,
,
1
);
...,
,
,
,
(
)
(
2 1
=
=
, то такой способ приближения называют интерполяцией или интерполиро- ванием.
Пусть
x
– наименьшее из чисел x
i
– узлов интерполяции, а
x
–
наибольшее из них. Если точка x, в которой вычисляется значение f(x), лежит вне отрезка
[
]
x
x,
, то наряду с термином «интерполяция» употреб- ляют термин «экстраполяция».
25
Наиболее часто используется интерполяция многочленами. Однако это не единственный возможный вид интерполяции. Иногда удобнее при- ближать функции тригонометрическими функциями, в других задачах целесообразно приближать многочленом не f
(x), а ln[
f(x)], или прибли- жать f(x) не многочленом от x, а многочленом от ln[x][5].
Приближение функций с помощью нейронных сетей.
В последние годы появился новый алгоритмический аппарат приближения функций многих переменных с помощью линейных операций и суперпозиций функций одного переменного. Такое приближение осуществляется специ- альными формальными устройствами – нейронными сетями, состоящими из формальных нейронов.
Нейрон получает на входе вектор сигналов x , вычисляет его скаляр- ное произведение на вектор весов
α и некоторую функцию одного пере- менного
)
(z
ϕ
, где z – скалярное произведение
x на
α . Результат рассы- лается на входы других нейронов или передаётся на выход. Таким обра- зом, нейронные сети вычисляют суперпозиции простых функций одного переменного и их линейных комбинаций.
Для описания алгоритмов и устройств в нейроинформатике вырабо- тана специальная схемотехника, в которой элементарные устройства – сумматоры, синапсы, нейроны и т.п. – объединяются в сети, предназна- ченные для решения задач. Наиболее важные элементы нейросистем –
адаптивный сумматор и нелинейный преобразователь. Адаптивный сум- матор вычисляет скалярное произведение входного сигнала x на вектор параметров
α (рис. 7).
Адаптивным его называют из-за наличия вектора настраиваемых па- раметров
α . Нелинейный преобразователь получает скалярный входной сигнал z и переводит его в
)
( z
ϕ
(рис. 8).
∑
=
α
=
=
α
m
i
i
i
x
z
x
1
)
,
(
∑
α
Выходной сигнал
1
x
2
x
α
1
α
2
α
m
x
m
Вх од ны е си гн алы
ϕ
z
)
(z
ϕ
Рис. 7. Адаптивный
сумматор
Рис. 8. Нелинейный
преобразователь сигнала
26
)
,
(
0
α
+
α
x
∑
α
Точка ветвления
ϕ
m
α
1
m
x
Вх од ны е си гн ал ы
α
0
α
1
х
1
Рис. 9. Формальный нейрон
Стандартный формальный нейрон составлен из входного сумматора, нелинейного преобразователя и точки ветвления (рис. 9).
Точка ветвления служит для рассылки одного сигнала по нескольким адресам. Она получает скалярный входной сигнал z и передаёт его выхо- дам. Среди нейронных сетей можно выделить две базовые архитектуры:
слоистые и полносвязные сети.
Слоистые сети. Нейроны расположены в несколько слоёв (рис. 10).
Нейроны первого слоя получают входные сигналы, преобразуют их и че- рез точки ветвления передают нейронам второго слоя. Далее срабатывает второй слой и т.д. до k-го слоя, который выдаёт выходные сигналы для пользователя. Если не оговорено противное, то каждый выходной сигнал
i-го слоя подаётся на вход всех нейронов (i + 1)-го слоя. Число нейронов в каждом слое может быть любым и никак заранее не связано с количест- вом нейронов в других слоях. Стандартный способ подачи входных сиг- налов: все нейроны первого слоя получают каждый входной сигнал. Осо- бое распространение получили трёхслойные сети, в которых каждый слой имеет свое наименование: первый – входной, второй – скрытый, третий – выходной.
Полносвязные сети. Каждый нейрон передаёт свой выходной сигнал остальным нейронам, включая самого себя. Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после не- скольких тактов функционирования сети. Все выходные сигналы подают- ся всем нейронам.
Таким образом, нейронные сети вычисляют линейные функции, не- линейные функции одного переменного, а также все возможные супер- позиции – функции от функций, получаемые при каскадном соединении сетей.
Рассмотрим более подробно слоистую сеть (рис. 10). Её струк- тура характеризуется числом K и количеством нейронов m в каждом слое. Заметим, что в слоистой сети связи между нейронами в слое отсут- ствуют.
27
0 0
ψ
0 1
ψ
0 2
ψ
0 0
N
ψ
1 0
ψ
1 1
ψ
1 2
ψ
1 1
N
ψ
0 0
g
k
=
ψ
1 1
g
k
=
ψ
2 2
g
k
=
ψ
K
K
N
k
N
g
=
ψ
1
α
2
α
m
α
2
x
0
x
1
x
m
x
1 0 j
α
1 1 j
α
K
j
N
k
ij
k
j
k
j
k
j
K
α
α
α
α
α
2 1
0
2
i
k
i
g
=
ψ
0
α
1 2 j
α
1
ij
α
1 1
j
N
α
1
0
k = K
k = 1
k = 0
N
0
2
1
0
N
1
2
1
0
N
K
Вх од ны е объ ек ты
Рис. 10. Слоистая сеть
Введём новые обозначения: вход i-го нейрона k-го слоя –
k
i
z
, выход
i-го нейрона –
k
i
ψ
, количество нейронов в k-м слое – N
k
, k = 1, 2, ..., K.
Тогда суперпозиция входных сигналов i-го нейрона имеет вид:
K
k
N
i
z
k
N
j
k
k
j
k
ij
k
i
,
1
,
,
1
,
1 0
1
=
=
ψ
⋅
α
=
∑
−
=
−
Здесь
k
ij
α – весовые коэффициенты, являющиеся настраиваемыми параметрами и характеризующими связь j-го нейрона (k – 1)-го слоя с
i-м нейроном k-го слоя.
Для нулевого слоя имеем
m
j
x
j
j
,
1
,
0
=
=
ψ
. С учётом принятых обо- значений аппроксимирующая функция g
i
, i = 1, N
k
, представляет собой персептрон и может быть записана в виде
1
,
0
,
1
,
,
1
,
,
1
),
(
,
,
1
,
0
−
=
=
ψ
=
=
ϕ
=
ψ
=
ψ
=
K
k
K
k
N
i
z
N
i
g
k
K
k
i
k
i
K
k
i
i
В качестве функций активации нейронов (нелинейного преобразова- теля нейронов
)
ϕ
часто используют гладкие функции вида:
)
exp(
)
exp(
)
exp(
)
exp(
)
(
;
)
exp(
1 1
)
(
;
)
(
z
z
z
z
z
z
z
z
z
−
+
−
−
=
ϕ
−
−
=
ϕ
=
ϕ
Приближение функций с помощью нейронных сетей сводится к их обучению. При этом входные сигналы х подаются обучаемой сети на об-
28
работку, задаются значения весовых коэффициентов
α, а получаемые вы- ходные сигналы g сравниваются с экспериментальными данными y. Затем строится оценка работы сети, например, как критерий максимального правдоподобия:
∑∑
=
λ
=
λ
λ
α
−
=
α
P N
i
i
i
K
x
g
y
E
1 1
2
)
(
))
,
(
(
2 1
)
(
, где
)
,
(
)
(
α
λ
x
g
i
– i-й выход сети, соответствующий векторам входных сиг- налов
)
(
λ
x
и весовых коэффициентов
α; P – объём обучающей выборки
)
,
(
)
(
λ
λ
y
x
Поиск оптимальных значений весовых коэффициентов
α, при кото- рых критерий
)
(
α
E
минимален, производится с помощью известных ме- тодов решения экстремальных задач.
При обучении нейронных сетей целесообразно использовать метод регуляризации, позволяющий получить сглаженные функции
)
,
(
)
(
α
λ
x
g
i
При этом оценка работы сети выбирается в виде
)
(
)
(
)
,
(
ˆ
α
Ω
β
+
α
=
α
β
E
E
, где
β
– параметр регуляризации;
)
(
α
Ω
– равномерно выпуклая функ- ция, например,
α
⋅
α
=
α
Ω
T
2 1
)
(
Оптимальное значение параметра регуляризации
β
подбирается итерационным методом.
7. ПОСТРОЕНИЕ МАТЕМАТИЧЕСКОЙ МОДЕЛИ
СТАТИКИ ОБЪЕКТОВ О
Z
Подготовка и планирование эксперимента.
На этом этапе изучает- ся объект, выбираются переменные x ,
y
и диапазон изменения
[
]
x
x,
, определяется время Т
0
окончания переходного процесса.
Оценивается дисперсия случайной величины z. Для этого устанавли- вается const
=
j
x
и регистрируются N значений
N
i
y
ji
,
1
,
=
,
50 30
≥
N
Вычисляются среднее арифметическое ср
y
и оценка дисперсии
2
Z
σ
:
∑
∑
=
=
−
−
=
σ
=
N
i
ji
Zj
N
i
ji
j
y
y
N
y
N
j
y
1 2
ср
2 1
ср
))
(
(
1 1
,
1
)
(
29
Величина
x
Δ
выбирается в процессе проведения эксперимента из условия, чтобы соответствующее изменение
Z
y
σ
≥
Δ
)
3 2
(
. Время прове- дения одного опыта
t
Δ
принимается равным Т
0
+ Т
н
, где время наблюде- ния Т
н установившегося значения выходной координаты зависит от час- тотного спектра
)
(t
z
и частоты измерения
)
(
t
y
в момент времени
i
t
,
1
,
1
N
i
=
, N
1
< N на отрезке
[
]
н
0 0
,
Т
Т
Т
+
. Обычно
0
н
)
2 1
(
Т
Т
≤
из-за трудности стабилизации входных переменных объекта.
Проведение эксперимента.
Проводятся N
1
измерений
)
(
t
y
в момен- ты времени
i
t
на отрезках
[
]
н
0 0
,
Т
Т
Т
+
Среднее значение
∑
=
=
1 1
1
cр
)
(
1
)
(
N
i
i
j
t
y
N
j
y
соответствует величине
)
( j
x
входной переменной, j = 1, 2, ..., n.
Обработка экспериментальных данных и построение математи-
ческой модели.
При малом числе N
1
усреднённые значения
)
(
cр
j
y
будут искажены помехой z, что затрудняет или делает невозможным построение модели статики и её анализ. Поэтому часто экспериментальные данные предварительно сглаживают, например, методом скользящего среднего или методом четвёртых разностей.
После сглаживания экспериментальных данных для построения мо- делей применяют вышеизложенные методы интерполяции и аппроксима- ции сглаженных данных.
Рассмотрим методику построения уравнений моделей статики для объектов
Z
O , выходная координата
y
которых – есть случайная величина.
Пусть заданы некоторый объект
Z
O
1
, входная и выходная перемен- ные Х и Y, которые являются случайными величинами. Естественно ожидать, что значения у величины Y определяются значениями х. Одна- ко в подобных ситуациях следует говорить о наличии стохастиче- ской (вероятностной) связи между переменными Х и Y объекта в ста- тике. На практике при исследовании зависимости
)
(
x
ϕ
между перемен- ными Х и Y обычно ограничиваются изучением зависимости между ус- ловным математическим ожиданием
)
|
(
x
X
Y
M
=
и переменной х, т.е.
)
(
)
|
(
x
Y
M
x
X
ϕ
=
=
Зависимость
)
|
(
x
X
Y
M
=
от х называется регрессионной. Знание ста- тистической зависимости между случайными переменными имеет боль- шое практическое значение: с её помощью можно прогнозировать зна- чение зависимой случайной переменной в предположении, что незави-