маткад. Маткад 1-33 67-100. В чем состоит свойство унимодальности функций
![]()
|
Итерация 3. Вычислим точки ![]() ![]() f(λ3) = 5.7349; f(μ3) = 5.2408 Так как f(λ3) > f(μ3), то сокращаем интервал неопределенности и принимаем на 4-й итерации: a4 = λ3 = 1.2640449438202; b4 = b3 = 1.736 Итерация 4. Вычислим точки ![]() ![]() f(λ4) = 5.2408; f(μ4) = 5.4493 Так как f(λ4) < f(μ4), то сокращаем интервал неопределенности и принимаем на 5-й итерации: a5 = a4 = 1.2640449438202; b5 = μ4 = 1.5562 Все вычисления сведены в таблицу. Вычисления продолжаются, пока не найдены 10 новых точек. Вычисляем точку минимума функции ![]() f(xmin) = 5.2398 Ответ: x = 1.4213; F(x) = 5.2398 Количество итераций, N = 10 Дана функция Розенброка ƒ(х) = 100(х2 − (х1)2)2 + (1 − х1)2 и начальная точках(0) = (−1, 2; 0). Найдите точку локального минимума этой функции, пользуясь методом покоординатного спуска, с точностью до 0,2. X0=(-1;2). Вычислим значение функции в начальной точке f(X0) = 104. В качестве направления поиска выберем вектор градиент в текущей точке:
Значение градиента в точке X0:
Проверим критерий остановки: |▽f(X0)| < ε Имеем: ![]() Сделаем шаг вдоль направления антиградиента.
Вычислим значение функции в новой точке. f(X1) = 100*((2.0-200.0*λ1)-((-396.0*λ1-1.0))2)2+(1-(-396.0*λ1-1.0))2 Найдем такой шаг, чтобы целевая функция достигала минимума вдоль этого направления. Из необходимого условия существования экстремума функции (f'(X)=0): 3.1363*10^5*λ1+2.4591*10^12*(-4.0*λ1-0.012652)*(-0.0012754*λ1-(-λ1-0.0025253)^2+1.2754*10^(-5))+1584.0 = 0 Получим шаг: λ1 = 0.000879 Выполнение этого шага приведет в точку:
В процессе поиска точки минимума функции Розенброка (см. предыдущее упражнение) получены две первые точки х(0) = (−1,2; 1), х(1) = (−1,3; 1,07). Определите направление поиска из точки х(1), пользуясь следующими градиентными методами: а) методом наискорейшего спуска, б) методом Ньютона. В качестве направления поиска выберем ньютоновское направление, для этого вычислим градиент:
Значение градиента в точке X0:
Проверим критерий остановки: |▽f(X0)| < ε Имеем: ![]() Сделаем шаг вдоль ньютоновского направления: X1 = X0 - G-1▽f(X0) Найдем матрицу Гессе и обратный гессиан. ![]() ![]() ![]() Матрица Гессе:
Обратный гессиан: detG = 402•400 - 200•200 = -79600
Получим:
Сформулируйте общую задачу оптимизации. В широком смысле общая задача оптимизации параметров систем автоматизации заключается в отыскании экстремума критерия (целевой функции) при заданных ограничениях в виде равенств и (или) неравенств, то есть в решении задачи математического программирования. Целевая функция ![]() ![]() ![]() ![]() ![]() При непрерывном изменении значений элементов вектора ![]() Если же график целевой функции имеет несколько экстремумов, то такая функция называется многоэкстремальной (см. рис.2б). Для нее различают точки глобального экстремума и локальных экстремумов. Математическое определение глобального и локального экстремума имеет следующий вид. Функция ![]() ![]() ![]() ![]() ![]() Функция ![]() ![]() ![]() ![]() ![]() ![]() ![]() где ![]() |