маткад. Маткад 1-33 67-100. В чем состоит свойство унимодальности функций
Скачать 2.46 Mb.
|
Итерация 3. Вычислим точки f(λ3) = 5.7349; f(μ3) = 5.2408 Так как f(λ3) > f(μ3), то сокращаем интервал неопределенности и принимаем на 4-й итерации: a4 = λ3 = 1.2640449438202; b4 = b3 = 1.736 Итерация 4. Вычислим точки f(λ4) = 5.2408; f(μ4) = 5.4493 Так как f(λ4) < f(μ4), то сокращаем интервал неопределенности и принимаем на 5-й итерации: a5 = a4 = 1.2640449438202; b5 = μ4 = 1.5562 Все вычисления сведены в таблицу. Вычисления продолжаются, пока не найдены 10 новых точек. Вычисляем точку минимума функции f(xmin) = 5.2398 Ответ: x = 1.4213; F(x) = 5.2398 Количество итераций, N = 10 Дана функция Розенброка ƒ(х) = 100(х2 − (х1)2)2 + (1 − х1)2 и начальная точках(0) = (−1, 2; 0). Найдите точку локального минимума этой функции, пользуясь методом покоординатного спуска, с точностью до 0,2. X0=(-1;2). Вычислим значение функции в начальной точке f(X0) = 104. В качестве направления поиска выберем вектор градиент в текущей точке:
Значение градиента в точке X0:
Проверим критерий остановки: |▽f(X0)| < ε Имеем: Сделаем шаг вдоль направления антиградиента.
Вычислим значение функции в новой точке. f(X1) = 100*((2.0-200.0*λ1)-((-396.0*λ1-1.0))2)2+(1-(-396.0*λ1-1.0))2 Найдем такой шаг, чтобы целевая функция достигала минимума вдоль этого направления. Из необходимого условия существования экстремума функции (f'(X)=0): 3.1363*10^5*λ1+2.4591*10^12*(-4.0*λ1-0.012652)*(-0.0012754*λ1-(-λ1-0.0025253)^2+1.2754*10^(-5))+1584.0 = 0 Получим шаг: λ1 = 0.000879 Выполнение этого шага приведет в точку:
В процессе поиска точки минимума функции Розенброка (см. предыдущее упражнение) получены две первые точки х(0) = (−1,2; 1), х(1) = (−1,3; 1,07). Определите направление поиска из точки х(1), пользуясь следующими градиентными методами: а) методом наискорейшего спуска, б) методом Ньютона. В качестве направления поиска выберем ньютоновское направление, для этого вычислим градиент:
Значение градиента в точке X0:
Проверим критерий остановки: |▽f(X0)| < ε Имеем: Сделаем шаг вдоль ньютоновского направления: X1 = X0 - G-1▽f(X0) Найдем матрицу Гессе и обратный гессиан. Матрица Гессе:
Обратный гессиан: detG = 402•400 - 200•200 = -79600
Получим:
Сформулируйте общую задачу оптимизации. В широком смысле общая задача оптимизации параметров систем автоматизации заключается в отыскании экстремума критерия (целевой функции) при заданных ограничениях в виде равенств и (или) неравенств, то есть в решении задачи математического программирования. Целевая функция есть однозначная численная характеристика системы, позволяющая количественно оценить ее качество. Аргументом целевой функции выступают параметры , подлежащие оптимизации и называемые управляемыми параметрами. Вектор параметров системы , удовлетворяющий заданным ограничениям и доставляющий экстремум целевой функции, называется оптимальной точкой, а пара и составляет оптимальное решение. При непрерывном изменении значений элементов вектора целевая функция может быть непрерывной или разрывной. Если график целевой функции имеет один экстремум, то такая функция называется унимодальной или одноэкстремальной). Если же график целевой функции имеет несколько экстремумов, то такая функция называется многоэкстремальной (см. рис.2б). Для нее различают точки глобального экстремума и локальных экстремумов. Математическое определение глобального и локального экстремума имеет следующий вид. Функция , определенная в допустимой области изменения независимой переменной , достигает своего глобального максимума в точке , если для всех . Функция , определенная в допустимой области изменения независимой переменной , достигает своего локального максимума в точке , если в - окрестности точки выполняется условие для всех х, удовлетворяющих условию , где - малая положительная величина, характеризующая точность попадания в экстремальную точку. |