ДИАГНОСТИКА АВИАЦИОННОЙ ТЕХНИКИ. московскийгосударственныйтехнический университетгражданскойавиации
Скачать 1.14 Mb.
|
2.2. Основныеинформационныезаконы Общая теория информации формулирует четыре важнейших информационных закона, которые определяют информационную сторону взаимодействия материи и субъекта (рис. 2.1). 2.2.1. Законсохраненияинформации «Информация сохраняет свое значение в неизменном виде пока остается в неизменном виде носитель информации – материальный объект» [19]. Закон сохранения информации - это, прежде всего, проявление одного из важнейших свойств информации - независимость информации от времени. Будучи нематериальной стороной материи, информация не может существовать сама по себе без материальной стороны. Однако имеет место распределение первичной и вторичной информаций по шкале времени. Вторичная информация, как правило, преобладает с увеличением возраста объекта, но при этом сохраняется неизменность суммарной информации. Это свойство обеспечивается под воздействием специальных физических сил. Физические силы - это основа современной физической науки. Именно с изучения сил и началось становление физики как науки. Основоположник физической науки И. Ньютон высказался по этому вопросу 28 совершенно определенно, считая что вся трудность физики, как будет видно, состоит в том, чтобы по явлениям движения распознать силы природы, а затем по этим силам объяснить остальные явления. Рис.2.1. Основные информационные законы ОСНОВНЫЕ ИНФОРМАЦИОННЫЕЗАКОНЫ Закон сохранения информации Закон формообразования иразвитияматерии Законы термодина- мики Первичная информация Вторичная информация Первое начало Второе начало Закон информацион- ноговзаимо- действия Форма (структу- ра) объек- та, на- правлен- ностьдви- жения МоМодуляция физических Ссил (полей), сопровожда- ющих движение объекта Принцип наимень- шегодей- ствия - min про- изводства энтропии Появление новыхобъ- ектов - результат энерго- информаци- онного взаимодей- ствия Закон сохране- нияобще- гоколиче- ствамас- сы/энергии Закон возраста- нияэнтро- пии (уве- личение беспоряд- ка, хаоса) Время Пространство Форма Энергия 29 Все законы сохранения энергии и действующие в них силы жестко связаны с информационной стороной движения, но приоритет всегда отдавался энергетическому проявлению сил, а потому затенялось главное - указанные силы действуют в интересах сохранения информации. Интересно отметить, что еще в XVII в. Лейбниц назвал математическое выражение для измерения количества движения, сформулированное Ньютоном ( p = mV ), «законом сохранения направления», или «законом сохранения движения вперед». То же самое можно сказать и о силе инерции: сила инерции сохраняет направленность равномерного и прямолинейного движения вещественных тел. Причем сохраняет не только скорость, но, прежде всего, направленность движения. Сила инерции - это сила сохранения информации. В физике существует большое количество сил сохранения информации. Одни сохраняют плоскость кругового движения, другие направленность оси гироскопа, третьи форму и структуру вещественных тел, но все они рассматриваются разрозненно, без понимания их общего предназначения и механизма действия. Рассмотрение действия различных сил – традиционная область научных интересов современной физики и те трудности, которые эта область испытывает сегодня, объясняются, прежде всего, непониманием информационной стороны действия этих сил, и незнанием информационных законов. Закон сохранения информации – это многогранный и сложный закон, теория которого находится на стадии формирования. Но уже сегодня можно с уверенностью сказать: «Любая информация, во всех ее формах и структурах имеет силы сохранения, оберегающие ее существование» [5]. 2.2.2. Основнойинформационныйзакон формообразованияиразвитияматерии Этот закон логически вытекает из сущности информационного дуализма [18]. Появление любых новых материальных форм есть всегда 30 результат энергоинформационного взаимодействия, но сама новая форма (структура) материи определяется только информационной стороной этого взаимодействия. Выше показано, что любому человеческому труду предшествует создание вторичной информации, которая тоже создается на основании информации – человеческих знаний. Но в процессе самого труда в формообразовании участвует и контактное взаимодействие различных видов первичной информации. Когда на прессе штампуется изделие определенной формы, то все понимают, что форма эта зависит не от мощности пресса, а от формы штампа. Конечно, получение формы под давлением во многом определяется твердостью, пластичностью используемого материала, его способностью сохранять заданную форму. Но это свойства не формы, а носителя этой формы, определяющие у него наличие «памяти» и параметров этой памяти. Носитель всегда материален и его материальные свойства определяют свойства памяти, но не информации. Сама же форма - не материальна. Общая теория информации показывает, что информация не зависит от времени, но характеризуется пространством. Энергия не зависит от пространства, но характеризуется временем [42]. Например, любое физическое колебание - механическое или электромагнитное - имеет две независимые, но совместно действующие стороны: энергетическую, связанную со скоростью движения материи, которая характеризуется временем, и информационную, связанною с пространственным действием колебаний, пространственным размахом. Скорость движения механического маятника, как известно, при одинаковом периоде колебаний может быть различна и определяется энергией. А период колебаний этого маятника, как определил Ньютон, зависит только от его длины. 31 2.2.3. Основнойзаконтермодинамикивинформационной трактовке Одним из важнейших принципов, вытекающих из второго начала термодинамики, является принцип деградации энергии. При этом энергия подразделяется на энергию высокого качества - механическую и электрическую, среднего качества – химическую, и низкого качества - тепловую энергию. Такая классификация определяет способность энергии производить работу, а это означает, что тепловая энергия по сравнению с остальными дает самый низкий коэффициент полезного действия. Энергия механической системы имеет самый высокий КПД именно потому, что в механической системе все молекулы жестко связаны и в процессе выполнения работы движутся однонаправлено. Все это означает, что для выполнения работы энергетические возможности должны сопровождаться возможностями информационными и всякий процесс совершения работы есть процесс информационного взаимодействия, в котором информация выступает в виде свойства, управляющего направленностью движения. Новое толкование второго начала термодинамики позволяет определить ее связь с классической механикой, которая казалось утерянной из-за отсутствия в термодинамике понятия траектории: всякий процесс совершения работы есть процесс информационного взаимодействия, в котором информация выступает в виде направленности движения, выполняя управляющую роль. Информационная трактовка второго начала утверждает, что в замкнутой системе любое однонаправленное коллективное движение составляющих эту систему элементов не может продолжаться сколь угодно долго и должно перейти в хаотическое движение. Но поскольку сама информация не зависит от времени, то целесообразно подчеркнуть, что второе начало в общей теории информации связано с материальным свойством нематериальной информации, с 32 носителем информации, с тем свойством, которое называется образом (видом). Второе начало термодинамики - это всеобщий закон природы, который распространяется на любую физическую систему, в том числе и на стационарные формы существования материи. Ведь стационарная форма существования материи - это результат информационного взаимодействия. Направленное движение материальной точки, единичного объекта - это простейший вид существования информации, но он является основой возникновения любой другой формы материального мира. 2.2.4. Принципминимумадиссипации «При информационном взаимодействии направленность движения обеспечивает минимум диссипации энергии» [50]. Еще в XVIII в. П. Мопертюи сформулировал принцип, который называется сегодня принципом наименьшего действия Мопертюи-Лагранжа. Мопертюи П. сформулировал, что природа, производя действия, всегда пользуется наиболее простыми средствами, и количество действия всегда является наименьшим. Правда, П. Мопертюи не смог объяснить правильно, что же такое «действие природы», и полагал, что справедливость этого принципа следует из разума Бога. В термодинамике сформулирован принцип наименьшего рассеяния энергии [38]. Этот принцип обоснован в теореме американского физика Л. Онсагера - одной из основных теорем термодинамики неравновесных процессов. На основании теоремы Л. Онсагера бельгийским физиком И. Р. Пригожиным в 1947 г. доказана еще одна теорема термодинамики неравновесных процессов, названная теоремой И. Пригожина, согласно которой при данных внешних условиях, препятствующих достижению системой равновесного состояния, стационарному состоянию системы соответствует минимум производства энтропии. 33 Сама сущность проводимых в этой области изысканий: формирование потока и движение потока, перемещение материальной точки в потенциальном поле, действие сил, определяющих направленное движение, - все это говорит о том, что следует рассматривать именно информационную сторону взаимодействия материи. Именно информация управляет и направленностью движения вещества и направленностью движения энергии. Общая теория информации утверждает [42], что существует информационная сторона взаимодействия материи, определяющая направленность движения, и естественным критерием выбора направленности движения является минимум диссипации энергии. Используемое понятие минимума диссипации энергии выходит за рамки сегодняшнего понимания в физике, более того, энергетическая сторона энергоинформационного взаимодействия материи с учетом управляющего информационного воздействия требует серьезного физического уточнения, но это уже выходит за рамки общей теории информации. Принцип минимума диссипации энергии – универсальный закон информационного взаимодействия, объясняемый только с позиций общей теории информации [8]. 2.3. Энтропияидиагностическаяинформация 2.3.1. ЭнтропияБольцмана-Гиббса-Шеннонаврешении прикладныхзадач В статистической теории открытых систем [19] энтропия является одной из важнейших характеристик и может играть три разных роли: служить мерой неопределенности при статистическом описании; мерой относительной степени упорядоченности неравновесных состояний открытых систем; мерой разнообразия в информационном потоке. На разных этапах развития статистической теории и теории информации были предложены отличающиеся по форме и степени общности определения энтропии. 34 Впервые связь введенной ранее в термодинамике энтропии с функцией распределения координат и импульсов частиц f(r,p,t) была установлена Больцманом на примере разреженного газа f(x,t): ∫ +∞ ∞ − + ⋅ ⋅ − = 0 ) , ( ln ) , ( S dx t x f t x f n к S b . (2.4) Значение константы S 0 зависит от выбора размера ячейки в фазовом пространстве x=(r,p), однако это значение не играет роли, поскольку для всех приведенных ниже критериев используют разность энтропий двух различных состояний. Рассмотрим n-мерное фазовое пространство x=(r 1 ,…,r n ; p 1 , …, p n ). Введем функцию распределения в n-мерном фазовом пространстве fn(x,t). Через эту функцию выражается энтропия Гиббса: ∫ +∞ ∞ − + ⋅ − = 0 ) , ( ln ) , ( S dx t x f t x f k S n n g . (2.5) Константу S 0 можно выбрать таким образом, чтобы в отсутствии корреляций, когда распределение fn(x,t) выражается через произведения распределений отдельных частиц, энтропии Больцмана и Гиббса совпадали: S b =S g . Естественно, что выражение (2.4) является общим, чем выражение (2.5), так как оно справедливо и при наличии корреляций координат и импульсов частиц. При учете корреляций равенство S b =S g нарушается и заменяется неравенством S b ≤ S g Энтропии Больцмана и Гиббса были введены при статистическом описании систем частиц, когда микроскопическое состояние характеризуется набором пар сопряженных координат и импульсов частиц системы [49]. Определение энтропии через средние значения функции распределения энтропии более значимо, так как выражения такого типа обладают совокупностью свойств, которые позволяют использовать их в качестве меры не- 35 определенности при статистическом описании. На это и обратил внимание К.Шеннон. Это дает основание использовать более общее определение энтропии – энтропию Шеннона: ∫ +∞ ∞ − + ⋅ − = 0 ) , ( ln ) , ( S dx t x f t x f S , (2.6) где ∫ +∞ ∞ − = 1 ) , ( dx t x f Здесь f(х,t) - функция распределения произвольного набора переменных х , характеризующих состояние рассматриваемой системы. Определенная таким образом энтропия, может служить мерой неопределенности при любом распределении (2.3). Если состояние системы характеризуется дискретным набором переменных n с функцией распределения fn, то энтропия определяется выражением: ∑ = ⋅ − = m n n n f f S 1 ln . (2.7) Свойства энтропии, позволяющие принять ее за меру неопределенности при статистическом описании, приводятся в курсах теории информации [7,42] и некоторых курсах статистической физики Ландау Л.Д., Лифшица Е.М., Леонтовича М.А. и др. 2.3.2. ПрименениеН-теоремыдляоткрытыхсистем Среди систем, которые могут обмениваться энергией, выделяется значимый класс систем, движение в которых можно рассматривать как броуновское. В таких системах разность свободных энергий F(t) и F 0 (где индекс " 0 " относится к равновесной характеристике) определяется выражением: 36 ∫ +∞ ∞ − ≥ ⋅ = − = 0 ) ln( ) , ( ) ( 0 0 dv f f t v f kT F t F L F , (2.8) которое представляет пример т.н. энтропии Кульбака. 2.3.3. Динамическоеистатическоеописаниесложныхдвижений Ранее отмечалось, сколь драматическим было "соперничество" динамической и статистической теорий при описании сложных движений в открытых макроскопических системах. Сложные движения в динамике первоначально были обнаружены в гамильтоновых системах. Для их характеристики и было введено понятие "динамический хаос". В настоящее время этот термин широко используется и для сложных движений в диссипативных динамических системах. Основной особенностью динамического хаоса является динамическая неустойчивость движения - экспоненциальная расходимость близких в начальный момент времени траекторий, вследствие чего имеется высокая чувствительность к изменению начальных условий. Мерой экспоненциальной расходимости служит К-энтропия (энтропия Крылова- Колмогорова-Синая) [7]. К-энтропия связана со средней скоростью расхождения близких в начальный момент траекторий и, следовательно, с показателями Ляпунова. К-энтропия выражается через положительные показатели Ляпунова по формуле ) 0 ( > = ∑ i i i K λ λ . (2.9) Таким образом, K-энтропия равна нулю, если нет положительных показателей Ляпунова. К-энтропия является критерием динамической неустойчивости движения. 37 2.4. Оценказначимостииценностиинформации впрактическихзадачахдиагностики В теоретико-информационных исследованиях [42, 43, 44] можно выделить два подхода к определению понятия ценной (полезной) информации, т.е. информации, которая помогает достижению цели. Если вероятность достижения цели велика, то ценность информации определяется по критерию минимизации затрат на ее получение. Если же достижение цели маловероятно, то мерой ценности (полезности) информации может служить некая функция отношения вероятности достижения цели после и до получения информации [7]. Информация, получаемая системой контроля В об объекте А, характеризует его состояние. Следовательно, если поставить целью диагностирования получение информации о времени возможного отказа объекта, то полученный информационный критерий может представлять собой обобщенный показатель остаточной работоспособности объекта. При этом важной задачей является выбор наиболее существенных диагностических параметров. Он может быть также осуществлен с помощью информационных оценок (рис.2.2). Известно, что определенные симптомы и их комбинации адекватно характеризуют техническое состояние объекта диагностирования. Таким образом, рассматривают две зависимые системы: техни- ческих состояний объекта и симптомов этих состояний (диагностических признаков). Введем здесь ряд важных понятий. Будем называть простымпризнаком результат обследования, который может быть выражен одним из двух символов или двоичным числом (например, 1 и 0; «да» и «нет»; «+» и «-» и т.п.). С точки зрения теории информации простой признак можно рассматривать как систему, имеющую одно из двух возможных состояний. Для целей диагностики область возможных значений измеряемого параметра часто разбивается на интервалы и характерным является наличие параметра в данном интервале. В связи с этим результат количественного обследования может рассматриваться как признак, принимающий несколько возможных состояний. Условимся называть сложнымпризнаком(разряда m) результат наблюдения (обследования), который может быть выражен одним из m символов. Рассмотрим подробнее некоторые признаки. Одноразрядный признак (m=1) имеет только одно возможное состояние. Такой признак не несет какой-либо диагностической информации и его следует исключить из рассмотрения. Двухразрядный признак (m=2) обладает двумя возможными состояниями. Эти состояния альтернативны, так как реализуется только одно из них. Очевидно, что двухразрядный признак может быть заменен простым признаком, например, B j Трехразрядный признак (m=3) имеет три возможных значения и т.д. С учетом изложенного, обратимся теперь к теории информации. Пусть в процессе диагностирования наблюдают признаки В, т.е. определяют состояние системы А. Информация, которую при этом получают, уменьшает энтропию системы А, т.е. 38 J A ( B ) = H( A ) – H( A/B ), (2.10) где H(A/B) - полная условная энтропия системы A относительно системы B. Эта информация характеризует степень неопределенности системы A, остающуюся после того, как система B полностью определилась. В общем случае признак B j m–го разряда имеет m возможных альтернативных значений B 1j , B 2j , …, B mj . В инженерной практике обычно пользуются обследованием по двум, трехразрядным признакам, т.е. признакам, имеющим два-три возможных состояния. Обычно представляют признак 3-го разряда в виде комплекса простых альтернативных признаков. Если выявлено, что признак B имеет для данного состояния объекта значение B js , то это значение называют реализацией признака B j . В качестве диагностического веса реализации B j для состояния A i по аналогии с (3.14) принимают величину ( ) ( ) = js i js js Ai B P A B P B Z log ) ( , (2.11) где P(B js /A i )- вероятность появления B js реализации признака B для объектов, имеющих состояние A i ; P(B js ) - вероятность появления значения B js для всей совокупности исследуемых объектов. Величину Z Ai (B js ) называют диагностическимвесомреализации. Ее считают также показателем ценности информации и информационной мерой признака. По формуле (2.11) рассчитывают диагностический вес реализаций двухразрядных параметров по двум возможным состояниям. Диагностической ценностью обследования по признаку Bj для состояния Ai считают величину информации, внесенную признаком Bj для определения состояния Аi. Для m - разрядного признака 39 ( ) ( ) js Ai m s i js j Ai B Z A B P B Z ⋅ = ∑ = 1 ) ( . (2.12) В частном случае диагностическая ценность обследования простого двухразрядного признака вычисляется по формуле: ( ) ( ) ( ) ⋅ ⋅ = j i j i j j Ai B P A B P A B P B Z log 2 ) ( . (2.13) Диагностическая проверкапараметров объекта Оценка объема информации Внешниепроявления диагностических признаков Диагностический веспризнаков Техническая реализация Ценность диагностической информации Постановкадиагноза АТсучетом оптимизации информационных потоков |