Главная страница

ДИАГНОСТИКА АВИАЦИОННОЙ ТЕХНИКИ. московскийгосударственныйтехнический университетгражданскойавиации


Скачать 1.14 Mb.
Названиемосковскийгосударственныйтехнический университетгражданскойавиации
Дата21.02.2022
Размер1.14 Mb.
Формат файлаpdf
Имя файлаДИАГНОСТИКА АВИАЦИОННОЙ ТЕХНИКИ.pdf
ТипУчебное пособие
#368611
страница2 из 12
1   2   3   4   5   6   7   8   9   ...   12
1.2.
Задачитехническойдиагностики
Техническая диагностика АТ решает обширный круг задач, но основной - является распознавание состояний технических систем в условиях ограниченной информации. Решение диагностических задач (отнесение объекта к исправному или неисправному состоянию) всегда связано с риском ложной тревоги или пропуска дефекта.
Следует отметить, что угрожающие при своем развитии разрушением объектов АТ неисправности можно укрупнено разделить на три группы [24]:
1) неисправности очень быстро (в течение долей секунды или нескольких секунд) переходящие в аварию, или, что почти то же самое, неисправности, слишком поздно обнаруживаемые с помощью доступных

15 средств диагностики;
2) неисправности, способные развиваться в аварию в течение нескольких минут, а также неисправности, характер и темп развития которых нельзя достоверно предсказать на основе достигнутого уровня знаний.
Возникновение подобных неисправностей должно сопровождаться немедленной выдачей сигнала экипажу самолета
(или персоналу испытательного стенда) для привлечения внимания, оценки ситуации и принятия необходимых мер;
3) неисправности, развивающиеся относительно медленно или обнаруживаемые наличными диагностическими средствами на столь ранней стадии, что переход их в аварию в продолжение данного полета можно считать практически исключенным. Раннее обнаружение именно таких неисправностей и составляет основу прогнозирования состояний АТ.
Интервал времени от появления первого симптома неисправности до опасного ее развития является не столько физическим свойством конкретной неисправности, сколько мерилом уровня наших познаний о ее причинах, признаках и процессах развития.
Одна из практических задач исследований диагностики в области динамики развития неисправностей АТ состоит в том, чтобы максимально сокращать число неисправностей первой и второй групп и постепенно
«переводить» их в третью, расширяя, таким образом, возможности раннего диагностирования и долгосрочного прогнозирования состояний АТ. Высокая степень упреждения диагноза не только повышает безопасность полетов
(БП), но и способствует существенному снижению эксплуатационных затрат, связанных с нарушением регулярности полетов, ремонтом АТ.
Опыт эксплуатации АТ для решения задач диагностики показывает, чтобы правильно поставить диагноз, необходимо на первом этапе заранее знать все возможные состояния, исходя из априорных статистических данных и вероятностей проявления ситуаций, а также массив диагностических признаков, реагирующих на эти состояния. Как уже

16 отмечалось, процесс качественного изменения технических свойств АТ происходит непрерывно, а это значит, что множество возможных ее состояний бесконечно и даже несчетно. Одна из задач диагностики состоит в том, чтобы разбить множество состояний на конечное и небольшое число классов. В каждом классе объединяются состояния, обладающие одинаковыми свойствами, выбранными в качестве признаков классификации.
При этом статистическая база параметров, полученных перечисленными выше методами диагностики, должна быть непредвзятой и реальной.
Не все параметры, которые могут быть использованы в диагностике, равноценны по содержательности сведений о функционирующих системах
АТ. Одни из них приносят информацию сразу о многих свойствах работающих модулей, другие, напротив, крайне бедны. Безусловно, предпочтение следует отдавать диагностическим параметрам, носящим флуктуирующий характер, а не тем, которые постоянны или меняются очень медленно [4]. Например, шум авиадвигателя и его вибрация по количеству привносимой информации имеют большое преимущество перед такими устойчивыми инертными сигналами, как температура охлаждающей жидкости, скорость вращения вала и др., хотя эти параметры так же как шум и вибрация зависят от состояния работающего авиадвигателя. Поэтому на втором этапе интересным представляется рассмотреть задачи взаимосвязи диагностических параметров, их изменение и возможное влияние друг на друга, а также оценить значимость признаков разных функциональных параметров АТ.
Известно, что теория постановки диагноза довольно хорошо описывается общей теорией связи, являющейся одним из разделов теории управления [5]. На службу диагностике можно поставить математический и логический аппараты, систему освоенных понятий и терминологию.
Необходимо лишь найти физическую интерпретацию абстрактных формул и пути практического осуществления предписываемых ими подходов. Таким образом, на третьем этапе необходимо подтвердить, воспользовавшись

17 известными принципами информационной теории, значимость диагностических признаков, и с учетом этого сформировать диагноз, а в дальнейшем, осуществить прогноз предотказных состояний. Эта часть работы связана с наибольшими трудностями, т.к. функциональные системы
АТ являются многопараметрическими, но не все параметры одинаково существенны (информативны) в тех или иных конкретных условиях.
Обратимся к классической трактовке структурирования диагностики по
Биргеру И.А. лишь с некоторым дополнением этой схемы (рис.1.1) [ 4 ].
Рис. 1.1 Структура технической диагностики
Теория распознаванияи классификации
Правила решения и идентификации
ТЕХНИЧЕСКАЯ
ДИАГНОСТИКААТ
Теория информативностии контролепригодности
Алгоритмы распознавания
Диагностические модели
Диагностическая информация
Контроль состояния
Поиск неисправностей

18
Представленная укрупненная структура характеризуется двумя взаимосвязанными направлениями: теорией распознавания и теорией информативности. Теория распознавания дополнена новыми элементами классификации и включает в себя разделы, связанные с построением алгоритмов распознавания, решающих правил при идентификации объектов контроля и диагностических моделей и их классификацию. Теория информативности в данном контексте подразумевает получение диагностической информации с помощью известных методов и средств диагностики, автоматизированный контроль с разработкой алгоритмов поиска неисправностей, минимизацию процесса установления диагноза.
Еще один круг задач в области технической диагностики связан с непрерывным внедрением систем диагностирования в практику эксплуатационных предприятий ГА. Условием для их внедрения является наличие специальных методик и программ диагностирования, а также алгоритмов принятия решений по дальнейшей эксплуатации АТ. При этом необходимыми условиями являются наличие современного приборного, метрологически аттестованного оборудования и кадров соответствующего уровня квалификации.
В последующих главах пособия излагаются теоретические и информационные аспекты методов постановки технического диагноза, рассматриваются методы диагностики авиационной техники с информационных позиций, приводятся конкретные примеры в области информационной диагностики.

19
Глава 2. Теоретическиеиинформационныеаспекты техническогодиагноза
2.1. Основныефилософскиевоззрениятеорииинформации
Рассмотрим, как изменялось понятие «информация» в разные периоды развития диагностики и в разных ее контекстах. Различные исследователи предлагали как разные словесные определения, так и разные количественные меры информации. Анализ истории термина «информация» позволяет глубже понять некоторые современные аспекты и разночтения его употребления. Латинское слово «информация» означает: придание формы, свойств. В XIY веке так называли божественное «программирование» - вложение души и жизни в тело человека [43]. Примерно в это же время слово
«информация» стало означать и передачу знаний с помощью книг. Таким образом, смысл этого слова смещался от понятий «вдохновение»,
«оживление» к понятиям «сообщение», «сюжет».
В настоящее время мы говорим, что получаем информацию (сведения), когда узнаем что-либо о событии, результат которого не был предопределен; и чем более ожидаемым, вероятным является событие, тем меньше информации мы получаем. На таких рациональных представлениях о том, как уменьшается неопределенность при получении тех или иных сведений, и базируются научные концепции информации и количественные
(вероятностные) меры ее оценки [15].
Основополагающими работами в этом направлении являются статьи
Р. Хартли (1928 г.) [18] для равновероятных событий и К. Шеннона
(1948 г.) [44] для совокупностей событий с различными вероятностями.
Следует отметить, что еще в 1933 г. появилась работа нашего соотечественника В.А. Котельникова о квантовании электрических сигналов, содержащая знаменитую “теорему отсчетов”. Однако в мировой научной литературе считается, что именно 1948 г. – это год зарождения

20 теории информации и количественного подхода к информационным процессам.
Появление этих работ было обусловлено стремительным развитием технических средств связи и необходимостью измерения
“объемов” (количеств) передаваемых сведений. Теория информации возникла в недрах теории связи, как ее аппарат и фундамент. Это отражено уже в названии основополагающего труда К. Шеннона «Математическая теория связи». При этом сам автор был против распространения его подхода на другие научные направления: он писал о специфике задач связи, о трудностях и ограничениях своей теории.
Однако следующие три десятилетия стали периодом широчайшей экспансии теоретико-информационных представлений - развития как собственно теории информации, так и ее разнообразнейших приложений, благодаря которым сформировалась настоящая общенаучная, философско – информационная парадигма. Вовлеченными в этот процесс оказались и
“чистые” математики, и специалисты по теории систем, физики, химики, биологи, представители практически всех гуманитарных наук.
Для этого “взрыва” были определенные предпосылки, сформированные развитием физики. Математическое выражение для количества информации, введенное Р.Хартли (2.1) и обобщенное К.Шенноном (2.2-2.3), - «копия» знаменитой формулы Л. Больцмана для физической энтропии системы. Это
«совпадение» далеко не случайно - оно свидетельствовало о каких-то глубинных общностных процессах. Потребовалась универсальная мера гетерогенности систем, которая позволила бы сравнивать их сложность и многообразие. В дальнейшем эта мера использовалась как, например, в термодинамике (в моделях идеального газа), так и в диагностике материальных объектов (при анализе работы функциональных систем, распознавании образов, в решении задач постановки диагноза).
Проникновение термодинамических представлений в теоретико- информационные исследования привело к переосмыслению работ классиков

21 термодинамики и статистической физики. В публикациях рассматриваемого периода [8] упоминаются работы П. Лапласа, Р. Майера, Д. Джоуля,
Г. Гельмгольца, С. Карно, Р. Клаузиуса, Дж. Томпсона, Нернста, Дж. Гиббса,
Л. Больцмана, Дж. Максвелла, Л. Сцилларда и других физиков.
Представления термодинамики и статистической физики создатели теории информации стремились расширить до ранга общесистемных моделей. Своеобразным этапом в этом процессе стали работы Л. Бриллюэна
[19], который на основе введенного им понятия «негэнтропийного принципа» обосновал связь понятия количества информации с понятием физической энтропии. Пользуясь современными терминами, следует отметить, что предметом не только этих первых, но и большинства более поздних теоретико-информационных работ была лишь “микроинформация” - информация, которую система не запоминает и которая является мерой разнообразия возможных микросостояний, определяющих макросостояние системы.
Развитие теоретических термодинамических представлений привело, в частности, к выводам о возможности построения статистической как равновесной, так и неравновесной термодинамики на базе теории информации, а впоследствии - и к построению (в том числе и на базе экспериментов) термодинамической теории информационных процессов, в которой установлены связи между информационными и энергетическими характеристиками [42].
Существует и другой подход к понятию информации, охватывающий структуры и связи систем. В 1936 году А. Тьюринг и Э. Пост независимо друг от друга разработали концепцию “абстрактной вычислительной машины”. Затем А. Тьюринг описал гипотетический универсальный преобразователь дискретной информации (“машину Тьюринга”).
Начало пониманию сущности информации как всеобщего свойства материи было положено Н. Винером. В 1941 году он опубликовал свой первый труд об аналогиях между работой математической машины и

22 нервной системы живого организма, а в 1948 году - фундаментальное исследование “Кибернетика, или управление и связь в животном и машине” [8]. По замыслу автора эта монография должна была стать наукой об управлении, объединяющей все виды управления в живой и неживой природе. Недаром Н. Винер использовал для названия новой науки термин, предложенный еще Ампером в его классификации наук. Ампер, как известно, предлагал назвать кибернетикой науку об управлении государством.
Предложенная формула информации
«Информация

это информация
, анематерияилиэнергия», зафиксированная как открытие в
Международной регистрационной палате информационно-интеллектуальной новизны, интерпретируется следующим образом:
«Информация представляет собой всеобщее свойство взаимодействия материального мира, определяющее направленность движения энергии и вещества. Это всеобщее, нематериальное свойство взаимодействия материального мира включает в себя первичную и вторичную информацию. При этом, под первичной информацией подразумевается направленность движения вещества, при котором возникает не только направленность его движения в пространстве, но и форма (структура, морфология) как результат направленности движения, составляющих вещество элементов, а вторичная информация есть отражение первичной в виде формы (структуры, модуляции) пространствен- ных сил, сопровождающих всякое движение вещества. Открытие может быть использовано для изучения процессов и явлений, не имеющих в настоящее время научного обоснования, в физике, химии, биологии, медицине, экономике и других областях человеческих знаний» [30].
Из этого следует, что информация объединяет в себе три принципиально отличные вида – направленность движения, форму
(структуру) вещества и форму (структуру, модуляцию) окружающих вещество полей, которые мы наблюдаем в результате действия пространственных сил, сопровождающих движение вещества. Однако

23
Н. Винер не смог объяснить взаимосвязь механизма информационного взаимодействия и механизма управления.
На необходимость двух принципиально различных подходов к построению теории информации указывал Дж. Нейман, отмечавший, что вероятностно-статистический подход необходим для информационного описания двух разных процессов (систем) – статистических и динамических.
Понятие информации не случайно оказалось ключевым для быстро развивающихся дисциплин – как общенаучных, так и специальных. Это было вызвано бурными успехами экспериментально-аналитических исследований более полвека назад, в 1948 г., когда были созданы концепции и основы математического аппарата общей теории информации для анализа состояний систем.
Большое значение для понимания сущности информации имели работы английского ученого У. Эшби, однако, и они не смогли сдержать превращения кибернетики как науки об управлении, в науку об обработке информации с помощью вычислительной техники. Мешала математика: предложенная Н. Винером и К. Шенноном формула для измерения информации «заслонила» от ученых физику информации, о которой говорили Н. Винер и У. Эшби. Более того, вмешательство в выяснение сущности информации таких известных физиков, как Э. Шредингера и
Л.
Бриллюэна, только усугубило проблему: информации стали противопоставлять энтропию энергии, т.к. математическое выражение для измерения количества информации Винера-Шеннона по форме совпадало с математическим выражением энтропии энергии Больцмана-Планка.
Считалось, что «настоящую информацию» измерить нельзя, т.к. до конца оставалось неясно, что же такое настоящая информация.
В теории связи по К.Шеннону информация выступает в виде различных сообщений: например, букв или цифр, как в телеграфии, или непрерывной функции времени, как при телефонии или радиовещании, но в любом из указанных примеров это представляет собой передачу смыслового

24 содержания человеческой речи. В свою очередь человеческая речь может быть представлена в звуковых колебаниях или в письменном изложении. На это удивительное свойство информации – представлять одно и то же смысловое содержание в самом различном физическом виде – обратил внимание исследователей У. Эшби. Это свойство вторичной информации называется кодированием. Для того чтобы общаться с другими людьми, человеку приходится постоянно заниматься кодированием, перекодированием и декодированием. Понятно, что по каналам связи вторичная информация может передаваться в самых различных системах кодирования. Одной из задач, которую ставил перед собой К. Шеннон, заключалась в том, чтобы определить систему кодирования, позволяющую оптимизировать скорость и достоверность передачи вторичной информации.
Для решения этой задачи К. Шеннон использовал математический аппарат, созданный еще в 1928 году Р. Хартли в его работе «Передача информации». Именно Р. Хартли ввел в теорию передачи информации мето- дологию "измерения количества информации", которая представляет собой
«группу физических символов – слов, точек, тире и т.п., имеющих по общему соглашению известный смысл для корреспондирующих сторон» [47].
Таким образом, ставилась задача ввести какую-то меру для измерения кодированной информации, а точнее последовательности символов, используемых для кодирования вторичной информации.
Рассматривая передаваемую информацию в виде определенной последовательности символов, например алфавита, а передачу и прием этой информации в виде последовательных выборов из этого алфавита, Р. Хартли ввел понятие количества информации в виде логарифма числа, общего количества возможной последовательности символов (алфавита), а единицей измерения этой информации определил – основание этого логарифма. Тогда, например, в телеграфии, где длина алфавита ровна двум (точка, тире), при основании логарифма 2, количество информации, приходящееся на один символ равно

25 1
2
log
2
=
=
H
бит (1 двоичная ед.). (2.1)
Аналогично при длине алфавита 32 буквы: H = log
2
32 = 5 бит (5 двоичных единиц).
Шеннон К., используя методологию Р. Хартли, обратил внимание на то, что при передаче словесных сообщений частота использования различных букв алфавита не одинакова: некоторые буквы используются очень часто, другие - редко. Существует и определенная корреляция в буквенных последовательностях, когда за появлением одной из букв с большой вероятностью следует конкретная другая. Введя в формулу Р. Хартли указанные вероятностные значения р, К. Шеннон получил новые выражения для определения количества информации. Для одного символа это выражение приобретает вид:
p
p
H
2
log

=
, (2.2) а сообщения, состоящего из "n" символов:

=

=
n
i
i
i
p
p
H
1 2
log
. (2.3)
Выражение (2.3), повторяющее по форме выражение для энтропии в статистической механике, К. Шеннон по аналогии назвал энтропией.
Такой подход принципиально изменил понятие информации. Под информацией теперь стали понимать не любые сообщения, передаваемые в системе связи, а лишь те, которые уменьшают неопределенность у получателя информации об объекте, и чем больше уменьшается эта неопределенность, т.е. чем больше снижается энтропия сообщения, тем выше информативность поступившего сообщения. Энтропия - это тот минимум информации, который необходимо получить, чтобы ликвидировать неопределенность алфавита, используемого источником информации.

26
Форма информации (структура, модуляция физических полей), которая и несет смысловое содержание этой информации, реализуя его через информационное взаимодействие материи, является вторичной информацией.
Легко понять, что смысловое содержание вторичной информации в человеческом обществе – это знание об окружающем нас мире, определяющее поведение человека, т.к. опираясь на эти знания, человек взаимодействует с природой и материальными объектами.
Вторичная информация существует объективно, независимо от воли и сознания людей. Вторичная информация, например, может проявляться в виде электромагнитного, гравитационного полей, фиксируемых органолептическими чувствами человека.
Человек воспринимает мир через образы, но, анализируя увиденное, мыслит словами. Это означает, что в нашей памяти одновременно хранится образная вторичная информация об окружающем нас мире в своем естественном голографическом виде и перекодированная вторичная информация в символике нашего языка. Каждый человек постоянно занимается кодированием и перекодированием, наблюдая окружающий мир.
При этом символьную информацию, хранящуюся в памяти, можно анализировать количественно по Э.Хартли или К.Шеннону, используя одинаковый алфавит и двоичную систему счисления. Настоящая информация действительно не измеряется, т.к. отсутствуют эталоны сравнения. Однако ее можно классифицировать и определить более значимую составляющую для постановки диагноза.
Следует отметить, что важную роль в развитии теории информации сыграли математические исследования - работы А.Н. Колмогорова,
М.М. Бонгарда [5], которые привели к новым определениям в теории информации. Количество информации рассматривалось как минимальная длина программы (сложность), позволяющая однозначно преобразовывать одно множество в другое. Эти подходы позволили весьма расширить круг

27 конкретных задач, в частности, вовлечь во многие исследования мощь электронно-вычислительной техники.
Технические системы сразу же стали очень перспективными объектами для диагностики. С одной стороны, это – физические, материальные объекты, доступные разным методам экспериментальных исследований. С другой стороны, информационный обмен является важнейшей характеристикой поведения этого объекта. Наличие информационного обмена, общего для любых технических объектов (систем), позволяет осуществить их диагностику на основе теории информации, т.е. использовать ее для обеспечения процессов распознавания состояний АТ.
1   2   3   4   5   6   7   8   9   ...   12


написать администратору сайта