ПОГРЕШНОСТЬ ИЗМЕРЕНИЙ. 6. погрешность измерений
Скачать 27.27 Kb.
|
6. ПОГРЕШНОСТЬ ИЗМЕРЕНИЙ В практике использования измерений очень важным показателем становится их точность, которая представляет собой ту степень близости итогов измерения к некоторому действительному значению, которая используется для качественного сравнения измерительных операций. В качестве количественной оценки, как правило, используется погрешность измерений. Причем чем погрешность меньше, тем считается выше точность. Согласно закону теории погрешностей, если необходимо повысить точность результата (при исключенной систематической погрешности) в 2 раза, то число измерений необходимо увеличить в 4 раза; если требуется увеличить точность в 3 раза, то число измерений увеличивают в 9 раз и т. д. Процесс оценки погрешности измерений считается одним из важнейших мероприятий в вопросе обеспечения единства измерений. Естественно, что факторов, оказывающих влияние на точность измерения, существует огромное множество. Следовательно, любая классификация погрешностей измерения достаточно условна, поскольку нередко в зависимости от условий измерительного процесса погрешности могут проявляться в различных группах. При этом согласно принципу зависимости от формы данные выражения погрешности измерения могут быть: абсолютными, относительными и приведенными. Кроме того, по признаку зависимости от характера проявления, причин возникновения и возможностей устранения погрешности измерений могут быть систематическими и случайными. Систематическая составляющая остается постоянной или меняется при следующих измерениях того же самого параметра. Случайная составляющая изменяется при повторных изменениях того же самого параметра случайным образом. Обе составляющие погрешности измерения (и случайная, и систематическая) проявляются одновременно. Причем значение случайной погрешности не известно заранее, поскольку оно может возникать из-за целого ряда неуточненных факторов. Данный вид погрешности нельзя исключить полностью, однако их влияние можно несколько уменьшить, обрабатывая результаты измерений. Систематическая погрешность, и в этом ее особенность, если сравнивать ее со случайной погрешностью, которая выявляется вне зависимости от своих источников, рассматривается по составляющим в связи с источниками возникновения. Составляющие погрешности могут также делиться на: методическую, инструментальную и субъективную. Субъективные систематические погрешности связаны с индивидуальными особенностями оператора. Такая погрешность может возникать из-за ошибок в отсчете показаний или неопытности оператора. В основном же систематические погрешности возникают из-за методической и инструментальной составляющих. Методическая составляющая погрешности определяется несовершенством метода измерения, приемами использования СИ, некорректностью расчетных формул и округления результатов. Инструментальная составляющая появляется из-за собственной погрешности СИ, определяемой классом точности, влиянием СИ на итог и разрешающей способности СИ. Есть также такое понятие, как «грубые погрешности или промахи», которые могут появляться из-за ошибочных действий оператора, неисправности СИ или непредвиденных изменений ситуации измерений. Такие погрешности, как правило, обнаруживаются в процессе рассмотрения результатов измерений с помощью специальных критериев. Важным элементом данной классификации является профилактика погрешности, понимаемая как наиболее рациональный способ снижения погрешности, заключается в устранении влияния какого-либо фактора. Погрешности измерений классифицируются по следующим признакам. По способу математического выражения погрешности делятся на абсолютные погрешности и относительные погрешности. Абсолютная погрешность - это значение, вычисляемое как разность между значением величины, полученным в процессе измерений, и настоящим (действительным) значением данной величины. Абсолютная погрешность вычисляется по следующей формуле: AQn = Qn — Qo где ЛОп - абсолютная погрешность; Qn - значение некой величины, полученное в процессе измерения; Qo - значение той же самой величины, принятое за базу сравнения (настоящее значение). Абсолютная погрешность меры - это значение, вычисляемое как разность между числом, являющимся номинальным значением меры, и настоящим (действительным) значением воспроизводимой мерой величины. Относительная погрешность - это число, отражающее степень точности измерения. Относительная погрешность вычисляется по следующей формуле: 100 • AQn а= о0 где AQn - абсолютная погрешность; Qo - настоящее (действительное) значение измеряемой величины. Относительная погрешность выражается в процентах. Приведенная погрешность - это значение, вычисляемое как отношение значения абсолютной погрешности к нормирующему значению. Нормирующее значение определяется следующим образом: для средств измерений, для которых утверждено номинальное значение, это номинальное значение принимается за нормирующее значение; для средств измерений, у которых нулевое значение располагается на краю шкалы измерения или вне шкалы, нормирующее значение принимается равным конечному значению из диапазона измерений. Исключением являются средства измерений с существенно неравномерной шкалой измерения; для средств измерений, у которых нулевая отметка располагается внутри диапазона измерений, нормирующее значение принимается равным сумме конечных численных значений диапазона измерений; для средств измерения (измерительных приборов), у которых шкала неравномерна, нормирующее значение принимается равным целой длине шкалы измерения или длине той ее части, которая соответствует диапазону измерения. Абсолютная погрешность тогда выражается в единицах длины. По взаимодействию изменений во времени и входной величины погрешности делятся на статические погрешности и динамические погрешности. Статическая погрешность - это погрешность, которая возникает в процессе измерения постоянной (не изменяющейся во времени) величины. Динамическая погрешность - это погрешность, численное значение которой вычисляется как разность между погрешностью, возникающей при измерении непостоянной (переменной во времени) величины, и статической погрешностью (погрешностью значения измеряемой величины в определенный момент времени). По характеру появления погрешности делятся на систематические погрешности и случайные погрешности. Систематическая погрешность - это составная часть всей погрешности результата измерения, не изменяющаяся или изменяющаяся закономерно при многократных измерениях одной и той же величины. Обычно систематическую погрешность пытаются исключить возможными способами (например, применением методов измерения, снижающих вероятность ее возникновения), если же систематическую погрешность невозможно исключить, то ее просчитывают до начала измерений и в результат измерения вносятся соответствующие поправки. В процессе нормирования систематической погрешности определяются границы ее допустимых значений. Систематическая погрешность определяет правильность измерений средств измерения (метрологическое свойство). Систематические погрешности в ряде случаев можно определить экспериментальным путем. Результат измерений тогда можно уточнить посредством введения поправки. Способы исключения систематических погрешностей делятся на четыре вида: ликвидация причин и источников погрешностей до начала проведения измерений; устранение погрешностей в процессе уже начатого измерения способами замещения, компенсации погрешностей по знаку, противопоставлениям, симметричных наблюдений; корректировка результатов измерения посредством внесения поправки (устранение погрешности путем вычислений); определение пределов систематической погрешности в случае, если ее нельзя устранить. Ликвидация причин и источников погрешностей до начала проведения измерений. Данный способ является самым оптимальным вариантом, так как его использование упрощает дальнейший ход измерений (нет необходимости исключать погрешности в процессе уже начатого измерения или вносить поправки в полученный результат). Для устранения систематических погрешностей в процессе уже начатого измерения применяются различные способы. Способ введения поправок базируется на знании систематической погрешности и действующих закономерностей ее изменения. При использовании данного способа в результат измерения, полученный с систематическими погрешностями, вносят поправки, по величине равные этим погрешностям, но обратные по знаку. Способ замещения состоит в том, что измеряемая величина заменяется мерой, помещенной в те же самые условия, в которых находился объект измерения. Способ замещения применяется при измерении следующих электрических параметров: сопротивления, емкости и индуктивности. Способ компенсации погрешности по знаку состоит в том, что измерения выполняются два раза таким образом, чтобы погрешность, неизвестная по величине, включалась в результаты измерений с противоположным знаком. Способ противопоставления похож на способ компенсации по знаку. Данный способ состоит в том, что измерения выполняют два раза таким образом, чтобы источник погрешности при первом измерении противоположным образом действовал на результат второго измерения. Случайная погрешность - это составная часть погрешности результата измерения, изменяющаяся случайно, незакономерно при проведении повторных измерений одной и той же величины. Появление случайной погрешности нельзя предвидеть и предугадать. Случайную погрешность невозможно полностью устранить, она всегда в некоторой степени искажает конечные результаты измерений. Но можно сделать результат измерения более точным за счет проведения повторных измерений. Причиной случайной погрешности может стать, например, случайное изменение внешних факторов, воздействующих на процесс измерения. Случайная погрешность при проведении многократных измерений с достаточно большой степенью точности приводит к рассеянию результатов. Промахи и грубые погрешности - это погрешности, намного превышающие предполагаемые в данных условиях проведения измерений систематические и случайные погрешности. Промахи и грубые погрешности могут появляться из-за грубых ошибок в процессе проведения измерения, технической неисправности средства измерения, неожиданного изменения внешних условий. По характеру зависимости погрешности от влияющих величин погрешности делятся на основные и дополнительные. Основная погрешность - это погрешность, полученная в нормальных условиях эксплуатации средства измерений (при нормальных значениях влияющих величин). Дополнительная погрешность - это погрешность, которая возникает в условиях несоответствия значений влияющих величин их нормальным значениям, или если влияющая величина переходит границы области нормальных значений. Нормальные условия - это условия, в которых все значения влияющих величин являются нормальными либо не выходят за границы области нормальных значений. Рабочие условия - это условия, в которых изменение влияющих величин имеет более широкий диапазон (значения влияющих не выходят за границы рабочей области значений). Рабочая область значений влияющей величины - это область значений, в которой проводится нормирование значений дополнительной погрешности. По характеру зависимости погрешности от входной величины погрешности делятся на аддитивные и мультипликативные. Аддитивная погрешность - это погрешность, возникающая по причине суммирования численных значений и не зависящая от значения измеряемой величины, взятого по модулю (абсолютного). Мультипликативная погрешность - это погрешность, изменяющаяся вместе с изменением значений величины, подвергающейся измерениям. Надо заметить, что значение абсолютной аддитивной погрешности не связано со значением измеряемой величины и чувствительностью средства измерений. Абсолютные аддитивные погрешности неизменны на всем диапазоне измерений. Значение абсолютной аддитивной погрешности определяет минимальное значение величины, которое может быть измерено средством измерений. Значения мультипликативных погрешностей изменяются пропорционально изменениям значений измеряемой величины. Значения мультипликативных погрешностей также пропорциональны чувствительности средства измерений. Мультипликативная погрешность возникает из-за воздействия влияющих величин на параметрические характеристики элементов прибора. Погрешность измерения включает в себя инструментальную, методическую, субъективную погрешности и погрешность отсчитывания. Причем погрешность отсчитывания возникает по причине неточности определения долей деления шкалы измерения. Инструментальная погрешность - это погрешность, возникающая из-за допущенных в процессе изготовления функциональных частей средств измерения ошибок. Методическая погрешность - это погрешность, возникающая по следующим причинам: неточность построения модели физического процесса, на котором базируется средство измерения; неверное применение средств измерений. Субъективная погрешность - это погрешность, возникающая из-за низкой степени квалификации оператора средства измерений, а также из-за погрешности зрительных органов человека, т.е. причиной возникновения субъективной погрешности является человеческий фактор. |