Меню

Что такое допускаемая основная погрешность средства измерений



Что такое допускаемая основная погрешность средства измерений

Погрешность средства измерений (англ. error (of indication) of a measuring instrument) – разность между показанием средства измерений и истинным (действительным) значением измеряемой физической величины.

Систематическая погрешность средства измерений (англ. bias error of a measuring instrument) – составляющая погрешности средства измерений, принимаемая за постоянную или закономерную изменяющуюся.
Примечание. Систематическая погрешность данного средства измерений, как правило, будет отличаться от систематической погрешности другого экземпляра средства измерений этого же типа, вследствие чего для группы однотипных средств измерений систематическая погрешность может иногда рассматриваться как случайная погрешность.

Случайная погрешность средства измерений (англ. repeatability error of a measuring instrument) – составляющая погрешности средства измерений, изменяющаяся случайным образом.

Абсолютная погрешность средства измерений – погрешность средства измерений, выраженная в единицах измеряемой физической величины.

Относительная погрешность средства измерений – погрешность средства измерений, выраженная отношением абсолютной погрешности средства измерений к результату измерений или к действительному значению измеренной физической величины.

Приведенная погрешность средства измерений (англ. reducial error of a measuring instrument) – относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона.
Примечания:

  • Условно принятое значение величины называют нормирующим значением. Часто за нормирующее значение принимают верхний предел измерений.
  • Приведенную погрешность обычно выражают в процентах.

Основная погрешность средства измерений (англ. intrinsic error of a measuring instrument) – погрешность средства измерений, применяемого в нормальных условиях.

Дополнительная погрешность средства измерений (англ. complementary error of a measuring instrument) – составляющая погрешности средства измерений, возникающая дополнительно к основной погрешности вследствие отклонения какой-либо из влияющих величин от нормального ее значения или вследствие ее выхода за пределы нормальной области значений.

Статическая погрешность средства измерений – погрешность средства измерений, применяемого при измерении физической величины, принимаемой за неизменную.

Динамическая погрешность средства измерений – погрешность средства измерений, возникающая при измерении изменяющейся (в процессе измерений) физической величины.

Погрешность меры – разность между номинальным значением меры и действительным значением воспроизводимой ею величины.

Стабильность средства измерений (англ. stability) – качественная характеристика средства измерений, отражающая неизменность во времени его метрологических характеристик.
Примечание. В качестве количественной оценки стабильности служит нестабильность средства измерений.

Нестабильность средства измерений – изменение метрологических характеристик средства измерений за установленный интервал времени.
Примечания:

  • Для ряда средств измерений, особенно некоторых мер, нестабильность является одной из важнейших точностных характеристик. Для нормальных элементов обычно нестабильность устанавливается за год.
  • Нестабильность определяют на основании длительных исследований средства измерений, при этом полезны периодические сличения с более стабильными средствами измерений.

Точность средства измерений (англ. accuracy of a measuring instrument) – характеристика качества средства измерений, отражающая близость его погрешности к нулю.
Примечание. Считается, что чем меньше погрешность, тем точнее средство измерений.

Класс точности средств измерений (англ. accuracy class) – обобщенная характеристика данного типа средств измерений, как правило, отражающая уровень их точности, выражаемая пределами допускаемых основной и дополнительных погрешностей, а также другими характеристиками, влияющими на точность.
Примечания:

  • Класс точности дает возможность судить о том, в каких пределах находится погрешность средства измерений одного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Это важно при выборе средств измерений в зависимости от заданной точности измерений.
  • Класс точности средств измерений конкретного типа устанавливают в стандартах технических требований (условий) или в других нормативных документах.
Читайте также:  Индивидуальные средства защиты при чс сообщение

Предел допускаемой погрешности средства измерений – наибольшее значение погрешности средств измерений, устанавливаемое нормативным документом для данного типа средств измерений, при котором оно еще признается годным к применению.
Примечания:

  • При превышении установленного предела погрешности средство измерений признается негодным для применения (в данном классе точности).
  • Обычно устанавливают пределы допускаемой погрешности, то есть границы зоны, за которую не должна выходить погрешность.

Пример. Для 100-миллиметровой концевой меры длины 1-го класса точности пределы допускаемой погрешности +/- 50 мкм.

Нормируемые метрологические характеристики типа средства измерений – совокупность метрологических характеристик данного типа средств измерений, устанавливаемая нормативными документами на средства измерений.

Точностные характеристики средства измерений – совокупность метрологических характеристик средства измерений, влияющих на погрешность измерения.
Примечание. К точностным характеристикам относят погрешность средства измерений, нестабильность, порог чувствительности, дрейф нуля и др.

Источник

Пределы допускаемой основной погрешности средства измерения

Максимальная основная погрешность СИ, при котором он разрешен к применению, называется пределом допускаемой основной погрешности.

Пределы допускаемой основной погрешности устанавливают как или , где х – значение измеряемой величины, а и b – положительные числа, не зависимые от х.

Первая формула описывает аддитивную погрешность, вторая – сумму аддитивной и мультипликативной погрешностей СИ.

Графическое представление этих погрешностей приведены ниже.

Виды погрешностей средств измерений

а – аддитивная, б – мультипликативная,

в – сумма аддитивной и мультипликативной, г – относительная суммарная

При проведении измерений важное значение имеет выбор диапазона измерений СИ, что хорошо видно на графике относительной суммарной погрешности δ. При уменьшении измеряемой величины относительная погрешность δ увеличиваетсяи изменяется по гиперболе. Поэтому следует выбирать такой диапазон измерений, в котором значение измеряемого параметра близко к большему (по модулю) из пределов измерений.

Следует подчеркнуть, что представленные выше графики выполнены для положительных погрешностей, но погрешности могут иметь любой знак. Поэтому в общем случае выражения абсолютной и относительной погрешностей СИ записываются со знаком «±».

В формулах пределов допускаемой основной погрешности значения ∆ и х выражаются одновременно либо в единицах измеряемой или воспроизводимой мерой величины, либо в делениях шкала средства измерения. В этих случаях класс точности обозначается заглавными буквами латинского алфавита (например, H,I,K,L,M и т.д.) или римскими цифрами (I,II, ..IV). К буквам при этом допускается присоединять индексы в виде арабских цифр. Чем меньше пределы допускаемой погрешности, тем ближе к началу алфавита должна быть буква и тем меньше цифра.

Пределы допускаемой приведенной основной погрешности устанавливают по формуле γ = . Здесь ХN – нормирующее значение, выраженное в тех же единицах, что и абсолютная погрешность ∆; р – отвлеченное положительное число, выбираемое из ряда предпочтительных чисел: , где 1, 0, -1, -2, -3 и т.д.

Для средств измерений с равномерной, практически равномерной или степенной шкалой значение ХN принимают равным:

· Большему из пределов измерений, если нулевое значение (нулевая метка) находятся на краю или за пределами диапазона измерений;

· Сумме модулей пределов измерений, если нулевое значение находится внутри диапазона измерений.

Пределы допускаемой относительной основной погрешности записываются как δ = , если погрешность только аддитивная, т.е . Здесь q – отвлеченное положительное число, выбираемое из ряда предпочтительных чисел.

Если формула погрешности включает в себя аддитивную и мультипликативную части, т.е , пределы допускаемой относительной основной погрешности записываются как , где с – суммарная погрешность прибора; d –аддитивная относительная погрешность прибора; ХК – конечное значение диапазона измерений.

Читайте также:  Чистящее средство фирмы грасс

Величины с и d выбираются из ряда предпочтительных чисел.

Величины а, b, c, d в формулах ∆ и δ связаны между собой следующим образом: , , причем всегда .

Классы точности измерительных приборов, пределы допускаемой относительной основной погрешности которых принято выражать в виде дольного значения предела допускаемой основной погрешности. Принято обозначать числами с и d (в процентах), разделяя их косой чертой (например, 0,05/0,02).

Предел допускаемой абсолютной дополнительной погрешности измерения может указываться в виде:

· Постоянного значения для всей рабочей области влияющей величины млм посиоянных значений по интервалам рабочей области влияющей величины;

· Отношения предела допускаемой дополнительной погрешности, соответствующего регламентированному интервалу влияющей величины, к этому интервалу.

· Зависимости предела от влияющей величины.

Источник

Погрешность измерений

Неотъемлемой частью любого измерения является погрешность измерений. С развитием приборостроения и методик измерений человечество стремиться снизить влияние данного явления на конечный результат измерений. Предлагаю более детально разобраться в вопросе, что же это такое погрешность измерений.

Погрешность измерения – это отклонение результата измерения от истинного значения измеряемой величины. Погрешность измерений представляет собой сумму погрешностей, каждая из которых имеет свою причину.

По форме числового выражения погрешности измерений подразделяются на абсолютные и относительные

Абсолютная погрешность – это погрешность, выраженная в единицах измеряемой величины. Она определяется выражением.

(1.2), где X — результат измерения; Х — истинное значение этой величины.

Поскольку истинное значение измеряемой величины остается неизвестным, на практике пользуются лишь приближенной оценкой абсолютной погрешности измерения, определяемой выражением

(1.3), где Хд — действительное значение этой измеряемой величины, которое с погрешностью ее определения принимают за истинное значение.

Относительная погрешность – это отношение абсолютной погрешности измерения к действительному значению измеряемой величины:

(1.4)

По закономерности появления погрешности измерения подразделяются на систематические, прогрессирующие, и случайные .

Систематическая погрешность – это погрешность измерения, остающаяся постоянной или закономерно изменяющейся при повторных измерениях одной и той же величины.

Прогрессирующая погрешность – это непредсказуемая погрешность, медленно меняющаяся во времени.

Систематические и прогрессирующие погрешности средств измерений вызываются:

  • первые — погрешностью градуировки шкалы или ее небольшим сдвигом;
  • вторые — старением элементов средства измерения.

Систематическая погрешность остается постоянной или закономерно изменяющейся при многократных измерениях одной и той же величины. Особенность систематической погрешности состоит в том, что она может быть полностью устранена введением поправок. Особенностью прогрессирующих погрешностей является то, что они могут быть скорректированы только в данный момент времени. Они требуют непрерывной коррекции.

Случайная погрешность – это погрешность измерения изменяется случайным образом. При повторных измерениях одной и той же величины. Случайные погрешности можно обнаружить только при многократных измерениях. В отличии от систематических погрешностей случайные нельзя устранить из результатов измерений.

По происхождению различают инструментальные и методические погрешности средств измерений.

Инструментальные погрешности — это погрешности, вызываемые особенностями свойств средств измерений. Они возникают вследствие недостаточно высокого качества элементов средств измерений. К данным погрешностям можно отнести изготовление и сборку элементов средств измерений; погрешности из-за трения в механизме прибора, недостаточной жесткости его элементов и деталей и др. Подчеркнем, что инструментальная погрешность индивидуальна для каждого средства измерений.

Методическая погрешность — это погрешность средства измерения, возникающая из-за несовершенства метода измерения, неточности соотношения, используемого для оценки измеряемой величины.

Читайте также:  Что входит в целевые средства в упрощенном балансе

Погрешности средств измерений.

Абсолютная погрешность меры – это разность между номинальным ее значением и истинным (действительным) значением воспроизводимой ею величины:

(1.5), где Xн – номинальное значение меры; Хд – действительное значение меры

Абсолютная погрешность измерительного прибора – это разность между показанием прибора и истинным (действительным) значением измеряемой величины:

(1.6), где Xп – показания прибора; Хд – действительное значение измеряемой величины.

Относительная погрешность меры или измерительного прибора – это отношение абсолютной погрешности меры или измерительного прибора к истинному

(действительному) значению воспроизводимой или измеряемой величины. Относительная погрешность меры или измерительного прибора может быть выражена в ( % ).

(1.7)

Приведенная погрешность измерительного прибора – отношение погрешности измерительного прибора к нормирующему значению. Нормирующие значение XN – это условно принятое значение, равное или верхнему пределу измерений, или диапазону измерений, или длине шкалы. Приведенная погрешность обычно выражается в ( % ).

(1.8)

Предел допускаемой погрешности средств измерений – наибольшая без учета знака погрешность средства измерений, при которой оно может быть признано и допущено к применению. Данное определение применяют к основной и дополнительной погрешности, а также к вариации показаний. Поскольку свойства средств измерений зависят от внешних условий, их погрешности также зависят от этих условий, поэтому погрешности средств измерений принято делить на основные и дополнительные .

Основная – это погрешность средства измерений, используемого в нормальных условиях, которые обычно определены в нормативно-технических документах на данное средство измерений.

Дополнительная – это изменение погрешности средства измерений вследствии отклонения влияющих величин от нормальных значений.

Погрешности средств измерений подразделяются также на статические и динамические .

Статическая – это погрешность средства измерений, используемого для измерения постоянной величины. Если измеряемая величина является функцией времени, то вследствие инерционности средств измерений возникает составляющая общей погрешности, называется динамической погрешностью средств измерений.

Также существуют систематические и случайные погрешности средств измерений они аналогичны с такими же погрешностями измерений.

Факторы влияющие на погрешность измерений.

Погрешности возникают по разным причинам: это могут быть ошибки экспериментатора или ошибки из-за применения прибора не по назначению и т.д. Существует ряд понятий которые определяют факторы влияющие на погрешность измерений

Вариация показаний прибора – это наибольшая разность показаний полученных при прямом и обратном ходе при одном и том же действительном значении измеряемой величины и неизменных внешних условиях.

Класс точности прибора – это обобщенная характеристика средств измерений (прибора), определяемая пределами допускаемых основной и дополнительных погрешностей, а также другими свойствами средств измерений, влияющих на точность, значение которой устанавливаются на отдельные виды средств измерений.

Классы точности прибора устанавливают при выпуске, градуируя его по образцовому прибору в нормальных условиях.

Прецизионность — показывает, как точно или отчетливо можно произвести отсчет. Она определяется, тем насколько близки друг к другу результаты двух идентичных измерений.

Разрешение прибора — это наименьшее изменение измеряемого значения, на которое прибор будет реагировать.

Диапазон прибора — определяется минимальным и максимальным значением входного сигнала, для которого он предназначен.

Полоса пропускания прибора — это разность между минимальной и максимальной частотой, для которых он предназначен.

Чувствительность прибора — определяется, как отношение выходного сигнала или показания прибора к входному сигналу или измеряемой величине.

Шумы — любой сигнал не несущий полезной информации.

Источник