Точность измерительных приборов и погрешность измерения. Точность измерения. Используйте правильные термины

Погрешности средств измерений отражают несовершенство измерительного устройства и возникают вследствие многих причин, а именно: несовершенства конструкции, материалов и технологии изготовления, неудовлетворительного качества изготовления, погрешности градуировки и др.

Погрешность прибора характеризует отличие его показаний от истинного или действительного значения измеряемой величины. Погрешность преобразователя определяется отличием номинальной (т.е. приписываемой преобразователю) характеристики преобразования или коэффициента преобразования от их истинного значения.

Погрешность меры характеризует отличие номинального значения меры от истинного значения воспроизводимой ею величины. Для многозначной меры погрешность при данном показании определяется как разность между показанием и 1 действительным значением измеряемой величины. Номинальное значение меры - значение данной физической величины, обозначенное на мере (или на ее футляре). Это определение относится главным образом к однозначным мерам. Для многозначных мер и магазинов мер - это «показание меры», под которым подразумевают значение величины, воспроизводимой мерой, устанавливаемое по отсчету. Вариация показаний - наибольшая разность между показаниями, по- 1 лученными при многократно повторенных измерениях одной и той же величины.

По способу выражения различают погрешности:

- абсолютная погрешность прибора - разность между показаниями прибора x п и истинным значением х измеряемой величины: А =х п - х.

- относительная погрешность прибора - отношение абсолютной погрешности прибора к истинному (действительному) значению измеряемой величины: А/х или в процентах 100дельта/x, где если х >>дельта, то вместо х с достаточной степенью точности можно использовать х П.

- приведенная погрешность прибора - отношение в процентах абсолютной погрешности прибора к нормирующему значению: Д = 100/xнорм.

В соответствии с ГОСТ 8.401-80 уормирующее значение х н принимается равным:

Большему из пределов измерений или большему из модулей пределов измерений для СИ с равномерной или степенной шкалой, если нулевая отметка находится на краю или вне диапазона измерений;

Арифметической сумме модулей пределов измерений, если нулевая отметка находится внутри диапазона измерений;

Установленному номинальному значению для СИ с установленным номинальным значением измеряемой величины;

Всей длине шкалы для приборов с существенно неравномерной шкалой, при этом абсолютные погрешности также выражают в единицах длины.

Во всех остальных случаях нормирующее значение устанавливается стандартами для соответствующих видов СИ.

Для преобразователей определение абсолютных и относительных погрешностей несколько сложнее. Они определяются по входу Д вх и выходу Д вых и характеризуют отличие реальной характеристики преобразования у = F (х) от номинальной у н = F H (x) .

Рис. Формирование погрешности преобразования

Для оценки погрешности по выходу находят значения у и у н при заданной величине х. Тогда Д вых = у - у н , а относительная погрешность А = Д вых /у р. По входу Д вх = х н - х; где х н = F H- ] (y) определяется через значение у р и функцию, обратную F H , т.е. х н - такое значение х, которое при номинальной характеристике дало бы на входе значение у р А = Д вх /х - относительная погрешность.

Уже отмечалось, что в зависимости от условий применения СИ погрешности делятся на основную (при нормальных условиях) и дополнительную (при рабочих условиях).

В зависимости от поведения измеряемой величины во времени различают статическую и динамическую погрешности, а также погрешность в динамическом режиме. Статическая погрешность СИ (А ст) - погрешность СИ, используемого для измерения постоянной величины (например, амплитуды периодического сигнала). Погрешность в динамическом режиме (А дин р) - погрешность СИ, используемого для измерения переменной во времени величины.

При практическом использовании тех или иных результатов измерений важно оценить их точность. Термин «точность измерений», т. е. степень приближения результатов измерения к некоторому истинному значению, не имеет строгого определения и используется для качественного сравнения измерительных операций. Для количественной оценки применяется понятие «погрешность измерений» (чем меньше погрешность, тем выше точность).

Погрешностью называют отклонение результата измерений от истинного (действительного) значения измеряемой величи­ны. При этом следует иметь в виду, что истинное значение физической величины считается неизвестным и применяется в теоретических исследованиях. Действительное значение физической величины устанавливается экспериментальным путем в предположении, что результат эксперимента (измерения) в максимальной степени приближается к истинному значению. Оценка погрешности измерения - одно из важных мероприятий по обеспечению единства измерений.

Погрешность измерений зависит в первую очередь от погрешностей СИ, а также от условий, в которых проводится измерение, от экспериментальной ошибки методики и субъективных особенностей человека в случаях, где он непосредственно участвует в измерениях. Поэтому можно говорить о нескольких составляющих погрешности измерений или о ее суммарной погрешности.

Количество факторов, влияющих на точность измерения, достаточно велико, и любая классификация погрешностей измерения (рис.15) в известной мере условна, так как различные погрешности в зависимости от условий измерительного процесса проявляются в разных группах.

Рис. 15. Классификация погрешностей измерения



Виды погрешностей

Как указывалось выше, погрешность измерения – это отклонение результата измерения Х от истинного Х и значения измеряемой величины. При этом вместо истинного значения физической величины Х и используют ее действительное значение Х д.

В зависимости от формы выражения различают абсолютную, относительную и приведенную погрешности измерения.

Абсолютная погрешность – это погрешность средства измерений, выраженная в единицах измеряемой физической величины. Она определяется как разность Δ"= Х i - Х и или Δ = X - Х д. , где X i – результат измерения.

Относительная погрешность – это погрешность средства измерений, выраженная отношением абсолютной погрешности средства измерений к результату измерений или действительному значению измеряемой физической величины. Она определяется как отношение δ = ±(Δ/Х д)·100%.

Приведенная погрешность – это погрешность средства измерений, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений Χ N .

В зависимости от характера проявления, причин возникновения и возможностей устранения различают систематическую и случайную погрешности измерений, а также грубые погрешности (промахи ).

Систематическая погрешность – это составляющая погрешности, принимаемая за постоянную или закономерно изменяющуюся при повторных измерениях одного и того же параметра. Как правило, считают, что систематические погрешности могут быть обнаружены и исключены. Однако в реальных условиях полностью исключить эти погрешности невозможно. Всегда остаются какие-то неисключенные остатки, которые нужно учитывать, чтобы оценить их границы. Это и будет систематическая погрешность измерения.

Случайная погрешность – это составляющая погрешности, изменяющаяся в тех же условиях измерения случайным образом. Значение случайной погрешности заранее неизвестно, она возникает из-за множества не уточненных факторов. Исключить из результатов случайные погрешности нельзя, но их влияние может быть уменьшено путем статистической обработки результатов измерений.

Случайная и систематическая составляющие погрешности из­мерения проявляются одновременно, так что при их независимости их общая погрешность равна сумме погрешностей. В принципе систематическая погрешность тоже случайна и указанное деление обусловлено лишь установившимися традициями обработки и представления результатов измерения.

В отличие от случайной погрешности, выявляемой в целом, вне зависимости от ее источников, систематическая погрешность рассматривается по составляющим в зависимости от источников ее возникновения. Различают субъективную, методическую и инструментальную составляющие систематической погрешности.

Субъективная составляющая погрешности связана с индивидуальными особенностями оператора. Как правило, эта погрешность возникает из-за ошибок в отсчете показаний и неверных навыков оператора. В основном же систематическая погрешность возникает из-за методической и инструментальной составляющих.

Методическая составляющая погрешности обусловлена несовершенством метода измерения, приемами использования средств измерения, некорректностью расчетных формул и округления результатов.

Инструментальная составляющая возникает из-за собственно погрешности средств измерения, определяемой классом его точности, влиянием средств измерения на объект измерения и ограниченной разрешающей способности средств измерения.

Целесообразность разделения систематической погрешности на методическую и инструментальную составляющие объясняется следующим:

· для повышения точности измерений можно выделить лимитирующие факторы и, следовательно, принять решение либо об усовершенствовании методики, либо о выборе более точных средств измерения;

· появляется возможность определить составляющую общей погрешности, увеличивающейся либо со временем, либо под влиянием внешних факторов, и, следовательно, целенаправленно осуществлять периодические поверки и аттестации;

· инструментальная составляющая может быть оценена доразработки методики, а потенциальные точностные возможности выбранного метода определит только методическая составляющая.

Грубые погрешности (промахи) возникают из-за ошибочных действий оператора, неисправности средств измерения или резких изменений условий измерений. Как правило, грубые погрешности выявляются в результате статистической обработки результатов измерений при помощи специальных критериев.

Страница 1

Точность измерения. Основное понятие. Критерии выбора точности измерений. Классы точности средств измерений. Примеры средств измерений разных классов точности.

Измерение – совокупность операций по применению технического средства, хранящего единицу величины, обеспечивающих нахождение соотношения измеряемой величины с ее единицей в явном или неявном виде и получение значения этой величины.

Вообще метрология – это наука об измерениях, методах и средствах обеспечения их единства и способах достижения требуемой точности.

Усовершенствование точности измерений стимулировало развитие наук, предоставляя более достоверные и чувствительные средства исследований.

От точности средств измерения зависит эффективность выполнения различных функций: погрешности счетчиков энергии приводят к неопределенности в учете электроэнергии; погрешности весов ведут к обману покупателей или к большим объемам неучтенного товара.

Повышение точности измерений позволяет определить недостатки технологических процессов и устранить эти недостатки, что приводит к повышению качества продукции, экономии энергетических и тепловых ресурсов, сырья, материалов.

Измерения могут быть классифицированы по характеристике точности на:

Равноточные – ряд измерений какой-либо величины, выполненных одинаковыми по точности средствами измерений и в одних и тех же условиях;

Неравноточные - ряд измерений какой-либо величины, выполненных несколькими различными по точности СИ и (или) в нескольких разных условиях.

К разным видам средств измерения предъявляют специфические требования: например, лабораторные средства должны обладать повышенной точностью и чувствительностью. Высокоточными СИ являются, например, эталоны.

Эталон единицы величины – средство измерений, предназначенное для воспроизведения и хранения единицы величины, кратных или дольных ее значений с целью передачи ее размера другим средствам измерений данной величины. Эталоны являются высокоточными средствами измерений и поэтому используются для проведения метрологических измерений в качестве средств передачи информации о размере единицы. Размер единицы передается «сверху вниз» от более точных средств измерений к менее точным «по цепочке»: первичный эталон ® вторичный эталон ® рабочий эталон 0-го разряда ® рабочий эталон 1-го разряда … ® рабочее средство измерений.

Метрологические свойства средств измерений – это свойства, влияющие на результат измерений и его погрешность. Показатели метрологических свойств являются их количественной характеристикой и называются метрологическими характеристиками. Все метрологические свойства средств измерений можно разделить на две группы:

· Свойства, определяющие область применения СИ

· Свойства, определяющие качество измерения. К таким свойствам относятся точность, сходимость и воспроизводимость.

Наиболее широко в метрологической практике используется свойство точности измерений, которое определяется погрешностью.

Погрешность измерения – разность между результатом измерения и истинным значением измеряемой величины.

Точность измерений СИ – качество измерений, отражающее близость их результатов к действительному (истинному) значению измеряемой величины. Точность определяется показателями абсолютной и относительной погрешности.

Абсолютная погрешность определяется по формуле: Хп= Хп - Х0,

где: Хп – погрешность поверяемого СИ; Хп – значение той же самой величины, найденное с помощью поверяемого СИ; Х0 - значение СИ, принятое за базу для сравнения, т.е. действительное значение.

Однако в большей степени точность средств измерений характеризует относительная погрешность, т.е. выраженное в процентах отношение абсолютной погрешности к действительному значению величины, измеряемой или воспроизводимой данным СИ.

В стандартах нормируют характеристики точности, связанные и с другими погрешностями:

Систематическая погрешность – составляющая погрешности результата измерения, остающаяся постоянной или закономерно изменяющейся при повторных измерениях одной и той же величины. Такая погрешность может проявиться, если смещен центр тяжести СИ или СИ установлен не на горизонтальной поверхности.

Случайная погрешность – составляющая погрешности результата измерения, изменяющаяся случайным образом в серии повторных измерений одного и того же размера величины с одинаковой тщательностью. Такие погрешности не закономерны, но неизбежны и присутствуют в результатах измерения.

Погрешность измерений не должна превышать установленных пределов, которые указаны в технической документации к прибору или в стандартах на методы контроля (испытаний, измерений, анализа).

Чтобы исключить значительные погрешности, проводят регулярную поверку средств измерений, которая включает в себя совокупность операций, выполняемых органами государственной метрологической службы или другими уполномоченными органами с целью определения и подтверждения соответствия средства измерений установленным техническим требованиям.

В повседневной производственной практике широко пользуются обобщенной характеристикой – классом точности.

Класс точности средств измерений – обобщенная характеристика, выражаемая пределами допускаемых погрешностей, а также другими характеристиками, влияющими на точность. Классы точности конкретного типа СИ устанавливают в нормативных документах. При этом для каждого класса точности устанавливают конкретные требования к метрологическим характеристикам, в совокупности отражающим уровень точности СИ данного класса. Класс точности позволяет судить о том, в каких пределах находится погрешность измерений этого класса. Это важно знать при выборе СИ в зависимости от заданной точности измерений.

Обозначение классов точности осуществляются следующим образом:

s Если пределы допускаемой основной погрешности выражены в форме абсолютной погрешности СИ, то класс точности обозначается прописными буквами римского алфавита. Классам точности, которым соответствуют меньшие пределы допускаемых погрешностей, присваиваются буквы, находящиеся ближе к началу алфавита.

При практическом использовании тех или иных измерении важно оценить их точность. Термин «точность измерений», т. е. степень приближения результатов измерения к некоторому действительному значению, не имеет строгого определения и используется для качественного сравнения измерительных операций. Для количественной оценки применяется понятие «погрешность измерений» (чем меньше погрешность, тем выше точность).

Погрешностью называют отклонение результата измерений от действительного (истинного) значения измеряемой величи­ны. При этом следует иметь в виду, что истинное значение физической величины считается неизвестным и применяется в теоретических исследованиях. Действительное значение физической величины устанавливается экспериментальным путем в предположении, что результат эксперимента (измерения) в максимальной степени приближается к истинному значению. Оценка погрешности измерении - одно из важных мероприятий по обеспечению единства измерении.

Погрешности измерений приводятся обычно в технической документации на средства измерений или в нормативных документах. Правда, если учесть, что погрешность зависит еще и от условий, в которых проводится само измерение, от экспериментальной ошибки методики и субъективных особенностей человека в случаях, где он непосредственно участвует в измерениях, то можно говорить о нескольких составляющих погрешности измерений, либо о суммарной погрешности.

Количество факторов, влияющих на точность измерения, достаточно велико, и любая классификация погрешностей измерения (рис.2) в известной мере условна, так как различные погрешности в зависимости от условий измерительного процесса проявляются в разных группах.

2.2 Виды погрешностей

Погрешность измерения - это отклонение результата измерения Х от истинного Х и значения измеряемой величины. При определении погрешностей измерения вместо истинного значения физической величины Х и, реально используют ее действительное значение Х д.

В зависимости от формы выражения различают абсолютную, относительную и приведенную погрешности измерения.

Абсолютная погрешность определяется как разность Δ"= Х - Х и или Δ = Х - Х д, а относительная - как отношение δ = ± Δ / Х д ·100%.

Приведенная погрешность γ= ±Δ/Χ Ν ·100%, где Χ N - нормирующее значение величины, в качестве которого используют диапазон измерений прибора, верхний предел измерений и т.д.

В качестве данного истинного значения при многократных измерениях параметра выступает среднее арифметическое значение :

= i ,

где Xi - результат i -го измерения, - n число измерений.

Величина , полученная в одной серии измерений, является случайным приближением к Х и. Для оценки ее возможных отклонений от Х и определяют оценку среднего квадратического отклонения среднего арифметического:

S()=

Для оценки рассеяния отдельных результатов измерения Xi относительно среднего арифметического определяют выборочное среднее квадратическое отклонение:

σ =

Данные формулы применяют при условии постоянства из­меряемой величины в процессе измерения.

Эти формулы соответствуют центральной предельной теореме теории вероятностей, согласно которой среднее арифметическое из ряда измерений всегда имеет меньшую погрешность, чем погрешность каждого определенного измерения:

S()=σ /

Эта формула отражает фундаментальный закон теории погрешностей. Из него следует, что если необходимо повысить точность результата (при исключенной систематической погрешности) в 2 раза, то число измерений нужно увеличить в 4 раза; если точность требуется увеличить в 3 раза, то число измерений

увеличивают в 9 раз и т.д.

Нужно четко разграничивать применение величин S и σ: первая используется при оценке погрешностей окончательного результата, а вторая - при оценке погрешности метода измерения. Наиболее вероятная погрешность отдельного измерения Δ в 0,67S.

В зависимости от характера проявления, причин возникновения и возможностей устранения различают систематическую и случайную погрешности измерений, а также грубые погрешнос­ти (промахи).

Систематическая погрешность остается постоянной или закономерно изменяется при повторных измерениях одного и того же параметра.

Случайная погрешность изменяется в тех же условиях измерения случайным образом.

Грубые погрешности (промахи) возникают из-за ошибочных действий оператора, неисправности средств измерения или резких изменений условий измерений. Как правило, грубые погрешности выявляются в результате обработки результатов измерений с помощью специальных критериев.

Случайная и систематическая составляющие погрешности из­мерения проявляются одновременно, так что их общая погрешность равна сумме погрешностей при их независимости.

Значение случайной погрешности заранее неизвестно, она возникает из-за множества не уточненных факторов. Исключить из результатов случайные погрешности нельзя, но их влияние может быть уменьшено путем обработки результатов измерений.

Для практических целей весьма важно уметь правильно сформулировать требования к точности измерений. Например, если за допустимую погрешность изготовления принять Δ = 3σ, то, повышая требования к точности (например, до Δ = σ), при сохранении технологии изготовления увеличиваем вероятность брака.

Как правило, считают, что систематические погрешности мо­гут быть обнаружены и исключены. Однако в реальных условиях полностью исключить эти погрешности невозможно. Всегда остаются какие-то неисключенные остатки, которые нужно учитывать, чтобы оценить их границы. Это и будет систематическая погрешность измерения.

Другими словами, в принципе систематическая погрешность тоже случайна и указанное деление обусловлено лишь установившимися традициями обработки и представления результатов измерения.

В отличие от случайной погрешности, выявленной в целом вне зависимости от ее источников, систематическая погрешность рассматривается по составляющим в зависимости от источников ее возникновения. Различают субъективную, методическую и инструментальную составляющие погрешности.

Субъективная составляющая погрешности связана с индивидуальными особенностями оператора. Как правило, эта погреш­ность возникает из-за ошибок в отсчете показаний (примерно 0,1 деления шкалы) и неверных навыков оператора. В основном же систематическая погрешность возникает из-за методической и инструментальной составляющих.

Методическая составляющая погрешности обусловлена несовершенством метода измерения, приемами использования средств измерения, некорректностью расчетных формул и округления результатов.

Инструментальная составляющая возникает из-за собственной погрешности средств измерения, определяемой классом точности, влиянием средств измерения на результат и ограниченной разрешающей способности средств измерения.

Целесообразность разделения систематической погрешности на методическую и инструментальную составляющие объясняется следующим:

Для повышения точности измерений можно выделить лимитирующие факторы, а, следовательно, принять решение об усовершенствовании методики или выборе более точных средств измерения;

Появляется возможность определить составляющую общей погрешности, увеличивающейся со временем или под влиянием внешних факторов, а, следовательно, целенаправленно осуществлять периодические поверки и аттестации;

Инструментальная составляющая может быть оценена до разработки методики, а потенциальные точностные возможности выбранного метода определит только методическая составляющая.

2.3 Показатели качества измерений

Единство измерений, однако, не может быть обеспечено лишь совпадением погрешностей. При проведении измерений также важно знать показатели качества измерений. Под качеством измерений понимают совокупность свойств, обусловливающих получение результатов с требуемыми точностными характеристиками, в необходимом виде и в установленные сроки.

Качество измерений характеризуется такими показателями, как точность, правильность и достоверность. Эти показатели должны определяться по оценкам, к которым предъявляются требования состоятельности, несмещенности и эффективности.

Истинное значение измеряемой величины отличается от среднего арифметического значения результатов наблюдений на величину систематической погрешности Δ с, т. е. X = -Δ с. Если систематическая составляющая исключена, то X = .

Однако из-за ограниченного числа наблюдений величину точно определить также невозможно. Можно лишь оценить ее значение, указать с определенной вероятностью границы интервала, в котором оно находится. Оценкучисловой характеристики закона распределения Х, изображаемую точкой на числовой оси, называют точечной. В отличие от числовых характеристик оценки являются случайными величинами, причем их значение зависит от числа наблюденийn. Состоятельной называют оценку, которая при n→∞ сводится по вероятности к оцениваемой величине.

Несмещенной называется оценка, математическое ожидание которой равно оцениваемой величине.

Эффективной называют такую оценку, которая имеет наименьшую дисперсию σ 2 = min.

Перечисленным требованиям удовлетворяет среднеарифметическое значение результатовn наблюдений.

Таким образом, результат отдельного измерения является случайной величиной. Тогда точность измерений - это близость результатов измерений к истинному значению измеряемой величины. Если систематические составляющие погрешности исключены, то точность результата измерений характеризуется степенью рассеяния его значения, т. е. дисперсией. Как показано выше, дисперсия среднеарифметическогоσ в n раз меньше дисперсии отдельного результата наблюдения.

На рисунке 3 показана плотность распределения отдельного и суммарного результата измерения. Более узкая заштрихованная площадь относится к плотности вероятности распределения среднего значения. Правильность измерений определяется близостью к нулю систематической погрешности.

Достоверность измерений определяется степенью доверия к результату и характеризуется вероятностью того, что истинное значение измеряемой величины лежит в указанных окрестностях действительного. Эти вероятности называют доверительными, а границы (окрестности) - доверительными границами. Другими словами, достоверность измерения - это близость к нулю неисключенной систематической погрешности.

Доверительным интервалом с границами (или доверительными границами) от – Δ д до + Δ д называют интервал значений случайной погрешности, который с заданной доверительной вероятностью Р д, накрывает истинное значение измеряемой величины.

Р д { - Δ д ≤,Х ≤ + Δ д }.

При малом числе измерений (n 20) и использовании нормального закона не представляется возможным определить доверительный интервал, так как нормальный закон распределения описывает поведение случайной погрешности в принципе при бесконечно большом числе измерений.

Поэтому, при малом числе измерений используют распределение Стьюдента или t - распределение (предложенное английским статистиком Госсетом, публиковавшимся под псевдонимом «студент»), которое обеспечивает возможность определения доверительных интервалов при ограниченном числе измерений. Границы доверительного интервала при этом определяются по формуле:

Δ д = t·S(),

где t - коэффициент распределения Стьюдента, зависящий от задаваемой доверительной вероятности Р д и числа измерений n.

При увеличении числа наблюдений n распределение Стьюдента быстро приближается к нормальному и совпадает с ним уже при n ≥30.

Следует отметить, что результаты измерений, не обладающие достоверностью, т. е. степенью уверенности в их правильности, не представляют ценности. К примеру, датчик измерительной схемы может иметь весьма высокие метрологические характеристики, но влияние погрешностей от его установки, внешних условий, методов регистрации и обработки сигналов приведет к большой конечной погрешности измерений.

Наряду с такими показателями, как точность, достоверность и правильность, качество измерительных операций характеризуется также сходимостью и воспроизводимостью результатов. Эти показатели наиболее распространены при оценке качества испытаний и характеризуют их точность.

Очевидно, что два испытания одного и того же объекта одинаковым методом не дают идентичных результатов. Объективной мерой их могут служить статистически обоснованные оценки ожидаемой близости результатов двух или более испытаний, полученных при строгом соблюдении их методики. В качестве таких статистических оценок согласованности результатов испы­таний принимаются сходимость и воспроизводимость.

Сходимость - это близость результатов двух испытаний, полученных одним методом, на идентичных установках, в одной лаборатории. Воспроизводимость отличается от сходимости тем, что оба результата должны быть получены в разных лабораториях.

Как известно при измерении (испытании, контроле, анализе) физической величины результат должен быть выражен с точностью, соответствующей поставленной задаче и установленным требованиям.

Точность результата измерений представляет собой качественный показатель, который при обработке результатов наблюдений (единичных наблюдаемых значений) должен быть выражен через его количественные характеристики. При этом наблюдаемое значение согласно ГОСТ Р 50779.10- 2000 (ИСО 3534.1-93) «Статистические методы. Вероятность и основы статистики. Термины и определения» - это значение характеристики, полученное в результате единичного наблюдения при многократных измерениях.

В существующих нормативных документах в настоящее время применяется ряд показателей точности. Проведенный нами анализ нормативнозаконодательных документов показал, что в ФЗ «Об обеспечении единства измерений» определение фундаментального метрологического понятия «показатели точности измерений» отсутствует.

В применяемых в последнее время (РМГ 29-99 ) и новом (РМГ 29-2013 ) терминологических документах понятие «показатели точности измерений» и его определение также не регламентированы.

Среди актуальных документов (межгосударственных - ГОСТ, национальных - ГОСТ Р, а также методических инструкций и рекомендаций - МИ, Р, РД) мы также не нашли стандарта, регламентирующего показатели точности измерений и формы их выражения.

Однако в примечании к понятию «результат измерений», приведенному в РМГ 29-2013, указано, что «... к показателям точности относятся, например, среднее квадратическое отклонение, доверительные границы погрешности, стандартная неопределенность измерений, суммарная стандартная и рас ш ирен ная неопредел ей ности ».

ГОСТ Р ИСО 5725-1-2002 определяет точность как степень близости результата измерений к принятому опорному значению. В нормативном документе отражена концепция «принятого опорного значения», применяемая в международной метрологической практике вместо концепции «истинного значения физической величины», характерной для отечественной метрологии до 2003 года (до принятия в нашей стране МС ИСО 5725).

В документе в качестве примечания (со ссылкой на международный стандарт) поясняется «... применительно к многократным измерениям «термин «точность», когда он относится к серии результатов измерений (испытаний), включает сочетание случайных составляющих и общей систематической погрешности (ИСО 3534-1), что не противоречит подходу к выражению точности через составляющие погрешности результата измерений». Кроме общего понятия качественной характеристики точности приведено пояснение, какие параметры могут быть приняты за количественные характеристики многократных измерений (испытаний).

Однако до 1986 года в нашей стране показатели точности были регламентированы ГОСТ 8.011-72 «ГСИ. Показатели точности измерений и формы выражения результатов измерений». В настоящее время ГОСТ 8.011-72 заменен на МИ 1317 (документ актуален в версии 2004 года ).

В метрологической практике точность измерений описывается рядом показателей, приведённых на рисунке 1.3, причём часть из них выражается в концепции погрешности, а другая часть - в концепции неопределенности.

В новой версии Международного словаря терминов и определений - VIM 3 (2010) особо подчеркивается, что «понятие «точность измерений» не является величиной и ей нс может быть присвоено числовое значение величины. Считается, что измерение является более точным, если оно имеет меньшую погрешность измерения». Кроме этого в VIM 3 отмечается, что полную характеристику точности измерений можно получить, оценивая оба показателя точности - правильность и прецизионность. Термин «точность измерений» не следует использовать для обозначения правильности измерений, а термин прецизионность измерений - для обозначения «точности измерений», хотя последнее имеет связь с двумя этими понятиями .

Рисунок 1.3 - Показатели точности результатов, традиционно используемые в нормативных документах

Из всех представленных и традиционно применяемых в метрологической практике показателей точности мы выделили только те, которые дают полное представление о показателях точности результатов измерений. Результаты проведенного анализа сведены в таблицы 1.1 и 1.2.

В качестве «показателей точности измерений», как следует из схемы (рисунок 1.4) могут также использоваться, характеристики,

регламентированные ГОСТ Р 8.563-2009:

Характеристики погрешности измерений по МИ 1317-2004 ;

характеристики неопределенности по РМГ 43-2001 (прекращено применение МД на территории РФ с 01.10.2012 года) ;

Показатели точности по ГОСТ Р ИСО 5725-2002 .

Таблица 1.1 - Анализ возможности применения характеристик погрешности в качестве показателей точности результата измерений_

Характеристика или

г, математическое выражение Показатель г

в концепции погрешности

или неопределенности

Комментарий

1 Погрешность измерений

Выражение (1) имеет теоретический характер, поскольку истинное значение измеряемой величины всегда остается неизвестным, поэтому на практике применяется уравнение (2). В качестве модели погрешности измерений принимается модель случайной величины (или случайного процесса). Поэтому метрологи не рассматривают возможность использования выражения (2) для разработки представлений о показателях точности измерений.

2 Границы, в

погрешность

измерений

находится с

заданной

вероятностью

Границы погрешности измерений для заданной вероятности дают полное основание судить о возможной степени близости результата измерения к действительному значению измеряемой величины.

3 Среднее квадрагги ческое отклонение погрешности

Знание Од позволяет (при определенных предположениях о виде функции распределения плотности вероятностей погрешностей) оценить интервал значений, в котором может находиться Х л.

4 Среднее

квадратическое

отклонение

случайной

составляющей

погрешности

измерений

Знание только среднего квадратического отклонения случайной составляющей погрешности измерений Одел в общем случае не позволяет судить О возможной степени близости результатов измерений к действительному значению измеряемой величины Х л, поскольку дополнительно к случайной составляющей погрешности измерений может иметь место систематическая составляющая.

Продолжение таблицы 1.1

5 Сходимость

результатов

измерений

Оценивается мерами сходимости

Сама по себе сходимость измерений нс дает ни малейшего представления о границах, в которых может находиться погрешность измерений.

6 Воспроизводимость результатов

Оценивается мерами воспроизводимости

Подобно сходимости измерений, воспроизводимость также не дает представления о границах, в которых может находиться погрешность измерений.

7 Среднее

квадратическое

отклонение

систематической

составляющей

погрешности

измерений

Сами по себе характеристики систематической составляющей погрешности измерений (какими бы они ни казались удовлетворительными) не позволяют судить нам о границах, в которых может находиться (при заданной вероятности) суммарная погрешность измерений. Причины этого - не учёт роли случайной составляющей погрешности измерений.

8 Границы, в

которых не

исключённая

систематическая

составляющая

погрешности

измерений

находится с

заданной

вероятностью

9 Прецизионность измерений

Характеризует степень близости между нсзависи м ы ми резул ьтатам и измерений, полученными при определенных принятых условиях.

Знание только стандартного отклонения прецизионности не позволяет судить о степени возможной близости результатов измерений к действительному значению измеряемой величины Х л.

Регламентированные национальным стандартом ГОСТ Р ИСО 5725-2002, гармонизированным с международными требованиями, показатели точности измерений приведены на рисунке 1.5.


Рисунок 1.4 - Показатели точности измерений методики, регламентированные ГОСТ Р 8.563-2009


Рисунок 1.5 - Показатели точности измерений, регламентированные в ГОСТ Р ИСО 5725-1-2002

Таблица 1.2 - Анализ возможности применения характеристик

неопределенности в качестве показателей точности результата измерений_

Показатель

Характеристика или математическое выражение в концепции погрешности или неопределенности