Товары в корзине: 0 шт Оформить заказ
Стр. 1
 

22 страницы

396.00 ₽

Купить официальный бумажный документ с голограммой и синими печатями. подробнее

Официально распространяем нормативную документацию с 1999 года. Пробиваем чеки, платим налоги, принимаем к оплате все законные формы платежей без дополнительных процентов. Наши клиенты защищены Законом. ООО "ЦНТИ Нормоконтроль".

Наши цены ниже, чем в других местах, потому что мы работаем напрямую с поставщиками документов.

Способы доставки

  • Срочная курьерская доставка (1-3 дня)
  • Курьерская доставка (7 дней)
  • Самовывоз из московского офиса
  • Почта РФ

Устанавливает методы и средства первичной и периодической поверки пневматических показывающих и регистрирующих приборов контроля по ГОСТ 14753-69, предназначенных для показания и записи абсолютного, избыточного и вакуумметрического давления, разности давлений, расхода жидкостей, паров и газов, значения которых преобразуются в унифицированный пневматический сигнал 0,2-1,0 кгс/кв.см (0,02-0,1 МПа), а также пневматических интегрирующих приборов типа ПИК-1

Показать даты введения Admin

Страница 1

ГОСУДАРСТВЕННЫЙ СТАНДАРТ СОЮЗА ССР

ГОСУДАРСТВЕННАЯ СИСТЕМА ОБЕСПЕЧЕНИЯ ЕДИНСТВА ИЗМЕРЕНИЙ

МЕТОДЫ И СРЕДСТВА ПОВЕРКИ ПРИБОРОВ КОНТРОЛЯ ПНЕВМАТИЧЕСКИХ ПОКАЗЫВАЮЩИХ И РЕГИСТРИРУЮЩИХ ГСП

ГОСТ 8.008-72

Издание официальное

ГОСУДАРСТВЕННЫЙ КОМИТЕТ СССР ПО СТАНДАРТАМ Москва

Страница 2

УДК 621.002.56.089.6 : 006.354    Группа    Т88.1

ГОСУДАРСТВЕННЫЙ СТАНДАРТ СОЮЗА ССР

ГОСУДАРСТВЕННАЯ СИСТЕМА ОБЕСПЕЧЕНИЯ „ ЕДИНСТВА ИЗМЕРЕНИЙ

Методы и средства поверки приборов контроля пневматических показывающих и регистрирующих ГСП

State system for ensuring the uniformity of measurements. Methods and Means for Verification of Indicating and Recording Pneumatic Control Instruments

ГОСТ

8.008-4*72*

Взамен МУ 220; Инструкции 7—63, МУ 192 в части поверки вторичных приборов


Постановлением Государственного комитета стандартов Совет*' Министров СССР от 17 февраля 1972 г. № 433 срок введения установлен

с 01.01. 1973 г.

Настоящий стандарт устанавливает методы и средства первичной и периодической поверни пневматических показывающих и регистрирующих приборов контроля по ГОСТ 14753-69* предназначенных для показания и записи абсолютного, избыточного и вакуумметрического давления, разности давлений, расхода жидкостей, паров и газов, значения которых преобразуются в унифицированный пневматический сигнал 0,2—1,0 кгс/см2 (0,02—0,1 МПа), а также пневматических интегрирующих приборов типа’ ПЙК-1,

1. ОПЕРАЦИИ ПОВЕРКИ

ill. При проведении поверки должны производиться операции, указанные в табл. 1.    Таблица.1

Операции поверки

| Номера пунктов

Внешний осмотр

5.1

Установка стрелки (пера) на нуле

вую отметку ,

5.2

Проверка герметичности узла чув- •

ствительного элемента- измеритель

ного блока

5.3

Определение влияния изменения .

давления воздуха питания на измене

ние выходного сигнала задатчика

5.4

Определение основпой погрешности

и вариации

. 6.5

Определение погрешности хода

диаграммы

5.6

Проверка самопишущего устройст

ва

5.7

Определение погрешности интегра

тора

5.8

Издание официальное    Перепечатка    воспрещена

* Переиздание (март 1979 г.) с изменением № 1, опубликованным в октябре 1978 г.

© Издательство стандартов, 1979

Страница 3

Crp. 2 ТОСТ 8.008-72

2.    СРЕДСТВА ПОВЕРКИ

2.1.    При проведении операций поверки должны применяться следующие образцовые и вспомогательные средства:

а)    * манометры грузопоршневые типа МГ1-2,5 по ГОСТ 8291-69;

б)    мановакуумметры грузопоршневые типа МВП-2,5 класса точности 0,05, пределы измерений 1—0—2,5 кгс/см2 (0,1—0— 0,25 МПа) ;

в)    манометры образцовые по ГОСТ 6521-72;

г)    переносные приборы для поверки дифманометров-расходо-меров типов ППР-1, ППР-2М, класса точности 0,3, пределы измерений избыточного давления 0—1000 мм.рт. ст.;

д)    манометры контрольные ртутные с дистанционным отсчетом типа МВД, классов точности 0,1; 0,2, пределы измерений 0—1,0—1,6 кгс/см2 (0—0,1—0,16 МПа);

е).    автоматические контрольные .задатчики типа АКЗ-1,6, класса точности 0,1, пределы измерений 0,1—1,6 кгс/см2 (0,01 — 0,16 МПа);

ж)    манометры контрольные цифровые типа КМЦ-1,6, класса точности 0,1, пределы измерений 0—4,6 кгс/см2 (0—0,16 МПа);

з)    автоматические задатчики давления типа АЗ Д-2,5,; класса точности 0,05, пределы измерений 0,1—1,0; 0,1-—1,6; 0,2—2,5 кгс/см2 (0,01—0,1; 0,01—0,16; 0,02—0,25 МПа);

и)    манометры пружинные показывающие по ГОСТ 2405-72, класса точности не ниже 1с верхним пределом измерения 1,6 кгс/см2 (0,16 МПа) и класса точности не ниже 0,6 с верхним пределом измерения 2,5 кгс/см2 (0,25 МПа);

к) морской хронометр механический по ГОСТ 8916-77;

л) секундомер по ГОСТ 5072-72;

м) электрические часы, работающие синхронно с частотой питающего тока;

н) ртутные стеклянные лабораторные термометры по ГОСТ 215-73 с диапазоном измерений 0—55°С, аттестованные как образцовые с допустимой погрешностью показаний не более ±0,2°С.

(Измененная редакция — «Информ. , указатель стандартов» № 10 1978

2.2.    Образцовые средства измерений должны быть аттестованы (поверены) органами метрологической службы.

2.3.    Допускается применение не указанных в п. 2.1 средств поверки, признанных по, результатам метрологической аттестации- в органах Государственной метрологической службы пригодными для проведения поверки в соответствии с требованиями настоящего стандарта.

3.    УСЛОВИЯ ПОВЕРКИ

3.1. При проведении поверки должны соблюдаться условия поверки по ГОСТ 14753-69.

Страница 4

ГОСТ SwOOe—72 Стр. 3

3.1.1.    Допустимое содержание в воздухе питания пыли, масла, влаги и агрессивных примесей должно соответствовать указанному в ГОСТ 11882-73;

3.1.2.    Изменение давления должно быть плавным, без перехода за поверяемое значение.

4. ПОДГОТОВКА К ПОВЕРКЕ

4.1.    Перед проведением поверки производят следующие подготовительные работы.

Прибор выдерживают в нерабочем состоянии nptt температуре окружающего воздуха по ГОСТ 14753-69 не менее 2 ч.

Прибор устанавливают в рабочее положение.

Проверяют герметичность системы, состоящей из соединительных линий и образцовых приборов, для чего создают давление 1 кгс/см2 (0,1 МПа). Систему считают герметичной, если после трёхминутной выдержки в течение 2 мин в ней не наблюдается падения давления.

5. ПРОВЕДЕНИЕ ПОВЕРКИ

5.1.    Внешний, осмотр

5.1.1.    Приборы не должны иметь повреждений и дефектов, ухудшающих их внешний вид и препятствующих их применению.

' 5.1.2. Маркировка приборов должна соответствовать ГОСТ 14753-69.

На маркировочной табличке регистрирующих приборов должен быть указан номер диаграммы.

5.1.3.    Синхронные электродвигатели для привода диаграмм должны соответствовать ГОСТ 2641-61.

5.1.4.    В самопишущих приборах механизм для крепления и передвижения диаграммы должен обеспечивать установку диаграммы на нужную отсчетную линию времени, смену и перемещение диаграммы без перекосов, коробления и разрывов и снабжен устройством для пуска и остановки диаграммы.

5.1.5.    При первичной поверке приборы должны иметь выпускной аттестат (паспорт) приборостроительного или прибороремонтного предприятия.

5.1.6.    При периодической поверке приборы должны иметь эксплуатационный паспорт (или документ, его заменяющий).

5.2. У ста Нов к а стрелки (пера) на нулевую отметку.

5.2.1.    Стрелка (перо) прибора должна устанавливаться с помощью корректора нуля на нулевую отметку шкалы (нулевую

Страница 5

Стр. 4 ГОСТ g.qOi— 72

отсчетную линию диаграммы) при значении входного сигнала 50, равном:

для процентной шкалы (диаграммы) So=0,2 кгс/см2;

для именованной шкалы (диаграммы):

для напоромеров, манометров, тягомеров и расходомеров S0=0,2 кгс/см2,

для вакуумметров в зависимости от конструкции прибора S0=0,2 или 1,0 кгс/см2,

для тягонапоромеров 50=0У6 кгс/см2,

Р

для мановакуумметров S0=0,2+0,8 ~р ^р— кгс/см2, где:

Ри — верхний предел измерений избыточного давления;

Рв — верхний предел измерений вакуумметрического давления.

Примечание. Расчетное значение входного сигнала <Ь’„ для приборов с мановакуумметрической шкалой (диаграммой) приведено в табл. 2. При поверке приборов, градуированных в МПа, расчетные значения умножаются на коэффициент 0,1.

Таблица 2

кгс/см2

Вакуум метрическое давление

Избыточное

давление

Вакууммет-

рнческое

давление

Избыточное

давление

V

1

0,6

0,706

1

9,0

0,280

1

1,5

0,5,20

1

15*)

0,250

1

зя

0,400

1

24,0

0,232

1

5,0

ОДЗЗ

5.2.2. Стрелка (перо) при значении входного сигнала 50 должна устанавливаться на нулевую отметку шкалы (нулевую отсчетную линию'диаграммы) с отклонением, не превышающим указанного в ГОСТ 14753-69.

5.3. Проверка герметичности узла чувствительного эл емента измерительного блока при-б о р а

5.3.1.    Герметичность прибора определяют в процессе его поверки при определении основной погрешности при выдержке на верхнем пределе измерений в течение 5 мин.

5.3.2.    Прибор должен быть отключен от устройства, создающего давление, а чувствительный элемент прибораот дополнительных устройств, если они имеются,

5.3.3.    Поверяемый прибор считают герметичным, если после 3-минутной выдержки в течение последующих 2 мин не наблюдается изменение показаний.

В случае изменений показаний прибор считают герметичным, если в течение 15 мин изменение показаний не превышает 1% от диапазона показаний прибора, при этом изменение температуры

Страница 6

ГОСТ S.008—72 Стр. 5

не должно превышать 0,5&С. Изменения температуры «^показаний прибора должны иметь одинаковый знак.

5.3.2, 5.3.3. (Измененная редакция — «Информ. указатель стандартов» № 10 1978 г.).

5.4.    Определение влияния изменения давления воздуха питания на изменение выходного сигнала задатчика

5.4.1.    Изменение величины выходного сигнал а, вызванное отклонением давления воздуха питания от номинального значения (1,4 кгс/см2) на ±10%, Должно соответствовать ГОСТ 14753-69.

5.4.2.    Влияние изменения давления питания определяют при значении входного сигнала, равном 0,2. или 1,0 кгс/см2 (0,02 или 0,1 МПа) и давлении воздуха питания 1,26, 1,40 и 1,54 кгс/см2 (0,13, 0,14 и 0,15 МПа).

Примечание. Допускается совмещать операции поверки по пп. 5.4 и 5.5>.

5.5.    О п р е д е л е н и е основной погрешности и вариации

5.5.1.    Основную погрешность определяют при соблюдении условий, указанных в разд. 3, одним из следующих способов:'1

а)    путем установки стрелки (пера) поверяемого прибора, на отметку шкалы (отсчетную линию диаграммы) и определения расчетного значения входного сигнала, соответствующего поверяемой отметке (отсчетной линии), и отсчета действительного значения входного сигнала по образцовому прибору;

б)    путем задания по образцовому прибору расчетного значения входного сигнала, соответствующего заданной поверяемой отметке (отсчетной линии), и отсчета показаний по шкале (днаграмме)-поверяемого прибора.

При меч а пне. Определение основной погрешности по способу, указанному в п. <5.5*16, производят только в том случае, когда отсчетное устройство поверяемого прибора обеспечивает погрешность отсчитывания не более 0,2 величины предела допускаемой основной погрешности.

5.5.2.    При выборе образцового прибора для определения погрешности показаний поверяемого прибора должно быть соблюдено следующее условие:

^—Ajd

где До и Ап— пределы допускаемой основной погрешности образцового и поверяемого прибора при давлении, соответствующем поверяемой отметке шкалы (отсчетной линии диаграммы), выраженные в одних и тех же единицах.

5.5.3.    Основную погрешность определяют- путем сравнения действительных значений входных сигналов с расчетными.

5.5.4.    Расчетные значения входных сигналов (5Р) в кгс/см2 для поверяемого значения измеряемой величины определяют но формулам:

Страница 7

Стр. 6 ГОСТ *008—72

для напоромеров, манометров, тягомеров и манометров абсо* лютного давления:

Sp=0,2 + 0,8p-£- ;

г max


для манометров узкопредельных:


для тягонапоромеров и мановакуумметров: при измерении избыточного давления:

при измерении вакуумметрического давления:

Sp=0,2+0,8-4-


для вакуумметров при 5<j=0,2 кгс/см2:


при 1,0 кгс/см2:

5Р=0,2+0,8Ь=±;

для расходомеров при линейной зависимости между входным сигналом и показанием прибора:

Sp=0,2+0,8-тД—

■»» max

при квадратической зависимости между входным сигналом и показанием прибора:

где Р — поверяемое значение избыточного, вакуумметрического или абсолютного давления;

^тах — верхний предел измерений избыточного или абсолютного давления;

Pi—начальное значение диапазона измерений манометров узкопредельных (измеряемое давление при входном сигнале, равном 0,2 кгс/см2);

Pi — конечное значение диапазона измерений манометров узкопредельных (измеряемое давление при входном сигнале, равном 1,0 кгс/см2);

Р8 —верхний предел измерения вакуумметрического давления;

Страница 8

ГОСТ вда-г72 Стр. 7

/Уша-*верхний предел измерений расходомера;

1V — поверяемое значение’расхода.

Примечания:

1.    Значения Р, Ртп*, Ри Ръ Рв должны быть выражены в одних и тех же единицах давления, а 'Vmax и N в одних и тех же единицах расхода или в процентах.

2.    Расчетные значения входного сигнала для поверяемого значения расхода приведены в табл. 3.

3.    В справочном приложении 3 приводятся таблицы со значением допустимых отклонении входных сигналов от расчетных для приборов с манометрической, мановакуумметрической, вакуумметрической, расходомерной шкалами (диаграммами).

Таблица 3

Входной сигнал

при линейной зависимости между

при квадратичной зависимости

Повсряем-ое

Входным сигналом

и показанием

между входным сигналом

значение ..

прибора

и показанием прибора

расхода, %

кге/с.ча

мм рт. ст.

кгс/смг

мм рт. ст.

0

0,200

147*6

одоо'

147,6

30

0,440

324,8

0*272

200,8

49

0,5(20

383,9

0,328

№1

50

0,600

442,9

0,400

295,3

М.

0,680

502,0

0,488

360,2

70

0,760

561,0.

0,592

456,9

80

0.840

620,1

0,7)12

доде

SO

0,920

679^1 ■

0,848

025,9

100

1,000

738,2

1,000

738,2

5:5.5. Основную погрешность приборов класса точности 0,5 определяют не менее чем при девяти значениях входного сигнала и классов точности 1; 2,5 не менее чем при шести значениях, достаточно равномерно распределенных в диапазоне измерений, в том числе при нулевом значении входного сигнала.

5.5.6.    У приборов, имеющих расходомерную шкалу (диаграмму), основную погрешность показаний приборов класса точности 0,5 определяют при значениях расхода, равных 30, 40, 50, 60, 70, 80, 90. и 100% верхнего предела измерений или близких к ним, и классов точности 1; 2,5 при значениях расхода 30, 40, 60, 80 и 100% верхнего предела измерений или близких к ним.

5.5.7.    Нижний предел измерений приборов, имеющих расходо

мерную' шкалу, должен составлять не более 30% предела измерений.    '

5.5.8.    Поверку приборов при значениях, указанных в пп. 5.5.6 и 5.5:7, производят вначале при плавно возрастающем значении входного сигнала, а затем, после выдержки на верхнем пределе измерений не менее 5 мин, при плавно убывающем значении входного сигнала.

Страница 9

Стр. 8 ГОСТ LOOt— 71

5.5.9.    Пределы допускаемой основной погрешности прибора и вариация должны соответствовать ГОСТ 14753-69.

(Измененная редакция — «Информ. указатель стандартов» № 10 1978 г.).

5.5.10.    Основная погрешность прибора не должна превышать:

а)    при первичной поверке (при выпуске из производства и после ремонта) —^ 0,8 К;

б)    при периодической поверке (в эксплуатации) — К.

5.5.11.    Вариация показании, определяемая по ГОСТ 14753-69 при каждом поверяемом значении измеряемой величины, кроме значений, соответствующих значению входного сигнала 50 и верхнему пределу измерений, не должна превышать абсолютных величин, установленных в п. 5.5.9.

(Измененная редакция — «Информ. указатель стандартов» № 10 1978 г.).

5.5.12.    Невозвращение после поверки стрелки (пера) прибора к нулевой отметке шкалы (нулевой отсчетной линии диаграммы) не должно превышать абсолютной, величины по ГОСТ 14753-69.

5.5.13.    У мн($гострелочных (многозаписных) приборов погрешность и вариацию определяют отдельно по каждой стрелке (перу) прибора.

5.5.14.    В многострелочных (многозаписных) приборах разность показаний стрелок (перьев) при одном и том же значении измеряемой величины как при прямом, так и при обратном ходе не должна превышать абсолютного значения предела допускаемой основной погрешности.

5.5.15.    У приборов со шкалой задания и шкалой исполнительного механизма погрешность и вариацию определяют в соответствии с п. 5.

5.5.16.    Показания у приборов с теневым методом отсчета отсчитывают по границе раздела между двумя цветами, образуемой визирной планкой.

5.5.17.    Образцовые пружинные манометры, предназначенные для установки с их помощью расчетных значений входных сигналов, должны быть предварительно поверены при значениях, равных расчетным значениям.

5.5.18.    При определении погрешности с помощью жидкостных образцовых манометров давление 1 кге/см2 (0,1 МПа), создается столбом ртути высотой 738,2 мм при ускорении gn = 9,80665 м/с2 и температуре 20°С.

Указанной высотой столба ртути допускается пользоваться в диапазонах ускорений свободного падения тел 9,7970—9,825-5 м/с2 для приборов классов точности 0,5 и 1,0 при температуре 20±2‘?С, для приборов класса точности 2,5 — при температуре 20±5°С.

Страница 10

ГОСТ    72    Стр.    9

При ускорении свободного падения тела, отличном от нормального, значение высоты столба ртути (Лр) в мм рт. ст. определяют из равенства:

где Лн — высота столба ртути прд^н^мм рт. ст.;

gu — нормальное ускорение свободного падения тел, м/с2; gV—ускорение свободного падения Тел в месте поверки, м/с2. 5.5.19. Основную погрешность 6 в процентах вычисляют по формулам;

при поверке по способу, указанному в п. 5.5.1 о, для приборов с именной и процентной шкалами:

а) напоромеров, тягонапоромеров, тягомеров, манометров, манометров абсолютного давления, манометров узкопредельных, ма-новакуумметров, вакуумметров и расходомеров при линейной зависимости между входным сигналом и показанием прибора:

в-^.100;

б) расходомеров при квадратичной зависимости между входным сигналом и показанием прибора:

в) расходомеров с суженным нерабочим участком шкалы при линейной зависимости между входным сигналом и показанием прибора:

где jVh—значение измеряемой величины в начале рабочего участка по шкале (диаграмме) поверяемого прибора;

*Sj, — значение входного сигнала, соответствующее значению измеряемой величины в начале рабочего участка по шкал£ (диаграмме), кгс/см2; при поверке по способу, указанному в п. 5.5.16, для приборов с именованной шкалой:

а) напоромеров, манометров, манометров абсолютного давления:

6= %■■■■ — • 100; * та*


б) манометров узкопредельных:


Страница 11

Стр. 10 ГОСТ 1Ш—п

в) тягомеров и вакуумметров:

6=—гр~ -100; Л В

г)    тягонапоромеров и мановакуумметров:

д)    расходомеров:

/ N S—0,2 \ 6=(^mar ~    0,8    Г1005

для процентной шкалы:

6 = Нот rfit

где Рот — отсчет по шкале поверяемого прибора с манометрической и вакуумметрической шкалами;

Лот — отсчет по шкале поверяемого прибора с расходомерной шкалой;

Н1)Т —т отсчет по шкале поверяемого прибора с процентной шкалой;    -

Я—поверяемое значение измеряемой величины, выраженное в процентах;

S — действительное значение входного сигнала, соответствующее поверяемому значению измеряемой величины..

Примечания:,

% 1. Значения Р, Pmах, Pi, Р-2, Рв, /Vmax, sih Pot, Wot, S ДОЛЖНЫ (jUTb выражены соответственно в одних и тех же единицах.

2. В справочных приложениях 3 и 4. приводятся вспомогательные таблицы для определения погрешности в зависимости от поверяемого значения расхода и абсолютной погрешности входного сигнала, выраженной в мм рт. ст. и кгс/см2.

(Измененная редакция — «Информ. указатель стандартов» № Ю 1978 г.).

5.5.20. Погрешность приборов, имеющих шкалу задания, и приборов, имеющих шкалу исполнительного механизма, вычисляют по формулам, указанным в п. 5.5.19 для приборов с манометрической шкалой.

5.6. Определение погрешности хода диаграммы

5.6.1.    Погрешность хода диаграммы с приводом от часового механизма и с пневматическим приводом определяют но хронометру, с приводом от синхронного двигателя — по электрическим часам, работающим синхронно с частотой тока в сети.

Примечание. Допускается погрешность хода диаграммы с приводом от часового механизма и с пневматическим приводом определять но радиосигналам точного времени.

5.6.2.    Погрешность хода диаграммы за 24 ч не должна превышать ±3 мин для приборов с приводом от часового механизма

Страница 12

ГОСТ *.008—72 Стр. 1*

н ±5 мин —Для приборов с пневматическим приводом и приводом от синхронного двигателя.

5.6.3.    Погрешность определяют следующим образом. Включают привод диаграммы. В момент нахождения пера на линии времени, наносят пером отметку на диаграмму и отсчитывают показания хронометра (электрических часов). В момент нахождения-пера на линии времени, отстоящей от первой отмеченной линии; на промежуток времени т, наносят пером вторую отметку и второй раз отсчитывают показания хронометра (электрических часов). На дисковой диаграмме отметки наносят на отсчетной линии; верхнего предела измерений.

Промежуток времени т в часах принимают равным:

при допускаемой погрешности хода диаграммы—3 мин за 24 ч"

т=8Ат;

при допускаемой погрешности хода диаграммы—5 мин за 24 ч:

т=4,8Дт,

где Дт —г промежуток времени, равный 0,2 цены деления временя диаграммы (не менее 2 мм), мин.

5.6.4.    Погрешность хода диаграммы за 24 ч определяют ш> формуле

д    1440(Тд—Т)

Ар    Т    *

где 7Д — промежуток времени по диаграмме, мин;

Т — промежутрк времени по хронометру (электрическим-часам), мин.

5.7. Проверка самопишущего устройства

5.7:1. Для проверки самопишущего устройства в приборе отключают от привода лентопротяжный механизм или механизм* вращения диска.

5.7.2.    Линии записи на неподвижной диаграмме при изменении; входного сигнала от 0,2 до 1,0 кгс/см2 (0,02 до 0,1 МПа) и от-1,0 до 0,2 кгс/см2 (0,1 до 0,02 МПа) должны совпадать* с отсчет-ными линиями времени с отклонением, не превышающим 0,5 мм...

Правильность линии записи проверяют измерением расстояния: между каждым концом линии, прочерченной пером при изменении входного сигнала и нанесенной на диаграмму Линией времени.

5.7.3.    Линии, записи, нанесенные неподвижным пером на движущуюся диаграмму, не должны отклоняться от отсчетной линию измеряемой величины более чем на 5/з абсолютного значения предела допускаемой основной погрешности.

Совпадение линий‘проверяют при трех значениях измеряемой:.; величины, соответствующих нулевому значению, половине верх-

Страница 13

Стр. 12 ГОСТ 8.001-72

него предела измерений и верхнему пределу измерений, передвигая диаграмму, при каждом значении измеряемой величины; при этом дисковая диаграмма должна совершать полный оборот, а ленточная — переместится не менее чем на 200 мм.

5.7.4.    Линии записи должны быть сплошными, толщиной не более 0,5 мм у приборов с непрерывной записью и несмазанными у приборов с многоточечной записью.

5.7.5.    В многоточечных приборах проверяют правильность работы переключателя, т. е. соответствие цвета (или номера) выбиваемых точек цвету (или номеру), фиксированному механизмом переключателя до момента удара.^

5.7.6.    В многоточечных приборах с диаграммой, имеющей одно поле записи показаний, расстояние между перьями не должно превышать 0,5 цены деления шкалы времени при ленточной диаграмме и 1/96 длины любой отсчетной. окружности измеряемой величины при дисковой диаграмме.

5.8. Определение погрешности показаний интегратора

5:8.1. Показания интегратора при его поверке отсчитывают по счетчику интегратора и дополнительному устройству для отсчета дробных значений.

5.8.2. Погрешность отсчета по дополнительному устройству не должна превышать 1/5 величины предела допускаемой основной погрешности интегратора.

5.8:3. Входной сигнал, подаваемый при поверке в интегратор, должен быть равен расчетному значению. В процессе поверки значение входного сигнала не должно изменяться.

5.8.4.    Необходимую продолжительность работы интегратора при поверке определяют исходя из погрешности отсчета по допол; нительному устройству и конструктивных особенностей интегратора.

5.8.5.    Требуемая минимальная продолжительность работы интегратора при его поверке (/mm) в минутах, обусловленная погрешностью отсчета, при поверяемом значении расхода N вычисляют по формуле

60 100

/min — 5 tl

M'm.x А;    К

где п — погрешность отсчета по дополнительному устройству, равная цене деления, если длина деления менее 1 мм, и 0,5 цены деления, если длина деления равна или более 1 мм;

jVf'max— расчетная разность показаний интегратора за час, соответствующая верхнему пределу измерений; ,

К —т предел допускаемой основной погрешности интегратора, выраженный в процентах от расчетной разности показа-

Страница 14

ГОСТ 8.091-72 Стр. 13

нни интегратора, соответствующей верхнему пределу измерений.

5.8.6.    Требуемая минимальиая продолжительность работы интегратора, обусловленная его конструктивными особенностями, выбирается кратной периоду минимально необходимого целого числа оборотов элементов кинематической цегш механизма интегратора.

5.8.7.    Погрешность показаний интегратора определяют при значениях расхода, составляющих 30, 50, 80 и 100% от верхнего предела измерений или близких к ним при возрастающем и убывающем значениях входного сигнала.

5.8.8.    Погрешность показаний определяют одним из следующих способов:

а)    путем определения действительной разности показаний, соответствующей заданной продолжительности работы. интегратора при поверяемом значении расхода;

б)    путем определения действительной продолжительности работы интегратора, необходимой для достижения расчетной разности, соответствующей поверяемому значению расхода.

Расчетную разность показаний Мр вычисляют по формуле

ту£Ь*

5.8.9.    Погрешность показаний интегратора вычисляют по формулам:

а) при поверке по способу, указанному в п. 5.8.8а;

I м    N    \

Мм-— И—Н°°;

\ М га а х    -Л/шах/

б) при поверке по способу, указанному в п. 5.8.86:

6=JTL- tf"100’ где М — действительная разность показаний интегратора за заданную продолжительность работы;

Л1щах—расчетная разность показаний интегратора за заданную продолжительность работы, вычисляемая по формуле

М = М'м* • t max 60

где / — заданная продолжительность работы интегратора (время поверки), мин;

V— действительная продолжительность работы интегратора, мин.

Примечание. В табл. 4 приводятся расчетные значения величин t, Мр, At,. AAfp для поверяемых значений расхода приборов типа ПИК-Л, классов точности 0,5 и 1.0.

Страница 15

Стр. 14 ГОСТ 8.008-72

Таблица 4

Поверяемое значение расхода, %

Расчетное

значение

ВХОДНОГО

сигнала

Время поверки t. мни

Количество единиц Afp за время t

Допустимое отклонение tfcAf, с

Допустимое

отклонение

показаний

кгс/смг

мм

рт. ст.

Класс точности

0,5

1,0

0,5

1,0

0,5

1,0

0,5

U)

30

0,272

200,8

13,3

13,3

8

,8

±13,3

±36,6

±0,|1.3

. ±0^7-

50

0,400

295^3

8

8

8

8

±4,8

±9,6

±0,08

±(*1 &

80

0,712

525,6

10

5

16

±,3,7

±3,7

±<ы

±0,1

100

1,0

738*2

8

4

16

±2,4

±2,4

±0,08

±ао&

6. ОФОРМЛЕНИЕ РЕЗУЛЬТАТОВ ПОВЕРКИ

6.1.    Приборы, соответствующие требованиям настоящего стандарта, допускаются к применению,

6.2.    При положительных результатах первичной поверки в выпускном аттестате (или паспорте) приборостроительного или прибороремонтного предприятия записывают, что прибор ^оден к применению, и указывают дату поверки.

6.2.1. Запись в выпускном аттестате (паспорте) результатов^ государственной первичной поверки заверяют подписью государственного поверителя и оттиском доверительного клейма;

(Измененная редакция — «Информ. указатель стандартов»-№ 10 1978 г.).    V

6.2.2. Запись ^ выпускном аттестате (паспорте) результатов; первичной поверки, проведенной приборостроительным или прибороремонтным предприятием, заверяют в порядке, установленном? предприятием.

6.3.    При положительных результатах периодической поверки в эксплуатационном паспорте (или' документе, его заменяющем) записывают, что прибор годен к применению, и указывают дату поверки.

6.3.1.    Запись в эксплуатационном паспорте (или документе* его заменяющем) результатов государственной пер'иодической поверки заверяется поверителем и оттиском1 поверительного клейма.

6.3.2.    Запись в эксплуатационном паспорте результатов ведомственной поверки заверяется в порядке,, установленном органом ведомственной метрологической службы.

6.4.    При отрицательных результатах поверки приборы не допускаются к выпуску из производства и после ремонта, а находящиеся ,в эксплуатации — к применению. В выпускном аттестате (или паспорте) или в эксплуатационном паспорте (или документе, его заменяющем) производят запись о непригодности прибора.

6.5.    По результатам поверки составляют протокол по форме, указанной в приложениях 1 и 2.

Страница 16

Стр. 15

ПРИЛОЖЕНИЕ /

ПРОТОКОЛ №.

19

, №.


, тип

класс точности


*ирверки __

(наименование прибора) 'пределы измерений_


шринадлежащего


Образцовые приборы: _, №_

,, верхний предел измерении.

тип

•класс точности

Действительное значение входного (выходного) сигнала или показание по шкале поверяемого прибора '


. о * 2 ” '<2’ ISg

т 5 св (“ 5в и v О я

* * S а с

<? 2 " * u a* w ^


у. г. 5 <ч 5

| {-* S2 С£

: х * s f Z s л и к«

,a« 2


■" а ^ 4J S 3

2? S3 «> К

5 Ж SS X £■ о о. г £ в*" к g п К е

Catnu

« ж о


S S


при прямом ходе


при прямом ходе


при обратном ходе


Погрешность поверяемого прибора в % нормирующего значения или в единицах йзмерения


при обратном ходе


Предел допускаемой основной

^погрешности__

Допускаемая вариация_

Наибольшая погрешность показаний_ %

Наибольшая вариация показаний


Страница 17

Стр. 16

кгс/см2

Расчетные

значения

выходного

сигнала

Действительное значение выходного сигнала при давлении воздуха питания

Изменение выходного сигнала при изменении давления воздуха питания и ь/а от нормирующего значения или п единицах измерения

1.26

1.40

1,54

1,26

1,54

1

2

3.‘

4

5

6

Допускаемое изменение выход-    Наибольшее отклонение выходного

пого сигнала _ %    сигнала_ %

Примечание. В графах 1—4 указать единицы измерения.

Прибор годен, забракован (указать причины) ___

Подпись лица, выполнившего поверку __

Страница 18

Стр. 17

ПРИЛОЖЕНИЕ 2

ПРОТОКОЛ №    _

__‘__:_19_г.

поверки интегратора, тип_____ ; «V?_ ,

класс точности_ ,

изготовленного {отремонтированного i__ __,

принадлежащего _______:_

Образцовые приборы: тип ___, N9__верхний предел измерений_

K.UiCC ТОЧНОСТИ _'

Первый отсчет

Второй

отсчет

Поверяемое

значение

но

по

Погрешность

расхода

по счетчику

секундомеру

по счетчику

секундомеру

Предел допускаемой основной    Наибольшая    погрешность    показаний

погрешности __ %    _ %

Прибор годен (забракован) — указать причины _

в

Подпись лица, выполнившего поверку _

Страница 19

Стр. 18

Определение погрешности приборов с расходо между входным сигналом

Абсолютная погрешность поверяемого прибора

Основная


3°'

се -

! а, >.


0.65


0,6


’ 0,4


0,35


0,2    0,25


0,3


0,15


0,1


0,45    0,5    0,55


28,8

38.4 48 57,6 67,2 76,8

86.4 96


1,2

41,6

52

62,4

72.8

83,2

936

104


26,2

35.2 44 52,8 61,6 70,4

79.2 88


24

32

40

48

56

64

72

80


21,6

28,2

36

43,2

50,4

57,6

64,8

72


19.2

25.6 32 48,4 44,8

51.2

57.6 64


16,8

22.4 28 33,6 39,2 44,8

50.4 56


14.4

19.2 24 23,8 33,6

38.4

43.2 48


12

16

20

24

28

32

36

40


9,6

12,8

16

19,2

22,4

25w6

28,8

32


7,2

9,6

12

14,4

16,8

19,2

21.6

24


30

40

50

60

70

80

90

Г100


4.8 6,4' 8,0 9,6 1.1,2

12.8 14,4 16,0


Абсолютная погрешность поверяемого

Основная


ч

о

й** со . .'С--;


0,65

2.3

3.1 3,8.

4.6

5.4

6.1 6,9

7.7


0,6»

/

2.1

2,8

3.5    ..

4.3

5.0

5.6

6.4

7.1


0.55

1.9

2,6

3.2

3.9

4.5

5.2 5,8 ■

6.5


0.45    0,5


0,4

1.4 1,9

2.4 2.8 3,3 3,8 •4,2 4,7


0.3

1,0

1.4 1,8 2,1

2.5 2,8 3,2

3.5


0,25

0,9

1,2

1.5 1,8 2.1 2,4

2.6 2,9


0,2

0,7

аэ

1,2

1.4 1,7 1,9 2.1

2.4


0Д5

0,5

0,7

0,9

1,1

1.2

1.4'

1,6

1,8


0,1

0,4

0,5

0,6

0,7

0,8

аэ

U

1,2


1,8

2,4

2.9

3.6 4,1

4.7 5,3

5.9


1,6

2,1

2,6

3.2

3.7

4.2

4.8

5.3


30

40

50

60

70

80

90

лоо


0,35

1,2

1,6 2,1 2,5 2,9 3,3 3,7 4,1 ч


Страница 20

Стр. 19

ПРИЛОЖЕНИЕ 3 к ГОСТ 8.008-72 Справочное

Мерной шкалой при квадратической зависимости и показанием приборов

Таблица 1

в единицах давления (кгс/см* ■ Ю“4)

погрешность б, %

0.7

0,75

0.8

0,85

0,9

0.Э5

!.‘0

1,25

1,5

1,75

2,0

2,25

2,5

за,6

36

38,4

40,8

43,2

44,6

48

60

72

84

96

108

120

44,8

48

5.1,2

54,4

57,6

60,8

64

80

96

112

128

144

160

56

60

64

68

72

76

80

100

120

140

160

180

200

67,2

72

76,8

81,6

86,4

94,2

96

120

144

168

192

216

240

78,4

84 -

89,6 .

95,2

100,8

1-06,4

112

140

168

196

224

23(2

260

89,6

96

102,4

108,8

115,2

Ш36

128

160

192

224

256

288

320

100,8

108

115,2

122,6.

129,8

137

144

180

216

25(2

288

324

360

112

120

128

136

144

152

160

200

2401

280

300

360

400

Таблица 2

прибора в единицах давления (мм. рт. ст.) -

погрешность б, %

0,7

0,75

0,8

0,85

0.9

0.95

1.0

1,25

1,5

1,76

2,С

2,25 (

2,5

2,4

2,6

2,8

3,0

3,2

3;3

3,5

4,4

5,3

6,1

7,0

7,9

8,8

3,3

3,6

3,8

4,0

4у2

4,5

4,7

59

8,3

, 8,1

9,4

10,6

11,8

4,1

4,4

4,7

5,0

5,3

5,6

5,9

7.4

8,8

10,3

11,8

13,3

14,7 .

5у0

5,3

5,7

6,0

6,4

6,7

7,1

8,9

10,4

12,4

14,2

16,0

17,8

53

6,2

6,6

7,0

7,4

7,8

8,3

10,4

12,4

14,5

16,6

18,7

20,7

6,6

7,1

7,5

8,0

8,5

9,0

9,4

11,8

14,1

16,5

18,8

21,2

23,5

7,4

8,0

8,5

9,0

9,5

10,0

10,6

13,4

15,9

18,6

21,2

23,8

26,5

8,3

• 8,9

9,4

10,0

10,6

11,2

11,8

14,7

17,7

20,7

23,6

26,5

29,5

Страница 21

Стр. 20

ПРИЛОЖЕНИЕ 4 к ГОСТ 8.008-72 Справочное

Допустимое отклонение входных сигналов от расчетных значений:

а)    для приборов с манометрической, мановакуумметрической, вакуумметри-ческой и расходомерной шкалой с линейной зависимостью между входным сигналом и показанием прибора указаны в табл. 1;

б)    для приборов с .расходомерной шкалой с квадратической зависимостью между входным сигналом и показанием прибора — в табл. 2.

Таблица 1

Класс точности поверяемого прибора

Допустимое

отклонение

кгс/сма

мм рт. ст.

as

±0,004

±2,9

1,0

±0,008

- ±5,9

2,5

±0,020

±'14,8

Таблица 2

Предельное значение входного (выходного) сигнала для приборов классов точности

0,5

1

2,5

кгс/см?

мм рт. ст.

кг с/см1

мм

' рт. ст.

кгс/смг

мм

рт. ст.


0Д67

0,277

0,322

0,334

0,392

0,408

0,478

0,498

0,581

0,603

0,699

0,725

0,834

0,862

0,984

1,016


199.0

202.5 239,8

244.5 292,3

298.2

356.7

363.8

432.9

441.1

520.9

530.3 6(20,7

631.3

732.3

744.1


0,270

0,274

ода

0,331

0,396

0,404

0,483

0,493

0,586

0,598

0,706

0,718

0,841

0,855

0,992’

1,008


Расчетное значение

8

is»

входного (выходного) сигнала

& v о £ sr к Я CJ3 и

кгс/сма

1

мм рт. ст.

30

0^272

200,8

.'40

0,328

242,2

50

0,400

295,3

60

0,488

360,3

70

0,592

436,9

80

0,712

525,6

90

0,848

625,9

100

1,000

738,2


197Л .

0,261

192,3

204уЗ

0,285

210/)

237,7

0,313

230,7

246,6

0345

254,3

289,4

0,381

, 280,9

30lj2

0,421

310,4

352,9

0,465

342,9

367,6

0,513

378,3

Ш,8

0,565

416,7

445

0,621

458,0

516,0

0,681

502,3

535£

0,745

549,5

615,4

0,813

599,8

636,6

0885

652,9

726,4

0,961

709,0

750,0

1,040

- 767,7


Страница 22

Редактор А. В. Умансова Технический редактор Ф. И. Шрайбштейн Корректор В. С. Черная

Сдано в наб. 27.03.7^ Подп. в печ. 11.05.79 1,25 о. л. 1,03 уч.-изд. я. Тир. 10000 Цеиа 5 коп.

Ордена «Знак Почета» Издательство стандартов, Москва, Д-557, Новопресненский пер., д. 3. Вильнюсская типография Издательства стандартов, ул. Ммядауго, 12/И. Зак. 1721

Заменяет МУ 220 Инструкция 7-63