|
仪表精度等级的含义一般将仪器测量结果的准确度称为仪器的准确度或精密度;而精度水平其实就是仪器的精度水平。参考误差越小,仪器的精度越高。但是,参考误差与仪器的量程(或测量范围)有关。所以在使用同样精度的仪器时,仪器人员一般会压缩量程,以减少测量中可能出现的误差。 仪器的误差值小,说明仪器的精度水平高。在工业测量领域,精度水平往往代表着仪器的质量。可以说,准确度的高低是衡量一台仪器好坏的关键指标之一。 误差表示方法有三种,即:引用误差、相对误差和绝对误差。 一.引用错误 参考误差=(最大绝对误差/仪器量程)×100%,例如:2% f.s。 第二,相对误差 相对误差=(最大绝对误差/仪器测量值)×100%,例如:≤2%。 第三,绝对误差 绝对误差是指误差与真值的偏差,例如:≤ 0.01m3/s。 事实上,精度水平是最大参考误差值减去正负和百分比符号。我国规定的允许误差分为几个等级。其中,工业仪表的精度等级有:0.005、0.02、0.05、0.1、0.2、0.35、0.4、0.5、1.0、1.5、2.5、4.0等。等级越小,精度等级越高。一般来说,工业仪表的精度为0.5 ~ 4级,出厂时仪表的精度通常标注在仪表刻度或其铭牌上。 工业过程测量和控制的检测仪表和显示仪表有16个精度等级:0.01、0.02、(0.03)、0.05、0.1、0.2、(0.25)、(0.3)、(0.4)、0.5、1.0、1.5、(2.0)、2.2。 那么如何计算仪器的精度呢?其实只需要按照公式计算即可:仪器精度=(最大绝对误差/仪器量程)×100%。上面公式的绝对值再去掉“%”就是精度等级的值。 仪器的精度由传感器的基本误差极限和影响因素(如温度变化、湿度变化、功率波动、频率变化等)引起的变化极限决定。).公式是?:δ=(△* * x)/(а* * x)×100%。其中,δ是精度水平;△ ** x为最大测量误差;а * * x是仪器的量程。 |