文章详情
仪表精度
日期:2024-11-25 03:59
浏览次数:13327
摘要:
仪表精度
介绍 |
当选择测量仪表、记录仪或其他设备时,客户主要会考虑输入传感器类型、测量或采样周期、精度及其他与其工业进程应用相匹配的特性。因此,本文解释了一些在µR系列一般规格和其他有关精度的文件中用到的术语,表述了选择记录仪的标准,同时也涉及到如何表达精度的基本理论。 |
1.什么是精度? |
精度是指在特定条件下测量仪表的**度,由多种因素造成的误差极限(误差幅度)表示。换言之,它表示了由测量仪表得出的测量值与真实值的接近程度,同时也说明误差的极限值与输入信号有关。在仪表测量的情况下,精度常用百分比误差和**误差两种形式来表示,例如:±(测量值的0.1% + 1 位),或±(测量值的0.2% + 1mV)。 *:根据JIS的相关规定,真实值是指“使用无固有误差的方法测量给定量的值”,但现实中获得一个完全没有误差的测量值是不可能的。因此传统概念中的真实值,是指尽可能接近真实值,这个传统意义的真实值可追溯到国家标准,或使用者之间公认的标准。同样地,因为精度受温度、湿度和其他现象的影响,一般规格中列出的精度是在给定的条件范围下获得的。例如,μR系列一般规格如下所述。 测量/记录精度: 标准操作条件: 23 ± 2°C,55 ±10% RH,电源90~132VAC和180~264V AC,电源频率 50/60 Hz±1%,预热时间30分钟或更多,无振动等不利条件。 |
2.如何表述µR系列记录仪的精度? |
µR系列记录仪的测量误差和记录误差被作为规格的一种,例如,下表显示了µR系列一般规格是如何描述精度的(DC电压)。
|