数字万用表的精度简介
精度就是指在特定的使用环境下,出现的*大允许误差。换句话说,精度就是用来表明数字多用表的测量值与被测信号的实际值的接近程度。
对于数字多用表来说,精度通常使用读数的百分数表示。例如,1%的读数精度的含义是:数字多用表的显示是100.0V时,实际的电压可能会在99.0V~101.0V之间。
在详细说明书中可能会有特定数值加到基本精度中。它的含义就是,对显示的*右端进行变换要加的字数。在前面的例子中,精度可能会标为±(1%+2)。因此,如果GMM的读数是100.0V,实际的电压会在98.8V~101.2V之间。
模拟表的精度是按全量程的误差来计算的,而不是按显示的读数来计算。模拟表的典型精度是全量程的±2%或±3%。数字多用表的典型基本精度在读数的±(0.7%+1)和±(0.1%+1)之间,甚至更高。