原文由 西瓜猫猫西瓜(vivi_vivi) 发表:
1.被评定的电阻器的电阻标称值为1.000Ω,用标准电阻电桥来校准该电阻,所得测量结果为1.002Ω,试求出该电阻的示值误差。
示值误差=1.000-1.002=10.002
2.设某一被测电流为100mA,现有两块表,一块标称范围为(0~300)mA的0.1级表;另一块是标称范围为(0~100)mA的0.2级,问采用哪块表测量准确度更高。
怎么算准确度呀?不会......组等解释
猫:第1题出了笔误,由于头脑反应大快,键盘没来得及反应,误将“-”号为"1"了。
第2题解题思路是这样:对于一被量的测量,准确度高,则要求其相对误差小。在这里被测量为100mA,其测量相对误差为(测量绝对误差)/100mA。如果用标称范围为(0~300)mA的0.1级表,可能产生的最大绝对误差为±(300X0.1%)= ±0.3mA,同理如用(0~100)mA的0.2级可能产生的最大绝对误差为±0.2mA。显然,用第2块表测量准确度更高。
当然该题自身是有不恰当之处,实际工作中一般不会用量程为100mA的表,去测100mA的电流的,这样不仅容易损坏表。而且当表正误差时,不就超量程了,也没法读数哦!