ความละเอียดของมัลติมิเตอร์
ความละเอียดหมายถึงการเปลี่ยนแปลงขั้นต่ําในสัญญาณอินพุตที่สามารถทําให้สัญญาณเอาต์พุตเปลี่ยนแปลงได้ เมื่อช่วงของ DMM ลดลงความละเอียดจะดีขึ้น อย่างไรก็ตามท้ายที่สุดคุณต้องการให้มัลติมิเตอร์ของคุณแสดงการอ่านค่าที่ความละเอียดที่ดีที่สุด คุณสามารถใช้มัลติมิเตอร์นี้และเลือกช่วงที่ให้ความละเอียดที่ดีที่สุดในการอ่าน นี่คือตัวอย่าง: ใช้ช่วง 10V เพื่อวัดสัญญาณแรงดันไฟฟ้า DC 1.3V การอ่านคือ 1.30034V และความละเอียดคือ 0.00001V เปลี่ยนช่วงเป็น 100V การอ่านคือ 1.3004V และความละเอียดคือ 0.0001V ดังที่เห็นได้จากตัวอย่างนี้สําหรับการวัด 1.3V นี้การเลือกช่วง 10V ให้ความละเอียดสูงกว่าช่วง 100V
