La discrepancia entre la indicación del instrumento y el verdadero valor de la magnitud medida se denomina “error”. La diferencia entre la indicación del instrumento y el verdadero valor se denomina error absoluto. A veces se da como porcentaje respecto al máximo valor que puede medir el instrumento (valor de fondo de escala) o con respecto a la diferencia entre el valor máximo y el valor mínimo medibles. Así pues,error absoluto = resultado - verdadero valor Sin embargo, lo más común es especificar el error como cociente entre el error absoluto y el verdadero valor de la magnitud medida, cociente que se denomina error relativo. Este suele tener dos términos: uno dado como porcentaje (tanto por ciento) de la lectura, y otro constante, que puede estar especificado como porcentaje del fondo de escala o un umbral, o un número de “cuentas” en el caso de instrumentos digitales,
error relativo =error absoluto / verdadero valor
Para algunos sensores puede que se especifique un error relativo como porcentaje del fondo de escala, sin más, o bien como porcentaje de la lectura exclusivamente. Si el margen de medida incluye valores pequeños, lo primero implica que en dicha zona del margen se tendrá un error muy grande, mientras que lo segundo da lugar a errores increíblemente pequeños.
1 comentario:
cuale seria su diferencia en la apllicaion industrial,es decir ,cuando se aplicaria cada uno de los metodos?
Publicar un comentario