Teoría de errores

Todas las ciencias son, en mayor o menor grado, ciencias experimentales. La única excepción son las Matemáticas y también la física, en aquellas áreas en las que esté lo suficientemente “matematizada”. Por otro lado, las ciencias experimentales están basadas en la medida, en la determinación cuantitativa de observaciones o experimentos. De aquí pues la enorme importancia de la medición para la ciencia en general.

Sabemos que medir, directa o indirectamente, consiste siempre en comparar dos magnitudes, la que queremos medir y la que hemos adoptado convencionalmente como patrón de medida. El caso es que cualquier medida es indefectiblemente una medida inexacta. En el mundo macroscópico esto podría aducirse a una posible imperfección en los aparatos de medida. Sin embargo, la incertidumbre en una medición es una ley de la naturaleza que se pone de manifiesto de manera tácita cuando nos sumergimos en el mundo de las partículas microscópicas, en donde este fenómeno se evidencia de forma precisa con el principio de incertidumbre de Heisenberg. Según dicho principio, no podemos obtener el valor exacto de una medición, sino la probabilidad de que dicha medición se encuentre en un determinado rango de valores. En cualquier caso, ya sea en el mundo microscópico o macroscópico, debemos tener siempre presente la imposibilidad de una medición exacta, que en el primer caso llamaremos incertidumbre y en el segundo error.

Cuando llevemos a cabo una medición deberemos tener pues en cuenta tres parámetros, que son un número, una unidad de medida y un error.
Antes de continuar hay que señalar que existen una serie de fallos en las mediciones que no se pueden considerar errores en el sentido en que tratamos aquí este término. Si estamos calculando una longitud en metros y nuestro aparato de medición utiliza unidades inglesas de medida lógicamente vamos a equivocarnos. O si el aparato de medida es defectuoso, también cometeremos errores, pero el error introducido siempre será el mismo, motivo por el que este tipo de errores reciben el nombre de errores sistemáticos y no son objeto de estudio matemático. Frente a éstos están los errores debidos a causas imprevisibles o desconocidas en las que de alguna forma interviene el azar, por lo que, en muchos textos, reciben el nombre de errores aleatorios.

Error absoluto y error relativo

Cuando se deja constancia de los resultados de una medición, conscientes de que en la mayoría de los casos pueden haber intervenido diversas fuentes de error, se suele asociar al resultado un término complementario que indique el grado de precisión de la medición. Dicho término suele adoptar dos formas diferentes, el error absoluto (Ea) y el error relativo (Er). El primero se define como la diferencia, en valor absoluto, entre el resultado de la medición M y el verdadero valor de ésta, V:

Ea = |M – V|

Y el error relativo se define como el cociente entre el error absoluto y el valor verdadero:

Er = Ea / V

Sabemos que el valor de V es inaccesible a la medición, por lo que estas fórmulas sólo tienen valor en un contexto puramente matemático.

Cifras significativas

Cuando nos dicen que una cierta distancia ha sido medida con un error de 0,6 m, tenemos garantizado que el error cometido es de décimas de metro, por lo tanto si el resultado de la medición es 3.456,375 m nos están dando dos cifras superfluas, ya que el 7 y el 5 nos proporcionan datos sobre los centímetros y los milímetros que en dicha medición no tienen significado. En general no lo tienen aquellas cifras que ocupan una posición posterior a la que indica el orden de error cometido. En una medición de tiempo hecha con una precisión de minutos no tendrían pues tampoco ningún significado las cifras que hicieran referencia a los segundos o a las décimas de segundo, etc. Son por tanto cifras significativas aquellas que ocupan una posición superior o igual al orden o posición del error y se llaman así porque son las que tienen un significado, en el sentido de que proporcionan una información útil en la medición.

Es importante, cuando se hace una medición, que en el resultado final se evite poner las cifras que no son significativas para evitar una posible fuente de errores.

Redondeos

Supongamos que tenemos un termómetro en el que en las indicaciones del fabricante figura que el error en la medición es de 3 décimas de grado. Hacemos una medición de temperatura y anotamos el resultado:

38,345 º

Es obvio que es una forma incorrecta de dar el resultado de la medición, porque estamos incluyendo decimales que nada aportan a la misma, ya que el 4 y el 5 están ocupando una posición que es menor del error cometido. Si se trata de un termómetro de precisión, el fabricante especificará la cuantía del error poniendo y la forma correcta de expresar la medición sería:

De manera que un primer criterio, cuando hacemos un redondeo, es prescindir de aquellas cifras que no aportan ninguna información, porque el error que contiene es mayor que el significado de dichas cifras.

En el caso en que el resultado de la medición hubiera sido 38,375 º lo correcto habría sido expresar el resultado en la forma:


O simplemente: 38, 4 º

Esto es lo que se llama hacer un redondeo, que consiste básicamente en la eliminación de cifras. ¿Qué criterios suelen seguirse para hacer un redondeo? Son de sentido común y se reducen a las tres siguientes reglas:

1.- Una cifra que es menor que 5 se elimina, sin más consecuencias.

2.- Si la cifra eliminada es mayor que 5, se aumenta en una unidad la cifra anterior.

3.- Cuando la cifra a eliminar es justamente 5 hay dos posibilidades: si la cifra anterior es par se deja tal y como está y si es impar se añade una unidad.

Veamos algunos ejemplos:

Redondear 4,573 a tres cifras significativas es poner 4,57. Si el número hubiera sido 4,579, el resultado hubiera sido 4,58.

La tercera regla se aplicaría de la siguiente forma: 4,575 se redondea a 4,58 y 4,565 se redondea a 4,56.

El criterio para establecer la tercera regla consiste en considerar que la mitad de las veces se redondeará por defecto y la otra mitad por exceso, compensándose así los errores en el cómputo general.

Exactitud y precisión

La exactitud y la precisión son dos conceptos de la Teoría de Errores que atañen a los aparatos de medida y que a menudo se confunden uno con otro. Imaginemos que hacemos una serie de disparos con un arma de fuego sobre una diana. Si se trata de un arma precisa (un rifle de precisión), los disparos estarán agrupados entre sí. Si además la mira está bien calibrada, se podrá hacer puntería y colocar el máximo número posible de disparos en la diana. En las cuatro dianas de la figura podemos observar las diferentes situaciones: en la 1ª no hay ni precisión, ni exactitud; en la 2ª hay exactitud, pero no precisión; en la 3ª hay precisión, pero no exactitud; y en la 4ª hay ambas cosas.

Para entendernos, un cronómetro que sea capaz de medir centésimas de segundo pero que retrase cinco minutos en cada hora puede ser más preciso que nuestro reloj de pulsera, pero menos exacto.

Errores de peso

Está comprobado estadísticamente que la báscula de baño es uno de los utensilios domésticos que menos se utilizan. Las personas sin problemas de peso porque ni se acuerdan de que la tienen y las que padecen problemas de sobrepeso, porque prefieren no ver lo que está pasando. El resultado es que se produce lo que en Teoría de Errores es conocido como el error del cero, que aparece cuando el aparato de medición no es utilizado durante un largo lapso de tiempo y como consecuencia la aguja no señala correctamente el cero de la escala. Esto se palia con un pequeño botoncito que los fabricantes suelen poner para ajustar periódicamente la escala.

Para todos los públicos
A caballo entre el final del bachillerato y el principio de carrera
Para matemáticos adictos a la cafeína.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *