martes, 14 de junio de 2022

Aspectos básicos sobre el tratamiento de los errores aleatorios (accidentales) en la medida de una magnitud

Los errores en la medida pueden ser de tres tipos: a) errores de resolución, debidos a la limitación en la sensibilidad de los instrumentos de medida; b) errores sistemáticos, que provienen del observador, del instrumento de medida, o bien del método de medida, y que se caracterizan por dar una desviación en la medida siempre en el mismo sentido —no pueden, por tanto, compensarse realizando una serie de medidas repetidas—, si bien son fácilmente decetables y corregibles; y, c) errores accidentales o aleatorios, de los que voy a hablar en este artículo, y que, como su nombre indica, son debidos a factores incontrolables al realizar la medida (dependientes del azar), por lo cual pueden tratarse mediante la estadística y la probabilidad a partir de una serie de mediciones repetidas (muestreo). En este breve artículo expongo los conceptos y resultados básicos sobre la cuantificación de los errores accidentales o aleatorios (el tercer tipo mencionado). También aprovecharé la ocasión para presentar la notación que voy a utilizar en la mayor parte de los artículos que incidan sobre estas nociones tan importantes tanto para la física (y las ciencias experimentales en general) como para el cálculo numérico.



1. Preliminares

Error absoluto y error relativo en la aproximación de una cantidad por otra

Consideremos el valor exacto $x^\ast$ de una magnitud $X$. Normalmente, no concemos dicho valor; sin embargo, sí podemos conocer un valor aproximado del mismo $x\approx x^\ast$. Definimos el error absoluto de dicha aproximación $x$ como la cantidad $e_{a}(x):=|x-x^\ast|$ y el error relativo de la misma como $e_{r}(x):=\dfrac{e_{a}(x)}{|x^\ast|}$, lo cual puede aproximarse —recordemos que, normalmente, no conocemos el valor exacto $x^\ast$— de la forma $e_{r}(x) \approx \dfrac{\varepsilon_{a}(x)}{|x|}$ o, mejor, $e_{r}(x) \approx \dfrac{\varepsilon_{a}(x)}{|x|-\varepsilon_{a}(x)}$ .

Cotas superiores razonables del error absoluto y del error relativo

Sucede que habitualmente se trabaja con cotas superiores razonables de dichos errores, $\varepsilon_{a}(x)$ y $\varepsilon_{r}(x)$, en lugar de hacerlo con los valores de los mismos, $e_{a}$ y $e_{r}(x)$, por no conocer exactamente esots. Tengamos en cuenta que $\varepsilon_{a}(x)\ge e_{a}(x)$ y $\varepsilon_{r}(x)\ge e_{r}(x)$, por lo que es usual escribir $x^\ast=x\pm \varepsilon_{a}(x)$, interpretando en buena lógica $\varepsilon_{a}(x)$ como la mitad de la longitud del intervalo de incertidumbre centrado en el valor aproximado $x$, esto es, $I=\left( x- \varepsilon_{a}(x)\,,\,x+\varepsilon_a(x) \right)$, que expresa un margen máximo de error. También podemos expresar este margen de error de la forma $x^\ast=x\,( 1\pm \varepsilon_{r}(x))$.

Nota. En muchos libros, por ejemplo en el libro de Demidovich [2], se utiliza la siguiente notación para las cotas del error absoluto y relativo: $\Delta_x$ en lugar de $\varepsilon_{a}(x)$ y $\delta_x$ en lugar de $\varepsilon_{r}(x)$, respectivamente.

Aunque no vaya a tratar aquí los errores de resolución —como ya he dicho arriba, me centraré en el tratamiento de los errores accidentales— es importante tener en cuenta que, ambos errores, los aleatorios y los de resolución —los errores del tipo (b), sistemáticos, se corrigen fácilmente en cada medición— conforman el error total, cuya cota superior, viene dada a partir de las cotas superiores de error de resolución y de error aleatorio (accidental), mediante una definición muy razonable: $\Delta_{\text{total}}:=\sqrt{\Delta_{\text{resolución}}^2+\Delta_{\text{accidental}}^2}$

2. Cálculo del error aleatorio (accidental) asociado a la medida de una magnitud $X$ a partir de un conjunto de medidas repetidas de la misma

El tipo de error que estoy planteando no es, desde luego, de tipo sistemático ni tampoco es debido a la resolución del instrumento de medida sino a la aleatoriedad, por circunstancias accidentales, que son las que se dan cuando al repetir una misma medida, no obtenemos exactamente los mismos valores, obteniendo estos desviados en uno u otro sentido con respecto de un valor central. Atribuimos tal cosa a las fluctuaciones aleatorias debidas a los cambios en las condiciones del experimento, de ahí la idoneidad de la vía estadística para detectarlos y cuantificarlos, para, a partir de una serie de medidas repetidas de una misma magnitud (muestreo), determinar el error (estadístico) asociado. Este error que abordamos desde la estadística y la probabilidad, viene dado por la desviación estándar, $\sigma_{\bar{x}}$, con respecto a la media muestral $\bar{x}$, dada una muestra de tamaño $n$ del valor de una magnitud $X$ que no es otra que la que obtenemos mediante una serie de $n$ medidas repetidas (la muestra).


A partir de dicha muestra, nos proponemos determinar el intervalo de error, que centrado en la media muestral, se sitúa el valor verdadero (o ideal) de la magnitud $X$. De la inferencia estadística, sabemos, que, calculando la media de la muestra $\bar{x}$ y la desviación estándar de la misma, $s$, sel valor de la media poblacional se encuentra, según el teorema del Límite Central (TLC), en el siguiente intervalo $$(\bar{x}-\sigma_{\bar{x}},\bar{x}+\sigma_{\bar{x}})$$ es decir $$x=\bar{x} \pm \sigma_{\bar{x}}$$

Así pues, la media muestral $\bar{X}$ del conjunto de mediciones realizadas sigue aproximadamente una distribución de Gauss (TCL) de parámetros $\mu=\bar{x}$ (media de la distribución) y con una desviación estándar (de la media muestral) $\sigma_{\bar{x}}=\dfrac{\sigma}{\sqrt{n}}$, donde $\sigma$ es la desviación estándar de la media $\mu$ de la población, la cual, obviamente no conocemos; en efecto, es bien sabido que para calcular los errores absoluto y relativo de una medición es necesario conocer el valor ideal $x^*$ de la medida de la magnitud $X$, pero es claro que tal cosa no es posible en la mayor parte de las situaciones. Esto es importante porque, al hablar de un conjunto de $n$ de mediciones de una cierta magnitud $X$ hemos manejado el concepto de desviación estándar, que para una muestra de tamaño (idealmente) infinito sabemos que se calcula de la forma $\displaystyle \sigma:=\sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,(x_i-x^*)^2}{n}}$, con lo que nos topamos aquí con una doble razón por la que no es posible calcular el valor verdadero de este parámetro. No obstante, podemos aproximarlo, teniendo en cuenta que $e_a(x_i):=x_i-x^*\approx x_i-\bar{x}$ (para $i\div n$); en su lugar, sí conocemos los residuos a cada una de las diferencias —en este contexto, se denominan, también, residuos— $d_i:=x_i-\bar{x}$ (para $i\div n$), de esta manera, aproximamos la desviación estándar de la lpoblación $\sigma:=\sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,e_a(x_i)^2}{n}}$ por lo que denominaremos desviación estándar de la muestra y que definimos de la forma $s:=\sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,d_{i}^2}{n-1}} \approx \sigma$. Con lo cual, al tener que $s \approx \sigma$, según TLC, la distribución estándar de la media muestral podemos ya calcularla, de la forma $$\sigma_{\bar{x}}\approx \sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,d_{i}^2}{n(n-1)}}$$

Resumiendo: según lo razonado, podemos afirmar que el valor verdadero (ideal) de la magnitud $X$ está en el intervalo de error (o de incertidumbre) centrado en la media de la muestra $\bar{x}$ $$(\bar{x}-\sigma_{\bar{x}},\bar{x}+\sigma_{\bar{x}})$$ o, expresado de manera equivalente, $$x=\bar{x} \pm \sigma_{\bar{x}}$$ A menudo suele utilizarse la siguiente notación, que , $\langle x \rangle$ para la media muestral $\bar{x}$, y $\Delta\,x$ para la desviación estándar de la media muestral $\sigma_{\bar{x}}$. De esta forma, escribiremos que $$x \in \left( \langle x \rangle-\Delta\,x\,,\,\langle x \rangle+\Delta\,x\right)$$

Ejemplo. Error aleatorio al medir el ancho de una lámina rectangular

Consideremos una lámina rectangular cuyo ancho, $\ell$, medimos de manera sucesiva $n$ veces (en distintos puntos) con, por ejemplo, obteniendo por tanto una muestra de tamaño $n$: $\{\ell_1,\ldots,\ell_n\}$. Entonces, sobre el valor verdadero (ideal) del ancho de la lámina es $\ell \in (\bar{\ell}-\sigma_{\bar{\ell}},\bar{\ell}+\sigma_{\bar{\ell}})$, donde $\bar{\ell} \equiv \langle \ell \rangle$ y $\sigma_{\bar{\ell}}\equiv \Delta\,\ell = \sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,(\ell_i-\langle \ell \rangle)^2}{n(n-1)}}$. Dicho de otro modo: $\ell \in (\langle \ell \rangle - \Delta\,\ell\,,\,\langle \ell \rangle + \Delta\,\ell$, o, lo que es lo mismo, $\ell=\langle \ell \rangle \pm \Delta\,\ell$.



3. Obtención del error de una medida indirecta a partir de los errores aleatorios asociados a la medida de los datos

Vamos a calcular a continuación el error (incertidumbre) de una magnitud calculada indirectamente a partir de datos afectados de errores (aleatorios), en el caso de que dicha magnitud venga dado por un producto o un cociente de los datos; después expondremos, mediante otro ejemplo sencillo, el caso en el que el cálculo se realiza a partir de una suma o una resta; y, finalmente, un caso en el que aparecen otras operaciones no tan básicas.


3.1 Caso de un producto

Ejemplo. Cálculo de la superficie de una lámina rectangular

Al hilo del ejemplo anterior, en el que se ha tratado de la medida de la anchura de una lámina rectangular, a cuyo valor verdadero o ideal denominaremos $\ell_a$, consideremos ahora que también realizamos una serie $n$ de medidas sucesivas (muestra) al objeto de obtener una medida fiable de la altura de dicha lámina, y a cuyo valor verdadero denominamos $\ell_b$, y, con estas dos medidas, obetener la medida (indirecta) de la superficie $\mathcal{S}$, de manera que para el valor ideal o verdadero de dicha superficie, $s$ (área de un rectángulo) $s = \ell_{a}\cdot \ell_{b}$ de la misma.

Al tratar con un producto, sabemos que, al igual que en el caso de un cociente, $\delta\,s = \delta\,a+\delta\,b$ —véase la justificación en la nota (1)—, esto es $\dfrac{\Delta\,s}{s}:=\dfrac{\Delta\,\ell_a}{\langle \ell_a \rangle}+\dfrac{\Delta\,\ell_b}{\langle \ell_b \rangle}$, y por tanto, $\Delta\,s=(\langle \ell_a \rangle \cdot \langle \ell_b \rangle ) \cdot \left( \dfrac{\Delta\,\ell_a}{\langle \ell_a \rangle}+\dfrac{\Delta\,\ell_b}{\langle \ell_b \rangle}\right)$, donde $s\approx \langle \ell_a \rangle \cdot \langle \ell_b \rangle$.

Por tanto, $$s:=\ell_a \cdot \ell_b \in \left( \langle \ell_a \rangle \cdot \langle \ell_b \rangle - \Delta\,s,\langle \ell_a \rangle \cdot \langle \ell_b \rangle + \Delta\,s\right)$$ o, lo que es lo mismo, $$s=\langle \ell_a \rangle \cdot \langle \ell_b \rangle \pm \Delta\,s$$


***

Nota 1
En efecto, de la diferencial total de $s\equiv f(a,b)=a\,b$, $$df(a,b)=\frac{\partial f(a,b)}{\partial a}\,da+\frac{\partial f(a,b)}{\partial b}\,db$$ luego $$df(a,b)=b\,da+a\,db$$ y dividiendo ambos miembros por $f(a,b)=a\,b$ se tiene que $$\dfrac{df(a,b)}{a\,b}=\dfrac{b\,da}{b\,a}+\dfrac{a\,db}{a\,b}$$ simplificando $$\dfrac{df}{f}=b\,\dfrac{da}{a}+a\,\dfrac{db}{b}$$ por tanto, con los incrementos finitos: $$\dfrac{\Delta\, f}{f}=b\,\dfrac{\Delta\,a}{a}+a\,\dfrac{\Delta\,b}{b}$$ en consecuencia, vemos que el error relativo de $f$ es igual a la suma de los errores relativos de $a$ y $b$ $$\delta\,f=\delta\,a+\delta\,b$$


$\square$
-oOo-

Referencias:
[1] A. Aubanell, A. Benseny y A. Deslshams, Útiles de cálculo numérico (Labor, Barcelona, 1993).
[2] B.P., Demidovich y I.A. Maron, Cálculo numérico fundamental (Paraninfo, Madrid, 1988).
[3] M.A. Hidalgo, J. Medina, Laboratorio de Física (Pearson Prentice Hall, Madrid, 2008).
[4] M. Pujal, D. Giménez, I. Castillejo, Preparación de los informes de laboratorio (Servicio de publicaciones de la ETSEIT, Terrassa, 1986).
[5] M. Carrera, M. Ibáñez, Laboratori de Física. Electricitat, Magnetisme i Ones (Edicions de la Universitat de Lleida, Lleida, 1998).

No hay comentarios:

Publicar un comentario