lunes, 27 de junio de 2022

Sistema de vectores. Propiedades de los momentos de dichos vectores

En este artículo expongo los resultados más importantes sobre teoría de momentos (de vectores), de enorme importancia en mecánica (estática y dinámica). Antes de abordar el estudio de manera comprensiva de esta importante parte de la Física, es esencial haber consolidado este tipo de conocimientos fundamentales sobre vectores.


Nota preliminar. En lo que sigue, trataremos con vectores libres —vectores con la misma dirección, sentido, y longitud, sin importar el punto de origen de los mismos—, y, también (cuando se indique), con vectores deslizantes: vectores equivalentes en dirección, sentido, y longitud, siendo el origen de cada uno de ellos cualquier punto que pertenezca a una recta dada que tenga su misma dirección, a la que denominaremos recta de soporte.

Definición 1 (Momento de un vector deslizante). Se define el momento referido a un punto $O$ de un vector $\vec{f}$ cuyo origen es un punto $P$ de su recta de soporte como $\vec{N}:=\vec{r}\times \vec{v}$, donde $r$ es el vector de posición de $P$ con respecto a $O$.

Proposición 1 (Invariancia del momento de un vector deslizante). Si se traslada el vector $\vec{f}$ a lo largo de su recta de soporte hasta otro punto de la misma $P'$ —el vector trasladado es equivalente al original (por deslizamiento) por estar en su misma recta de soporte—, se tiene que el momento (con respecto a $O$) del vector $\vec{f}$ en el punto $P'$ es el mismo que el momento de $\vec{f}$ en el punto $P$.

  Demostración. Siendo $\vec{r'}$ el vector de posición de $P'$ con respecto de $O$ se tiene que $\vec{r}=\vec{r'}-\overset{\rightarrow}{PP'}$, luego, según su definición, $\vec{N}:=\vec{r}\times \vec{f}=(\vec{r'}-\overset{\rightarrow}{PP'})\times \vec{f}=\vec{r'}\times \vec{v} -\overset{\rightarrow}{PP'}\times \vec{f}\overset{(1)} {=}\vec{r'}\times \vec{f}=\vec{N'}$. $\diamond$
  Nota (1): $\overset{\rightarrow}{PP'} \parallel \vec{f} \Rightarrow \overset{\rightarrow}{PP'}\times \vec{f}=\vec{0}$

Definición 2 (Sistema de vectores concurrentes en un punto $P$). Dado un conjunto de vectores $\vec{f}_i$ ($i\div n$) libres, podemos representarlos por el vector resultate $\vec{R}:=\displaystyle \sum_{i=1}^{n}\,\vec{f}_i$ en el punto $P$

Proposición 2 (Teorema de Varignon). El momento (con respecto a un punto $O$) de un sistema de vectores concurrentes (en un punto $P$) es igual a la suma de los momentos de cada uno de dichos vectores

  Demostración. Escribiendo el momento del vector resultante del conjunto de vectores concurrentes en el punto $P$, $\vec{R}$, con respecto de un punto $O$, se tiene que $$\vec{N}:=\vec{r}\times \vec{R}=\displaystyle \vec{r}\times \sum_{i=1}^{n}\,\vec{f}_i=\sum_{i=1}^{n}\,\vec{r}\times \vec{f}_i=\sum_{i=1}^{n}\,\vec{N}_i \quad \diamond$$

Corolario 2.1. Si se elige el punto $O$ (con respecto al que calculamos los momentos) de manera que esté sobre la recta de soporte de la resultante $\vec{R}$, entonces $\vec{N}=\vec{0}$.

  Demostración. Como, ahora, $\vec{r} \parallel \vec{R}$, se tiene que $\vec{r} \times \vec{R}=\vec{0}\quad \diamond$.

Definición 3 (Momento $N_e$ de un vector $\vec{v}$ con respecto a un eje $e$). Recordemos que el momento de $\vec{v}$ con respecto de un punto $P$ es $$\vec{N}_P:=\vec{r}_P \times \vec{v}=\left|\begin{matrix} \vec{i}&u_\vec{j}&\vec{k}\\ x_P-x_O& y_P-y_O& z_P-z_O\\ v_{x}& v_{y}& v_{z} \end{matrix}\right|$$ donde $\{\vec{i},\vec{j}\,\vec{k}\}$ son los vectores de la base canónica el espacio afín euclídeo $\mathbb{R}^3$ y $O=(x_O,y_O,z_O)$ es el origen del sistema de referencia.

A partir de ahí, entendemos el momento de dicho vector $\vec{v}$ con respecto a una recta (eje), $e$, que contenga al punto $P$ como la cantidad escalar dada por el producto escalar $N_e:=\vec{N}_P \cdot \vec{u}_e$ donde $\vec{u}_e$ es un vector unitario de $e$; esto es, como la proyección del momento $\vec{N}_P$ sobre dicha recta o eje: $N_e=\text{Proy}_{e}\,(\vec{N}_P$)

Proposición 3.1 (Invariancia del momento axial con respecto al punto $P$). El momento $N_e$ respecto a un eje dado $e$ de un vector $\vec{v}$ es invariante con respecto a la elección del punto $P$ del eje $e$.

  Demostración. Elijamos cualquier otro punto del eje $e$, $Q$, que sea distinto de $P$; entonces $N_e:=\vec{N}_{Q}\cdot \vec{u}_e=(\vec{r}_{Q}\times \vec{v})\cdot \vec{u}_e=(\vec{r}_{P}+\overset{\rightarrow}{PQ})\times \vec{v}) \cdot \vec{u}_e=(\vec{r}_{P}\times \vec{v})\cdot \vec{u}_e+(\overset{\rightarrow}{PQ}\times \vec{v})\cdot \vec{u}_e$, donde el segundo sumando es $0$ puesto que al ser $\overset{\rightarrow}{PQ} \parallel \vec{u}_e$ se tiene que $(\overset{\rightarrow}{PQ} \times \vec{v}) \perp \vec{u}_e$; y, por otra parte, el paréntesis del primer sumando corresponde a la definición de $\vec{N}_P$, con lo cual queda probado que $N_e=\vec{N}_{Q}\cdot \vec{u}_e=\vec{N}_{P}\cdot \vec{u}_e$. $\diamond$

Algunas consecuencias interesantes acerca de en qué condiciones se anula el momento $N_e$ con respecto a un eje $e$

Teniendo en cuenta que la definición de $N_e$ corresponde a la de un producto mixto, y recordemos que $P$ designa un punto genérico de $e$. Por definición: $$N_e:=(\vec{r}_P \times \vec{v})\cdot \vec{u}_e = \vec{u}_e \cdot (\vec{r}_P \times \vec{v})\equiv [\vec{u}_e,\vec{r}_P,\vec{v}]$$ Sabemos que, como tal, y por sus propiedades: $$N_e=\displaystyle [\vec{u}_e,\vec{r}_P,\vec{v}]=\left|\begin{matrix} u_{e_{x}}&u_{e_{y}}&u_{e_{z}}\\ r_{P_{x}}& r_{P_{y}}& r_{P_{z}}\\ v_{x}& v_{y}& v_{z} \end{matrix}\right|\overset{(1)}{=}\vec{u}_e \cdot (\vec{r}_P \times \vec{v}) \overset{(2)}{=}\vec{v} \cdot (\vec{u}_e \times \vec{r}_P) \overset{(3)}{=} \vec{r}_P \cdot (\vec{v} \times \vec{u}_e)$$

Por consiguiente:
  1. Si $\vec{r}_P \parallel \vec{v}$, entonces $N_e=0$
  2. Si $\vec{r}_P \parallel \vec{u}_e$, entonces $N_e=0$
  3. Si $\vec{v} \parallel \vec{u}_e$, entonces $N_e=0$
  4. Si alguno de los vectores $\{\vec{u}_e,\vec{r}_P,\vec{v}\}$ es $\vec{0}$, entonces (obviamente) $N_e=0$
  5. De (1) se deduce que si el eje $e$ es tal que $\vec{u}_e \perp (\vec{r}_P \times \vec{v})$ y, por tanto, si el eje está en el mismo plano que $\vec{r}_P$ y $\vec{v}$, entonces $N_e=0$
  6. De (2) se deduce que si $\vec{v} \perp (\vec{r}_P \times \vec{u}_e)$ y, por tanto, si el vector $\vec{v}$ está en el mismo plano que $\vec{r}_P$ y el eje, entonces $N_e=0$
  7. De (3) se deduce que si $\vec{r}_P \perp (\vec{v} \times \vec{u}_e)$ y, por tanto, si $\vec{r}_P$ está en el mismo plano que $\vec{v}$ y $\vec{u}_e$, entonces $N_e=0$

-oOo-

Referencias:
[1] J.M. Vidal, Curso de Física (Grafesa, Barcelona, 1972).
[2] J. Fernández, M. Pujal, Iniciación a la Física (Reverté, Barcelona, 1992).
[3] S. Burbano, et al., Física General (Tébar, Madrid, 2007).
[4] K.R. Symon, Mecánica (Aguilar, Madrid, 1977).
[5] J.B. Marion, Dinámica clásica de las partículas y sistemas (Reverté, Barcelona, 1998).
[6] vv. aa., Producte mixt (https://ca.wikipedia.org/wiki/Producte_mixt).

lunes, 20 de junio de 2022

La balanza de doble platillo. Cálculo del error de resolución en una pesada

Es éste un instrumento sencillo pero muy delicado que sirve para medir la masa de un objeto. Consta de un brazo del que cuelga un platillo en cada extremo y en el que se colocan las pesas (en uno de los platillos) y el objeto a pesar (en el otro platillo). En el centro de la balanza está el punto de equilibrio (denominado fiel) con una escala graduada para controlar su desviación; y, en los extremos, sendos tornillitos para realizar el ajuste a cero. Además, las balanzas de laboratorio con mayor sensibilidad disponen de un pequeño objeto que cabalga sobre uno de los brazos; dicha pieza, denominado por ello jinetillo, o reiter, se puede desplazar a lo largo de un pequeña parte del brazo en el que está montado y que corresponde al lado del cual se colocan las pesas, pudiendo medir este pequeño deplazamiento en una escala graduada en milímetros para realizar un ajuste preciso, de tal modo que cada milímetro corresponda a una alteración de $1$ miligramo.

Un primer método de pesada para determinar la masa $m$ de un objeto y su error de resolución $\Delta_m$, que denominaremos método de la pesada directa, consiste en colocar el objeto a medir en uno de los platillos y en el otro, en cuyo brazo está el reiter, las pesas para equilibrarlo. Entonces se tiene que la masa (expresada en gramos) viene dada por $m=m_0 \pm \Delta\,m_0$, donde $m_0=m_{\text{pesas+reiter}}$ y $\Delta\,m_0=0,001$ g, que es el error más pequeño que puede apreciarse con la ayuda del reiter. Dicho de otro modo, la el valor ideal (o verdadero) de la magnitud $m$, y que es aproximadamente igual al valor observado $m_0$, estará en el intervalo de error/incertidumbre $(m_0-\Delta\,m_0\,,\,m_0+\Delta\,m_0)$. Este método es poco preciso, pues no tiene en cuenta los defectos (asimetrías) de fabricación de la balanza, ni tampoco el valor de la masa a medir, que, como veremos a continuación con el método más preciso de la doble pesada, en principio, la resolución sí tiene una cierta dependencia con el valor de la masa que queremos medir.

Para mejorar el método anterior, C.F. Gauss ideó el método de la doble pesada, el cual consiste en pesar dos veces el objeto, intercambiando el lado en el que se coloca al realizar la segunda pesada, y utilizando la media geométrica (véase media geométrica en Wikipedia), que es apropiada para promediar en este tipo de situaciones. Así se obtendrán los valores $m_1$ y $m_2$ para dichas mediciones, por lo que el valor de la masa medida (expresada en gramos) corresponde al la media geométrica de los valores observados en las dos pesadas realizadas (intercambiando los lados) $$m_0=\sqrt{m_1\,m_2} \pm \Delta\,m_0$$ siendo ahora $$\Delta\,m_0= \dfrac{1}{2}\,\Delta_m \, \left( \sqrt{\dfrac{m_1}{m_2}}+\sqrt{\dfrac{m_2}{m_1}} \right)= \dfrac{1}{2}\cdot 0,001 \cdot \left( \sqrt{\dfrac{m_1}{m_2}}+\sqrt{\dfrac{m_2}{m_1}} \right)$$ expresión que obtenemos a partir de la difereciación de la función con dos variables $$f(m_1,m_2)=\sqrt{m_1\,m_2}$$ En efecto, de la diferencial total de $m_0\equiv f(m_1,m_2)$, $$df(m_1,m_2)=\frac{\partial f(m_1,m_2)}{\partial m_1}\,dm_1+\frac{\partial f(m_1,m_2)}{\partial m_2}\,dm_2$$ podemos escribir los incrementos finitos $$\Delta\,m_0=\left|\frac{\partial f(m_1,m_2)}{\partial m_1}\right|\,\Delta\,m_1+\left|\frac{\partial f(m_1,m_2)}{\partial m_2}\right|\,\Delta\,m_2$$ por tanto $$\Delta\,m_0=\dfrac{m_2}{2\,\sqrt{m_1\,m_2}}\,\Delta\,m_1+\dfrac{m_1}{2\,\sqrt{m_1\,m_2}}\,\Delta\,m_2$$ simplificando, y teniendo en cuenta que $\Delta\,m_1=\Delta\,m_2=0,001\,\text{g}$ $$\Delta\,m_0=\dfrac{1}{2}\,\left(\sqrt{\dfrac{m_2}{m_1}}\,\Delta\,m_1+\sqrt{\dfrac{m_1}{m_2}}\,\Delta\,m_2\right)$$ $$\Delta\,m_0=\dfrac{1}{2}\cdot 0,001\,\left(\sqrt{\dfrac{m_2}{m_1}}+\sqrt{\dfrac{m_1}{m_2}}\right)$$

Notemos que, en particular, si $m_1 - m_2 \ll 1 $, entonces $\Delta\,m_0 \approx 0,001$ g, que recupera el resultado con el método de la pesada directa.

$\square$
-oOo-

Referencias:
[1] M.A. Hidalgo, J. Medina, Laboratorio de Física (Pearson Prentice Hall, Madrid, 2008).

martes, 14 de junio de 2022

Aspectos básicos sobre el tratamiento de los errores aleatorios (accidentales) en la medida de una magnitud

Los errores en la medida pueden ser de tres tipos: a) errores de resolución, debidos a la limitación en la sensibilidad de los instrumentos de medida; b) errores sistemáticos, que provienen del observador, del instrumento de medida, o bien del método de medida, y que se caracterizan por dar una desviación en la medida siempre en el mismo sentido —no pueden, por tanto, compensarse realizando una serie de medidas repetidas—, si bien son fácilmente decetables y corregibles; y, c) errores accidentales o aleatorios, de los que voy a hablar en este artículo, y que, como su nombre indica, son debidos a factores incontrolables al realizar la medida (dependientes del azar), por lo cual pueden tratarse mediante la estadística y la probabilidad a partir de una serie de mediciones repetidas (muestreo). En este breve artículo expongo los conceptos y resultados básicos sobre la cuantificación de los errores accidentales o aleatorios (el tercer tipo mencionado). También aprovecharé la ocasión para presentar la notación que voy a utilizar en la mayor parte de los artículos que incidan sobre estas nociones tan importantes tanto para la física (y las ciencias experimentales en general) como para el cálculo numérico.



1. Preliminares

Error absoluto y error relativo en la aproximación de una cantidad por otra

Consideremos el valor exacto $x^\ast$ de una magnitud $X$. Normalmente, no concemos dicho valor; sin embargo, sí podemos conocer un valor aproximado del mismo $x\approx x^\ast$. Definimos el error absoluto de dicha aproximación $x$ como la cantidad $e_{a}(x):=|x-x^\ast|$ y el error relativo de la misma como $e_{r}(x):=\dfrac{e_{a}(x)}{|x^\ast|}$, lo cual puede aproximarse —recordemos que, normalmente, no conocemos el valor exacto $x^\ast$— de la forma $e_{r}(x) \approx \dfrac{\varepsilon_{a}(x)}{|x|}$ o, mejor, $e_{r}(x) \approx \dfrac{\varepsilon_{a}(x)}{|x|-\varepsilon_{a}(x)}$ .

Cotas superiores razonables del error absoluto y del error relativo

Sucede que habitualmente se trabaja con cotas superiores razonables de dichos errores, $\varepsilon_{a}(x)$ y $\varepsilon_{r}(x)$, en lugar de hacerlo con los valores de los mismos, $e_{a}$ y $e_{r}(x)$, por no conocer exactamente esots. Tengamos en cuenta que $\varepsilon_{a}(x)\ge e_{a}(x)$ y $\varepsilon_{r}(x)\ge e_{r}(x)$, por lo que es usual escribir $x^\ast=x\pm \varepsilon_{a}(x)$, interpretando en buena lógica $\varepsilon_{a}(x)$ como la mitad de la longitud del intervalo de incertidumbre centrado en el valor aproximado $x$, esto es, $I=\left( x- \varepsilon_{a}(x)\,,\,x+\varepsilon_a(x) \right)$, que expresa un margen máximo de error. También podemos expresar este margen de error de la forma $x^\ast=x\,( 1\pm \varepsilon_{r}(x))$.

Nota. En muchos libros, por ejemplo en el libro de Demidovich [2], se utiliza la siguiente notación para las cotas del error absoluto y relativo: $\Delta_x$ en lugar de $\varepsilon_{a}(x)$ y $\delta_x$ en lugar de $\varepsilon_{r}(x)$, respectivamente.

Aunque no vaya a tratar aquí los errores de resolución —como ya he dicho arriba, me centraré en el tratamiento de los errores accidentales— es importante tener en cuenta que, ambos errores, los aleatorios y los de resolución —los errores del tipo (b), sistemáticos, se corrigen fácilmente en cada medición— conforman el error total, cuya cota superior, viene dada a partir de las cotas superiores de error de resolución y de error aleatorio (accidental), mediante una definición muy razonable: $\Delta_{\text{total}}:=\sqrt{\Delta_{\text{resolución}}^2+\Delta_{\text{accidental}}^2}$

2. Cálculo del error aleatorio (accidental) asociado a la medida de una magnitud $X$ a partir de un conjunto de medidas repetidas de la misma

El tipo de error que estoy planteando no es, desde luego, de tipo sistemático ni tampoco es debido a la resolución del instrumento de medida sino a la aleatoriedad, por circunstancias accidentales, que son las que se dan cuando al repetir una misma medida, no obtenemos exactamente los mismos valores, obteniendo estos desviados en uno u otro sentido con respecto de un valor central. Atribuimos tal cosa a las fluctuaciones aleatorias debidas a los cambios en las condiciones del experimento, de ahí la idoneidad de la vía estadística para detectarlos y cuantificarlos, para, a partir de una serie de medidas repetidas de una misma magnitud (muestreo), determinar el error (estadístico) asociado. Este error que abordamos desde la estadística y la probabilidad, viene dado por la desviación estándar, $\sigma_{\bar{x}}$, con respecto a la media muestral $\bar{x}$, dada una muestra de tamaño $n$ del valor de una magnitud $X$ que no es otra que la que obtenemos mediante una serie de $n$ medidas repetidas (la muestra).


A partir de dicha muestra, nos proponemos determinar el intervalo de error, que centrado en la media muestral, se sitúa el valor verdadero (o ideal) de la magnitud $X$. De la inferencia estadística, sabemos, que, calculando la media de la muestra $\bar{x}$ y la desviación estándar de la misma, $s$, sel valor de la media poblacional se encuentra, según el teorema del Límite Central (TLC), en el siguiente intervalo $$(\bar{x}-\sigma_{\bar{x}},\bar{x}+\sigma_{\bar{x}})$$ es decir $$x=\bar{x} \pm \sigma_{\bar{x}}$$

Así pues, la media muestral $\bar{X}$ del conjunto de mediciones realizadas sigue aproximadamente una distribución de Gauss (TCL) de parámetros $\mu=\bar{x}$ (media de la distribución) y con una desviación estándar (de la media muestral) $\sigma_{\bar{x}}=\dfrac{\sigma}{\sqrt{n}}$, donde $\sigma$ es la desviación estándar de la media $\mu$ de la población, la cual, obviamente no conocemos; en efecto, es bien sabido que para calcular los errores absoluto y relativo de una medición es necesario conocer el valor ideal $x^*$ de la medida de la magnitud $X$, pero es claro que tal cosa no es posible en la mayor parte de las situaciones. Esto es importante porque, al hablar de un conjunto de $n$ de mediciones de una cierta magnitud $X$ hemos manejado el concepto de desviación estándar, que para una muestra de tamaño (idealmente) infinito sabemos que se calcula de la forma $\displaystyle \sigma:=\sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,(x_i-x^*)^2}{n}}$, con lo que nos topamos aquí con una doble razón por la que no es posible calcular el valor verdadero de este parámetro. No obstante, podemos aproximarlo, teniendo en cuenta que $e_a(x_i):=x_i-x^*\approx x_i-\bar{x}$ (para $i\div n$); en su lugar, sí conocemos los residuos a cada una de las diferencias —en este contexto, se denominan, también, residuos— $d_i:=x_i-\bar{x}$ (para $i\div n$), de esta manera, aproximamos la desviación estándar de la lpoblación $\sigma:=\sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,e_a(x_i)^2}{n}}$ por lo que denominaremos desviación estándar de la muestra y que definimos de la forma $s:=\sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,d_{i}^2}{n-1}} \approx \sigma$. Con lo cual, al tener que $s \approx \sigma$, según TLC, la distribución estándar de la media muestral podemos ya calcularla, de la forma $$\sigma_{\bar{x}}\approx \sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,d_{i}^2}{n(n-1)}}$$

Resumiendo: según lo razonado, podemos afirmar que el valor verdadero (ideal) de la magnitud $X$ está en el intervalo de error (o de incertidumbre) centrado en la media de la muestra $\bar{x}$ $$(\bar{x}-\sigma_{\bar{x}},\bar{x}+\sigma_{\bar{x}})$$ o, expresado de manera equivalente, $$x=\bar{x} \pm \sigma_{\bar{x}}$$ A menudo suele utilizarse la siguiente notación, que , $\langle x \rangle$ para la media muestral $\bar{x}$, y $\Delta\,x$ para la desviación estándar de la media muestral $\sigma_{\bar{x}}$. De esta forma, escribiremos que $$x \in \left( \langle x \rangle-\Delta\,x\,,\,\langle x \rangle+\Delta\,x\right)$$

Ejemplo. Error aleatorio al medir el ancho de una lámina rectangular

Consideremos una lámina rectangular cuyo ancho, $\ell$, medimos de manera sucesiva $n$ veces (en distintos puntos) con, por ejemplo, obteniendo por tanto una muestra de tamaño $n$: $\{\ell_1,\ldots,\ell_n\}$. Entonces, sobre el valor verdadero (ideal) del ancho de la lámina es $\ell \in (\bar{\ell}-\sigma_{\bar{\ell}},\bar{\ell}+\sigma_{\bar{\ell}})$, donde $\bar{\ell} \equiv \langle \ell \rangle$ y $\sigma_{\bar{\ell}}\equiv \Delta\,\ell = \sqrt{\dfrac{\displaystyle \sum_{i=1}^{n}\,(\ell_i-\langle \ell \rangle)^2}{n(n-1)}}$. Dicho de otro modo: $\ell \in (\langle \ell \rangle - \Delta\,\ell\,,\,\langle \ell \rangle + \Delta\,\ell$, o, lo que es lo mismo, $\ell=\langle \ell \rangle \pm \Delta\,\ell$.



3. Obtención del error de una medida indirecta a partir de los errores aleatorios asociados a la medida de los datos

Vamos a calcular a continuación el error (incertidumbre) de una magnitud calculada indirectamente a partir de datos afectados de errores (aleatorios), en el caso de que dicha magnitud venga dado por un producto o un cociente de los datos; después expondremos, mediante otro ejemplo sencillo, el caso en el que el cálculo se realiza a partir de una suma o una resta; y, finalmente, un caso en el que aparecen otras operaciones no tan básicas.


3.1 Caso de un producto

Ejemplo. Cálculo de la superficie de una lámina rectangular

Al hilo del ejemplo anterior, en el que se ha tratado de la medida de la anchura de una lámina rectangular, a cuyo valor verdadero o ideal denominaremos $\ell_a$, consideremos ahora que también realizamos una serie $n$ de medidas sucesivas (muestra) al objeto de obtener una medida fiable de la altura de dicha lámina, y a cuyo valor verdadero denominamos $\ell_b$, y, con estas dos medidas, obetener la medida (indirecta) de la superficie $\mathcal{S}$, de manera que para el valor ideal o verdadero de dicha superficie, $s$ (área de un rectángulo) $s = \ell_{a}\cdot \ell_{b}$ de la misma.

Al tratar con un producto, sabemos que, al igual que en el caso de un cociente, $\delta\,s = \delta\,a+\delta\,b$ —véase la justificación en la nota (1)—, esto es $\dfrac{\Delta\,s}{s}:=\dfrac{\Delta\,\ell_a}{\langle \ell_a \rangle}+\dfrac{\Delta\,\ell_b}{\langle \ell_b \rangle}$, y por tanto, $\Delta\,s=(\langle \ell_a \rangle \cdot \langle \ell_b \rangle ) \cdot \left( \dfrac{\Delta\,\ell_a}{\langle \ell_a \rangle}+\dfrac{\Delta\,\ell_b}{\langle \ell_b \rangle}\right)$, donde $s\approx \langle \ell_a \rangle \cdot \langle \ell_b \rangle$.

Por tanto, $$s:=\ell_a \cdot \ell_b \in \left( \langle \ell_a \rangle \cdot \langle \ell_b \rangle - \Delta\,s,\langle \ell_a \rangle \cdot \langle \ell_b \rangle + \Delta\,s\right)$$ o, lo que es lo mismo, $$s=\langle \ell_a \rangle \cdot \langle \ell_b \rangle \pm \Delta\,s$$


***

Nota 1
En efecto, de la diferencial total de $s\equiv f(a,b)=a\,b$, $$df(a,b)=\frac{\partial f(a,b)}{\partial a}\,da+\frac{\partial f(a,b)}{\partial b}\,db$$ luego $$df(a,b)=b\,da+a\,db$$ y dividiendo ambos miembros por $f(a,b)=a\,b$ se tiene que $$\dfrac{df(a,b)}{a\,b}=\dfrac{b\,da}{b\,a}+\dfrac{a\,db}{a\,b}$$ simplificando $$\dfrac{df}{f}=b\,\dfrac{da}{a}+a\,\dfrac{db}{b}$$ por tanto, con los incrementos finitos: $$\dfrac{\Delta\, f}{f}=b\,\dfrac{\Delta\,a}{a}+a\,\dfrac{\Delta\,b}{b}$$ en consecuencia, vemos que el error relativo de $f$ es igual a la suma de los errores relativos de $a$ y $b$ $$\delta\,f=\delta\,a+\delta\,b$$


$\square$
-oOo-

Referencias:
[1] A. Aubanell, A. Benseny y A. Deslshams, Útiles de cálculo numérico (Labor, Barcelona, 1993).
[2] B.P., Demidovich y I.A. Maron, Cálculo numérico fundamental (Paraninfo, Madrid, 1988).
[3] M.A. Hidalgo, J. Medina, Laboratorio de Física (Pearson Prentice Hall, Madrid, 2008).
[4] M. Pujal, D. Giménez, I. Castillejo, Preparación de los informes de laboratorio (Servicio de publicaciones de la ETSEIT, Terrassa, 1986).
[5] M. Carrera, M. Ibáñez, Laboratori de Física. Electricitat, Magnetisme i Ones (Edicions de la Universitat de Lleida, Lleida, 1998).

El problema de la obtención de las materias primas para la fabricación de dispositivos tecnológicos en un tipo de sociedad como la nuestra

Con gran preocupación, la sociedad está tomando conciencia sobre la enorme dependencia que tenemos de minerales para la fabricación de los modernos dispositivos electrónicos, tales como las tierras raras (disprosio, lantano, praseodiminio, europio, gadolinio, terbio, el neodimio necesario para la fabricación de imanes,...); y de otros elementos como el cobalto, el litio (para la fabricación de baterías), el coltán, el wolframio (utillaje en mecanización), el níquel, el tántolo (condensadores), el galio, el antimonio, el indio (pantallas táctiles), el bromo (retardante del fuego), el magnesio (protección frente a interferencias electromagnéticas), etcétera. En este artículo de Noticias Madri+d, de lectura muy recomendable, encontraremos información básica y motivos para reflexionar. $\square$

Corrección de errores en los cálculos de computación cuántica

Recientemente, se ha dado un paso relevante en la implementación de un conjunto universal de puertas lógicas en computación cuántica (con un ordenador de trampas iónicas formado por ocho átomos), con la consiguiente corrección de errores —que inevitablemente se producen en todas las máquinas, en especial, en computadores cuánticos— en las operaciones aritméticas básicas. Podemos leer detalles de la noticia en el artículo Computación cuántica sin errores del blog de Noticias Madri+d. $\square$