miércoles, 30 de abril de 2008

1. Descripción de un sistema de medida y control.

El Sistema de Medida y Control es aquel que realiza funciones de medición de magnitudes físicas, químicas, biológicas, … procesando estas informaciones para regular el funcionamiento del sistema físico que pretende controlar, según los datos obtenidos en el proceso de adquisición de datos y medición.
En primer lugar el sistema de control capta las magnitudes del sistema físico (presión, temperatura, caudal, …) mediante los Transductores (también denominados de una forma no muy exacta, Sensores). Los transductores generan una señal eléctrica que será amplificada y acondicionada para su correcta transmisión a la Unidad de Control. Para que la transmisión sea más inmune al ruido, normalmente se hace de forma digital, lo que requiere una conversión previa Analógica/Digital. Una vez recibidos, los datos serán tratados por la unidad de control (PC, autómata programable, microcontrolador,…), que generará unas actuaciones de acuerdo con los objetivos previstos para el sistema. Ya que estas señales son de baja potencia se amplifican y envían a los Actuadores. La transmisión hacia los actuadores también puede ser digital, lo que requeriría de una conversión Digital/Analógica.

2. Identificación del sistema de medida y sus bloques constitutivos.



Esquema general de un sistema de medida y control

2.1. Definición de cada bloque constitutivo:

Transductor: es aquel dispositivo que transforma una magnitud física (mecánica, térmica, magnética, eléctrica, óptica, etc.) en otra magnitud, normalmente eléctrica. Es necesario diferenciar el elemento sensor del transductor, ya que este último es un dispositivo más complejo que puede incluir un amplificador, un conversor A/D, etc.

Sensor: es el elemento primario que realiza la transducción, y por tanto, la parte principal de todo transductor.

Actuador: son aquellos elementos que realizan una conversión de energía con objeto de actuar sobre el sistema a controlar para modificar, inicializar y corregir sus parámetros internos.

Acondicionador (amplificación, filtraje, adaptación de impedancias, modulación, aislamiento): son los elementos del sistema de medida y control que reciben la señal de salida de los transductores y la preparan de forma que sea una señal apta para usos posteriores (principalmente su procesado en un PLC o PC Industrial).
Los acondicionadores no sólo amplifican la señal, sino que también pueden filtrarla, adaptar impedancias, realizar una modulación o demodulación, etc.

Conversión entre dominios: dominio de datos al nombre de una magnitud mediante la que se representa o transmite información, esto es de gran interés para describir los transductores y los circuitos electrónicos asociados.

2.2. Conceptos generales sobre la medida

Margen de medida: Es el limite, por arriba o por debajo, dentro de los cuales se consideran anormales los valores de alguna variable que estén ubicados en este rango; y se consideran normales si se encuentran dentro del rango de medida deseado.

3. El sensor

Un sensor es un dispositivo que, a partir de la energía del medio donde se mide, da una señal de salida transducible que es función de la variable medida. Sensor y transductor se emplean a veces como sinónimos, pero sensor sugiere un significado más extenso: la ampliación de los sentidos para adquirir un conocimiento de cantidades físicas que, por su naturaleza o tamaño, no pueden ser percibidas directamente por los sentidos. Transductor, en cambio, sugiere que la señal de entrada y la salida no deben ser homogéneas. Para el caso en que lo fueran se propuso el término “modificador”, pero no tuvo aceptación.

3.1 Clasificación

Criterios de Clasificación de Sensores

Según requerimientos de fuente de energía
• Activos ó Pasivos
Naturaleza de la señal de salida
• Digitales ó Analógicos
Naturaleza de la magnitud a medir
• Mecánicos, Térmicos, Magnéticos, Químicos, etc.
Variable física de medida
• Resistivo, Inductivo, Capacitivo, Piezoeléctrico, etc.

Sensores Pasivos o Autogenerativos

– Generan directamente una señal eléctrica en respuesta a un estímulo externo sin la necesidad de una fuente de energía externa. Toman energía del estímulo.
• Termocouplas, Sensores Piezoelectricos, etc.


Sensores Activos o Modulantes
– Requieren fuente de energía externa o una señal de excitación para poder funcionar.
• Termistor, Inductor, etc.


Sensores Analógicos
– Proveen una señal continua tanto en magnitud como en contenido espacial o temporal.
• Temperatura, desplazamiento, intensidad lumínica, etc


Sensores Digitales
– La salida toma la forma de escalones o estados discretos.
• Contacto (switch), encoder, etc

3.2. Interferencias.

En un sistema de medida, el sensor es el elemento dispuesto expresamente con la misión de obtener información, en forma de señal eléctrica, sobre la propiedad medida. pero no sería razonable esperar, a priori, que por una parte el sensor respondiera exclusivamente a la magnitud de interés, y que por otra el origen de las señales de salida fuera únicamente la señal presente a la entrada.
La experiencia demuestra en seguida que esto no es así y, por lo tanto, conviene tener en cuenta esta realidad.
Las perturbaciones internas son aquellas señales que afectan indirectamente a la salida debido a su efecto sobre las características del sistema de medida. Pueden afectar tanto a las características relativas a la variable de interés como a las relativas a las interferencias. En la figura 1.3 se describe gráficamente esta situación. Mediante las letras F se expresa una relación, del tipo que sea (no necesariamente lineal), entre la entrada y salida de cada bloque o subconjunto. obsérvese que una misma señal puede actuar a la vez como interferencia y como perturbación interna.
Para medir, por ejemplo, una fuerza, es común emplear una galga extensométrica. Esta se basa en la variación de la resistencia eléctrica de un conductor o semiconductor como resultado de aplicarle un esfuerzo. Dado que un cambio de temperatura producirá también una variación del valor de la resistencia, se dice que los cambios de temperatura son una interferencia o perturbación externa. A su vez, para la medida de los cambios de resistencia con el esfuerzo aplicado hará falta un amplificador electrónico. Dado que los cambios de temperatura afectarán a las derivas de dicho amplificador y con ellas a la medida, resulta que dichos cambios son también una perturbación interna. Si la fuerza se midiera con un sensor capacitivo, los cambios de temperatura dejarían de ser una perturbación externa, pero sus efectos en los circuitos electrónicos no dejarían de tener importancia.

3.3. Compensación de errores

Metodos de compensación de defectos en sensores
Hay dos métodos originales de compensación de defectos del sensor: Calibración y Predicción.

Método de Calibración.

Desde el punto de vista de la precisión alcanzable esencialmente, este método se puede considerar el más efectivo.
La auto-calibración significa que el sensor puede monitorizar la condición de medida mediante un test para decidir si una nueva calibración es necesaria o no. Más detalles sobre compensación de sensores mediante calibración
Método de Predicción.

En el método de Calibración se necesita desconectar el elemento de medida durante la calibración. Esto es un grave problema en aquellos casos en los que no se puede parar el proceso. En estos casos el método de
Predicción se puede usar para predecir las derivas del sensor. Estas derivas son cambios en la señal de salida del sensor durante su funcionamiento. Los algoritmos de predicción incluyen:
• Una prueba del mismo tipo de sensores en las condiciones de explotación, donde se puede obtener el modelo matemático de las variaciones del sensor;
• Medida de la influencia de los factores reales en condiciones de funcionamiento y ajuste del modelo;
• Cálculo de la predicción de la deriva en función de las derivas del modelo y aplicar la compensación.

4. Características estáticas de los sistemas de medida.

El comportamiento del sistema de medida viene condicionado por el sensor empleado. Es por ello importante describir las características de los sensores. Sucede que, en la mayoría de los sistemas de medida, la variable de interés varía tan lentamente que basta con conocer las características estáticas del sensor. Ahora bien, las características estáticas influyen también en el comportamiento dinámico del sensor, es decir, en el comportamiento que presenta cuando la magnitud de medida varía a lo largo del tiempo.

Exactitud es la cualidad que caracteriza la capacidad de un instrumento de medida de dar indicaciones que se aproximen al verdadero valor de la magnitud medida. En castellano se emplea como sinónimo de exactitud el término precisión. El valor “exacto”, “verdadero” o “ideal”, es el que se obtendría si la magnitud se midiera con un método “ejemplar”. Se considera como tal aquel método de medida en el que los expertos coinciden que es suficientemente exacto para la finalidad pretendida con los resultados que se obtengan. La exactitud de un sensor se determina mediante la denominada calibración estática. Consiste ésta en mantener todas las entradas excepto una a un valor constante. La entrada en estudio se varía lentamente, tomando sucesivamente valores “constantes” dentro del margen de medida, y se van anotando los valores que toma la salida. La representación de estos valores en función de los de la entrada define la curva de calibración. Para poder conocer el valor de la magnitud de entrada, ésta debe tener un valor bien conocido, constituyendo lo que se denomina un “patrón” de referencia. Su valor debe conocerse con una exactitud al menos diez veces mayor que la del sensor que se calibra.

Repetibilidad se refiere al mismo hecho, pero cuando las medidas se realizan en un intervalo de tiempo corto. Cuantitativamente, es el valor por debajo del cual se encuentra, con una probabilidad especificada, el valor absoluto de la diferencia entre dos resultados individuales obtenidos en las condiciones antedichas. Si no se dice lo contrario, la probabilidad se toma del 95%. La reproducibilidad se refiere también al grado de coincidencia entre distintas lecturas individuales cuando se determina el mismo parámetro con un método concreto, pero con un conjunto de medidas a largo plazo o realizadas por personas distintas o con distintos aparatos o en diferentes laboratorios. Cuantitativamente, es el valor por debajo del que se encuentra, con una probabilidad especificada, el valor absoluto de la diferencia entre dos resultados individuales obtenidos en las condiciones anteriores. Si no se dice lo contrario, la probabilidad se toma del 95%.
En sensores, cuando hay una variación de la salida a lo largo del tiempo se habla a veces de “inestabilidad”, y se dice que el sensor tiene derivas. En particular, se especifican a veces las denominadas derivas de cero y derivas del factor de escala. La deriva de cero expresa la variación de la salida con entrada nula. La deriva del factor de escala expresa la variación de la sensibilidad.
Sensibilidad o factor de escala es la pendiente de la curva de calibración, que puede ser o no constante a lo
largo de la escala de medida. Para un sensor cuya salida esté relacionada con la entrada x mediante la
ecuación y=f(x), la sensibilidad en el punto xa , S(xa), es:


En los sensores interesa tener una sensibilidad alta y, si es posible, constante. Para un sensor con respuesta:
y = k.x + b la sensibilidad es S = k, para todo el margen de valores se x aplicables. Para uno cuya respuesta sea:
y = k.x2 + b la sensibilidad es S = 2.k.x, y varía a lo largo de todo el margen de medida.
Linealidad expresa el grado de coincidencia entre la curva de calibración y una línea recta determinada.
Según cual sea dicha recta se habla de:

Linealidad independiente: la línea de referencia se define por el método de mínimos cuadrados. De esta forma, el máximo error positivo y el mínimo error negativo son iguales. Es la forma de especificación que suele dar mejor calidad.

Linealidad ajustada al cero: la recta se define también por el método de los mínimos cuadrados, pero con la restricción adicional de pasar por cero.

Linealidad terminal: la recta se define por la salida sin entrada (o la menor del margen de medida) y la salida teórica máxima, correspondiente a la mayor entrada admitida.

Linealidad a través de los extremos: la recta se define mediante la salida real cuando la entrada es la menor
del alcance especificado, y la salida real cuando la entrada es la máxima del alcance especificado.

Linealidad teórica: la recta es la definida por las previsiones teóricas formuladas al diseñar el sensor. En la figura 1.6 se representan estas distintas rectas para un sensor con una curva de calibración dada. resulta, pues, que la linealidad expresa hasta qué punto es constante la sensibilidad del sensor, pero para que un sensor sea válido no es condición indispensable que sea lineal. El interés de la linealidad está en que la conversión lectura-valor medido es más fácil si la sensibilidad es constante para conocer el valor de la entrada. Además, en instrumentos lineales la no linealidad equivale a inexactitud.

Actualmente, con la posibilidad de incorporar un microprocesador en los sistemas de medida, interesa más la repetibilidad que la linealidad, pues siempre es posible crear una tabla conteniendo los valores de entrada que correspondan a los valores de salida detectados. mediante una interpolación adecuada, es posible reducir el tamaño de dicha tabla.





Los principales factores que influyen en la linealidad son: la resolución, el umbral y la histéresis. La resolución o discriminación es el incremento mínimo de la entrada para el que se obtiene un cambio en la salida. Cuando el incremento de la entrada se produce a partir de cero, se habla de umbral. La histéresis se refiere a la diferencia en la salida para una misma entrada, según la dirección en que se alcance. Es decir, puede suceder, análogamente a la magnetización de los materiales ferromagnéticos, que la salida correspondiente a una entrada dependa de si la entrada previa fue mayor o menor que la entrada actual.

5. Características dinámicas.

La presencia de inercias (masas, inductancias,...), capacidades (eléctricas, térmicas, fluidas, etc.) y, en general, de elementos que almacenan energía, hace que la respuesta de un sensor a señales de entrada variables sea distinta a la que presenta cuando las señales de entrada son constantes, descrita mediante las características estáticas.
La descripción del comportamiento del sensor se hace en este caso mediante las denominadas características dinámicas: error dinámico y velocidad de respuesta (retardo). El error dinámico es la diferencia entre el valor indicado y el valor exacto de la variable medida, siendo nulo el error estático. Describe la diferencia en la respuesta del sensor a una magnitud de entrad según que esta sea constante o variable en el tiempo. La velocidad de respuesta indica la rapidez con que el sistema de medida responde a los cambios de la variable de entrada. En cuanto a la medida, no importa mucho que exista un retardo entre la magnitud aplicada a la entrada y la indicación correspondiente a la salida. Pero si el sensor forma parte de un sistema de control, este retardo puede dar lugar a oscilaciones.
Para poder determinar las características dinámicas de un sensor, hay que aplicar a su entrada una magnitud variable. Esta puede ser de muchas formas distintas, pero lo normal y suficiente para un sistema lineal (cuando se cumple el principio de superposición) es estudiar la respuesta frente a una entrada transitoria (impulso, escalón, rampa), periódica (senoidal) o aleatoria (ruido blanco). La elección de una u otra depende del tipo de sensor. Es difícil, por ejemplo, tener una temperatura con variaciones senoidales, pero es fácil producir un cambio de temperatura brusco, a modo de escalón. En cambio, es más fácil producir un impulso que un escalón de aceleración.
Para describir matemáticamente el comportamiento de un sensor, se supone que la salida y la entrada se relacionan según una ecuación diferencial lineal de coeficientes constantes y que, por lo tanto, se tiene un sistema lineal invariable en el tiempo. En estas condiciones, la relación entre la salida y la entrada del sensor puede expresarse de una manera simple, en forma de cociente, empleando la transformada de Laplace de ambas señales y la función de transferencia propia del sensor. Hay que recordar que esta última da una relación general entre la salida y la entrada, pero no entre sus valores instantáneos.
Las características dinámicas de los sensores pueden estudiarse entonces para cada señal de entrada aplicada, agrupándolos de acuerdo con el orden de la función de transferencia que los describe. Normalmente no es necesario emplear modelos de orden superior a dos.

6. Características de entrada.

La descripción de los sensores mediante sus características estáticas y sus características dinámicas no es, en modo alguno completa. Para ilustrar esta afirmación considérense, por ejemplo, las situaciones siguientes. En el caso de un potenciómetro, para evitar que el cursor pierda el contacto con el elemento resistivo es necesario que ejerza una fuerza sobre este. Qué sucede entonces si se pretende medir el movimiento de un elemento que sea incapaz de vencer el rozamiento entre el cursor y la pista?
Si para medir la temperatura que alcanza un transistor se emplea un termómetro con una masa importante respecto a la del transistor, al ponerlo en contacto con este, no lo enfriará dando, en consecuencia, una temperatura inferior a la temperatura que tenía inicialmente el transistor? Resulta que ni las características estáticas ni las características dinámicas de los sensores, tal como se han expuesto, permiten describir el comportamiento real del sensor. Ello es debido a que la descripción de un sensor o sistema mediante esquemas de bloques, deja al margen el hecho de que todo proceso de medida es inevitable la extracción de una cierta cantidad de energía del sistema donde se mide. Cuando, debido a esta circunstancia, la variable medida queda alterada, se dice que hay un error por carga. Los esquemas de bloques solo son válidos cuando no hay interacción energética entre bloques. El concepto de impedancia de entrada permite valorar si se producirá o no un error de carga.
En el proceso de medida de una variable cualquiera x1 siempre interviene además de otra variable x2 tal que el producto x1 x2 tiene dimensiones de potencia. Así, al medir una fuerza siempre se tiene una velocidad, al medir un caudal hay una caída de presión, al medir una temperatura hay un flujo de calor, al medir una corriente eléctrica se produce una caída de tensión, etc.
Por otra parte, las variables a medir que no sean mecánicas se designan como variables esfuerzo si se miden entre dos puntos o dos regiones del espacio, y como variables flujo si se miden en un punto o región del espacio. En el caso de variables mecánicas se designan como variables esfuerzo las que se miden en un punto, mientras que las variables flujo se miden entre dos puntos. Son, por ejemplo, variables esfuerzo la tensión eléctrica, la presión, la temperatura, la fuerza y el par mecánico; mientras que son variables flujo la corriente eléctrica, el caudal, la velocidad lineal y la velocidad angular.
Para el caso de un elemento que se pueda describir mediante relaciones lineales, la impedancia de entrada, Z(s), se define como el cociente entre las transformadas de Laplace de una variable esfuerzo y una variable flujo asociada. La admitancia de entrada, Y(s), se define como el recíproco de Z(s). El valor en ambas varía normalmente con la frecuencia. A frecuencias muy bajas, se habla, respectivamente, de rigidez y compliancia, en vez de impedancia y admitancia.

7. Errores en los sistemas de medida y su análisis

8. Incertidumbre de las Medidas

Todas las ciencias experimentales se fundamentan en la experiencia, y ésta a su vez en la determinación cuantitativa de las magnitudes pertinentes. En definitiva, todas las ciencias precisan de la medida, bien directa, bien indirecta de magnitudes físicas. Medir implica generalmente comparar la magnitud objeto de la medida con un patrón. El resultado de la medida se expresa con un número y una unidad, dependiendo esta última del patrón que se haya escogido.
Las medidas nunca permiten obtener el ``verdadero valor'' de la magnitud que se mide. Esto es debido a multitud de razones. Las más evidentes son las imperfecciones, inevitables en un cierto grado, de los aparatos y de nuestros sentidos. El ``verdadero valor'' de una magnitud no es accesible en la realidad y por ello resulta más propio hablar de estimaciones, medidas o aproximaciones del valor de una magnitud. Independientemente de estas consideraciones, en el ámbito de la Física se sabe que no tiene sentido hablar del valor de una magnitud, sino sólo de la probabilidad de obtener uno u otro valor en una determinada medida de esta magnitud. Esto no es el resultado de las imperfecciones de los aparatos, sino de la propia esencia de la naturaleza. Este carácter probabilístico de las magnitudes se hace patente a nivel microscópico.
La consecuencia de las consideraciones anteriores, es que toda medida es incierta o está dotada de un cierto grado de incertidumbre. Es esencial estimar ésta incertidumbre, primero porque el conocimiento de la incertidumbre aumenta la información que proporciona la medida, y segundo, porque este conocimiento permite manejar las medidas con la prudencia que dicta el conocimiento de la confianza que nos merecen.
Cuando se exprese el resultado de una medida es pues necesario especificar tres elementos: número, unidad e incertidumbre. La ausencia de alguna de ellas elimina o limita la información que proporciona.

9. Error Sistemático:

Se originan por las imperfecciones de los métodos de medición. Por ejemplo, pensemos en un reloj que atrasa o adelanta, o en una regla dilatada, el error de paralaje, etc. Los errores introducidos por estos instrumentos o métodos imperfectos afectarán nuestros resultados siempre en un mismo sentido. El valor de sexac sería un ejemplo de error sistemático pero no son lo mismo, ni los errores de exactitud son los únicos responsables de los errores sistemáticos. Imaginemos por ejemplo el caso de una balanza bien calibrada que se usa para conocer el peso de las personas en los centros comerciales u otros negocios, como es usual que las personas (en público) se pesen vestidas, los valores registrados con estas balanzas tendrán un error sistemático por el peso de la vestimenta. La única manera de detectarlos y corregirlos es comparar nuestras mediciones con otros métodos alternativos y realizar un análisis crítico y cuidadoso del procedimiento empleado. También es aconsejable intercalar en el proceso de medición patrones confiables que permitan calibrar el instrumento durante la medición.

10. Error Aleatorio:

Un error aleatorio presumiblemente se origina por variaciones temporales y espaciales impredecibles en las magnitudes de influencia. Los efectos de tales variaciones, llamados en lo sucesivo efectos aleatorios, dan origen a variaciones en observaciones repetidas del mesurando. Aunque no sea posible compensar el error aleatorio de un resultado de medición, generalmente puede ser reducido incrementando el número de observaciones.

11. Errores Estáticos y Errores Dinámicos

Errores estáticos: es la diferencia entre la curva función transferencia teórica y la curva de calibración determinada en condiciones estacionarias

Errores dinámicos: son inherentes al funcionamiento del circuito electrónico (respuesta en frecuencia, respuesta temporal, función transferencia, etc.).

12. Forma de expresar los errores

12.1. Error Absoluto:

El error absoluto es la diferencia entre el valor leído y el valor convencionalmente verdadero correspondiente
Error absoluto = valor leído - valor convencionalmente verdadero
En general, se define como error absoluto de una medida a la diferencia existente entre el valor exacto de la magnitud y el valor obtenido experimentalmente.
Ahora bien, como no podemos saber el valor exacto, tampoco podemos conocer el error absoluto así definido. El objetivo de la teoría de errores es la estimación de la incertidumbre asociada a un resultado dado. A esta incertidumbre se le denomina también error absoluto, y es esta segunda definición la que se utilizará. Obsérvese que el error absoluto tiene las mismas dimensiones físicas y por tanto las mismas unidades que la medida a la que acompaña.
Por tanto, el resultado de la medida m de cualquier magnitud M debe expresarse como

siendo E el error absoluto. El doble signo se coloca porque el error puede producirse por exceso o por defecto. No obstante, el error absoluto de una medida no nos informa por sísolo de la bondad de la misma. Es evidente, que no es igual de grave tener un error absoluto de 1 cm al medir la longitud de una carretera que al medir la longitud de un folio.

12.2. Error Relativo

El error relativo es la razón del error absoluto y el valor convencionalmente verdadero
Error relativo = Error absoluto / valor convencionalmente verdadero
Como el error absoluto es igual a la lectura menos el valor convencionalmente verdadero, entonces:
Error relativo = (valor leído - valor real) / valor real
Con frecuencia, el error relativo se expresa como un porcentaje de error, multiplicándolo por cien:
Porcentaje de error = Error relativo*100%
Por ello, se define como error relativo al cociente

que a veces se multiplica por cien, cualificando la incertidumbre en porcentaje de la medida realizada. Nótese que el error relativo es adimensional, es decir, sin unidades.

13. Cifras significativas

Cuando realizamos una medición con una regla graduada en milímetros, está claro que, si somos cuidadosos, podremos asegurar nuestro resultado hasta la cifra de los milímetros o, en el mejor de los casos, con una fracción del milímetro, pero no más. De este modo nuestro resultado podría ser L = (95.2 ± 0.5) mm, o bien L = (95 ± 1) mm. En el primer caso decimos que nuestra medición tiene tres cifras significativas y en el segundo caso sólo dos. El número de cifras significativas es igual al número de dígitos contenidos en el resultado de la medición que están a la izquierda del primer dígito afectado por el error, incluyendo este dígito. El primer dígito, o sea el que está más a la izquierda, es el más significativo (9 en nuestro caso) y el último (más a la derecha) el menos significativo, ya que es en el que tenemos “menos seguridad”. Nótese que carece de sentido incluir en nuestro resultado de L más cifras que aquellas en donde tenemos incertidumbres (donde “cae” el error). No es correcto expresar el resultado como L = (95.321 ±1) mm, ya que si tenemos incertidumbre del orden de 1 mm, mal podemos asegurar el valor de las décimas, centésimas y milésimas del milímetro. Si el valor de L proviene de un promedio y el error es del orden del milímetro, se debe redondear el dígito donde primero cae el error.
Es usual expresar las incertidumbres con una sola cifra significativa, y solo en casos excepcionales y cuando existe fundamento para ello, se pueden usar más. También es usual considerar que la incertidumbre en un resultado de medición afecta a la última cifra si es que no se la indica explícitamente. Por ejemplo, si sólo disponemos de la información que una longitud es L = 95 mm, podemos suponer que la incertidumbre es del orden del milímetro y, como dijimos antes, el resultado de L tiene dos cifras significativas. Una posible fuente de ambigüedad se presenta con el número de cifras significativas cuando se hace un cambio de unidades. Si en el último ejemplo deseamos expresar L en mm, el resultado sería L = (95000±1000) mm. ¿Cuántas cifras significativas tenemos en este resultado?
Claramente dos, igual que antes, ya que la última cifra significativa sigue siendo 5. Sin embargo, si no indicamos explícitamente la incertidumbre de L, es difícil saber cuántas cifras significativas tenemos. Nótese que 95 mm ¹ 95000 mm, ya que el primer resultado tiene sólo dos cifras significativas mientras el segundo tiene 5 (a propósito compare los costos de los instrumentos para realizar estas dos clases de determinaciones). Para evitar estas ambigüedades se emplea la notación científica. Podemos escribir la siguiente igualdad: 9.5 x101 mm =9.5 x 104 mm. Notemos que los números en ambos miembros de la igualdad tienen igual número de cifras significativas, siendo la única diferencia las unidades usadas.

14. Redondeo de Números:

Una calculadora muestra ocho o más digitos. ¿Cómo se puede redondear ese número de cifras a, digamos, tres cifras significativas? Tres reglas sencillas rigen el proceso de eliminar los dígitos no deseados (no significativos) del resultado.
Regla 1. Si el primer dígito que se va a eliminar es menor que 5, ese dígito y todos los dígitos que le siguen simplemente se eliminan. Ejemplo:
54.234 redondeado a tres cifras significativas se convierte en 54.2
Regla 2. Si el primer dígito que se va a eliminar es mayor que 5, o si es 5 seguido de dígitos diferentes de cero, todos los dígitos siguientes se suprimen y el valor del último dígito que se conserva se aumenta en una unidad. Ejemplo:
54.36, 54.359 y 54.3598 al ser redondeados a tres cifras significativas quedan todos como 54.4
Regla 3. Si el primer dígito que se va a eliminar es un 5 que no va seguido de ningún otro dígito, o si es un 5 seguido sólo de ceros, se aplica la regla par-impar. Es decir, si el último dígito que se va a conservar es par, su valor no cambia, y tanto el 5 como los ceros que lo siguen se suprimen. Pero si el último dígito a conservar es impar, entonces su valor se aumenta en uno. La intención de esta regla parimpar es promediar los efectos del redondeo. Ejemplos:
54.2500 con tres cifras significativas se vuelve 54.2
54.3500 con tres cifras significativas se vuelve 54.4

15. Errores de cero, ganancia y de no linealidad

16. Estimación del Error de una Medida Directa

La estimación del error de una medida tiene siempre una componente subjetiva. En efecto, nadie mejor que un observador experimentado para saber con buena aproximación cuál es el grado de confianza que le merece la medida que acaba de tomar. No existe un conjunto de reglas bien fundadas e inalterables que permitan determinar el error de una medida en todos los casos imaginables. Muchas veces es tan importante consignar cómo se ha obtenido un error como su propio valor.
Sin embargo, la aplicación de algunos métodos estadísticos permite objetivar en gran medida la estimación de errores aleatorios. La estadística permite obtener los parámetros de una población (en este caso el conjunto de todas las medidas que es posible tomar de una magnitud), a partir de una muestra (el número limitado de medidas que podemos tomar).

16.1. Mejor valor de un conjunto de Medidas

Supongamos que medimos una magnitud un número n de veces. Debido a la existencia de errores aleatorios, las n medidas X1,X2,…Xn serán en general diferentes.
El método más razonable para determinar el mejor valor de estas medidas es tomar el valor medio. En efecto, si los errores son debidos al azar, tan probable es que ocurran por defecto como por exceso, y al hacer la media se compensarán, por lo menos parcialmente. El valor medio se define por:


y este es el valor que deberá darse como resultado de las medidas.

16.2. Dispersión y Error. Desviación Estándar

Evidentemente, el error de la medida debe estar relacionado con la dispersión de los valores; es decir, si todos los valores obtenidos en la medición son muy parecidos, es lógico pensar que el error es pequeño, mientras que si son muy diferentes, el error debe ser mayor. Adoptando un criterio pesimista, podría decirse que el error es la semi diferencia entre el valor máximo y el mínimo. Por ejemplo, en una serie de medidas de una magnitud que arrojen los resultados

Los valores máximo y mínimo son 2342 y 2389. La semi diferencia es 235. La media es 2366, con lo que si damos como resultado , todos los valores del conjunto de medidas están en el intervalo.
Este error es sin embargo excesivamente grande, además de que el criterio utilizado es discutible. Parece más apropiado tomar como error la desviación media, es decir, el valor medio de la diferencia de los datos respecto al valor central. Sin embargo, como los datos difieren tanto por defecto como por exceso del valor medio, tal desviación se aproximaría a cero. Para evitarlo suele tomarse, no el valor medio de las desviaciones, sino el valor medio de las desviaciones al cuadrado. De esta forma todos los sumandos son positivos. Para que la unidad de este número sea homogénea con la de los datos, se extrae la raíz cuadrada. El valor resultante se llama desviación típica o desviación estándar del conjunto de datos.





Cuando el número de datos es pequeño, suele preferirse el cálculo de la desviación estándar por la ecuación:








La primera suele llamarse desviación estándar de población, y la segunda desviación estándar muestral. Uno de los motivos de preferir la segunda, es que cuando medimos una sola vez, el resultado de la ecuación 3 es , es decir un número indefinido. Efectivamente, midiendo una magnitud una sola vez, no tenemos información alguna sobre su error, y por lo tanto éste debe permanecer indefinido. Sin embargo la expresión 2 conduciría a un error nulo.
Las dos expresiones se emplean, aunque en la práctica, y si el número de medidas es grande, la diferencia entre emplear una u otra es muy pequeña. La más empleada es la segunda, y es la que usaremos nosotros.

16.3. Significado de la Desviación Estándar. La Distribución Normal

Los valores de la desviación estándar que hemos calculado en la sección anterior, son realmente estimadores de este parámetro. El conjunto de las medidas de una magnitud, siempre que exista un error accidental, pueden caracterizarse por medio de una distribución estadística. Cuando el error es debido a un gran número de pequeñas causas independientes, la distribución se aproxima a la llamada distribución normal.
La forma de representar en estadística una distribución es representando en abscisas el conjunto de valores que pueden obtenerse en una medida y en ordenadas la probabilidad de obtenerlos. En el caso de que la magnitud medida varíe de forma continua, en ordenadas se representa la probabilidad por unidad de intervalo de la magnitud medida. En una distribución continua, la probabilidad de que una medida esté entre dos valores x0 y x1 viene representada por


donde f(x) es la función de densidad de la distribución. La función de densidad representa la probabilidad (por unidad de intervalo de la magnitud medida) de obtener un determinado valor en una medida . Obviamente








puesto que es seguro (probabilidad 1) obtener un valor cualquiera cuando se mide una magnitud.
Figura: Función de densidad de una distribución normal de media 0 y desviación estándar 1











La función de densidad de la distribución normal tiene el aspecto reflejado en la figura 1. Recibe también el nombre de campana de Gauss debido a su forma. Está caracterizada por dos parámetros: media y desviación estándar. La media es el valor que con mayor probabilidad aparecerá en una medida. La desviación estándar refleja lo abierta o cerrada que es la campana de Gauss correspondiente. Una distribución muy cerrada se corresponde con una serie de medidas muy poco dispersas, y por tanto con poco error. Por el contrario si la distribución es abierta, la desviación estándar es grande.
Una de las propiedades de la distribución normal es que la probabilidad que encierra en el intervalo es del 68.3 % aproximadamente. Es decir, es de esperar que el 68.3 % de las medidas de una magnitud estén comprendidas en ese intervalo. Dicho de otra forma, si medimos una magnitud un número grande de veces, el 68.3 % de los valores obtenidos estarán comprendidos en el entorno de una desviación estándar en torno a la media. La probabilidad se amplía al 95.4 % y al 99.7 % si consideramos los intervalos y respectivamente.
El error expresado por la desviación estándar tiene por tanto un significado probabilístico: hay una probabilidad del 68% de que una medida esté en el entorno de una desviación estándar alrededor de la media.
La distribución normal aparece con frecuencia en las medidas de magnitudes, pero no siempre. La distribución de una serie de medidas se aproxima a una normal siempre y cuando la fuente de error sea la superposición de muchas pequeñas causas independientes. Si hay una o varias causas de error predominantes o si las causas de error no son independientes, se dice que las medidas presentan un sesgo, y la distribución puede muy bien ser otra. Es muy frecuente encontrar distribuciones de medidas no simétricas, con dos o más máximos, etc.
Conviene insistir finalmente en que no es posible determinar la media y la desviación estándar de una distribución, sino solamente estimarlas

16.4. Medidas sin dispersión. Error de lectura o instrumental

En ocasiones la repetición de la medida de una magnitud conduce siempre al mismo valor. Como ejemplo, consideremos la medida de la longitud de un objeto con una regla graduada en milímetros. Si la medida se realiza con cierta atención, todas las medidas del objeto proporcionan el mismo valor. Es evidente que en este caso la teoría anterior no resulta aplicable, porque al ser nula la dispersión, la desviación estándar resulta igual a cero. En estos casos, la fuente de error no está en la superposición de muchas causas aleatorias, sino en la sensibilidad del aparato de medida.
En efecto, el hecho de que todas las medidas sean iguales no indica en general que no haya error accidental, sino que éste es demasiado pequeño para quedar reflejado en el aparato. En el ejemplo anterior, si el error accidental de las medidas es del orden de 0,001 mm es evidente que la regla no podrá apreciarlo, resultando todas las medidas iguales. En estos casos es necesario estimar el error debido a la sensibilidad finita del aparato de medida.
Se llama sensibilidad de un aparato a la mínima variación de la magnitud medida que es capaz de detectar. En los instrumentos analógicos coincide frecuentemente con la mínima división de la escala. En el ejemplo anterior la sensibilidad de la regla es de 1 mm.
Suele llamarse apreciación al máximo error que puede cometerse debido a la sensibilidad del aparato. Generalmente se considera como la mitad de la sensibilidad. Esto puede comprenderse con un ejemplo. Supongamos un voltímetro de 0,1 V de sensibilidad, cuya aguja indica una tensión comprendida entre 2,1 V y 2,2 V, es decir, la aguja señala un punto intermedio entre las dos marcas o divisiones de la escala. Si el aparato está bien diseñado, una persona con apreciación visual media debe ser capaz de decidir si la aguja está más cerca de 2,1 V o de 2,2 V. Cometeremos el máximo error cuando la aguja se encuentre justamente en el centro de las dos divisiones. En tal caso el error de dar como lectura 2,1 V o 2,2 V es de 0,05 V, es decir la mitad de la sensibilidad.
Es frecuente expresar el error instrumental o de lectura eins de forma que en el intervalo (m-eins,m+eins) haya un 68 % de probabilidad de encontrar el valor de magnitud medida. Se escoge este valor por coherencia con la definición de desviación estándar de la distribución normal. Por las consideraciones anteriores podemos suponer que el valor de la magnitud medida se encuentra con seguridad en el intervalo donde s es la sensibilidad y por tanto la apreciación. Si se acepta que es igualmente probable que el valor de la magnitud se encuentre en cualquier punto de este intervalo, para reducir la probabilidad al 68 %, debemos reducir el intervalo proporcionalmente, es decir, en un factor aproximado de 2/3. En resumen, el error instrumental de una medida se expresa frecuentemente por:
donde s es la sensibilidad del aparato de medida.
Hemos visto que cuando el error instrumental es mucho mayor que el accidental, éste queda enmascarado por aquel. El efecto inverso es también posible. Por tanto, en los casos en que el error accidental de una medida sea mucho mayor que el instrumental, sólo consideraremos el error accidental.
En aquellos casos en que los errores sean del mismo orden de magnitud, puede considerarse que el error total es la suma de los dos:
donde eins es el error instrumental y es el error accidental expresado por la desviación estándar.

16.5. Propagación de Errores

Las operaciones matemáticas con números inciertos dan lugar a resultados también inciertos, y es importante poder estimar el error de los resultados a partir de los errores de los números con los que se opera.
Figura: Representación gráfica de la superficie de un cuadrado en función de su lado. La relación entre el error del lado (ex) y el error de la superficie (ey) viene dado por la pendiente de la curva, es decir, por la derivada







Consideremos un ejemplo sencillo para ilustrar este tema. Supongamos que se mide el lado (x) de una parcela de terreno cuadrada, y a partir de esta medida quiere obtenerse su superficie (y). La medida del lado llevará aparejada un error, que puede ser de origen accidental, instrumental o combinación de ambos. Admitamos que el lado mide 8 m y que el error es de 1 m. El valor de la superficie es por tanto de 64 m2, y estamos interesados en estimar su error. En la figura se ha representado la superficie en función del lado. El error en la medida del lado puede interpretarse como el radio de un entorno alrededor del valor nominal, en cuyo interior estará el valor del lado con una determinada probabilidad. Si proyectamos este entorno sobre la curva obtendremos otro entorno en el eje de ordenadas que representa el error de la superficie. Inspeccionando la figura llegamos a la conclusión de que el error de la superficie es de algo más de 15 m2. En una medida de precisión normal, el error es lo suficientemente pequeño como para poder sustituir la curva por la recta tangente a la curva. La relación entre el error de y y el error de x será entonces la pendiente de la curva en el punto de interés. Es decir, la relación entre el error del lado y el error de la superficie es la derivada de la función:



En nuestro caso: . Como el valor del lado es 8, el error de la superficie (y) es 16 veces el error del lado, como ya habíamos estimado gráficamente. En un caso más general tendremos dos o más variables en lugar de sólo una. Por ejemplo, si la parcela anterior es rectangular en vez de cuadrada, la superficie es función de dos variables: la base (x) y la altura (y). La medida de cada una de estas dos variables tendrá un cierto error, que se propagará al valor de la superficie: S=x.y. La contribución del error de cada lado al error de la superficie vendrá dado por una ecuación similar a la 4. Parece lógico pues que el error total de la función S sea la suma de las contribuciones de cada una de las variables, es decir:

Es importante tener presente que esta expresión es válida sólo en los siguientes supuestos:
El error de cada variable es mucho menor que la propia variable.
Las variables son independientes en el sentido estadístico del término. Quiere esto decir que el valor de una de ellas no afecta en absoluto al valor de la otra. Por ejemplo, la estatura de una persona y su peso no son variables independientes. Si medimos el peso y la estatura de un gran número de personas llegaremos a la conclusión de que generalmente las personas más altas pesan también más.
La aplicación de la ecuación 5 permite calcular el error de una suma, producto, etc de dos variables. Si tenemos una función de n variables: es fácil generalizar la ecuación anterior:

16.6. Ajuste por mínimos cuadrados

Muchas veces, aunque el fenómeno estudiado responde a una ley lineal, los valores experimentales no se hallan exactamente sobre una recta, sino distribuidos más o menos simétricamente a un lado y a otro de la misma. Para hallar la ecuación de la recta que describe la ley física correspondiente se recurre al método de los mínimos cuadrados, con lo que se logra que los puntos experimentales queden distribuídos simétricamente a ambos lados de ella y lo más próximos posible.

Si la ecuación buscada es

y = mx +n
debe ocurrir que

sea mínimo, en donde yi son las ordenadas experimentales e yi' son las de la recta buscada, para el mismo valor de xi.
Derivando C respecto a las dos incógnitas del problema, la ordenada en el origen n y la pendiente m, e igualándolas a cero, se llega a las ecuaciones:Siendo

De este sistema obtendremos m y n que son los valores buscados para representar la recta.