Requisitos previos
Nociones elemental de estadística.
Objetivos
La definición de un ruido se basa en sus propiedades estadísticas. Esta página repasa nociones simples de
estadística, distinguiendo las
leyes de probabilidad, sus
pruebas, y la
estimación de sus parámetros
estadísticos.
Ley de probabilidad
La ley de probabilidad de una variable aleatoria

viene dada por

su densidad de probabilidad o

su función de repartición

.
En los momentos centrados asociados, el promedio

y la desviación estándar

son definidos como:
y
(

es la varianza).
Una ley estadística tiene propiedades peculiares que caracterizan tal o tal fenómeno. Por ejemplo la ley
de
Poisson
(discreta) describe bien la llegada de sucesos independientes. Otro ejemplo, la ley de
Gauss
describe la suma de una gran cantidad de fenómenos independientes...
Realizaciones
La realización de una ley de probabilidad es aleatoria: 6 tiradas de un dado no conducirán a la
obtención de cada cifra. Pero cuanto mayor sea la cantidad de
pruebas
más se parecerá la observación de éstas a la ley de probabilidad.
Estimaciones
En la practica, se tiene que distinguir por una parte el valor promedio

de la densidad de probabilidad y su medida

. Siendo

las pruebas aleatorias, sólo tenemos acceso a :
Y no hay ninguna razón para que

. Esto ocurre cada vez más en cuanto

se hace muy grande.
La varianza

se puede medir por:
con

en el denominador porque

ya fue conseguido con las

medidas y sólo quedan

valores independientes para estimar

.
La desviación entre

y

vale típicamente

.