Las Probabilidades y las Comunicaciones

  • ¿Ruido?

Una fuente común de ruido en las comunicaciones acústicas y de radio vienen de interferencias (esto lo podemos tomar como ruido artificial) las cuales dificultan la tarea de recepción de la señal deseada.

Un ejemplo hoy en día sería las comunicaciones por WiFi, casi todos tenemos un router en nuestras casas los cuales nos permiten el acceso a internet, pero, la calidad de este sistema se ve afectado por otras redes WiFi colindantes con el nuestro ya que usualmente estas redes trabajan en una banda de frecuencia de 2.4 Ghz (y por ende, interfiriendo una con la otra). Imagínense una sala con varios grupos de personas y que todos hablaran al mismo tiempo con el mismo tono de voz y cada grupo está cerca del otro, ¡no se entendería absolutamente nada!

Claro que podemos discutir que este tipo de ruido no es aleatorio (ya que es necesario que primero nosotros, pongamos las redes suficientemente cerca una de la otra) como mas tarde lo definiremos, pero eso no nos impide aproximar la representación de la interferencia usando un modelo aleatorio para el ruido.

Ahora, si tomamos en cuenta los fenómenos físicos aleatorios, podemos hablar del ruido térmico por ejemplo, el cual se asocia con el movimiento rápido y aleatorio de los electrones dentro de un conductor, producido por la agitación térmica. Otra sería el ruido atmosférico, el cual viene de perturbaciones eléctricas naturales generadas en la atmósfera terrestre (la cual se le suele llamar electricidad estática), la fuente de la mayor parte de la electricidad estática se encuentra en las condiciones eléctricas naturales, un ejemplo serían los rayos. Como curiosidad, la magnitud de esta energía es inversamente proporcional a su frecuencia, por lo que desde la banda HF o VHF (30 Mhz —> adelante) se vuelve relativamente insignificante.

El hecho es que existe una amplia variedad de mecanismos los cuales califican como fuentes de ruido, esto significa que es físicamente imposible construir un canal libre de ruido. Para entender al ruido y analizar sus efectos (BER, que es tasa de error de bit, se tocará el tema mas tarde), se pueden desarrollar enfoques para reducir la probabilidad de errores causados por el ruido y combatir los errores que inevitablemente ocurrirán a pesar de nuestros mejores esfuerzos.

  • Las probabilidades y el ruido

En general, una señal que viaja a través de un canal es afectada por diversos factores independientes entre sí. Están aquellos que tienen un efecto repetible y determinístico, los cuales usualmente llamamos distorsión (efectos presentes en los equipos electrónicos de comunicación que alteran el mensaje) y otros factores que no son determinísticos, sino estocásticos, por lo tanto, es mejor modelarlos como algo «aleatorio», usualmente nos referimos a estos factores como ruido.

Los Sistemas de Comunicaciones no son la excepción a la regla general que establece que todo sistema en el mundo real debe lidiar con el ruido. De hecho, el ruido es un aspecto fundamental en todo sistema de comunicación.

¿Cómo vamos a representar al ruido entonces?

Necesitamos un modelo que nos permita observar el efecto neto del ruido en un receptor cualquiera en un sistema de comunicaciones. Para esto, recurrimos al Ruido Gaussiano. En este modelo, cada muestra de señal recibida en el sistema es la suma de dos componentes:

  1. El primer componente es la función deterministica de la señal transmitida que será obtenida en ausencia del ruido, en pocas palabras el mensaje (asumimos que no existe distorsión, ni ruido para este componente).
  2. El segundo componente es el término de ruido, cantidad presente en la distribución de probabilidad gaussiana con valores finitos de media (asumiremos  media 0) y varianza, este componente es independiente de la señal transmitida (no guarda relación con el primer componente).

En términos matemáticos, si tomáramos una muestra de la señal en un tiempo «k», el receptor lo interpretará de esta manera:

y[k]=y_{0}[k]+w[k]\

  1. y_{0}[k] \ siendo la primera componente, libre de ruido, que en ausencia de distorsión se puede interpretar como un simple voltaje V_{0} \V_{1} \ que puede ser un 0 lógico o un 1 lógico (acordarse que estamos en digitales).
  2. w[k] \ siendo la segunda componente, la que definimos como el ruido.

Si esta variable de ruido gaussiano es independiente de una muestra a otra, el proceso de ruido se describe como Ruido Blanco Gaussiano, este tiene precisamente la característica de ser aditivo, por lo que usualmente se conoce como AWGN o Additive White Gaussian Noise.

¿De dónde viene eso de «Blanco»?

El origen del término «Blanco» viene de que como el ruido es una señal errática, aleatoria, si tomáramos varias muestras de esta señal y le aplicamos un poco de estadística para comprobar si existe alguna correlación para explicar o determinar el comportamiento de dicha señal no llegaríamos a ningún lado, por lo que la variación de los valores de la señal es totalmente independiente uno de otro, lo que nos lleva a pensar que -las variaciones de los valores de señal pueden ocurrir o están presentes a todas las frecuencias- entonces ¿qué «color» es el representativo cuando todas las frecuencias visibles están presentes por igual? ¡el blanco!

¿De donde viene eso de «Gaussiano»?

Tal y como hemos dicho anteriormente, la componente que representa al ruido es aleatoria, sin embargo, necesitamos encontrar la manera de modelarlo, por lo que asumimos que su comportamiento en cada tiempo de muestreo está asociada con una distribución normal (gaussiana); para ser mas concretos, disponemos de una distribución con una variable aleatoria Gaussiana «W» (por dar una letra) tal que cada muestra (acordémonos que estamos trabajando con valores discretos) de w[k] \ está distribuida como lo está «W».

La razón por la cual este enfoque tiene sentido es porque el ruido es a menudo el resultado de la suma de un gran número de factores diferentes e independientes uno de otro, lo cual nos permite aplicar un resultado muy importante del campo de la probabilidad y la estadística, llamado el teorema del límite central. Este teorema establece que la suma de variables aleatorias independientes equivale aproximadamente (condiciones generales) a la utilización de una variable aleatoria Gaussiana, con mejoras considerables en tal aproximación a medida que se toman en cuenta mas variables aleatorias en dicha suma.

PD: ¿No es bello? Jajajaja.

Esta distribución gaussiana está caracterizada por dos números:

  1. La Media ( \mu \ ): En nuestro modelo asumiremos que la media de la distribución del ruido va a ser 0. Antes de que piensen en que no todas las cosas las podemos representar asumiendo media 0, les digo que no va a afectar en gran manera ya que cualquier perturbación con media distinta a 0 es fácil de compensar.
  2. La Varianza ( \sigma^{2} \ ): Para una media de valor 0 de ruido gaussiano, la varianza (podemos expresarlo adicionalmente en términos de su desviación estándar \sigma \ ) es la que caracteriza las variaciones en el ruido. Se puede ver a la desviación estándar como la medida de una «amplitud» que se espera del ruido; su cuadrado, representa la potencia esperada (la varianza).
gauds
Distribución gaussiana discreta

Por lo tanto, para que el ruido no corrompa la digitalización de una muestra de detección de bit, la distancia entre el valor de la muestra libre de error (el primer componente de nuestro modelo mas arriba) y el umbral de digitalización debe ser lo suficientemente grande con respecto a la amplitud (varianza) o a la potencia (desviación estándar) del ruido. Ahí entra lo que se conoce como SNR o relación de señal a ruido.

  • Distribución Gaussiana

En el contexto de nuestro canal físico de comunicaciones y proceso de señalización, tanto el receptor como el transmisor lidiarán con muestras de voltaje. La muestra y[k] \ en el receptor tiene un término de ruido w[k] \, el cual contribuye de manera aditiva a tal muestra. Esa w[k] \ es obtenida de lo que se conoce como densidad de función de probabilidad (Abreviémosla como PDF = Probability distribution function), el cual especifica una distribución gaussiana:

f_{W}(w) = \frac{1}{\sqrt{2\pi\sigma^{2}}} e^{-\frac{(w-\mu)^{2}}{2\sigma^{2}}}\

Para un ruido con media igual a cero.

La PDF, la cual se asume como la que gobierna la distribución de todas las muestras de ruido de w[k] \, especifica que la probabilidad «W», (la variable que tomamos arriba) o de manera equivalente w[k] \, toma valores en la ‘vecindad’ (metiéndonos con los diferenciales) de w. Si nos ponemos un poco rigurosos, la manera de representar lo que acabo de decir sería:

\mathbb{P}(w\leq w[k]\leq w + dw) \approx f_{W}(w) dw \

De manera general, la probabilidad de que w[k] \ esté entre dos valores w_{1}[k] \ y w_{2}[k] \ está dada por:

\mathbb{P}(w_{1}\leq w[k]\leq w_{2} ) = \int_{w_{1}}^{w_{2}}f_{W}(w)dw \

PDF
Como se ve, ya no tomamos valores discretos sino continuos para nuestra distribución gaussiana.

¿No estamos usando entonces la gráfica con los valores discretos?

La razón por la cual usamos la PDF en vez de un histograma discreto (como la primera imagen que puse) es porque nuestro modelo de ruido tiene la característica de ser analógico de manera inherente, por lo que puede tomar cualquier valor real desde menos infinito a infinito, lo que implica que posiblemente tengamos un número absurdo de muestras. Para una muestra de ruido que puede tomar cualquier valor en un rango continuo, a estas alturas la herramienta matemática por excelencia sería usar una variable aleatoria con dominio continuo, descrita vía la integral de la PDF, la cual es llamada como la función de distribución acumulada (CDF = Cumulative distribution function).

Tenemos muestras, sin embargo, a medida de que estas aumentan, van a tender a una forma continua (curva)
Tenemos muestras, sin embargo, a medida de que estas aumentan, van a tender a una forma continua (curva)
  • Conclusión

Como conclusión, el ruido es un componente importante en todo sistema de comunicaciones, y para poder modelarlo y tomarlo en cuenta, empleamos la probabilidad, en este caso la distribución Gaussiana (se conoce también como la distribución normal).

Existen dos temas de los que me gustaría hablar:

  1. BER = Es la tasa de error de bit, el cual está definido como la probabilidad de que un bit sea un error.
  2. SNR = La relación de señal a ruido, un parámetro que se ve hasta en la sopa. Es una medida de la fuerza de la señal en relación con la fuerza del ruido, siempre nos interesa como ingenieros maximizar el valor de esta relación para que el ruido no corrompa las comunicaciones.

Estos dos conceptos, muy importantes en el campo de las comunicaciones, guardan mucha relación con las probabilidades, y estaré cubriendo sus razones de ser en la segunda parte de este tema. ¡Espero que este apartado les haya servido para entender la relación que tiene la probabilidad con las comunicaciones!

Deja un comentario