Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

5
Sistemas de Comunicación Teoría de la Información 1-1 1

Transcript of Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

Page 1: Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

Sistemas de Comunicación

Teoría de la Información

1-1

1

Page 2: Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

Teoría de la información

Si llamamos al Servicio Meteorológico pidiendo información, pueden darnos varias respuestas:

Si la pregunta es '¿Saldrá el sol mañana?", la respuesta será obvia, pues todos los días sale el sol, aunque llueva o esté nublado, pero ese mensaje no nos brindará información.

Si preguntamos sobre el clima, ahí sí lo que nos digan será información.

Por lo tanto, en todo momento la información es función de la probabilidad de que el suceso ocurra.

Es decir, información es una función de la probabilidad.

I = f (Prob)

Supongamos que en el curso nos dan una hoja "para que opinemos sobre el profesor". Habrá quienes en el mismo espacio explicarán mejor su opinión que otros, es decir, para un mismo espacio o capacidad de información, unos transmitimos más información que otros.

Esto puede ocurrir en un cable telefónico donde es interesante calificar la información.

Por ejemplo: si todos dijéramos lo mismo sobre el profesor no hay información, el resultado era previsible, pero si algunos opinan lo contrario tenemos buena información . En general, la información se mide de la siguiente forma: I =log2 1 / P =[bits]

2

Puede ser en base neperiana o en base decimal y nos da otra unidad. Se usa el logaritmo pues la información es función de la probabilidad y , tenemos dos informaciones provenientes de dos fuentes, las probabilidades se suman, es decir, debemos ligar “suma” con “producto” y se simplifica con el logaritmo. La probabilidad sería el producto 1/ P1 x 1 / P2 de que esto ocurra:

Page 3: Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

Se ve que si tenemos un tren de pulsos equispotenciales, la probabilidad de ocurrencia de un (1) o un cero (0) es 0,5 y la I sería: S = log2 2 = 1 bit Si tenemos un tren de pulsos como el de la figura 24, se observa que: P(1) = 2/3; P(0) = 1/3 Donde: P(1) es la probabilidad de que ocurra en “1” . P(2) es la probabilidad de que ocurra un “0” .

La probabilidad del suceso es : I = log2 3/2 + log2 3/1 y aquí tenemos información.

Sea por ejemplo de la figura 25.

Se observa que

P(1) = 3/10 P(0) = 7/10 Lo que nos interesa es la información promedio que nos entrega un pulso independientemente de que sea un “1” o “0” , para ello debemos buscar cuál es esa información promedio, lo que se hace de la siguiente manera: H = información promedio 3 I(1) + 7 I (0) H = -----------------------

10 Pues por lo tanto la I(1) se repite 3 veces y la I(0) 7 veces.

Si hacemos las cuentas

H = 0,7 bits / Pulso

Esto indica que tenemos 0,7bits de información por pulso.

Sabiendo la cantidad de pulsos por segundo, podemos conocer la información por unidad de tiempo.

3

Page 4: Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

En los canales de transmisión enviamos Bits de información y habrá una capacidad máxima de Bits por línea, con un cierto error,

Queremos que un tren de pulsos nos brinde la mayor información posible para tener que transmitir la menor cantidad de pulsos posibles, transmitimos mayor información con menor cantidad de pulsos. Por ejemplo: si queremos transmitir letras, cada letra querríamos que esté representada con la menor cantidad de “1” y ”0” para usar pocos pulsos.

Sabemos que la información promedio llevaba un pulso binario y daba: H = Información promedio

Haciendo una gráfica de H en función de P1, tenemos (26)

1

Si transmitimos “1” ó “0” pero en forma no periódica con una probabilidad de

ocurrencia de “1” ó “0” de ½. tendremos la máxima información. Luego si queremos transmitir por un vínculo una información de 1000 bits/ segundos

con una probabilidad de error de 10 –6 , tenemos que transmitir un tren de pulsos igualmente probables de 1000 pulsos por segundo y, en otro extremo, solamente en 1 pulso cada 106 nos podremos haber equivocado.

Un ejemplo. Sería querer transmitir una imagen con un sistema parecido al facsímil pero con la variante de que tenemos 2 tonos de brillos ( puntos negros y blancos) y transmitimos pulsos igualmente probables tal como se grafica en la figura 27.

Lo que transmitimos, por ejemplo, será lo mostrado en la figura 28. Según la figura 27 tendremos que transmitir 80.000 bits por cada imagen. El tema es cómo transmitimos, entonces decimos que tomamos un canal telefónico y

transmitimos el tren de pulsos por él, pero queremos ver cuántos pulsos por segundo puedo transmitir con una cierta probabilidad de error.

Se sabe que un canal telefónico puedo transmitir 800 bits/ segundos con una probabilidad de 10 6, esto depende del ancho de banda del sistema y de la relación señal/ ruido, es decir, de la calidad del sistema.

En la imagen que queremos transmitir debemos tener una memoria que retenga esa imagen y mande 800 bits/ segundos, es decir, tardará 100 segundos en completar la imagen.

Supongamos que necesitamos transmitir más rápido con la misma probabilidad de error. Entonces cabe dos alternativas: usar un canal telefónico con una relación S / N mayor, o más canales telefónicos con lo cual aumenta el BW.

Si no queremos cambiar el canal telefónico entonces transmitimos menos puntos de imagen obteniendo menos información ( es decir, tendremos menor definición).

4

Page 5: Teoría de la Información Electrónica-Lic. Prof. Edgardo Faletti- 2001

Como se ha dicho en un comienzo, éste es sólo un enfoque técnico, pero que muchas veces no es claro para la comprensión de los radioaficionados.

5