TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

28
TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Transcript of TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Page 1: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

TECNICTURA EN INFORMATICA

UNIDAD Nº 2

INFORMATICA

LIC. CONTRERAS P.

Page 2: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

SÍMBOLO

A todo aquello que por conversión nos remite a algo

que no necesariamente necesita estar presente.

Entendemos algo como símbolo, lo interpretamos, tiene significado,

cuando este responde a lo que significa. O sea cuando podemos establecer una relación entre el símbolo y lo que constituye su significado, de acuerdo a cierta convención.

Page 3: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Se dice que el hombre es un "animal simbológico" en el sentido que no necesita

considerar a entes y sucesos en sí mismo, sino que puede referirse a ellos

mediante símbolos.Las propiedades o cualidades que determinan entes y sucesos(fenomeno), al serrepresentados simbólicamente constituyen lo que denominamos ATRIBUTOS

de los mismos. Pueden representarse en forma oral o escrita.

Los Atributos permiten

IdentificarDescribirLocalizar RelacionarEtc.

De una manera simbólica sucesos y entidades por sus propiedades

Page 4: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Atributo

Nombre DNI Fecha Nac Domicilio Altura

Valor Juan Corti 18.135.543

02/02/1978 Mitre 575 Oeste

1,75 m

En general los atributos conocidos como entes y sucesos son "DATOS", quesirven de referencia con vistas a algún accionar concreto, presente o futuro.

El hombre opera con representaciones simbólicas que determinanhechos, entes, conceptos, ordenes, situaciones, etc, a partir de las

cualesdecide un curso de acción entre varios posibles

Representaciones simbólicas de propiedades o cualidades de entes y sucesos, que pueden ser requeridos en un cierto momento como antecedentes para decidir la mejor manera de llevar acabo una acción concreta

DATOS

Page 5: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Transmitir (para llevarlos de un lugar a otro, o para comunicárselos a alguien) Almacenar (para su posterior uso)

Transformar ( operando sobre ellos con ciertas reglas, para obtenernuevos datos).

DATOS

Tienen la propiedad de

Page 6: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Definimos como información a todas aquellas representaciones simbólicas quepor el significado que se les asigna quien la reciba e interpreta, contribuyen adisminuir la incertidumbre de forma que pueda decidir un curso de acción entrevarios posibles.

INFORMACION

Datos Operaciones sobre

datos

Información Decisión

"si" …( condición A)...entonces (acción A)"si“ ...(condición B)... entonces (acción B)"si" ( condición A)...entonces accionar A,"si"... ... entonces …

Page 7: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Dado que la información consiste en representaciones simbólicas significativas en función de ciertas acciones

a realizar, puede ocurrir que aquello que es información para una persona no lo sea para otra. Los

símbolos pueden aportar informacion para quien pueda interpretarlos, para quien tienen sentido

No solo sirve para decidir cuál es el mejor accionar para lograr un objetivo.

La Información

Tomada una decisión por un determinado curso de acción, para concretarlo se

requiere saber que acciones hacen falta realizar, y en que secuencia.

Page 8: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Se trata de información descriptiva, sin la cual no se puede efectuar la acción.

En el caso de las computadoras, esta involucrada en

los programas, que indican la secuencia de operaciones a realizar para alcanzar el resultado

deseado.

Útil para verificar que un determinado accionar se ha efectuado correctamente. Así, cada vez que hacemos una

resta, podemos verificarla mediante una suma.

Información de Control

Page 9: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

DIFERENCIA ENTRE DATOS E INFORMACIÓN

Son representaciones simbólicasde entes, hechos, atributos, etc,

DATOS INFORMACION

Alude a aquellos datos que por el significado que le atribuye quien necesita decidir una acción entre varias, permite tomar tal decisión con la menor incertidumbre posible.

La diferencia así establecida entre datos e información se manifiesta

especialmente en el ámbito de la computación.

La información consta de datos,pero no todos los datos constituyen información.

Page 10: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

CONCEPTOS DE TEORÍA DE LA INFORMACIÓN

Si consideramos un fenómeno cualquiera, y si tal fenómeno es invariable, o sea

totalmente determinado, no se puede aprender nada de él, no se puede decir

nada nuevo, de manera que "No hay información si no se trata de un elemento

variable".“Sea un elemento variable,cuyos finitos cambios de estado, sean imprescindible, se define como información, cuando hay una determinación del estado

actual del fenómeno".

Fuentes de información

El cerebro del hombre, a través de las ideas. La modificación de los estados ambientales.Los censos poblaciones (número de habitantes de una población).

Page 11: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Podemos deducir que cuando más rápido sea el cambio impredecible, mayor es la cantidad de información.

Contribuye a disminuir la incertidumbre que se tiene acerca de cuál es el mejor camino para resolver un problema.

Información

Se refiere a lo desconocido, a aquello que no se sabe se sucederá, ya lo que es inesperado, imprevisible.

La incertidumbre

Una información permite tener una certeza de la existencia u ocurrencia de

algún suceso o aspecto de la realidad, a la vez que disminuye el grado de

incertidumbre que se tenía para tomar una decisión.

Page 12: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

MEDIDA DE LA INFORMACIÓN

Si examinamos con detalle el contenido de información de un mensaje,podemos ahorrar esfuerzo en su transmisión desde un punto a otro.

Si deseamos enviar un telegrama de felicitaciones por un hecho determinado (casamiento, nacimiento, etc), la compañía de telégrafos enviará un texto estándar típico.

Ejemplo

Un sentido intuitivo podemos ver que algunos mensajes largos no contienen gran información.

Page 13: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

CANTIDAD DE INFORMACIÓN

EN 1946, Claude Shannon desarrolló su "teoría Matemática de lasComunicaciones", en donde se planteó el objetivo de hacer lo más eficienteposible la transmisión de información. Por ejemplo transmitir mensaje lo masrápidamente posible y con el número mínimo de errores.

Hay un límite en la tasa de información que puede ser transmitida por unsistema. Este límite es la capacidad de información, la cual viene determinadapor las limitaciones físicas fundamentales en la transmisión de información.

Shannon se planteó primero, que dado un conjunto de posibles mensajes que

una fuente puede transmitir, ¿cómo pueden ser representados estos mensajes

de la mejor manera posible para llevar la información sobre un sistema con sus

limitaciones inherentes? .

Page 14: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Para tratar este problema, es necesario concentrarse en la "información", más que en las señales eléctricas de comunicación, y por esta razón el trabajo de Shannon fue rebautizado como Teoría de la Información.

Dado que la información no es material ni tangible, se requiere para transmitirque sea señalizada en alguna forma que pueda llegar al receptor codificada.Hay que recordar, que Shannon desarrolló su teoría de acuerdo a un esquema:

Page 15: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

•La medida de la información.

•La capacidad de un canal o sistema de transmisión para transferir información.

•La codificación como un medio de utilizar los sistemas a máxima capacidad

La Teoría de la Información trata

con tres conceptosbásicos:

"Dada una fuente de información y un canal de comunicación, existe una técnica de codificación, tal que la información puede ser transmitida sobre el canal con una tasa menor que la capacidad del canal y con una frecuencia de errores arbitrariamente pequeña a pesar de la presencia de ruido".

Estos conceptos pueden ser enlazados

por el teorema fundamental de la

teoríade la información que

dice:

Page 16: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

¿Cómo se mide la información?

¿A qué nos referimos cuando decimos cantidad de información? ¿ como se mide la capacidad de un sistema o canal?

¿Cuáles son las características de eficiencia de un proceso de codificación?

¿Cómo se puede minimizar los efectos indeseables de factores exógenos?

Nos planteamos las siguientes preguntas:

Page 17: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

PILA

TENSION ELECTRICA1

0

Letras Cod BinarioA 000B 001C 010D 011E 100F 101G 110H 111

Page 18: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Antes de comenzar la transmisión, el receptor tiene una incertidumbre total de cual será el mensaje a recibir. Como la fuente tiene "8" elementos (letras A a la H), y como todas tienen la misma probabilidad de emitirse (sistemaequiprobable), la incertidumbre tiene una probabilidad de:

P = 1/8 = 0,125 =12,5 %Supongamos, que la primera medición indica ausencia de tensión eléctrica, osea que ha llegado un "0". Ahora sabemos que la letra estará entre las cuatroprimeras, ya que ellas son las que comienzan con "0".A = 000B = 001C = 010D = 011Ahora la probabilidad de que llegue una letra es de:

P = 1/4 = 0,25 = 25 %

Page 19: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Si en el segundo periodo, medimos y nos encontramos que existe una tensión eléctrica, estamos ante la presencia de un "1", con lo cual se reduce la incertidumbre por cuanto solo hay dos posibilidades:C = 010D = 011La probabilidad aumenta a:

P = 1/2 = 0,5 = 50 %

suponemos que después de la tercer medición obtenemos que existe ausenciade tensión eléctrica, o sea que llegó otro "0", estaremos ante la única alternativa posible:C = 010En este caso la probabilidad será:

P = 1/1 = 1 = 100 %

Page 20: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

La llegada de un símbolo duplica la probabilidad, disminuyendo en la misma proporción la incertidumbre de la llegada de un símbolo. Podemos decir que la incertidumbre era:Antes de comenzar a transmitir era = 1 = 100 %.

Después de la llegada del primer símbolo (0) = 0,75 = 75 %.

Después de la llegada del segundo símbolo (1) = 0,75 = 50 %.

Después de la llegada del tercer símbolo (1) = 0 = 0 %.

O sea, con cada llegada de símbolo la incertidumbre se reduce, hasta llegar a laincertidumbre nula, cuando la probabilidad es del 100%.

Page 21: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Si en vez de tener que transmitir 8 letras se necesita transmitir 16 letras, hacen falta 4 variables binarias, ya que:

2n = 24 = 16

Para poder codificar todo el alfabeto (27 letras) se necesitarían 5 variablesbinarías, ya que:

2n = 25 = 32En este caso nos sobrarían combinaciones.

Para codificar más símbolos, como ser las letras más los números (0 al 9), yalgunos otros códigos de control se utilizan "n = 7" ó "n = 8" elementos,dependiendo del tipo de código.

Page 22: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Como podemos apreciar, que ahora los mensajes contienen mayor "cantidadde información", ya que para cada letra debemos transmitir 7 u 8 elementos.

Generalizando, si tenemos una fuente con

"N = 2n" mensajes posibles a trasmitir, se requerirá combinar un número mínimo "n" de elementos binarios para codificar cada uno de los "N". Conocido "N", por definición de logaritmo será:

n = log2 N

De acuerdo a la teoría de la información, puede definirse la cantidad deinformación de un mensaje "I", como: "el número mínimo "n" de elementos codificados en binarios necesarios para identificar elmensaje entre un total de "N" mensajes posibles".O sea:

I = n = log2 N

Page 23: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Resulta practico relacionar la cantidad de información de un mensaje con elgrado de probabilidad de ocurrencia del mensaje.

De acuerdo a lo que ya vimos en el ejemplo anterior, la probabilidad deocurrencia es:

P = 1/N

Resulta que:

N = 1/P

O sea que:

I = log2 1/P = log2 P-1 = - log2 p

Page 24: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Expresión que relaciona la cantidad de información con la probabilidad de que

ocurra un evento. Para poder medir la "cantidad de información", es necesario medir la UNIDAD de medida. Como todas las unidades

se debe utilizar una convención para determinarla.

I = log2 1/P = log2 P-1 = - log2 p

Para ello, se define como "unidad de cantidad de información “ la obtenida alespecificar una de las dos alternativas igualmente probables, llamándose [bit] aesa unidad. La palabra bit, define la unidad de cantidad de información, y se obtiene porcontracción de las palabras inglesas "binary digit'.

Page 25: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Entonces podríamos decir que información es lo que reduce la incertidumbre, por consiguiente, puede afIrmarse intuitivamente que:

La cantidad de información es una función f(P) decreciente al aumentar la probabilidad P de un proceso. La información relativa aun suceso cierto es nulaf(1) = 0; y f(0) = 00

En el caso de dos posibilidades igualmente probables (caso de la moneda), laprobabilidad es:

P = NE

Donde: N = cantidad de variables y E = cantidad de elementos. Entonces pordefinición, cantidad de información es:I = log2 NE [bit] (1) El caso de la moneda lanzada al aire es: N = 2 ( las dos alternativas, cara y cruz) y E = 1 (la moneda).Aplicando la formula: (1):

I = log2 NE = log2 21 = l[bit]

Page 26: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

INFORMACIÓN MUTUA

Consideremos una fuente que produce varios mensajes. Sea A uno de losmensajes, y PA su probabilidad que sea elegido para su transmisión Mutuaasociada con A como:IA = f(PA)Donde la función "PA" debe ser determinada. Para encontrar f(PA), es intuitivo suponer los siguientes requerimientos:

f(PA) >= 0 donde 0 <= PA <= 1limPA _l f(PA) = 0f(PA) > f(PB) para PA < PBExisten muchas funciones que satisfacen las tres anteriores, pero

la decisión final se obtiene al considerar la transmisión de mensajes independientes.Cuando el mensaje "A" es entregado al usuario, este recibe "IA" unidades de información. Cuando es entregado un segundo mensaje, la información total recibida debería ser la suma de las informaciones mutuas: IA + IB.

Page 27: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Esto es fácil de ver si consideramos que "A" y "B" vienen de diferentes fuentes.Pero supongamos que "A" y "B" provienen de la misma fuente: podemos hablarentonces del mensaje compuesto:

C = AB.

Si " A" y "B" son estadísticamente independientes tenemos:

PC = PA * PB ------ IC = f(PA * PB)

Pero la información recibida es:

IC = IA + IB = f(PA) + f(PB)

Y así:

f(PA * PB) = f(PA) + f(PB)

Que es el requerimiento para f(PC).Hay una sola ecuación que satisface las condiciones anteriores, y es la funciónlogarítmica "f(x) = logb (x)". Donde "b" es la base del logaritmo.

Page 28: TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Así la información mutua en definida como:

IA = logb 1/PA

Como 0 < PA < 1, el logaritmo es positivo, como se desea.Si especificamos la base "b" del logaritmo, podemos determinar la unidad deinformación.Lo más usual es tomar "b = 2" denominándose la unidad así determinada como[bit], como ya habíamos determinado anteriormente. Si PA = PB

= 1/2,entonces:

IA = IB = log2 2 = 1 [bit]