Revolución horizontal

41
Texto: qué es una red? Que es una red? Es un conjunto de computadoras interconectadas de modo que puedan compartir archivos de datos, programas, perifericos y otros recursos. En general estan conectadas a uno o mas servidores, los cuales son pcs con recursos y programas especificos para funcionar como tales. Esos servidores son los que almacenan la información común y controlan los perifericos a compartir. El resto de las PCs se denominan clientes. Tipos de redes: Wan: es capas de cubrir desde 100 hasta unos 1000km (red de area amplia, wide area network) Ejemplo: internet. Lan: red de area local: es la interconexión de varias PCs y perifericos. Esta limitado a 200mts (aunq con repetidores podria llegar a 1km) MAN: red de area metropolitana, es una red de alta velocidad que da cobertura en un area geografica extensa. MAN representa el concepto de LAN adaptado a un area mas amplia. Su area de cobertura es mayor a 4kms WLAN: wifi, red de conexión inalambrica. Conexión sin cables. Componentes de una red: Router: direcciona los paquetes de información que circulan por la red. Switch: brindan gran capacidad de conexiones. Van conectados detrás de un router.

description

Temas de comunicación

Transcript of Revolución horizontal

Texto: qué es una red?

Que es una red?Es un conjunto de computadoras interconectadas de modo que puedan compartir archivos de datos, programas, perifericos y otros recursos.

En general estan conectadas a uno o mas servidores, los cuales son pcs con recursos y programas especificos para funcionar como tales. Esos servidores son los que almacenan la información común y controlan los perifericos a compartir.

El resto de las PCs se denominan clientes.

Tipos de redes:

Wan: es capas de cubrir desde 100 hasta unos 1000km (red de area amplia, wide area network) Ejemplo: internet.

Lan: red de area local: es la interconexión de varias PCs y perifericos. Esta limitado a 200mts (aunq con repetidores podria llegar a 1km)

MAN: red de area metropolitana, es una red de alta velocidad que da cobertura en un area geografica extensa. MAN representa el concepto de LAN adaptado a un area mas amplia. Su area de cobertura es mayor a 4kms

WLAN: wifi, red de conexión inalambrica. Conexión sin cables.

Componentes de una red:

Router: direcciona los paquetes de información que circulan por la red.

Switch: brindan gran capacidad de conexiones. Van conectados detrás de un router.

Gateway: Puerta de enlace. Traduce los protocolos de una red para conectarla a internet.

Tarjetas de red: Son las tarjetas que se instalan en las computadoras para poder conectarlas a un medio de comunicaciones.

Firewalls: Dan seguridad a la red.

Modems: se utilizan para conectarse a internet en el caso de solo contar con una linea telefonica.

Cables de red: Identifican solo el medio fisico que utilizamos para conectar cualquiera de nuestros equipos de red.

Proxy: es un programa o dispositivo que realiza una accion en representación de otro

Qué es internet?

Es una gran red de computadoras. Red de redes. Interconecta varias redes entre si.

Provee difrentes servicios que se pueden agrupar en:

WWW (world wide web): paginas que visitamos. (utiliza el protocola http: hipertext transfer protocol)

E-mail: correo electronico

Redes sociales

Conexión en tiempo real

Protocolos, lenguajes y direcciones

Para comunicarnos en internet necesitamos de protocolos y lenguajes que hagan posible el intercambio de información.

Tambien necesitamos direcciones para establecer el contacto.

Protocolos: codigos estandarizados para el intercambio de información entre pcs.

Ethernet: estandar para redes de area local

IP: internet protocol, traslada información en paquetes.

TCP: transference control protocol, es la capa intermedia entre protrocolo IP y la aplicación. Garantiza que los seran entregados en su destino sin errores.

HTTP: es el protocolo utilizado para identificar una URL, una pagina de internet.

SMTP: protocolo para intercambio de mails

SSH: utilizado para conexiones seguras.

FTP: protocolo simple de transferencia de datos.

Lenguajes

HTML: Lenguaje que codifica la infroamción sobre el contenido y la apariencia de una pagina web.

XML: intercambio de información entre diferentes plataformas, no solo internet (a diferencia del html).

Direcciones

Dirección ip (numero de ip): identifican de manera logica y jerarquica a alquier equipo directamente conectado a internet.

Fijos: los equipos que requieren una conexión permanente tienen ip fijo

Dinamicos: se utiliza en equipos que se conectan a internet de manera esporadica (lapsos irregulares). Por ejemplo uso personal.

Existen ips privados (para dar ip dentro de una red local) y publicos que emplean para navegar po internet o publicar como servidor.

IPV4: cuando se creo internet se dispuso que existirian 4mil millones de ips, lo que en la actualidad no alcanza para todos y en estos momentos se utiliza el IPV6 que emplea 340 SEXtillones de direcciones.

Dns: Traducen resuelven los nombres inteligibles para los humanos en identificadores binarios asociados a con los equipos conectados a la red. El dns traduce el www.nombre.com a 200.1.32.12 el cual necesita para realizar la acción de mostrarme la pagina.

URL:Es la cadena de caracteres que se le asigna a una dirección unica.Existe un URL único para cada página de cada uno de los documentos de la World Wide Web.

ISP (internet service provider) = proveedor de servicio de internet.

Es quien a quien le contrato internet, por ejemplo Speedy.

Hosting

Es el serivicio que brinda una empresa para el alojamiento de un sitio web.

Servidor web: es una computadora generalmente potente, conectada permanentemente a Internet, que funciona con un programa informático que procesa una aplicación del lado del servidor realizando conexiones bidireccionales y/o unidireccionales con el cliente generando o cediendo una respuesta. Su función es enviar las páginas que tiene guardadas en respuesta a pedidos de los navegadores desde cualquier lugar del mundo.

Aplicaciones en el cliente: El cliente web es el que las ejecuta dentro de la máquina del usuario.

Aplicaciones en el servidor: El sistema ejecuta la aplicación, que a su vez genera cierto código HTML; el servidor toma este código recién creado y lo envía al cliente por medio del protocolo http

Alojamiento gratuito: El alojamiento gratuito es limitado, habitualmente en capacidad de almacenamiento y en transferencia de ancho de banda, entre otros servicios. En ocasiones también suman publicidad propia a los sitios almacenados.

Alojamiento Compartido: Se comparte entre muchos clientes.

Servidores dedicados: Es para el uso personal de un solo cliente

Base de datos: Es un conjunto de datos que pertenecen al mismo contexto almacenados sistemáticamente

Estaticas: se utilizan como solo lectura. Para guardar documentación

Dinamicas: se utilizan de manera que con el tiempo se puedan modificar, permiten la actualización

CMS: Sistema de administración de contenidos (Content Management System) y Wikis. Son programas pensados para la gestión de sitios web con contenidos dinámicos. Tiene la particularidad de ser útiles para modificar con facilidad el contenido de un sitio web a través de un administrador o back end, que inmediatamente trasladará esos cambios al sitio web o front end

Argentina digital:

Actualización

Reemplaza la ley vigente sancionada en 1972 y tiene en cuenta los actuales procesos de convergencia tecnológica.

2 Convergencia

Posibilita a las empresas brindar al mismo tiempo servicios de telefonía, internet y cable, incentivando la competencia y la calidad del servicio para los usuarios.

3 Usuarios pueden elegir

Permite que los servicios de telefonía móvil y fija, internet y televisión lleguen a los hogares de todos los argentinos a través de un solo acceso, dando la posibilidad a cada usuario de elegir el servicio y/o la empresa más conveniente a sus necesidades, utilizando la misma red.

4 Velocidades obligatorias

Establece una velocidad mínima obligatoria de transmisión de las redes que se actualizará cada 2 años y garantizará un acceso de calidad y equitativo en todo el territorio nacional.

5 Servicio Universal

Crea el fondo del Servicio Universal para conectar las regiones en las que las empresas no inviertan, conformado por aportes obligatorios de los licenciatarios y administrado por el Estado Nacional.

6 Servicio público

Declara servicio público esencial y estratégico el uso y acceso a las redes de telecomunicaciones, lo que significa que todas las empresas podrán utilizar la infraestructura de red para brindar sus servicios con una tarifa de alquiler fijada por el Estado Nacional, favoreciendo la actividad de cooperativas y pymes, quienes actualmente no poseen ni el espectro ni la infraestructura propia necesaria para hacerlo.

7 Área única

Establece un área única de explotación y prestación, hecho que elimina la larga distancia nacional para todos los servicios.

8 Libertad de expresión

Resguarda y promueve la libertad de expresión de todos los usuarios del país.

9 Mejor calidad

Democratiza las comunicaciones y mejora la calidad de los servicios y, por ende, la calidad de vida de todos los argentinos.

10 Competencia

Promueve la competencia entre los distintos prestadores ya que ahora serán muchos más los que podrán ingresar a la red para brindar servicios.

Texto

Sistemas digitales.

Representaciones numéricas:

Muchas instancias de la vida se manejan en cantidades. Existen dos maneras de representar

Analogicamente: se representa con voltaje, corriente o con el movimiento de un indicador. Poseen mas de dos valores. Varian gradualmente sobre varios valores. Cambios continuos y graduales.

Digitales: Se representan por digitos. Cambia por etapas, es decir, hace el intercambio de digitos.

La diferencia entre los dos es que, los analogicos varian de manera gradual y continua y los digitales varian de manera discreta. (numeros enteros)

Ejemplos:-El sistema de dirección de un auto – Analógico, -El humo que sale de la Capilla Sixtina para notificar si ha sido elegido un nuevo Papa – -Digital-El sonido que sale de los parlantes de una computadora – Analógico-Un candado – Digital-El volumen del canto de un ave – Analógico-Un interruptor que enciende la luz de un cuarto – Digital

-Interruptor digital-Metro regular analogico-Temperatura analogico-Granos de arena en la playa digital -Control del volumen de una radio analogico

Un sistema digital es una combinación de dispositivos diseñado para manipular cantidades físicas o información que estén representadas en forma digital; es decir, que sólo puedan tomar valores discretos. La mayoría de las veces, estos dispositivos son electrónicos, pero también pueden ser mecánicos, magnéticos o neumáticos. Algunos de los sistemas digitales más conocidos incluyen las computadoras y calculadoras digitales, equipo digital de audio y video y el sistema telefónico, el sistema digital, más grande del mundo.

Un sistema analógico contiene dispositivos que manipulan cantidades físicas representadas en forma analógica. En un sistema de este tipo, las cantidades varían sobre un intervalo continuo de valores. Por ejemplo, en un receptor de radio la amplitud de la señal de salida para uña bocina puede tener cualquier valor entre cero y su límite máximo. Otros sistemas analógicos comunes son amplificadores de audio, equipos de cinta magnética para grabación y reproducción, y el odómetro (cuentakilómetros) de los automóviles.

Ventajas de los sist digitales:

Los sistemas digitales generalmente son más fáciles de diseñar

Facilidad para almacenar la información

Mayor exactitud y precisión.

Programación de la operación.

Los circuitos digitales se afectan menos por el ruido

Limitaciones de las técnicas digitales Cuando se emplean técnicas digitales existe, en realidad, una sola desventaja: El mundo real es fundamentalmente analógico.

La mayor parte de las cantidades físicas son de naturaleza analógica, y a menudo estas cantidades son las entradas y salidas de un sistema que las monitorea, que efectúa operaciones con ellas y que las controla. Algunos ejemplos son la temperatura, la presión, la posición, la velo- ádad, el nivel de un líquido, la rapidez de flujo y varias más.

Sistema decimal El sistema decimal se compone de 10 numerales o símbolos: 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9; al utilizar estos símbolos como dígitos de un número podemos expresar cualquier cantidad. El sistema decimal, también conocido como sistema de base 10, evolucionó en forma natural a partir del hecho de que el ser humano tiene 10 dedos. Incluso, la palabra 'dígito" significa "dedo» en latín. El sistema decimal es un sistema de valor peticiona! en el cual el valor de un dígito depende de su posición. Por ejemplo, consideremos el número decimal 453. Sabemos que el dígito 4 eñ realidad representa 4 centenas, el 5 representa 5 decenas y el 3, 3 unidades. En esencia, el 4 pesa más que los tres dígitos; a éste se le conoce como el dígito mass significativo. El número 3 tiene el valor menor y se denomina dígito menos significativo

En el sistema binario sólo hay dos símbolos o posibles valores de dígitos, O y 1. No obstante, este sistema de base 2 se puede utilizar para representar cualquier cantidad que se denote en sistema decimal o algún otro sistema numérico. En general, se necesitarán muchos dígitos binarios para expresar una cantidad determinada. La unidad utilizada en el sistema binario es el BIT (2 opciones 0 y 1). UN BYTE son 8 bit, puedo representar 256 valores. (2 a la octava)

ambos sistemas, decimal y digital son de valor posicional

La unidad para medir la transferencia de archivos es el BIT.

1011.101 (el punto determina lo binario)

Este es también un sistema de valor posicional, en donde cada dígito binario tiene su propio valor expresado como potencia de 2. Por ejemplo para representar los 128 caracteres del codigo ascii se necesitarian 7 bits (2 a la septima)

Ascii: Código Asar El código alfanumérico más utilizado en la mayoría de las microcomputadoras 'y minicomputadoras y en muchos sistemas grandes de cómputo es el Código Americano Estándar para el Intercambio de Información (ASCII, siglas de American Standard Code for Information Interchange). El código ASCII usa 7 bits, por tanto tiene 27 — 128 grupos de posibles códigos. Esta cantidad es más que suficiente para representar todos los caracteres de un teclado estándar y las funciones de control como (retroceso de carro) Y (cambio de línea). La tabla 2-5 contiene una lista parcial de códigos ASCII. Además del código binario para cada símbolo, la tabla también proporciona sus equivalentes en octal y en hexadecimal.

Codigo ascii: 128 posiciones representadas en valores 00, 01, 11, 1F, etc.

Imagen digital:

Que es una imagen digital?

La imagen digital está formada por una serie de matrices numéricas de ceros y unos que se almacenan en una memoria informática y que definen las características de una fotografía. Cuando esta imagen es interpretada por un sistema informático se transforma en una imagen visible a través de la pantalla e imprimible a través de cualquier dispositivo de salida. Las imágenes digitales pueden vectoriales (con el aspecto de un dibujo) o rasterizadas (fotografía típica

Formación de la imagen digital

La trayectoria que sigue la cámara para crear la imagen digital es la siguiente: La luz que detecta el objetivo de la cámara llega hasta el sensor de imagen, denominado CCD formado por multitudes de receptores fotosensibles denominados "fotodiodos". La luz incidente genera una señal eléctrica a cada receptor, que posteriormente será convertida en datos digitales por el conversor ADC, como una serie de cadenas de números ceros y unos, denominados dígitos binarios. Estos números binarios (O,1), se representan como pequeños cuadraditos, en forma de mosaico individual denominados píxeles.

El sistema binario y su funcionamiento

La información que procede del sensor de una cámara digital son datos analógicos. Para que estos datos se puedan almacenar en la tarjeta de memoria y que el ordenador pueda interpretarlos se deben convertir a formato binario. El ordenador reconoce un estado activo que lo representa con el (1) y otro estado inactivo que lo representa con el (0). Las cifras binarias se forman por un número total de ceros y unos. Estos ceros y unos tienen el doble del valor que el primero "potencia de 2", 8, 16 etc. Un BIT es igual a la unidad mínima de información del sistema binario, siendo el 0 y el 1. Un byte es igual a 8 bits u octeto.

En el caso de la fotografía digital, este granito pequeñito es sustituido por el píxel. La imagen que obtenemos ya sea a través de una pantalla, o un escáner o una cámara digital, es un enorme mosaico lleno de millones de píxeles. Cada píxel "cuadrito" contiene la información del color de esa pequeña porción.

La resolución, cantidad de píxeles

En un sentido amplio, resolución se refiere a la capacidad de una tecnología o un mecanismo para reflejar los detalles de una imagen. La forma de traducir una fotografía en bits para poder manejarla como archivo informático es dividirla según una malla de filas y columnas. A las unidades resultantes se les llama píxeles: son todos del mismo tamaño y representan áreas cuadradas de la imagen original. Si dividimos la imagen en pocos píxeles, podremos codificarla con poca información, pero seguramente perderemos mucho detalle, por lo que decimos que tiene poca resolución. Si la dividimos en muchas más partes, éstas llegarán a ser tan pequeñas que no las distinguiremos. La visión de la imagen será mucho mejor y más detallada, pero también mucho más costosa en bits

Tamaño en píxeles Obviamente, indica en cuántas filas y columnas se ha dividido la imagen, o bien cuál es el número total de píxeles. Por ejemplo, decimos que una foto tiene 1600 x 1200 píxeles. También podemos decir que tiene 1.920.000 píxeles, o redondear diciendo que es una foto de 2 megapíxeles.

Tamaño informático

Se cuenta en unidades de información como bytes, kilobytes o megabytes, y depende directamente de dos cosas: del número de píxeles y de la cantidad de bytes que gastamos para definir cada píxel. La profundidad de bits permite diferenciar y aplicar un número más o menos grande de colores. La mayoría de las cámaras digitales utilizan la profundidad de 24 bits del modo RGB, por lo que cada píxel se anota con 3 bytes. Se calcula rápidamente que cada megapíxel ocupará en memoria 3 megabytes (algo menos, porque la máquina no redondea como nosotros). En las tarjetas de memoria suele ocupar mucho menos, porque los datos se guardan comprimidos

Tamaño superficial o de salida Es lo que ocupará la foto si la imprimimos. Los píxeles son realmente información numérica, así que este tamaño lo decidimos nosotros, indicando cuántos píxeles queremos imprimir en cada centímetro o pulgada de papel.

En definitiva, el número de píxeles que contenga una imagen depende de cuántos píxeles utilice el sensor CCD de la cámara para captar la imagen

Expresión de la resolución total de una imagen

La resolución de una imagen digital se expresa multiplicando su anchura por la altura en píxeles. Por ejemplo la imagen de 1200 x 1200 píxeles = 1.440.000 píxeles, expresado en Mp (megapixel) es igual a 1,4 Mp. Conviene tener en cuenta que 1 Megapíxels = 1024 píxeles. No se debe confundir este concepto con la cantidad de pixels por pulgada que requiere cada soporte para una resolución óptima. Otro factor que incluye en la calidad de visualización de la imagen, según el soporte a emplear, es el tamaño físico del píxel y la distancia promedio desde la que la imagen será visualizada

Dpi o ppi son los píxeles representados por pulgada, píxel x pulgada. La resolución define la cantidad de píxeles que contiene una imagen y la dimensión de estos píxeles expresan de qué forma se reparten en el espacio.

La resolución óptima para una imagen depende de las características del soporte en el que será empleada. Como referencia, se recomiendan las siguientes: * Imágenes para visualizar en pantalla: 72 dpi * Imágenes para impresora hogareña: 150 dpi como mínimo * Imágenes para impresión en ofsett color: 300 dpi

Resolución de pantalla

La resolución de pantalla es el número de píxeles que puede ser mostrado en una pantalla tanto en ancho como en alto. Se pueden diferenciar dos tamaños de pantalla diferentes:

Tamaño absoluto: es el tamaño "real" de la ventana del monitor, medido generalmente en pulgadas en diagonal entre dos ángulos. Depende del monitor. Con el mismo tamaño, cada monitor puede definir una relación de aspecto, 4:3, 5:3, 16:9, etc. El primer número las veces del ancho y el segundo las del alto.

Resolución o tamaño relativo: viene determinada por el número de píxeles que se muestran en la ventana del monitor, siendo el píxel la unidad mínima de información que se puede presentar en pantalla, de forma generalmente rectangular.

La profundidad del BIT o profundidad del píxel o profundidad del color, estima los valores que puede llegar a tener cada píxel que forma la imagen. Si tiene más cantidad de bits por píxel más colores, mayor calidad de imagen y mayor tamaño del archivo.

La profundidad del BIT se puede medir en:

Profundidad Color 1 BIT blanco o negro

8 bits de color 256 matices de color

24 bits de color o colores RGB imágenes en color (16,7 millones de colores)

32 bits CMYK para impresión de las imágenes

Imagen de 1 Bit La imagen digital que utiliza un solo BIT para definir el color de cada píxel, solamente podrá tener dos estados de color el blanco y el negro.

8 bits 256 tonos de grises Con 8 bits se muestra una imagen de 256 tonos de grises diferentes y comparable con una imagen de las tradicionales en blanco y negro. Cuantos más bits tenga una imagen mayor número de tonos podrá contener la imagen. Lo normal es 8 0 16 bits. Utilizando los 8 bits sólo existe 256 tonos o estados. (un canal)

24 bits de color Una imagen digital en color se crea con los parámetros en R G B, por síntesis aditiva, el color rojo, verde y azul. Si anteriormente necesitábamos 8 bits para captar una imagen de 256 tonos de un solo color, ahora precisamos 24 bits, 8 por canal: * 8 bits de color rojo. * 8 bits de color verde. * 8 bits de color azul. para llegar a representar el tono adecuado a cada píxel de la fotografía en color. Una imagen de 24 bits de color, mostrará 16,7 millones de colores, los suficientes para mostrar cualquier matiz de color que se necesite. Los 16,7 millones de colores los traduciríamos a 256 tonos de color azul x 256 tonos de verde y 256 tonos de rojo, el resultado de esta operación es lo que da los 16,7 millones de colores.

La compresión de datos se define como el proceso de reducir la cantidad de datos necesarios para representar eficazmente una información, es decir, la eliminación de datos redundantes. En el caso de las imágenes, existen tres maneras de reducir el número de datos redundantes: eliminar código redundante, eliminar píxeles redundantes eliminar redundancia visual

Formatos sin pérdida de resolución ni calidad Las cámaras digitales utilizan un formato que mantiene el archivo de la imagen en su estado virgen, en el cual no realizan ninguna clase de descarte de datos y el archivo se mantiene en su máxima calidad, igual que en el momento que se captó la imagen. Podemos citar el formato RAW y el TIFF Otros formatos sin pérdida de calidad: BMP,EPS, PSD, PDF

Formatos con pérdida de calidad En la imagen y archivos digitales, existen formatos de archivo que desechan información que puede considerarse innecesaria o poco relevante al almacenarlas, sufriendo una pérdida de calidad (a veces teórica y en ocasiones evidente, según el nivel de compresión), pero con la ventaja de que obtienen archivos informáticos con menor peso y espacio en las computadoras, haciéndolas más manejables. Algunos de estos formatos: JPEG, GIF, PNG.

Tiff:

Es un formato que guarda las imágenes en 48 bits. Eso es muy pesado por lo que ahora esta dejando de lado.

Formato Raw

El formato RAW, sólo se encuentra disponible en cámaras digitales sofisticadas, indicadas para fotógrafos profesionales. Este formato ofrece la máxima calidad ya que contiene los píxeles en bruto tal y como se han adquirido. Genera un archivo que contiene la totalidad de los datos de la imagen tal y como ha sido captada por el sensor de la cámara digital, por lo que comúnmente se lo conoce como negativo digital.

JPEG y la fotografía digital Este formato lo creó The Joint Photographers Experts Group (Grupo de expertos en fotografía). Es uno de los formatos más conocidos para la compresión de fotografías digitales. Es uno de los formatos más extendidos en Internet (Web) Cuando se opta por una compresión alta, es para crear archivos que ocupen poco espacio para la Web o enviarlas por correo electrónico. JPEG es el único formato de archivo, que puede llegar a comprimir una imagen hasta sólo un 10% de su tamaño original, sin que el ojo humano pueda percibir diferencias, antes y después del proceso de compresión.

Big Data

El Big Data o Datos masivos es un concepto que hace referencia a la acumulación masiva de datos y a los procedimientos usados para identificar patrones recurrentes dentro de esos datos. Otras denominaciones para el mismo concepto son datos masivos o datos a gran escala.Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos

Datos estructurados (Structured Data): Datos que tienen bien definidos su longitud y su formato, como las fechas, los números o las cadenas de caracteres. Se almacenan en tablas. Un ejemplo son las bases de datos relacionales y las hojas de cálculo.

Datos no estructurados (Unstructured Data): Datos en el formato tal y como fueron recolectados, carecen de un formato específico. No se pueden almacenar dentro de una tabla ya que no se puede desgranar su información a tipos básicos de datos. Algunos ejemplos son los PDF, documentos multimedia, e-mails o documentos de texto.

Datos semiestructurados (Semistructured Data): Datos que no se limitan a campos determinados, pero que contiene marcadores para separar los diferentes elementos. Es una información poco regular como para ser gestionada de una forma estándar. Estos datos poseen sus propios metadatos semiestructurados que describen los objetos y las relaciones entre ellos, y pueden acabar siendo aceptados por convención. Un ejemplo es el HTML, el XML o el JSON.

Mineria de datos

La minería de datos es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. Utiliza los métodos de la inteligencia artificial, aprendizaje automático, estadística y sistemas de bases de datos. El objetivo general consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior.

Convertir los datos en información y la información en conocimiento (entendible)

Un proceso típico de minería de datos consta de los siguientes pasos generales:

1. Selección del conjunto de datos, tanto en lo que se refiere a las variables objetivo (aquellas que se

quiere predecir, calcular o inferir), como a las variables independientes (las que sirven para hacer el

cálculo o proceso), como posiblemente al muestreo de los registros disponibles.

2. Análisis de las propiedades de los datos, en especial los histogramas, diagramas de dispersión,

presencia de valores atípicos y ausencia de datos (valores nulos).

3. Transformación del conjunto de datos de entrada, se realizará de diversas formas en función del

análisis previo, con el objetivo de prepararlo para aplicar la técnica de minería de datos que mejor se

adapte a los datos y al problema, a este paso también se le conoce como preprocesamiento de los

datos.

4. Seleccionar y aplicar la técnica de minería de datos, se construye el modelo predictivo, de

clasificación o segmentación.

5. Extracción de conocimiento, mediante una técnica de minería de datos, se obtiene un modelo de

conocimiento, que representa patrones de comportamiento observados en los valores de las

variables del problema o relaciones de asociación entre dichas variables. También pueden usarse

varias técnicas a la vez para generar distintos modelos, aunque generalmente cada técnica obliga a

un preprocesado diferente de los datos.

6. Interpretación y evaluación de datos, una vez obtenido el modelo, se debe proceder a su

validación comprobando que las conclusiones que arroja son válidas y suficientemente

satisfactorias. En el caso de haber obtenido varios modelos mediante el uso de distintas técnicas, se

deben comparar los modelos en busca de aquel que se ajuste mejor al problema. Si ninguno de los

modelos alcanza los resultados esperados, debe alterarse alguno de los pasos anteriores para

generar nuevos modelos.

Visualización de datos

La visualización de datos es el proceso de búsqueda, interpretación, contrastación y comparación de datos que permite un conocimiento en profundidad y detalle de los mismos de tal forma que se transformen en información comprensible para el usuario.

Es un proceso utilizado por dispositivos digitales destinado a interpretar comparar y enseñar datos de manera clara para que el usuario pueda hacer un conocimiento comprensible y detallado de aquellos datos.

Ejemplo Many aces

Quick View

Periodismo de datos

El periodismo de datos puede ayudar a un periodista a contar una historia convincente por medio de infografías atractivas. Es la síntesis que puede generarse con el Big Data y la Minería de datos.

Es una especialidad dentro del periodismo que es destinado a recabar y compartir información a traves de un software especializado.

Dos fines:

1- coherencia de los contenidos2- Que todos puedan entrar a la plataforma

Narrativa Transmedia.

La narrativa transmedia, narración transmedia o narrativa transmediática (en inglés Transmedia storytelling), es un tipo de relato donde la historia se despliega a través de múltiples medios y plataformas de comunicación, y en el cual una parte de los consumidores asume un rol activo en ese proceso de expansión

Hack/hackers media party

La Hacks/Hackers BA Media Party es el evento productivo más ambicioso de América Latina donde la web abierta, el código abierto, el contenido y el conocimiento abierto se potencian con espíritu emprendedor para impulsar la innovación, de la mano de distintos periodistas y programadores que buscan ampliar los horizontes en la forma de comunicar.

Sonido Digital:

Indicá cuáles son los límites de la audición del ser humano

20 hertz a 20mil hertz

Cantidad de valores o niveles posibles para la anotación de una determinada intensidad de sonido – Cuantización,

Cantidad de muestras de intensidad de sonido tomadas durante tiempo determinado. – Tasa de muestreo,

Anotación de la intensidad de un sonido en períodos regulares durante un lapso determinado – Muestreo

La tasa de transferencia esUn modo de medir la cantidad de bits que se transmiten o procesan, Una variable que determina la calidad del audio digitalizado comprimido.

Calidad de Radio FM – 96 kbps, Calidad CD en MP3 – 196 kbps, Calidad de Radio AM – 32 kbps, Calidad CD audio sin compresión – 1411 kbps, Calidad de comunicación telefónica – 8 kbps

ALTURA: determinan si los sonidos son más graves o agudos. Está directamente relacionada con la frecuencia de oscilación. Más ciclos por segundo provocarán un sonido más agudo, menos ciclos, más grave.

TIMBRE: es lo que permite identificar y reconocer una voz o un instrumento musical. Es consecuencia de que los sonidos naturales con complejos y están compuestos por varias frecuencias que se combinan. La frecuencia más grave de ese sonido complejo se la denomina frecuencia base y es la que determina habitualmente la altura del sonido. El resto de las señales se denominan armónicos y son los que le otorgan identidad al sonido.

INTENSIDAD: depende de la diferencia entre las presiones máximas y mínimas que puede alcanzar el sonido. Se mide en decibeles y podemos asociarlas a la idea de volumen. Cuanto mayor amplitud de onda, más elevado será el volumen.

Longitud de onda y la frecuencia

La altura o amplitud de la onda representa su volumen, que queda determinado por la potencia de la fuente de sonido, o la fortaleza de la vibración que creó la onda de presión. Se mide en Db o Decibeles.

Como se convierte el sonido en digital

El sonido digital es un poco más complejo que el analógico, ya que no se almacena mediante oscilaciones de onda, sino que se ha de convertir en ceros y unos, lenguaje digital (código binario o máquina). El proceso de digitalización se compone de dos fases: muestreo y cuantización. En el muestreo se divide el eje del tiempo en segmentos discretos: la frecuencia de muestreo será la inversa del tiempo que medie entre una medida y la siguiente. Se trata entonces de la grabación de la altura actual de la onda de sonido a intervalos regulares. La longitud de estos intervalos se denomina, tasa de muestreo. Cada nivel o pico es una muestra y cuando las coloca todas juntas ordenadas forman una representación digital de la onda de sonido.

Tasa de transferencia o Bitrate Se trata de la cantidad de bits que se pueden transmitir o procesar durante un tiempo determinado. Habitualmente se mide por segundo. Así, podemos mencionar que existen tasas de transferencia para enlaces de internet, por ejemplo, de 512 kbps

videos Digital

Definimos al video genéricamente como una secuencia de imágenes fijas tomadas sucesivamente durante un lapso determinado a una velocidad específica de modo que al ser reproducidas a esa misma velocidad generan en el ser humano la sensación de una imagen en movimiento. En la mayoría de los casos, esas imágenes van acompañadas por audio.

Esta técnica se sostiene en lo que se conoce como Persistencia de la Visión (POV) que es la capacidad del ojo y el cerebro humano para interpretar imágenes estáticas sucesivas como si fueran continuas. En la definición inicial aparecen entonces algunas de las claves del video: La captura de tomas estáticas conocidas como fotogramas, cuadros o frames.La condición de que se emitan determinados cuadros o frames por segundo (Fps) para generar la sensación de movimiento. Eventualmente, la existencia de una pista de audio

La novedad que incorpora el video respecto de la fotografía entonces es la noción de cantidad de imágenes por segundo (fps), y sobre ese punto no hay mayor complejidad que simplemente conocer los estándares de cada formato para no incurrir en errores que perjudiquen la calidad del producto. Además habrá que considerar las condiciones para su grabación y reproducción en soporte digital, con criterios que el video digital comparte con el procesamiento del audio digital, y que veremos más adelante.

El resto de las características del video son compartidas con las de la fotografía. Cada uno de esos frames, como en el caso de las imágenes estáticas, contienen la siguiente información, determinada por los estándares de la industria:

La resolución: cantidad de píxeles que formarán esa imagen tanto a lo ancho como a lo alto, lo que además de la calidad de la imagen y el tamaño o superficie de la pantalla, nos dará:

La relación de aspecto: es decir, cuánto más ancho que alto será el cuadro.

La profundidad de color. Relacion aspecto

La relación de aspecto es un par de números que expresa el achatamiento de una imagen o video. Los videos digitales así como las emisiones de televisión digital han modificado la relación de aspecto de la televisión y los videos analógicos a las proporciones “panorámicas” más cercana al cine.

TV digital de alta definición – 16:9, TV analógica – 4:3, Cine – 21:9

Resolución La resolución de un video, como en el caso de una fotografía, está condicionada a las condiciones de captura original de esas imágenes, y más precisamente a la cantidad de píxeles en los que descompuso la toma el CCD de la cámara, que es el es el sensor con células fotoeléctricas que registran la imagen. Es decir que remite directamente a la cantidad de píxeles dispuestos a lo ancho por la cantidad de píxeles a lo alto. Los estándares de la industria para la captura de video están relacionados con la relación de aspecto de cada tecnología, pero no se deben confundir ambos conceptos: se puede tener diferentes resoluciones posibles en una misma relación de aspecto.

Tasa de transferencia

De la elevada cantidad de bits que requiere un archivo de video surge la importancia de un concepto que ya abordamos para los archivos de audio: la tasa de transferencia, también denominada tasa de bits o bitrate. Se trata de una forma de medir la cantidad de información contenida en un flujo o secuencia de video para su reproducción, atendiendo a que el tiempo en que se reproduce es un dato central para el caso de un video en la medida en que, por ejemplo, un videoclip de 3 minutos, debe ser reproducido necesariamente en ese tiempo. Es decir, el tiempo que demora un sistema para reproducir una fotografía puede ser mayor o menor, pero nunca afecta a la exhibición misma de la imagen, toda vez que no requiere un tiempo establecido de visualización.

Compresión de video

Con semejantes números queda claro que es necesario aplicar eficientes algoritmos de compresión para tornar manipulables los archivos de video digital.

Intraframe: se trata de un sistema de compresión similar al que aplica el formato jpg en las imágenes estáticas. Básicamente encuentra información similar en un conjunto de píxeles que promedia y unifica, quitando leves diferencias de color que no son detectadas por la percepción humana. Así, cada frame termina teniendo un tamaño muy inferior al original.

Interframe: deja de lado datos redundantes entre diferentes frames o cuadros de una imagen. Así, cuando detecta que la información no cambia, como una pared detrás de un entrevistado, la repite entre cada cuadro, renovando exclusivamente la información de los

píxeles que sí sufren modificaciones, como los del rostro de la persona que habla. Es decir que sólo se guarda la información de los píxeles que difieren entre un frame y otro. La compresión temporal entonces implica analizar una secuencia de video de modo que no sea necesario transmitir todos los fotogramas consecutivos, sino que se codifique un fotograma y luego sólo la diferencia entre éste y sus fotogramas cercanos. Esto permite que las secuencias en donde los datos son redundantes (porque existen muy pocas variaciones entre fotogramas consecutivos) se consigan factores de compresión muy elevados, ya que la diferencia entre ellos es prácticamente nula.

Formatos de video

AviMpegMkv MovWmvFlv

Códecs La palabra códec proviene de la conjunción de los términos COmpressor / DECompressor, y se denomina a un esquema o algoritmo de compresión y descompresión para video y audio, que permite disminuir el tamaño de los archivos sin pérdida significativa de calidad para que puedan ser manipulados y transferidos.

El mpeg2 es el codec que se utiliza para la tv de alta definicion

Streaming de video En la navegación por Internet es necesario descargar previamente el archivo (página HTML, imagen JPG, audio MP3, etc.) desde el servidor remoto al cliente local para luego visualizarlo en la pantalla de este último.

Revolución horizontal (5 paradigmas)

Hablamos y debatimos sobre una primera etapa en la que "los usuarios sólo leen" en la red. Son ellos los que se encargan de buscar la información en el entorno y comprobar su veracidad, generando una relación de tipo unidireccional y pasiva, similar al libro. En este período, que abarca el lapso comprendido entre 1985 y 1992, las redes sólo participaban a comunidades académicas y, de a poco, comenzaron a extenderse, mediante la apertura de los protocolos TCP/IP. Tampoco había buscadores, sino directorios que contemplaban las páginas que circulaban en la red, donde los propios usuarios debían rastrear la información. La relación era totalmente impersonal y generalizada.   En una segunda etapa, entre 1993 y 1996, los usuarios pasaron a tener una interacción de tipo "básica", desarrollando al menos tres funciones: la búsqueda de información relevante, la percepción de aquello que se necesitaba del entorno y la leve adquisición de una identidad o personalidad on line. Esto último comenzó a gestarse gracias a páginas de venta comercial y de remate como Amazon y E-bay. Esta última fue un punto de inflexión en Internet, ya que comenzó a darle a los usuarios las herramientas para poder manejarse en ella y decidir qué adquirir e incluso comprar en línea. Los juegos también hicieron lo suyo. El desarrollo del FPS por parte de Doom permitió que los usuarios desarrollen otra subjetividad con el medio, siendo protagonistas en primera persona y ya no en tercera. Son famosos los juegos de tiradores y shooting.Con el surgimiento de la burbuja de las puntocom y el nacimiento de los buscadores como los conocemos hoy, nace la tercera etapa, entre 1997 y 2000. En este período es que se implementa el concepto de relevancia en la búsqueda de información. Ya no es el usuario el que debe darle un orden de importancia. Fueron los desarrolladores de Google los que crearon el "Page Rank", un algoritmo complejo que permite "rankear" los resultados de las búsquedas en respuesta a determinadas variables, entre ellas las páginas más visitadas, la antiguedad del dominio de la misma y la cantidad de coincidencias entre el contenido de esa página y la palabra o dato buscado. Además, es aquí que aparece la figura del "peer" o la quinta P, que ya veremos más adelante, pero que tiene que ver con este nuevo usuario, que ya no sólo está en internet, sino que interactúa con ella y con los otros usuarios. En esta etapa se toma fundamental conciencia del nivel de interacción y participación que va tomando el usuario, que aunque aún es limitada va en clara aceleración.El cuarto paradigma surge tras la psicosis generada por el famoso virus "Y2K", que amenazaba con un retroceso en todos los sistemas informáticos ante el cambio de milenio, algo que finalmente no sucedió. Si de algo sirvió la amenaza fue para que todos los sistemas de la red mejoraran sus plataformas. Este robustecimiento de las mismas fue lo que permitió el gran desarrollo de redes sociales, e banking y e-commerce con las que contamos hoy. Así, se dio paso a la "cloud  computing" o nube, un espacio ubicuo, permanente y de encuentro que tuvo una gran ventaja para los usuarios: el poder manejar cualquier tipo de software y hardware desde la propia nube, esto es programas y equipos alojados fuera de la PC pero accesibles desde cualquier computadora del mundo con acceso a Internet.  En esta etapa, además, la interacción es inevitable y hace que los peer se transformen en productores de contenido. Se rompe con la lógica de emisor activo y receptor pasivo para dar con un usuario productor, editor y distribuidor de contenidos que cumple todos los roles. Es en 2001 que nace Wikipedia, la enciclopedia interactiva y políglota que es desarrollada de forma colaborativa, caso paradigmático de esta etapa, que comprendió desde 2001 hasta 2004. 

De ese año en adelante es que surge la quinta y última etapa, donde el usuario es la Web. Con esta afirmación nos referimos a la segunda generación de Internet, con el nacimiento de la Web 2.0 basada en comunidades de usuarios y nuevos servicios, como redes sociales, blogs y otras plataformas de carácter colaborativo. Es aquí donde la interacción entre el usuario y la red pasa a ser extrema, pasando gran cantidad de horas en internet y transformándose cada uno de ellos en parte del contenido. Facebook y Twitter abren un nuevo mundo, no sólo en materia de entretenimiento y comunicación sino también como nuevas "plataformas de periodismo ciudadano". Son los propios peers los primeros en enterarse de las noticias porque son ellos mismos los protagonistas de las mismas y los que las hacen públicas por medio de estas redes. En materia de marketing, algo que veremos más adelante, es el peer el que se transforma en el gerente de las marcas, decidiendo en base a su gusto qué es lo que se produce, cuándo y cómo. 

Captitulos V

Lo que hay que tener en cuenta para realizar un sitio web

prácticos vimos la importancia que tiene, en estos tiempos, para una empresa o proyecto comercial de cualquier tipo, contar con una página web. No sólo para captar nuevos clientes, que hoy en su gran mayoría consultan la www ante la búsqueda de cualquier producto o servicio, sino también para no quedar fuera del mercado, hoy extendido a las plataformas digitales.

Además, debatimos sobre la importancia de tener un sitio web bien desarrollado para lograr una ventaja económica, teniendo en cuenta que un sitio mal construido no es neutral para el negocio, sino una gran pérdida, que espantará a los posibles clientes.

Así, analizamos una serie de características que son necesarias tener en cuenta a la hora de construir un sitio web:

-         Una buena ingeniería

-         Una programación “elegante”

-         Un diseño estético y creativo, pero también orientado a la usabilidad

-         Que brinde la oportunidad de converger en redes de contenido

-         Que dé cuenta de un fuerte conocimiento del usuario y sus intereses.

-         Que pueda ser encontrado por los buscadores (indexación).

-         Contar con un blog independiente a la página.

-         Referenciar tráfico a otros sitios relevantes.

-Cuando hablamos de ingeniería nos referimos a un desarrollo estratégico, esto es que el sitio esté pensado en función de los objetivos de la empresa y de manera sólida.  Además, implica evaluar con anticipación qué uso se le quiere dar a la página.

-En cuanto a la programación del sitio, los desarrolladores utilizan la palabra “elegancia” para referirse a un correcto uso del código html, que debe ser empleado de manera legible y prolija. Este lenguaje de programación es el código fuente que justamente nos permitirá armar el sitio y diseñar la interfaz. Pero lo cierto es que de él depende también la famosa indexación.

Es necesario que el sitio haya sido armado con un correcto uso de estos lenguajes de programación (HTML/XML/FLASH/AJAX) para que el mismo pueda ser rastreado por los robots de Google. Como explicamos en clase, los “google bots” van a indexar a sus servidores todo aquello que consideren legible e interesante a su base de datos, mientras que todo aquello que esté mal programado (un título mal puesto, un botón mal ubicado) no va a ser tomado o rastreado por el buscador, por lo que tiene muchas chances de no ser visto en la Web.

 Explicamos que no se debe abusar de herramientas de aplicación multimedia como FLASH o AJAX porque, en ese caso, los robots sólo leerán URL y título de la página, ignorando el contenido, donde no podrán ver tampoco la capacidad de navegación del usuario, indexando desfavorablemente la página.

-  El diseño de la página no sólo debe ser estético y/o creativo, sino también pensado en cuanto a facilidad de uso. Como bien dijimos, una página que no muestra bien en claro sus objetivos, que tiene un mecanismo complejo de manejo o información oculta o bien que hace que el usuario se pierda en ella es muy probable que no funcione, ya que los clientes se irán de la misma. La retirada es el principal mecanismo de defensa de los usuarios cuando la página no está bien desarrollada, lo que hará que se muden a un sitio que sí lo esté y que corramos con una fuerte desventaja económica para nuestro negocio.

La importancia de la usabilidad responde a la preponderancia que ha tomado el peer en la Web 2.0, el último paradigma de los analizados la clase anterior. 

-   La posibilidad de que la página tenga su contracara en redes sociales y blogs también es una herramienta necesaria. Las primeras nos abren a un mundo de publicidad y anunciantes (recuerden las “landing pages”), mientras que los blogs nos acercan a los clientes mediante un canal de comunicación ya no ligado a lo corporativo sino a lo comunitario.

-  Para conocer el perfil de nuestros usuarios y el funcionamiento de nuestro sitio una vez lanzado, hablamos de la importancia de herramientas como “Google Analytics”, que nos permite contar con estadísticas de comportamiento de los mismos a través de un servicio gratuito.  

Industrias culturales

El concepto de industria cultural fue implementado por los alemanes Adorno y Horkheimer en artículo “Industria Cultural. Iluminismo como identificación de masas”, en el que se refieren a este término como la capacidad de la economía capitalista, una vez desarrollados ciertos medios técnicos, para producir bienes culturales en forma masiva, en forma mas amplia, es el sector de la economía que se desarrolla en torno a bienes y servicios culturales como el entretenimiento, el arte, la arquitectura, el diseño, el turismo, la publicidad, entre otras. Este concepto se amplió y se denominó industria creativa implementado en el campo de la  economía cultural. Dentro de las industrias creativas se incluye mucho más que la producción de contenidos para los medios tradicionales (diarios, revistas, televisión abierta o de pago, cine, radio o publicidad) o para los medios digitales, como Internet, periódicos y revistas on-line, televisión y radio digital, móviles. Esa es solamente una parte de las industrias creativas que actualmente hacen parte de la Economía de la Cultura. Las industrias creativas incluyen también todas las formas artísticas de la alta cultura a la popular, como la artesanía, el diseño, el patrimonio cultural, el turismo cultural, los equipos culturales (museos, teatros, cines), así como el trabajo conjunto de la cultura, el turismo y la educación como forma de llegar al desarrollo sustentable.En este sentido, el concepto de industria cultural suele utilizarse a modo de sinónimo para referirse a la economía cultural, que es el estudio del comportamiento económico de diversos agentes en la producción, intercambio, distribución y consumo de bienes y servicios directamente relacionados con la producción cultural. Las industrias culturales, presentaron cambios con la llegada de las tecnologías digitales, en cuanto a su creación, a su producción y edición, a su distribución y a su consumo. En cuanto a su creación, hubo una disminución de los costos para producir contenidos, y se multiplicaron los puestos de trabajo en la cultura y la comunicación, requeridos por las nuevas redes. En producción y edición, hubo un abaramiento de los costos para los productos editoriales en un soporte material, como el libro, el disco, el video e incluso la prensa y la aparición de nuevos competidores y nuevas fuentes de financiación y la creación de enormes economías de escala que  siempre impulsaron a las Industrias Culturales a la concentración. En su distribución, el poder de los distribuidores se pone en cuestión, y hay una mayor rentabilidad y relación directa con el consumidor, en la comunicación on line la producción- edición se encuentra emancipada de su tradicional sumisión a la distribución.

Capitulo 6

Una nueva forma de hacer publicidad anunciar en internetEn el práctico del martes 8 de septiembre abordamos la gran cantidad de posibilidades que tienen los anunciantes en internet para dar a conocer sus marcas (productos o servicios) a través de herramientas que resultan más económicas para las empresas, pero que cuentan con un manejo totalmente distinto respecto de los anuncios tradicionales en los medios masivos. Para realizar una campaña publicitaria, hoy no es suficiente con pautar en medios

televisivos, gráficos o radiofónicos, sino que también es necesario hacerlo en el mundo on line, como consecuencia de la fragmentación de audiencias que se vive en la actualidad.

Una campaña publicitaria que deje afuera a portales digitales, sitios webs, foros o redes sociales es una campaña deficitaria o renga porque está dejando de lado a un número importante de potenciales clientes.

Apuntamos tres disciplinas o modalidades básicas a tener en cuenta:

-El Marketing display online, ideal para hacer campañas de branding (brand: marca)

-El Marketing en buscadores (SEM), eficiente para campañas de conversión.

- La Optimización en buscadores (SEO)

-El Marketing display online es considerada la técnica más tradicional debido a que la publicación de anuncios en sitios web fue una de las primeras formas de publicidad on line (esto es, tradicional no en sentido peyorativo). Suele emplear como herramienta al banner, ya sea en formato jpg, gif, png o rich media (donde el contenido es multimedia). Lo ideal en el caso de emplear este tipo de avisos es generarlos de forma no invasiva, de manera que sólo puedan desplegarse con el consentimiento del usuario para no interrumpir su visita al sitio y que no sea considerado algo molesto. Además, deben generar un impacto para poder lograr un efecto de recordación en los clientes. Si bien el marketing display no es la técnica que genera más clics, debido a que a diferencia de los buscadores los anuncios no aparecen al momento en que el usuario justamente “busca” adquirir un producto, es la modalidad que asegura más alcance y exposición, generando esa posibilidad de recordación y reconocimiento de la marca (branding), que hará que quienes hayan visto el anuncio, en un futuro tengan en cuenta a la marca a la hora de la búsqueda. Generalmente estos banners llevan a sitios institucionales de las empresas, aunque cada vez más se utilizan landing pages de tipo interactivas.

-En el caso del SEM, a diferencia de la recordación y el posicionamiento de la marca mediante banners, se emplea la compra de palabras clave. Se trata de adquirir (se realiza por subasta) aquellas que logran definir nuestro producto o servicio para que, una vez que el usuario escriba esa palabra en Google, el buscador arroje con prioridad esos “enlaces patrocinados”. Generalmente los ubica arriba o debajo de los resultados naturales, pero siempre resaltados, o bien en una columna ubicada del lado derecho. En este caso no se paga por la ubicación o la duración de los anuncios sino que por clic’s. Se abona por cada peer que accede a nuestra marca mediante esta técnica. Como el display es ideal para las campañas de branding, el SEM suele serlo para las de conversión, que son las que impulsan al usuario a realizar una acción concreta, ya sea completar un formulario, realizar una encuesta, suscribirse a un newsletter, etc. Es importante resaltar que en el caso del display, muchas empresas también optan por este tipo de estrategia, en la que la landing page ya no es un sitio institucional sino una página interactiva. Recuerden el ejemplo de la marca de snack’s, donde además de invitar a “jugar” a los clientes luego se los encuestaba sobre cuáles de sus productos hoy no comercializados les gustaría que volviesen a venderse, haciendo un trabajo de mercadeo sin costos para la empresa.

-En el caso del SEO se trata de la optimización del sitio y de su contenido para que el mismo sea indexado por los buscadores y logre un buen posicionamiento en los resultados “orgánicos” o “naturales” de las búsquedas. Para esto, como ya dijimos en clases anteriores, es necesario que el sitio cuente con una programación elegante, con HTML legible y una buena arquitectura en general. Además, es importante el concepto de relevancia, la página debe ser relevante para sus usuarios y generar, a su vez, varios enlaces a páginas relevantes para lograr un mayor “Page Rank” en Google. Todo esto será tenido en cuenta por los motores de búsqueda a la hora de indexar nuestro sitio y arrojarlo dentro de sus resultados orgánicos o naturales, que aunque no tenga costo económico es una de las estrategias más difíciles de lograr y la que más visitas asegura.

Si bien la elección de la modalidad depende del tipo de producto, hoy suelen emplearse o cruzarse las modalidades y las estrategias. Dijimos que hay una clara sinergia entre Display y SEM, ya que mientras el primero nos asegura el alcance de nuestros anuncios, el segundo nos garantiza más clic’s. También es necesario tener en cuenta que para lograr un buen SEM es necesario contar con un buen SEO (recuerden que el “Quality score” requiere que las palabras clave sean encontradas en nuestro sitio) y también elegir las correctas “keywords”. Un apoyo aquí es Google Ad Words, que nos ayuda a definir las palabras relevantes para nuestro sitio o marca y nuestra landing page.

Recuerden también la importancia que cobran en este tiempo las Ad Networks, contactando anunciantes que buscan pautar con sitios que quieren hostear los avisos, sobre todo ante la ampliación de los lugares donde se publica, ya no sólo en grandes medios sino también en redes sociales, blogs y otras web 2.0

Cambian los medios, cambian los comunicadores            

En la clase del martes 15 de septiembre vimos y analizamos cómo se modificó el rol del periodista y el comunicador en los últimos años. Con ese fin comenzamos evaluando cómo han mutado los medios de comunicación y las formas de comunicar en sí y, a su vez, cómo este fenómeno responde, en realidad,  a cambios en la propia sociedad.

Mencionamos que los medios de comunicación de masas son producto de la llamada cultura de masas, de la sociedad moderna e industrial y de la llamada democracia de masas, nacida a la luz del sufragio universal, secreto y obligatorio. Analizamos cómo la sociedad de nuestros días se ha fragmentado y atomizado y, sobre todo, cómo esto ha impactado en el funcionamiento de los medios, que dejaron atrás una lógica vertical de funcionamiento (recuerden el concepto de broadcasting) para adoptar una de tipo horizontal y más interactiva.

De ahí que si las sociedades y, por ende, los medios cambian, también deban hacerlo los profesionales vinculados o dedicados al área de la comunicación.

Una vez establecido esto, avanzamos al sostener que hoy las coberturas informativas son multimedia/ multiplataforma y, por lo tanto, más complejas, requiriendo profesionales avezados en el tema.

Hablamos de tres procesos que tienen lugar en las redacciones y en casi todas las industrias culturales:

Desaparición de figuras profesionales tradiciones Aparición de perfiles polivalentes Nuevas Rutinas productivas

 En este marco definimos el concepto de Periodistas multimedia y nos referimos a:

 -Periodistas multiárea: asume múltiples labores de redacción que antes eran desarrolladas por distintos profesionales.

-Periodistas multiplataforma: no sólo produce el contenido informativo sino que también es quien se encarga de difundirlo a través de múltiples canales de comunicación, ajustando sus textos a las características de cada medio.

Dijimos que en ambos casos el trabajo del  periodista se vuelve vertical, ya que asume mayor protagonismo y presencia en el proceso de producción informativa.

Así, este nuevo perfil del periodista no sólo debe conocer las reglas básicas del periodismo y el manejo de los medios tradicionales, sino también adquirir conocimiento sobre las nuevas herramientas para comunicar y el manejo de las plataformas digitales.  Aquí hablamos de multitasking, sistemas de administración de contenido (CMS), tags y SEO, enlaces, fotografía y hasta la importancia del

manejo de las redes sociales, tanto para publicar en ellas como para no quedar afuera del fenómeno conocido como “Periodismo ciudadano”.

En ese sentido, vimos cómo se han modificado las rutinas productivas de los trabajadores de la comunicación y algunos conceptos históricos en el ejercicio, como los de “fuente” y “agenda setting”. En este punto, aclaramos la importancia de seguir conservando las reglas periodísticas básicas, como el chequeo de información.

Está entrenado para realizar varias tareas al mismo tiempo. – Multitasking,

Difunde sus contenidos informativos a travès de mùltiples canales, ajustando sus textos a cada medio. – Multiplataforma.,

Asume múltiples labores de redacción, antes realizados por distintos profesionales. – Multiárea,

Tiene un perfil multidisciplinario y es eficaz para realizar distintas acciones. – Polivalente.

¿Cuál es la tradicional teoría del establecimiento periodístico de los temas de discusión que hoy es puesta a prueba con la llegada de las nuevas tecnologías y la mayor participación de los peers en la comunicación? Agenda Setting

Periodismo Ciudadano

El periodismo ciudadano o periodismo participativo o periodismo público o periodismo

democrático1 (en inglés periodismo guerrilla2 o periodismo de la calle3 ) es un movimiento en el que son los propios ciudadanos quienes se convierten en informadores.