Unidad 1 - 2013 - Apunte

73
UNIVERSIDAD NACIONAL DE RIO NEGRO 2013 Taller de Informática y TICs Unidad 1: Modulo Introductorio Ing. Pablo Argañaras, Ing. Gabriel Ruffini, Lic. Noelia Verdún, A.S. Hector Ruiz, Lic. Patricia Punklett, Lic. Damian Merlo, Mg. Hector Luis Vivas, Dra. Paola V. Britos S EDE A NDINA - A TLÁNTICA

Transcript of Unidad 1 - 2013 - Apunte

Page 1: Unidad 1 - 2013 - Apunte

UNIVERSIDAD NACIONAL DE RIO NEGRO

2013

Taller de Informática y TICs

Unidad 1: Modulo Introductorio Ing. Pablo Argañaras, Ing. Gabriel Ruffini, Lic. Noelia Verdún, A.S.

Hector Ruiz, Lic. Patricia Punklett, Lic. Damian Merlo, Mg. Hector Luis Vivas, Dra. Paola V. Britos

S E D E A N D I N A - A T L Á N T I C A

Page 2: Unidad 1 - 2013 - Apunte

2

Contenido

1. Definición de conceptos generales .................................................................................................................................................. 5

1.1. Informática ...................................................................................................................................................................................... 5

1.2. La importancia del uso de las TICs en los distintos ámbitos profesionales .......................................................... 6

1.2.1. Consideraciones previas ................................................................................................................................................... 6

1.2.2. Carreras pertenecientes a la escuela de Docencia, Humanidades y Estudios Sociales .......................... 7

1.2.3. Carreras pertenecientes a la escuela de Economía, Administración y Turismo ....................................... 7

1.2.4. Carreras pertenecientes a la escuela de Producción, Tecnología y Medio Ambiente ............................. 7

1.3. Computadora .................................................................................................................................................................................. 7

1.3.1. Una visión esquemática .................................................................................................................................................... 8

1.3.2. Arquitectura .......................................................................................................................................................................... 8

1.3.3. Otros conceptos.................................................................................................................................................................... 9

1.4. Hardware ....................................................................................................................................................................................... 10

1.4.1. Historia ................................................................................................................................................................................. 11

1.4.2. Tipos de hardware ........................................................................................................................................................... 11

1.5. Software ......................................................................................................................................................................................... 16

1.5.1. Clasificación del software ............................................................................................................................................. 17

1.5.2. Proceso de creación de software ............................................................................................................................... 17

1.5.3. Tipos de software ............................................................................................................................................................. 17

1.6. Concepto de Dato e Información ......................................................................................................................................... 19

1.6.1. Erase una vez un dato… ................................................................................................................................................. 19

1.6.2. Procesamiento de la Información .............................................................................................................................. 20

2. Información digital .............................................................................................................................................................................. 22

2.1. Presentación y representación de la Información ....................................................................................................... 22

2.2. Digitalización de textos............................................................................................................................................................ 22

2.3. Digitalización de imágenes..................................................................................................................................................... 23

2.3.1. Bits por pixel ...................................................................................................................................................................... 23

2.3.2. Resolución ........................................................................................................................................................................... 24

2.3.3. Tipos de archivos .............................................................................................................................................................. 24

2.3.4. Audio digital ....................................................................................................................................................................... 25

2.3.5. Video digital ........................................................................................................................................................................ 26

3. Redes de datos e Internet ................................................................................................................................................................. 28

3.1. Comunicación de Datos ........................................................................................................................................................... 28

3.1.1. Introducción ....................................................................................................................................................................... 28

3.1.2. Conceptos Elementales de Redes .............................................................................................................................. 28

3.1.3. Componentes Básicos de una Red de Computadoras........................................................................................ 29

3.1.4. Ancho de Banda Digital .................................................................................................................................................. 29

3.1.5. Infraestructura de Comunicaciones ......................................................................................................................... 30

3.1.5.1. Mensaje ................................................................................................................................................................................. 30

3.1.5.2. Dispositivos Físicos de Red .......................................................................................................................................... 30

Page 3: Unidad 1 - 2013 - Apunte

3

3.1.6. Medios de Transmisión .................................................................................................................................................. 31

3.1.6.1. Medios Guiados ................................................................................................................................................................. 31

3.1.6.2. Medios No Guiados .......................................................................................................................................................... 32

3.1.7. Clasificación de Redes por relación funcional ...................................................................................................... 33

3.1.7.1. Redes Punto a Punto ....................................................................................................................................................... 33

3.1.7.2. Redes Cliente-Servidor................................................................................................................................................... 33

3.1.8. Clasificación de Redes por Alcance ........................................................................................................................... 33

3.1.8.1. Redes de Área Personal (PAN).................................................................................................................................... 34

3.1.8.2. Red de Área Local (LAN) ............................................................................................................................................... 34

3.1.8.3. Red de Área Metropolitana (MAN) ........................................................................................................................... 36

3.1.8.4. Red de Área Amplia (WAN) .......................................................................................................................................... 36

3.2. Internet........................................................................................................................................................................................... 37

3.2.1. Características ................................................................................................................................................................... 37

3.2.2. Intranet ................................................................................................................................................................................. 38

3.2.3. Extranet ................................................................................................................................................................................ 38

3.2.4. Tendencias de Internet .................................................................................................................................................. 38

3.2.5. Opciones de Conexión a Internet ............................................................................................................................... 39

3.2.5.1. Cable Módem ..................................................................................................................................................................... 39

3.2.5.2. Conexión ADSL .................................................................................................................................................................. 40

3.2.5.3. Acceso Inalámbrico.......................................................................................................................................................... 41

3.2.6. Internet y su uso ............................................................................................................................................................... 42

3.2.7. Historia ................................................................................................................................................................................. 43

3.2.8. Internet y sociedad .......................................................................................................................................................... 44

4. Software de base y de aplicación .................................................................................................................................................. 47

4.1. Software de base ........................................................................................................................................................................ 47

4.2. Software de aplicación ............................................................................................................................................................. 47

4.3. Windows y Linux ........................................................................................................................................................................ 48

4.3.1. Windows .............................................................................................................................................................................. 48

4.3.2. Linux ...................................................................................................................................................................................... 48

4.4. Software de aplicación para Windows y Linux .............................................................................................................. 50

5. Las caras del software libre ............................................................................................................................................................. 52

6. Uso correcto de la PC .......................................................................................................................................................................... 55

6.1. Cuida tus ojos frente a la computadora ............................................................................................................................ 55

6.2. Correctas posturas frente a la Computadora.................................................................................................................. 56

6.3. Ejercicios de estiramiento al trabajar con el PC ............................................................................................................ 59

7. Seguridad de la Informacion ........................................................................................................................................................... 60

7.1. Objetivo .......................................................................................................................................................................................... 60

7.2. Alcance ........................................................................................................................................................................................... 60

7.3. Desarrollo de conceptos .......................................................................................................................................................... 60

7.3.1. Seguridad de la información ........................................................................................................................................ 60

7.3.1.1. ¿Qué es la seguridad de la información? ....................................................................................................... 60

Page 4: Unidad 1 - 2013 - Apunte

4

7.3.1.2. ¿Por qué es necesaria la seguridad de la información? ......................................................................... 61

7.3.1.3. El esquema de Seguridad de la Información ............................................................................................... 61

7.3.1.4. Administración de riesgos y controles........................................................................................................... 62

7.3.1.5. Vulnerabilidades más conocidas y métodos de protección .................................................................. 63

7.3.1.6. Concientización de usuarios............................................................................................................................... 66

7.3.1.7. Continuidad de las actividades de sistemas ................................................................................................ 67

7.3.2. Legislación ........................................................................................................................................................................... 68

7.3.3. Conclusiones ....................................................................................................................................................................... 69

7.3.4. Glosario ................................................................................................................................................................................. 69

8. Trabajo Práctico ................................................................................................................................................................................... 71

9. Bibliografía ............................................................................................................................................................................................. 72

10. Recursos multimediales ............................................................................................................................................................... 73

Page 5: Unidad 1 - 2013 - Apunte

5

1. Definición de conceptos generales

1.1. Informática

De acuerdo a Wikipedia (Wikipedia, 2009), el vocablo informática proviene del francés informatique, acuñado por el Ing. Philippe Dreyfrus en 1962. Es un acrónimo de las palabras information y automatique (información automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación.

En el Diccionario de la Real Academia Española se define informática como: Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.

Conceptualmente, se puede entender como aquella disciplina encargada del estudio de métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadores), con el fin de almacenar, procesar y transmitir información y datos en formato digital, por lo tanto la electrónica juega un papel muy importante en la informática ya que mediante esta ciencia se puede entender a plenitud el entorno de hardware y software.

La informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También está definida como el procesamiento automático de la información. De acuerdo a lo indicado, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: Captación de la información digital. Proceso: Tratamiento de la información. Salida: Transmisión de resultados binarios.

En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia directa una disminución de los costes y un incremento en la producción.

En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos (como Internet), la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas.

Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Una de la aplicaciones más importantes de la informática es facilitar información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos.

Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas, hasta cálculos científicos complejos.

La informática es un amplio campo que incluye los fundamentos teóricos, el diseño, la programación y el uso de las computadoras (ordenadores). Las computadoras actuales son fruto de la actividad creadora del hombre, para dar respuesta a necesidades crecientes de la sociedad, en relación con la conservación, procesamiento y acceso a colosales volúmenes de información. Algunos momentos principales en ese proceso de desarrollo son los siguientes:

En el siglo XIX, el matemático e inventor británico Charles Babbage, elaboró los principios de la computadora digital moderna.

En la década de los años 40 del siglo XX, se creó el primer ordenador digital totalmente electrónico. En la década de los años 1980 se crearon los microordenadores, comúnmente denominados PC

(Computador Personal).

Page 6: Unidad 1 - 2013 - Apunte

6

En la década de los años 1990 se produjo un desarrollo acelerado de los microprocesadores; se crearon los primeros microprocesadores Pentium y consecuentemente una nueva generación de microordenadores.

Actualmente se dice que estamos entrando en una nueva generación (la nanotecnología).

Algunos campos de aplicación son:

Fundamentación matemática: Álgebra de Boole, Matemática discreta, Lógica matemática. Informática teórica: Algoritmos, Complejidad computacional, Teoría de la computabilidad, Lenguajes

formales, Lenguajes imperativos, Lenguajes declarativos, Semántica denotacional, Teoría de grafos, Teoría de la información, Teoría de la computación.

Hardware: Sistemas Digitales, Circuitos integrados, Robótica, Máquina analítica. Software: Programas, Algoritmos, Programación, Programación concurrente, Programación paralela,

Lenguajes de programación, Paradigmas de programación, Ingeniería de software, Modelado del software, Optimización, Orientación a objetos, Patrones de diseño, Sistemas operativos, Entornos gráficos de usuario, Compiladores, Software libre y Código abierto.

Software Empresarial: Inteligencia empresarial, Comercio electrónico, Sistemas de información gerencial, Almacén de datos, Explotación de Información (datamining), Intranet , Backup remoto.

Tratamiento de la información: Adquisición de datos, Tipo de dato abstracto, Estructura de datos, Tipos de datos, Formato de almacenamiento, Compresión de datos, Bases de datos, Criptografía, Multimedia, Diseño web, Computación gráfica, Retoque imagen 2D y 3D , Visualización.

Metodologías específicas: Benchmark, Seguridad, Criptografía, Inteligencia artificial, Lingüística computacional, Modelado y Simulación, Reconocimiento de patrones, Reconocimiento del habla, Computación de alto rendimiento, Computación en tiempo real, Extracción de la información.

Aplicaciones. Matemáticas: Álgebra computacional, Análisis numérico, Computación gráfica. Científicas: Química computacional, Física computacional, Bioinformática, Interacción hombre-

máquina.

1.2. La importancia del uso de las TICs en los distintos ámbitos profesionales

¿Qué es TICs?, las TICs es la Tecnología de la Información y las Comunicaciones, o sea, es el conjunto de tecnologías aplicadas para el procesamiento electrónico y la transmisión de datos.

Mucho se ha escrito acerca de cómo la Tecnología de la Información y las Comunicaciones (TICs) se encuentran involucradas en nuestra vida cotidiana, favorecen nuestro desarrollo profesional y proveen valiosas herramientas para la realización de actividades tanto laborales, académicas o particulares. El presente punto tiene como objetivo describir estas facilidades desde una visión práctica orientada a las carreras que se dictan en la UNRN.

1.2.1. Consideraciones previas Es un tema de constante discusión y actualización el contenido de las materias de informática en los programas educativos. Es una afirmación válida que cualquier formación universitaria deba incluir una base de TICs que permita al futuro profesional poder utilizar herramientas informáticas afines a su tarea, dimensionar necesidades de equipamiento y poder asistir a profesionales de Sistemas en el desarrollo de nuevas herramientas que apliquen a su profesión. No se pretende que tenga el conocimiento de un profesional de sistemas, pero si la base necesaria para poder entenderse con uno.

Page 7: Unidad 1 - 2013 - Apunte

7

1.2.2. Carreras pertenecientes a la escuela de Docencia, Humanidades y Estudios Sociales En las carreras asociadas a esta escuela quizás es donde la relación con las TICs no parezca evidente en una primera mirada, pero al bajar un poco de nivel se pueden descubrir muchas herramientas útiles que proveen un adecuado soporte a las actividades que se desarrollan en las mismas, por ejemplo:

Buscadores de contenidos.

Diccionarios digitales.

Digitalizadores y editores multimedia. Equipos de grabación y reproducción de audio y/o video.

Herramientas de traducción de contenidos.

Herramientas para procesar texto, armar publicaciones, presentaciones, afiches comerciales, etc.

Herramientas de diseño gráfico, entre otras.

1.2.3. Carreras pertenecientes a la escuela de Economía, Administración y Turismo Para estas carreras en particular, son muy útiles las herramientas de cálculo, análisis de datos, generadores de reportes y gráficos, herramientas de estadística, simuladores y sistemas para soporte de decisiones.

Por ejemplo: desde una base de datos se puede registrar una historia de transacciones de una determinada empresa, se puede hacer un análisis de la historia realizando una minería de datos, la cual puede detectar patrones de comportamiento de variables relevantes en los datos históricos. Luego puede hacerse un control y seguimiento de esas variables. Sobre la base de los mismos pueden realizarse predicciones y análisis estadísticos, y obtener información valiosa que sirve como materia prima para la toma de decisiones estratégicas.

1.2.4. Carreras pertenecientes a la escuela de Producción, Tecnología y Medio Ambiente En este caso podemos destacar una excelente sinergia entre lo profesional y las TICs. Pueden aplicarse la mayoría de las herramientas mencionadas arriba y se suman los sistemas específicos de cada disciplina, por ejemplo para diseño (como los programas CAD), sistemas expertos que facilitan la elaboración y prueba de diseños, sistemas de medición, sistemas que permiten la elaboración y ensayo de modelos de distinta índole, etc.

Por ejemplo: puede realizarse un modelo que simule el comportamiento de un sistema ambiental, registrar y analizar los datos obtenidos, ensayando diversas hipótesis y registrando los resultados. El trabajo con simulación y modelos es fundamental en las áreas de investigación.

1.3. Computadora

De acuerdo a Wikipedia (Wikipedia, 2009), una computadora (del latín computare -calcular), también denominada ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con gran precisión, rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento

La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

Page 8: Unidad 1 - 2013 - Apunte

8

1.3.1. Una visión esquemática Imaginemos una oficina, antes de la era de la PC (abreviatura de: Personal Computer: computadora personal), donde hay una persona trabajando en su escritorio y al lado un mueble del tipo fichero que contiene cajones donde la información está guardada en carpetas.

Podemos hacer una analogía diciendo que la persona (el procesador), es quien trae al área de trabajo (memoria RAM) desde el fichero (disco rígido) los documentos con los que va a trabajar (los cuales dentro del fichero están guardados en carpetas). Se despliegan en el escritorio los documentos y la persona opera sobre los mismos. Una vez que termina los vuelve a guardar en el fichero.

Estas son las operaciones básicas de una computadora. Hay un dispositivo de procesamiento (microprocesador) que controla el intercambio de información y realiza el procesamiento de los datos. Hay un espacio de almacenamiento temporario de los datos para operar con los mismos que llamamos “área de trabajo” (memoria RAM: Random Access Memory). Finalmente un espacio de almacenamiento definitivo de los datos (disco rígido) que permite guardar los trabajos realizados y el software que nos permite realizarlos.

Sobre la base de esta analogía podemos ver por qué es necesaria la memoria y cuál es la diferencia con el disco rígido. La diferencia de capacidad entre una memoria y un disco rígido en una PC de escritorio suele ser de 100 a 1 o mayores, lo cual es correcto, un área de trabajo demasiado grande deja de ser manejable así como no sería manejable que la persona trabaje en un escritorio de 10 metros de largo. Algo parecido ocurre con las velocidades de acceso, en el caso de un disco se habla de milisegundos y para las memorias de nanosegundos, o sea, un millón de veces más rápido. Salvando las distancias es mucho más rápido tomar un papel del escritorio que ir a buscarlo al fichero.

En conclusión: el área de trabajo debe ser un espacio de acceso rápido y capacidad acotada a lo que el microprocesador pueda manejar. Las 3 variables son fundamentales y deben tener cierto balance entre sí.

Normalmente cuando se quiere mejorar la performance de un ordenador, realizar una ampliación de memoria suele ser la mejor opción (es lo que más se aprecia en la práctica). El técnico que realice dicho trabajo deberá conocer hasta qué punto se puede ampliar la misma, sobre la base de las características técnicas del equipo, por ello es fundamental guardar los manuales y material técnico con que se suele entregar una computadora nueva.

1.3.2. Arquitectura Aunque las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron los primeros modelos en los años 40, la mayoría todavía utiliza la Arquitectura de von Neumann, publicada a principios de los años 1940 por John von Neumann, que otros autores atribuyen a John Presper Eckert y John William Mauchly.

Arquitectura de Von Neumann

Almacenamiento Procesamiento

Área de Trabajo

Page 9: Unidad 1 - 2013 - Apunte

9

La arquitectura de Von Neumann describe una computadora con 4 secciones principales: la unidad aritmético lógica (ALU por sus siglas del inglés: Arithmetic Logic Unit), la unidad de control, la memoria central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses:

La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las celdas contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece una pizarra que a una tabla (memoria ROM) que sólo puede ser escrita una vez.

El procesador (también llamado Unidad central de procesamiento o CPU) consta de:

Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la unidad de control; D es un estado de la salida

La unidad aritmético lógica o ALU es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.

La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).

Los dispositivos E/S sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.

1.3.3. Otros conceptos Algunas computadoras más grandes se diferencian del modelo anterior en un aspecto importante, porque tienen varias CPU y unidades de control que trabajan al mismo tiempo. Además, algunos computadores, usados principalmente para investigación, son muy diferentes del modelo anterior, pero no tienen muchas aplicaciones comerciales.

En la actualidad, se puede tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, siendo más usado el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. El sistema operativo es una especie de caja de herramientas lleno de rutinas. Cada vez que alguna rutina de computador se usa en muchos tipos diferentes de programas durante muchos años, los programadores llevarán dicha rutina al sistema operativo, al final.

El sistema operativo sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros

Page 10: Unidad 1 - 2013 - Apunte

10

programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.

En la actualidad se están empezando a incluir dentro del sistema operativo algunos programas muy usados debido a que es una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.

Las primeras computadoras digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de las primeras computadoras, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.

Con la invención del microprocesador en 1970, fue posible fabricar computadoras muy baratas. Las computadoras personales se hicieron famosas para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos. Calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadoras y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.

Al mismo tiempo, las pequeñas computadoras son casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo XXI, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.

Actualmente, las computadoras personales son usados desde usos de investigación hasta usos de entretenimiento (videojuegos), pero los grandes computadores aún sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.

Tal vez el más interesante "descendiente" del cruce del concepto de la PC o computadora personal, y los llamados supercomputadores, sea la WORKSTATION o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado en referencia a, propiamente, estaciones de trabajo (traducido literalmente del inglés) son equipos que debido esencialmente a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permite desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa. Los Workstation son en esencia, equipos orientados a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PC convencionales, aún con componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. El software es en estos casos, el fundamento del diseño del equipo, el que reclama junto con las exigencias del usuario, el diseño final del Workstation.

1.4. Hardware

De acuerdo a Wikipedia (Wikipedia, 2013), Hardware corresponde a todas las partes físicas y tangibles de una computadora: sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente al soporte lógico e intangible que es llamado software. El término proviene del inglés y es definido por la RAE como el "Conjunto de los componentes que integran la parte material de una computadora". Sin embargo, el término, aunque es lo más común, no necesariamente se aplica a una computadora tal como se la conoce, así por ejemplo, un robot también posee hardware (y software).

Page 11: Unidad 1 - 2013 - Apunte

11

A continuación se presentan los componentes básicos de hardware de una computadora:

1. Monitor 2. Placa base (o placa madre) 3. CPU (o microprocesador) 4. Memoria RAM 5. Tarjeta de expansión 6. Fuente de alimentación 7. Disco óptico 8. Disco duro (o disco rígido) 9. Teclado 10. Mouse

1.4.1. Historia La evolución del hardware, está dividida en generaciones, donde cada una supone un cambio tecnológico

muy notable. El origen de las primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo

cambios radicales: Los componentes esenciales que constituyen la electrónica del computador fueron

totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron

trascendentales. En las últimas décadas es más difícil establecer las nuevas generaciones, ya que los cambios

han sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se pueden distinguir:

1ª Generación (1945-1956): Electrónica implementada con tubos de vacío. Fueron las primeras máquinas que desplazaron los componentes electromecánicos (relés).

2ª Generación (1957-1963): Electrónica desarrollada con transistores. La lógica discreta era muy parecida a la anterior, pero la implementación resultó mucho más pequeña, reduciendo, entre otros factores, el tamaño de un computador en notable escala.

3ª Generación (1964-hoy): Electrónica basada en circuitos Integrados. Esta tecnología permitió integrar cientos de transistores y otros componentes electrónicos en un único circuito integrado conformando una pastilla de silicio. Las computadoras redujeron así considerablemente su costo y tamaño, incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas como las que existen en la actualidad.

4ª Generación (futuro): Probablemente se originará cuando los circuitos de silicio, integrados a alta escala, sean reemplazados por un nuevo tipo de tecnología.

La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la cuarta generación. A diferencia de los cambios tecnológicos anteriores, su invención no supuso la desaparición radical de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971, todavía a comienzo de los 80's había computadores, como el PDP-11/44, con lógica carente de microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido muy gradual.

Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es la aparición de los circuitos integrados VLSI, a principios de los ochenta. Al igual que el microprocesador no supuso el cambio inmediato y la rápida desaparición de los computadores basados en circuitos integrados en más bajas escalas de integración. Muchos equipos implementados con tecnologías VLSI y MSI aun coexistían exitosamente hasta bien entrados los 90.

1.4.2. Tipos de hardware Una de las formas de clasificar el Hardware es en dos categorías: por un lado, el "básico", que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora, y por

Page 12: Unidad 1 - 2013 - Apunte

12

otro lado, el "Hardware complementario", que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora.

Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y almacenadas en su memoria, ellas consisten básicamente en operaciones aritmético-lógicas y de entrada/salida. Se reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se producen las salidas (resultados del procesamiento). Por ende todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a alguna de las funciones antedichas; a saber:

1. Procesamiento: Unidad Central de Proceso o CPU

2. Almacenamiento: Memorias

3. Entrada: Periféricos de Entrada (E)

4. Salida: Periféricos de salida (S)

5. Entrada/Salida: Periféricos mixtos (E/S)

Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la información y datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información ingresada (transformación).

Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida, el ejemplo más típico es el disco rígido (ya que en él se lee y se graba información y datos).

A continuación se citan brevemente cada uno de los conceptos:

1. Unidad Central de Proceso

La CPU, siglas en inglés de Unidad Central de Procesamiento, es la componente fundamental del computador, encargada de interpretar y ejecutar instrucciones y de procesar datos. En los computadores modernos, la función de la CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a un CPU que es manufacturado como un único circuito integrado.

Un servidor de red o una máquina de cálculo de alto rendimiento puede tener varios, incluso miles de microprocesadores trabajando simultáneamente o en paralelo (multiprocesamiento); en este caso, todo ese conjunto conforma la CPU de la máquina.

Las unidades centrales de proceso (CPU) en la forma de un único microprocesador no sólo están presentes en las computadoras personales (PC), sino también en otros tipos de dispositivos que incorporan una cierta capacidad de proceso o "inteligencia electrónica"; como pueden ser: controladores de procesos industriales, televisores, automóviles, calculadores, aviones, teléfonos móviles, electrodomésticos, juguetes y muchos más.

El microprocesador se incorpora en la llamada placa madre, sobre un zócalo conocido como Socket de CPU, que permite además las conexiones eléctricas entre los circuitos de la placa y el procesador. Sobre el procesador y ajustado a la tarjeta madre se fija un disipador de calor, que por lo general es de aluminio, en algunos casos de cobre; éste es indispensable en los microprocesadores que consumen bastante energía, la cual, en gran parte, es emitida en forma de calor: En algunos casos pueden consumir tanta energía como una lámpara incandescente (de 40 a 130 vatios).

Adicionalmente, sobre el disipador se acopla un ventilador, que está destinado a forzar la circulación de aire para extraer más rápidamente el calor emitido por el disipador. Complementariamente, para evitar daños térmicos, también se suelen instalar sensores de temperatura del microprocesador y sensores de revoluciones del ventilador.

La gran mayoría de los circuitos electrónicos e integrados que componen el hardware del computador van montados en la placa madre.

Page 13: Unidad 1 - 2013 - Apunte

13

La placa madre, también conocida como placa base o con el anglicismo "board", es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás componentes por medio de: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una serie de buses con los cuales se trasmiten los datos dentro y hacia afuera del sistema.

La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye también la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc.

Las características fundamentales para identificar un procesador son: su velocidad, que se mide en GHz (Gigahertz – miles de millones de ciclos por segundo) y la cantidad de núcleos (un procesador de 2 núcleos equivale a 2 procesadores en uno, con lo cual puede realizarse procesamiento dual, mientras un procesador realiza una tarea, el otro realiza otra diferente).

(ver: http://es.wikipedia.org/wiki/Microprocesador).

2. Memoria RAM

Del inglés Random Access Memory, que significa literalmente "memoria de acceso aleatorio"; tal término se refiere a la cualidad de presentar iguales tiempos de acceso a cualquiera de sus posiciones (ya sea para lectura o para escritura). Esta característica también es conocida como "acceso directo".

La RAM es la memoria utilizada en una computadora para el almacenamiento temporal y de trabajo (no masivo). En la RAM se almacena temporalmente la información, datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria RAM también es conocida como la Memoria principal, Central o de Trabajo" de una

computadora; a diferencia de las llamadas memorias auxiliares y de almacenamiento masivo (como discos duros o cintas magnéticas).

Las memorias RAM son, comúnmente, de características volátiles; lo cual significa que pierden rápidamente su contenido al interrumpir su alimentación eléctrica.

También son "dinámicas" (DRAM), esto es, que tienen a perder sus datos (por descarga, aún bajo alimentación eléctrica), por lo cual necesitan un circuito electrónico específico que se encarga de proveerle un "refresco" (de energía) para mantenerlos.

La memoria RAM de una computadora se provee e instala en los llamados “módulos”. Estos módulos albergan varios circuitos integrados de memoria DRAM que, conjuntamente, conforman toda la memoria principal.

Los Módulo de memoria RAM son la presentación más común en computadoras modernas (computadora personal, servidor), son tarjetas de circuito impreso que tienen soldados circuitos integrados de memoria por una o ambas caras, además de otros elementos como resistencias y condensadores. La tarjeta posee una serie de contactos metálicos (con un recubrimiento de oro) que le permiten hacer conexión eléctrica con el bus de memoria del controlador de memoria en la placa base. Los integrados son

de tipo DRAM, memoria denominada "dinámica", en la cual las celdas de memoria son muy sencillas (un transistor y un condensador), permitiendo la fabricación de memorias con gran capacidad (algunos cientos de Megabytes) a un costo relativamente bajo. Las posiciones de memoria o celdas, están organizadas en matrices y almacenan cada una un bit. Para acceder a ellas se han ideado varios métodos

Page 14: Unidad 1 - 2013 - Apunte

14

y protocolos cada uno mejorado con el objetivo de acceder a las celdas requeridas de la manera más veloz posible.

Las características fundamentales para identificar una memoria son: Su capacidad, medida en GB (Gigabytes – miles de millones de bytes) y la velocidad de acceso.

(ver: http://es.wikipedia.org/wiki/Byte).

3. Periféricos

Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse con el exterior, esto es, tanto ingresar como exteriorizar información y datos. Los periféricos son los que permiten realizar las operaciones conocidas como de entrada/salida (E/S). Aunque son estrictamente considerados “accesorios” o no esenciales, muchos de ellos son fundamentales para el funcionamiento adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son elementos actualmente imprescindibles; pero no lo son un scanner o un plotter. Para ilustrar este punto: en los años 80, muchas de las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón), tenían sólo una o dos disqueteras, el teclado y el monitor como únicos periféricos.

3.1. Periféricos de entrada (E)

De esta categoría son aquellos que permiten el ingreso de información, en general desde alguna fuente externa o por parte del usuario. Los dispositivos de entrada proveen el medio fundamental para transferir hacia la computadora (más propiamente al procesador) información desde alguna fuente, sea local o remota. También permiten cumplir la esencial tarea de leer y cargar en memoria el sistema operativo y las aplicaciones o programas informáticos, los que a su vez ponen operativa la computadora y hacen posible realizar las más diversas tareas.

Entre los periféricos de entrada se puede mencionar: teclado, mouse o ratón, escáner, micrófono, cámara web , lectores ópticos de código de barras, Joystick, lectora de CD o DVD (sólo lectoras), placas de adquisición/conversión de datos, etc.

Pueden considerarse como imprescindibles para el funcionamiento, al teclado, mouse y algún tipo de lectora de discos; ya que tan sólo con ellos el hardware puede ponerse operativo para un usuario. Los otros son bastante accesorios, aunque en la actualidad pueden resultar de tanta necesidad que son considerados parte esencial de todo el sistema.

Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados láser), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).

El mouse o ratón es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo por ejemplo es inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón debe ser opaca, una superficie que no genere un reflejo.

Page 15: Unidad 1 - 2013 - Apunte

15

Un escáner es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital.

3.2. Periféricos de salida (S)

Son aquellos que permiten emitir o dar salida a la información resultante de las operaciones realizadas por la CPU (procesamiento).

Los dispositivos de salida aportan el medio fundamental para exteriorizar y comunicar la información y datos procesados; ya sea al usuario o bien a otra fuente externa, local o remota. Los dispositivos más comunes de este grupo son los monitores clásicos (no de pantalla táctil), las impresoras, y los parlantes.

Entre los periféricos de salida puede considerarse como imprescindible para el funcionamiento del sistema al monitor. Otros, aunque accesorios, son sumamente necesarios para un usuario que opere un computador moderno.

El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora. Hay diferentes tipos de monitores, los clásicos de tubo de rayos catódicos (o CRT) y los de pantalla plana, los de pantalla de cristal líquido (o LCD). Actualmente se usan más estas últimas, ya que mejoran el rendimiento de la computadora y a la hora de trabajar con ellos se daña menos la salud del usuario

Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas a la computadora por un cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. También hay impresoras multifuncionales que aparte de sus funciones de impresora funcionan como fotocopiadora y escáner.

3.3. Periféricos mixtos (E/S)

Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada como de salida. Típicamente, se puede mencionar como periféricos mixtos o de Entrada/Salida a: discos rígidos, disquetes, unidades de cinta magnética, lecto-grabadoras de CD/DVD, discos ZIP, etc. También entran en este rango, con sutil diferencia, otras unidades, tales como: Memoria flash, tarjetas de red, módems, placas de captura/salida de vídeo, etc.

Page 16: Unidad 1 - 2013 - Apunte

16

Si bien, puede ponerse al pendrive o Memoria flash o Memoria USB en la categoría de memorias, normalmente se las utiliza como dispositivos de almacenamiento masivo; y ellos son todos de categoría Entrada/Salida.

Los dispositivos de almacenamiento masivo también son conocidos como "Memorias Secundarias o Auxiliares". Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es el de mayor importancia en la actualidad, en él se aloja el sistema operativo, todas las aplicaciones, utilitarios, etc. que utiliza el usuario; además de tener la suficiente capacidad para albergar información y datos en grandes volúmenes por tiempo prácticamente indefinido. Los servidores Web, de correo electrónico y de redes con bases de datos, utilizan discos rígidos de grandes capacidades y con una tecnología que les permite trabajar a altas velocidades.

La Pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que además de mostrar información y datos (salida) puede actuar como un dispositivo de entrada, reemplazando, por ejemplo, algunas funciones del mouse y/o teclado.

El hardware gráfico lo constituyen básicamente las tarjetas de video que actualmente poseen su propia memoria y Unidad de Procesamiento, llamada unidad de procesamiento gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU es realizar exclusivamente procesamiento gráfico, liberando al procesador principal (CPU) de esa costosa tarea (en tiempo) para que pueda así efectuar otras funciones más eficientemente. Antes de las tarjetas de video con aceleradores, era el procesador principal el encargado de construir la imagen mientras la sección de video (sea tarjeta o de la placa base) era simplemente un traductor de las señales binarias a las señales requeridas por el monitor; y buena parte de la memoria principal (RAM) de la computadora también era utilizada para estos fines.

1.5. Software

Software, palabra proveniente del inglés (literalmente: partes blandas o suaves), que en nuestro idioma no posee una traducción adecuada al contexto, aunque no es estrictamente lo mismo, suele sustituirse por expresiones tales como programas (informáticos) o aplicaciones (informáticas).

La palabra software se refiere al equipamiento lógico o soporte lógico de una computadora, y comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware).

Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesador de textos, planillas de cálculo, diseñador de presentación, administración (simple) de datos que permite al usuario realizar todas las tareas concernientes a edición de textos, cálculos, presentaciones de diapositivas y registros de información ordenada; software de sistema, tal como un sistema operativo, el que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interfaz ante el usuario.

Software es lo que se denomina producto en la Ingeniería de Software (rama particular de la Informática que se dedica a producción de productos, ella a su vez esta divida en varias disciplinas).

Una definición más formal de software, dada IEEE (The Institute of Electrical and Electronics Engineers) en su estándar 729 de 1993 es la siguiente: “Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación.”

Bajo esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos estados: código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario es parte del software: es decir, abarca todo lo intangible, todo lo "no físico" relacionado.

En Ciencias de la Computación y en Ingeniería de Software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por Alan Turing en su ensayo de 1936, "Los números computables", con una aplicación al problema de decisión.

Page 17: Unidad 1 - 2013 - Apunte

17

1.5.1. Clasificación del software Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede

clasificar al software en tres grandes tipos:

Software de sistema o de base: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del computador en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:

Sistemas operativos, Controladores de dispositivo, Herramientas de diagnóstico, Herramientas de Corrección y Optimización, Servidores, y Utilidades.

Software de aplicación: Aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:

Aplicaciones de Sistema de control y automatización industrial, Aplicaciones ofimáticas, Software educativo, Software empresarial, Bases de datos, Telecomunicaciones (p.ej. internet y toda su estructura lógica), Videojuegos, Software médico, Software de Cálculo Numérico, Software de Diseño Asistido (CAD), y Software de Control Numérico (CAM).

1.5.2. Proceso de creación de software Se define como Proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr la obtención de un producto software que resuelva un problema.

Ese proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (ejemplo: resolución de una ecuación de segundo orden), éste puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) y/o costo: de Pequeño, Mediano y Gran porte. Existen varias metodologías para estimarlo, que calcula y provee una estimación de todos los costos de producción en un "proyecto software" (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.). Considerando los de gran porte, es necesario realizar tantas y tan complejas tareas, tanto técnicas, de gerenciamiento, fuerte gestión y análisis diversos (entre otras) que toda una ingeniería hace falta para su estudio y realización: es la Ingeniería de Software.

1.5.3. Tipos de software A continuación se presentan los tipos de software más conocidos:

Sistemas operativos: Windows, Linux, Mac OS X, Palm OS, MS-DOS ,

Page 18: Unidad 1 - 2013 - Apunte

18

OS/2, Solaris, Unix, Etc.

Suites ofimáticas: Microsoft Office, LibreOffice.org, Microsoft Works, Etc.

Procesadores de texto: Word, Writer, WordPerfect Office, Etc.

Hojas de cálculo: Excel, Calc, Lotus, Etc.

Programas de presentación: PowerPoint, Impress, Corel Presentations, Etc.

Aplicaciones gráficas: GIMP, Paint.NET, Photoshop, 3D Studio Max, CorelDRAW, ArchiCAD, AutoCAD, Etc.

Navegadores web: Internet Explorer, Firefox, Opera, Netscape Navigator, Safari, Google Chrome, Etc.

Clientes de correo: Outlook Express, Thunderbird, Incredible mail, Lotus Notes, Etc.

Mensajería instantánea: MSN Messenger, Yahoo! Messenger, Google Talk, Meebo, AOL, ICQ, Etc.

Page 19: Unidad 1 - 2013 - Apunte

19

Voz sobre IP: Skype, WengoPhone NG, NetMeeting, Etc.

P2P: Napster, eMule, Shareaza, Gnutella, BitTorrent, Ares Galaxy, Etc.

Lenguajes de programación: Assembler, Fortran, C, HTML/XHTML, JavaScript, Etc.

1.6. Concepto de Dato e Información

1.6.1. Érase una vez un dato… “La Informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información, utilizando sistemas computacionales, generalmente implementados como dispositivos electrónicos” (es.wikipedia.org/wiki/Informática)

En este contexto, ubicamos al dato, y diferenciamos dato de información, por ejemplo:

“1492” es un dato (abstracto)

“Año 1492” es información (concreto)

Los sistemas informáticos almacenan datos, y en el esquema en que se guardan y la forma de mostrarlos es como se obtiene la información.

De aquí también se extrae que el concepto de información es subjetivo, puesto que, para lo que una persona puede ser un dato (no representa nada concreto) para otra puede ser información.

De todas maneras, a nivel general podemos definir como información una representación un nivel superior del dato, que se manifiesta cuando el dato deja de ser un concepto abstracto y pasa a representar algo para la persona que lo manipula o consulta.

Análogamente, un conocimiento se puede extraer a partir de cierta información, por ejemplo a partir de información de historia de ventas se puede extraer conocimiento acerca del comportamiento de los clientes. El conocimiento por tanto puede definirse como ciertos conceptos o postulados que se extraen a partir de información disponible para tal fin, y que conforman materia prima para la toma de decisiones.

Page 20: Unidad 1 - 2013 - Apunte

20

El concepto de sabiduría, ya entra en un plano más filosófico, pero puede definirse, en este contexto, como la resultante de la experiencia que surge del trabajo con el conocimiento obtenido sobre la base de información extraída de los datos registrados.

Por ejemplo: un gerente comercial que adquiere “sabiduría” sobre su negocio, a fuerza de extraer conocimiento de la historia de ventas, tomar decisiones en consecuencia y aprender de los errores y aciertos.

Cabe destacar que esta clasificación y sus definiciones son netamente orientativas y su intención es poder transmitir que a partir de un dato se puede extraer varios niveles del saber. Es mucho lo que puede aprenderse a partir de los datos que se depositan en una base.

Véase como ejemplo: La definición de Web Mining de Wikipedia (http://es.wikipedia.org/wiki/Web_mining).

1.6.2. Procesamiento de la Información

En la figura de arriba, observamos una estructura de datos como se guardarían en una base, y, en la parte superior, operaciones que se pueden realizar sobre los mismos.

Vemos también el concepto de “campo” que en leguaje coloquial puede explicarse como el “titulo” del dato, el concepto que explica qué se guarda en esa columna. Por el contrario el “registro” es el conjunto de datos guardados en cada campo, que suele representar a una entidad concreta, en este caso, por ejemplo podrían ser estudiantes.

En la parte inferior podemos observar operaciones avanzadas que surgen de la manipulación de los datos, como la elaboración de reportes, tableros (reportes dinámicos, que realizan mediciones, usualmente en pantallas, y representan información visualizada en tiempo real), estadísticas y minería (extracción de patrones de comportamiento de variables representativas que surgen del análisis profundo de los datos – ver: http://es.wikipedia.org/wiki/Miner%C3%ADa_de_datos o también http://msdn.microsoft.com/es-es/library/ms174949.aspx).

Algunos de los análisis estadísticos que pueden realizarse sobre los datos son:

Page 21: Unidad 1 - 2013 - Apunte

21

Estadística Descriptiva

Análisis de Población. Comportamiento de Variables.

Estadística Inferencial

Tendencias. Funciones probabilísticas.

Ver: http://es.wikipedia.org/wiki/Estad%C3%ADstica

Page 22: Unidad 1 - 2013 - Apunte

22

2. Información digital La información vertida en este apartado corresponde Clara López Guzmán en La información digital.

2.1. Presentación y representación de la Información

La revolución tecnológica de las últimas décadas, las redes e Internet han cambiado nuestra percepción de la representación y el valor de la información. Internet ha sido un detonador que impulsó el manejo y circulación de la información. Sin embargo, la inmensa cantidad de información que nos proporciona no tiene ningún control ni estructura, esto provoca que el usuario se desespere y no encuentre un sentido claro de lo que implica tener acceso a tales volúmenes de información.

La información ha sido parte fundamental de todas las civilizaciones. La manera más común de transmitirla es a través de textos contenidos en algún objeto físico, tales como manuscritos, libros, periódicos, informes, etc. Tradicionalmente, ha sido tarea de las bibliotecas el resguardo y preservación de estos objetos, así como facilitarlos a sus lectores. Hasta hace una década no se habían preocupado por analizar o interpretar la estructura, forma o significado de la información de cada objeto.

Con el surgimiento de textos electrónicos, las editoriales y las librerías están cambiando todos sus procesos editoriales y de distribución. Los inmensos volúmenes de papel y los grandes talleres de impresión están quedando atrás; los más audaces de esta industria están encontrando en Internet una nueva visión del negocio pero aún no ubican si las bibliotecas digitales representan un aliado o un enemigo para ellos.

El concepto de información digital se aplica para todo aquello que está representado mediante ceros y unos dentro de una computadora. La información digital no sólo son textos electrónicos, también se incluyen las imágenes, el audio y el video, que al igual que los textos tienen diferentes formatos, codificaciones y representaciones en el mundo electrónico. Documentos de texto, imágenes, videos, animaciones, sonidos, etc., son convertidos a formato digital y almacenados en archivos que se distinguen unos de otros mediante el empleo de etiquetas pegadas al nombre que distinguen su naturaleza (doc, txt, jpg, gif, wav, etc.).

2.2. Digitalización de textos

Los textos digitales tienen diferentes naturalezas. La primera, es obtener un texto que nazca de manera digital, es decir, que no ha existido en ningún medio impreso y se genera directamente en algún dispositivo que permite su posterior almacenamiento en un medio digital, en cualquiera de sus formatos. La segunda, es procesar textos impresos en papel para obtener textos digitales, este trabajo es conocido como OCR.

El OCR (Optical Caracter Recognition) es un proceso que convierte textos en papel a imágenes (con el uso de un escáner), y éstas a su vez son interpretadas y convertidas a texto digital, lo cual nos permite almacenarlos en algunos de los formatos más comunes (.doc o .txt, RTF o texto plano.). Este proceso es útil en la mayoría de las tipografías de los siglos XIX y XX. Sin embargo, para documentos manuscritos antiguos o para impresos de baja calidad el OCR no resulta una buena opción y cada carácter que no haya sido reconocido requiere tiempo para su corrección, convirtiéndose en una tarea más difícil y tardada que la captura manual del documento. De acuerdo a nuestras pruebas realizadas, el proceso de OCR tiene un porcentaje de errores de casi un 2%, el número no es impactante pero si pensamos que por cada cien caracteres posiblemente tendremos dos erróneos, es un factor de error mucho más alto que el que tiene un buen mecanógrafo.

Page 23: Unidad 1 - 2013 - Apunte

23

En el mercado existen diferentes marcas de software enfocado al OCR, por ejemplo OmniPage Pro. Es recomendable hacer pruebas antes de iniciar un largo proceso del OCR, esto evitará exhaustivas y largas correcciones posteriores. Frecuentemente algunas letras son intercambiadas por otras, sobre todo al procesar tipografías cursivas, por ejemplo, una e puede ser tomada por una c, o una l por 1. Aunque no hay muchas pruebas que hacer cuando se trata de manuscritos de siglos atrás, en dicho caso, la opción será la captura del texto o preservar el documento sólo como imagen, que es la tercera forma de obtener un texto digital.

2.3. Digitalización de imágenes

El texto no siempre podrá ser convertido a un texto electrónico, en algunas ocasiones deberá permanecer como imagen. El proceso de digitalización de imágenes va directamente ligado al uso que se le dará al resultado de la digitalización. La decisión inicial acerca de la digitalización de una imagen es si hacerla a color o sólo en blanco y negro, así como la resolución, que determina el número de puntos por pulgada lineal (dpi) que recorrerá el escáner y la cantidad de información que cada punto deberá contener. A mayor resolución y números de bits por pixel se obtendrá un mayor tamaño del archivo.

El tamaño del archivo tiene impacto en el espacio necesario para su almacenamiento y repercute también en la agilidad de recuperación de la imagen, en el caso del WWW (World Wide Web), que será nuestra interfaz para visualizar los servicios de la biblioteca digital, debemos hacer la selección ideal para ofrecer una buena imagen y un acceso ágil.

2.3.1. Bits por pixel El número de bits utilizados para representar cada pixel determina la calidad de la imagen (profundidad de color).

1-bit blanco y negro. Cada punto puede ser blanco o negro. La calidad visual es deficiente, la imagen es austera y las líneas pueden aparecer irregulares.

8-bit escala de grises. Cada punto puede estar dentro de 256 posibles tonos de gris. Da una clara y buena imagen, es funcional para la mayoría de las imágenes que no tienen colores.

8-bit color. Cada punto puede ser de uno de 256 colores. Da una imagen poco real en las fotografías ya deja un aspecto granuloso pero funciona bien con dibujos e imágenes, sobre todo para el Web.

24-bit color. Cada punto puede ser de uno de los 16.8 millones de colores. Este tipo de digitalización es la de mayor calidad. Da una imagen realista y perfecta para fotografías, el precio es un tamaño grande del archivo.

Page 24: Unidad 1 - 2013 - Apunte

24

2.3.2. Resolución La apariencia de una imagen digitalizada también depende de la resolución. La resolución es el número de pixeles por unidad linear, medida en dpi (puntos por pulgada). Por ejemplo, un fax maneja una resolución de 200 dpi en dirección horizontal y 100 dpi en dirección vertical. Otro ejemplo son las impresoras láser, que en su versión original manejaban 300 dpi en ambas direcciones. En la digitalización de imágenes la decisión de los dpi regularmente se rige por consideraciones prácticas. Mientras más grande es el número de dpi, mayor información tendrá un archivo y el detalle de la imagen será más fino.

Para desplegar imágenes en pantalla no es recomendable una resolución mayor a 100 dpi (una pantalla de 24 líneas por 80 caracteres, maneja una resolución de 80x60 dpi), sin embargo, si la imagen está pensada para impresiones en papel o ampliaciones en pantalla será conveniente tener una resolución mayor (al menos 300 dpi), de igual manera, si son documentos valiosos que serán preservados de manera digital, como manuscritos o ejemplares únicos no debe escatimarse en la calidad del documento y puede optarse por archivar una copia de alta resolución y hacer otra, a menor resolución, para fines de difusión en el Web o cualquier otro servicio que tenga como salida la pantalla de la computadora. Las imágenes de la figura & están digitalizadas a diferente resolución, podemos observar una clara diferencia entre la calidad de una y la otra.

50 dpi. Tamaño: 8 kbytes

400 dpi. Tamaño: 40 Kbytes.

La siguiente tabla, es el resultado de una prueba realizada sobre una imagen escaneada a 24 bits, con cuatro diferentes resoluciones y dos tipos de almacenamiento, sin compresión y con compresión, TIFF y JPEG, respectivamente (formatos que se describen más adelante). Esta tabla nos muestra la importancia de elegir una resolución adecuada, ya que el tamaño varía fuertemente de una resolución a otra.

DPI

_ 100 200 400 600

TIFF 1.93 Mbytes 7.81 Mbytes 31.3 Mbytes 70.3 Mbytes

JPEG 114 Kbytes 230 Kbytes 660 Kbytes 1.2 Mbytes

Tamaño de imágenes a diferente resolución

No olvidemos que el tamaño de una imagen repercute en su velocidad de recuperación y en su espacio de almacenamiento, que bien no puede ser crítico en una imagen pero sí lo es cuando hablamos de cientos o miles de ellas. De aquí, que es fundamental una seria valoración de la calidad que deberá tener el documento que almacenaremos, según su uso: consulta, difusión o preservación.

2.3.3. Tipos de archivos La compresión de las imágenes reduce los requerimientos de espacio de almacenamiento. Además se reduce el tiempo requerido para su acceso, transferencia y desplegado.

Regularmente los escáneres crean imágenes sin compresión, en formatos como TIFF, BMP o PICT (sólo para Mac), como consecuencia son archivos grandes y poco prácticos para ser manipulados. A continuación se describen brevemente cada uno de ellos:

Page 25: Unidad 1 - 2013 - Apunte

25

TIFF es el formato estándar sin compresión más utilizado, su propósito es describir y almacenar datos ricos de imágenes escaneadas. La riqueza de los datos es especialmente requerida para aprovechar las capacidades de los escáneres y de otros dispositivos de manejo de imágenes. Describe imágenes blanco y negro, en escala de grises, paleta de colores y colores completos (full-color). Es portable, no está restringido por sistema operativo, compiladores o procesadores.

Para guardar archivos de imágenes existen formatos que incluyen compresión, por ejemplo: GIF y JPEG. La compresión hace una selección y reacomodo de los datos almacenados de una imagen no comprimida, de tal manera que se reduce el tamaño del archivo pero la imagen, en apariencia al ojo humano, no se modifica notablemente. GIF ofrece una compresión moderada en 8-bit a color o grises, mientras que JPEG ofrece una excelente compresión tanto en imágenes 8-bit como en 24-bit color.

GIF (Graphics Interchange Format) utiliza un método conocido como lossless compression (compresión de poca pérdida) y fue muy utilizado hasta 1995.

JPEG (Joint Photographic Experts Group) proviene de un grupo de estándares de técnicas conocidas como lossy compression (compresión con pérdidas).

Las imágenes de tono continuo, son comprimidas más frecuentemente con un método lossy, con este método la imagen no puede ser recuperada exactamente igual a la original cuando se extrae de la versión comprimida. En los casos en que la representación debe ser exactamente igual a la original se debe utilizar un método lossless. Debe considerarse que en muchos casos es menos costoso almacenar imágenes que intentar reconstruirlas. El almacenamiento de imágenes de documentos históricos deberá hacerse preferentemente con un método lossless.

La siguiente tabla muestra el tamaño de los archivos de una misma imagen digitalizada con diferente número de bits y almacenada en diferentes formatos, comprimida y sin comprimir. Este cuadro es el resultado de una serie de pruebas realizadas con la portada a color de un libro de 18.5 cm de ancho por 23 cm de alto (7x9 plg). El equipo utilizado fue un escáner Hewllet Packard modelo ScanJet 6100C. Para la conversión de imágenes TIFF a JPEG o GIF, se utilizó Photoshop Versión 5.0.

FORMATO DEL ARCHIVO

_ TIFF JPEG GIF

24-bit color 1.93 Mbytes 114 Kbytes 254 Kbytes

8-bit color 666 Kbytes 271 Kbytes 238 Kbytes

8-bit grises 666 kbytes 81 Kbytes 431 Kbytes

1-bit Blanco/Negro 749 kbytes No aplica 106 Kbytes

Resulta interesante observar la drástica disminución en el tamaño del archivo de una imagen almacenada sin compresión y comprimida. Asimismo, hay una diferencia significativa entre un método de compresión y otro.

No hay una regla única en la digitalización de imágenes. En algunos casos es importante la calidad, por cuestiones de preservación del documento, y no escatimaremos en el tamaño del archivo para contar con los parámetros óptimos de digitalización. En otros casos tendremos que encontrar un buen balance entre el número de bits de digitalización, la resolución y el tipo de compresión para obtener una imagen digital de calidad aceptable para fines sólo de difusión.

2.3.4. Audio digital El audio digital consiste en señales de audio grabadas en forma digital, es decir, representada por ceros y unos. En cómputo, el audio digital es muy utilizado en aplicaciones multimedia mediante el uso de archivos wave audio, que son grabaciones hechas a partir de señales analógicas. Wave audio puede distribuirse en tiempo real sobre cualquier medio que transmita datos.

WAV es el formato estándar para almacenar archivos wave audio, puede almacenar con una resolución de 8 y 16 bits a frecuencias de muestreo de 11.025, 22.050, 44.1 y 48kHz. WAV es compatible prácticamente con todos los programas y aplicaciones de multimedia, y con la mayoría de los editores y grabadores de audio. Los niveles

Page 26: Unidad 1 - 2013 - Apunte

26

de calidad están determinados por el tamaño y la frecuencia de las muestras, así como del software y hardware utilizado para la grabación.

Es importante recordar que los límites de la sensibilidad humana al sonido se sitúan entre los 20 Hz y los 20 kHz (1 kHz equivale a 1,000 vibraciones por segundo). Para tener una referencia, el sonido que se oye en un radio portátil de AM llega a 9kHz como máximo. La frecuencia de muestreo y la frecuencia de un sonido no están directamente relacionadas. Debido a razones técnicas, la frecuencia de muestreo siempre es el doble de la frecuencia de un sonido en particular. Esta es la razón por la cual la frecuencia de muestreo utilizada para grabar un CD de audio estándar (44.1 KHz) supera ligeramente el límite superior de la capacidad humana de audición (20 KHz). En una tarjeta de sonido con límite de frecuencia de muestreo de 12 KHz se traduce en una frecuencia de 6 Khz en sonidos reales.

En una grabación de 8 bits de resolución, el sonido es salvado en cualquier instante en particular como un valor situado en una escala que va de 0 a 255. En cambio, en una grabación de 16 bits, el sonido es registrado como un valor entre 0 y 65,536 niveles. Un oído medio puede distinguir la diferencia entre las grabaciones de audio a 8 bits y las de 16 bits. Las grabaciones a 8 bits albergan ruidos. Los realizados a 16 bits, en estéreo y a una frecuencia de 44.1 kHz presentan una grabación de mayor definición y claridad.

El principal problema del audio en una biblioteca digital es el tamaño de los archivos, a mayor calidad mayor espacio, e incluso con características pobres de calidad los archivos son grandes de cualquier manera. Asimismo, los recursos internos del equipo que reproduce el sonido se ven sometidos a un pesado procesamiento. El audio de una pequeña conferencia que pudiéramos grabar y que formara parte del acervo de información requeriría de más espacio que una enciclopedia. Por ejemplo, el tamaño de los archivos de un minuto de grabación 8-bit estéreo, a diferentes frecuencias de muestreo es:

11.025 kHz

22.050 kHz

44.1 kHz

48 kHz

1.25 Mb

2.52 Mb

5.04 Mb

5.49 Mb

Y el tamaño aproximado de un minuto de grabación a 16-bit:

11.025 kHz

22.050 kHz

44.1 kHz

48 kHz

2.52 Mb

5.04 Mb

10.08 Mb

10.98 Mb

La memoria y el espacio en disco aumentan de manera lineal con el incremento de la frecuencia.

2.3.5. Video digital Video digital es una secuencia de imágenes y audio que son almacenadas y reproducidas en forma digital. Para una buena calidad en el video es necesario un método eficiente de compresión y una línea rápida para la trasferencia.

Los sistemas de compresión de video se basan en que los cuadros del video tienen mucha información redundante, se consideran únicamente las diferencias que tiene un cuadro a otro y eliminan información. Buena parte de la información perdida no es perceptible al ojo humano.

MPEG (Moving Picture Experts Group) es un estándar internacional para la compresión de video digital, es el más utilizado tanto para desarrollos multimedia como para reproducciones locales y se basa precisamente en buscar la diferencia entre imágenes y sólo registra los cambios producidos. Puesto que no graba información redundante, potencialmente puede ofrecer una proporción de compresión más alta que la compresión JPEG de imágenes sin movimiento. Pero MPEG hace que el acceso a imágenes inmóviles individuales de una serie se torne algo difícil, ya que sólo el primer cuadro de una serie es grabado en su integridad.

Según el reporte de pruebas hecho en la Coordinación de Prospección e Innovación Tecnológica de la Dirección General de Servicios de Cómputo Académico, se obtuvo que para obtener 1 minuto de video digital MPEG con una resolución de 160x121 dpi, 29.98 cuadros por segundo y tomando un cuadro llave cada 16 cuadros se

Page 27: Unidad 1 - 2013 - Apunte

27

requiere de 5 Mbytes, siendo esta una configuración que presenta un ligero deterioro en el audio y una buena presentación en color. Si hablamos de una excelente configuración para obtener audio y video de alta calidad el tamaño del archivo de un minuto puede llegar a ser de 20 Mbytes.

Page 28: Unidad 1 - 2013 - Apunte

28

3. Redes de datos e Internet

3.1. Comunicación de Datos

3.1.1. Introducción La evolución de la tecnología de comunicaciones es muy importante para nuestra vida y para nuestras posibilidades laborales: cualquier ámbito de trabajo informático hoy tiene comunicaciones, redes, computadoras remotas que se consultan y utilizan. Esto nos lleva a la necesidad de estudiar como un componente esencial de la disciplina informática, algunos aspectos de las comunicaciones.

En este punto podemos preguntarnos ¿Qué sentido puede tener comunicar computadoras? La respuesta resulta inmediata, poder comunicarlas significa poder utilizar sus recursos a distancia.

La interconexión de computadoras incrementa la eficiencia en los trabajos de grupo al permitir una fluida comunicación entre miembros de la organización ubicados en diferentes puntos.

De repente la computadora que está en la mejor Universidad de Estados Unidos es “alcanzable” y utilizable desde nuestra modesta PC del Laboratorio de la Universidad. Al mismo tiempo los “usuarios” distantes pueden comunicarse, cooperar y compartir recursos y trabajo, empleando sus computadoras conectadas.

Aunque en principio no lo parezca, poder comunicar computadoras es lo que nos permite ver en tiempo real, sobre nuestra computadora un recital de los Rolling Stones que está sucediendo en otro extremo del planeta.

3.1.2. Conceptos Elementales de Redes Una red de computadoras es una colección interconectada de computadoras autónomas, que se utiliza para:

Compartir recursos :

o Información y Sistemas de Información: permitiendo incrementar la productividad en los sistemas de software.

o Hardware: reduciendo costos y convirtiendo a la red en sí misma en un poderoso sistema de procesamiento de datos, tal como impresoras, scanners, grabadora de DVD o CD, discos rígidos, etc.

o Servicios: tales como acceso a Internet, e-mail, mensajería instantánea o chat, video llamadas, juegos, etc., estén disponibles para cualquiera en la red sin importar ubicación física de los recursos y de los usuarios

Proveer alta confiabilidad: contar con más de una fuente para los recursos. Por ejemplo los archivos podrían estar divididos en dos o más servidores, así si uno de ellos falla podrá utilizarse el otro.

Lograr escalabilidad de los recursos computacionales: si se necesita más poder computacional, se puede agregar más computadoras o servidores a la red.

Se dice que dos computadoras están interconectadas si son capaces de intercambiar información a través de un medio de transmisión. Si una computadora no puede arrancar, parar o controlar a otra, es decir se encuentran en una relación no jerárquica entonces las computadoras son autónomas.

Page 29: Unidad 1 - 2013 - Apunte

29

3.1.3. Componentes Básicos de una Red de Computadoras Conceptualmente una red responde a un esquema general como el de la siguiente figura:

Subsistemas de Comunicaciones

Las computadoras locales (clientes): pueden ser muy diferentes y disponer de recursos propios.

Servidores: computadoras administradoras que provee de los servicios de la red a las computadoras locales (clientes).

Medios de Transmisión: puede estar soportado por diferentes medios de transmisión de datos (cables de cobre, fibra óptica, aire, etc.) y permite vincular las computadoras locales (clientes) por diferentes tecnologías de transmisión.

Protocolos: naturalmente para poder comunicar coherentemente las computadoras de una red es necesario establecer protocolos aceptados por todos (y esto implica hardware y software). Se deduce que el sistema operativo de los clientes deben proveer dichos protocolos. Básicamente, un protocolo es un acuerdo entre las partes que se comunican sobre cómo va a proceder la comunicación, definiendo qué, cómo y cuándo se comunica. La comunicación exitosa entre computadoras de una red requiere la interacción de gran cantidad de protocolos diferentes. Un grupo de protocolos interrelacionados que son necesarios para realizar una función de comunicación se denomina suite de protocolos. Estos protocolos se implementan en el software y hardware que está cargado en el sistema operativo de cada computador y dispositivo de red.

3.1.4. Ancho de Banda Digital El término ancho de banda (del inglés bandwidth) es la medición de la cantidad de información que puede fluir desde un lugar hacia otro en un período de tiempo determinado. Es una medida de velocidad de transferencia de datos.

El término que corresponde a la unidad más básica de información es el bit, y considerando que la unidad básica de tiempo es el segundo, entonces, si tratáramos de describir la cantidad de información que fluye en un período determinado de tiempo debemos hacerlo a través de las unidades "bits por segundo". No confundir bits con bytes, en mediciones de ancho de banda siempre se habla de bits.

El ancho de banda es en realidad la velocidad máxima permitida por el sistema, pero existen muchos factores que llevan a que una medición de ancho de banda se obtengan velocidades menores.

Se habla de banda estrecha cuando el ancho de banda es menor igual a 64kbps, un ejemplo la conexión que se realizada a través de una conexión con un módem telefónico. Se denomina banda ancha cuando se supera los 64kbps, un ejemplo de banda ancha es la que se realiza por medio de una conexión ADSL o cable módem.

Podemos realizar una analogía entre el ancho de banda y la cantidad de carriles en una autopista. Piense en la red de carreteras de su ciudad o pueblo. Puede haber autopistas de ocho carriles, con salidas a rutas de 2 y 3

Page 30: Unidad 1 - 2013 - Apunte

30

carriles, que a su vez pueden llevarlo a calles de 2 carriles. En esta analogía, la cantidad de carriles representa el ancho de banda, y la cantidad de automóviles representa la cantidad de información que se puede transportar.

Características de Ancho de Banda

es siempre finito. Esto se debe tanto a las leyes de la física del medio de transmisión utilizado como a los avances tecnológicos actuales de las tecnologías de transmisión.

es una medida de rendimiento de una red de computadoras.

Su demanda aumenta constantemente, debido a la complejidad de las nuevas aplicaciones y servicios, por ejemplo la transmisión de datos multimedia como voz y video.

3.1.5. Infraestructura de Comunicaciones

3.1.5.1. Mensaje

Toda comunicación comienza con un mensaje o información que se debe enviar desde una computadora o dispositivo a otro. Podemos distinguir los siguientes tres elementos propios de cualquier método de comunicación utilizado para enviar mensajes:

Origen del mensaje o emisor: puede ser una persona, computadora o un dispositivo. Destino o receptor del mensaje: quién recibe el mensaje y lo interpreta. Canal: está formado por los medios que proporcionan el camino por el cual el mensaje viaja desde el

origen hasta el destino.

Esquema de la Comunicación de Datos

Un mensaje enviado desde un origen hasta su destino puede tomar una ruta compuesta simplemente por un cable que conecta dos computadoras u otra tan compleja como una red que abarca el mundo y utilice cientos de componentes físicos de red. Esta infraestructura de red es la plataforma por la cual se producen las comunicaciones.

Los dispositivos de red y los medios de transmisión son los elementos físicos o hardware de la red.

3.1.5.2. Dispositivos Físicos de Red

Podemos clasificar los dispositivos físicos de red en dispositivos finales o terminales y dispositivos intermedios.

Los dispositivos finales: de red son aquellos con los que la gente trata comúnmente. Estos dispositivos constituyen la interfaz entre la gente y la red de comunicación. Algunos ejemplos de dispositivos finales son:

Computadoras (estaciones de trabajo, computadoras portátiles, servidores de archivos, servidores Web)

Impresoras de red

Teléfonos VoIP

Cámaras de seguridad

Dispositivos móviles de mano como escáneres de barras inalámbricos, asistentes digitales personales (PDA).

Los dispositivos intermedios se utilizan para direccionar y administrar los mensajes en la red. A continuación se describen los dispositivos más comunes y otros símbolos de interconexión de redes:

Page 31: Unidad 1 - 2013 - Apunte

31

Conmutador o Switch LAN: es el dispositivo más utilizado actualmente para interconectar redes de área local. Permite interconectar dos o más segmentos (partes) de red pasando datos de un segmento a otro basándose en la dirección destino del mensaje. Se utilizan para extender una red LAN o fusionar múltiples redes en una sola. Estos dispositivos mejoran el rendimiento y la seguridad de una LAN.

Firewall: proporciona seguridad a las redes. Un firewall puede estar implementado utilizando software o por medio de un dispositivo físico de red.

Enrutador o router: permite direccionar mensajes mientras viajan a través de una red. Este dispositivo examina un mensaje y basándose en su dirección destino lo encamina hacia su red destino.

Enrutador o router inalámbrico: un tipo específico de router el cual opera sobre LANs inalámbricas.

Tarjeta de interfaz de red: proporciona la conexión física entre un dispositivo de red y una computadora personal. Es un pequeño circuito que se coloca en la ranura de expansión de un bus de la motherboard o dispositivo periférico de un computador.

Nube: este símbolo se utiliza para resumir un grupo de dispositivos de red.

Enlace serial: una forma de interconexión WAN (Red de área extensa), representada por la línea en forma de rayo.

Dispositivos físicos de una red de comunicación de datos

3.1.6. Medios de Transmisión Se define al medio de trasmisión como el medio físico o canal por donde se transportan los bits que llevan la información.

Se clasificación en medios guiados y medios no guiados.

3.1.6.1. Medios Guiados

Están constituidos por un cable que se encarga de la conducción (o guía) de las señales desde un extremo al otro.

Por ejemplo el cable de cobre como cable telefónico y cable par trenzado UTP, fibra óptica, cable coaxial.

Page 32: Unidad 1 - 2013 - Apunte

32

Par trenzado UTP – Cable Coaxial – Fibra Óptica

Cables de Cobre: Las transmisiones sobre cables de cobre requieren enviar señales eléctricas entre un transmisor y un receptor desde los extremos del cable, y normalmente se trata de un medio de bajo costo y muy adecuado para distancias relativamente cortas.

El cable de cobre más utilizado en el campo de las comunicaciones y la interconexión de computadoras es el par trenzado no protegido UTP, (Unshielded Twisted Pair) comúnmente denominado “cable de red UTP” del cual existen diferentes tipos. Las aplicaciones principales en las que se hace uso de cables de red UTP son:

o El tramo de cable existente entre la Tarjeta de Red de la computadora y el dispositivo de red instalado por el proveedor de servicio de Internet.

o Cableado estructurado de redes de área local en oficinas y edificios, en este caso se emplea UTP Categoría 5 o Categoría 6 para transmisión de datos. Consiguiendo velocidades de 100 y 1000 Mbps.

Cable coaxial: se compone de un hilo conductor, llamado núcleo, y un mallado externo separados por un aislante. Tiene mejor blindaje que el par trenzado, así que puede abarcar distancias mas largas a mayores velocidades. Actualmente es utilizado por las compañías de TV cable para brindar el servicio de TV y el servicio de Internet también.

Fibra óptica: ha sido un salto tecnológico muy importante (aunque a un costo mayor). Sucede que la fibra óptica trasmite señales de luz, a una velocidad mucho mayor y con mucha menos posibilidad de interferencia que un cable de cobre o coaxial. Actualmente todos los enlaces telefónicos importantes han reemplazado el cableado convencional por la fibra óptica.

3.1.6.2. Medios No Guiados

En los medios de transmisión no guiados, como el aire y el vacío del espacio exterior, las señales se propagan libremente, no es necesario un canal físico para las señales inalámbricas. Estos hacen un medio muy versátil para el desarrollo de redes.

Las señales inalámbricas son ondas electromagnéticas que se pueden clasificar en tres tipos: radio, microondas y luz (infrarrojos/láser).

Tanto la transmisión como la recepción de información se lleva a cabo mediante antenas. Al transmitir, la antena irradia energía electromagnética en el medio. En la recepción la antena capta las ondas electromagnéticas del medio que la rodea.

Medios de Transmisión de Datos no Guiados

Page 33: Unidad 1 - 2013 - Apunte

33

3.1.7. Clasificación de Redes por relación funcional

3.1.7.1. Redes Punto a Punto

En este tipo de red cada computadora o dispositivo tiene funciones y tareas equivalentes. Cada usuario es responsable de sus propios recursos y datos decidiendo que desea compartir y que no. Debido a esto no hay una administración o punto central de control en la red. Las computadoras y dispositivos de red se encuentran conectados directamente entre sí.

En general este tipo de redes funcionan mejor en entornos pequeños de computadoras. Las computadoras puede compartir archivos entre si, enviar mensajes, e imprimir documentos en una impresora compartida. Algunas desventajas de esta clase de redes:

Se dificulta determinar quién controla los recursos, debido a que no existe una administración centralizada dedicada.

Cada usuario debe utilizar medidas de seguridad individuales para la protección de los datos, dado que no existe seguridad centralizada.

A medida que aumenta la cantidad de computadoras, resulta más difícil manejar la información.

3.1.7.2. Redes Cliente-Servidor

En una red cliente-servidor las computadoras y los dispositivos no tienen funciones equivalentes. La computadora con rol cliente solicita servicios a la computadora con rol servidor. Los servidores otorgan a los clientes la información y servicios solicitados. En este esquema de trabajo el servidor realiza parte del procesamiento de la información antes de enviarla a los clientes, por ejemplo el servidor busca y procesa un dato en una base de datos y luego lo envía al cliente.

Un modelo de red cliente-servidor requiere de administradores de red, algunas de las funciones que las que realizan sobre los servidores son las siguientes:

mantenimiento de los servicios

implementación de medidas de seguridad

control de acceso a los recursos compartidos como impresoras, datos, servicios, etc.

copias de respaldo de la información importante

Un ejemplo del modelo de red cliente/servidor es un entorno empresarial donde los usuarios utilizan el servidor de correo de la empresa para enviar, recibir y guardar correo electrónico. Además cada empleado dispone de un cliente de correo electrónico en su computadora por medio del cual emite una solicitud al servidor por el correo electrónico no leído. El servidor responde enviando al cliente los correos electrónicos solicitados.

3.1.8. Clasificación de Redes por Alcance

Distancia entre procesadores

Procesadores ubicados en el mismo Ejemplo correspondiente a

1m Asistente Personal de Datos Red de Área Personal (PAN)

10 m Cuarto

Su oficina

Red de Área Local (LAN)

100 m Edificio

Su Empresa

Red de Área Local (LAN)

1 km Campus

Su universidad

Red de Área Local (LAN)

Page 34: Unidad 1 - 2013 - Apunte

34

Distancia entre procesadores

Procesadores ubicados en el mismo Ejemplo correspondiente a

10 km Ciudad

Viedma

Red de Área Metropolitana (MAN)

100 km País

Argentina

Red de Área Amplia (WAN)

1000 km Continente

América

Red de Área Amplia (WAN)

10000 km Planeta Red de Área Amplia (WAN)

La Internet

100000 km Sistema Tierra-Luna Red de Área Amplia (WAN)

3.1.8.1. Redes de Área Personal (PAN)

Es una red de computadoras para la comunicación entre una gran cantidad de distintos dispositivos cercanos al punto de acceso, tales como computadoras puntos de acceso a Internet, teléfonos celulares, Asistentes Digitales Personales (Palm Sony, iPhone, Pocket PC), dispositivos de audio y multimedia (auriculares de teléfonos celulares, estéreos de automóviles), impresoras y periféricos. Son redes de pocos metros y para uso personal.

Dos de las soluciones de PAN más aceptadas son:

Infrarrojo, Infared Data Association (IrDA), teléfonos celulares, controles remotos.

Bluetooth, el concepto de Bluetooth, originalmente desarrollado para reemplazar los cables, es el más aceptado mundialmente a nivel PAN.

3.1.8.2. Red de Área Local (LAN)

Una red de área local denominada LAN (Local Area Network) es una red en la cual las computadoras se encuentran cercanas físicamente, dentro de un mismo edificio o campus de hasta un kilómetro de extensión.

Una LAN proporciona servicios y aplicaciones a personas dentro de una estructura organizacional común, como una empresa y por lo general está administrada por una organización única.

Las redes LAN conectan estaciones de trabajo, notebooks, dispositivos periféricos, y otros dispositivos que se encuentran en un área geográfica limitada.

Su aplicación más extendida es la interconexión de ordenadores personales y estaciones de trabajo en oficinas, fábricas, campus, etc., para compartir recursos y hacer un uso eficiente de los mismos, como acceder a una impresora de red, aplicaciones o intercambiar datos, archivos con computadoras remotas.

Esquema de una Red de Área Local

Page 35: Unidad 1 - 2013 - Apunte

35

Existen diferentes tecnologías de redes LAN, la tecnología más utilizada se llama Ethernet. Tal tecnología posee diferentes estándares donde se define el cableado, conectores, velocidades, distancias máximas y tecnología de transmisión a utilizar.

LAN inalámbricas

La función de la LAN se ha vuelto móvil. Existen diferentes tecnologías, protocolos y estándares para redes LAN inalámbrica que permiten a las personas continuar con una conferencia mientras caminan, en el taxi o en el aeropuerto.

Las redes LAN inalámbricas otorgan movilidad, flexibilidad y reducción de costos, por ejemplo en relación a la instalación del cableado, al mover una persona dentro del edificio, al reorganizar un laboratorio, o al moverse a ubicaciones temporarias o sitios de proyectos, etc.

Las comunicaciones inalámbricas presentan las siguientes desventajas:

menor velocidad que los medio no cableados debido a interferencias y pérdida de señal acarreados por el medio ambiente.

Otra desventaja de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de calcular la contraseña de la red y de esta forma acceder a ella. Para solucionar esto se utilizan sistemas de cifrado de datos para transmitir.

Organizaciones sin fines de lucro como Wi-Fi Alliance trabajan en la creación de estándares a fin aseguran la interoperabilidad entre dispositivos hechos por diferentes fabricantes de todo el mundo. Entre estos estándares se definieron diversos tipos de sistemas Wi-Fi. En la actualizar Wi-Fi es un sistema estandarizado aceptado universalmente para implementar redes LAN inalámbricas.

Componentes de Redes LAN inalámbricas

En una red LAN cada cliente tiene un cable que conecta la tarjeta de interfaz de red del cliente a un switch. El switch es el punto en el que el cliente obtiene acceso a la red. En una LAN inalámbrica cada cliente utiliza una tarjeta de interfaz de red inalámbrica para obtener acceso a la red a través de un dispositivo como un router inalámbrico o punto de acceso.

La tarjeta de red inalámbrica se comunica con el router inalámbrico o el punto de acceso mediante señales de radiofrecuencias.

Componentes de una res WLAN

Una vez conectados a la red, los clientes inalámbricos pueden acceder a los recursos de la red como si estuvieran conectados a la red a través de un medio cableado.

Un punto de acceso AP (Access Point) conecta a los clientes inalámbricos a la LAN cableada.

Page 36: Unidad 1 - 2013 - Apunte

36

Routers inalámbricos

3.1.8.3. Red de Área Metropolitana (MAN)

Una red de área metropolitana MAN (metropolitan area network) es básicamente una versión más grande de una red LAN. Podría abarcar un grupo de oficinas corporativas o una ciudad y podría ser privada o pública. Un ejemplo típico de este tipo de redes es la red de televisión por cable local y según su implementación también puede brindar servicios de Internet y telefonía simultáneamente.

3.1.8.4. Red de Área Amplia (WAN)

Una red de área amplia o extensa denominada WAN (Wide Area Network) interconecta redes LAN que se encuentran separadas por grandes áreas geográficas como países o continentes. Las computadoras pueden estar a cientos y miles de kilómetros.

Cuando una compañía o una organización tienen ubicaciones separadas por grandes distancias geográficas, requieren de una red WAN para interconectar sus redes LANs. Con este fin es posible que deba utilizar un proveedor de servicio de telecomunicaciones (TSP) para interconectar las LAN en las distintas ubicaciones. Tal proveedor utiliza una red propia denominada subred para realizar esta interconexión. Esta subred consta de líneas de transmisión y dispositivos de red WAN como ruteadores (routers), que son computadores dedicados a guiar los mensajes a través de las líneas de transmisión desde la LAN origen hasta la LAN destino.

Aunque la organización mantiene todas las políticas y la administración de las LAN en ambos extremos de la conexión, las políticas dentro de la subred del proveedor del servicio de comunicaciones son controladas por el TSP.

Las LAN separadas por una distancia geográfica están conectadas por una red que se conoce como Red de Área Extensa (WAN)

Page 37: Unidad 1 - 2013 - Apunte

37

Ejemplos de redes WANs :

red RedIRIS, es la red española para Interconexión de los Recursos Informáticos de las universidades y centros de investigación

La Internet es una red WAN

3.2. Internet

3.2.1. Características Las redes de área local trajeron muchos beneficios sin embargo la mayoría de los usuarios necesitan comunicarse con un recurso u otra red, fuera de la organización local.

Los ejemplos de este tipo de comunicación incluyen:

enviar un correo electrónico a un amigo en otro país,

acceder a noticias o productos de un sitio Web,

obtener un archivo de la computadora de un vecino,

mensajería instantánea con un pariente de otra ciudad, y

seguimiento de la actividad de un equipo deportivo favorito a través del teléfono celular.

Por lo cual se necesitaba un conjunto global de redes interconectadas que cubra estas necesidades de comunicación humanas. Algunas de estas redes interconectadas pertenecen a grandes organizaciones públicas o privadas, como agencias gubernamentales o empresas industriales, y están reservadas para su uso exclusivo. La Internet es el conjunto de redes interconectadas mas ampliamente utilizada y a la que accede el público en general.

Como se mencionó anteriormente Internet se encuentra dentro de la clasificación de red de área amplia. Internet es una red de redes y está formada por un conjunto descentralizado de redes de datos interconectadas en todo el mundo. Internet utilizan la suite de protocolos llamada TCP/IP mediante la cual garantiza que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial.

En la actualidad Internet se compone por la interconexión de redes que pertenecen a los Proveedores de servicios de Internet ISP (Internet Service Provider). Estas redes ISP se conectan entre sí para proporcionar acceso a millones de usuarios en todo el mundo.

Ejemplo de conexiones de Internet

Page 38: Unidad 1 - 2013 - Apunte

38

3.2.2. Intranet Una intranet es una red privada que se limita en alcance a una sola organización o entidad, donde la tecnología de Internet se usa como arquitectura elemental.

Las organizaciones en general no desean que su información y servicios confidenciales se hagan públicos en Internet, con este fin construyen servidores web para crear su intranet privada. El prefijo "intra" significa "dentro", por lo tanto una intranet es una red dentro de alguna frontera de una organización. Las intranets usan la misma tecnología usada por Internet, los mismos protocolos, servidores web y clientes web. La principal característica de una intranet es que no permiten el acceso público a servidores privados.

Las intranets pueden coexistir con otra tecnología de red de área local.

La seguridad en una intranet es un factor importante y complicado de implementar, ya que se trata de brindar seguridad restringiendo el acceso a las personas no autorizadas.

Para que se utiliza una Intranet

Medio de difusión de información interna a nivel de grupo de trabajo, consiguiendo que los empleados estén informados con novedades y datos de la organización.

También es habitual su uso en universidades y otros centros de formación, ya que facilita la consulta de diferentes tipos de información y el seguimiento de la materia del curso.

Repositorio de documentos y archivos, añadiéndoles un buscador y una organización adecuada, se puede conseguir una consulta rápida y eficaz.

Las Intranet también deberían cumplir unos requisitos de accesibilidad web permitiendo su uso a la mayor parte de las personas, independientemente de sus limitaciones físicas o las derivadas de su entorno.

Acceso a las bases de datos de la empresa.

Publicación de documentos y archivos internos: informes, listas de precios, publicaciones y manuales, etc.

Creación de aplicaciones y publicación de software de trabajo en equipo.

3.2.3. Extranet Una extranet es una intranet a la que pueden acceder parcialmente prsonas autorizadas ajenas a la organización o empresa propietaria de la intranet.

Mientras que una intranet reside detrás de un cortafuego (firewall) y solo es accesible por las personas que forman parte de la organización propietaria de la intranet, una extranet proporciona diferentes niveles de acceso a personas que se encuentran en el exterior de la organización. Esos usuarios pueden acceder a la extranet solo si poseen un nombre de usuario y una contraseña con los que identificarse. La identidad del usuario determina que partes de la extranet puede visualizar. Además para acceder a una extranet se suelen emplear medios de comunicación seguros, como Secure Socket Layer (SSL) y Virtual Private Network (VPN).

Las extranets se están convirtiendo en un medio muy usado por empresas que colaboran para compartir información entre ellas. Se emplean como medio de comunicación de una empresa con sus clientes, proveedores o socios. Las extranets son la base del comercio electrónico entre empresas (Business to Business, B2B).

3.2.4. Tendencias de Internet Existen tres tendencias principales que contribuyen a la futura estructura de las redes de información complejas:

mayor cantidad de usuarios móviles,

proliferación de dispositivos aptos para Internet, y

expansión de la gama de servicios.

Page 39: Unidad 1 - 2013 - Apunte

39

Usuarios móviles

Con el aumento en la cantidad de trabajadores móviles y en el uso de dispositivos de mano, necesariamente estamos demandando más conectividad móvil a las redes de datos. Esta demanda crea un mercado para servicios inalámbricos que tienen mayor flexibilidad, cobertura y seguridad.

Más dispositivos compatibles

La computadora es sólo uno de los muchos dispositivos en las redes de datos actuales. Tenemos un crecimiento de nuevas tecnologías que aprovechan los servicios de Internet disponibles. Las funciones realizadas por los teléfonos celulares, asistentes digitales personales (PDA), convergen en sencillos dispositivos portátiles con conectividad continua a proveedores de servicios de Internet. Estos dispositivos, alguna vez considerados "juguetes" o elementos de lujo, son ahora una parte integral de la forma en que se comunican las personas. Además de los dispositivos móviles, también tenemos dispositivos de voz sobre IP (VoIP), sistemas de juegos y una gran variedad de dispositivos emergentes del hogar y para negocios que podrán conectarse y utilizar servicios de red.

Mayor disponibilidad de servicios

La amplia aceptación de la tecnología y el rápido ritmo de innovación en servicios a través de la red crean una dependencia cíclica. Para cumplir con las demandas del usuario, se presentan nuevos servicios y se mejoran los servicios más viejos. Así, la red crece para respaldar este aumento en la demanda. Las personas dependen de los servicios proporcionados en la red y, en consecuencia, dependen de la disponibilidad y confiabilidad de la infraestructura de red subyacente.

La arquitectura de Internet actual, altamente escalable, no siempre puede mantener el ritmo de la demanda del usuario. Nuevos protocolos y estándares están en desarrollo para cumplir con el ritmo acelerado al cual se agregan los servicios y aplicaciones de Internet.

3.2.5. Opciones de Conexión a Internet Actualmente las opciones de conexión a Internet de banda ancha más utilizadas incluyen:

cable módem a través del proveedor de TV por cable local.

ADSL vía el proveedor de telefonía local.

Conexión inalámbrica.

3.2.5.1. Cable Módem

El cable coaxial es muy usado en áreas urbanas para distribuir las señales de televisión. El acceso a Internet está disponible desde algunas redes de televisión por cable.

Las compañías proveedoras de TV por cable instalan en los hogares de los abonados dispositivo de red llamado módems por cable para ofrecer una conexión permanente a Internet. El abonado conecta una computadora al módem por cable, que traduce las señales Ethernet que provienen de la computadora en señales para transmitir por una red de TV por cable. La oficina de TV por cable local, cuenta con el sistema informático y los dispositivos de red necesarios para brindar acceso a Internet.

Page 40: Unidad 1 - 2013 - Apunte

40

Conexión a Internet por cable modem

3.2.5.2. Conexión ADSL

La tecnología Línea de Suscripción Digital Asimétrica ADSL (Asymmetric Digital Subscriber Line) es una tecnología de conexión permanente que utiliza las líneas telefónicas convencionales para transportar datos de alto ancho de banda y brindar servicios a los suscriptores.

El proveedor de Internet instala un dispositivo de red llamado router ADSL (que cumple la función de módem ADSL también) convierte una señal Ethernet proveniente de la computadora del usuario, en una señal ADSL que se transmite al proveedor de servicio de Internet, además este dispositivo guía los mensajes a través de la red.

Por el mismo cable telefónica, transmite la voz de la telefonía normal, el tráfico de datos de subida (tráfico desde la computadora del abonado hacia el proveedor, ejemplo al colocar un archivo en algún foro de Internet o enviar un correo electrónico) y el tráfico de datos de bajada (tráfico desde el proveedor hacia la computadora del abonado, por ejemplo navegación por sitios web, descarga archivos, etc). Esta tecnología se denomina asimétrica debido a que la capacidad de descarga (tráfico de datos de bajada) y de subida de datos no coinciden. Normalmente, la capacidad de bajada es mayor que la de subida.

Existe una amplia variedad de tipos, estándares ADSL variando el ancho de banda disponible para contratar desde 256kbps hasta 10mbps en algunas localidades del país.

Conexión a Internet por ADSL

Page 41: Unidad 1 - 2013 - Apunte

41

3.2.5.3. Acceso Inalámbrico

Anteriormente una de las limitaciones del acceso inalámbrico era la necesidad de encontrarse dentro del alcance de la cobertura de transmisión de un router inalámbrico o un módem inalámbrico que tuviera una conexión fija a Internet. Los siguientes desarrollos en las tecnologías inalámbricas de banda ancha cambiaron esta situación:

WiFi municipal: muchas ciudades han comenzado a establecer redes inalámbricas municipales. Algunas de estas redes proporcionan acceso a Internet de alta velocidad de manera gratuita o por un precio marcadamente menor que el de otros servicios de banda ancha. Para conectarse a una red WiFi municipal, el suscriptor normalmente necesita un módem inalámbrico que tenga una antena direccional de mayor alcance que los dispositivos de red inalámbricos convencionales.

WiMAX: la interoperabilidad mundial para el acceso por microondas (WiMAX, Worldwide Interoperability for Microwave Access) es una nueva tecnología estándar que se está comenzado a utilizar. WiMAX proporciona un servicio de banda ancha de alta velocidad con acceso inalámbrico y brinda una amplia cobertura. WiMAX funciona de manera similar a WiFi, pero a velocidades más elevadas, a través de distancias más extensas y para una mayor cantidad de usuarios. Utiliza una red de torres de WiMAX que son similares a las torres de telefonía celular. Para tener acceso a la red WiMAX, los abonados deben contratar los servicios de un ISP que tenga una torre WiMAX en un radio de cobertura que alcance su ubicación.

Estructura de conexión a Internet inalámbrica

Internet satelital:

Normalmente es utilizada por usuarios rurales que no tienen acceso a los servicios de cable y ADSL. Una antena satelital proporciona comunicaciones de datos de dos vías (subida y bajada). Para tener acceso a los servicios de Internet satelital, los abonados necesitan una antena satelital, dos módems (uplink o enlace de carga y downlink o enlace de descarga) y cables coaxiales entre la antena y el módem. Por lo general es un servicio más costoso que las opciones de ADSL o cable módem o alternativas inalámbricas.

Telefonía Móvil 3G:

Se trata de telefonía móvil o celular de tercera generación (3G). Como su nombre lo indica esta tecnología utiliza la infraestructura de la red de telefonía celular como plataforma sobre la cual además de transmitir voz transmite datos como email, mensajería instantánea, navegación, etc.

Básicamente en la teoría la tecnología celular evolucionó de 1G a 3G creándose los estándares respectivos. En principio solo se transmitía voz, luego con la tecnología 2G se comenzaron a transmitir datos con bajas velocidades es decir a banda estrecha y actualmente con la tecnología 3G es posible disponer de una conexión

Page 42: Unidad 1 - 2013 - Apunte

42

de banda ancha móvil, es decir se logran velocidades de transferencia similares a una conexión ADSL o cable módem.

Algunas ventajas

Velocidad de transmisión alta: se pueden alcanzar velocidades superiores a los 3 Mbit/s por usuario móvil.

Presta servicios multimedia y nuevas aplicaciones de banda ancha, tales como servicios de video-telefonía y video-conferencia.

Transmisión de voz con calidad equiparable a la de las redes fijas.

Todo esto hace que esta tecnología sea ideal para prestar un gran abanico de servicios multimedia móviles y se presente como la tendencia de conexión a Internet mayormente elegida por la gente a futuro. Sin embargo en la práctica aún presenta varias desventajas, dependiendo del uso, de la zona geográfica donde se encuentre el abonado, de la velocidad a la que se está moviendo, etc. puede hacer que la conexión no preste el rendimiento adecuado.

Algunas desventajas

Cobertura limitada. Dependiendo de nuestra localización la velocidad de transferencia puede disminuir drásticamente (o incluso carecer totalmente de cobertura). Básicamente si no se dispone de señal en su teléfono celular, tampoco tendrá conexión a Internet 3G.

Disminución de la velocidad si el dispositivo desde el que nos conectamos está en movimiento (por ejemplo si vamos circulando en automóvil).

Tiempos de respuesta elevada respecto a la que se obtiene normalmente con servicios ADSL o cable módem. La latencia puede ser determinante para el correcto funcionamiento de algunas aplicaciones del tipo cliente-servidor como los juegos en línea.

Las empresas de telefonía móvil como Telefónica, Claro o Personal provee diferentes dispositivos 3G para disponer de esta conexión como teléfonos celulares 3G, módems 3G para conectar por conector USB directamente a la computadora o notebook.

3.2.6. Internet y su uso De acuerdo a Wikipedia (Wikipedia, 2009) Internet es un conjunto descentralizado de redes de comunicación interconectadas, que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.

Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.

Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otras máquinas (SSH y Telnet) o los juegos en línea.

A modo de información se puede observar los idiomas más empleados a través de la siguiente figura (valores datos en porcentajes) y su distribución por países:

Page 43: Unidad 1 - 2013 - Apunte

43

Referencias:

100.000.000+

5.000.000 - 100.000.000

2.000.000 - 5.000.000

1.000.000 - 2.000.000

500.000 - 1.000.000

200.000 - 500.000

50.000 - 200.000

10.000 - 50.000

0 - 10.000

3.2.7. Historia A continuación se presenta una breve reseña histórica de Internet:

En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.

Ingles; 29,40

Chino; 18,90

Español; 8,50

Japonés; 6,40

Francés| 4.70

Aleman; 4,20

Árabe; 4,10 Portugués; 4,00

Page 44: Unidad 1 - 2013 - Apunte

44

1969. La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959. El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita: A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)

1972. Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.

1983. El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.

1986. La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.

1989. Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones. En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.

2006. El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en 10 años, la cantidad de navegantes de la Red aumentará a 2.000 millones.

3.2.8. Internet y sociedad

Internet tiene un impacto profundo en el trabajo, la diversión y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.

Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.

Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos, en este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.

No obstante, en el transcurso del tiempo se ha venido extendiendo el acceso a Internet en casi todas las regiones del mundo, de modo que es relativamente sencillo encontrar por lo menos 2 computadoras conectadas en regiones remotas.

Page 45: Unidad 1 - 2013 - Apunte

45

Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas, la red de redes proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera.

Internet entró como una herramienta de globalización, poniendo fin al aislamiento de culturas. Debido a su rápida masificación e incorporación en la vida del ser humano, el espacio virtual es actualizado constantemente de información, fidedigna o irrelevante.

Muchos utilizan la Internet para descargar música, películas y otros trabajos. Hay fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo.

La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a persona entre los seres humanos.

En tiempos más recientes han cobrado auge sitios como Youtube, en donde los usuarios pueden tener acceso a una gran variedad de videos sobre prácticamente cualquier tema.

La pornografía representa buena parte del tráfico en internet, siendo a menudo un aspecto controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de ambas industrias en Internet. Un área principal del juego en la Internet es el sistema multijugador.

Antes Internet nos servía para un objetivo claro. Navegábamos en Internet para algo muy concreto.

Ahora quizás también, pero sin duda alguna hoy nos podemos perder por el inmenso abanico de posibilidades que nos brinda la Red. Hoy en día, la sensación que nos produce Internet es un ruido interferencias una explosión cúmulo de ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas posibilidades que para una mente pueda ser excesivo.

El crecimiento o más bien la incorporación de tantas personas a la Red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros.

El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones virtuales entre personas. Conociendo este hecho y relacionándolo con la felicidad originada por las relaciones personales, podemos concluir que cuando una persona tenga una necesidad de conocimiento popular o de conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad. Como ahora esta fuente es posible en Internet dicha persona preferirá prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente para obtener dicha información y por ello no establecerá una relación personal sino virtual. Este hecho, implica la existencia de un medio capaz de albergar soluciones para diversa índole de problemas.

Como toda gran revolución Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores. Algunos sienten que Internet produce la sensación que todos hemos sentido alguna vez, produce la esperanza que necesitamos cuando queremos conseguir algo. Es un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Para algunos usuarios internet genera una sensación de cercanía, empatía, comprensión, y a la vez de confusión, discusión, lucha y conflictos que ellos mismos denominan como la vida misma.

Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet ha alterado de manera significativa la manera de trabajar de algunas personas al poder hacerlo desde sus respectivos hogares. Internet ha permitido a estas personas mayor flexibilidad en términos de horarios y de localización, contrariamente a la jornada laboral tradicional de 9 a 5 en la cual los empleados se desplazan al lugar de trabajo. Un experto contable asentado en un país puede revisar los libros de una compañía en otro país, en un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un cuarto.

Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y de datos sobre el trabajo que está siendo recogido actualmente por el colegio de abogados de Harvard. Ha impulsado el fenómeno de la

Page 46: Unidad 1 - 2013 - Apunte

46

Globalización y junto con la llamada desmaterialización de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la utilización de la red en todos los procesos de incremento de valor de la empresa. Se ha convertido en el medio más mensurable y de más alto crecimiento en la historia. Actualmente existen muchas empresas que obtienen dinero de la publicidad en Internet. Además, existen mucha ventajas que la publicidad interactiva ofrece tanto para el usuario como para los anunciantes

Es extremadamente difícil, si no imposible, establecer control centralizado y global de la Internet. Algunos gobiernos, de naciones tales como Irán, Arabia Saudita, Cuba, Corea del Norte y la República Popular de China, restringen el que personas de sus países puedan ver ciertos contenidos de Internet, políticos y religiosos, considerados contrarios a sus criterios. La censura se hace, a veces, mediante filtros controlados por el gobierno, apoyados en leyes o motivos culturales, castigando la propagación de estos contenidos. Sin embargo, muchos usuarios de Internet pueden burlar estos filtros, pues la mayoría del contenido de Internet está disponible en todo el mundo, sin importar donde se esté, siempre y cuando se tengan la habilidad y los medios técnicos necesarios.

Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine con la autocensura de las propias empresas proveedoras de servicios de Internet, como Yahoo, Microsoft o Google, para así ajustarse a las demandas del gobierno del país receptor.

Internet incluye aproximadamente 5000 redes en todo el mundo y más de 100 protocolos distintos basados en TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red mundial de PC, han avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad, como DSL y Wireless, se ha logrado unir a las personas con videoconferencia, ver imágenes por satélite (ver tu casa desde el cielo), observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o disfrutar de un juego multijugador en 3D, un buen libro PDF, o álbumes y películas para descargar.

El método de acceso a Internet vigente hace algunos años, la telefonía básica, ha venido siendo sustituida gradualmente por conexiones más veloces y estables, entre ellas el ADSL, Cable Módems, o el RDSI. También han aparecido formas de acceso a través de la red eléctrica, e incluso por satélite (generalmente, sólo para descarga, aunque existe la posibilidad de doble vía, utilizando el protócolo DVB-RS).

Internet también está disponible en muchos lugares públicos tales como bibliotecas, hoteles o cibercafés y hasta en shoppings. Una nueva forma de acceder sin necesidad de un puesto fijo son las redes inalámbricas, hoy presentes en aeropuertos, subterráneos, universidades o poblaciones enteras.

Page 47: Unidad 1 - 2013 - Apunte

47

4. Software de base y de aplicación

4.1. Software de base

El software de base o de sistema (Wikipedia, 2009), consiste en un software que sirve para controlar e interactuar con el sistema, proporcionando control sobre el hardware y dando soporte a otros programas; en contraposición del llamado software de aplicación. Ejemplos de software del sistema son sistema operativo, sistema operativo de red, compiladores, antivirus, bibliotecas como por ejemplo OpenGL. El software de base realiza tareas como la transferencia de datos entre la memoria RAM y los dispositivos de almacenamiento (disco rígido, unidades de discos ópticos, etc), o bien puede realizar la operación de renderizado de texto en una pantalla.

El software de base puede clasificarse en sistema operativo, controladores de dispositivos y programas utilitarios. Un sistema operativo crea una interfaz entre el usuario y el sistema de hardware, mientras que otros software de sistema refinan o permite mejorar la interacción con el hardware de las computadoras.

Algunas clases de software de base son:

Cargadores de programas,

Sistemas operativos (y sus componentes, muchos de los cuales pueden considerarse como software de sistema),

Controladores de dispositivos,

Herramientas de programación: compiladores, ensambladores, etc.,

Programas utilitarios,

Entorno de escritorio / Interfaz gráfica de usuario,

Línea de comandos,

BIOS, y

Bootloaders (Gestor de arranque).

Si el software de sistema se almacena en una memoria no volátil tal como circuitos integrados, usualmente se lo denomina firmware.

4.2. Software de aplicación

El software de aplicación ha sido escrito con el fin de realizar casi cualquier tarea. Existen literalmente miles de estos programas para ser aplicados en diferentes tareas, desde procesamiento de palabras hasta cómo seleccionar una universidad. A continuación, se presenta una categorización de software de aplicación:

De negocios: Las aplicaciones más comunes son procesadores de palabras, hojas de cálculo y bases de datos.

Útiles: Ayudan a administrar a darle mantenimiento a la computadora.

Personales: Permiten mantener una agenda de direcciones y calendario de citas, hacer operaciones bancarias sin tener que salir de tu hogar, enviar correo electrónico a cualquier parte del mundo y además conectarte a servicios informáticos que ofrecen grandes bases de datos de información valiosa.

Entretenimiento: Videojuegos, simuladores de vuelo, juegos interactivos de misterio y rompecabezas difíciles de solucionar. Muchos programas educativos pueden ser considerados como software de entretenimiento. Estos programas pueden ser excelentes herramientas para la educación.

Page 48: Unidad 1 - 2013 - Apunte

48

4.3. Windows y Linux

La información vertida en esta sección fue obtenida de Wikipedia (Wikipedia, 2009) y de Ciberaula (Ciberaula , 2009)

4.3.1. Windows

Windows es una familia de sistemas operativos desarrollados y comercializados por Microsoft. Existen versiones para hogares, empresas, servidores y dispositivos móviles, como computadores de bolsillo y teléfonos inteligentes. Hay variantes para procesadores de 16, 32 y 64 bits.

Incorpora diversas aplicaciones como Internet Explorer, el Reproductor de Windows Media, Windows Movie Maker, Windows Mail, Windows Messenger, Windows Defender,

entre otros.

Desde hace muchos años es el sistema operativo más difundido y usado del mundo; de hecho la mayoría de los programas (tanto comerciales como gratuitos y libres) se desarrolla originalmente para este sistema.

4.3.2. Linux

GNU/Linux es el término empleado para referirse al sistema operativo similar a Unix que utiliza como base las herramientas de sistema de GNU (No es Unix) y el núcleo Linux. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo el código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL de GNU (Licencia Pública General de GNU) y otras licencias libres.

Sin embargo, por economía del lenguaje se suele utilizar más el término "Linux" para referirse a este sistema operativo, a pesar de que Linux sólo es el núcleo del sistema. Las variantes de este sistema se denominan distribuciones GNU/Linux (o distribuciones Linux) y su objetivo es ofrecer una edición que cumpla con las

necesidades de determinado grupo de usuarios.

Algunas distribuciones GNU/Linux son especialmente conocidas por su uso en servidores y supercomputadoras. No obstante, es posible instalar Linux en una amplia variedad de hardware como computadoras de escritorio y portátiles.

En el caso de computadoras de bolsillo, teléfonos móviles, dispositivos empotrados, videoconsolas y otros, puede darse el caso de que las partes de GNU se remplacen por alternativas más adecuadas en caso.

En abril de 2009, este sistema operativo alcanzó el 2,16% del mercado en computadoras de escritorio y portátiles en un estudio realizado por W3Counter y el 4% según W3schools.

Se aprecia un progresivo aumento del uso de GNU/Linux impulsado, en parte, por el incremento de Netbooks.

Ubuntu es una distribución GNU/Linux que ofrece un sistema operativo orientado principalmente a computadoras personales, aunque también proporciona soporte para servidores. Es una de las más importantes distribuciones de GNU/Linux a nivel mundial. Se basa en Debian GNU/Linux y concentra su objetivo en

la facilidad y libertad de uso, la fluida instalación y los lanzamientos regulares (cada 6 meses: las versiones .04 en abril y las .10 en octubre). El principal patrocinador es Canonical Ltd., una empresa privada fundada y financiada por el empresario sudafricano Mark Shuttleworth.

El nombre de la distribución proviene del concepto zulú y xhosa de Ubuntu, que significa "humanidad hacia otros" o "yo soy porque nosotros somos". Ubuntu es un movimiento sudafricano encabezado por el obispo Desmond Tutu, quien ganó el Premio Nobel de la Paz en 1984 por sus luchas en contra del Apartheid en

Page 49: Unidad 1 - 2013 - Apunte

49

Sudáfrica. El sudafricano Mark Shuttleworth, mecenas del proyecto, se encontraba muy familiarizado con la corriente. Tras ver similitudes entre los ideales de los proyectos GNU, Debian y en general con el movimiento del software libre, decidió aprovechar la ocasión para difundir los ideales de Ubuntu. El eslogan de la distribución “Linux para seres humanos” (Linux for Human Beings) resume una de sus metas principales: hacer de GNU/Linux un sistema operativo más accesible y fácil de usar.

Recepción y uso

En la LinuxWorld Conference and Expo celebrada en Londres, Ubuntu fue premiada con el «Reader Award» por la mejor distribución Linux del 2005.

Una de las múltiples distribuciones Linux que usa Google en escritorio es una derivada de Ubuntu a la que denominaron Goobuntu (no confundir con Gobuntu).

En agosto de 2006 una encuesta de 14.535 lectores de DesktopLinux.com le adjudicó a Ubuntu el 29.2% de las instalaciones de Linux en computadoras de escritorio. Dicha encuesta se repitió en 2007 con 38.500 participantes y con Ubuntu como la distribución más popular con una cuota de uso del 30.3%.

Jamie Hyneman, co-presentador de la serie de televisión Mythbusters (Cazadores de mitos), ha optado por Linux, específicamente con el ejemplo de Ubuntu, como alternativa al software propietario, citando el software inflado como un obstáculo importante en los sistemas operativos propietarios.

También ha recibido buenas críticas en publicaciones online y escritas, y ha ganado el premio Bossie de InfoWorld, en 2007, por «Best Open Source Client OS».

En 2007, el Ministerio de Educación y Ciencia de la República de Macedonia desplegó más de 180.000 equipos de escritorio con Ubuntu preinstalado para su uso en las aulas, y animó a cada estudiante del país a usar computadoras con Ubuntu.

Ubuntu también recibió evaluaciones negativas como por ejemplo, a principios de 2008, cuando la revista PCWorld criticó la falta de un gestor de efectos de escritorio integrado, aunque esto no les impidió nombrar a Ubuntu como la «mejor distribución Linux disponible a día de hoy».

En octubre de 2008, Wikipedia migró sus servidores a Ubuntu Server.

En enero de 2009, el periódico New York Times informó que Ubuntu tenía unos 10 millones de usuarios y en junio del mismo año se podía leer en ZDNet: «A nivel mundial, hay 13 millones de usuarios activos de Ubuntu, distribución la cual su uso crece a un ritmo mayor que cualquiera otra.»

La policía francesa, desde 2009, está en proceso de instalar Ubuntu en 90.000 estaciones de trabajo, demostrando un 70% de ahorro en el presupuesto de TI sin tener que reducir su capacidad.

En abril de 2010, Chris Kenyon, vicepresidente de Canonical Ltd. estimó que había 12 millones de usuarios de Ubuntu.

Después del lanzamiento de Ubuntu 10.04, el sitio oficial del fabricante de computadoras Dell, menciona diez puntos a favor de Ubuntu y sus usos. Destaca puntos como «social desde el principio»,«rápido inicio del sistema», «simple y elegante», «diseñado para la internet», «Ubuntu es seguro», entre otros puntos. Dell ofrece equipos netbooks y notebooks con Ubuntu pre-instalado desde el año 2007 hasta la actualidad.

Empresas como System y ZaReason ofrecen Ubuntu 10.10 pre-instalado en computadores de escritorio, servidores, notebooks, y netbooks.

Page 50: Unidad 1 - 2013 - Apunte

50

4.4. Software de aplicación para Windows y Linux

A continuación se presenta una tabla, obtenida de Ciberaula en La Tabla de equivalencias software análogo a

Windows en Linux, en la que se indican el tipo de software de aplicación y su equivalencia entre Windows y

Linux (solo se mencionan algunos software):

REDES Y CONECTIVIDAD WINDOWS LINUX

Navegadores Web Internet Explorer, Netscape, Mozilla for Windows, Opera, Phoenix for Windows, ...

Netscape, Mozilla, Opera, Phoenix, Nautilus,

...

Clientes de Email Outlook Express, Mozilla for Windows, Eudora, Outlook, Incredible Mail, …

Evolution, Netscape, Mozilla messenger, Sylpheed, Sylpheed-claws, Kmail, ...

Clientes de email al estilo MS Outlook style

Outlook Evolution, Bynari Insight GroupWare Suite, Aethera, ...

News reader Xnews, Outlook, Netscape, Mozilla, …

Knode, Pan, NewsReader, Netscape / Mozilla,..

Gestor de Descargas Flashget, Godzilla, Reget, Getright, Wget for Windows, ...

Downloader for X, Caitoo, Prozilla, Wget, ...

Descargador de Sites Web Teleport Pro, ... Downloader for X, …

Clientes para Mesajería Instantánea ICQ, MSN, AIM, Trillian, Miranda, ...

Licq (ICQ), Ickle (ICQ), aMSN (MSN), Kmerlin (MSN), ...

Conferencias en línea con Video/audio

NetMeeting. … GnomeMeeting, …

Comunicación por voz Speak Freely, Skype, … Speak Freely for Unix, TeamSpeak, ...

Firewall (paquetes de filtración) ZoneAlarm, Agnitum Outpost Firewall, , ...

Kmyfirewall,Easy Firewall Generator, Firewall Builder, ...

IDS (Detección de intrusos en el Sistema)

BlackICE, Agnitum Outpost Firewall

Snort, Portsentry, ...

Compartiendo archivos clientes / servidor (redes punto a punto)

Morpheus, WinMX, Napster, KaZaA, eDonkey, eMule, TheCircle, Bittorrent, ...

LimeWire for Linux, Lopster, Gnapster, Mldonkey, eDonkey for Linux, Bittorrent, ...

Trabajando con Faxes WinFax HylaFax, Fax2Send, Efax, ...

TRABAJANDO CON ARCHIVOS

Administrador de Archivos al estilo Windows

Windows Explorer Konqueror, Gnome-Commander, ...

Inspección rápida de documentos de HTML locales

Internet Explorer Dillo, Konqueror, …

Grabando CD Roxio, Nero, … Linux-UDF.

SISTEMAS DE SOFTWARE PARA ESCRITORIO

Editor de Texto Notepad, WordPad, TextPad, ... Kedit, Gedit, Gnotepad, Kate, KWrite, ...

Programas integrados (planilla de cálculo, procesadores de texto, base de datos, etc.)

Microsoft oficce, Microsoft Works, …

Oppen Office, …

Trabajando con compresores de archivos

WinZip, WinRar, … FileRoller, Gnozip, LinZip, ...

Visualizador de PostScript GhostView, … GhostView, Kghostview, …

Page 51: Unidad 1 - 2013 - Apunte

51

REDES Y CONECTIVIDAD WINDOWS LINUX

Visualizador de PDF Adobe Acrobat Reader, … Acrobat Reader para Linux., Xpdf, …

Creador de PDF Adobe Acrobat Distiller, … Adobe Acrobat Distiller para Linux, PStill, …

Cryptografía y Cifrado PGP, GnuPG + Windows Privacy Tools, …

GnuPG + GPA, KGpg, PGP, ….

Encriptación de volumenes de disco EFS, PGP-Disk, BestCrypt, Private Disk Light

Loop-aes, CFS, TCFS, BestCrypt, CryptFS, …

Virtual CD VirtualDrive, VirtualCD, Daemon Tools, ...

Virtual CD Kernel Modul, …

Reconocimento de Texto (OCR) Recognita, FineReader, OmniPage, …

ClaraOcr, Gocr, ...

Traductores (cyrillic) Promt, Socrat, … Ksocrat, …

Trabjando con el Escaner En el CD del scanner Xsane, Kooka, Xvscan, …

Antivirus AVG AntiVirus, NAV, Dr. Web, TrendMicro, F-Prot, Kaspersky, ...

Dr. Web for Linux, Trend ServerProtect for Linux, …

Reconocimiento de texto por voz MS text to speech, … KDE Voice Plugins, Festival, Emacspeak, …

MULTIMEDIA (Sonido)

Reproductores Música / mp3 / ogg s Winamp, … XMMS (X multimedia system), Noatun, Zinf. (former Freeamp), Winamp para Linux, ...

Programas para “quemar” CD Nero, Roxio Easy CD Creator, ... K3b, XCDRoast, KOnCd, , ...

Reproductores de CD CD player, …, KsCD, Orpheus, Sadp, …,

CD ripping / grabación Windows Media Player, AudioGrabber, Nero, VirtualDrive, VirtualCD, ...

Grip, Audacity, RipperX, …,

Programas para recepción de estaciones de radio

VC Radio, FMRadio, Digband Radio, …

xradio, cRadio, Xmradio, …,

Editores de Audio SoundForge, Cooledit, ... Sweep, WaveForge, Sox, …,

Mezcladores de Sonidos sndvol32, … Opmixer, aumix, mix2000, …,

Editor de Notas Musicales Finale, Sibelius, SmartScore, … LilyPond, Noteedit, …,

Secuenciador de Midi Cakewalk, … RoseGarden, Brahms, Anthem, …,

Creadores de Música Cakewalk, FruityLoops, … RoseGarden, Ardour, …,

Los sintetizadores Virtual waves, Csound, … Csound, Arts Builder, …,

Editores de ID3-Tag Mp3tag, … EasyTAG. …

MULTIMEDIA (GRAFICOS)

Visualizador de Archivos Gráficos ACDSee, IrfanView, … Xnview, GQview, Qiv, …

Editores Simples de Gráficos Paint, … Kpaint, TuxPaint, …

Visualizador de Archivos Gráficos ACDSee, IrfanView, … Xnview, GQview, Qiv, …

Editores Simples de Gráficos Paint, … Kpaint, TuxPaint, …

Page 52: Unidad 1 - 2013 - Apunte

52

5. Las caras del software libre En el movimiento Open Source también hay muchas caras; algunas nos suenan más que otras, pero todas han aportado su granito de arena a los muchos proyectos de código abierto que existen en la actualidad. A continuación repasamos 15 de estos rostros que, a nuestro entender, han hecho posible que el software libre sea cada día más importante.

Richard Stallman

Hablar de software libre es hablar de Richard Stallman, programador norteamericano que fundó la Free Software Foundation (1985). En el MIT hizo sus pinitos como hacker. A Stallman le debemos el proyecto GNU (1995) y la licencia GPL (1989), además del compilador GCC (1985). En la actualidad se dedica a realizar conferencias por todo el mundo promulgando los beneficios del software libre y cada poco tiempo suelta alguna declaración polémica en la prensa.

Linus Torvalds

Otro nombre sinónimo de software libre. Linus Torvalds, el creador de Linux (1991), el proyecto de más envergadura y que se ha convertido en la principal alternativa de código abierto a los todopoderosos Windows y Mac OS X. Este finlandés se inspiró en Minix (1987) para crear una versión de UNIX para ordenadores personales, más asequibles para el gran público. A Torvalds le debemos el Kernel de Linux que entró a formar parte del proyecto GNU y la fundación Linux International. Actualmente, se encarga de coordinar el proyecto.

Dennis Ritchie

Aunque directamente no forma parte del movimiento open source, Dennis Ritchie estuvo implicado en el diseño y desarrollo de UNIX, origen de Minix y posteriormente de Linux. También desarrolló el lenguaje C.

Andrew S. Tanenbaum

Para entender el origen de Linux también tenemos que recordar a Andrew S.

Tanenbaum, responsable de Minix (1987), una versión gratuita y reducida de UNIX. De su proyecto Linus Torvalds tomó la idea para crear el kernel de Linux.

Marc Ewing

En 1992 fundó la compañía de software Red Hat, responsable de una de las principales distribuciones Linux y de otros desarrollos igual de importantes. Red Hat es una de las empresas de software libre más importantes presente en la bolsa.

Ian Murdock

Si hablamos de Red Hat tenemos que hablar también de Debian. El alemán Ian Murdock escribió el manifiesto Debian (1993), del que surge el proyecto de crear la que hoy en día es una de las más importantes distribuciones Linux. Además, fue el primer líder del proyecto.

Page 53: Unidad 1 - 2013 - Apunte

53

Matthias Ettrich

No es tan conocido como Stallman y Torvalds, pero a él le debemos el editor LyX (1995) y el proyecto KDE (1996), uno de los principales entornos gráficos de Escritorio para Linux que también utilizan las versiones abiertas de BSD.

Miguel de Icaza

Y si hablamos de KDE, cómo no hablar de GNOME, el otro principal entorno gráfico y que fue creado por el proyecto homónimo en 1997, fundado entre otros por el mexicano Miguel de Icaza. A Miguel de Icaza le debemos también el administrador de archivos Midnight Commander, la hoja de cálculo Gnumeric, Bonobo y la plataforma Mono, una alternativa libre a .NET de Microsoft. En los últimos tiempos ha sido mal visto por parte de la comunidad open source debido a que trabaja en Microsoft y apoya iniciativas polémicas como el estándar de Microsoft Office Open XML.

Mark Shuttleworth

Es uno de los nombres más conocidos en el panorama open source por fundar Canonical (2004) y financiar el proyecto Ubuntu (2004), la distribución más popular para recién llegados a Linux. Al sudafricano Shuttleworth le debemos la popularización de Linux gracias a la promoción, a pesar de algunas polémicas.

Brian Behlendorf

Este californiano es el padre de Apache (1995), el servidor HTTP más popular, de código abierto y que cuenta con su propia licencia libre. Además de haber fundado la Apache Software Foundation y de promover el software libre, Brian Behlendorf forma parte de la Mozilla Foundation, la fundación responsable de Firefox, entre otros.

Michael Widenius

Michael Widenius es autor de MySQL (1995), una importante base de datos de código abierto. En la actualidad desarrolla MariaDB, un fork de MySQL, en su propia empresa, Monty Program AB.

Guido van Rossum

El holandés Guido van Rossum es el autor del lenguaje de programación Python (1991), que ha servido a muchos desarrolladores a crear sus aplicaciones libres. Actualmente coordina y marca las pautas de evolución de este lenguaje, además de trabajar en Google.

Rasmus Lerdorf

Este programador es responsable del lenguaje de programación PHP (1995), presente en infinidad de páginas web. También contribuyó a Apache y mSQL, y en la actualidad trabaja en WePay y realiza conferencias sobre open source por todo el mundo.

Page 54: Unidad 1 - 2013 - Apunte

54

Tim O'Reilly

Tim O'Reilly es un teórico, impulsor del software libre y que acuñó el concepto de Web 2.0. A Tim O'Reilly le debemos también el lenguaje Perl, que ayudó a desarrollar, así como O'Reilly Media, la editorial más importante en la difusión y publicación sobre tecnología e informática.

Lawrence Lessig

Por último, citamos a Lawrence Lessig, responsable de la iniciativa Creative Commons. Para ello, este abogado y catedrático de Derecho estadounidense creó una fundación con el mismo nombre que se encarga de difundir y dar soporte sobre esta alternativa a la licencia Copyright inspirada, a su vez en GPL.

Fuente: Feed – OnSoftware – Marzo 2011

Page 55: Unidad 1 - 2013 - Apunte

55

6. Uso correcto de la PC

6.1. Cuida tus ojos frente a la computadora

Si trabajas frente la computadora, entonces debes saber la pesada carga que esto significa para tus ojos. Pasar demasiado tiempo mirando la pantalla puede traerte algunos problemas relacionados, como dolor de cabeza u ojos rojos, lo que a su vez puede ocasionar desconcentración, estrés entre otras cosas.

Los ojos rojos no son sexys

Por eso aquí algunos consejos para cuidar tu vista:

Invierte en un monitor: Si pasas mucho tiempo frente a la PC, ya sea por trabajo, estudio o diversión, entonces un monitor de gran tamaño no es un gasto, sino una inversión. Un monitor de más de 20 pulgadas te permite ampliar tu rango visual y de este modo reduces la carga de los músculos que enfocan la vista. Los monitores modernos traen además mayores y mejores opciones de ajuste para las diferentes tareas (juegos, lectura, películas, etc.)

Ubica la pantalla frente a ti, no al costado: La posición ideal del monitor es justo delante de ti a unos 50 centímetros. La parte superior del monitor debe quedar a la altura de tus ojos.

Preocúpate de la iluminación ambiente: Usar la computadora sin ninguna clase de iluminación es

casi garantizar un dolor de cabeza en pocos minutos. Utiliza iluminación natural siempre que sea posible, e iluminación artificial de colores claros, pero NO ampolletas de luz blanca (como la mayoría de los modelos que ahorran energía, es preferible gastar un poco más de electricidad que desgastar tu propia vista, que es irreemplazable).

Ajusta el contraste de la pantalla: El brillo de la pantalla debe ajustarse a las condiciones de luz ambiental. Mientras más luz ambiental, más brillante debes ajustar la configuración de tu monitor. Del mismo modo, si la iluminación es baja, debes reducir el brillo. Algunos monitores modernos puede detectar automáticamente la cantidad de luz ambiental y ajustar el brillo en consecuencia.

Aumenta el tamaño del texto: La mayoría de los programas permite cambiar el tamaño de la fuente usando Control + Scroll (la ruedita del mouse, que también tiene otra función). Los monitores grandes tienen resoluciones elevadas, pero eso no significa que estés obligado a leer todo en letras minúsculas.

Toma un descanso de vez en cuando: Es buena idea hacer un alto de vez en cuando, no sólo para tus ojos, sino para tu cuerpo completo. Recuerda estirarte para evitar lesiones y dolores musculares.

Page 56: Unidad 1 - 2013 - Apunte

56

6.2. Correctas posturas frente a la Computadora

En estos momentos el uso de la computadora es fundamental para el trabajo diario. Pasamos horas frente a él para entregar informes, realizar compras, mandar correos, chatear, postear en nuestro blog, etc. Pero nunca tomamos atención de cómo es nuestra postura corporal cuando hacemos esto y sólo prestamos importancia cuando sentimos fuertes dolores a las espalda, muñecas, hombros y otros. Es por esto que dejo como referencia las siguientes imágenes que les servirán de guía para tomar una buena postura al momento de ocupar la computadora.

Correctas posturas frente al Computador – Postura de manos

Correcta posturas frente al Computador – Postura para mirar la pantalla

Correctas posturas frente al Computador – Distancia teclado y otros

Page 57: Unidad 1 - 2013 - Apunte

57

Correctas posturas frente al Computador – Recomendaciones del asiento

Correctas posturas frente al Computador – El mouse

Correctas posturas frente al Computador – El codo

Page 58: Unidad 1 - 2013 - Apunte

58

Un resumen general de las posturas en la PC:

Si usas notebook/ netbook, debes evitar estas posturas por periodos prolongados:

Page 59: Unidad 1 - 2013 - Apunte

59

6.3. Ejercicios de estiramiento al trabajar con el PC

¿Sientes dolores en el cuello, espalda, piernas y otros lugares al trabajar en el PC? Yo si, es por eso que sigo estos ejercicios de estiramiento para no sufrir malestares musculares por pasar muchas horas frente a la computadora.

Lo más importante para estirarte es soltar los músculos, dejar de pensar en trabajo y hacer los movimientos sin sentir dolor.

Además podrás complementar estos ejercicios con las indicaciones que te presentamos anteriormente en las correctas posturas frente a la computadora, y así evitarás cualquier tipo de dolencia física.

Fuente: www.reparaciondepc.cl

Page 60: Unidad 1 - 2013 - Apunte

60

7. Seguridad de la Informacion

7.1. Objetivo

Lograr comprender el alcance de las actividades relacionadas con el manejo de la información, teniendo en cuenta los riesgos de su administración, la confidencialidad de la misma, y la relación con la legislación vigente en la República Argentina.

7.2. Alcance

Se desarrollan conceptos tales como:

Seguridad de la información.

Administración de riesgos y controles.

Vulnerabilidades más conocidas y métodos de protección.

Introducción a los controles y las buenas prácticas de trabajo.

Concientización de usuarios.

Continuidad de las actividades de sistemas.

Legislación: ley de delitos informáticos, implicancias, correo electrónico y otras aplicaciones prácticas,

Ley de habeas Data,

Firma Digital.

7.3. Desarrollo de conceptos

Los conceptos siguientes se han extraído, salvo indicación contraria, de las normas generalmente aceptadas en la administración de Tecnologías Informáticas, las cuales son la norma ISO 27.000 Tecnologías de la Información – Código de Prácticas para la Administración de la Seguridad de la Información, creada por la Asociación de Estándares Internacional (ISO - International Organization for Standardization) y la Comisión de Electrotecnia Internacional (IEC - International Electrotechnical Commission), asociaciones profesionales sin fines de lucro que nuclean a profesionales de diferentes áreas; y de los Objetivos de Control para Tecnologías de la Información (CobIT) creado por la Asociación de Auditoria y Control de Sistemas de Información (ISACA - INFORMATION SYSTEMS AUDIT AND CONTROL ASSOCIATION).

7.3.1. Seguridad de la información

7.3.1.1. ¿Qué es la seguridad de la información? La información es un recurso que, como el resto de los otros activos que posee una organización, tiene un valor asociado y por consiguiente debe ser debidamente protegida.

La Seguridad de la Información se refiere a la serie de mecanismos de control que tiene como fin proteger a la información de una amplia gama de amenazas, a fin de garantizar la continuidad y disponibilidad de la información, minimizar el daño que pudiera existir y maximizar las inversiones realizadas en tecnología, aplicaciones y capacitación de personas.

La información puede existir en muchas formas. Puede estar impresa o escrita en papel, almacenada electrónicamente, transmitida por correo o utilizando medios electrónicos, presentada en imágenes, o expuesta en una conversación.

Cualquiera sea la forma que adquiere la información, o los medios por los cuales se distribuye o almacena, siempre debe ser protegida en forma adecuada.

Page 61: Unidad 1 - 2013 - Apunte

61

La Seguridad de la Información se define como la preservación de las siguientes características:

CONFIDENCIALIDAD: garantiza que la información sea accesible sólo a aquellas personas autorizadas a tener acceso a ella.

INTEGRIDAD: salvaguarda la exactitud y totalidad de la información y los métodos de procesamiento.

DISPONIBILIDAD: garantiza que los usuarios autorizados tengan acceso a la información y a los recursos relacionados con ella, toda vez que se requiera.

La seguridad de la información se logra implementando un conjunto adecuado de controles, que abarcan políticas, normas, procedimientos, y una organización dedicada a fomentar y administrar los controles definidos.

7.3.1.2. ¿Por qué es necesaria la seguridad de la información? La información y los procesos, sistemas y redes que le brindan apoyo constituyen importantes recursos. La confidencialidad, integridad y disponibilidad de la información son esenciales para cumplir con los objetivos de la organización, cumplir con la legislación, y mantener la imagen de la organización.

Las organizaciones, sus redes y sistemas de información, se enfrentan en forma creciente con amenazas relativas a la seguridad, de diversos orígenes, incluyendo el fraude asistido por computadora, espionaje, sabotaje, vandalismo, incendio o inundación. Daños tales como los ataques mediante virus informáticos, "hacking" y denegación de servicio se han vuelto más comunes, ambiciosos y crecientemente sofisticados.

La dependencia de los organismos respecto de los sistemas y servicios de información denota que los mismos son más vulnerables a las amenazas concernientes a seguridad. La interconexión de las redes, la existencia de Internet y el uso compartido de recursos de información incrementa la dificultad de lograr el control de todos los accesos de las personas. Además, algunas aplicaciones podrían no haber sido diseñadas para ser seguras.

La seguridad que puede lograrse por medios técnicos es limitada y debe ser respaldada por una gestión y procedimientos adecuados. La identificación de los controles que deben implementarse requiere una cuidadosa planificación y atención a todos los detalles. La administración de la seguridad de la información, exige, como mínimo, la participación de todos los empleados o usuarios y también podría requerir la participación de ciertos proveedores.

Finalmente, los controles de Seguridad de la Información resultan considerablemente más económicos y eficaces si se incorporan en la etapa de especificación de requerimientos y diseño de los proyectos.

7.3.1.3. El esquema de Seguridad de la Información El ritmo de los cambios en la tecnología informática (en adelante TI) se ha incrementado vigorosamente. El mayor desafío que enfrentan hoy las organizaciones es como sacar provecho de las oportunidades tecnológicas de una manera controlada y segura que brinde las capacidades necesarias para desenvolverse en un mercado competitivo. Cada organización se enfrenta a un número recurrente de vulnerabilidades de seguridad, como son: contraseñas débiles, diversidad de servidores, computadoras personales y aplicaciones, muchas veces diseminados en una amplia región geográfica. En muchos casos, estas vulnerabilidades son simplemente síntomas de problemas significativos de estrategia en materia de seguridad.

El esquema de Seguridad de la Información se debe dirigir para resolver estos problemas y ser capaz de contestar a preguntas como:

¿Cómo puede la Seguridad de la Información mitigar los riesgos legales relacionados con la privacidad de la información de las personas?

¿Cómo puede la Seguridad de la Información proteger los activos informáticos para evitar pérdidas económicas y daño a la reputación de la sociedad y de otros organismos?

¿Cómo puede la Seguridad de la Información facilitar las estrategias de la organización, asegurando la confiabilidad, integridad y disponibilidad de la información administrada?

Page 62: Unidad 1 - 2013 - Apunte

62

7.3.1.4. Administración de riesgos y controles Las organizaciones exitosas requieren una apreciación y un entendimiento básico de los riesgos y limitaciones de TI a todos los niveles dentro de la organización con el fin de obtener una efectiva dirección y controles adecuados. La administración (El MANAGEMENT de la organización) debe decidir cuál es la inversión razonable en seguridad y en control en TI y cómo lograr un balance entre riesgos e inversiones en control en un ambiente de TI frecuentemente impredecible. Mientras la seguridad y los controles en los sistemas de información ayudan a administrar los riesgos, no los eliminan.

Adicionalmente, el exacto nivel de riesgo nunca puede ser conocido ya que siempre existe un grado de incertidumbre.

Finalmente, la Administración debe decidir el nivel de riesgo que está dispuesta a aceptar. Juzgar cual puede ser el nivel tolerable, particularmente cuando se tiene en cuenta contra el costo, puede ser una decisión difícil para la Administración. Por esta razón, la Administración necesita un marco de referencia de las prácticas generalmente aceptadas de control y seguridad de TI para compararlos contra el ambiente de TI existente y planeado.

Control

Se define como las políticas, procedimientos, prácticas y estructuras organizacionales diseñadas para garantizar razonablemente que los objetivos del negocio o la organización serán alcanzados y que eventos no deseables serán prevenidos o detectados y corregidos.

Se presentan en esta instancia algunos conceptos o definiciones que se utilizan en adelante:

Efectividad

Se refiere a que la información relevante sea pertinente para el proceso del negocio, así como a que su entrega sea oportuna, correcta, consistente y de manera utilizable.

Eficiencia

Se refiere a la provisión de información a través de la utilización óptima (más productiva y económica) de recursos.

Cumplimiento

Se refiere al cumplimiento de aquellas leyes, regulaciones y acuerdos contractuales a los que el proceso de negocios está sujeto, por ejemplo, criterios de negocio impuestos externamente.

Confiabilidad de la Información

Se refiere a la provisión de información apropiada para la administración con el fin de operar la entidad y para ejercer sus responsabilidades de reportes financieros y de cumplimiento.

Mientras que los recursos con que cuenta la organización para el cumplimiento de sus objetivos son:

Datos

Son objetos en su más amplio sentido, (por ejemplo, externos e internos), estructurados y no estructurados, gráficos, sonido, etc.

Sistemas de Aplicación

Se entiende como sistemas de aplicación la suma de procedimientos manuales y programados.

Tecnología

La tecnología está compuesta por hardware, sistemas operativos, sistemas de administración de bases de datos, redes, multimedia, etc.

Instalaciones

Recursos para alojar y dar soporte a los sistemas de información.

Personal

Page 63: Unidad 1 - 2013 - Apunte

63

Habilidades del personal, conocimiento, sensibilización productividad para planear, organizar, adquirir, entregar y monitorear servicios de sistemas de información.

Con el fin de asegurar que los requerimientos de negocio para la información son satisfechos, deben definirse, implementarse y monitorearse medidas de control adecuadas para estos recursos.

7.3.1.5. Vulnerabilidades más conocidas y métodos de protección Si bien Internet es una fuente de conocimiento y brinda posibilidades antes no exploradas por la forma de comunicar a las personas, también es una fuente de riesgos algunos de los cuales pueden ser conocidos, pero otros invariablemente no se conocerán hasta que ocurran.

Como una breve referencia de los riesgos a que se ve expuesta una computadora conectada a Internet se presente la siguiente lista que no quiere ser completa sino ejemplificadora de las posibles causas de mal funcionamientos, fraudes o delitos que se pueden realizar mediante esta vía. Asimismo se presentan algunos de los conceptos más conocidos para combatir a los riesgos mencionados.

Se debe tener siempre en cuenta que el conocimiento sobre las vulnerabilidades que afectan a la tecnología utilizada es la mejor herramienta que un usuario puede tener para poder prever las acciones que debe realizar para proteger su información.

Aplicaciones maliciosas1

Malware

Malware (del inglés malicious software, también llamado badware, software malicioso o software malintencionado) es un software que tiene como objetivo infiltrarse en el sistema y dañar la computadora sin el conocimiento de su dueño, con finalidades muy diversas, ya que en esta categoría encontramos desde un troyano a un spyware.

Esta expresión es un término general muy utilizado por profesionales de la computación para definir una variedad de software o programas de códigos hostiles e intrusivos. Muchos usuarios de computadores no están aún familiarizados con este término y otros incluso nunca lo han utilizado. Sin embargo la expresión "virus informático" es más utilizada en el lenguaje cotidiano y a menudo en los medios de comunicación para describir todos los tipos de malware. Se debe considerar que el ataque a la vulnerabilidad por malware, puede ser a una aplicación, una computadora, un sistema operativo o una red.

Virus

Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más "benignos", que solo se caracterizan por ser molestos.

Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.

El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al del programa infectado y se graba en el disco rígido, con lo cual el proceso de replicado se completa.

1 Las definiciones de esta sección fueron extraídas de Wikipedia

Page 64: Unidad 1 - 2013 - Apunte

64

Spyware

Un programa espía, traducción del inglés spyware, es un software, dentro de la categoría malware, que se instala furtivamente en una computadora para recopilar información sobre las actividades realizadas en ella. La función más común que tienen estos programas es la de recopilar información sobre el usuario y distribuirlo a empresas publicitarias u otras organizaciones interesadas, pero también se han empleado en organismos oficiales para recopilar información contra sospechosos de delitos, como en el caso de la piratería de software. Además pueden servir para enviar a los usuarios a sitios de Internet que tienen la imagen corporativa de otros, con el objetivo de obtener información importante. Dado que el spyware usa normalmente la conexión de una computadora a Internet para transmitir información, consume ancho de banda, con lo cual, puede verse afectada la velocidad de transferencia de datos entre dicha computadora y otra(s) conectada(s) a Internet.

Entre la información usualmente recabada por este software se encuentran: los mensajes, contactos y la clave del correo electrónico; datos sobre la conexión a Internet, como la dirección IP, el DNS, el teléfono y el país; direcciones web visitadas, tiempo durante el cual el usuario se mantiene en dichas web y número de veces que el usuario visita cada web; software que se encuentra instalado; descargas realizadas; y cualquier tipo de información intercambiada, como por ejemplo en formularios, con sitios web, incluyendo números de tarjeta de crédito y cuentas de banco, contraseñas, etc.

Los programas espía pueden ser instalados en un ordenador mediante un virus, un troyano que se distribuye por correo electrónico, o bien puede estar oculto en la instalación de un programa aparentemente inocuo. Algunos programas descargados de sitios no confiables pueden tener instaladores con spyware y otro tipo de malware.

Los programas de recolección de datos instalados con el conocimiento del usuario no son realmente programas espías si el usuario comprende plenamente qué datos están siendo recopilados y a quién se distribuyen.

Cookies

Los cookies son archivos en los que almacena información sobre un usuario de Internet en su propio ordenador, y se suelen emplear para asignar a los visitantes de un sitio de Internet un número de identificación individual para su reconocimiento subsiguiente. La existencia de los cookies y su uso generalmente no están ocultos al usuario, quien puede desactivar el acceso a la información de los cookies; sin embargo, dado que un sitio Web puede emplear un identificador cookie para construir un perfil de un usuario y que dicho usuario éste no conoce la información que se añade a este perfil, se puede considerar al software que transmite información de las cookies, sin que el usuario consienta la respectiva transferencia, una forma de spyware. Por ejemplo, una página con motor de búsqueda puede asignar un número de identificación individual al usuario la primera vez que visita la página, y puede almacenar todos sus términos de búsqueda en una base de datos con su número de identificación como clave en todas sus próximas visitas (hasta que el cookie expira o se borra). Estos datos pueden ser empleados para seleccionar los anuncios publicitarios que se mostrarán al usuario, o pueden ser transmitidos (legal o ilegalmente) a otros sitios u organizaciones.

Troyano

En informática, se denomina troyano (o caballo de Troya, traducción literal del inglés Trojan horse aunque no tan utilizada) a un programa malicioso capaz de alojarse en computadoras y permitir el acceso a usuarios externos, a través de una red local o de Internet, con el fin de recabar información o controlar remotamente a la máquina anfitriona.

Un troyano no es en sí un virus, aun cuando teóricamente pueda ser distribuido y funcionar como tal. La diferencia fundamental entre un troyano y un virus consiste en su finalidad. Un "troyano" es una herramienta de administración remota que se ejecuta de manera oculta en el sistema, normalmente bajo una apariencia inocua. Al contrario un virus, que es un huésped destructivo, el troyano no necesariamente provoca daños porque no es su objetivo.

Suele ser un programa alojado dentro de una aplicación, una imagen, un archivo de música u otro elemento de apariencia inocente, que se instala en el sistema al ejecutar el archivo que lo contiene.

Page 65: Unidad 1 - 2013 - Apunte

65

La mejor defensa contra los troyanos es no ejecutar nada de lo cual se desconozca el origen y mantener software antivirus actualizado y dotado de buena heurística; es recomendable también instalar algún software anti troyano, de los cuales existen versiones gratis aunque muchos de ellos constituyen a su vez un troyano. Otra solución bastante eficaz contra los troyanos es tener instalado un Firewall.

Otra manera de detectarlos es inspeccionando frecuentemente la lista de procesos activos en memoria en busca de elementos extraños, vigilar accesos a disco innecesarios, etc.

Pharming

Pharming es la explotación de una vulnerabilidad en el software de los servidores DNS (Domain Name System) o en el de los equipos de los propios usuarios, que permite a un atacante redirigir un nombre de dominio (domain name) a otra máquina distinta. De esta forma, un usuario que introduzca un determinado nombre de dominio que haya sido redirigido, accederá en su explorador de internet a la página web que el atacante haya especificado para ese nombre de dominio.

Phishing

Un ejemplo de phishing que ocurre frecuentemente es un correo electrónico, supuestamente enviado por un banco, que asusta a los receptores, amenazándoles con perder el dinero de su cuenta si no acceden a una web y confirman sus datos bancarios. Lo que ocurre es que la web es falsa y los datos que se introducen en ella pasan directamente a manos de los ladrones.

También se ha detectado el uso del mismo método con mensajes de voz, en donde una máquina avisa de que el banco ha congelado su cuenta y debe llamar a un teléfono gratuito. Este término es llamado "phishing" telefónico y también se utilizan los mensajes SMS de los teléfonos móviles.

Spam

Se llama spam, correo basura o sms basura a los mensajes no solicitados, habitualmente de tipo publicitario, enviados en grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La acción de enviar dichos mensajes se denomina spamming.

Aunque se puede hacer por distintas vías, la más utilizada entre el público en general es la basada en el correo electrónico.

Otras tecnologías de Internet que han sido objeto de correo basura incluyen grupos de noticias, usenet, motores de búsqueda, wikis, foros, blogs, también a través de popups y todo tipo de imágenes y textos en la web.

El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de texto) y los sistemas de mensajería instantánea

.

Herramientas de protección2

Antivirus

Los antivirus nacieron como una herramienta simple cuyo objetivo fuera detectar y eliminar virus informáticos, durante la década de 1980.

Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, los antivirus han evolucionado hacia programas más avanzados que no sólo buscan detectar un Virus informáticos, sino bloquearlo para prevenir una infección por los mismos, así como actualmente ya son capaces de reconocer otros tipos de malware, como spyware, rootkits, etc.

El funcionamiento de un antivirus varía de uno a otro, aunque su comportamiento normal se basa en contar con una lista de virus conocidos y su formas de reconocerlos (las llamadas firmas o vacunas), y analizar contra esa lista los archivos almacenados o transmitidos desde y hacia un ordenador. 2 Las definiciones de esta sección fueron extraídas de Wikipedia

Page 66: Unidad 1 - 2013 - Apunte

66

Adicionalmente, muchos de los antivirus actuales han incorporado funciones de detección proactiva, que no se basan en una lista de malware conocido, sino que analizan el comportamiento de los archivos o comunicaciones para detectar cuales son potencialmente dañinas para el ordenador, con técnicas como Heurística, u otras más específicas.

Usualmente, un antivirus tiene un (o varios) componente residente en memoria que se encarga de analizar y verificar todos los archivos abiertos, creados, modificados, ejecutados y transmitidos en tiempo real, es decir, mientras el ordenador está en uso.

Asimismo, cuentan con un componente de análisis bajo demanda (los conocidos scanners, exploradores, etc.), y módulos de protección de correo electrónico, Internet, etc.

El objetivo primordial de cualquier antivirus actual es detectar la mayor cantidad de amenazas informáticas que puedan afectar un ordenador y bloquearlas antes de que la misma pueda infectar un equipo, o poder eliminarla tras la infección.

Actualmente los antivirus comerciales también poseen características de Firewall y Antispam, protegiendo de los ataques de Internet y de los molestos correos basura, incluso incorporando el bloqueo de medios de almacenamiento extraíbles, herramientas de diagnóstico de medios y recuperación del sistema operativo.

Firewall

Un Firewall (en alguna bibliografia se usa el termino español Cortafuegos) es una parte de un sistema o una red que está diseñado para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.

Los Firewall pueden ser implementados en hardware o software, o una combinación de ambos. Los Firewall se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través del Firewall, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados. También es frecuente conectar al Firewall a una tercera red, llamada zona desmilitarizada o DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior. Un Firewall correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección.

7.3.1.6. Concientización de usuarios Todos los empleados de la organización y, cuando sea pertinente, los usuarios externos, deben recibir una adecuada capacitación y actualizaciones periódicas en materia de políticas y procedimientos de la organización. Esto comprende los requerimientos de seguridad, las responsabilidades legales y controles de la organización, así como la capacitación referida al uso correcto de las instalaciones de procesamiento de información, por ejemplo el procedimiento de ingreso al sistema (login) y el uso de paquetes de software, antes de que se les otorgue acceso a la información o a los servicios.

El éxito de un esquema de seguridad también depende en gran medida del nivel de concientización que tienen los usuarios de la organización con respecto a la seguridad de los sistemas de información. Se deben tener en cuenta las distintas técnicas disponibles y los diferentes perfiles de los usuarios a fin de proporcionar capacitación y concientización efectiva de todos los usuarios de sistemas o aplicativos y en diferente medida de las personas de la organización que no administren información pero que sean parte de la organización.

El programa de concientización de usuarios debería tener en cuenta los siguientes objetivos:

El mejoramiento de la concientización respecto de la necesidad de proteger los activos informáticos;

El desarrollo de las habilidades y el conocimiento de modo tal que los usuarios de informática puedan desempeñar su trabajo en forma más segura; y

La creación de conocimientos profundos, según la necesidad, para diseñar, implementar u operar las medidas de seguridad correspondientes.

Page 67: Unidad 1 - 2013 - Apunte

67

La concientización de usuarios es una forma de garantizar que los usuarios están al corriente de las amenazas e incumbencias en materia de seguridad de la información, y estén capacitados para respaldar la política de seguridad en el transcurso de sus tareas normales.

7.3.1.7. Continuidad de las actividades de sistemas La administración de la continuidad de las operaciones sirve para contrarrestar las interrupciones de las actividades comerciales y proteger los procesos críticos de las organizaciones de los efectos de fallas significativas o desastres.

Se debe implementar un proceso de administración de la continuidad de los negocios para reducir la discontinuidad ocasionada por desastres y fallas de seguridad (que pueden ser el resultado de, por ej., desastres naturales, accidentes, fallas en el equipamiento, y acciones deliberadas) a un nivel aceptables mediante una combinación de controles preventivos y de recuperación.

Se deben analizar las consecuencias de desastres, fallas de seguridad e interrupciones del servicio. Se deben desarrollar e implementar planes de contingencia para garantizar que los procesos de negocios puedan restablecerse dentro de los plazos requeridos. Dichos planes deben mantenerse en vigencia y transformarse en una parte integral del resto de los procesos de administración y gestión.

La administración de la continuidad de los negocios debe incluir controles destinados a identificar y reducir riesgos, atenuar las consecuencias de los incidentes perjudiciales y asegurar la reanudación oportuna de las operaciones indispensables

Entre las amenazas que pueden existir se pueden mencionar:

Naturales: Terremotos, Huracanes, Inundaciones, etc.

Humanas (Intencional/Accidental): Vandalismo, Conflictos con el campo, Errores (programadores, operadores, etc.), Huelgas, Ataques de Hackers, etc.

Accidentes: Incendio, Fallas graves en el edificio, Falla de hardware/software, Falla del sistema operativo, Pérdida de backups, etc.

Se debe prestar atención a la clasificación de procesos (Críticos, Necesarios, u Opcionales), ya que de acuerdo a la importancia de los mismos se diseñarán los procesos de recuperación.

Mediante una serie de preguntas y respuestas, se debería poder definir un esquema de recupero que sea adecuado, se presentan a continuación algunos ejemplos:

¿Cuánto tiempo puede operar la organización sin contar con este servicio?

¿Cuál sería la potencial pérdida financiera?

¿Afecta a la imagen?

¿Se puede incurrir en faltas legales?

¿Son viables los procedimientos alternativos manuales?

¿Manejan información recuperable?

¿Los organismos clientes ven afectada su operación por la interrupción del servicio?

Los posibles escenarios ante un desastre serían:

Fallas en el equipamiento o pérdida no programada de energía.

Destrucción o daño en archivos vitales.

Pérdida del entorno de comunicaciones.

Pérdida parcial o total de equipamiento.

Destrucción masiva del Centro de Cómputos o servidores principales.

Lo anterior indica que el desarrollo de un plan es un proyecto complejo, que deben intervenir diferentes áreas de la organización por lo que es multidisciplinario, que también incluirá procedimientos que no son del área de

Page 68: Unidad 1 - 2013 - Apunte

68

sistemas, y que se verá afectado por la estrategia del organismo y podrán definirse procedimientos alternativos que deben ser posibles y se deben encuadrar en el marco de la ley.

Finalmente, las posibles consecuencias de no tener un plan pueden ser:

Pérdida de funcionalidad de los organismos

Pérdida de imagen

Atmósfera de crisis durante el período de recuperación

Inconvenientes para el personal para desarrollar sus tareas

Desperdicio de esfuerzos y recursos

Oportunidad de cometer errores y abusos

Potencial peligro de no poder recobrar datos, aplicaciones

Costo y esfuerzo de re-trabajo

7.3.2. Legislación La legislación de la República Argentina define las siguientes leyes relacionadas con la seguridad de la información:

Ley 11.723 sobre Propiedad Intelectual, sus modificatorias (principalmente, la Ley 25.036) y reglamentaciones relacionadas.

Ley 24.776 sobre Secretos Comerciales.

Ley 25.326 sobre Protección de los Datos Personales (Ley de Habeas Data) y reglamentación del artículo 43 de la Constitución Nacional, y demás decretos y disposiciones relacionadas.

Ley Nº 25.506 de Firma Digital

Ley 26388, reforma del código Penal en materia de delitos informáticos, para que finalmente se contemplen aspectos relacionados con Internet y nuevas tecnologías.

Ley de Habeas Data

La ley denominada “Habeas Data” indica que tanto compañías como particulares, que utilicen, cedan o transfieran información de personas o entidades, deben cumplir una serie de requisitos determinados. 3

En forma general, se entiende por información personal a la que existe en un sistema informático, sin olvidar otros tipos de soportes de información tradicionales, y se refiere al nombre, apellido, domicilio, número de documento de una persona. Sin embargo, los avances de la tecnología hacen que en forma continua se vayan agregando nuevas posibilidades que sirven de soporte para la registrar y mantener la información de las personas. También se debe tener en cuenta la información considerada como sensible, como por ejemplo, los relativos a salud, religión, antecedentes políticos o ideológicos, u otro dato que pudiera ser tenido en cuenta para categorizar o discriminar a las personas y que pertenecen al ámbito de su intimidad.

Los datos personales como un conjunto es cualquier tipo de información que se refiera a una persona física o de existencia ideal. La protección de datos corresponde a la información personal, no estará bajo el ámbito de la ley cuando ocurra que los datos se encuentren disociados (por lo tanto no se pueda establecer quién es la persona a la que le corresponde la información), cuando se recurra al anonimato o a la elección de la impersonalización de los datos (cuando se trate de datos estadísticos).

Asimismo la forma que adopta la información de una persona, puede tomar características tan especiales como por ejemplo la información genética, tornándose difícil de establecer los límites de disociación o propiedad.

También se debe hacer mención que los sucesores del titular de los datos personales tienen ciertos derechos, ya que la ley reconoce que los derechos personales no se extinguen con la vida de la persona.

3 Se puede encontrar referencias a la ley en el sitio de Dirección Nacional de Protección de Datos Personales, dependiente del ministerio

de Justicia y Derechos Humanos de la Nación Argentina - http://www.jus.gov.ar/dnpdpnew

Page 69: Unidad 1 - 2013 - Apunte

69

Los datos de una persona, de alguna forma, hablan por ella, en forma descriptiva. Por esto es que la información de las personas es importante y que la misma debería ser regulada por el dueño o propietario de esa información.

Se hace necesario definir también el concepto de cuándo un dato es sensible, ya que estos tendrán un tratamiento especial de acuerdo a su naturaleza. Los datos sensibles son aquellos que revelan origen racial y étnico, opiniones políticas, convicciones religiosas, filosóficas, morales, afiliaciones sindicales, políticas, a organizaciones sin fines de lucro, o información referente a salud, vida sexual, gustos personales. Por ejemplo: miembros de un club, iglesia, sindicato, partido político, salud, circunstancias laborales o sociales, y referentes al patrimonio. En referencia al patrimonio y de acuerdo a las leyes y a fallos que se han producido en la legislación Argentina, se pueden considerar o no como datos sensibles a los datos crediticios.

El entender que la información de una persona es una posesión de la misma tal como su propio cuerpo, es un aspecto social y cultural. La concientización de las personas, organismos del estado y de las empresas que administran información sobre personas es un proceso lento que se debe implantar en la sociedad en forma de educación a todos los niveles de la misma.

Delitos informáticos

La Ley 26388, reforma del código Penal en materia de delitos informáticos, para que se contemplen aspectos relacionados con Internet y nuevas tecnologías.

En el año 2006 se desató la polémica sobre la violación de correos electrónicos de varios periodistas y jueces. En el mismo año la Cámara de Diputados aprueba un proyecto de ley. Durante 2007 el proyecto es tratado en el Senado y mejorado. El miércoles 4 de junio de 2008, Diputados aprueba la ley.

En realidad la ley es una reforma al Código Penal, no es una ley de delitos informáticos porque no se crean nuevos delitos sino que se modifican los existentes.

Se presenta la necesidad de definir nuevos términos de acuerdo a la significación de conceptos empleados en el código:

El término “documento” comprende toda representación de actos o hechos, con independencia del soporte utilizado para su fijación, almacenamiento, archivo o transmisión.

Los términos “firma” y “suscripción” comprenden la firma digital, la creación de una firma digital o firmar digitalmente.

Los términos “instrumento privado” y “certificado” comprenden el documento digital firmado digitalmente.

7.3.3. Conclusiones Se desea remarcar la importancia del manejo de los términos desarrollados en este módulo debido a que durante el desarrollo de sus tareas profesionales seguramente será usuario de las tecnologías de la información. La tecnología amplía el espectro de tareas y da ventajas competitivas a los procesos de trabajo y a las personas que la utilizan y nadie pone en duda sus beneficios. Pero también debe ser aceptado que el uso de la tecnología se verá afectado por los riesgos inherentes de la misma, de lo cual se advierte que el conocimiento de los riesgos y los controles que puedan disminuirlos, sean de interés para las personas que utilicen esa tecnología.

7.3.4. Glosario Activos informáticos: Son activos informáticos todos aquellos recursos de información, recursos de

software, recursos físicos y servicios que son propiedad (o están bajo la tutela de) de la organización objeto del análisis o uno de sus proveedores.

Amenazas: Son sucesos ambientales o acciones humanas que podrían ocurrir y producir daños en la integridad, confidencialidad o disponibilidad de los activos informáticos.

Page 70: Unidad 1 - 2013 - Apunte

70

La información y la infraestructura tecnológica pudiera ser un objetivo para una variedad de amenazas. Entre ellas, fraude informático, espionaje, sabotaje, vandalismo, fallas de hardware o software, interrupción de energía, y desastres naturales.

Riesgo: Es la resultante de considerar el potencial impacto que una falla de seguridad tendrá en la prestación de los servicios de la organización y la probabilidad de ocurrencia de dicha falla tomando en cuenta las amenazas y la capacidad de dichas amenazas para explotar las vulnerabilidades existentes.

Usuario Final: Es todo el personal de la organización y/o terceros que haga uso de las aplicaciones o sistemas y de la información con el objeto de poder cumplir con sus tareas.

Vulnerabilidad: Es cualquier componente de un activo informático susceptible de ser atacado o utilizado por una amenaza para producir un daño la integridad, confidencialidad o disponibilidad de los activos informáticos.

Page 71: Unidad 1 - 2013 - Apunte

71

8. Trabajo Práctico

De acuerdo a lo leído en esta unidad responda a las siguientes preguntas:

1. ¿De qué manera cree que la informática puede potenciar su desarrollo profesional?

2. Mencione las partes básicas del hardware de una computadora y explique brevemente su función.

Indique si se trata de un dispositivo de Entrada, Salida o Entrada/Salida.

3. ¿En qué se diferencia la memoria del disco rígido siendo que ambos pueden almacenar información?

4. ¿Qué es un microprocesador o CPU? ¿Qué función cumple?

5. Revise un folleto o página de internet donde aparecen las características de las computadoras que se

venden. Consulte o averigüe lo que no entiende.

6. ¿Qué entiende por Sistema Operativo?

7. ¿Qué software de sistema conoce? Defina Driver o Controlador de Dispositivo.

8. ¿Para qué cree que sirve conectar computadoras en red?

9. Definición de software libre.

10. Definición de software propietario.

11. ¿Cómo influye el crecimiento del software libre en la revolución de software dada en la actualidad?

12. ¿Qué es el copyright y el copyleft? ¿Qué características tienen? ¿Dónde se aplican?

13. ¿Cuál es su reflexión acerca del copyright y copyleft?

14. Mencione las ventajas y desventajas del software libre.

15. Mencione las ventajas y desventajas del software propietario.

16. Diferencie Internet, Intranet y Extranet.

17. Plantee situaciones (lugares) con distintos tipos de conexiones.

18. Busque información sobre conectividad en Argentina, por ejemplo número de usuarios, distribución de

conectividad en el país.

19. ¿Alguna vez fue hackeado o le ingreso algún intruso (virus) en su computadora? Si su respuesta es sí

¿Cuál cree que fue su punto vulnerable? ¿Hasta dónde le afecto el ataque?, si su respuesta es no ¿Qué es

lo que hizo/hace para estar seguro?

Recomendación: No vaya a un examen si, al menos, no conoce las respuestas a las preguntas de arriba.

Page 72: Unidad 1 - 2013 - Apunte

72

9. Bibliografía

Ciberaula. La Tabla de equivalencias software análogo a Windows en Linux. 2009. http://linux.ciberaula.com/tabla.php. Último acceso Julio 2009.

Culebro Juárez, Montserrat; Gómez Herrera, Wendy Guadalupe y Torres Sanchez, Susana. 2006. Software libre vs software propietario. Ventajas y desventajas. http://bakara.files.wordpress.com/2007/04/softwarelibrevssoftwarepropietario.pdf. Ultimo acceso Julio 2009.

López Guzmán Clara. 2000. La información digital. http://www.bibliodgsca.unam.mx/ tesis/tes7cllg/sec_16.htm. Ultimo acceso Julio 2009.

Luján Mora, S. 2002. Programación de aplicaciones web: historia, principios básicos y clientes web –

Editorial Club Universitario, San Vicente (Alicante) España.

Metzner-Szigeth, A. 2006. El movimiento y la matriz" – Internet y transformación socio-cultural. En:

Revista Iberoamericana de Ciencia, Tecnología, Sociedad e Innovación (CTS+I), No. 7.

Poder Ejecutivo Nacional. 1993. Ley de Propiedad Intelectual (ley 11723). http://www.mincyt.gov.ar/11723.htm. Ultimo acceso Julio 2009.

Tanenbaum, A. 2002. Computer Networks 4th Edition.

Tanenbaum, A. 2003. Redes de Computadoras 3ra.Edición

Stallings, W. 2001. Comunicaciones y Redes de Computadoras. 6ta edición.

Wikipedia. 2009. Ultimo acceso Julio 2009. o Computadora: http://es.wikipedia.org/wiki/Computadora. o Definición de informática: http://es.wikipedia.org/wiki/Informatica. o Internet: http://es.wikipedia.org/wiki/Internet o Hardware: http://es.wikipedia.org/wiki/Hardware. o Linux: http://es.wikipedia.org/wiki/GNU/Linux. o Software: http://es.wikipedia.org/wiki/Software. o Software de base: http://es.wikipedia.org/wiki/Software_de_sistema o Ubuntu Linux: http://es.wikipedia.org/wiki/Ubuntu_(distribuci%C3%B3n _Linux).

Zanoni, L. 2008. El Imperio Digital - El nuevo paradigma de la comunicación 2.0.

Page 73: Unidad 1 - 2013 - Apunte

73

10. Recursos multimediales

A continuación se presentan recursos multimediales relacionados con la unidad.

¿Qué es Creative Commons? http://www.youtube.com/watch?v=dI-eUc-bgfI ¿Qué son las TIC? http://www.youtube.com/watch?v=BzPqCCRYYvI Dentro de la PC: http://www.youtube.com/watch?v=lYXiYU1v-xU&feature=endscreen El movimiento del software libre. Richard Stallman: http://www.youtube.com/watch?v=tAql6_urM4I El software libre de Las TIC en un CLIC: http://www.youtube.com/watch?v=9NrPGDtzv50 Hardware y Software: http://www.youtube.com/watch?v=Mv9463LXyCE Partes de una Computadora: http://www.youtube.com/watch?v=fKwFmfJ-

fF4&playnext=1&list=PLA3D7E5FCB3BE0D4E&feature=results_main Redes Sociales en Internet: https://www.youtube.com/watch?v=AR4GEAWUGgI Riesgos de Facebook e Internet: https://www.youtube.com/watch?v=5IaZqL7lmx4 Seguridad Informática: https://www.youtube.com/watch?v=KiuTyXehW-8 Software libre http://www.youtube.com/watch?v=FvLJ2JotttM