PEÑA3

41
5. BUSCAR LAS BIOGRAFIAS DE CHARLES BABBAGE, JOHN VON NEUMANN, KONRAD ZUSE, ALAN TURING, RICHARD STALLMAN, LINUS TORVALDS, DOUGLAS ENGELBART, ALAN KAY, BILL GATES, STEVE JOBS, TIM-BERNERS LEE. ENFATIZAR EN SUS APORTES A LA COMPUTACION E INFORMATICA ¿POR QUE CONSIDERA QUE SON EJEMPLOS A SEGUIR? ¿CUAL ES EL SECRETO DE SU ÉXITO? CHARLES BABBAGE: (Teignmouth, 1792 - Londres, 1871) Matemático e ingeniero británico, inventor de las máquinas calculadoras programables. A comienzos del siglo XIX, bien avanzada la Revolución Industrial, los errores en los datos matemáticos tenían graves consecuencias: por ejemplo, una tabla de navegación defectuosa era una causa frecuente de los naufragios. Charles Babbage creyó que una máquina podía hacer cálculos matemáticos más rápidos y más precisos que las personas. En 1822 produjo un modelo funcional pequeño de su Difference engine (máquina diferencial). El funcionamiento aritmético de la máquina era limitado, pero podía recopilar e imprimir tablas matemáticas sin mayor intervención humana que la necesaria para girar las manivelas en la parte superior del prototipo. El siguiente invento de Babbage, la máquina analítica o Analytical engine, tenía todas las partes esenciales de la computadora moderna: dispositivo de entrada, memoria, unidad central de procesamiento e impresora. Aunque la máquina analítica ha pasado a la historia como el prototipo del ordenador moderno, nunca se construyó un modelo a escala real. Pero, aun si se hubiera construido, la máquina analítica habría sido movida por una máquina de vapor y, debida a sus componentes totalmente mecánicos, su velocidad de cálculo no hubiera sido muy grande. A finales del siglo XIX, el ingeniero estadounidense Herman Hollerith utilizó una tecnología nueva, la electricidad, cuando sometió a consideración del gobierno de Estados Unidos un proyecto para construir una máquina que fue finalmente utilizada para computar los datos del censo de 28

Transcript of PEÑA3

Page 1: PEÑA3

5. BUSCAR LAS BIOGRAFIAS DE CHARLES BABBAGE, JOHN VON NEUMANN, KONRAD ZUSE, ALAN TURING, RICHARD STALLMAN, LINUS TORVALDS, DOUGLAS ENGELBART, ALAN KAY, BILL GATES, STEVE JOBS, TIM-BERNERS LEE.

ENFATIZAR EN SUS APORTES A LA COMPUTACION E INFORMATICA ¿POR QUE CONSIDERA QUE SON EJEMPLOS A SEGUIR? ¿CUAL ES EL SECRETO DE SU ÉXITO?

CHARLES BABBAGE:

(Teignmouth, 1792 - Londres, 1871) Matemático e ingeniero británico, inventor de las máquinas calculadoras programables. A comienzos del siglo XIX, bien avanzada la Revolución Industrial, los errores en los datos matemáticos tenían graves consecuencias: por ejemplo, una tabla de navegación defectuosa era una causa frecuente de los naufragios. Charles Babbage creyó que una máquina podía hacer cálculos matemáticos más rápidos y más precisos que las personas. En 1822 produjo un modelo funcional pequeño de su Difference engine (máquina diferencial). El funcionamiento aritmético de la máquina era limitado, pero podía recopilar e imprimir tablas matemáticas sin mayor intervención humana que la necesaria para girar las manivelas en la parte superior del prototipo.

El siguiente invento de Babbage, la máquina analítica o Analytical engine, tenía todas las partes esenciales de la computadora moderna: dispositivo de entrada, memoria, unidad central de procesamiento e impresora. Aunque la máquina analítica ha pasado a la historia como el prototipo del ordenador moderno, nunca se construyó un modelo a escala real. Pero, aun si se hubiera construido, la máquina analítica habría sido movida por una máquina de vapor y, debida a sus componentes totalmente mecánicos, su velocidad de cálculo no hubiera sido muy grande.

A finales del siglo XIX, el ingeniero estadounidense Herman Hollerith utilizó una tecnología nueva, la electricidad, cuando sometió a consideración del gobierno de Estados Unidos un proyecto para construir una máquina que fue finalmente utilizada para computar los datos del censo de 1890. Hollerith fundó a continuación la compañía que más tarde se convertiría en IBM.

Biografía

Charles Babbage se licenció en la Universidad de Cambridge en 1814. Poco después, en 1815, fundó con J. Herschel la Analytic Society con el propósito de renovar de la enseñanza de las matemáticas en Inglaterra. En 1816 fue elegido miembro de la Royal Society y en 1828 ingresó en su universidad como profesor de matemáticas.

Aunque había destacado en el área de la teoría de funciones y análisis algebraico, Charles Babbage se volcó en el intento por conseguir una máquina capaz de realizar con precisión tablas matemáticas. En 1833 completó su "máquina diferencial", capaz de calcular los logaritmos e imprimirlos de 1 a 108.000 con notable precisión, y formuló los fundamentos teóricos de cualquier autómata de cálculo. Por entonces Babbage ya conocía los sistemas decimales de conteo, y estaba familiarizado con la descomposición de complejas operaciones matemáticas en secuencias sencillas.

28

Page 2: PEÑA3

Después de esto, Babbage se volcó en el proyecto de diseñar una "máquina analítica" que fuese capaz de procesar cualquier secuencia de instrucciones aritméticas. Para esta realización contó con fondos del gobierno inglés y con la colaboración de la que está considerada como la primera programadora de la historia, Ada Lovelace, hija del poeta Lord Byron.

Aunque no consiguió su propósito, Charles Babbage sentó los principios básicos de las computadoras modernas, como el concepto de programa o instrucciones básicas (que se introducen en la máquina de manera independiente de los datos), el uso de la memoria para retener resultados y la unidad aritmética. La máquina de Babbage, construida exclusivamente con piezas mecánicas y multitud de ruedas dentadas, utilizaba las tarjetas perforadas para la introducción de datos y programas, e imprimía en papel los resultados con técnicas muy similares a las que se emplearon hasta mediados de los años 70.

En compañía de Ada Lovelace, que empleó mucho de su tiempo en la publicación de las ideas de su maestro, Babbage dedicó sus últimos años y recursos a una máquina infalible que fuese capaz de predecir los ganadores de las carreras de caballos. En honor de Lady Ada Lovelace, el Departamento de Defensa de los Estados Unidos denominó ADA a un lenguaje de programación de computadoras de alto nivel.

JOHN VON NEUMANN:

(Budapest, 1903 - Washington, 1957) Matemático húngaro, nacionalizado estadounidense. Nacido en el seno de una familia de banqueros judíos, dio muestras desde niño de unas extraordinarias dotes para las matemáticas. En 1921 se matriculó en la Universidad de Budapest, donde se doctoró en matemáticas cinco años después, aunque pasó la mayor parte de ese tiempo en otros centros académicos. En la Universidad de Berlín asistió a los cursos de Albert Einstein. Estudió también en la Escuela Técnica Superior de Zúrich, donde en 1925 se graduó en ingeniería química, y frecuentó así mismo la Universidad de Gotinga.

Allí conoció al matemático David Hilbert cuya obra ejerció sobre él considerable influencia- y contribuyó de manera importante al desarrollo de lo que Hilbert llamó la teoría de la demostración y aportó diversas mejoras a la fundamentación de la teoría de conjuntos elaborada por E. Zermelo. En Gotinga asistió también al nacimiento de la teoría cuántica de Werner Heisenberg y se interesó por la aplicación del programa formalista de Hilbert a la formulación matemática de esa nueva rama de la física.

Ello le llevó a convertirse en el autor de la primera teoría axiomática abstracta de los llamados -precisamente por él- espacios de Hilbert y de sus operadores, que a partir de 1923 habían empezado a demostrar su condición de instrumento matemático por excelencia de la mecánica cuántica; la estructura lógica interna de esta última se puso de manifiesto merced a los trabajos de Von Neumann, quien contribuyó a proporcionarle una base rigurosa para su exposición.

También es notable su apertura de nuevas vías al desarrollo de la matemática estadística a partir de su estudio de 1928 sobre los juegos de estrategia, posteriormente desarrollado en la famosa obra Theory of games and economic behavior, publicada en 1944 y escrita en colaboración con O. Morgenstern.

29

Page 3: PEÑA3

En 1943, el ejército estadounidense reclamó su participación en el Proyecto Manhattan para la fabricación de las primeras bombas atómicas; a partir de entonces, Von Neumann colaboró permanentemente con los militares, y sus convicciones anticomunistas propiciaron que interviniera luego activamente en la fabricación de la bomba de hidrógeno y en el desarrollo de los misiles balísticos.

Entre 1944 y 1946 colaboró en la elaboración de un informe para el ejército sobre las posibilidades que ofrecía el desarrollo de las primeras computadoras electrónicas; de su contribución a dicho desarrollo destaca la concepción de una memoria que actuase secuencialmente y no sólo registrara los datos numéricos de un problema sino que además almacenase un programa con las instrucciones para la resolución del mismo.

Se interesó también por la robótica y en 1952 propuso dos modelos de máquinas autorreproductoras, uno de ellos con una modalidad de reproducción parecida a la de los cristales, mientras que el otro era más próximo a la forma en que se reproducen los animales. En 1955, tras solicitar la excedencia de Princeton, fue nombrado miembro de la Comisión de Energía Atómica del gobierno estadounidense; ese mismo año un cáncer en estado muy avanzado lo apartó de toda actividad hasta su muerte.

KONRAD ZUSE:

Konrad Zuse nació el 22 de Junio 1910 en Berlín-Wilmersdorf, como hijo de Wilhelm Emil Albert Zuse, funcionario de correos, y su esposa María. Cuando tenía dos años, sus padres se murieron con él y su hermana mayor a Braunsberg (Braniewo) en Prusia Oriental. A causa de que su padre fue trasladado otra vez, Konrad Zuse hizo el Abitur en 1928 en Hoyerswerda.

Empezó a estudiar ingeniería mecánica en la escuela técnica superior en Berlin-Charlottenburg, pero – buscando una posibilidad para juntar su fascinación por tecnología con su carácter artístico – cambió a estudiar ingeniería civil poco después. En 1935 terminó con su estudio como ingeniero civil, y empezó trabajar para la fábrica de aviones de Henschel en Berlin-Schönefeld como estático. Porque – según él mismo – él estaba “demasiado perezoso para hacer computaciones”, a él le surgió la idea de construir una maquina capaz de encargarse de este trabajo. Renunció a su trabajo y empezó a construir una máquina programable – la Z1 – en el departamento de sus padres.

Del principio, a Konrad Zuse el sistema binario y el Álgebra de Boole le parecían más útiles que el sistema decimal para una computadora. Basado en el sistema binario, en 1938 construyó la Z1, una máquina mecánica operando con electricidad y con la posibilidad de poder programarla, aunque de forma limitada. Debido a la falta de perfeccionamiento en sus elementos mecánicos, la Z1 nunca llegó a funcionar de forma correcta: Fue financiada solo con dinero privado (de familiares y amigos de Zuse), y construido de miles de partes de plancha, obrado con una sierra de marquetería en el apartamento de sus padres.

30

Page 4: PEÑA3

En 1939, a Zuse le enrolaron en la Wehrmacht a causa de la Segunda Guerra Mundial, pero – con la ayuda de sus amigos y por un nuevo tratado de trabajo con la fábrica de aviones de Henschel, los cuales producían aviones militares – conseguí ser liberado de su obligación militar después de un medio año. Se dice que él se había ofrecido a los militares para construir una máquina automática para la defensa contra ataques aéreos dentro de dos años, pero le habían asegurado que en dos años la Wehrmacht iba a haber ganado la guerra mucho tiempo antes. Sin embargo, la guerra le impedía a Zuse trabajar con matemáticos o técnicos del extranjero, tampoco recibía ayuda del gobierno: Tenía que seguir con su trabajo por sí mismo.

El próximo modelo – la Z2 (1940) – también tenía una memoria mecánica, pero la unidad aritmética funcionaba con electricidad, y estaba formado por 800 relés. Después de asegurarse de que la Z2 funcionaba correctamente, fundó la primera empresa especializado en construir ordenadores del mundo: La empresa “Zuse Apparatebau”. Gracias a una demostración con éxito de la Z2 enfrente de la “Deutsche Versuchsanstalt für Luftfahrt” (estación experimental alemana de aeronáutica), le financiaron a Zuse la construcción del modelo siguiente.

De nuevo en el apartamento de sus padres, construyó con la ayuda de sus amigos la Z3 – una maquina pesando 1 tonelada construido de 2000 relés. La Z3 fue incapaz de ejecutar saltas condicionadas, ramificaciones o ciclos, pero era la primera máquina programable del mundo, y para el trabajo de los ingenieros de este tiempo (por ejemplo resolver sistemas de ecuaciones lineales) bastante útil.

El programa fue introducido en la máquina a través de una cinta perforada, los datos en sistema decimal a través de un teclado. El resultado de una adición o sustracción fue exhibido después de menos que un segundo en un campo de luz en sistema decimal, para la multiplicación y la división la Z3 necesitaba tres segundos.

Horst Zuse, el hijo mayor del inventor – Konrad Zuse se casó el 6 de enero de 1945 y tuvo cinco hijos – dijo más tarde en una entrevista: “Mi padre ha utilizado principios que, por mayoría, eran conocidos, por ejemplo, el sistema binario. […] Pero ha integrado este sistema de forma consistente en sus máquinas. Introdujo el principio de un programa de control en sus máquinas. Ha puesto la memoria en sus máquinas […] Introdujo una calculadora con números binarios de punto flotante, que también ya existieron. El genio es que él ha reunido todos los componentes adecuados en el equipo correcto en el momento adecuado, y lo hizo del principio según el principio del diseño mínima. Esto tuvo una buena razón, porque mi padre no tenía dinero.”

Mientras la Z3, junto con fotos y planes de diseño, fue destruida en un ataque bomba el 21 de diciembre de 1943, la “MARK I” fue operativa después de la Segunda Guerra Mundial y se podía demostrar sus capacidades en cualquier momento. Ésta máquina tenía 16 metros de largo, consistió en 700 000 componentes, y fue diseñada por el matemático Howard H. Aiken, lo que tardó seis años con la ayuda de IBM en construirla. Por décadas, Aiken se consideró el inventor de la primera computadora. Para cambiar esto, Konrad Zuse les pidió a todos los que hubieran visto la Z3 en el apartamento de sus padres, que reportaran por forma escrito sobre lo que habían visto. Debido a este testimonio prevaleció en los años sesenta, la creencia de que Konrad Zuse construyó la primera computadora.

31

Page 5: PEÑA3

Con el “Plankalkül” Konrad Zuse también inventó la primera lenguaje de programación – o por lo menos uno de los primeros lenguajes de programación universal en el mundo – en los años de 1942 a 1945.

En 1949 fundó con dos copropietarios la “Zuse KG”, y terminó su trabajo en la Z4 – en este tiempo la única computadora operacional en Europa. La envió a la escuela técnica superior en Zúrich el 11 de Julio de 1950. La Z4 ya fue capaz de calcular once multiplicaciones por segundo, y los resultados fueron exhibidos a través de una máquina de escribir.

En el mismo año Zuse vendió a la compañía Leitz un ordenador por 300 000 D-Mark (la Z5). Sin embargo, esto quedaba el único negocio importante de la “Zuse KG” por años: En la época después de la guerra, lo más importante fuera reconstruir y reparar los edificios, fábricas e instalaciones productoras – al final no hubo dinero para comprar computadoras.

Sólo cuando la Fundación Alemana de Investigación en 1955 comenzó a promover la instalación de computadoras en las universidades económicamente, empezó la producción en seria con la Z11. Esta computadora de 100 000 D-Mark fue vendido 43 veces, y se utilizaba principalmente para la topografía de la tierra y para los cálculos de estática y ópticos. Otro hito en la historia de la “Zuse KG” historia fue la “Z22” que se vendió 55 veces a partir de 1957. Fue la primera computadora de la “Zuse KG” utilizando válvulas termoiónicas en lugar de relés y un tambor magnético – un precursor de disco duro de hoy – como memoria.

A principios de los años sesenta la competencia internacional puso cada vez más pegas a la Zuse AG. A partir de 1961 Konrad Zuse utilizaba transistores en lugar de tubos (“Z23”) – dispositivos de semiconductor que actúan como tubos, pero mucho más rápido, más pequeño y más robusto y consumen mucho menos electricidad. Él estuvo por detrás del desarrollo: Los transistores primero fueron presentado en 1955 por los Bell Laboriatoris en los EE.UU., además en el octubre de 1958, Texas Instuments presentó el primer circuito integrado (cuatro transistores y cuatro capacitores). Cuando Zuse empezaba a utilizar transistores, ya había empezado el desarrollo del microprocesador en otro lugar.

En 1964, la Zuse KG – que empleaba a 1.200 personas en este momento – fue adquirida por Rheinstahl, y Konrad Zuse se retiró como socio activo. Por poco tiempo, la compañía fue propiedad de Brown Boveri & Cie, antes de ser enmarcado en la Siemens AG. Al final, la Zuse KG había construido 251 computadoras en total.

Después de haberse comprometido algunos años más en la empresa que no más era la suya, con 59 años se jubiló y empezó a dedicarse otra vez a la pintura, la que le importaría mucho desde su juventud. Sus pinturas se vendieron por cantidades de cinco cifras. En 1995 – con 84 años – le regaló a Bill Gates un retrato de Bill Gates, cuando se encontraron en la CeBIT en Hannover.

Nueve meses después, el 18 de Diciembre de 1995, Konrad Zuse murió en Hünfeld en Fulda.

ALAN TURING:

32

Page 6: PEÑA3

(Alan Mathison Turing; Londres, 1912-Wilmslow, Reino Unido, 1954) Matemático británico. Pasó sus primeros trece años en la India, donde su padre trabajaba en la Administración colonial. De regreso al Reino Unido, estudió en el King's College y, tras su graduación, se trasladó a la Universidad estadounidense de Princeton, donde trabajó con el lógico A. Church.

En 1937 publicó un célebre artículo en el que definió una máquina calculadora de capacidad infinita (máquina de Turing) que operaba basándose en una serie de instrucciones lógicas, sentando así las bases del concepto moderno de algoritmo. Así, Turing describió en términos matemáticos precisos cómo un sistema automático con reglas extremadamente simples podía efectuar toda clase de operaciones matemáticas expresadas en un lenguaje formal determinado. La máquina de Turing era tanto un ejemplo de su teoría de computación como una prueba de que un cierto tipo de máquina computadora podía ser construida.

La Segunda Guerra Mundial ofreció un insospechado marco de aplicación práctica de sus teorías, al surgir la necesidad de descifrar los mensajes codificados que la Marina alemana empleaba para enviar instrucciones a los submarinos que hostigaban los convoyes de ayuda material enviados desde Estados Unidos; Turing, al mando de una división de la Inteligencia británica, diseñó tanto los procesos como las máquinas que, capaces de efectuar cálculos combinatorios mucho más rápido que cualquier ser humano, fueron decisivos en la ruptura final del código.

Definió además un método teórico para decidir si una máquina era capaz de pensar como un hombre (test de Turing) y realizó contribuciones a otras ramas de la matemática aplicada, como la aplicación de métodos analíticos y mecánicos al problema biológico de la morfogénesis. En el ámbito personal, su condición de homosexual fue motivo constante de fuertes presiones sociales y familiares, hasta el punto de especularse si su muerte por intoxicación fue accidental o se debió a un intento de suicidio.

RICHARD STALLMAN:

Stallman nació en 1953 en Manhattan.

En 1971, siendo estudiante de primer año en la Universidad de Harvard, Stallman se convirtió en un hacker del Laboratorio de inteligencia artificial del MIT. En los 1980s, la cultura hacker que constituía la vida de Stallman empezó a disolverse bajo la presión de la comercialización en la industria del software. En particular, otros hackers del Laboratorio de IA fundaron la compañía Symbolics, la cual intentaba activamente reemplazar el Software Libre del Laboratorio con su propio software propietario. Por dos años, desde 1983 a 1985, Stallman por sí solo duplicó los esfuerzos de los programadores de Symbolics para prevenir que adquirieran un monopolio sobre los ordenadores del Laboratorio. Por ese entonces, sin embargo, él era el último de su generación de hackers en el Laboratorio.

33

Page 7: PEÑA3

Se le pidió que firmara un acuerdo de no divulgación (non-disclosure agreement) y llevara a cabo otras acciones que él consideró traiciones a sus principios. En 1986, Stallman publicó el Manifiesto GNU, en el cual declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema operativo Unix, el cual nombró GNU (GNU no es Unix).

Poco tiempo después se incorporó a la organización no lucrativa Free SoftwareFoundation para coordinar el esfuerzo. Inventó el concepto de copyleft el cual fue utilizado en la Licencia Pública General GNU (conocida generalmente como la "GPL") en 1989. La mayoría del sistema GNU, excepto por el kernel, se completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el kernel Linux bajo los términos de la GPL, completando un sistema GNU operacional, el sistema operativo GNU/Linux (referido de manera errónea simplemente como Linux).

Las motivaciones políticas y morales de Richard Stallman le han convertido en una figura controvertida. Muchos programadores de influencia que se encuentran de acuerdo con el concepto de compartir el código, difieren con las posturas morales, filosofía personal o el lenguaje que utiliza Stallman para describir sus posiciones. Un resultado de estas disputas condujo al establecimiento de una alternativa al movimiento del Software Libre, el movimiento de código abierto.

Stallman ha recibido numerosos premios y reconocimientos por su trabajo, entre ellos una membrecía en la MacArthur Foundation en 1990, el Grace Hopper Award de la Association for Computing Machinery en 1991 por su trabajo en el editor Emacs original, un doctorado honorario del Royal Institute of Technology de Suecia en 1996, el Pioneer award de la Electronic Frontier Foundation en 1998, el Yuki Rubinski memorial award en 1999, y el Takeda award en 2001. En 2004 recibió un Doctorado Honoris Causa otorgado por la Universidad de Salta (Argentina).

Esta idea surgió hace mucho, cuando Stallman era estudiante de Harvard y trabajaba en el Laboratorio de Inteligencia Artificial del Massachusetts Institute of Technology (MIT). Una compañía había donado a la división una impresora. Pero cada vez que el papel se trababa hacía falta ir hasta la máquina y se perdía mucho tiempo; la impresora no era capaz de enviar una señal a las estaciones de trabajo avisando sobre el problema. Stallman buscó entonces los controladores de software para añadir a mano esta función, pero descubrió que estaban en código binario; era imposible editarlos o modificarlos. Cuando pidió el código fuente, se lo negaron.

Ese día nació la idea del Proyecto GNU, que fundó en 1984 y que se proponía crear un sistema informático completo con código fuente libre. Siguiendo el modelo del Unix (un núcleo y una gran cantidad de pequeños programas que hacen funciones discretas

34

Page 8: PEÑA3

que pueden, a su vez, enlazarse), Stallman y otros programadores comenzaron a sumar módulo tras módulo al GNU. Incluso empezaron a escribir un núcleo (o kernel), el fragmento de código que da vida a una computadora, llamado Hurd. En 1985 se estableció la Fundación del Software Libre (o FSF, Free Software Foundation, en inglés), una organización que apoyaría la producción de código para GNU y manejaría la distribución del programa más conocido de Stallman, el Emacs, un poderoso editor de texto extensible por medio del lenguaje Lisp que estaba disponible gratuitamente en servidores FTP, pero que además se vendía por correo a 150 dólares el ejemplar.

Stallman insiste con que la palabra free no significa gratis, sino libre; y que a su juicio es perfectamente lícito ganar dinero distribuyendo programas, con la condición de que el código fuente esté disponible públicamente. Para darle soporte legal a toda la operación, Stallman escribió lo que se conoce como la Licencia Pública General (o GPL, por General Public License).

Una licencia de software es básicamente la autorización que le da el autor al usuario para emplear una copia del programa; todos los programas vienen con una licencia, usualmente conocida como CLUF (Contrato de Licencia para el Usuario Final). Pero la GPL y la CLUF son como el día y la noche. La GPL autoriza no sólo a distribuir libremente copias de los programas (incluso cobrando dinero por eso), sino que además obliga a incluir el código fuente y fomenta los cambios en este código con el fin de mejorar el software. Por otro lado, sin embargo, preserva el copyright sobre el software, con lo que se evita que un individuo o una compañía se apropien del programa y lo conviertan en lo que se conoce como software propietario. Esto es sin código fuente y con fuertes restricciones en cuanto a la distribución de copias.

LINUS TORVALDS:

En 1991, Linus Torvalds lanzó, bajo el paraguas de la GPL, la primera versión del Linux, su núcleo de Unix para plataformas Intel x86 (la PC estándar, en otras palabras), y en poco menos de un año se había establecido como el núcleo ideal para el Proyecto GNU, desplazando, al menos por el momento, al Hurd.

De pronto, el círculo se había cerrado y existía un sistema informático libre, gratuito y de código fuente abierta. Gigantes como Compaq e IBM lo han adoptado hoy, además de unos 20 millones de usuarios.

Linus Torvalds nació el 28 de diciembre de 1969 en la capital de Finlandia, Helsinki, y pertenece a la comunidad de habla sueca de su país (el sueco es lengua cooficial en Finlandia y entorno al 6% de la población lo tienen como lengua materna).

35

Page 9: PEÑA3

Su nombre es un pequeño honor que hicieron sus padres a Linus Pauling, premio Nobel de Química.

Sus primeros pasos en la informática los dio cuando su abuelo que era matemático y estadístico de una universidad le compró un Commodore en 1980 y le ayudó a aprender a usarlo. Esto despertó en Linus su interés por la computación.

En 1988 Linus Torvalds es admitido en la Universidad de Helsinki. Durante este periodo conoció un sistema operativo con fines académicos llamado Minix, el cual era un clon de Unix de código abierto.

En 1991 se compraría un PC con un procesador 80386 de Intel de 33MHz y 4Mb de RAM, con este ordenador programaría el primer Linux.

Terminó sus estudios superiores en 1997 después de diez años como estudiante e investigador en la Universidad de Helsinki graduándose con el grado de Maestría de Ciencias de la Computación.

COMO NACIO LINUX:

En la universidad aprendió el lenguaje de programación C, que era el lenguaje en el que está programado Minix y viendo que este sistema le era desagradable decidió tomar parte de sus ideas prestadas y empezar a construir su propio sistema operativo con el fin de conocer mejor el funcionamiento de su Intel 80386 y para luego sustituir a Minix. Este sería la primera piedra de una las mayores revoluciones de la informática en la década de los 90.

Al principio y después de un duro trabajo consiguió crear un programa que mostraban “AAAABBBB” que eran el resultado de ejecutar dos procesos. Uno de ellos leería desde un MODEM e imprimiría los resultados en pantalla y el otro recibiría los datos enviados desde teclado y escribiría en el MODEM. Este programa llegó a ser bastante utilizado por Linus siendo arrancado a través de un disquete. Después le surgió la necesidad de subir y descargar archivos de su universidad, con lo que se puso de nuevo manos a la obra para poder agregar a su programa un controlador de disco compatible con el sistema de ficheros que utilizaba Minix, cosa que consiguió realizar. Una vez alcanzado los logros descritos anteriormente decidió desvincularse de Minix y emprender una aventura propia con un nuevo sistema operativo el cual llamaría Linux (pronunciado: Linuks).

36

Page 10: PEÑA3

Cuando decide presentar al público su sistema este ya era capaz de mostrar una Shell (línea de comandos) y ejecutar el compilador GCC (Colección de Compiladores GNU). En agosto de 1991 anuncia su intención desarrollar Linux enserio y en septiembre del mismo año sube a través de FTP la versión del kernel 0.01 el cual contenía solo 10.000 líneas de código.

En octubre de 1991 Torvalds anuncia la liberación de la versión 0.02 de su sistema. Linux captaría el interés de muchos desarrolladores y programadores que ayudarían a que el nuevo sistema se desarrollara con rapidez.

DESARROLLO DE LINUX

En 1992 Tarvalds decide que Linux sea licenciado bajo GPL GNU (Licencia Pública General de GNU), al contrario de la mayoría del software que por entonces se publicaba, que se hacían con licencias propietarias, que impedían que los usuarios pudiesen acceder de forma fácil y legal al código fuente y poder hacer las modificaciones que quisiesen o viesen oportunas A partir de ahí Linux pasaría ser el kernel del proyecto de un sistema operativo de GNU (pronunciado: ñu), el cual le fallaba un kernel llamado Hurd debido a que este aún estaba inmaduro. Linux se encargó de cubrir este vacío creando un sistema llamado GNU/Linux (pronunciado: ñu linuks) que haría que el software libre se expandiese de forma espectacular, callando las bocas de muchas personas que los tildaban de una majadería.

El proyecto llegó a todos los rincones del mundo llamando la atención de muchos desarrolladores que ayudaron a desarrollar el nuevo sistema. No era la primera vez que se publicaba un software de código abierto y se creaba un proyecto de similares características pero era la primera vez que algo así generaba una expectación tan grande, presentando al nuevo sistema como una insignia de libertad, un sistema operativo que podría usar cualquier persona, de forma gratuita, con la posibilidad de mejorarlo y modificarlo a voluntad, sin monopolios, sin secretos comerciales, sin puertas cerradas ni engaños, lo que supondría una gran revolución en el mundo de la informática.

¿QUE ES “GNU”?

GNU (pronunciado Ñu) es un acrónimo recursivo que significa GNU No es Unix (GNU is Not Unix). Fue un proyecto iniciado por Richard Stallman con el objetivo de crear un sistema operativo completamente libre: el sistema GNU. Fue anunciado por primera vez en 1983.

Evolución de Linux

La adaptación de Linux a GNU ya en 1993 conllevó el esfuerzo de muchos desarrolladores, que convirtieron el sistema de Torvalds en un núcleo que iría acompañado de herramientas GNU creando un sistema completamente de código

37

Page 11: PEÑA3

abierto. Nacerían distribuciones GNU/Linux como Debian o Slackware que a día de hoy siguen desarrollándose y sacando nuevas versiones Para el año siguiente Linus Torvalds creyó que el kernel estaba ya suficientemente maduro y decidió lanzar la versión 1.0 y lo pone disponible en Internet para que cualquiera pueda descargarlo, usarlo y modificarlo. El proyecto XFree86 contribuye con una interfaz gráfica de usuario (GUI) y nacen las distribuciones Suse y Red Hat, que actualmente son de pago (hay que recordar que software libre no es sinónimo de software gratis).

En 1996 se libera la versión 2.0 del núcleo y muchas empresas se interesan por GNU/Linux ofreciendo bastante soporte y programas a este sistema. En 1999 se saca la versión 2.2 del núcleo.

Actualmente (octubre de 2009) todavía se sigue desarrollando la versión 2 del kernel de Linux, siendo la actual versión del kernel la 2.6.

PARTICIPACIÓN DE TORVALDS EN LINUX

Aunque en principio Linus tenía bastante protagonismo en la puesta en marcha de su kernel con el paso del tiempo fue perdiendo protagonismo y dando más importancia a su vida laboral, convirtiéndose en un simple supervisor en un proyecto que crecería día a día y que poco a poco sería más accesible a las masas. Aun así hay que tener en cuenta que es el propietario de la marca registrada Linux, con lo que nunca estuvo completamente fuera del proyecto. Se encargaba y aun se encarga de supervisar el uso y modificación de Linux para asegurarse que estos ajustaban a las normas de la marca.

En 2003 deja la empresa en la que trabajaba, Transmeta. Se trata de una compañía que desarrollaba procesadores para portátiles y otros pequeños componentes informáticos de bajo consumo. Linus, tras estar seis años en dicha empresa decide dejarla porque se sentía culpable de la poca aportación real que había hecho en el desarrollo del kernel que el mismo fundó, Linux, y decide volcar sus esfuerzos en este para poder así “recuperar el tiempo perdido”. Para poder dedicarse a tiempo completo a Linux recala en la Open Source Development Lab (un consorcio destinado a incluir características de alto nivel a Linux).

Torvalds sigue muy unido al proyecto Linux, el cual está vinculado a través de Linux International, una organización sin ánimo de lucro que se localiza en los Estados Unidos. Esta organización se encarga de difundir las bondades de Linux por el mundo y se encarga de supervisar el uso de la marca Linux. Desde 1995 esta organización está presidida por John “Maddog” Hall.

DOUGLAS ENGELBART:

38

Page 12: PEÑA3

Informático e inventor estadounidense. Alcanzó la fama por la invención del ratón y está considerado como un pionero en el desarrollo del correo electrónico en los procesadores de texto e Internet. Entre otros de sus desarrollos clave, realizados junto a sus compañeros del Instituto de Investigación de Stanford y de su propio laboratorio, destaca el uso de múltiples ventanas. También ayudó a desarrollar ARPA Net, el predecesor de Internet gestionado por el gobierno estadounidense.

Célebre fue su intervención en una conferencia de 1968 hecha desde su propia casa a través de un módem casero, en la que empleó el elaborado sistema online de su laboratorio para ilustrar sus ideas a la audiencia. Fue la primera demostración pública del uso del ratón y, también, de la videoconferencia. Aquella intervención, conocida como la “madre de todas las presentaciones”, tuvo lugar en el Civic Auditorium de San Francisco durante la Conferencia de Otoño de Empresas de Informática. El ratón se presentó bajo el nombre oficial “X-Y Position Indicator for a Display System” (Indicador de Posición de X-Y para un Dispositivo de Pantalla) y venía a sustituir al lápiz-puntero y al joystick.

A lo largo de su vida recibió múltiples reconocimientos. En 1998 fue incluido en el Salón de la Fama de los Inventores Nacionales y en el año 2000, se le hizo entrega de la Medalla Nacional de Tecnología, por crear las bases de la informática personal.

SINTESIS BIOGRAFICA

Nació el 30 de enero de 1925, en Portland, Oregón, Estados Unidos, descendiente de noruegos. Recibió un título de grado en Ingeniería Eléctrica de la Oregon State University en 1948. Después de graduarse comenzó a trabajar como ingeniero eléctrico en el Laboratorio Aeronáutico de Arnes. En 1951 comenzó a trabajar en el mundo de las Computadoras.

TRAYECTORIA CIENTIFICA

En 1952 obtuvo el título de grado en ingeniería de la Universidad de Berkeley y en 1955 un doctorado de la Universidad de California-Berkeley. En el otoño de 1968, en una conferencia de expertos en Informática, Douglas Engelbart hizo una presentación que duró 90 minutos. Además de hacer la primera demostración pública del ratón, incluyó una conexión en pantalla con el centro de investigación lo que constituyó la primera videoconferencia de la historia.

Como operario de radar en las Filipinas durante la Segunda Guerra Mundial, Engelbart se inspiró en un artículo de Vannevar Bush, 'As We May Think', para buscar la manera de usar las computadoras para mejorar la sociedad. Cuando terminó la guerra, y siguiendo esta idea trabajó en la versión previa de Internet, la red militar ARPANET.

39

Page 13: PEÑA3

Engelbart fue la fuerza motriz detrás del diseño del primer sistema en línea, (On-Line System), también conocido como NLS, en el Stanford Research Institute. La oficina de Douglas fue el segundo nodo de la red. Junto con el equipo en el Augmentation Research Center desarrolló varios elementos básicos de la interfaz humana de las computadoras actuales, como pantallas con imágenes en bits, ventanas múltiples, y softwaremultiusuario. También fue el coinventor del mouse Apple Macintosh Plus en 1986.

Sus ideas radicales no tuvieron la aceptación que esperaba, y fue perdiendo presupuesto para las investigaciones. En1978, el laboratorio se cerró por falta de fondos, aunque el sistema NLS y el sucesor, Augment, fueron vendidos a Tymshare, una compañía que más tarde fue comprada por McDonnell Douglas. Parte del equipo se fue al centro de investigación Xerox PARC, donde siguieron desarrollando el mouse y desarrollaron la interfaz gráfica.

En 1989, Engelbart y su hija, Christina, fundaron el Bootstrap Institute, una entidad que aconsejaría a empresas sobre cómo usar la tecnología para lograr una mejor organización.

Engelbart falleció el 2 de julio de 2013 en su residencia de Atherton en California a los 88 años de edad.

ALAN KAY:

Alan Kay nacido el 17 de mayo de 1940, Originario de Springfield, Massachusetts, Kay consiguió licenciarse en Matemáticas y Biología Molecular de la Universidad de Colorado, y el grado de Maestro y Doctorado de la Universidad de Utah. En la Universidad de Utah en los sesenta, Kay trabajó con Ivan Sutherland en aplicaciones gráficas pioneras, incluyendo Sketchpad. Durante esas fechas también trabajó como guitarrista profesional de jazz.

Kay entró a trabajar en el Centro de Investigación de Palo Alto (PARC - Palo Alto Research Center) de Xerox en 1970. En los setenta fue uno de los miembros principales del centro, desarrollando prototipos de estaciones de trabajo en red, usando el lenguaje de programación Smalltalk. Estas invenciones fueron posteriormente comercializadas por Apple en el Apple Macintosh.

Alan Kay era un niño prodigio, de esos que nacen con un libro bajo el brazo y antes de entrar a primer grado ya había leído un centenar de ellos. Kay aprendió a leer desde los 3 años y al conocer a sus primeros profesores sabía algo de la mayoría de nosotros comprenderíamos mucho después: que le estaban engañando con un único-absoluto punto de vista.

40

Page 14: PEÑA3

La apertura a la diversidad de opiniones, una mente abierta al cambio, es lo que caracteriza a alguien capaz de ver más allá, porque su horizonte se ha hecho más amplio, porque los dogmas no le obstaculizan. Este es el camino ejemplar de Alan Kay.

LOS OBJETOS

Los lenguajes de programación sirven para modelar computacionalmente al universo, y la programación orientada objetos es el paradigma oficial. Alan Kay es uno de los padres fundadores del concepto de programar de una forma más natural, más humana, a través de objetos comunicados por una interfaz bien definida, objetos que son instancias de un modelo base: vamos, que esto es platonismo implementado en lenguajes de programación.

El fruto de esas ideas fue uno de los lenguajes más influyentes de la historia: Smalltalk, creado para Xerox PARC durante los años 70. Lenguajes de programación populares hoy en día, como Python, Ruby y Objective-C, le deben a Smalltalk algunas de sus mejores ideas; ni qué decir de Java, su hijo más burocrático.

Con la programación orientada a objetos impulsada Alan Kay, hoy miríadas de programadores son capaces de modelar sistemas bien complejos a partir de principios elementales y abstractos.

LA INTERFAZ

Las cosas simples deberían ser simples, las cosas complejas deberían ser posibles.

Sí, la interfaz gráfica de usuario (GUI), ese software omnipresente que nos permite operar la computadora con comodidad, que en su evolución ha pasado de cadenas de caracteres fosforescentes sobre un fondo negro hasta metáforas de escritorio como GNOME Shell, Unity, OS X Lion y KDE Plasma. La GUI es la interfaz que entiende a la persona y a la máquina, en un equilibrio sutil que pocos, muy pocos como Alan Kay, logran alcanzar.

Kay fue un pionero en GUI porque diseñó conceptualmente la interfaz gráfica de Dynabook, la madre de todas las tablets y otra de sus invenciones. Ambas, GUI y la Dynabook como computadora verdaderamente personal, fueron ideas retomadas por Ap... Bueno, ya saben quién.

La experiencia con Dynabook le permitió intervenir en el diseño de la interfaz de la One Laptop Per Child para fines educativos, su interés primordial. Por eso pasó varios años

41

Page 15: PEÑA3

de su vida, los que trabajó para Apple, enseñando a niños usar computadoras. También trabajó para Disney en asuntos de investigación y desarrollo.

Ávido de conocimiento, Kay investiga cómo distribuirlo con buena tecnología. Concibió la Dynabook, participó en el proyecto One Laptop Per Child, estuvo en Atari tres años como jefe científico, predijo que la inteligencia artificial adaptaría la tecnología a nuestras necesidades (de eso va la publicidad en Internet) y solo espera que la computadora se cada vez más algo como un libro y menos como una televisión.

Actualmente, Kay imparte cátedra sobre ideas, conocimiento, aprendizaje no tradicional, está al frente del Viewpoints Research Institute que genera "ideas poderosas para la educación" e imparte conferencias maravillosas como esta.

BILL GATES:

Bill Gates nació en una familia acomodada que le proporcionó una educación en centros de élite como la Escuela de Lakeside (1967-73) y la Universidad de Harvard (1973-77). Siempre en colaboración con su amigo Paul Allen, se introdujo en el mundo de la informática formando un pequeño equipo dedicado a la realización de programas que vendían a empresas o administraciones públicas. En 1975 se trasladaron a Alburquerque (Nuevo México) para trabajar suministrando a la compañía MITS una serie de programas susceptibles de ser utilizados con el primer microordenador, el Altair, para el cual habían desarrollado una versión del lenguaje de programación BASIC.

Ese mismo año fundaron en Alburquerque su propia empresa de producción de software informático, Microsoft Corporation, con Bill Gates como presidente y director general. Su negocio consistía en elaborar programas adaptados a las necesidades de los nuevos microordenadores y ofrecérselos a las empresas fabricantes más baratos que si los hubieran desarrollado ellas mismas. Cuando, en 1979, Microsoft comenzó a crecer (contaba entonces con dieciséis empleados), Bill Gates decidió trasladar su sede a Seattle.

EL NEGOCIO DEL SOFTWARE

A principios de la década de 1970, la invención del microprocesador permitió abaratar y reducir el tamaño de las gigantescas computadoras existentes hasta entonces. Era un paso decisivo hacia un sueño largamente acariciado por muchas empresas punteras en el sector tecnológico: construir ordenadores de tamaño y precio razonable que permitiesen llevar la informática a todas las empresas y hogares. El primero en llegar podría iniciar un negocio sumamente lucrativo y de enorme potencial. Era impensable que una empresa como Microsoft, dedicada solamente al software (sistemas operativos y

42

Page 16: PEÑA3

programas) pudiese jugar algún papel en esta carrera entre fabricantes de hardware, es decir, de máquinas.

Y así fue al principio: una competición entre fabricantes de ordenadores no demasiado honesta, pues hubo más de un plagio. A mediados de los años setenta, en un garaje atestado de latas de aceite y enseres domésticos, Steve Jobs y Stephen Wozniak diseñaron y construyeron una placa de circuitos de computadora, toda una muestra de innovación y de imaginación. Al principio tenían la intención de vender sólo la placa, pero pronto se convencieron de la conveniencia de montar una empresa, Apple, y vender ordenadores. En 1977 empezaron a comercializar la segunda versión de su computadora personal, el Apple II, que se vendía con un sistema operativo también creado por Apple: un hito histórico que marca el nacimiento de la informática personal.

Bastante ingenuamente, Apple cometió el error de dar a conocer a otras empresas las especificaciones exactas del Apple II. Para desarrollar su primer ordenador personal, la empresa IBM copió y adaptó la arquitectura abierta del ordenador de Apple y escogió el microprocesador Intel 8088, que manejaba ya caracteres de 16 bits. De este modo, en 1981, IBM pudo lanzar su primer PC (Personal Computer, ordenador personal). Pero el sistema operativo de su PC, imprescindible para su funcionamiento, no había sido creado por IBM, sino por Microsoft. Un año antes, en 1980, Bill Gates había llegado a un acuerdo con IBM para suministrarle un sistema operativo adaptado a sus ordenadores personales, el MS-DOS, que desde 1981 iría instalado en todos los ordenadores de la marca.

DEL MS-DOS A WINDOWS

Aún existían otras opciones, pero se quedaron en minoritarias: gracias a su bajo coste, la combinación PC más MS-DOS acabó copando el mercado y convirtiéndose en el estándar. Mientras los fabricantes de ordenadores intentaban reducir costes, entregados a una guerra de precios de la que nadie pudo sacar una posición dominante, una empresa de software, la de Bill Gates, se hizo con prácticamente todo el mercado de sistemas operativos y buena parte del de programas.

A partir de ese momento, la expansión de Microsoft fue espectacular. Y no sólo porque los PC necesitaban un sistema operativo para funcionar, sino también porque los programas y aplicaciones concretas (un procesador de textos, un hoja de cálculo, un juego) se desarrollan sobre la base de un sistema operativo en concreto, y ese sistema era el MS-DOS. Las distintas empresas de software (y entre ellas la misma Microsoft) podían desarrollar, por ejemplo, distintos procesadores de textos, compitiendo entre ellas para agradar al usuario. Pero como la inmensa mayoría de usuarios tenía MS-DOS, desarrollaban programas para funcionar con MS-DOS, y acababan por hacer un favor a

43

Page 17: PEÑA3

Microsoft, que podía presumir de que sobre su sistema operativo podían funcionar todos los programas imaginables: los suyos y casi todos los de la competencia. Esa retroalimentación viciosa era el fabuloso activo de Microsoft, y Bill Gates supo conservarlo.

El MS-DOS, sin embargo, era un entorno poco amigable, cuyo manejo requería el conocimiento de comandos que se introducían a través del teclado. Con el lanzamiento en 1984 del ordenador personal Macintosh, Apple pareció tomar de nuevo la delantera. Su sistema de ventanas supuso un salto cualitativo; su interfaz simulaba la distribución de una mesa de trabajo por medio de iconos. Un pequeño aparato, el ratón, cuyo movimiento se reflejaba en la pantalla con un icono parpadeante, permitía recorrerla en busca del documento o programa buscado. En lugar de tener que recordar los comandos de cada una de las operaciones y teclearlos en cada momento, bastaba acudir a los listados de acciones posibles y hacer clic con el ratón sobre la opción elegida.

Por el momento, aquellas innovaciones no parecían hacer sombra a Bill Gates. En 1983 Paul Allen dejó Microsoft, aquejado de una grave enfermedad. Y cuando, en 1986, Microsoft salió a la Bolsa, las acciones se cotizaron tan alto que Bill Gates se convirtió en el multimillonario más joven de la historia. Volcado en un proceso de innovación tecnológica acelerada, y en su caso imitando más el Macintosh de Apple que innovando, Gates lanzó una interfaz gráfica para MS-DOS llamada Windows: Windows 3.0 en 1990 y Windows 3.1 en 1992.

No era, en realidad, un nuevo sistema operativo, sino, como se ha dicho, una interfaz gráfica con ratón, iconos y ventanas bajo la que seguía corriendo el viejo MS-DOS, pero fue muy bien recibido por los usuarios, que disponían finalmente de un sistema tan intuitivo como el de Macintosh pero mucho más económico al funcionar sobre un PC, gracias a lo cual se impuso fácilmente en el mercado. El enorme éxito llevó a la verdadera renovación que fue Windows 95 (en cuya campaña de promoción a escala mundial asumió el propio Gates el papel de profeta de la sociedad cibernética como personificación de Microsoft), al que seguirían Windows 98 y las sucesivas versiones de este sistema operativo, de entre las que sobresale Windows XP (2001), el primero cien por cien de nuevo cuño, que dejaba completamente de lado el antiguo MS-DOS.

Entretanto, el negocio no había cesado de crecer (de los 1.200 empleados que tenía en 1986 hasta más de 20.000 en 1996), y, con la generalización de Windows, Bill Gates pasó a ejercer un virtual monopolio del mercado del software mundial, reforzado por su victoria en el pleito de 1993 contra Apple, que había demandado a Microsoft por considerar que Windows era un plagio de la interfaz gráfica de su Macintosh. Desde 1993 embarcó a la compañía en la promoción de los soportes multimedia, especialmente en el ámbito educativo.

44

Page 18: PEÑA3

Además de Windows, muchos de los programas y aplicaciones concretas más básicas e importantes producidas por la empresa (el paquete ofimático Microsoft Office, por ejemplo) eran siempre las más vendidas. Surgieron muchas voces críticas que censuraban su posición monopolística, y en numerosas ocasiones Microsoft fue llevada por ello a los tribunales por empresas competidoras y gobiernos, pero nada logró detener su continua ascensión.

EMPRESARIO Y FILANTROPO

El talento de Gates se ha reflejado en múltiples programas informáticos, cuyo uso se ha difundido por todo el mundo como lenguajes básicos de los ordenadores personales; pero también en el éxito de una empresa flexible y competitiva, gestionada con criterios heterodoxos y con una atención especial a la selección y motivación del personal. Las innovaciones de Gates contribuyeron a la rápida difusión del uso de la informática personal, produciendo una innovación técnica trascendental en las formas de producir, transmitir y consumir la información. El presidente Bush reconoció la importancia de la obra de Gates otorgándole la Medalla Nacional de Tecnología en 1992.

Su rápido enriquecimiento ha ido acompañado de un discurso visionario y optimista sobre un futuro transformado por la penetración de los ordenadores en todas las facetas de la vida cotidiana, respondiendo al sueño de introducir un ordenador personal en cada casa y en cada puesto de trabajo; este discurso, que alienta una actitud positiva ante los grandes cambios sociales de nuestra época, goza de gran audiencia entre los jóvenes de todo el mundo por proceder del hombre que simboliza el éxito material basado en el empleo de la inteligencia (su libro Camino al futuro fue uno de los más vendidos en 1995).

Los detractores de Bill Gates, que también son numerosos, le reprochan, no sin razón, su falta de creatividad (ciertamente su talento y sus innovaciones no son comparables a las de un Steve Jobs, y más bien siguió los caminos que abría el fundador de Apple), y critican asimismo su política empresarial, afirmando que se basó siempre en el monopolio y en la absorción de la competencia o del talento a golpe de talonario. A los críticos les gusta subrayar un hecho totalmente real, pese a que parezca una leyenda urbana: ni siquiera el MS-DOS es obra suya. Bill Gates lo compró por 50.000 dólares a un programador de Seattle llamado Tim Paterson, le cambió el nombre y lo entregó a IBM.

En la actualidad, Microsoft sigue siendo una de las empresas más valiosas del mundo, pese a haber perdido diversas batallas, especialmente la de Internet y la de los sistemas operativos para teléfonos móviles, que lidera ahora Google (Sergei Brin y Larry Page), otro gigante tan valioso como Microsoft. Frente al dinamismo de la era de Internet, en la que surgen y se convierten rápidamente en multimillonarias nuevas ideas como la red

45

Page 19: PEÑA3

social Facebook, de Mark Zuckerberg, la empresa de Gates parece haber quedado algo anquilosada, aunque no se pone en duda la solidez de su posición.

Tampoco ello es exclusiva responsabilidad de Bill Gates, que ya en el año 2000 cedió la presidencia ejecutiva de Microsoft a Steve Ballmer y pasó a ser arquitecto jefe de software para centrarse en los aspectos tecnológicos. Bill Gates había contraído matrimonio en 1994 con Melinda French, con la que tendría tres hijos. En el año 2000 creó, junto con su esposa, la Fundación Bill y Melinda Gates, institución benéfica dedicada a temas sanitarios y educativos cuya espléndida dotación económica procede mayormente de su fortuna personal. No en vano el fundador de Microsoft es un habitual de las listas anuales de la revista Forbes: en 2014 la había encabezado ya en quince ocasiones como el hombre más rico del planeta.

En 2008, Bill Gates abandonó definitivamente Microsoft para dedicarse íntegramente a sus labores en la fundación, que había recibido el Premio Príncipe de Asturias de Cooperación Internacional en 2006. Si antes fue una figura discutida, esta nueva etapa como filántropo despierta más bien unánime admiración: al igual que lo fue su empresa, su fundación es la más grande del mundo por lo que respecta a la cuantía de sus aportaciones económicas a toda clase de programas de ayuda, investigación y desarrollo.

STEVE JOBS:

(Steve Paul Jobs; San Francisco, 1955 - Palo Alto, California, 2011) Informático y empresario estadounidense. Padre del primer ordenador personal y fundador de Apple Computer, probablemente la empresa más innovadora del sector, este mago de la informática fue uno de los más influyentes de la vertiginosa escalada tecnológica en que aún vive el mundo actual, contribuyendo decisivamente a la popularización de la informática. Sus ideas visionarias en el campo de los ordenadores personales, la música digital o la telefonía móvil revolucionaron los mercados y los hábitos de millones de personas durante más de tres décadas.

Sus padres, dos estudiantes universitarios sin medios materiales para mantenerlo, entregaron al pequeño Steve en adopción al matrimonio formado por Paul y Clara Jobs (maquinista ferroviario y ama de casa, respectivamente). Desde 1961, la familia Jobs residió en la pequeña ciudad californiana de Mountain View, importante centro de la industria electrónica estadounidense. No cabe duda de que el ambiente local influyó en sus futuras inclinaciones profesionales; con apenas doce años se unió al Hewlett-Packard Explorer Club, asociación juvenil en la que los ingenieros de la compañía Hewlett-Packard enseñaban a niños y jóvenes las últimas creaciones en el terreno de la computación.

46

Page 20: PEÑA3

Al terminar el bachiller en el Instituto Homestead de Mountain View, Steve Jobs ingresó en la Reed College, una universidad de artes liberales radicada en Portland (Oregón), pero abandonó los estudios universitarios un semestre más tarde. En esa época coqueteó con las drogas y se interesó por la filosofía y la contracultura, llegando a viajar a la India en busca de iluminación espiritual. Tras unas prácticas en la empresa Hewlett-Packard en Palo Alto, en 1974 Jobs fue contratado como diseñador por Atari, compañía pionera de la por entonces naciente industria de los videojuegos.

NACE APPLE

En aquella misma época se unió al que sería su primer socio, el ingeniero Stephen Wozniak. Jobs supo apreciar de inmediato el interés comercial del proyecto de microcomputador doméstico en que trabajaba su amigo; entre los bártulos y enseres domésticos del garaje crearon primero una imaginativa placa base y luego un computador completo, el Apple I, considerado el primer ordenador personal de la historia. En 1976, con el dinero obtenido en la venta de su furgoneta Volkswagen, fundaron la empresa Apple Computer, con sede en el garaje de la familia Jobs. Steve Jobs eligió el nombre Apple como un recuerdo de los tiempos en que trabajaba en la recolección de su fruta favorita, la manzana.

El Apple II, una mejora del modelo anterior, fue introducido en 1977, convirtiéndose en el primer ordenador de consumo masivo. Tras una impresionante lluvia de pedidos, Apple pasó a ser la empresa de mayor crecimiento de Estados Unidos. Tres años después, Apple salió a la bolsa con un precio de 22 dólares por acción, lo que convirtió a Jobs y Wozniak en millonarios. Steve Jobs había adquirido ya su fama de genio bifronte, magníficamente dotado para la tecnología y para los negocios: un excepcional talento creativo le había permitido tanto idear un ordenador revolucionario como triunfar en su comercialización.

Tras el Apple II, Jobs y Wozniak se enfrascaron en la creación del Macintosh, el primer ordenador asequible y fácil de manejar sin necesidad de saber informática: era la realización del sueño que acariciaba la industria desde la invención del primer microprocesador (1971). El lanzamiento del Macintosh en 1984 supuso un vuelco en las perspectivas del mercado. Su gran innovación fue una interfaz gráfica de diseño exquisito y amigable que simulaba una mesa de trabajo (el escritorio), y la introducción del ratón para ejecutar las funciones haciendo clic sobre las iconos, ventanas y menús de opciones que se abrían en la pantalla, lo que facilitaba grandemente la interacción entre el usuario y el ordenador: dejaba de ser necesario comprender, memorizar e introducir a través del teclado multitud de comandos esotéricos, de modo que hasta un niño podía utilizarlo. En este sentido, Jobs realizó una gran contribución a la introducción de los ordenadores personales en la enseñanza.

47

Page 21: PEÑA3

En 1981, el más fuerte competidor de Apple, IBM, había sacado al mercado su primer ordenador personal, copiando en buena parte las especificaciones del Apple II que la propia Apple, de forma un tanto ingenua, había hecho públicas. Con el ánimo de mantener la competitividad de su empresa, Steve Jobs decidió reclutar para la dirección de Apple al entonces presidente de la conocida multinacional de refrescos Pepsi, John Sculley, sin saber que éste acabaría echándole de su propia empresa. El estilo de Sculley, un ejecutivo de la vieja guardia, chocaba claramente con la rebeldía y las maneras heterodoxas de Jobs.

Steve Jobs, John Sculley y Stephen Wozniak en la presentación del Macintosh (San Francisco, 1984)

Al mismo tiempo empezaron los problemas entre Jobs y Wozniak, relegado a un segundo plano tras un accidente, aunque que, según otras versiones, el deterioro de sus relaciones se debió al difícil carácter de Jobs, tachado en medios informáticos de "tirano carismático". El resultado de ambos conflictos personales fue que Wozniak se marchó de Apple en 1985, año en que fueron despedidos mil doscientos empleados a raíz de una amplia reestructuración en la empresa, y Jobs dimitió para emprender en solitario una nueva andadura empresarial.

NEXT COMPUTER Y PIXAR

Steve Jobs fundó una nueva compañía informática, NeXT Computer (1985), y a continuación compró al director cinematográfico estadounidense George Lucas, por diez millones de dólares, la división de animación de la productora del cineasta, Lucasfilm Limited. Así nacieron en 1986 los Estudios de Animación Pixar, centrados en la producción por ordenador de películas de dibujos animados; tan sólo tres años después, una de las películas realizadas por los estudios, Tin Toy (1988), mereció el Oscar de la Academia al mejor cortometraje animado.

En 1989, NeXT Computer lanzó su primer ordenador, repleto de funciones extraordinarias, pero que no resultó rentable por su elevado precio y su incompatibilidad con la mayoría de los sistemas existentes en el mercado. Finalmente, el visionario Jobs cerró la división de ordenadores en 1993, con el mérito de haber creado el aparato con el que el programador británico Tim Berners-Lee ideó la World Wide Web, que sería la base del desarrollo y popularización de Internet.

Mejor iban las cosas en Pixar: en 1995, el estudio lanzó Toy Story, una producción conjunta con Disney que ya forma parte de la historia del cine por ser el primer largometraje realizado íntegramente por ordenador. La película fue un éxito de taquilla y obtuvo un Oscar de la Academia de Hollywood. El siguiente gran éxito de Pixar fue Bichos, una aventura en miniatura (1998), al que seguirían nuevos títulos memorables, como Monsters, Inc. (2001) y Buscando a Nemo (2003).

48

Page 22: PEÑA3

Su antigua empresa, en cambio, atravesaba momentos difíciles. Desde principios de los 80, los llamados PC clónicos (ordenadores personales compatibles con los de IBM) copaban el mercado gracias su bajo coste. Con Jobs al frente, Apple había logrado capear el temporal gracias al ya citado Macintosh (1984): su intuitiva interfaz gráfica fácilmente manejable mediante el ratón era claramente superior al MS-DOS, el sistema operativo de Microsoft que llevaban los clónicos, y justificaba, junto con otras virtudes, su elevado precio.

Pero cuando Microsoft lanzó las primeras versiones del sistema operativo Windows (Windows 3.1 en 1992, Windows 95 en 1995), Apple perdió uno de sus principales argumentos de venta. Un PC clónico equipado con Windows y ratón era tan fácil de usar como el Macintosh, y mucho más barato. A juicio de casi todos los expertos, Windows era un plagio de la interfaz del Macintosh; así lo entendió Apple, que de inmediato se enzarzó en demandas y pleitos contra la Microsoft de Bill Gates. La enemistad entre dos personalidades tan contrapuestas como el hipercreativo Steve Jobs y el funcionarial Bill Gates sería el tema de una película televisiva titulada Piratas del Silicon Valley, producida en 1998 por la cadena TNT.

DE NUEVO EN APPLE

Derrotada en sus pleitos contra Microsoft y sumergida en una profunda crisis, en diciembre de 1996 Apple decidió comprar NeXT Computer, lo que supuso la vuelta de Steve Jobs a la empresa por él fundada con un cargo de asesor interino (por el que Jobs, voluntariamente, no recibía ningún salario). Nueve meses después, la dimisión del presidente de Apple encumbró nuevamente a Jobs al frente de la compañía. En agosto de 1997, un mes antes de su nombramiento como presidente provisional de Apple, Jobs anunció un acuerdo con la corporación rival, Microsoft, que decidió invertir 150 millones de dólares en Apple. Las dos compañías acabaron comprendiendo que se necesitaban y se complementaban, pues Microsoft era el principal fabricante de programas para Macintosh, y Apple uno de los principales testigos en el juicio antimonopolio que la justicia norteamericana había incoado contra la empresa de Bill Gates.

Durante esta segunda etapa en Apple, en la que se mantendría como director ejecutivo hasta 2009, Steve Jobs continuó en su línea rompedora, impulsando productos decididamente innovadores. Visto en perspectiva, no hay duda de que acertó en sus planteamientos. Cuando Jobs asumió de nuevo la presidencia de Apple en septiembre de 1997, la batalla parecía perdida; en 2012, un año después de su muerte, Apple se había convertido en la empresa más valiosa del mundo: la cotización global de sus acciones en bolsa rozaba los seiscientos mil millones de dólares.

En 1998, justo un año después de su regreso, Steve Jobs volvió a revolucionar el mercado informático con el lanzamiento del iMac, un ordenador compacto integrado en

49

Page 23: PEÑA3

el monitor, que además de su espectacular diseño vanguardista estaba preparado para navegar por Internet. Su éxito de ventas colocó a Apple nuevamente entre los cinco mayores fabricantes de ordenadores personales de Estados Unidos y acarreó una revalorización del 50% de las acciones de la compañía. Nuevas versiones del iMac, con mayor potencia y cada vez más sofisticadas prestaciones y diseño, seguirían apareciendo en los años siguientes, con gran aceptación entre su legión de usuarios incondicionales.

Como si el mundo del ordenador personal se le hubiera quedado pequeño, Jobs pasó pronto a desplegar su inagotable inventiva en otros ámbitos, conjugando como siempre había hecho las novedosas funcionalidades con la máxima simplicidad de uso y elegantes diseños minimalistas. El primero fue la música digital: en 2001 desembarcó en el sector musical con un reproductor de audio de bolsillo, el iPod, y dos años después creó la tienda musical iTunes, que lideró de inmediato la venta de música en línea y sigue manteniendo su posición dominante. Desgraciadamente, sus problemas de salud lo obligaron a apartarse temporalmente de su trabajo en 2004, año en que fue tratado de un cáncer de páncreas.

En 2007 presentó el iPhone, primero de la familia de teléfonos inteligentes de alta gama producida por Apple. Declarado "invento del año" por la revista Time, su pantalla táctil integraba un teclado de orientación tanto vertical como horizontal, e incorporaba una cámara fotográfica de tres megapíxeles, un lector de música (con las mismas funciones que un iPod) y un navegador de Internet. Inicialmente contaba con un número reducido de aplicaciones, proporcionadas por Apple, pero la demanda de más programas por parte de los usuarios originó la creación de la App Store en julio de 2008, una tienda de aplicaciones donde todo tipo de desarrolladores podían vender software diseñado para los iPhone y demás dispositivos fabricados por la compañía.

Las novedosas prestaciones del iPhone fueron pronto imitadas, pero sólo otro gran gigante del sector, Google (Sergei Brin y Larry Page), presentó batalla al liderazgo de Apple lanzando ese mismo año Android, un sistema operativo para móviles. La historia se repetía: el iPhone llevaba integrado su propio sistema operativo, el iOS, y gracias al desarrollo de Android, que acabaría por imponerse casi como estándar entre los restantes fabricantes, Google logró evitar que una probable hegemonía de Apple amenazase su posición dominante en Internet, pues era sabido que, en un futuro muy próximo, la mayor parte de conexiones a Internet se efectuarían desde dispositivos móviles.

En 2009, año en que hubo de someterse a un trasplante de hígado, Steve Jobs delegó la mayor parte de sus responsabilidades en Timothy Cook. Pero ni siquiera el visible deterioro de su salud lograría reducir su entrega al trabajo y su afán innovador. Con su creatividad intacta, todavía en 2010 sorprendió al mundo con el iPad, un híbrido de

50

Page 24: PEÑA3

tableta y teléfono móvil; una ligera y delgadísima pantalla táctil de 9,7 pulgadas contenía en su parte posterior la potencia de procesamiento y todas las prestaciones de un ordenador portátil, sin necesidad de teclado ni ratón. Steve Jobs presentó la segunda versión, el iPad 2, en marzo de 2011, en la que sería una de sus últimas apariciones en público. El 5 de octubre de 2011, a los 56 años de edad, falleció en su casa de Palo Alto, víctima del avance del cáncer que le había sido detectado en 2003.

TIM-BERNERS LEE:

Nace en Londres hace 67 años. Y es conocido como TimBL o TBL. Es ingeniero físico carrera que estudia en la universidad de Oxford y por su merecida reputación empieza a trabajar en el CERN – Laboratorio Europeo de Física Nuclear de Ginebra, Suiza -. Tenemos que pensar que si estudiar en Oxford es difícil, que el CERN te contrate aún más todavía. Luego ya tenía que ser alguien especial.

La necesidad de compartir de forma fácil y sencilla los documentos de los de los investigadores del CERN fue el proyecto que le hizo a Tim desarrollar una idea original para la época, 1986: Conectar el hipertexto con Internet y los ordenadores personales, para tener una sola red de información, que ayudase a los físicos del CERN, a compartir toda la información almacenada en la memoria del ordenador del laboratorio. El hipertexto permitiría a los investigadores, hojear fácilmente entre los textos de las páginas web, usando enlaces.

El lenguaje HTML – Hyper Text Markup Language – había sido creado, a partir de dos herramientas preexistentes: el concepto de Hipertexto y el Lenguaje Estándar de Marcación General.

En 1990, se sumó al proyecto el francés Robert Cailliau, quien creó el primer logo del World Wide Web, además de haber sido el primero en practicar surf en la Web.

A partir de este momento todo fue una cadena de mejoras y de crecimiento de servidores, páginas web y conexiones a internet

En 1994, Berners Lee funda el Consorcio World Wide Web (W3C), en el Laboratorio de Ciencias Informáticas del IMT, con la idea de establecer estándares que aumenten y faciliten la accesibilidad de la Web donde sigue hasta hoy en día sigue trabajando en la dirección de la web semántica, que hoy implica especialmente, la consideración de parámetros asociados a la accesibilidad desde dispositivos móviles.

51

Page 25: PEÑA3

¿POR QUE CONSIDERA QUE SON EJEMPLOS A SEGUIR?

Porque son personas que han revolucionado el mundo de la informática partiendo de sus ideas propias, porque nos demuestran que si nos proponemos una meta podemos cumplirla a través de persistencia y dedicación. Debemos tomarlos como nuestros referentes ya que nosotros en un futuro seremos ingenieros de sistemas y estaremos metidos en el mundo de la informática y gracias a ellos se nos facilitaron las herramientas para poder crear proyectos que serán importantes para este mundo informático.

¿CUAL ES EL SECRETO DE SU ÉXITO?

Bueno para mi según las biografías de cada uno de estos personajes y digo personajes porque esta gente ya inmortalizo su nombre con tremendos aportes que dieron a la informática; el secreto de su éxito es trabajar con dedicación, investigar, no darse por vencidos creer en sus ideas, ser hábiles, ir más allá de lo conocido, tener una mente creativa ; y saber expresar sus ideas ya que gracias a ello ahora nosotros vivimos en el mundo de las tecnologías.

52

Page 26: PEÑA3

REFERENCIAS:

http://www.ecured.cu/Douglas_Engelbart

http://www.biografiasyvidas.com/biografia/n/neumann.htm

http://histinf.blogs.upv.es/2010/11/02/konrad-zuse/

http://www.biografiasyvidas.com/biografia/t/turing.htm

http://www.feandalucia.ccoo.es/docu/p5sd6351.pdf

http://e-logicasoftware.com/tutoriales/curso-virtual-software-libre-alcaldia/1_introduccion/recursos/richardstallman.pdf

http://www.biografiasyvidas.com/biografia/b/babbage.htm

http://hipertextual.com/2011/10/historia-de-la-tecnologia-alan-kay-padre-legitimo-de-la-computacion-personal

http://www.biografiasyvidas.com/biografia/g/gates.htm

http://www.biografiasyvidas.com/biografia/j/jobs.htm

http://www.avanteservices.com/es/blog/?p=1265

http://fce2.ufm.edu/jhcole/EnsayoGeorgeOrwell.pdf

http://www.taringa.net/posts/info/18672764/Tecnologias-imaginadas-en-el-libro-1984.html

http://www.monografias.com/trabajos97/evolucion-computadora/evolucion-computadora.shtml

http://problema.blogcindario.com/2008/10/00014-marco-teorico.html

http://www.alegsa.com.ar/Dic/telematica.php

http://www.coitt.es/res/revistas/05a_Telematica.pdf

https://sites.google.com/site/tecnologiaeducativachepo/tic-antecedentes-y-definicion

http://www.uv.es/~bellochc/pdf/pwtic1.pdf

http://www.uv.es/~bellochc/pdf/pwtic1.pdf

http://www.timetoast.com/timelines/definiciones-de-ntic

http://edson-lossistemasdeinformacionenlasor.blogspot.pe/

http://www.slideshare.net/miniproject/sistemas-de-informacin-1708626

http://www.gestiopolis.com/canales8/mkt/sistemas-de-informacion.htm

http://es.slideshare.net/PaolaBorges/definiciones-de-sistemas-informaticos-11740753

http://definicion.de/aldea-global/

53

Page 27: PEÑA3

http://www.quelibroleo.com/la-aldea-global-1

http://148.206.107.15/biblioteca_digital/capitulos/95-2546kul.pdf

http://www.economia48.com/spa/d/sociedad-postindustrial/sociedad-postindustrial.htm

https://es.wikipedia.org/wiki/Sociedad_de_la_informaci%C3%B3n

https://sites.google.com/site/trianahuilen/manuel-castells

BIBLIOGRAFIA:

- Y.Masuda, “La sociedad informatizada como sociedad post-industrial”, Tecnos, 1994.

- R. Tejo, “La nueva alfombra mágica”, Fundesco, 1996.

- M. Castells, “La era de la información”, 1998.

54