Historia de la Informática 

La computadora u ordenador  que conocemos hoy en día no es un invento de alguien en especial, sino  que ha sido el resultado de ideas, experimentos y realizaciones de muchas personas relacionadas con la electrónica, la mecánica, la lógica, el álgebra y la programación, y que estas personas a su vez tenían como objetivo principal facilitar ciertas labores. 

 

Hablar de computación informática, es hablar de un tema apasionante en todos los sentidos ya que nos hace soñar sobre el futuro que nos espera, nos hace discutir sobre las tecnologías apropiadas y sus costos, las políticas para desarrollar una industria, institución y un país. 

Pero fundamentalmente hablar de computación o informática es hablar de la necesidad de recursos humanos capacitados, de los cambios en la forma de trabajar y los nuevos empleos, de las nuevas posibilidades de desarrollo individual y hasta de aprendizaje con la inserción de la computadora; hablar de computación es hablar de educación, es hablar de una ciencia que día a día mejora y se estrecha más con la vida cotidiana del ser humano.  

Para efectos de estudio desarrollaremos la trayectoria de la informática por generaciones y fechas para ir observando como poco a poco cada cambio que ha sigo agregado se ha convertido como la ciencia que conocemos hoy en día.

   

 

Antesala a la informática (1642-1930) 

Los procesos que dieron paso a la informática se han dado desde tiempo muy antiguos, los primeros vestigios de cálculo, se remontan a 3000 años antes de cristo, los babilonios que habitaron en la antigua Mesopotamia empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" agrupadas en carriles de caña. Posteriormente, en el año 1800 antes de cristo un matemático babilónico inventó los algoritmos que permitieron resolver problemas de cálculo numérico, el algoritmo es un conjunto ordenado de operaciones propias de un cálculo. 

1642: francés Blaise Pascal físico y matemático inventó el primer calculador mecánico, llamado la pascalina a los 18 años de edad, desarrollándolo con la intención de reducir el trabajo de cálculo de su padre, el cual laboraba como funcionario de impuestos, esta máquina era un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta, cada una estaba marcadas con números del 0 al 9 y había dos para los decimales, con lo que  se podía manejar números entre 000000,01 y 999999,99. Giraban mediante una manivela, con lo que para sumar o restar había que darle el número de vueltas correspondiente en un sentido o en otro. Treinta años después el filósofo y matemático alemán Leibnitz inventó una máquina de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario. 

1801: Joseph Marie Jacquard fue un tejedor y comerciante de origen francés que participó en el desarrollo y dio su nombre al primer telar programable con tarjetas perforadas, el telar de Jacquard. Hijo de un obrero textil, trabajó de niño en telares de seda, y posteriormente automatizó esta tarea con el uso de tarjetas perforadas. Conforme fue creciendo e ideando distintos modos de resolver uno de los principales problemas que tenían los telares de esa época: empalmar los hilos rotos. Su telar fue presentado en Lyon en 1805. Aunque su invento revolucionó la industria textil, inicialmente sufrió el rechazo de los tejedores, incluso quemaron públicamente uno de sus telares. Posteriormente el telar de Jacquard fue declarado patrimonio nacional y Jacquard en honor a la medalla del telar de jacquard recibió la medalla de la Legión de Honor y un pago de 50 francos por cada telar que se comercializara. 

El método de su telar, se convirtió en el paradigma de la primera máquina computacional, desarrollada por Charles Babbage   

1825: Charles Babbage (1793-1871) fue un matemático británico y científico de la computación. Diseñó y parcialmente implementó una máquina de diferencias mecánicas para calcular tablas de números. También diseñó, pero nunca construyó, la máquina analítica para ejecutar programas de tabulación o computación; por estos inventos se le considera como una de las primeras personas en concebir la idea de lo que hoy llamaríamos una computadora, por lo que se le considera como El Padre de la Computación. 

1843: Lady Ada Augusta Lovelace, fue una matemática y escritora británica, sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.  

1879: A los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880. 

Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía: la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 Hollerith fusionó su compañía con otras dos para formar la International Business Machines hoy mundialmente conocida como IBM.  

COMIENZO DE LOS 30: John Vincent Atanasoff, un estadounidense doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas. 

Con 650 dólares donados por el Consejo de Investigación del Estado de Iowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido como ABC Atanasoff- Berry Computer.

Prácticamente al mismo tiempo que Atanasoff, el ingeniero John Mauchly, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. 

Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la Asociación Americana para el Avance de la Ciencia para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobré la paternidad del computador digital.

 

  

Primera generación (1936-1958) 

1936 -1939: El ingeniero alemán Konrad Zuse construyó la primera computadora electromecánica binaria programable, la cual hacía uso de relés eléctricos para automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al que llamó Z1, el mismo que nunca llegó a funcionar cabalmente debido a la falta de perfeccionamiento en sus elementos mecánicos. 

1939-1944: Howard Aiken de la Universidad de Harvard, en colaboración con IBM, desarrolló el Mark 1, conocido como Calculadora Automática de Secuencia Controlada. Fue un computador electromecánico de 16 metros de largo y unos 2 de alto. Tenía 700.000 elementos móviles y varios centenares de kilómetros de cables. 

Podía realizar las cuatro operaciones básicas y trabajar con información almacenada en forma de tablas. Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1 segundo. 

El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito de asemejarse al tipo de máquina ideado por Babbage, aunque trabajaban en código decimal y no en binario. El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente ensombrecido por el ENIAC con sus circuitos electrónicos.  

1940-1946: Konrad Zuse terminó su modelo Z2,  constituyendo así la primera computadora electro-mecánica completamente funcional del mundo. Al año siguiente, en 1941, fabricó su modelo Z3, que incluía un programa de control que hacía uso de los dígitos binarios. 

Sin embargo, esta computadora fue destruida en 1944 a causa de la segunda guerra mundial. Entre 1945 y 1946, crea el "Plankalkül" (Plan de Cálculos), siendo este el primer lenguaje de programación de la historia y predecesor de los lenguajes modernos de programación algorítmica.   

1946: Otra de las más famosas computadoras de la época fue la ENIAC que contaba con 17,468 tubos de vidrio al vacío, similares a los radio-tubos, y que fue empleada por el ejército exclusivamente para cálculos balísticos o la trayectoria de los misiles. Fué construída en 1946 en la Universidad de Pensylvania por John Mauchly y J. Presper Eckert. Medía 2.40 de ancho por 30 metros de largo y pesaba 80 toneladas. 

La ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su programación era terriblemente tediosa y debía cambiársele de tubos continuamente. Lo que caracterizaba al ENIAC como a un computador moderno no era simplemente su  velocidad de cálculo, sino que permitía realizar tareas que antes eran imposibles. 

1948: IBM lanza la primera calculadora electrónica denominándola simplemente IBM 604,el IBM 604 fue un panel de control programable ,introducido en 1948, y fue una máquina en la que las expectativas considerables para el futuro de IBM estaban inmovilizados y en el que la cantidad correspondiente de la planificación talento se invirtieron. 

1949: La computadora EDVAC, construida en la Universidad de Manchester, en 1949  fue el primer equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambiados o reconfigurados cada vez que se usaban. 

Esta computadora fue también construída por John Maucly y J. Prespert Eckert, quienes empezaron a trabajar en ella 2 años antes que la ENIAC empezara a operar. La idea era tener el programa almacenado en la computadora y esto fue posible gracias a que la EDVAC tenía una mayor capacidad de almacenamiento de memoria. 

La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros (0) y unos (1). Esto era indispensable ya que en lugar de usar decimales la EDVAC empleaba números binarios. 

En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más completas. 

1951: Eckert–Mauchly Computer Corporation fue fundada por J. Presper Eckert y John Mauchly,  fue constituida el 22 de diciembre de 1947. Entregan a la Oficina del Censo su primer computador: el UNIVAC I. Posteriormente aparecería el UNIVAC-II con memoria de núcleos magnéticos, lo que le haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM. La EMCC también recibió contratos para fabricar una UNIVAC para la Armada, la Marina y las Fuerzas Aéreas. 

1952: Claude Elwood Shannon fue un ingeniero electrónico y matemático estadounidense, recordado como el padre de la teoría de la información, desarrolla el primer ratón eléctrico capaz de salir de un laberinto considerada la primera Red neural. Publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos. 

1952: IBM introduce el modelo 701, su primera computadora científica comercial de IBM, Durante los cuatro años de producción se vendieron 20 unidades, El sistema utilizó tubos Williams para la memoria, consistiendo en 72 tubos con una capacidad de 1024 bits, dando una memoria total de 2048 palabras de 36 bits cada uno. Cada uno de los 72 tubos era de 76 mm de diámetro.  

La memoria se podía ampliar a un máximo de 4096 palabras de 36 bits por la adición de un segundo sistema de 72 tubos o sustituyendo la memoria entera por memoria de núcleos magnéticos. El tiempo de acceso de la memoria de tubos y de la de núcleo de ferrita era 12 microsegundos. La memoria de tubos necesitaba "refrescarse" periódicamente. Una operación entera de suma tomaba 5 ciclos de máquina de 12 microsegundos (60 microsegundos), multiplicaba y dividía en 38 ciclos de la máquina de 12 microsegundos (456 microsegundos). 

1953: IBM fabricó su primera computadora gran escala, el IBM 650. El IBM 650 fue uno de los primeros ordenadores de IBM, y el primero que fue fabricado a gran escala. Fue anunciado en 1953, y se produjeron 2000 unidades desde 1954 (la primera venta) hasta 1962. En 1969, IBM dejó de dar servicio técnico para el 650 y sus componentes. El 650 es una máquina que codifica tanto datos como direcciones de memoria en sistema decimal, guardando cada cifra en código biquinario. Este código guarda, mediante varios bits, dos variables: una con 2 posibles estados, y otra con 5 posibles estados. 

1953: La primera impresora de alta velocidad es desarrollada por Remington-Rand para su uso en la Univac.  

1956: La Conferencia de Dartmouth (en inglés: the Dartmouth Summer Research Project on Artificial Intelligence) es el nombre del encuentro que tuvo lugar en el verano de 1956 en la universidad Dartmouth College, ubicada en Hanover, Nuevo Hampshire (Estados Unidos), considerado como el evento germen de la Inteligencia Artificial como esfera o campo de actividad.   

 

Segunda generación (1958-1964) 

1958: Comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío. Un transistor y una válvula cumplen funciones equivalentes, con lo que cada válvula puede ser reemplazada por un transistor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo  de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza. 

Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores vienen a ser de 10 voltios, con lo que los demás elementos de circuito también pueden ser de menor tamaño, al tener que disipar y soportar tensiones muchos menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío. 

1958: El lenguaje LISP es desarrollado para la IBM 704 en el MIT, bajo el mando de John McCarthy. Jack Kilby de Texas Instruments fabrica el primer circuito integrado. 

1959: IBM lanzo el mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. Tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70. 

1960: IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético de más de 60.000 dígitos decimales. 

1961: Se desarrolla el primer juego de ordenador, llamado Spacewar, desarrollado en 1961 por Steve Russell junto a otros estudiantes del Instituto de Tecnología de Massachusetts. 

1963: Código ASCII Fue creado por el Comité Estadounidense de Estándares o "ASA", este organismo cambio su nombre en 1969 por "Instituto Estadounidense de Estándares Nacionales" o "ANSI" como se lo conoce desde entonces.  

Este código nació a partir de reordenar y expandir el conjunto de símbolos y caracteres ya utilizados en aquel momento en telegrafía por la compañía Bell. En un primer momento solo incluía letras mayúsculas y números, pero en 1967 se agregaron las letras minúsculas y algunos caracteres de control, formando así lo que se conoce como US-ASCII, es decir los caracteres del 0 al 127.  Así con este conjunto de solo 128 caracteres fue publicado en 1967 como estándar, conteniendo todos lo necesario para escribir en idioma inglés. 

   

 

Tercera generación (1964-1971) 

1964: La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. 

Esto representa un gran avance en cuanto a velocidad y, en especial, en cuanto a reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen. 

Paul Baran diseñó una red de comunicaciones que utilizaba computadores y no tenía núcleo ni gobierno central. Además, asumía que todas las uniones que conectaban las redes eran altamente desconfiables.  

El sistema de Baran trabajaba con un esquema que partía los mensajes en pequeños pedazos y los metía en sobres electrónicos, llamados "paquetes", cada uno con la dirección del remitente y del destinatario. Los paquetes se lanzaban al seno de una red de computadores interconectados, donde rebotaban de uno a otro hasta llegar a su punto de destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno de los paquetes se perdía o se alteraba (y se suponía que algunos se habrían de dislocar), no era problema, pues se volvían a enviar. 

1964: Control Data Corporation introduce la CDC 6000, que emplea palabras de 60-bits y procesamiento de datos en paralelo. Luego vino la CDC 6600, una de las más poderosas computadoras vigente durante varios años. Fue diseñada por Seymour Cray. 

1964: BASIC (Beginners All-purpose Symbolic Instruction Language) es creado por Tom Kurtz y John Kemeny de Dartmouth. 

1966: La organización científica ARPA se decidió a conectar sus propios computadores a la red propuesta por Baran, tomando la idea de la red descentralizada. A finales de1969 ya estaban conectados a la red ARPA los primeros cuatro computadores, y tres años más tarde ya eran 40. En aquellos tiempos era, sin embargo, la red propia de ARPA. En los años siguientes la red fue llamada ARPANET (red ARPA), y su uso era netamente militar. 

Un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desarrolló un sistema operativo experimental llamado Multics (Información multiplexada y Sistema de Computación) para usar con un computador General Electric. Los laboratorios Bell abandonaron el proyecto, pero en 1969, Ken Thompson, uno de los Investigadores del Multics, diseñó un juego para dicho computador, que simulaba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a escribirlo, ahora para un computador DEC (Digital Equipment Corporation), aprovechando que, junto con Ritchie había creado también un sistema operativo multitarea, con sistema de archivos, intérprete de órdenes y algunas utilidades para el computador DEC. Se le llamó UNICS (Información Uniplexada y Sistema de Computación) y podía soportar dos usuarios simultáneamente. En 1970 se renombró Unix. Su licencia de uso era muy costosa, lo cual lo ponía fuera del alcance de muchas personas. Esto motivaría luego la creación del Proyecto GNU para el desarrollo de software libre. 

1968: Robert Noyce y Gordon Moore fundan la corporacion intel (intel corporation). 

1969: El desarrollo de ARPANET: La organización ARPA junto con la compañía Rand Corporation desarrolló una red sin nodos centrales basada en conmutación de paquetes tal y como había propuesto Paul Baran. La información se dividía en paquetes y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una cierta información. 

Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban para dar lugar a la información. Al viajar paquetes por la red, era más  difícil perder datos ya que, si un paquete concreto no llegaba al destino o llegaba defectuoso, el computador que debía recibir la información sólo tenía que solicitar al computador emisor el paquete que le faltaba. El protocolo de comunicaciones se llamó NCP. Esta red también incluyó un gran nivel de redundancia (repetición) para hacerla más confiable. 

1970: IBM libera su primer sistema System 370, computadora de cuarta generación. En 1971 se presentan los modelos 370/135, hasta el modelo 370/195. Ese mismo año IBM desarrolla e introduce los floppy disks (discos flexibles) empleados para cargar el micro código de la IBM 370.  

1970: IBM colocó una unidad de diskette a su computador modelo 3740 con esto se incrementó la capacidad de acceso y la velocidad de la información.

 

   

 

Cuarta generación (1971-1983) 

Una fecha en la cual de manera inobjetable todos están de acuerdo,  el final de la tercera generación marcado claramente por la aparición del primer microprocesador. En 1971, Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bit, que en un espacio de aproximadamente 4 x 5 mm contenía 2250 transistores. Este primer microprocesador fue bautizado como el 4004. 

1971: Se creó el primer programa para enviar correo electrónico. Fue Ray Tomlinson, delBBN, y combinaba un programa interno de correo electrónico y un programa de transferencia de ficheros. También en este año un grupo de investigadores del MIT presentaron la propuesta del primer “Protocolo para la transmisión de archivos en Internet”. Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de ficheros (FTP). 

Las instituciones académicas se interesaron por estas posibilidades de conexión. La NSF dio acceso a sus seis centros de supercomputación a otras universidades a través de la ARPANET. A partir de aquí se fueron conectando otras redes, evitando la existencia de centros, para preservar la flexibilidad y la escalabilidad. 

1972: El primer microprocesador de 8 bits fue el Intel 8008, El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general. 

1972: Aparecen los disquetes de 5.25 pulgadas. 

1974: Vinton Cerf, conocido como el padre de Internet, junto con Bob Kahn, publican “Protocolo para Intercomunicación de Redes por paquetes”, donde especifican en detalle el diseño de un nuevo protocolo, el Protocolo de control de transmisión (TCP, Transmission Control Protocol), que se convirtió en el estándar aceptado. La implementación de TCP permitió a las diversas redes conectarse en una verdadera red de redes alrededor del mundo. 

Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN). 

1975: En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer computador personal reconocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes de memoria RAM. El código de máquina se introducía por medio de interruptores montados en el frente del equipo, y unos diodos luminosos servían para leer la salida de datos en forma binaria. Costaba 400 dólares, y el monitor y el teclado había que comprarlos por separado. Se funda Microsoft al hacer un interpretador BASIC para esta máquina. 

1975: el 4 de abril de 1975 es fundada Microsoft Corporation por Bill Gates y Paul Allen. Dedicada al sector del software y el hardware, tiene su sede en Redmond, Washington, Estados Unidos. Microsoft desarrolla, fabrica, licencia y produce software y equipos electrónicos, siendo sus productos más usados el sistema operativo Microsoft Windows y la suite Microsoft Office, los cuales tienen una importante posición entre las computadoras personales.   

1976: Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y está por su parte es aún de las cinco compañías más grandes del mundo. 

1977: Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje, y al año siguiente se ofrece la primera versión del procesador de texto WordStar. Parecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Business Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer; se incluyó un sistema operativo estandarizado, el MS-DOS (MicroSoft Disk Operating System). 

1979: Dan Bricklin crea la primera hoja de cálculo, más tarde denominada VisiCalc, la cual dio origen a Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro, y Excel. ARPA crea la primera comisión de control de la configuración de Internet y en 1981 se termina de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol) y ARPANET lo adopta como estándar en 1982, sustituyendo a NCP. Son las primeras referencias a Internet, como “una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP”. Internet es la abreviatura de Interconnected Networks, es decir, Redes interconectadas, o red de redes. 

1980: En octubre, la IBM comenzó a buscar un sistema operativo para su nueva computadora personal que iba a lanzar al mercado, cosa de la cual se enteró Bill 

Gates y su amigo Paul Allen, autores del lenguaje de programación Microsoft BASIC, basado en el ya existente lenguaje BASIC. Ellos compraron los derechos de QDOS (Quick and Dirty Operating System), un sistema operativo desarrollado por Tim Paterson y basado en CP/M, un sistema escrito por Gary Kildall, y lo negociaron con IBM como Microsoft DOS.   

1981: El 12 de Agosto, IBM presenta el primer computador personal, el IBM PC reconocido popularmente como tal, con sistema operativo PC DOS y procesador Intel 8088. IBM y Microsoft son coautores del sistema operativo PC-DOS/MS-DOS, ya que IBM ayudó a Microsoft a pulir los muchos errores que el MS DOS tenía originalmente. Sony crea disquetes de 3.5 pulgadas. 

1982: se  crea Compaq Computer Corporation es una compañía de computadoras personales fundada por Rod Canion, Jim Harris y Bill Murto. 

1983: IBM presenta un PC con un procesador 8088 de 4,77 Mhz de velocidad y un disco duro de 10 MB, Microsoft ofrece la versión 1.0 del procesador de palabras Word para  El Apple II IBM PC 5150 DOS y ARPANET se separa de la red militar que la originó, de modo que ya sin fines militares se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejando abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época poblaban la red. 

Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de Massachusetts (MIT), decidió dedicarse al proyecto de software libre que denominó GNU. 

 

Quinta generación (1984 -1999) 

1984: IBM presenta un PC con procesador Intel 286, bus de expansión de 16 bits y 6 MHz de velocidad. Tenía 512 KB de memoria RAM, un disco duro de 20 Mb y un monitor monocromático. Precio en ese momento: 5.795 dólares. 

Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada por Xerox. 

Las compañías Philips y Sony crean los CD-ROM para los ordenadores. 

1985: Microsoft presenta el sistema operativo Windows 1.0, demostrando que los computadores compatibles IBM podían manejar también el entorno gráfico, usual en los computadores Mac de Apple. 

1986: COMPAQ lanza el primer computador basado en el procesador Intel 80386, adelantándose a IBM. 

1989: Creative Labs presenta la tarjeta de sonido Sound Blaster   

1990: Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. Su sistema hizo mucho más fácil compartir y encontrar datos en Internet. Berners-Lee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL. 

1991: Linus Torvalds, un estudiante de Ciencias de la Computación de la Universidad deHelsinki (Finlandia), al ver que no era posible extender las funciones del Minix,  WWW decidió escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido con su nombre personal es mera coincidencia). 

Miles de personas que querían correr Unix en sus PCs vieron en Linux su única alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que Stallman había iniciado hacía ya casi diez años había producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux. 

A mediados de los años noventa Linux se había convertido ya en el Unix más popular entre la gente que buscaba alternativas al sistema Windows de Microsoft. 

1995: Lanzamiento de Windows 95. Desde entonces Microsoft ha sacado al mercado varias versiones tales como Windows 98, 2000, (Server y Professional), NT Workstation, ME, XP (Professional y Home Edition) , Vista, seven, ocho y diez. 

1996: Se creó Internet2, más veloz que la Internet original, lo cual permite el manejo de archivos muy grandes y aplicaciones en videoconferencia, telemedicina y muchas otras cosas imprácticas por Internet 1.  

1996: Los puertos USB aparecieron en los ordenadores y se extendieron rápidamente, hasta el punto de que Windows 98 y sus versiones posteriores los soportan plenamente. Eran los denominados USB versión 1.1, cuya velocidad de transferencia de datos llegaba hasta 12 Mbps (megabits por segundo). Su éxito fue tal que en el año 2000, como resultado de una iniciativa en la que participaron Hewlett-Packard, Intel, Lucent, Microsoft, NEC y Philips, apareció el USB 2.0, una extensión del anterior, completamente compatible con aquél, que permite transmitir datos hasta 480 Mbps. Se espera que, en un futuro no muy lejano, los puertos USB reemplacen a los convencionales puertos paralelo y serie para conectar todo tipo de periféricos.

   

 

Sexta generación (2000 y en desarrollo)  

2000: Es presentado el prototipo de computador cuántico construido por el equipo de investigadores de IBM que constaba de 5 átomos, se programaba mediante pulsos de radiofrecuencia y su estado podía ser leído mediante instrumentos de resonancia magnética.

similares a los empleados en hospitales y laboratorios de química. En este computador, cada uno de los átomos de flúor que lo componen actúa como un qubit; un qubit es similar a un bit en un computador electrónico tradicional, pero con las diferencias que comporta su naturaleza explícitamente cuántica (superposición de estados, entrelazamiento de los estados de dos qubits...). 

2001: El comienzo de la Wikipedia (2000): la enciclopedia libre en Red. Desde sus inicios en 2001, Wikipedia ha utilizado diferentes isologotipos. Todos ellos incluyeron una esfera escrita como forma central, simbolizando el mundo y el conocimiento. A partir de 2003 se adoptó, como forma central en los logos, una esfera incompleta, conocida como wikiesfera, compuesta por piezas de un rompecabezas con fragmentos de escritura. 

Cada Wikipedia según idioma es autónoma y tiene facultades para elegir el logotipo que la identifique. A partir de 2003 todas han adoptado básicamente el mismo logo, con la expresión «Wikipedia the free encyclopedia» (Wikipedia la enciclopedia libre), traducida al idioma en que se escribe cada una. 

2001: Windows XP Lanzado al mercado el 25 de octubre de 2001, en diciembre de 2013, tenía una cuota de mercado de 500 millones de ordenadores. Las letras "XP" provienen de la palabra eXPeriencia (eXPerience en inglés).  

2005: Los usuarios de internet con conexión de banda ancha superan a los usuarios de internet con conexión vía modem en la mayoría de países desarrollados. Sin duda alguna, la computación ha venido a revolucionar el mundo a nivel global. 

El 15 de febrero de 2005, YouTube entra en línea, es un sitio web en el cual los usuarios pueden subir y compartir vídeos. Fue creado por tres antiguos empleados de PayPal, En octubre de 2006, fue adquirido por Google Inc. a cambio de 1650 millones de dólares y ahora opera como una de sus filiales. Actualmente es el sitio web de su tipo más utilizado en internet. 

2009: El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2.3, Windows 7 es una versión de Microsoft Windows, línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, tablet PC, netbooks y equipos media center. 

2012: Windows 8 lanzado el 26 de octubre de 2012, para su uso en computadoras personales, incluidas computadoras de escritorio en casa y de negocios, computadoras portátiles, netbooks, tabletas, servidores y centros multimedia. El principal cambio es la polémica decisión de eliminar Menú Inicio, existente desde Windows 95. 

2014: Windows 8.1 lanzado el 15 de diciembre de 2014, es una actualización  gratuita del sistema operativo Windows 8. Este proyecto es un cambio con respecto a la política tradicional de actualizaciones de Microsoft, que originalmente consistía en lanzamientos regulares de Service Pack cada 2 años aproximadamente, ya que será una actualización mayor que introducirá varias mejoras en todas las plataformas de Microsoft incluyendo Windows 8 y Windows Phone 8. 

Algunas características de la sexta generación de computadoras: 

  1. Las Computadoras Portátiles (Ladtops)
  2. Las Computadoras de Bolsillo (PDAs)
  3. Los Dispositivos Multimedia
  4. Los Dispositivos Móviles Inalámbricos (SPOT, UPnP, Smartphone, etc.)
  5. El Reconocimiento de voz y escritura
  6. Las Computadoras Ópticas (luz, sin calor, rápidas)
  7. Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas)
  8. La Mensajería y el Comercio Electrónico
  9. La Realidad Virtual
  10. Las Redes Inalámbricas (WiMax, WiFi, Bluetooth)
  11. El Súper Computo (Procesadores Paralelos Masivos)
  12. Las Memorias Compactas (Discos Duros externos USB, SmartMedia, PCMCIA) 
 
 

Artículos Relacionados 

 

Partes De Una Computadora

Para estudiar las partes de una computadora es importante que primero conozcamos dos conceptos básicos que  están relacionados entre sí: Hardware y Software. El Hardware: son todos aquellos componentes físicos de una computadora, todo lo visible y tangible...

 

Mantenimiento y Reparación de Computadoras

Hace 40 años o más, las pocas computadoras en existencias eran maquinas enrome y muy caras, eran frecuentemente usadas con fines científicos y especiales, por lo tanto, tenían poco efecto en la vida de la mayor parte de la gente. Actualmente hay millones de computadoras, de todos tipos y tamaños en oficinas...

 

 

Articulo Redactado por: Kilo tapias peralta Escobar

Soy el fundador de EspacioHonduras, he basado mi vida entera en los estudios, y eso me ha motivado a crear este Sitio Web, mis intenciones son las de cambiar nuestro futuro y así dar una libertad a las futuras generaciones. #kilotapias #espaciohonduras
----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------