No olvidemos las raíces (Borrador)




Muchos son los que hablan sin conocer la historia que ha recorrido la informática durante las últimas décadas, y ya para contar la historia de la informática, hace falta conocer la de la computación. El recorrido que ha realizado es importante a la hora de poder tener una sólida opinión al respecto, así que me gustaría empezar con un resumen de la historia general de la informática y la computación.

Pasó mucho tiempo desde se inventó el ábaco hasta que se quedó obsoleto, y todo ese tiempo en lo que viene al caso ahora mismo es prescindible, así que vamos a aproximarnos un poco más al Siglo XIX d.C.. Aunque no podemos olvidar la importancia de la antecesores como la Pascalina, que ayudó a realizar largas sumas y restas allá por el Siglo XVII a la que más adelante Leibnitz añadió las multiplicaciones y divisiones comenzando así el uso de las calculadoras. Curiosamente los telares que se usaban ya en el Siglo XIX tuvieron mucho que ver en la computación, empleando ya la automatización de tareas lo cual ayudaría más tarde a las máquinas computadoras. Pero fueron Charles Babbage y Lady Augusta Ada Byron los cuales comenzaron que llamaron la máquina analítica, una calculadora que funcionase por sí sola. Desgraciadamente las tecnologías para la fabricación de las piezas necesarias no era suficiente, así que Babbage no puedo llevar a cabo por completo su calculadora analítica, pero al menos Lovelace completó sus teorías de cómo dar instrucciones a un computador.

El primer computador comenzaría después de la invención de la máquina tabuladora, presentada a concurso por Herman Hollerith para el censo de personas que llegaban a Estados Unidos en 1890, en la cual se empezó a hacer uso de lo que después se considerarían los unos y ceros. Este avance hacia la numeración binaria dio un gran paso del cual Herman se percató, y además de vender estás máquinas tabuladoras a otros países para realizar sus censos, comenzó una empresa denominada International Business Machines (IBM). Y así poco a poco la computación fue conociéndose hacia principios del Siglo XX.

Las cosas no pararon ahí, y si debiéramos sacar algo positivo de las 2ª Guerra Mundial podríamos agradecer el trabajo del inglés Alan Turing, el cual en 1937 comenzó el primer proyecto de computador y su trabajo durante la 2ª GM fue diseñar una máquina que fuera capaz de resolver el código Enigma de los Nazis alemanes. Y fue con el incentivo de la guerra con el cual el gobierno apoyó deliberadamente la fabricación de la máquina de Turing. Tanto fue así que Turing consiguió que su máquina consiguiese desvelar parte del código Enigma y así el ejército pudiese obtener información crucial de la flota Nazi para que la guerra pudiese ser ganada por los Aliados. Esta máquina llevó grandes avances en la computación y en 1944 en la Universidad de Harvard fue creado el Mark 1, el primer calculador electromagnético, que era bastante lento y no muy fiable. Gracias a la aportación de John bon Neumann de que los computadores podrían manejarse mediante instrucciones almacenadas en un memoria en 1946 se creo un prototipo muy famoso, el ENIAC (Electronic Numerical Integrator And Computer). El ENIAC tenía 30 metros de longitud, 3 metros de altura y 1 metro de profundidad, utilizaba 17.468 válvulas conectadas a 70.000 resistencias con 10.000 condensadores y 6.000 interruptores pesaba unas 27 toneladas. Su fin fue calcular tablas de tiro de artillería para el Laboratorio de Investigación Balística del ejército de los Estados Unidos.

En 1948, en un laboratorio de Bell, crearon el transistor, para controlar la cantidad de energía eléctrica que entra y sale por un cable, siendo esto importante para el futuro de la computación. En 1951, la compañía Sperry Univac, comenzó su producción en serie de los computadores electrónicos UNIVAC. En 1958 ya el semicontuctor Silicio comenzó a tener protagonismo, y se utilizaba en pequeños bloques y esto aumentó la rapidez y hacía de los computadores algo más compactos y económicos.

El Silicio se siguió utilizando y a finales de los sesenta ya se creaban circuitos integrados con él. En un pieza de Silicio monocristalino de tamaño reducido se encajaban las piezas semiconductoras. Y fue la empresa Intel la cual en 1971 desarrolló un proyecto de circuito integrado diferente, debía tener la posibilidad de ser programado como un auténtico programador y con esto nació el microprocesador