"Historia de la computadora"
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al
diseñar un telar automático, utilizó
delgadas placas de
madera
perforadas para controlar el tejido utilizado en los
diseños complejos. Durante la década de 1880 el
estadístico estadounidense Herman Hollerith
concibió la idea de utilizar
tarjetas
perforadas, similares a las placas de Jacquard, para procesar
datos.
Hollerith consiguió compilar la
información estadística destinada al censo de
población de 1890 de
Estados Unidos
mediante la utilización de un
sistema que
hacía pasar tarjetas perforadas sobre contactos
eléctricos.
Primera Generación (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para
procesar información. Los operadores ingresaban los datos y programas en
código especial por medio de tarjetas perforadas. El almacenamiento
interno se lograba con un tambor que giraba rápidamente, sobre el cual
un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas
computadoras de bulbos eran mucho más grandes y generaban más calor que
los modelos contemporáneos.
Segunda Generación (1959-1964)
Transistor Compatibilidad Limitada:El invento del transistor
hizo posible una nueva Generación de computadoras, más rápidas, más
pequeñas y con menores necesidades de ventilación. Sin embargo el costo
seguía siendo una porción significativa del presupuesto de una Compañía.
Las computadoras de la segunda generación también utilizaban redes de
núcleos magnéticos en lugar de tambores giratorios para el
almacenamiento primario. Estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse
datos e instrucciones.

Tercera Generación (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora:Las computadoras de la tercera generación emergieron con el
desarrollo de los circuitos integrados (pastillas de silicio) en las
cuales se colocan miles de componentes electrónicos, en una integración
en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más
rápidas, desprendían menos calor y eran energéticamente más eficientes.Antes del advenimiento de los circuitos integrados, las computadoras
estaban diseñadas para aplicaciones matemáticas o de negocios, pero no
para las dos cosas. Los circuitos integrados permitieron a los
fabricantes de computadoras incrementar la flexibilidad de los
programas, y estandarizar sus modelo.

Cuarta Generación (1971 a la fecha)
Microprocesador, Chips de memoria, Microminiaturización:Dos mejoras en la tecnología de las computadoras marcan el inicio de
la cuarta generación: el reemplazo de las memorias con núcleos
magnéticos, por las de chips de silicio y la colocación de Muchos más
componentes en un Chip: producto de la microminiaturización de los
circuitos electrónicos. El tamaño reducido del microprocesador y de
chips hizo posible la creación de las computadoras personales (PC
Personal Computer).Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI
(integración a muy gran escala) permiten que cientos de miles de
componentes electrónicos se almacenen en un chip. Usando VLSI, un
fabricante puede hacer que una computadora pequeña rivalice con una
computadora de la primera generación que ocupaba un cuarto completo.

La máquina
analítica
También en el siglo XIX el matemático e inventor
británico Charles Babbage elaboró los
principios de
la computadora
digital moderna. Inventó una serie de
máquinas,
como la máquina diferencial, diseñadas para
solucionar
problemas
matemáticos complejos. Muchos historiadores
consideran a Babbage y a su socia, la
matemática
británica Augusta Ada Byron (1815-1852), hija del poeta
inglés
Lord Byron, como a los verdaderos inventores de la
computadora
digital moderna. La
tecnología de aquella
época no era capaz de trasladar a la práctica sus
acertados conceptos; pero una de sus invenciones, la
máquina analítica, ya tenía muchas de las
características de un ordenador moderno. Incluía
una corriente, o flujo de entrada en forma de paquete de tarjetas
perforadas, una
memoria para
guardar los datos, un
procesador para
las
operaciones
matemáticas y una
impresora para
hacer permanente el
registro.
Primeros
ordenadores
Los ordenadores analógicos comenzaron a construirse a
principios del siglo XX. Los primeros
modelos
realizaban los cálculos mediante ejes y engranajes
giratorios. Con estas máquinas se evaluaban las
aproximaciones numéricas de
ecuaciones
demasiado difíciles como para
poder ser
resueltas mediante otros
métodos.
Durante las dos
guerras
mundiales se utilizaron
sistemas
informáticos analógicos, primero mecánicos y
más tarde eléctricos, para predecir la trayectoria
de los torpedos en los submarinos y para el manejo a distancia de
las
bombas en la
aviación.
Ordenadores
electrónicos

Durante la II
Guerra Mundial
(1939-1945), un equipo de científicos y matemáticos
que trabajaban en Bletchley Park, al norte de Londres, crearon lo
que se consideró el primer ordenador digital totalmente
electrónico: el
Colossus. Hacia diciembre de 1943
el
Colossus, que incorporaba 1.500
válvulas o
tubos de vacío, era ya operativo. Fue utilizado por el
equipo dirigido por Alan Turing para descodificar los mensajes de
radio cifrados
de los alemanes. En 1939 y con
independencia
de este
proyecto, John
Atanasoff y Clifford Berry ya habían construido un
prototipo de máquina
electrónica en el Iowa State College
(EEUU). Este prototipo y las
investigaciones
posteriores se realizaron en el anonimato, y más tarde
quedaron eclipsadas por el
desarrollo del
Calculador e integrador numérico digital
electrónico (ENIAC) en 1945. El ENIAC, que según
mostró la evidencia se basaba en gran medida en el
‘ordenador’ Atanasoff-Berry (ABC, acrónimo de
Electronic Numerical Integrator and Computer), obtuvo una patente
que caducó en 1973, varias décadas más
tarde.

Es muy difícil decir
quién inventó la computadora, o cuál fue la
primera computadora. Además, debemos distinguir entre las computadoras mecánicas y las programables.
La
primer computadora mecánica la creó
Charles Babbage
en 1822, el primer motor de cálculo automático que además podía
realizar algunas copias en papel -por lo cual, también era una especie
de impresora-. Pero Babbage no consiguió la financiación necesaria para
construir a gran escala esta computadora rudimentaria y su invento quedó
en el olvido.
Sin embargo, podemos situar el
origen de las computadoras en un sentido estricto en el año 1936, cuando
Konrad Zuse inventó la
Z1, la
primera computadora programable. Aquí comienza la llamada primera generación, que abarca hasta el año 1946, teniendo propósitos básicamente militares.
En 1946 se construye la
primera computadora con propósitos generales, llamada
ENIAC
(Integrador Numérico Electrónico e Informático). Pesaba 30 toneladas,
por lo que básicamente no era parecida a lo que hoy conocemos como
computadora, podía realizar una única tarea y consumía grandes
cantidades de energía. Otra característica particular es que esta
computadora no tenía sistema operativo.
