HITORIA DE LA COMPUTACION
HISTORIA DE LA COMPUTACIÓN
RESEÑA HISTÓRICA
Todo
comenzó con máquinas destinadas a manejar números, es así como nos remitimos a él
Ábaco, inventado por los babilonios allá por el año 1000 A.C... Utilizado sobre
todo por los chinos para la realización de operaciones sencillas, está formado
por una tablilla con una serie de cuentas que sirven para efectuar sumas y
restas.
Justo antes de morir en
1617, el matemático escocés John Napier (mejor conocido por su invención de
logaritmos) desarrolló un juego de palitos para calcular a las que llamó
“Napier Bones.” Así llamados porque se tallaron las ramitas de hueso o marfil,
los “bones” incorporaron el sistema logarítmico. Los Huesos de Napier tuvieron
una influencia fuerte en el desarrollo de la regla deslizante (cinco años más
tarde) y máquinas calculadoras subsecuentes que contaron con logaritmos.
En 1621 la primera regla
deslizante fue inventada por el del matemático inglés William Oughtred. La
regla deslizante (llamó “Círculos de Proporción”) era un juego de discos
rotatorios que se calibraron con los logaritmos de Napier. Uno de los primeros
aparatos de la informática analógica, la regla deslizante se usó normalmente
(en un orden lineal) hasta que, a comienzos de 1970, cuando calculadoras
portátiles comenzaron a ser más popular.
En 1623 la primera
calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado
“El Reloj Calculador”, la máquina incorporó los logaritmos de Napier, hacia
rodar cilindros en un albergue grande. Se comisionó un Reloj Calculador para
Johannes Kepler, el matemático famoso, pero fue destruido por fuego antes de
que se terminara.
Uno de los antepasados más
directos de la computadora actual, fue creada por el científico francés Blaise Pasca en el siglo XVII (1642).
A sus 18 años, Pascal invento su primera máquina calculadora, capaz
de sumar y restar; y todo ello a base de engarzar múltiples ruedas dentadas.
En 1666 la primera
máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de
mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una
serie de ruedas, cada representaba, dieses, cientos, etc.
PIONEROS
DE LA INFORMÁTICA
Blaise Pascal, Gottfied Von Leibnitz, Charles Babbage,
Augusta Byron Herman Hollerith, James Powers, Alan Turing, Konrad Zuse, John
Von Neumann, Chuck Peddle, Linus Trovlas, Bill Gates.
DEFINICIONES DE COMPUTADORA
·
Máquina capaz de efectuar una secuencia de
operaciones mediante un programa, de tal manera, que se realice un
procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto
de datos de salida.
·
Dispositivo electrónico capaz de recibir
un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos
numéricos, o bien compilando y correlacionando otros tipos de información.
LA PRIMERA COMPUTADORA
Fue en 1830, cuando se
establecieron los principios de funcionamiento de las modernas computadoras. Su
paternidad se debe al matemático inglés Charles
Babbage, quien tras lanzar en 1822 la denominada maquina diferencial – con nada menos que
96 ruedas dentadas y 24 ejes, se lanzó en pos de su proyecto más relevante: la máquina analítica (1833).
La primera computadora
fue la máquina analítica creada por Charles Babbage, profesor matemático de la
Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage
sobre un computador nació debido a que la elaboración de las tablas matemáticas
era un proceso tedioso y propenso a errores. En 1823 el gobierno británico lo
apoyo para crear el proyecto de una máquina de diferencias, un dispositivo
mecánico para efectuar sumas repetidas.
Mientras tanto Charles
Jacquard (francés), fabricante de tejidos, había creado un telar que podía
reproducir automáticamente patrones de tejidos leyendo la información
codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al
enterarse de este método Babbage abandonó la máquina de diferencias y se dedicó
al proyecto de la máquina analítica que se pudiera programar con tarjetas
perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos.
TIPOS DE COMPUTADORAS
· Análoga
La computadora análoga es
la que acepta y procesa señales continuas, tales como: fluctuaciones de voltaje
o frecuencias. Ejemplo: El termostato es la computadora análoga más sencilla.
· Digital
La computadora digital es
la que acepta y procesa datos que han sido convertidos al sistema binario. La
mayoría de las computadoras son digitales.
· Híbrida
La computadora híbrida es
una computadora digital que procesa señales análogas que han sido convertidas a
forma digital. Es utilizada para control de procesos y en robótica.
Propósito especial
La computadora de
propósito especial está dedicada a un solo propósito o tarea. Pueden ser usadas
para producir informes del tiempo, monitorear desastres naturales, hacer
lecturas de gasolina y como medidor eléctrico. Ejemplo: carros de control
remoto, horno microondas, relojes digitales, cámaras, procesador de palabras,
etc.
Propósito general
La computadora de
propósito general se programa para una variedad de tareas o aplicaciones. Son
utilizadas para realizar cálculos matemáticos, estadísticos, contabilidad
comercial, control de inventario, nómina, preparación de inventario, etc.
Ejemplo: “mainframes” o minicomputadoras.
Categorías de las
computadoras
· Supercomputadora
La supercomputadora es lo
máximo en computadora, es la más rápida y, por lo tanto, la más cara. Cuesta
millones de dólares y se hacen de dos a tres al año. Procesan billones de
instrucciones por segundo. Son utilizadas para trabajos científicos,
particularmente para crear modelos matemáticos del mundo real, llamados
simulación.
“Mainframe”
Los “mainframe” son
computadoras grandes, ligeras, capaces de utilizar cientos de dispositivos de
entrada y salida. Procesan millones de instrucciones por segundo. Su velocidad
operacional y capacidad de procesar hacen que los grandes negocios, el
gobierno, los bancos, las universidades, los hospitales, compañías de seguros,
líneas aéreas, etc. confíen en ellas. Su principal función es procesar grandes
cantidades de datos rápidamente. Estos datos están accesibles a los usuarios
del “mainframe” o a los usuarios de las microcomputadoras cuyos terminales
están conectados al “mainframe”. Su costo fluctúa entre varios cientos de miles
de dólares hasta el millón. Requieren de un sistema especial para controlar la
temperatura y la humedad. También requieren de un personal profesional
especializado para procesar los datos y darle el mantenimiento.
· Minicomputadora
La minicomputadora se
desarrolló en la década de 1960 para llevar a cabo tareas especializadas, tales
como el manejo de datos de comunicación. Son más pequeñas, más baratas y más
fáciles de mantener e instalar que los “mainframes”. Su costo está entre los
cincuenta mil hasta varios cientos de miles. Usadas por negocios, colegios y
agencias gubernamentales. Su mercado ha ido disminuyendo desde que surgieron
las microcomputadoras.
· Microcomputadora
La microcomputadora es
conocida como computadora personal o PC. Es la más pequeña, gracias a los
microprocesadores, más barata y más popular en el mercado. Su costo fluctúa
entre varios cientos de dólares hasta varios miles de dólares. Puede funcionar
como unidad independiente o estar en red con otras microcomputadoras o como un
terminal de un “mainframe” para expandir sus capacidades. Puede ejecutar las
mismas operaciones y usar los mismos programas que muchas computadoras
superiores, aunque en menor capacidad. Ejemplos: MITS Altair, Macintosh, serie
Apple II, IBM PC, Dell, Compaq, Gateway, etc.
GENERACIONES DE
COMPUTADORAS
·
Primera
Generación
En
esta generación había un gran desconocimiento de las capacidades de las
computadoras, puesto que se realizó un estudio en esta época que determinó que
con veinte computadoras se saturaría el mercado de los Estados Unidos en el
campo de procesamiento de datos.
Esta
generación abarco la década de los cincuenta. Y se conoce como la primera
generación. Estas máquinas tenían las siguientes características:
Estas
máquinas estaban construidas por medio de tubos de vacío.
Eran
programadas en lenguaje de máquina.
En
esta generación las máquinas son grandes y costosas (de un costo aproximado de
ciento de miles de dólares).
·
Segunda
Generación
Cerca
de la década de 1960, las computadoras seguían evolucionando, se reducía su
tamaño y crecía su capacidad de procesamiento. También en esta época se empezó
a definir la forma de comunicarse con las computadoras, que recibía el nombre
de programación de sistemas.
Las
características de la segunda generación son las siguientes:
Están
construidas con circuitos de transistores.
Se
programan en nuevos lenguajes llamados lenguajes de alto nivel.
·
Tercera
generación
Con
los progresos de la electrónica y los avances de comunicación con las
computadoras en la década de los 1960, surge la tercera generación de
las computadoras. Se inaugura con la IBM 360 en abril de 1964.3
Las
características de esta generación fueron las siguientes:
Su
fabricación electrónica está basada en circuitos integrados.
Su
manejo es por medio de los lenguajes de control de los sistemas operativos.
·
Cuarta
Generación
Aquí
aparecen los microprocesadores que es un gran adelanto de la
microelectrónica, son circuitos integrados de alta densidad y con una velocidad
impresionante. Las microcomputadoras con base en estos circuitos son
extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado
industrial. Aquí nacen las computadoras personales que han adquirido
proporciones enormes y que han influido en la sociedad en general sobre la
llamada “revolución informática”.
En
1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso
masivo y más tarde forman la compañía conocida como la Apple que fue la segunda
compañía más grande del mundo, antecedida tan solo por IBM; y está por su parte
es aún de las cinco compañías más grandes del mundo.
·
Quinta
Generación
En
vista de la acelerada marcha de la microelectrónica, la sociedad industrial se
ha dado a la tarea de poner también a esa altura el desarrollo del software y
los sistemas con que se manejan las computadoras. Surge la competencia
internacional por el dominio del mercado de la computación, en la que se
perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se
desea: la capacidad de comunicarse con la computadora en un lenguaje más
cotidiano y no a través de códigos o lenguajes de control especializados.
Japón
lanzó en 1983 el llamado “programa de la quinta generación de computadoras”,
con los objetivos explícitos de producir máquinas con innovaciones reales en
los criterios mencionados. Y en los Estados Unidos ya está en actividad un
programa en desarrollo que persigue objetivos semejantes, que pueden resumirse
de la siguiente manera:
Procesamiento
en paralelo mediante arquitecturas y diseños especiales y circuitos de gran
velocidad.
Manejo
de lenguaje natural y sistemas de inteligencia artificial.
Primeros Pasos
La primera herramienta conocida para su uso en el cálculo fue
el ábaco, desarrollado en el período 2700-2300 AC en Sumeria. El
ábaco de Sumeria consistía en una tabla de columnas sucesivas que
delimitan las órdenes sucesivas de magnitud de su sistema de numeración
sexagesimal. Su estilo original de uso era por las líneas trazadas en la arena
con guijarros. Ábacos de un diseño más moderno todavía se utilizan
como herramientas de cálculo en la actualidad.
El Mecanismo de Anticitera se cree que es la
primera computadora analógica mecánica conocida.4 Fue diseñado para
calcular las posiciones astronómicas. Fue descubierto en 1901 en el naufragio
de Antikythera fuera de la isla griega de Antikythera, entre Citera y Creta, y
se ha fechado 100 años antes de Cristo. Artefactos tecnológicos de complejidad
similar no reaparecieron hasta el siglo 14, cuando los relojes astronómicos
mecánicos aparecieron en Europa.
Los dispositivos mecánicos de computación analógica aparecieron
unos mil años después en el mundo islámico medieval. Ejemplos de dispositivos
de este período incluyen el Equatorium por Arzachel,
el Astrolabio mecánico de engranajes de Abu Rayhan al-Biruni, y
el Torquetumpor Jabir ibn Aflah. Los ingenieros musulmanes
construyeron una serie de autómatas, incluyendo algunos autómatas musicales que
podían ser "programados" para reproducir diferentes patrones
musicales. Estos dispositivos fueron desarrollados por los hermanos Banu Musa
Al-Jazari. Matemáticos musulmanes también hicieron importantes avances en la
criptografía, como el desarrollo del criptoanálisis y análisis
de frecuencia por Alkindus.
Cuando John Napier descubre
los logaritmos para fines de cálculo en el siglo 1841 suscitó un
período de progreso considerable por los inventores y los científicos en la
fabricación de herramientas de cálculo. En 1623 Wilhelm
Schickard diseñó una máquina de calcular, pero abandonó el proyecto, cuando
el prototipo que había empezado a construir fue destruido por un incendio en
1624. Hacia 1640, Blaise Pascal, un matemático francés de renombre,
construyó el primer dispositivo mecánico para sumar sobre la base de
un diseño descrito por Herón de Alejandría, matemático griego. Entonces
en 1672 Gottfried Wilhelm Leibniz inventó la máquina de Leibniz que
completó en 1694.
En 1837 Charles Babbage describió por primera vez
su Máquina Analítica que se acepta como el primer diseño de una
computadora moderna. La máquina analítica tenía memoria expandible, una unidad
aritmética y lógica de las capacidades de procesamiento capaces de interpretar
un lenguaje de programación con bucles y bifurcaciones condicionales. Aunque
nunca se construyó, el diseño se ha estudiado ampliamente y se entiende que es
Turing completa. El motor analítico habría tenido una capacidad de memoria de
menos de 1 kilobyte y una velocidad de reloj de menos de 10 Hertz.
Un avance considerable en las matemáticas y la teoría
electrónica fue requerido antes de que las primeras computadoras modernas
pudieran ser diseñadas.
Lógica Binaria
En 1703, Gottfried Wilhelm Leibniz desarrolló la
lógica en un sentido matemático formal, con sus escritos sobre el sistema de
numeración binario. En su sistema, los unos y los ceros también representan los
valores verdaderos y falsos o los estados apagado y encendido. Pero tuvo que
pasar más de un siglo antes de que George Boole publicara su álgebra
de Boole en 1854 con un sistema completo que permitió que los procesos
computacionales pudieran ser matemáticamente modelables.
Por esos tiempos, los primeros dispositivos mecánicos que
funcionaban con un patrón binario se habían inventado. La revolución industrial
había impulsado la mecanización de muchas tareas, y esto incluía el tejido. El
telar controlado por tarjetas perforadas de Joseph Marie Jacquard en 1801,
donde un agujero perforado en la tarjeta indica un uno binario y un lugar sin
perforar indica un cero binario. El telar de Jacquard estaba lejos de ser un
ordenador, pero sí ponía de manifiesto que las máquinas podían ser controladas
por los sistemas binarios.
EL
NACIMIENTO DE LAS CIENCIAS DE LA COMPUTACIÓN
Antes de la década de 1920, las computadoras (a veces
computadores) fueron empleados humanos que realizaban los cálculos. Estaban por
lo general bajo la dirección de un físico. Miles de computadores trabajaban en
el comercio, el gobierno y los centros de investigación. La mayoría de estos
computadores eran mujeres, y eran conocidos por tener un grado en cálculo.
Algunos realizando cálculos de astronomía para los calendarios.
Después de la década de 1920, la expresión máquina de
computación hacía referencia a cualquier máquina que realizara el trabajo de un
computador humano, especialmente los realizados en conformidad con los métodos
eficaces de la tesis de Church-Turing. La tesis establecía que un método
matemático es eficaz si se podrían enunciar como una lista de instrucciones que
puedan ser seguidos por un empleado humano con lápiz y papel, durante el tiempo
que sea necesario, y sin ingenio ni idea.
Las máquinas que calculaban con valores continuos se conocían
como de tipo analógico. Estas utilizaban una maquinaria que representaba
cantidades numéricas continuas, como el ángulo de rotación de un eje o
diferencia de potencial eléctrico.
Las máquinas digitales, en contraste a las analógicas,
fueron capaces de representar un estado de un valor numérico y almacenar cada
dígito individual. Las máquinas digitales utilizaban motores de diferencia o
relés antes de la invención de dispositivos de memoria más rápidos.
La frase máquina de computación gradualmente desapareció,
después de la década de 1940, a sólo ordenador o computadora. Estos equipos
fueron capaces de realizar los cálculos que se realizaron por los empleados
humanos anteriores.
Dado que los valores almacenados en las máquinas digitales no
estaban relacionados a propiedades físicas como los dispositivos analógicos, un
ordenador lógico, basado en equipos digitales, era capaz de hacer cualquier
cosa que podría ser descrito "puramente mecánico." La
teórica Máquina de Turing, creada por Alan Turing, es un dispositivo
hipotético teorizado con el fin de estudiar las propiedades de este hardware.
Comentarios
Publicar un comentario