Historia y Evolución de las Tecnologías de la Información
Enviado por Chuletator online y clasificado en Informática y Telecomunicaciones
Escrito el en español con un tamaño de 9,65 KB
1.1. Las Tecnologías de la Información
Comprenden todos aquellos medios electrónicos que almacenan, crean, recuperan y transmiten información en grandes cantidades y a gran velocidad. Estas están en continua evolución, siendo las bases de su desarrollo:
- La evolución e incorporación de los ordenadores
- El avance de las telecomunicaciones
- Internet
- Digitalización de la información
1.2. Definición de Informática
La informática es la ciencia que estudia el tratamiento automático de la información mediante el uso de ordenadores e incluye, además, la teoría, el diseño y la fabricación de estos.
1.3. Historia de la Informática
Los primeros vestigios del cálculo se remontan a 3000 a.C. Los babilonios que habitaron en la antigua Mesopotamia empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de cuentas agrupadas en carriles de caña. Posteriormente, en el año 1800 a.C., un matemático babilónico inventó los algoritmos que permitieron resolver problemas de cálculo numérico. Un algoritmo es un conjunto ordenado de operaciones propias de un cálculo (como una receta de cocina, para entendernos).
Más tarde, los chinos desarrollaron el ábaco, con el que realizaban cálculos rápidos y complejos. Este instrumento tenía un marco de madera del cual salían cables horizontales con bolas agujereadas que corrían de izquierda a derecha.
En el siglo XVII, John Napier, matemático escocés famoso por su invención de los logaritmos, inventó un dispositivo de palillos con números impresos que, merced a un ingenioso y complicado mecanismo, le permitía realizar operaciones de multiplicación y división.
El mecanismo de Anticitera es una máquina analógica antigua diseñada para predecir posiciones astronómicas y los eclipses de hasta diecinueve años con propósitos astrológicos y calendáricos, y predecir también la fecha exacta de seis certámenes griegos antiguos: los Juegos de Olimpia, los Juegos Píticos, los Juegos Ístmicos, los Juegos Nemeos, los Juegos de Dodona y los de la isla de Rodas.
En 1642, el físico y matemático francés Blaise Pascal inventó el primer calculador mecánico. Fabricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Una rueda de Leibniz o cilindro de Leibniz es un tambor con forma de cilindro, con un conjunto de dientes de longitud incremental a la que se le acopla una rueda de conteo. Se utilizó como el motor de cálculo de una clase de calculadoras mecánicas. Inventado por Leibniz en 1673, fue utilizado durante tres siglos por los miembros de la computación, hasta la llegada de la calculadora electrónica a mediados de la década de 1970.
En 1801, el francés Joseph Marie Jacquard utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas hechas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras.
Charles Babbage diseñó y parcialmente implementó una máquina para calcular diferencias mecánicas para calcular tablas de números. También diseñó, pero nunca terminó, la máquina analítica para ejecutar programas de informática; por estos inventos se le considera «El Padre de la Informática».
Augusta Ada Byron creó el primer algoritmo y fue la primera programadora de ordenadores. Fue conocida por su trabajo sobre la máquina analítica de Charles Babbage.
En 1879, a los 19 años de edad, Herman Hollerith desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc. Gracias a la máquina de Hollerith, el censo se realizó más rápido. Hollerith dejó las oficinas del censo en 1896 para fundar su propia compañía: la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto, una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924, Hollerith fusionó su compañía con otras dos para formar la International Business Machines (IBM).
A comienzos de los años 30, John Vincent Atanasoff empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas. Prácticamente al mismo tiempo que Atanasoff, el ingeniero John Mauchly se había encontrado con los mismos problemas en cuanto a velocidad de cálculo y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Construyó un pequeño calculador digital y se presentó al congreso de la Asociación Americana para el Avance de la Ciencia para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobre la paternidad del computador digital.
Mark I fue el primer ordenador electromecánico, construido en IBM y enviado a Harvard en 1944. Tenía 760.000 ruedas y 800 kilómetros de cable y se basaba en la máquina analítica de Charles Babbage. El computador empleaba señales electromagnéticas para mover las partes mecánicas. Esta máquina era lenta e inflexible, pero ejecutaba operaciones matemáticas básicas y cálculos complejos de ecuaciones sobre el movimiento parabólico. Funcionaba con relés, se programaba con interruptores y leía los datos de cintas de papel perforado.
En 1941, Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a John Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Herman Goldstine. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical Integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares. El ENIAC tenía 19.000 tubos de vacío, 1500 relés, 7500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y la salida de datos se realizaban mediante tarjetas perforadas. Podía realizar unas 5000 sumas por segundo (lo cual es muy poco, comparado con la capacidad de los computadores actuales). Pesaba unas 30 toneladas y tenía un tamaño equivalente al de una clase. Consumía 200 kilovatios de potencia eléctrica; un ordenador personal moderno consume apenas 200 W y es más potente, y necesitaba un equipo de aire acondicionado para disipar el gran calor que producía. En promedio, cada tres horas de uso fallaba una de las válvulas. Lo que caracterizaba al ENIAC como a un computador moderno no era simplemente su velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.
Durante la Segunda Guerra Mundial, Alan Turing, matemático inglés, descifró los códigos secretos Enigma usados por la Alemania nazi para sus comunicaciones. Turing fue un pionero en el desarrollo de la lógica de los computadores modernos y uno de los primeros en tratar el tema de la inteligencia artificial con máquinas. La válvula de vacío o termoiónica es un componente electrónico que permite regular el flujo de electrones que lo atraviesan. Conocer su relativamente sencillo funcionamiento permite comprender mejor qué son los diodos y los transistores. Son componentes casi obsoletos, pues los semiconductores de estado sólido los han sustituido en la mayoría de las aplicaciones; aún así, la electrónica, tal y como la conocemos hoy en día, no habría llegado a existir de no haber sido por este componente.
Se las llama válvulas porque permiten controlar el flujo de electrones y de vacío porque se trata de ampollas de vidrio en cuyo interior se ha hecho el vacío para retrasar la destrucción de sus elementos.
1.4. Las Telecomunicaciones
Las telecomunicaciones han sufrido un desarrollo espectacular en los últimos años gracias a los siguientes hitos:
- Generalización de la fibra óptica, que es un finísimo hilo de vidrio capaz de transmitir ondas electromagnéticas, en una amplia gama de frecuencias, sin distorsiones.
- La mejora de las comunicaciones mediante satélites en órbita geoestacionaria.
- La tecnología de Asymmetric Digital Subscriber Line que saca mayor rendimiento al cable telefónico y que está siendo sustituida por una versión mejorada llamada Very High bit-rate Digital Subscriber Line que permite duplicar el ancho de banda.
- La generalización de la telefonía móvil digital de cuarta generación, Long Term Evolution.
1.5. Posibilidades y Riesgos de las Nuevas Tecnologías
Las posibilidades son todas las que incluyen la llamada sociedad de la información: teletrabajo, teleeducación, libertad informativa, etc.
Los riesgos se pueden resumir en: desequilibrios sociales, adicción, dependencia.