Informática y Computación: Conceptos Clave y Evolución Tecnológica
Enviado por Programa Chuletas y clasificado en Informática y Telecomunicaciones
Escrito el en español con un tamaño de 3,27 KB
Fundamentos de la Informática y la Computación
Informática: Se entiende como el resultado de la combinación de los términos información y automatización. Trata de la concepción, realización y utilización de sistemas para el procesamiento de información. Se dice que el tratamiento es automático porque son máquinas las que realizan las tareas de captura, procesamiento y presentación de la información, y se considera racional porque todo el proceso está definido mediante programas que siguen el razonamiento humano.
Importancia Estratégica de la Informática
Las computadoras son esenciales para enfrentar el reto de la competencia global, donde los negocios deben ser eficientes, sensibles a las necesidades del mercado y capaces de producir bienes y servicios de alta calidad a un costo cada vez más bajo. Sin las computadoras, que proveen la información precisa y actualizada necesaria para tomar decisiones estratégicas y administrar los procesos de producción, muchas compañías no podrían sobrevivir.
Definición de Computación
Computación: La palabra "computación" proviene del inglés computing, que significa 'cálculo'. Es un término de uso general para referirse a cualquier tipo de operación aritmética realizada de forma automática, siguiendo un conjunto de reglas. Literalmente, la computación es el conocimiento de los sistemas computarizados y equipos, y cómo estos funcionan.
Diferencia entre Informática y Computación
La computación se refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de información, lo cual se lleva a cabo mediante herramientas diseñadas para tal propósito. La informática es la encargada del tratamiento automático de la información. Este tratamiento automático ha facilitado a la computación la manipulación de grandes volúmenes de datos y la ejecución rápida de cálculos complejos.
Generaciones de las Computadoras
Primera Generación (1940s-1950s)
- Utilizaban tubos de vacío para procesar información.
- Empleaban tarjetas perforadas para la entrada de datos y programas.
- Utilizaban cilindros magnéticos para almacenar información e instrucciones internas.
- Se inició el uso del sistema binario para representar los datos.
Segunda Generación (1950s-1960s)
- Utilizaban transistores para procesar información.
- Los transistores eran más rápidos, pequeños y fiables que los tubos de vacío.
- Doscientos transistores podían acomodarse en el mismo espacio que un tubo de vacío.
- Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN.
Tercera Generación (1960s-1970s)
- Se desarrollaron circuitos integrados para procesar información.
- Surgió la multiprogramación.
- Consumían menos electricidad y, por lo tanto, generaban menos calor.
- Emergió la industria del software.
Cuarta Generación (1970s-1980s)
- Se desarrolló el microprocesador.
- Se integraron más circuitos en un "chip".
- Se desarrollaron las microcomputadoras, es decir, las computadoras personales o PC.