Informática: fundamentos y definiciones

Enviado por Programa Chuletas y clasificado en Informática y Telecomunicaciones

Escrito el en español con un tamaño de 12,08 KB

Introducción:Definiremos Informática, siguiendo la definición de la Academia Francesa, como “la ciencia del tratamiento racional, por medio de máquinas automáticas, de la información, considera ésta como soporte de los conocimientos humanos y de las comunicaciones, en los campos técnico, económico y social”. (Tratamiento automático de la información).Un ordenador es lo que se conoce como una máquina de propósito general, esto, en sí mismo, significa que un ordenador puede servir para cualquier cosa (o casi), lo único que hace falta es el material adecuado.El conjunto de instrucciones o sentencias que se dan a un ordenador para realizar un proceso determinado se denomina programa. Al conjunto de uno o varios programas que realizan un determinado trabajo completo se le denomina aplicación informática. - Hardware. Hace alusión a la parte física que representa el ordenador, es decir, los elementos “tangibles” que lo componen, tales como monitor, teclado, cables...Software. Se refiere al conjunto de aplicaciones y programas que permiten operar con el ordenador, así como controlar y coordinar los distintos elementos hardware.En definitiva, es la parte “intangible” que sabemos que se encuentra en el ordenador, pero que sólo podemos acceder a ella a través de los elementos de entrada y salida (que forman parte del hardware) del sistema. Es el elemento lógico del ordenador.Información:el conjunto de datos necesarios para plantear y resolver cualquier problema técnico o de gestión.Tipos de ordenador:Analógicos. Evalúan directamente cantidades continuas (voltajes, intensidades de corriente, velocidad, etc) convirtiendo estas variables en impulsos comprensibles para estos computadores.Digitales. Ejecutan operaciones con cantidades digitales y convierten estas variables discretas en un sistema equivalente, comprensible para ellos.Superordenador: Es muy rápido, hace cálculos muy precisos, dispone de varias unidades centrales y una gran cantidad de memoria.Miniordenadores: De menor potencia que los anteriores, pero capaz de trabajar con varios usuarios a la vez. Microordenador: Su unidad central de proceso es un microprocesador. Su utilización principal es la de una sola persona por lo que suelen conocerse como PC,- es capaz de sustituir a los miniordenadores cuando no se requiere una gran potencia. Entre los microordenadores cabe destacar: Estación de trabajo u ordenador de sobremesa: Puede funcionar como un ordenador autónomo en un lugar estático o, cada vez más, están conectados a otro PC o mini, pudiendo compartir recursos. Portátil: manejables y de poco peso, permitiendo realizar trabajos en cualquier lugar, con las mismas prestaciones.§ PDA: una nueva generación con gran fuerza comercial. No se trata más que de agendas electrónicas más refinadas. Con un tamaño muy reducido disponen de una capacidad de proceso apreciable pero con limitada capacidad de almacenamiento. No disponen de teclado y en su lugar la pantalla será la encargada de introducir la información.Historia de los ordenadores:Los ordenadores, para llegar al estado en que los conocemos actualmente han sufrido una evolución. La historia de los ordenadores es corta ya que el primer ordenador con un concepto similar a los actuales data de 1946. Sin embargo existen algunas máquinas anteriores que podemos considerar como los precursores de los ordenadores.§ Primera Generación. 1945-1955: Ordenadores a lámparas:Lo más importante de la época lo protagonizó John von Neumann que desarrollo el diseño básico de la computación que aun se utiliza hoy en día en lo que se conoce como la máquina de von NeumannSISTEMAS DE CODIFICACIÓN:Tipos de Datos
Llamamos dato a cualquier conjunto de caracteres, incluso un sólo carácter. Si el dato está formado exclusivamente por números, dicho dato será de tipo numérico; si por letras del alfabeto, de tipo alfabético; si el dato es solo caracteres especiales o cualquier combinación de dos o más de los tipos anteriores, se denomina de tipo alfanumérico.
Son datos numéricos: 2; 56; 67; 455; 67,8
Son alfabéticos: Ax; Pedro; mesa.
Son alfanuméricos: 2xy; 10#A
Teorema fundamental de la numeración
Se trata de un teorema que relaciona una cantidad expresada en cualquier sistema de numeración con la misma cantidad expresada en base 10.
El Teorema Fundamental de la Numeración dice que el valor de una cantidad expresada en otro sistema de numeración, viene dado por la fórmula:
Representación interna de datos.
1 byte=8bits/1024kb=1mb/1024mb=1gb/1024gb=1tb.
CÓDIGOS ALFANUMÉRICOS:
Código ASCII
diseñado con 7 bits se podían representar 128 caracteres diferentes, suficientes para los caracteres alfabéticos (mayúsculas y minúsculas), dígitos numéricos y caracteres especiales utilizados habitualmente en el lenguaje inglés
se amplió la representación del código para ocupar esos 8 bits con lo que se dio cabida a 128 nuevos caracteres. En ellos se introdujeron caracteres de representación de gráficos sencillos, algunos caracteres internacionales.
Có digo EBCDIC
que permite la representación tanto de números como de letras,empleado en algunos equipos de IBM. Este código tiene los mismos símbolos de caracteres que el ASCII, pero el bit de asignación para los caracteres es diferente. Se trata de una ampliación del código binario BCD.Código EBCDIC
que permite la representación tanto de números como de letras,empleado en algunos equipos de IBM. Este código tiene los mismos símbolos de caracteres que el ASCII, pero el bit de asignación para los caracteres es diferente. Se trata de una ampliación del código binario BCD
La idea de UNICODE es proveer a todos los sistemas de un conjunto uniforme para la representación de los datos alfanuméricos.Originalmente
UNICODE es un código de 16 bits con lo que pueden representarse 65.536 caracteres diferentes. UNICODE:Originalmente UNICODE es un código de 16 bits con lo que pueden representarse 65.536 caracteres diferentes.
representación de los datos alfanuméricos
Código diseñado para evitar los inconvenientes de ASCII y el resto de los códigos de 8 bits que no son capaces de representar todos los caracteres existentes en todos los idiomas actuales.La idea de UNICODE es proveer a todos los sistemas de un conjunto uniforme para la representación de los datos alfanumericos.
CÓDIGOS NUMÉRICOS:Números enteros sin signo:1BCD (Binary-Coded Decimal)2BCD Empaquetado.3Módulo:El sistema más utilizado, se basa en guardar directamente en binario el valor que queremos almacenar.Se suelen utilizar números fijos de bits dependiendo de la magnitud del número a almacenar. El rango de números será desde 0 hasta 2n siendo n el número de bits utilizados. Números enteros con signo:1BCD y BCD Empaquetado.2Módulo y Signo.3Complemento a1. 4Complemento a 2.5Exceso 2n-1

El SO proporciona al usuario una comunicación directa con la máquina.El sistema operativo es el software básico del ordenador. Este software gestiona todos los recursos hardware del sistema informático y proporciona la base para la creación y ejecución del software de aplicación.Se define sistema operativo (SO) como un conjunto de programas, servicios y funciones que gestionan y coordinan el funcionamiento del hardware y del software. El sistema operativo identifica y reconoce al hardware, y el sistema informático comienza a funcionar. Posteriormente, gracias a los programas y aplicaciones del propio sistema operativo.Clasificación de los sistemas operativos:Según el número de usuarios:Sistema monoproceso Sistema multiproceso. Según el número de procesos que el sistema puede ejecutar a la vez: Sistema monotarea o monoprograma y Sistema multitarea o multiprograma.Según el número de procesadores que el sistema puede ejecutar a la vez: Sistemas operativos monousuario (SOMO) y Sistemas operativos multiusuario (SOMU).Historia de los s.o: La denominada primera generación abarca la década de los años 40 y se caracteriza por la ausencia de sistemas operativos en los computadores. La segunda generación abarca los años 50 y 60. El fin de estos primeros sistemas operativos era permitir en la máquina la secuencia automática de los trabajos de los usuarios. Debido al elevado coste que tenían los computadores de aquella época se intentó mejorar el rendimiento en su utilización y aumentar el número de trabajos ejecutados en un intervalo de tiempo dado. Esto se consiguió fundamentalmente con la introducción de la multiprogramación y el multiprocesamiento, dando lugar a la tercera generación que ocupa hasta el inicio de los años 80.Funciones fundamentales del sistema operativo:
1Proceso
2Gestión de la memoria
3Entrada / Salida
4Sistema de archivos
5Interfaz con el usuario: Llamadas al sistema y API
6Protección y seguridad de la información.
Procesos: Aunque existen muchas definiciones de lo que se entiende por proceso, la más utilizada es la de programa en ejecución. Este concepto, que será explicado ampliamente, es esencial en la construcción de los sistemas operativos multiprogramados.Estado de los procesos:
1 Activo 2preparado 3bloqueado 4nonato 5 muerto .La tarea activa
es la que está ejecutándose en un instante dado. En el caso de sistemas con un único procesador, sólo puede haber una tarea en dicho estado en cada instante. En el estado de preparado, se encuentran todas las tareas que están listas para ejecutarse pero que esperan a que un/el procesador quede libre. Las tareas que están a la espera de que se cumpla alguna condición y que por lo tanto, no están preparadas para ejecutarse, se dice que están en el estado de bloqueado o suspendido. Un proceso está muerto cuando ha terminado su ejecución o bien el sistema operativo ha detectado un error fatal y lo ha transferido a dicho estado. El planificador de procesos: Se denomina planificador al software del SO encargado de asignar los recursos de un sistema entre los procesos que los solicitan. Siempre que haya que tomar una decisión, el planificador debe decidir cual de los procesos que compiten por la posesión de un determinado recurso lo recibirá. Algoritmos de planificación: 1Planificación por expropiación 2Planificación FCFS: primero en llegar primero en ser servido 3Planificación SJF : primera tarea más corta 4Planificación SRT: tiempo que queda más corto 5Planificación RR: prioridad circular 6Planificación por prioridades
Gestión de la Memoria:
La misión del gestor de la memoria es la asignación de memoria principal a los procesos que la soliciten. El espacio vacante se puede utilizar para cargar procesos que están ya preparados para su ejecución,
Sistemas elementales de gestión de la memoria:
El esquema de gestión de la memoria más simple que se puede considerar es aquel que no tiene ningún gestor.tiene un control completo sobre el espacio total de memoria. Da máxima flexibilidad al usuario, ya que puede controlar el uso de la memoria de la forma que desee.

Entradas relacionadas: