Fundamentos de la Codificación Digital: Tipos de Datos y Representación Binaria
Enviado por Chuletator online y clasificado en Informática y Telecomunicaciones
Escrito el en
español con un tamaño de 3,81 KB
Introducción a la Codificación Digital
La codificación digital consiste en la traducción de valores analógicos al sistema binario.
El Bit
Significa dígito binario y es la unidad de información más pequeña que se puede manipular en una máquina digital.
Representación de Datos Numéricos
La codificación numérica se clasifica según el tipo de valor que se desea representar:
Números Naturales
Son aquellos que nos permiten contar los elementos de un conjunto. No tienen ni signo ni decimales.
Números Enteros
Son elementos del conjunto numérico que contiene los números naturales, sus inversos y el cero (0). El primer bit representa el signo:
- 0 → Positivo (+)
- 1 → Negativo (-)
Para la representación de números negativos se utilizan complementos:
- Ca1 (Complemento a 1): Se cambian los 1 por 0 y los 0 por 1.
- Ca2 (Complemento a 2): Se le suma 1 al resultado del Ca1.
Números Reales
Son los que pueden ser expresados como un número entero o decimal. Abarcan los números racionales (fracción) y los irracionales. Presentan signo y decimales.
Tipos de Representación de Números Reales
- De punto fijo: Tienen un número predeterminado de dígitos.
- De punto flotante: El punto decimal puede estar en cualquier parte del número real. Estos se dividen en:
- Mantisa: Contiene los dígitos del número.
- Exponente: Indica dónde se coloca el punto decimal.
Formatos de Precisión (IEEE 754)
Existen 3 formatos principales:
- 32 Bits (Precisión Simple): 1 bit para el signo, 8 para el exponente y 23 para la mantisa.
- 64 Bits (Precisión Doble): 1 bit para el signo, 11 para el exponente y 52 para la mantisa.
Codificación de Datos Alfanuméricos
Los sistemas de codificación alfanumérica sirven para representar una cantidad determinada de símbolos en binario. A cada símbolo le corresponderá una combinación de bits.
- ASCII (American Standard Code for Information Interchange): Utiliza 8 bits para representar cada símbolo. Con este código se pueden representar dígitos del 0 al 9, letras mayúsculas (A-Z), letras minúsculas, caracteres especiales y otros denominados de control.
- UNICODE: Utiliza 8 o 16 bits para representar cada símbolo. Permite que un producto o página web se oriente a múltiples plataformas, idiomas o países sin necesidad de rediseño.
Codificación de Datos Lógicos
El dato lógico es aquel que puede representar condiciones de lógica binaria, con dos valores que representan verdadero o falso. Para generar un dato a partir de otros datos se emplean los operadores relacionales:
- 0 = Falso (F)
- 1 = Verdadero (V)
Operadores Lógicos Fundamentales
- Operación Y (AND): V cuando A y B lo sean.
- Operación O (OR): V cuando lo sean A o B.
- Operación XO (XOR - O Exclusiva): V cuando A y B sean diferentes.
- Operación NO (NOT): Cambia V por F y viceversa.
Codificación de Datos Enumerados
Es preciso almacenar todos aquellos datos que se precisen de forma enumerada. Para ello, se utilizan todos los bits necesarios para almacenar todos los valores. Ejemplo: Días de la semana → 3 bits.
Codificación de Datos Subrango
Cuando es preciso almacenar el rango válido de un dato enumerado, se almacenan únicamente los valores mínimo y máximo. Ejemplo: Lunes-Viernes.