Representación y comunicación de la información

Los primeros ordenadores eran analógicos y presentaban problemas de precisión y versatilidad. Por este motivo se crearon ordenadores digitales que se pueden programar para resolver cualquier problema.
La Z1 fue la primera computadora libremente programable es.wikipedia.org/wiki/Z1
Los 20 ordenadores personales más importantes de la historia de la tecnología xataka.com/historia-tecnologica/20-ordenadores-personales-importantes-historia-tecnologia
Un ordenador digital necesita disponer de un sistema de representación y comunicación de la información que codifique y transfiera los datos de forma segura y rápida. La codificación se realiza mediante un sistema binario y los datos a codificar pueden ser números, textos, imágenes, sonidos, etc.
El tema que nos ocupa es de vital importancia para cualquier informático, ya que la representación de los datos y su comunicación tiene infinitas aplicaciones. Una de las más importantes consiste en la conversión de lenguaje usuario a lenguaje del computador.
Análogamente, el estudio de esta materia es esencialmente importante para entender toda la lógica matemática de un ordenador y para comprender cómo funciona el proceso comunicativo.
En este tema veremos cómo se representan los números, textos, imágenes, sonidos y vídeos en un sistema digital y las alteraciones que se pueden aplicar sobre los mensajes. Además, estudiaremos cómo se comunica la información por los distintos canales desde emisor a receptor.
1. Representación de la información
Los sistemas digitales representan la información mediante un sistema binario. Se utiliza el valor 0 para indicar que no hay tensión y el 1 para indicar que sí la hay, tal y como se puede observar en la figura 1.

La unidad mínima de información es el bit (acrónimo de binary digit). El byte es la siguiente unidad mínima de información y es capaz almacenar 8 dígitos binarios con 28=256 valores posibles. Para representar grandes cantidades se utilizan los múltiplos del byte: kilobyte, megabyte, gigabyte…
2. Sistemas de numeración
Un sistema de numeración es un conjunto de símbolos y reglas que permite representar datos numéricos. El sistema de numeración que utiliza el ser humano es el decimal. Sin embargo, como se ha comentado en el punto anterior, los sistemas digitales utilizan el sistema de numeración binario.
El inconveniente del sistema binario es que la representación de algunos números resulta muy compleja. Por este motivo se utilizan otros sistemas de numeración que resultan más cómodos como el sistema octal o el hexadecimal. Veamos los sistema de numeración más destacados.
2.1. Decimal, binario, octal y hexadecimal
Las características fundamentales de los sistemas de numeración más destacados son los siguientes:
- Decimal o base 10 → dígitos del 0 al 9.
- Binario o de base 2 → tiene dos símbolos: 0 y 1.
- Octal o de base 8 → dígitos del 0 al 7.
- Hexadecimal o de base 16 → dígitos del 0 al 9 y de la A a la F.
La equivalencia entre los sistemas de numeración decimal, binario, octal y hexadecimal es la siguiente.
DECIMAL | BINARIO | HEXADECIMAL | OCTAL |
0 | 0000 | 0 | 0 |
1 | 0001 | 1 | 1 |
2 | 0010 | 2 | 2 |
3 | 0011 | 3 | 3 |
4 | 0100 | 4 | 4 |
5 | 0101 | 5 | 5 |
6 | 0110 | 6 | 6 |
7 | 0111 | 7 | 7 |
8 | 1000 | 8 | 10 |
9 | 1001 | 9 | 11 |
10 | 1010 | A | 12 |
11 | 1011 | B | 13 |
12 | 1100 | C | 14 |
13 | 1101 | D | 15 |
14 | 1110 | E | 16 |
15 | 1111 | F | 17 |
1) Indica si los siguientes números son correctos:
202 | 10110 | 898 | 108 | 3416 | 7610 | 10H16 | 908 | G816 | 1010 | 222 | 458 | A1216 | 102 | 1210
2.2. Conversiones entre sistemas
A partir de la tabla anterior resulta muy sencillo convertir un número binario a octal o hexadecimal y viceversa. En la siguiente figura podemos ver que un valor en hexadecimal equivale a cuatro dígitos binarios y que un valor en octal equivale a 3 dígitos binarios.

2) Convierte de binario a hexadecimal:
- 101010012
- 100011112
- 10001111101010112
- 010001111101010112
- 1010001111101010112
- 11010001111101010112
- 111010001111101010112
3) Convierte de binario a octal:
- 10012
- 1011112
- 1111101010112
- 010001111110112
- 101000111110112
- 11100011101010112
- 1101000111101010112
2.2.1. Conversión de decimal a binario, octal o hexadecimal
Cuando la conversión es de decimal a binario, octal o hexadecimal debemos dividir el número entre la base (base 2, 8 o 16) y hacer divisiones sucesivas de los cocientes resultantes hasta que este sea inferior o igual a al número de la base. El último cociente será la cifra más significativa y vamos cogiendo los restos desde el último al primero para completar la cadena.
Ejemplo: 2810 = 111002

4) Convierte de decimal a binario:
- 456810
- 320010
- 58710
- 867210
- 1000010
5) Convierte de decimal a hexadecimal:
- 1510
- 4910
- 10810
- 29610
- 46010
- 103410
- 350010
- 471110
- 700010
- 1854110
6) Convierte de decimal a octal:
- 4910
- 910
- 310
- 16110
- 9710
- 19310
- 73710
- 123410
- 432110
- 010
2.2.1. Conversión de binario, octal o hexadecimal a decimal
Cuando la conversión es de binario, octal o hexadecimal a decimal podemos utilizar el método de las potencias de “b” siendo b la base: D = d0xb0+d1xb1+d2xb2
Ejemplo: 1101012 = 5310
1101012 = 1×25 + 1×24 + 0x23 + 1×22 + 0x21 + 1×20 = 32 + 16 + 0 + 4 + 0 + 1 = 5310
7) Convierte de binario a decimal:
- 100002
- 1100112
- 1000102
- 11111112
- 10101012
8) Convierte de octal a decimal:
- 378
- 548
- 1048
- 4018
- 1568
- 2678
- 3448
- 12008
- 567548
9) Convierte de hexadecimal a decimal
- 616
- 1616
- 4516
- 100016
- A316
- AAA16
- ABCD16
- 39B2C16
- 7FC03B16
Comprueba tus resultados mediante las diferentes calculadoras que puedes encontrar en la parte izquierda de la siguiente página web. calculadoraconversor.com/tabla-ascii/
Actividades de refuerzo: comprueba tu aprendizaje realizando los siguientes ejercicios propuestos:
3. Caracteres alfanuméricos
Los caracteres alfanuméricos se pueden representar mediante diferentes sistemas de codificación que han ido evolucionando y empleando cada vez mayor número de bits. Veamos los más destacados.
- BCD-6bit (Binary Coded Decimal): es uno de los primeros códigos utilizados, emplea 6 bits y permite definir 64 (26) caracteres. Posteriormente, se crearon otras versiones con más caracteres.
- ASCII (American Standard Code for Information Interchange): emplea 7 bits y permite representar 128 (27) caracteres. El problema era que no representaba caracteres especiales.
- ASCII Extendido: emplea 8 bits y puede representar 256 (28) caracteres y permite representar caracteres especiales.
- ISO latin 1 (International Organization for Standardization): emplea 8 bits y permite representar 256 caracteres. Coincide en sus primeros 128 caracteres con la codificación ASCII. Este sistema incluye caracteres específicos del alfabeto latino.
- Unicode: emplea 16 bits y proporciona más de 65000 (216) caracteres diferentes. Este estándar ha sido aceptado en tecnologías como XML (Extensible Markup Language) o Java. Dispone de un mecanismo para formar caracteres según el repertorio de símbolos existentes. Por ejemplo, la ñ se compone de una n más una virgulilla. El problema de UNICODE es que no utiliza todos los caracteres disponibles y se produce un desperdicio de espacio.
- UTF-8 (8-bit Unicode Transformation Format): Utiliza la tabla de Unicode pero con un sistema de compresión. Surgió para solucionar los problemas de espacio de Unicode.
4. Imágenes
Para representar imágenes en un ordenador se pueden utilizar dos sistemas: los mapas de bits y los vectores.
Mapas de bits
Se basa en dividir la imagen en una matriz de píxeles, donde cada uno de ellos representa un color distinto.
- En las imágenes en escala de grises se utilizan 8 bits por píxel y por tanto puede representar 256 (28) tonos de grises diferentes.
- En imágenes en color, cada píxel se descompone en tres colores primarios: rojo, verde y azul. Se utilizan 8 bits para representar la intensidad de cada color. Por lo tanto, se puede representar dieciséis millones de colores (224).
El problema de este tipo de imágenes es que se granulan y difuminan al ser escaladas. Los formatos más utilizados son JPG, PNG y GIF.
Vectoriales
Las imágenes vectoriales se basan en fórmulas matemáticas y se construyen a partir de vectores. Son independientes de la resolución y por tanto aunque se amplíen no pierden calidad. El formato más utilizado actualmente es el SVG (Scalable Vector Graphics).
5. Sonidos
El método para convertir una señal de sonido analógico en audio digital consiste en dos partes:
- Muestreo: saca muestras de sonidos separadas por un tiempo constante.
- Cuantificación: contabiliza con bits los valores de amplitud de la señal analógica de cada muestra.
Los formatos más conocidos son wav, mp3 y ogg.
6. Vídeos
El vídeo se representa mediante imágenes o frames, que se muestran secuencialmente creando un efecto de movimiento. Para almacenar el vídeo en el ordenador se utiliza un formato de archivo que almacena tanto el audio como el vídeo, aunque también puede almacenar metadatos y subtítulos, entre otros datos. Los formatos más conocidos son: MPG, AVI, MOV, MP4 y OGG.
7. Comunicación de la información
La comunicación es el proceso mediante el cual un emisor envía información a un receptor a través de un canal.
7.1. Elementos básicos
Los elementos básicos de un sistema de comunicación se representan en la figura 2.

7.2. Funcionamiento del proceso comunicativo
Para que la comunicación se lleve a cabo, el emisor debe enviar la información al receptor a través de un sistema de transmisión que sea capaz de codificar y decodificar la información para que sea entendible. La codificación es el método mediante el cual se convierte un carácter de un lenguaje natural en un símbolo de otro sistema.
Los sistemas de transmisión suelen aplicar una serie de alteraciones al mensaje para asegurar su recepción y una transmisión segura y rápida. Por este motivo, el mensaje puede ser cifrado para evitar que terceros no autorizados conozcan su contenido, puede ser comprimido y puede incorporar redundancias para mitigar los errores producidos durante la transmisión, tal y como se puede ver en la siguiente figura.

8. Representación de la información en informática cuántica
La informática cuántica es una tecnología disruptiva en constante avance con un futuro ligado a innovaciones como la inteligencia artificial y a la mejora de capacidades de almacenamiento, transferencia y procesamiento de datos.
Cuenta con un paradigma de computación distinto al de la informática clásica que se basa en el uso de cúbits (bits cuánticos), una especial combinación de unos y ceros. Los bits de la computación clásica pueden estar en 1 o en 0, pero solo un estado a la vez. Sin embargo, el cúbit puede ser cero y uno a la vez. Esto da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos.