CODIFICACIÓN BINARIA
La codificación binaria es el método que utilizan los ordenadores para representar información en forma digital. Está basada en el sistema de numeración binario, el cual emplea únicamente dos dígitos: 0 y 1.
La elección de estos dos dígitos no es arbitraria, sino que se debe a que los componentes de los ordenadores (como los circuitos electrónicos) funcionan con dos estados claramente diferenciados, que pueden interpretarse como:
Activado o desactivado
Abierto o cerrado
Pasa corriente o no pasa corriente
UNIDADES DE MEDIDA
La unidad más pequeña de información en un ordenador es el bit (binary digit), que corresponde a un 0 o 1. Un conjunto de 8 bits forma un byte, y cada carácter está representado por un byte.
Dado que estas unidades son pequeñas, se utilizan múltiplos como Kilobyte (KB), Megabyte (MB), Gigabyte (GB), etc.
ARQUITECTURA DE VON NEUMANN
Los primeros ordenadores requerían ser cableados manualmente para ejecutar programas. En 1945, John Von Neumann introdujo el concepto de "programa almacenado", separando software y hardware, lo que permitió usar un mismo hardware para múltiples programas.
La arquitectura de Von Neumann incluye:
ALU: Realiza cálculos y decisiones lógicas.
Unidad de control: Gestiona señales y usa la ALU para cálculos.
Memoria: Almacena instrucciones y datos (RAM y caché actuales).
E/S: Conecta dispositivos externos.
Buses: Transportan datos e instrucciones.
Paula Expósito Hurtado