La necesidad de medir la información se ha agudizado cuando la humanidad se ha enfrentado a la automatización del proceso de computación. A mediados del siglo pasado, aparecieron las ciencias relacionadas con el procesamiento de la información, luego surgieron las bases de la división moderna de la misma en porciones. En 1948, se dio el nombre de la información mínima, que ahora se acepta en todas partes.
Para medir la cantidad de información de la computadora, se utilizan unidades llamadas "bits" y "bytes". Un bit es la unidad más pequeña posible que puede contener información sobre solo dos valores de la variable medida: "sí" o "no", 0 o 1, encendido o apagado, etc.
Los procesadores utilizados en las computadoras procesan los datos de forma secuencial, fragmento a fragmento. Pero introducir cada porción sucesiva en ellos lleva más tiempo que procesarla, por lo tanto, para acelerar el proceso, los datos se suministran en conjuntos de ocho bits de información. Una parte de este tamaño se denomina byte. Estas unidades (bytes) miden el tamaño de los archivos, la capacidad de los discos duros y ópticos, las unidades flash y otros medios de almacenamiento. También se utilizan en unidades derivadas que muestran, por ejemplo, la velocidad de transmisión de datos a través de redes informáticas.
En el sistema métrico SI adoptado en la mayoría de los países, los prefijos estándar se aplican a los bytes, lo que indica su multiplicidad de mil unidades. Entonces, 1 kilobyte significa 1000 bytes, 1 megabyte equivale a un millón de bytes, etc. Se pueden aplicar los mismos prefijos a los bits, es importante no confundirse: 1 kilobit es ocho veces menos que 1 kilobyte, y 1 megabit es mucho menos que 1 megabyte.
En la actualidad, se asocia cierta confusión con la naturaleza binaria de la unidad mínima de información, ya que el conjunto de prefijos utilizados en el sistema SI está diseñado para el sistema decimal. Por lo tanto, por ejemplo, en una tarjeta flash de acuerdo con las reglas del sistema SI, se indica una capacidad de 1 gigabyte, pero de hecho contiene menos información. Para evitar esto, la Comisión Electrotécnica Internacional, allá por 1999, introdujo otros prefijos para denotar la multiplicidad de bytes. En lugar del prefijo "kilo", debe usarse "kibi" - 1 kibibyte es igual a 2¹⁰ = 1024 bytes. Hay reemplazos similares para megabyte (mebibyte), gigabyte (gibibyte), etc. Sin embargo, dicho sistema de designación de unidades de información aún no ha recibido una distribución generalizada.