Минимально возможная информативная единица состоит из двух значений - «да» или «нет», 0 или 1. Такую единицу с 1948 года стали называть «битом». При компьютерной обработке на биты разбивается любая информация - числа, текст, цвет, звук, пространственное положение и т.д. Процессор обрабатывает каждую единицу данных последовательно, но поштучный ввод битов делает очередь слишком длинной и этим ограничивает быстродействие. Поэтому современные процессоры работают с группами единиц информации, состоящими из 8 битов - такая группа получила название «байт» и считается минимальной единицей компьютерной обработки данных. Сгруппированной в байты информация сохраняется на диски или в виртуальной памяти, а также передается по сетевым соединениям.
В принятой сегодня в большинстве стран метрической системе единиц СИ закреплены правила, по которым масштабируются любые единицы измерения. Для обозначения величины, в тысячу раз превышающую ту, которая принята в этой системе, к ее названию добавляют приставку «кило». Например, 1000 грамм = 1 килограмм, 1000 байт = 1 килобайт. Такие же приставки есть и для других тысячекратно увеличенных единиц - миллиону назначена приставка «мега» (1000000 байт = 1000 килобайт = 1 мегабайт), а миллиарду - «гига». Поэтому 1 гигабайт соответствует миллиарду минимальных единиц информации - байтов.
Однако из-за того, что компьютерная информация по своей природе двоична (да/нет, 0/1), компьютерщики для своих внутренних нужд с самого появления процессоров используют не десятичную систему исчисления, как в СИ, а двоичную. Из-за этого достаточно часто возникает путаница с точным определением гигабайтов - в двоичной системе этой единице соответствует не 10⁹ (1 миллиард), а 2³⁰ (1 073 741 824). Чаще всего с этим несоответствием приходится сталкиваться при приобретении разных устройств хранения информации (жестких дисков, флэшек, плееров и т.д.) - производители указывают их емкость в том толковании гигабайтов, которое в более выгодном свете показывает товар.