Иллюстрированный самоучитель по Digital Graphics

       

Понятие бита


Человек не знал двух слов — "да" и "нет". Он отвечал туманно: "Может быть, возможно, мы подумаем".

Илья Ильф

Двоичность бытия, на которую справедливо указывала философская мысль, начиная с самых древних времен, воплотилась в области информатики и компьютерных технологий в короткое, но фундаментально емкое понятие - бит (bit). Изначально это понятие появилось в теории информации, а теперь стало широко известным.

Справка

Теория информации (от латинского слова "informatio", что значит "ознакомление", "разъяснение") — это область научных знаний, которая развивалась с давних времен, но получила в настоящее время более широкое и всеобъемлющее значение благодаря развитию кибернетики. В кибернетике информация используется как одно из центральных понятий в одном ряду с понятиями связи и управления. А поскольку все эти понятия используются в компьютерных технологиях, они имеют не только научно-мировоззренческий статус, но и сугубо практический, а именно переход из качественной трактовки к количественным измерениям. Это вызвано тем, что в естественно-научных областях приняты разнообразные системы измерений (в гуманитарных науках измерение тоже существует, но носит второстепенный характер, например размер в поэзии, такты в музыке).

Как в теории информации, так и в компьютерных технологиях, построенных на фундаменте теории информации, основополагающую роль в этом как раз играет понятие бита.

Определение

Бит — это минимальное количество информации, составляющее выбор одного из двух возможных вариантов. Когда создается возможность дать ответ на любой вопрос "да" или "нет", то это и есть один бит информации, т. е. в этом случае меньше бита информации не бывает.

Таким образом, бит — это своеобразный атом информации.

Справка

"Бит" — слово искусственное и представляет собой сокращение от английских слов binary digit, что означает парадоксальное сочетание "двоичная единица", а в русский язык оно перешло простой транслитерацией.



Справка



Транслитерация происходит от двух латинских слов "trans", что означает "через", и "lit(t)era" — "буква". С помощью транслитерации обеспечивается передача слов или текста одного алфавита, в данном случае английского, средствами другого алфавита, в данном случае русского. Часто используется при передаче имен собственных или терминов.

Исходя из определения понятия "бит", минимальное количество информации — это ответ на любой вопрос, который имеет только один из двух ответов: "да" или "нет". Один бит информации — это утвердительный или отрицательный ответ на вопрос, требующий только "да" или "нет". Подчеркнем: именно или.

Пример-метафора

Скажем, когда вы звоните по телефону и на вопрос "Коля (или Оля) дома?" обычно отвечают одним битом информации, т. е. "да" или "нет" (впрочем, в зависимости от времени суток, могут, конечно, ответить и более развернуто, но это уже выходит за рамки теории информации).

По отношению к информации в бытовом смысле ("Коля (или Оля) дома!") информация в битовом измерении (1 бит) является такой же абстракцией, как число по отношению к конкретным предметам.

Причем, если кого-то волнует, как же мы отказываемся от качества информации (сообщения), а измеряем ее сугубо абстрактно, то это обычный способ наук и технологий. Можно вспомнить аналогичные случаи из школьной математики.

Пример

Когда-то и нас с вами учили считать "на пальцах" или "на яблоках": детское мышление конкретно (кстати, и обывательское — тоже). Но постепенно мы с вами забыли о яблоках и научились писать числа самым "абстрактным" образом. Например, когда мы вычисляем "2 + 2", уже не играет роли, что мы имеем в виду (те же яблоки или, например, доллары), нас интересуют только чисто количественные отношения.

Также можно абстрагироваться от "качества" информации (качественного содержания информации) и считать ее не как конкретные "яблоки", всякий раз вспоминая о том, какой была конкретная информация — а просто как количество, независимо от ее содержания.




В таком случае мы получаем колоссальную свободу в формальных операциях.

Пример

Если бы люди каждый раз для выполнения счета рисовали яблоки, человечество бы никогда не дошло до высшей математики. Потому что с их помощью невозможно решать какие бы то ни было математические задачи. Ученые, создав формальный способ, с его помощью решают математические проблемы вполне успешно.

И таким же образом, как в математике рассматривается количество безотносительно качества, так же с точки зрения теории информации исключается качественное содержание информации и учитывается только количественное. Скажем, когда упоминаемых выше Коли (или Оли) не оказывается дома, этот факт может быть для нас весьма огорчительным, но формальное количество информации (в абстрактном смысле) от этого не меняется ("да" или "нет" — это всегда один бит информации).

Следовательно, бит — это абстрактное понятие, которое обеспечивает количественное измерение информации. Так вот, когда мы переходим от естественного языка "да — нет" к математике, компьютерным технологиям, то там эти два состояния тоже придется обозначать математически.

Важная мысль

Бит— это абстрактное понятие, которое обеспечивает количественное измерение информации, доступное компьютерным системам.

Математически нам проще всего "битовую информацию" описывать числовыми методами, а именно двоичными числами, которые составляются из цифр "0" и "1".

Замечание

Очень часто люди гуманитарного склада "попадаются" на том, что считают ноль "пустым местом", ведь, как правило, ноль "ничего не значит". На самом деле, ноль это такая же полноправная цифра или число (в данном случае это и число и цифра).

Справка

Кстати, слово "ноль" происходит от латинского слова "nullus", что переводится как "никакой". Оно действительно мало, что значит, только в одном случае: от прибавления (или вычитания) ноля к любому числу последнее не меняется.



Зато ноль всемогущ в умножении: произведение любого числа на ноль дает ноль, а деление на ноль вообще невозможно. Последнее свойство вызывает фатальную ошибку в работе компьютера, если программист не предусмотрел специальную защиту.

И в этой связи обнаруживается, что двоичная система счисления, которая подробно обсуждалась выше, идеально совпадает с понятием бита в теории информации. Сколько передается "ноликов" или "единичек" — столько передается битов информации (современные объемы характеризуются объемами в килобайтах, мегабайтах, гигабайтах и даже терабайтах).

Информацию о двоичной системе счисления смотрите в разд. "Двоичная система счисления" данной главы.

А поскольку один бит и единицы двоичной системы счисления удачно совпали, это дает возможность передавать информацию, одновременно ее учитывая.

Важная мысль

Совпадение единицы информации "бит" и двоичной системы счисления обеспечивает возможность передачи информации одновременно с ее учетом.

Замечание

Попутно напомним, что аналоговая система передачи информации не обладает таким свойством: мы не можем, передавая сигнал, вместе с ним передавать как бы его идеальное состояние.


Содержание раздела