Уровни проблем передачи информации. Семантический способ измерения информации: сущность, основные понятия и свойства

Синтаксическая мера информации.

Данная мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Объем данных Vд в этом случае в сообщении измеряется количеством символов (разрядов) в сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных.

К примеру, в двоичной системе счисления единица измерения - бит (bit-binary digit - двоичный разряд). Бит – это ответ на один двоичный вопрос (“да” или “нет”; “0” или “1”), передаваемый по каналам связи с помощью сигнала. Таким образом, содержащееся в сообщении количество информации в битах определяется количеством двоичных слов естественного языка, количеством знаков в каждом слове, количеством двоичных сигналов, необходимых для выражения каждого знака.

В современных ЭВМ наряду с минимальной единицей измерения данных “бит” широко используется укрупненная единица измерения “байт”, равная 8 бит. В десятичной системе счисления единица измерения “бит” (десятичный разряд).

Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы, т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

Y= I / Vд, причем 0

С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.

Тезаурус - это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя изменяется количество семантической информации Iс, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.

Характер такой зависимости показан на рис. 1. Рассмотрим два предельных случая, когда количество семантической информации равно 0:

при = 0 пользователь не воспринимает, не понимает поступающую информацию;

При  пользователь все знает, и поступающая информация ему не нужна.

Как уже отмечалось, понятие информации можно рассматривать при различных ограничениях, накладываемых на ее свойства, т.е. при различных уровнях рассмотрения. В основном выделяют три уровня – синтаксический, семантический и прагматический. Соответственно на каждом из них для определения количества информации применяют различные оценки.

На синтаксическом уровне для оценки количества информации используют вероятностные методы, которые принимают во внимание только вероятностные свойства информации и не учитывают другие (смысловое содержание, полезность, актуальность и т.д.). Разработанные в середине XXв. математические и, в частности, вероятностные методы позволили сформировать подход к оценке количества информации как к мере уменьшения неопределенности знаний.

Такой подход, называемый также вероятностным, постулирует принцип: если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно утверждать, что такое сообщение содержит информацию. При этом сообщения содержат информацию о каких-либо событиях, которые могут реализоваться с различными вероятностями.

Формулу для определения количества информации для событий с различными вероятностями и получаемых от дискретного источника информации предложил американский ученый К. Шеннон в 1948г. Согласно этой формуле количество информации может быть определено следующим образом:

Где I – количество информации; N – количество возможных событий (сообщений); p i – вероятность отдельных событий (сообщений).

Определяемое с помощью формулы (2.1) количество информации принимает только положительное значение. Поскольку вероятность отдельных событий меньше единицы, то соответственно выражение log 2 ,- является отрицательной величиной и для получения положительного значения количества информации в формуле (2.1) перед знаком суммы стоит знак «минус».

Если вероятность появления отдельных событий одинаковая и они образуют полную группу событий, т. е.:

то формула (2.1) преобразуется в формулу Р. Хартли:

В формулах (2.1) и (2.2) отношение между количеством информации I и соответственно вероятностью (или количеством) отдельных событий выражается с помощью логарифма.

Применение логарифмов в формулах (2.1) и (2.2) можно объяснить следующим образом. Для простоты рассуждений воспользуемся соотношением (2.2). Будем последовательно присваивать аргументу N значения, выбираемые, например, из ряда чисел: 1, 2, 4, 8, 16, 32, 64 и т.д. Чтобы определить, какое событие из N равновероятных событий произошло, для каждого числа ряда необходимо последовательно производить операции выбора из двух возможных событий.

Так, при N = 1 количество операций будет равно 0 (вероятность события равна 1), при N = 2, количество операций будет равно 1, при N = 4 количество операций будет равно 2, при N = 8, количество операций будет равно 3 и т.д. Таким образом, получим следующий ряд чисел: 0, 1, 2, 3, 4, 5, 6 и т.д., который можно считать соответствующим значениям функции I в соотношении (2.2).

Последовательность значений чисел, которые принимает аргумент N , представляет собой ряд, известный в математике как ряд чисел, образующих геометрическую прогрессию, а последовательность значений чисел, которые принимает функция I , будет являться рядом, образующим арифметическую прогрессию. Таким образом, логарифм в формулах (2.1) и (2.2) устанавливает соотношение между рядами, представляющими геометрическую и арифметическую прогрессии, что достаточно хорошо известно в математике.

Для количественного определения (оценки) любой физической величины необходимо определить единицу измерения, которая в теории измерений носит название меры .


Как уже отмечалось, информацию перед обработкой, передачей и хранением необходимо подвергнуть кодированию.

Кодирование производится с помощью специальных алфавитов (знаковых систем). В информатике, изучающей процессы получения, обработки, передачи и хранения информации с помощью вычислительных (компьютерных) систем, в основном используется двоичное кодирование, при котором используется знаковая система, состоящая из двух символов 0 и 1. По этой причине в формулах (2.1) и (2.2) в качестве основания логарифма используется цифра 2.

Исходя из вероятностного подхода к определению количества информации эти два символа двоичной знаковой системы можно рассматривать как два различных возможных события, поэтому за единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза (до получения событий их вероятность равна 0,5, после получения – 1, неопределенность уменьшается соответственно: 1/0,5 = 2, т.е. в2 раза). Такая единица измерения информации называется битом (от англ. слова binary digit – двоичная цифра). Таким образом, в качестве меры для оценки количества информации на синтаксическом уровне, при условии двоичного кодирования, принят один бит.

Следующей по величине единицей измерения количества информации является байт, представляющий собой последовательность, составленную из восьми бит, т.е.:

1 байт = 2 3 бит = 8 бит.

В информатике также широко используются кратные байту единицы измерения количества информации, однако в отличие от метрической системы мер, где в качестве множителей кратных единиц применяют коэффициент 10n, где n = 3, 6, 9 и т.д., в кратных единицах измерения количества информации используется коэффициент 2n. Выбор этот объясняется тем, что компьютер в основном оперирует числами не в десятичной, а в двоичной системе счисления.

Кратные байту единицы измерения количества информации вводятся следующим образом:

1 килобайт (Кбайт) = 210 байт = 1024 байт;

1 мегабайт (Мбайт) = 210 Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 210 Мбайт = 1024 Мбайт;

1 терабайт (Тбайт) = 210 Гбайт = 1024 Гбайт;

1 петабайт (Пбайт) = 210 Тбайт = 1024 Тбайт;

1 экзабайт (Эбайт) = 210 Пбайт = 1024 Пбайт.

Единицы измерения количества информации, в названии которых есть приставки «кило», «мега» и т.д., с точки зрения теории измерений не являются корректными, поскольку эти приставки используются в метрической системе мер, в которой в качестве множителей кратных единиц используется коэффициент 10 n , где n = 3, 6, 9 и т.д. Для устранения этой некорректности международная организация International Electrotechnical Commission , занимающаяся созданием стандартов для отрасли электронных технологий, утвердила ряд новых приставок для единиц измерения количества информации: киби (kibi), меби (mebi), гиби (gibi), теби (tebi), пети (peti), эксби (exbi). Однако пока используются старые обозначения единиц измерения количества информации, и требуется время, чтобы новые названия начали широко применяться.

Вероятностный подход используется и при определении количества информации, представленной с помощью знаковых систем. Если рассматривать символы алфавита как множество возможных сообщений N, то количество информации, которое несет один знак алфавита, можно определить по формуле (2.1). При равновероятном появлении каждого знака алфавита в тексте сообщения для определения количества информации можно воспользоваться формулой (2.2).

Количество информации, которое несет один знак алфавита, тем больше, чем больше знаков входит в этот алфавит. Количество знаков, входящих в алфавит, называется мощностью алфавита. Количество информации (информационный объем), содержащееся в сообщении, закодированном с помощью знаковой системы и содержащем определенное количество знаков (символов), определяется с помощью формулы:

где V – информационный объем сообщения; I = log 2 N , информационный объем одного символа (знака); К – количество символов (знаков) в сообщении; N – мощность алфавита (количество знаков в алфавите).

Синтаксическая мера информации

Рис. 1.1. Меры информации

Синтаксическая мера оперирует объемом данных и количеством информации I a , выраженной через энтропию (понятие неопределенности состояния системы).

Семантическая мера оперирует количеством информации, выраженной через ее объем и степень содержательности.

Прагматическая мера определяется ее полезностью, выраженной через соответствующие экономические эффекты.

Синтаксическая мера информации

Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

На сегодняшний день наиболее известны следующие способы количественного измерения информации: объемный, энтропийный, алгоритмический.

Объемный является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации естественно назвать объемом информации.

Объем информации – это количество символов в сообщении. Поскольку одно и то же число может быть записано многими разными способами, т. е. с использованием разных алфавитов, например двадцать один – 21– XXI– 11001, то этот способ чувствителен к форме представления (записи) сообщения. В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (число, текст, отображение) представлена в двоичной форме (с использованием алфавита, состоящего всего из двух символов "0" и "1").

В двоичной системе счисления единица измерения – бит (bit – binary digit – двоичный разряд).

В теории информации бит – количество информации, необходимое для различения двух равновероятных сообщений; а в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. Это слишком мелкая единица измерения, на практике чаще применяется более крупная единица – байт, – равная 8 бит, необходимых для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256 = 2 8).

Широко используются также еще более крупные производные единицы информации:

1 килобайт (кбайт) = 1024 байт = 2 10 байт;

1 Мегабайт (Мбайт) = 1024 кбайт = 2 20 байт;

1 Гигабайт (Гбайт) = 1024 Мбайт = 2 30 байт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление следующие производные единицы:

1 Терабайт (Тбайт) = 1024 Гбайт = 2 40 байт;

1 Петабайт (Пбайт) = 1024 Тбайт = 2 50 байт.

В десятичной системе счисления единица измерения – дит (десятичный разряд).

Сообщение в двоичной системе в виде восьмиразрядного двоичного кода 1011 1011 имеет объем данных V Д = 8 бит.

Сообщение в десятичной системе в виде шестиразрядного числа 275 903 имеет объем данных V Д = 6 бит.

В теории информации и кодирования принят энтропийный подход к измерению информации. Получение информации о какой-либо системе всегда связано с изменением степени неосведомлен-ности получателя о состоянии этой системы. Этот способ измерения исходит из следующей модели.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. После получения сообщения b получатель приобрел некоторую дополнительную информацию I(b), уменьшившую его неосведомленность. Эта информация в общем случае недостоверна и выражается вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации i, содержащееся в выбранном сообщении, определяет как двоичный логарифм N (формула Хартли):

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: , т. е. сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицам информации.

Другие примеры равновероятных сообщений:

1) при бросании монеты "выпала решка", "выпал орел";

2) на странице книги "количество букв четное", "количество букв нечетное".

Нельзя ответить однозначно на вопрос, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский ученый Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе (формула Шеннона):

где – вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности … равны, то каждая из них равна и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями.

В алгоритмической теории информации (раздел теории алгоритмов) предлагается алгоритмический метод оценки информации в сообщении. Любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая позволяет ее произвести.

Коэффициент (степень) информативности (лаконичности) сообщения определяется отношением количества информации к общему объему полученных данных:

, причем 0 < Y < 1.

С увеличением Y уменьшаются объемы работ по преобразованию информации (данных) в системе. Поэтому необходимо стремиться к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

1.4.2.2 Семантическая мера информации

Семантика – наука о смысле, содержании информации.

Для измерения смыслового содержания информации, т. е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение. Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и т. п.) может содержать разное количество информации для разных людей в зависимости от их предшествующих знаний, уровня понимания этого сообщения и интереса к нему.

Для измерения количества семантической информации используется понятие "тезаурус пользователя", т. е. совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя S p изменяется количество семантической информации I c , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рисунке 1. 2.

Рис. 1. 2. Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса I C = f(S p)

Рассмотрим два предельных случая, когда количество семантической информации I C равно 0:

При пользователь не воспринимает, не понимает поступающую информацию;

При пользователь все знает и поступающая информация ему не нужна.

Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом (), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующие в его тезаурусе) сведения.

Следовательно, количество семантической информации и новых знаний в сообщении, получаемое пользователем, является величиной относительной.

Относительной мерой количества семантической информации может служить коэффициент содержательности С, определяемый как отношение количества семантической информации к ее объему.

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера (предложена Ю. И. Шрейдером), которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя .

Тезаурус - это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя S p изменяется количество семантической информации 1 С, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 1.5. Рассмотрим два предельных случая, когда количество семантической информации 1 С равно 0:

  • при S p ->0 пользователь не воспринимает, не понимает поступающую информацию;
  • при S p ->1 пользователь все знает, и поступающая информация ему не нужна.

Рис. 1.5.

Максимальное количество семантической информации / с потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом S p (S p = S popt), когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения. Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного. Относительной мерой количества семантической информации может служить коэффициент содержательности С, рассмотренный выше.

Прагматический (аксиологический) подход к информации базируется на анализе ее ценности, с точки зрения потребителя. Например, информация, имеющая несомненную ценность для биолога, будет иметь ценность, близкую к нулевой, для программиста. Ценность информации связывают со временем, поскольку с течением времени она стареет и ценность ее, а следовательно, и «количество» уменьшаются. Таким образом, прагматический подход оценивает содержательный аспект информации. Он имеет особое значение при использовании информации для управления, поскольку ее количество тесно связано с эффективностью управления в системе.

Прагматическая мера информации определяет полезность информации (ценность) для достижения пользователем поставленной цепи. Эта мера - также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

Алгоритмический подход связан с желанием внедрения универсальной меры информации. Количественная характеристика, отражающая сложность (размер) программы и позволяющая произвести какое- либо сообщение, была предложена А. Н. Колмогоровым.

Так как существуют разные способы задания и реализации алгоритма с использованием различных вычислительных машин и языков программирования, то для определенности задается некоторая конкретная машина, например машина Тьюринга. В этом случае в качестве количественной характеристики сообщения можно взять минимальное число внутренних состояний машины, требующихся для воспроизведения данного сообщения.

Разные подходы к оценке количества информации заставляют, с одной стороны, использовать разнотипные единицы информации для характеристики различных информационных процессов, а с другой - увязывать эти единицы между собой как на логическом, так и на физическом уровнях. Например, процесс передачи информации, измеряемой в одних единицах, сопрягается с процессом хранения информации, где она измеряется в других единицах, и т.д., а поэтому выбор единицы информации является весьма актуальной задачей.

В табл. 1.3 сопоставлены введенные меры информации.

Таблица 1.3

Сопоставление мер информации

Единицы количества информации, определяемые в рамках вероятностного и объемного подходов, представляют собой разновидности синтаксической меры информации, используемой при наиболее общем подходе, когда предметом рассмотрения является не только информация в узком смысле (например, обрабатываемая компьютером), но все ее виды, включая социальную.

Синтаксическая мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Объем данных в информационном сообщении измеряется количеством символов (разрядов). В различных системах счисления разряды имеют различный вес, соответственно меняются единицы измерения данных. Примерами могут служить бит, нат, трит, дит. В рамках вероятностного подхода синтаксическая мера количества информации определяется степенью изменения неопределенности состояния системы, в рамках объемного подхода характеризует объем информации.

Семантическая мера используется для характеристики информации с точки зрения ее смысла. Семантический анализ дает возможность раскрыть содержание информации и показать отношения между смысловыми значениями составляющих ее элементов. В сочетании с понятием «тезаурус» семантическая мера называется тезаурусной мерой информации. Тезаурусная мера была предложена Ю.И.Шнейдером и получила широкое распространение. Тезаурус – это совокупность сведений, которыми располагает пользователь или система. Другое определение, не противоречащее первому: тезаурус – полнота систематизированного набора данных о предмете информации. В ходе информационного процесса в зависимости от соотношений между смысловым содержанием информации и тезаурусом пользователя изменяется количество семантической информации, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Максимальное количество семантической информации пользователь получает, когда информация ему понятна и несет ранее неизвестные ему (отсутствующие в тезаурусе) сведения. Приобретенное в ходе информационного процесса количество семантической информации является величиной относительной, так как одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для некомпетентного. Мерой семантической информации может служить коэффициент содержательности, определяемый как отношение количества семантической информации к общему ее объему.

Прагматическая мера характеризует полезность (ценность) информации для достижения пользователем поставленной цели. Эта мера также является относительной величиной, зависящей от конкретных потребностей пользователя и условий протекания информационного процесса. В технической системе прагматические свойства информации определяют возможность улучшения качества функционирования системы.

Формы представления информации в ЭВМ. Системы счисления

В физической основе работы вычислительной техники лежит генерация, обработка и передача электрических сигналов. Электрические сигналы разделяют на аналоговые (непрерывные) и цифровые (дискретные). В вычислительной технике применяют цифровые сигналы. Каждому уровню напряжения (тока) ставят в соответствие определённую цифру. Соотнесение параметров электрического сигнала с цифрами отражает связь между техникой и математикой. Современные ЭВМ базируются на двоичной системе счисления, в которой имеются только две цифры – 0 и 1. Выбор в пользу этой системы обусловлен тем, что технически реализовать её проще, чем привычную для человека десятичную систему счисления.

Основной элемент электроники ЭВМ – транзистор, работающий в ключевом режиме . В этом режиме транзистор в зависимости от приложенного к нему напряжения реализует по принципу ключа два логических состояния: открыт ‑ закрыт или включён ‑ выключен. Два этих состояния сопоставляют 0 и 1 двоичной системы счисления - тем математическим объектам, с помощью которых кодируется любая информация, обрабатываемая компьютером. На уровне характеристик электрического сигнала «нулю» может, например, соответствовать напряжение минус 5 вольт, а «единице» - плюс 5 вольт. Или – 15 В и + 15 В. Абсолютные значения напряжений, которым сопоставлены логические состояния 0 и 1, для программной обработки информации несущественны и определяются оптимальными условиями функционирования электронных плат. В устройствах хранения данных информационные «нули» и «единицы» могут быть реализованы иначе: например, на магнитном диске состояниям 0 и 1 соответствуют разные направления вектора намагниченности; в накопителях Flash – отсутствие или наличие электрического заряда в данной микроскопической области вещества; в микросхемах ОЗУ – незаряженный или заряженный конденсатор.

Итак, внутреннее представление любой информации в компьютере является двоичным. В программировании также используются восьмеричная и шестнадцатеричная системы счисления. Кроме того, поскольку пользователем компьютера является человек, важна связь упомянутых систем счисления с десятичной.

Система счисления – принятый способ записи чисел – характеризуется количеством цифр, с помощью которых можно выразить любое число. Все системы счисления можно разделить на два класса: позиционные и непозиционные . Позиционные системы счисления – те, в которых вес цифр зависит от их местоположения в записи числа. Количество цифр в позиционной системе называется основанием системы счисления . Ниже в одном блоке собраны важные определения, относящиеся к системам счисления.

Цифры – символы, используемые в записи числа и составляющие некоторый алфавит.

Число – некоторая величина, которая складывается из цифр по определённым правилам.

Система счисления – способ записи чисел с помощью цифр.

Позиционная система счисления – система счисления, в которой вес цифры зависит от ее местоположения в записи.

Разряд – позиция цифры в числе.

Основание – количество цифр, используемых для записи чисел.

В компьютерах используются позиционные системы счисления.

Системы счисления,

получившие наибольшее применение в вычислительной технике

Основание

Система счисления

двоичная

восьмеричная

0, 1, 2, 3, 4, 5, 6, 7

десятичная

0, 1, 2, 3, 4, 5, 6, 7, 8, 9

шестнадцатеричная

0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F

Примером непозиционной системы счисления является римская. В этой системе используется 7 знаков (I, V, X, L, C, D, M), которые соответствуют следующим величинам: I – 1, V – 5, X – 10, L – 50, C – 100, D – 500, M – 1000. Обычно римскими числами пользуются при нумерации глав в книгах или веков в истории. Недостатком непозиционных систем счисления, исключающим возможность их использования в вычислительной технике, является отсутствие формальных правил записи чисел и, соответственно, невозможность выполнения арифметических действий над ними.

Рассмотрим представление числа в позиционной системе счисления. Начнём с простого примера. Пусть N – целое число. Оно может быть представлено краткой или развёрнутой записью. Краткая запись числа:

N = (a n a n -1 …a 1 a 0) p

Здесь a 0 , a 1 , … , a n -1 , a n – цифры, находящиеся соответственно на нулевой, первой, … , (n-1)-ой, n-ой позициях в записи числа. Нумерация позиций, или разрядов, начинается с нуля и идёт справа налево. 0 – это младший разряд числа, имеющий наименьший вес; n – старший разряд с наибольшим весом. Число p – это основание системы счисления.

Например, в числе N = (6874) 10 цифра 4 представляет нулевой разряд, 7 – первый разряд, 8 – второй разряд, 6 – третий разряд. Вес разрядов увеличивается справа налево, от единиц до тысяч: 4 единицы – 7 десятков – 8 сотен – 6 тысяч . 10 – основание системы счисления – указывает, что это число записано в привычной для человека десятичной системе счисления и читается как шесть тысяч восемьсот семьдесят четыре .

Число N может быть представлено развёрнутой записью:

N = a n p n + a n-1 p n-1 + … + a 1 p 1 + a 0 p 0

Здесь число N выражено в виде суммы, каждое слагаемое которой представляет произведение цифры на основание системы счисления, возведённое в степень, равную номеру позиции (разряду) этой цифры в числе:

цифра  (основание ) номер разряда

Возвращаясь к рассмотренному выше примеру, приведём развёрнутую запись числа N = (6874) 10:

(6874) 10 = 610 3 + 810 2 + 710 1 + 410 0 .

С развёрнутой формой записи числа связан универсальный способ перевода чисел из любой системы счисления в десятичную.

Например, требуется перевести шестнадцатеричное число (E7B) 16 в десятичную систему счисления.

Сначала нумеруем разряды числа – справа налево, от младшего разряда к старшим. Учитываем, что нумерация разрядов начинается с нуля.

Учтём соответствие цифр шестнадцатеричной и десятичной систем счисления: E – 14, B – 11. Тогда

Итак, задача решена: (E7B) 16 = (3707) 10 .

Аналогичным способом выполняется перевод дробных чисел. Цифры, расположенные справа от запятой, соответствуют разрядам с отрицательными номерами.

N = (a n a n-1 …a 1 a 0 ,a -1 a -2 …a -k) p

Рассмотрим перевод дробного восьмеричного числа (725,46) 8 в десятичную систему счисления.

Нумеруем разряды.

Произведём вычисления и получим результат в десятичной системе счисления.

(725,46) 8 = 78 2 + 28 1 + 58 0 + 48 -1 + 68 -2 = 448 + 16 + 5 + 4/8 + 6/64 =

448 + 16 + 5 + 0,5 + 0,09375 = 469,59375

Итак, (725,46) 8 = (469,59375) 10 .

Несколько сложнее выполняется перевод чисел из десятичной в иные системы счисления.

Методика основана на последовательном целочисленном делении с выделением остатков в качестве цифр искомого числа. Исходное число делят на основание системы счисления, в которую осуществляют перевод. Результатом целочисленного деления будет частное, представленное целым числом, и остаток. Этот остаток будет младшим разрядом искомого числа. Полученное на первом шаге частное снова делят на основание требуемой системы счисления, снова получают частное и остаток. Остаток сохраняют в качестве следующего разряда искомого числа. Деление продолжают до тех пор, пока очередное частное не окажется меньше основания требуемой системы счисления. Это частное будет старшим разрядом искомого числа. Из него и остатков, полученных на последнем и предыдущих шагах, формируют искомое число.

Разберём эту методику на примере. Пусть, требуется перевести число (894) 10 в семеричную систему счисления.

894: 7 = 127, остаток 5

127: 7 = 18, остаток 1

18: 7 = 2 , остаток 4

Последнее частное – 2 – меньше основания системы счисления, в которую осуществляется перевод, – 7. Теперь можно записать искомое число: (2415) 7 .

Итак, (894) 10 = (2415) 7 .

Логические основы ЭВМ

Алгебра логики. Логические высказывания

Предшественницей и составной частью алгебры, по правилам которой функционируют цифровые устройства ЭВМ, является алгебра логики. Эта алгебра оперирует логическими высказываниями, содержание которых можно оценить как соответствующее действительности (истина) или несоответствующее действительности (ложь).

Логическое высказывание – это повествовательное предложение, истинность или ложность которого можно оценить.

Примеры истинных высказываний: «вода – это жидкость», «после зимы наступит весна», «число 48 в 8 раз больше числа 6». Примеры ложных высказываний: «река Кама впадает в озеро Байкал», «воробей – это ястреб», «число 2 больше числа 3».

В первом предложении глагол употреблен в повелительном наклонении. Побудительное предложение не может быть логическим высказыванием.

Второе предложение не является логическим высказыванием ввиду абсурдности понятий «площадь отрезка» и «длина куба».

Третье предложение является вопросительным, поэтому оно также не может быть логическим высказыванием.

Логическим высказыванием, причем ложным, является четвертое предложение.

Первое предложение представляет собой логическое высказывание. Оно ложно, так как в реальности ближайшей к Солнцу планетой является Меркурий.

Второе предложение - не повествовательное, а восклицательное, поэтому оно не является логическим высказыванием.

Третье предложение могло бы быть логическим высказыванием, если бы содержащихся в нем сведений было достаточно, чтобы оценить его истинность или ложность. Однако невозможно судить о принадлежности числа X указанному интервалу, так как само это число неизвестно. Поэтому третье предложение также не является логическим высказыванием.

Булева алгебра. Основные логические операции

Логические устройства ЭВМ проектируются на основе математического аппарата булевой алгебры, названной в честь английского математика Джорджа Буля, сформулировавшего ее основные понятия и правила. Это алгебра двоичных переменных, констант и функций, принимающих только два значения – единица (в алгебре логики ей соответствует значение ИСТИНА) и ноль (в алгебре логики – ЛОЖЬ).

Основными операциями булевой алгебры являются инверсия , конъюнкция , дизъюнкция . Их русские названия – соответственно отрицание , логическое умножение , логическое сложение . Иначе - операции НЕ , И , ИЛИ .

Обозначения логических операций булевой алгебры

A и B – логические высказывания.

Для наглядного представления и выполнения логических вычислений используют таблицы истинности.

Ниже приведены таблицы истинности основных логических операций.

Инверсия

Инверсия – функция одного аргумента, которым является логическое высказывание A. Если A ложно, то Ā истинно, и наоборот.

Конъюнкция и дизъюнкция

Конъюнкция и дизъюнкция – функции двух и более аргументов. Их результатом является сложное (составное) логическое высказывание, которое в зависимости от значений аргументов функции принимает значение 1 или 0. Таблица истинности должна включать все возможные комбинации значений аргументов – простых или сложных логических высказываний. Всего таких комбинаций 2 n , где n – число аргументов. В простейшем случае, когда оперируем двумя логическими высказываниями A и B, таблицы истинности выглядят следующим образом.

Конъюнкция Дизъюнкция

Аргументы

Результат

Аргументы

Результат

Для произвольного числа аргументов верны два правила.

1. Если среди аргументов конъюнкции есть хотя бы один, который всегда принимает значение 0 (ЛОЖЬ), то результат конъюнкции вне зависимости от значений других аргументов тоже 0 (ЛОЖЬ).

2. Если среди аргументов дизъюнкции есть хотя бы один, который всегда принимает значение 1 (ИСТИНА), то результат дизъюнкции вне зависимости от значений других аргументов тоже 1 (ИСТИНА).

Приведенные таблицы истинности подтверждают эти правила.

Некоторые высказывания обычного человеческого языка можно сопоставлять логическим функциям. Например, высказывание «Для получения отличной оценки на экзамене требуется как наличие зачета по практике, так и хорошее знание теоретического материала» соответствует конъюнкции. Высказывание «Чтобы кожа приобрела загар, надо несколько дней провести на пляже при жарком солнце или несколько раз посетить солярий» представляет дизъюнкцию. Еще пример дизъюнкции: «Чтобы похудеть, надо больше работать физически и меньше есть.» Проиллюстрируем последнее высказывание таблицей истинности.

Высказываниям, представляющим конъюнкцию, обычно соответствуют конструкции «A и B », «как A ,так и B », «A вместе с B »; представляющим дизъюнкцию – «A или B ». Могут быть исключения: пример – разобранное в конце предыдущей страницы предложение.

Конструкциям типа «или A ,или B », «A либо B », «либо A ,либо B » соответствует функция, называемаястрогой дизъюнкцией . Ее отличие от обычной дизъюнкции заключается в том, что она равна 1 только в том случае, когда значения ее аргументов различны. Обозначение строгой дизъюнкции –A  B, другие ее названия –неравнозначность ,исключающее ИЛИ (XORв языках программирования),сложение по модулю 2 . Ниже приведена таблица истинности строгой дизъюнкции.

Строгая дизъюнкция (неравнозначность)

В современной алгебре логики определены еще две основные операции – эквиваленция и импликация .

Эквиваленция (эквивалентность, равнозначность) – это функция, противоположная строгой дизъюнкции. Она принимает значение ИСТИНА тогда, когда все ее аргументы либо истинны, либо ложны. Ее обозначение: A  B.

Эквиваленция (равнозначность)

Импликация – функция двух логических аргументов. Ее обозначение: A  B. Таблица истинности функции «импликация» выглядит следующим образом.

Импликация

Импликация может быть выражена через основные операции булевой алгебры: A  B = A  B.

В языках программирования эквиваленции соответствует функция EQV, импликации – IMP.

Функции «эквиваленция» и «импликация» также могут быть соотнесены с отдельными высказываниями русского языка. Эквиваленции соответствуют высказывания типа: «A эквивалентно B » ; «A тогда и только тогда, когда B » ; «A необходимо и достаточно для B ». Импликации соответствуют конструкции: «Если A , то B » ; «B , если A » ; «B необходимо для A » ; «A достаточно для B » ; «A только тогда, когда B » ; «B тогда, когда A » . Классическим примером импликации является фраза «Если идет дождь, то на небе тучи». Обозначим A = «Идет дождь», B = «На небе тучи» и составим таблицу истинности.

«Дождь не идет, на небе нет туч» - ясный солнечный день,

составное высказывание истинно

«Дождь не идет, на небе тучи» - сухой пасмурный день,

составное высказывание истинно

«Идет дождь, на небе нет туч» - такого не бывает,

составное высказывание ложно

«Дождь идет, на небе тучи» - пасмурный дождливый день,

составное высказывание истинно

Надо подчеркнуть, что формализация высказываний человеческого языка носит весьма ограниченный характер. Большинство фраз и предложений русского языка, как разговорного, так и литературного, вообще не являются высказываниями с точки зрения алгебры логики. Это связано с наличием множества нюансов письма и речи, которые невозможно охватить в рамках формальной логики, с эмоциональной окраской и субъективностью суждений, а также с непреложностью того факта, что в мире гораздо больше относительных истин, чем абсолютных. Поэтому эксперименты с соотнесением операций формальной логики с высказываниями человеческого языка применимы только к однозначно воспринимаемым предложениям, констатирующим самые общие и простые факты.

Итак, базисом современной алгебры логики являются пять основных логических операций: инверсия, конъюнкция, дизъюнкция, импликация, эквиваленция. Все остальные операции могут быть выражены комбинациями трех операций булевой алгебры: инверсии, конъюнкции и дизъюнкции.

При анализе сложных логических высказываний необходимо помнить о приоритете логических операций: при отсутствии скобок сначала выполняется отрицание, далее в порядке убывания приоритета идут конъюнкция, строгая дизъюнкция, дизъюнкция, импликация и в последнюю очередь – эквиваленция. Скобки могут изменить этот порядок.

В цифровой технике широкое распространение получили микросхемы, построенные на логических элементах И-НЕ и ИЛИ-НЕ. Технологически они реализуются наиболее просто. Предпринимались даже попытки построения компьютеров, состоящих только из этих элементов. С ними связаны еще две двоичные алгебры – алгебра Шеффера и алгебра Пирса. Операция И-НЕ носит название «штрих Шеффера», операция ИЛИ-НЕ – «стрелка Пирса». Обозначения: соответственно A  B и A  B. С позиций булевой алгебры обе эти операции составные.

A  B = A  B

A  B = A  B

Таблицы истинности этих функций:

Штрих Шеффера Стрелка Пирса

Аргументы

Результат

Аргументы

Результат

Обозначения в цифровой технике.