Информатика

Тема 8: Теоретические основы информатики

Урок 2: Операции над двоичными числами. Измерение информации. Системы кодирования информации

  • Видео
  • Тренажер
  • Теория
Заметили ошибку?

Введение


На прошлом уроке вы узнали о системах счисления. Над двоичными числами можно выполнять такие же основные математические действия, как и над десятичными, – сложение, вычитание, умножение, деление. Все эти действия выполняются по таким же правилам, как и в десятичной системе счисления.


Сложение и вычитание двоичных чисел


Сложениедвоичных чисел выполняется так: цифры слагаются по разрядам, а если в разряде в сумме получается 2, то единица переносится в соседний разряд, тогда как в десятичной системе мы делаем перенос, если в результате сложения в одном из разрядов получается число, равное или больше 10. Например:

 

+

101 = 510 (D5)

010 = 210 (D2)

 

111 = 710 (D7)

 


+

   11

0111 = 710 (D7)

0101 = 510 (D5)

 

1100 = 1210 (D12)

 

Вычитание двоичных чисел заменяется сложением с отрицательным числом. Для этого используется так называемый дополнительный код. Чтобы получить дополнительный код, нужно инвертировать число – заменить нули единицами и наоборот – и к полученному обратному коду прибавить единицу. Например:



+

0011 = 310 (D3)                  710 – 310 = 410 (D7 – D3 = D4)

1100 = обратный код 310 (D3)

1101 = дополнительный код 310 (D3)

0111 = 710 (D7)

 

0100 = 410 (D4)

 

 

 


Умножение и деление двоичных чисел


Умножение выполняется по тем же правилам, что и для десятичных чисел. Если разряд множителя равен 1, то частичное произведение соответствует множимому. Если множимое или множитель равняется 0, то частичное произведение также будет 0. Например:

´

101

010

  = 510 (D5)      510 ´ 210 = 1010 (D5 ´ D2 = D10)

  = 210 (D2)

000
1010

 

1010

  = 1010 (D10)

 

Деление также выполняется по знакомым правилам.

1210 (D12) : 410 (D4) = 310 (D3) = 0112


Измерение информации


Вся информация в компьютере хранится в виде электрических импульсов, и двоичную систему счисления очень удобно использовать для кодирования этой информации. В данном случае 1 обозначает наличие сигнала, 0 – отсутствие сигнала. Минимальная единица измерения количества информации называется бит(от англ. bit, аббревиатура от binary digit – двоичное число). Бит соответствует одному разряду в двоичной системе счисления. Но на практике чаще используется более крупная единица – байт. 1 байт = 8 бит. Любой символ можно закодировать в виде последовательности из 8 бит. Более крупные производные единицы измерения объема информации представлены в таблице на рис. 1.

Рис. 1. Единицы измерения количества информации. (Источник)

Для того чтобы вычислить, какое количество информации содержится в закодированном сообщении, нужно умножить число знаков в этом сообщении на количество бит информации, необходимое для кодирования одного знака. Формулу для подсчета количества информации разработали Ральф Хартли (рис. 2) и Клод Шеннон (рис. 3), выдающиеся ученые и изобретатели, которые внесли значимый вклад в теорию информации.

Формула, которую предложил Хартли в 1928 г., имеет вид:

I = log2 K,

где K – количество возможных равновероятных событий, I– количество информации.

Иногда формулу записывают по-другому:

I = log2 K = log2 (1 / p) = -log2 p,

где p – вероятность наступления каждого из K возможных событий, p = 1 / К, тогда К = 1 / р.

Рис. 2. Ральф Хартли (Источник)

Если события не являются равновероятными, в таком случае используется формула, которую предложил Шеннон в 1948 году.

Рис. 3. Клод Шеннон (Источник)


Системы кодирования информации


Алфавит – совокупность символов знаковой системы, появление любого из символов в сообщении можно рассматривать как равновероятное событие. Информационная емкость символов зависит от мощности алфавита.

Мощность алфавита –  это полное число символов, из которых состоит алфавит. Чем больше мощность алфавита, тем больше информации содержит один знак.

Например, молекула ДНК состоит из четырех элементов (нуклеотидов), которые составляют алфавит генетического кода. Вычислим по формуле информационный вес одного знака этого алфавита.

4 = 2I

I = 2 бит

Рассмотрим еще один пример. В русском алфавите 32 буквы (если считать, что е = ё).

32 = 2I

I = 5 бит

Каждая буква несет информацию 5 бит.

Рис. 4. Кодировка ASCII (Источник)

Сегодня используются различные способы кодирования информации. Стандартная система кодов для представления букв, цифр и знаков называется ASCII («американский стандартный код для обмена информацией»). Поскольку вес стандартного символа = 8 бит, с помощью этой системы можно закодировать максимум 256 символов. Символы 0–127 интернациональны – это знаки препинания, цифры, буквы латинского алфавита (рис. 4). Символы 128–255 национальны, набор символов может отличаться в зависимости от выбранного языка. На рис. 5 вы можете увидеть таблицу символов для кодировки КОИ-8, которая была разработана для кодирования букв кириллицы.

Рис. 5. Кодировка КОИ-8 (Источник)

Однако 256 символов недостаточно для того, чтобы закодировать знаки всех алфавитов, поэтому была создана таблица символов Unicode, в которой для кодирования одного символа используется больше 8 бит.

Если в письме или на сайте текст открывается в виде непонятного набора символов, это означает, что используется неправильная кодировка.

По аналогии с текстовой информацией можно закодировать цвета, например с помощью шестнадцатеричного кода. Эти коды можно узнать из специальных таблиц или в графическом редакторе.

Для того чтобы закодировать графическую, аудио- или видеоинформацию, нужно перевести ее из аналоговой формы в дискретную (дискретный – от лат. discretus – «скачкообразный», «прерывистый»). В аналоговой форме значения физических величин изменяются плавно, а в дискретной – скачкообразно. Для преобразования информации в цифровую форму ее разделяют на мельчайшие элементы, для каждого из которых задают соответствующий код.

Например, когда мы записываем звук, звуковые колебания преобразуются в электрические сигналы. Для этого через равные промежутки времени измеряется и записывается количество напряжения. Чем больше отсчетов за секунду и чем больше информации берется для записи одного отсчета, тем точнее будет записан звук, однако объем информации в этом случае увеличится.

Список литературы

 

1. Соловьева Л.Ф. Информатика и ИКТ. Учебник для 8 класса. – Спб: БХВ-Петербург, 2011.

2. Босова Л.Л., Босова А.Ю. Информатика и ИКТ. Учебник для 8 класса. – М.: Бином. Лаборатория знаний, 2013.

3. Угринович Н.Д. Информатика и ИКТ. 8 класс. – М.: Бином, 2013.

4. Горячев А.В., Макарина Л.А. и др. Информатика. 8 класс. В 2 кн. – М.: Баласс, 2013.

 

Дополнительные рекомендованные ссылки на ресурсы сети Интернет

1. Интернет портал «Информатика» (Источник)

2. Интернет портал «Информатика» (Источник)

3. Интернет портал «Информатика» (Источник)

 

Домашнее задание

 

1. Глава 1, § 1.4. Босова Л.Л., Босова А.Ю. Информатика и ИКТ: Учебник для 8 класса. – М.: Бином. Лаборатория знаний, 2013.

2. По каким правилам выполняются арифметические действия над двоичными числами?

3. Измерьте информационную емкость слова «Информация».

4. Назовите основные системы кодировки текстовой информации.

5. Чем отличается аналоговый звук от дискретного?